El bit que envejece ¿Qué pasará con nuestros recuerdos digitales?

by Comentarios desactivados en El bit que envejece ¿Qué pasará con nuestros recuerdos digitales?

If we can’t make memories, we can’t heal

—Leonard Shelby (Memento, 2000)

Envejecemos. Nos lo acaban de recordar los veinte años de Windows 95. Tecnologías que ocupan gran parte de nuestro tiempo se convierten en imágenes de baja resolución, máquinas de museo y arte reciclado. Como una generación de primeros nacidos, descubrimos al fin la senectud, y con ella un sinnúmero de interrogantes: ¿nos entenderán nuestros hijos cuando les hablemos de ventanas, memoria insuficiente y lag? ¿Qué les mostraremos cuando nos pregunten cómo nos casamos gracias a una app? ¿Qué recuerdos tendremos a nuestro alcance para mantener viva la memoria si todo lo que usamos será reemplazado por algo diferente y a menudo incompatible?

Envejecemos a la vez que el mundo digital que ocupamos se apaga y desaparece para siempre. Pronto contaremos batallitas de lugares que ya no existen. Miraremos móviles y ordenadores rotos con nostalgia, menearemos la cabeza cuando nos muestren los enésimos remakes de juegos ochenteros, y todo lo que quede de nuestros escarceos amorosos serán fragmentos de logs rescatados de un correo electrónico. Los únicos recuerdos fáciles de recuperar serán los que las empresas consideren explotables: recuerdos derivados, infectados por publicidad o disponibles previo pago. La monetización del pasado ya está en los roadmaps de Silicon Valley.

memento

Un fotograma de Memento (2000) con un ligero retoque…

La mayoría no nos preocupamos de esta erosión mnemónica. Vivimos inmersos en un presente que se renueva a sí mismo a golpe de service packs y migraciones, mientras los recuerdos se degradan y quedan atrapados en archivos ilegibles y servidores muertos. Solo unos pocos héroes, como los arqueólogos de Archive.org, se afanan en preservar los enseres de nuestras chozas digitales. Con la misma falta de preocupación de una cultura que se limita a subsistir, vivimos sin conservar el pasado. Pero el recuerdo no es un lujo, sino un elemento importante de nuestro bienestar psicológico. Sin recuerdo, no podemos construir nuestra identidad. Sin recuerdo no hay historia posible.

Como sugiere Jason Scott, archivista e historiador de Archive.org, es un buen momento para empezar a digitalizar todo lo que está a nuestro alcance. Pero al mismo tiempo deberíamos preocuparnos de que todo lo digital que hemos producido a lo largo de estos años se conserve en buen estado en las décadas venideras, sin que quede atrapado en las jaulas de formatos privativos y empresas que nos tratan como un producto. A veces ese esfuerzo incluye convertir lo digital en analógico, como narra el documental District Zero, en el que refugiados sirios piden imprimir fotos rescatadas de sus móviles dañados.

Algún día me gustaría poder leer este mensaje a sabiendas de que mis recuerdos no desaparecerán en un pulso electromagnético o en el cierre del GeoCities de turno. ¿Lo conseguiré?

23-08-2015 16-14-37

Tecnología sin mitología Ha llegado la hora de bajar de la nube

by Comentarios desactivados en Tecnología sin mitología Ha llegado la hora de bajar de la nube

Hay un lugar mágico donde las empresas no atraviesan crisis, sino que mueren, y donde las innovaciones no se obtienen tras años de esfuerzos, sino que son otorgadas por dioses fundadores. El héroe de ese lugar es el ingeniero, un superman que salva el planeta a través de apps, incluso cuando solo sirven para echar una cana al aire. Como en cualquier relato épico hay ritos de paso —entrar en bolsa—, parábolas —fracasar y levantarse—, amuletos —el hardware— e infinitos antagonistas. Resolver los problemas del mundo, según la iglesia del algoritmo, es tan sencillo como crear startups e inyectar ingenieros por doquier. Es un universo paralelo en el que la tecnología no es herramienta, sino mitología, y en el que los protagonistas no son personas normales, sino genios incomprendidos.

El porqué de la deriva mitológica de tecnologías que se han vuelto tan mundanas como las cacerolas hay que buscarlo en varios factores, desde el marketing mesiánico promovido por Apple y sus imitadores hasta la naturaleza misma del producto tecnológico, que otorga promesas de poder a los insatisfechos. Las hagiografías de los varios Jobs, Gates y Dell fomentan el culto a la personalidad a la vez que crían sueños de riqueza. Chavales que en otra época hubiesen querido ser caballeros y matar dragones, hoy sueñan con crear apps revolucionarias. Todos quieren emprender y dar el pelotazo. Todos quieren ser el próximo Elon Musk o Mark Zuckerberg. Tal es la fiebre por el solucionismo digital que hay políticos que defienden que hay que aprender a programar antes incluso de aprender a pensar y expresarse.

Es un mito que nos jode a todos.

Nos jode porque levanta una barrera artificial entre hacedores y usuarios. De pronto, el ciudadano es víctima de fuerzas incomprensibles, ante las que ni siquiera la ley puede hacer frente. Los dioses electrónicos apenas escuchan las plegarias de sus fieles: solo cabe esperar y aceptar lo digan los términos y condiciones. Quien se inicia en este mundo se lleva la impresión de que para disfrutar de la tecnología hay que entender primero qué ocurre en Cupertino y Mountain View. Los sacerdotes de este culto son los periodistas tecnológicos, augures que interpretan el ruido que sale de la fragua olímpica para que los mortales podamos alcanzar la salvación. Muchos no tienen inconveniente en cargar las tintas para que nos impresionemos y hagamos clic. A fin de cuentas, el material se presta muy bien a crear guiones de telenovela.

Silicon Valley - Imagen promocional de la serie

Series como Silicon Valley ayudan a desmitificar, pero no bastan: hay que construir un discurso distinto

Pero la gente necesita entender la tecnología en lugar de mirar con asombro lo que sale de una keynote o un congreso de móviles. La gente tiene problemas que resolver. La tecnología puede mejorar nuestras vidas: para ello basta con explicarla e informar sobre ella con objetividad y rigor, como hacen, por ejemplo, los buenos periodistas científicos. Allá donde haga falta, podemos salir del camino e indicar cómo reparar aquello que se creía infalible, así como mostrar las flaquezas de los dioses a través de relatos de calidad. Eso requiere distanciarse de un mundo absorbente y en que muchos de los que escribimos sobre tecnología nos hemos criado. Requiere alejarse del mito y abrazar la explicación. Requiere, sobre todo, admitir que la tecnología debe servir a los humanos, y no al revés.

Hasta la vista, Hawking Por qué los robots militares son una buena idea

by Comentarios desactivados en Hasta la vista, Hawking Por qué los robots militares son una buena idea

Cuando se envía una carta abierta a la prensa en pleno verano pueden pasar cosas terribles. La que escribió el Future of Life Institute sobre las armas autónomas, por ejemplo, está sembrando el pánico en medio mundo. Los titulares que la presentan son apocalípticos, con menciones al “juicio final” y a un futuro “que da miedo”. Con una increíble falta de originalidad, los medios acompañan la noticia con imágenes de la nueva película de Terminator, que se está estrenando justo ahora en los cines.

La alarma se remonta a enero, cuando el FLI publicó un comunicado en el que invitaba la comunidad científica a prestar atención al impacto social de la inteligencia artificial. En un documento adjunto sugerían campos de estudio en los que merecería la pena destinar más recursos, como la regulación de los vehículos automáticos, las predicciones financieras —seguros incluidos— y el desarrollo de armas autónomas, esto es, de robots militares. Todo muy académico. ¿Preocupación? Sí. ¿Pánico? No.

landscape-1428935780-terminator-genisys-arnold-smile

Terminator es educado: siempre pide las cosas antes de tomarlas por la fuerza

A la prensa le encanta jugar con el miedo. Y también a algunos empresarios y figuras que quieren una mayor visibilidad, como Elon Musk, CEO de Tesla Motors, que destinó diez millones de dólares a investigar formas de “mantener amistosa” a la IA. Quizá lo haya hecho porque no puede dormir pensando en que algún día sus coches automáticos atropellarán a gente. O quizá porque es una forma muy cool de autopromoción. El caso es que sus aseveraciones han generado todavía más miedo.

La segunda carta del FLI, publicada el 28 de julio, arguye que una carrera de armamentos autónomos es una mala idea y que deberían prohibirse. Entre los firmantes hay más de 2.000 investigadores y algunas personalidades destacadas del mundo de la ciencia y la tecnología, como Stephen Hawking, Steve Wozniak y Noam Chomsky. También esta carta ha recibido amplia cobertura mediática, con fotos de androides asesinos y ciudades reducidas a escombros.

Si fuese un investigador de la IA, mi primer impulso sería firmar la carta sin dudarlo, pues esta pinta un escenario peligroso a la vez que señala a los investigadores como los primeros responsables. Con tal de no ser asociado con una horda de robots asesinos, firmaría como mis colegas y me olvidaría del asunto. Luego seguiría investigando, sin saber que mis patentes acabarían por usarse de todas formas en proyectos militares. Ocurre con todo tipo de investigación básica (¡hola, Oppenheimer!).

La cuestión importante, con todo, no es lo efectivo que pueda ser este panfleto, sino lo real que es la amenaza de las armas autónomas. Es un tema delicado de abordar porque en él confluyen muchos de los temores atávicos de la humanidad, como el complejo de Frankenstein (¿me matará mi creación?) o el recuerdo de guerras y actos sangrientos. La mera imagen de un Furby armado hasta los dientes basta para ponernos la piel de gallina y rechazar de cuajo cualquier idea de robots castrenses.

Pero deberíamos pensar mejor.

La carta abierta del FLI parece presuponer 1) que podemos crear máquinas capaces de perpetrar genocidios, 2) que podemos detener esta amenaza con una prohibición y 3) que los humanos somos mejores a la hora de empuñar un arma. La última idea no se expresa de manera explícita, pero está ahí: en la carta la máquina se compara con la destrucción causada por armas nucleares, químicas y bacteriológicas. La máquina, incontrolable e impredecible, es el cuarto jinete del apocalipsis.

El punto más fácil de desmontar es el de la prohibición. Como la misma carta afirma, el coste de construir armas autónomas es mucho menor que el de construir armas nucleares, que requieren una infraestructura que solo está al alcance de un puñado de países. Esta no es una revolución que podamos detener, a menos que controlemos la venta de hardware de propósito general y prohibamos tecnologías de cifrado. Es más sensato limitar el acceso a lo que de verdad mata: explosivos y sus ingredientes. Un robot armado con cuchillos puede matar, pero no sería más peligroso que un perro anti-tanque.

También el primer punto está en entredicho. Solo quien desconoce la investigación en IA, o alguien muy loco, puede afirmar a la ligera que dentro de diez o veinte años tendremos Terminator. Los avances en IA son lentos y escalonados. La famosa singularidad preconizada por algunos no tiene porque llegar. De hecho parece imposible. Como dijo Steven Pinker, “la potencia de procesamiento no es una varita mágica”. No se puede obtener un diamante amasando carbón. Por este motivo, pensar que llegaremos pronto a una IA de batalla tan fiable como peligrosa es una insensatez.

Finalmente está el punto implícito de la carta, según el cual los humanos somos moralmente mejores que las máquinas. Es una proyección de una ingenuidad enorme: según el FLI eliminar al humano de la ecuación es peligroso. Los autores de la carta parecen olvidar que la crueldad es un rasgo exclusivamente humano y cultural. La proyectamos sobre las máquinas, pero es coto del Homo Sapiens, algo que explicó muy bien Erich Fromm en su ensayo sobre la destructividad:

Man’s history is a record of extraordinary destructiveness and cruelty, and human aggression, it seems, far surpasses that of man’s animal ancestors, and man is, in contrast to animals, a real “killer”

Una máquina autónoma es más parecida a un animal que a un ser humano a la hora de matar; carece de la flexibilidad y de los impulsos típicamente humanos que conducen a la violencia excesiva. Una máquina programada para cometer actos de violencia gratuita sería tan poco fiable que se descartaría. En el robot de guerra se busca precisión y frialdad. El robot no tiene miedo, ni tampoco las emociones que llevan los soldados humanos a perder el control. En otras palabras, un robot armado no es una mala idea si se compara con la alternativa, que es la destrucción descontrolada.

Weapons with greater autonomy could mean more accuracy and fewer civilian casualties. The appropriate response is not to forgo potentially useful technology, but instead to understand where human judgment is still required, regardless of how advanced the technology becomes.

La guerra es una actividad racional donde ser humano aporta más problemas que ventajas. Un conflicto entre máquinas autónomas bien programadas puede concluir con una menor pérdida de vidas y sin crímenes de guerra. Sí, sería maravilloso que ni siquiera las máquinas hiciesen falta, pero, de momento, un mundo sin conflictos no es posible. ¿Preferimos entonces una guerra entre humanos emocionales e impredecibles o entre máquinas precisas e incapaces de crueldad?

En un excelente artículo de 2013, Kenneth Anderson y Matthew Waxman, miembros de la Task Force on National Security and Law, explicaron que una prohibición internacional no solo sería inútil, sino que además conllevaría el peligro de que los beneficios de la investigación de armas autónomas se pierdan por una política de todo o nada. La solución que proponen pasa por no cerrar los ojos ante un tema en apariencia aterrador: hay que “programar las leyes de la guerra” e iniciar conversaciones internacionales.

Autonomous weapon systems are not inherently unlawful or unethical. Existing legal norms are sufficiently robust to enable us to address the new challenges raised by robotic systems. The best way to adapt existing norms to deal with these new technologies is a combined and international-national dialogue designed to foster common standards and spread best practices

Las armas y los conflictos bélicos son un aspecto inevitable de la civilización, un lastre con el que tendremos que cargar durante mucho tiempo. Frente a la inevitabilidad de la guerra, desarrollar armas mejores y más selectivas es un acto humanitario. Y aunque el de las armas autónomas sea un tema que nos genere repulsión, no debe ser censurado con argumentos inválidos, sino que debe ser discutido e investigado. Necesitamos leyes y reglas, no rumores apocalípticos.

En resumen: no debemos temer las armas autónomas, sino las matanzas asistidas por ordenador. No es la máquina el problema, sino el humano que la programa en un vacío legal.

Bibliografía recomendada: The Ethics of Autonomous Weapons Systems

¿Yo cuantificado? Prefiero el Yo asesorado

¿Sabéis esa gente que insiste en contaros los detalles más vulgares de un suceso? Con las apps de fitness me siento igual. Insisten en hacerme saber cuántas calorías he quemado, cuánta grasa saturada tienen mis alimentos y en cuántas semanas alcanzaré mi peso deseado. Algunas incluso explican por qué tal dieta es superior a otra, o los beneficios de beber tres litros de agua al día.

Hay cosas que no necesito saber sobre mi cuerpo. No necesito saberlas porque no sé qué hacer con ellas. Porque nadie en realidad sabe muy bien qué hacer con esos datos excepto entrar en competiciones absurdas. El campo de la nutrición humana está plagado de opiniones seudocientíficas, pero a los autores de aplicaciones de quantified self no parece importarles. A fin de cuentas, ellos solo recogen los datos.

Pero es que cuando hablamos de mejora personal, lo importante no es lo que sabes, sino lo que haces. En este sentido, el exceso de información al que nos llevan las apps de yo cuantificado hace más mal que bien. En el mejor de los casos nos hace sentir falsamente expertos. En el peor nos paraliza. Antes dejábamos de correr al quedarnos sin aliento; ahora observamos el parpadeo de un brazalete.

Un Apple Watch o una FitBit no nos ayudan a tomar mejores decisiones sobre nuestro bienestar, sino únicamente a preocuparnos más. Por eso abandonamos los wearables al cabo de unos meses de uso. Yo mismo he renunciado a llevar en la muñeca el equivalente de una hoja de cálculo Excel: regalé datos valiosos a cambio de semanas de confusión y ansiedad. La pérdida de peso inicial se produjo porque era más consciente de mis hábitos.

¿Qué es mejor? Correr en un mundo virtual. Es mejor dar sentido al juego con objetivos reales que convertir la vida en juego. También un sistema experto, una Siri que tome la responsabilidad de interpretar los datos y dar instrucciones simples y efectivas. Pero mientras los wearables y sus aplicaciones se limiten a recolectar y mostrar datos, no puede haber una comunicación útil entre hombre y máquina, ni tampoco decisiones efectivas.