Tecnología sin mitología Ha llegado la hora de bajar de la nube

by Comentarios desactivados en Tecnología sin mitología Ha llegado la hora de bajar de la nube

Hay un lugar mágico donde las empresas no atraviesan crisis, sino que mueren, y donde las innovaciones no se obtienen tras años de esfuerzos, sino que son otorgadas por dioses fundadores. El héroe de ese lugar es el ingeniero, un superman que salva el planeta a través de apps, incluso cuando solo sirven para echar una cana al aire. Como en cualquier relato épico hay ritos de paso —entrar en bolsa—, parábolas —fracasar y levantarse—, amuletos —el hardware— e infinitos antagonistas. Resolver los problemas del mundo, según la iglesia del algoritmo, es tan sencillo como crear startups e inyectar ingenieros por doquier. Es un universo paralelo en el que la tecnología no es herramienta, sino mitología, y en el que los protagonistas no son personas normales, sino genios incomprendidos.

El porqué de la deriva mitológica de tecnologías que se han vuelto tan mundanas como las cacerolas hay que buscarlo en varios factores, desde el marketing mesiánico promovido por Apple y sus imitadores hasta la naturaleza misma del producto tecnológico, que otorga promesas de poder a los insatisfechos. Las hagiografías de los varios Jobs, Gates y Dell fomentan el culto a la personalidad a la vez que crían sueños de riqueza. Chavales que en otra época hubiesen querido ser caballeros y matar dragones, hoy sueñan con crear apps revolucionarias. Todos quieren emprender y dar el pelotazo. Todos quieren ser el próximo Elon Musk o Mark Zuckerberg. Tal es la fiebre por el solucionismo digital que hay políticos que defienden que hay que aprender a programar antes incluso de aprender a pensar y expresarse.

Es un mito que nos jode a todos.

Nos jode porque levanta una barrera artificial entre hacedores y usuarios. De pronto, el ciudadano es víctima de fuerzas incomprensibles, ante las que ni siquiera la ley puede hacer frente. Los dioses electrónicos apenas escuchan las plegarias de sus fieles: solo cabe esperar y aceptar lo digan los términos y condiciones. Quien se inicia en este mundo se lleva la impresión de que para disfrutar de la tecnología hay que entender primero qué ocurre en Cupertino y Mountain View. Los sacerdotes de este culto son los periodistas tecnológicos, augures que interpretan el ruido que sale de la fragua olímpica para que los mortales podamos alcanzar la salvación. Muchos no tienen inconveniente en cargar las tintas para que nos impresionemos y hagamos clic. A fin de cuentas, el material se presta muy bien a crear guiones de telenovela.

Silicon Valley - Imagen promocional de la serie

Series como Silicon Valley ayudan a desmitificar, pero no bastan: hay que construir un discurso distinto

Pero la gente necesita entender la tecnología en lugar de mirar con asombro lo que sale de una keynote o un congreso de móviles. La gente tiene problemas que resolver. La tecnología puede mejorar nuestras vidas: para ello basta con explicarla e informar sobre ella con objetividad y rigor, como hacen, por ejemplo, los buenos periodistas científicos. Allá donde haga falta, podemos salir del camino e indicar cómo reparar aquello que se creía infalible, así como mostrar las flaquezas de los dioses a través de relatos de calidad. Eso requiere distanciarse de un mundo absorbente y en que muchos de los que escribimos sobre tecnología nos hemos criado. Requiere alejarse del mito y abrazar la explicación. Requiere, sobre todo, admitir que la tecnología debe servir a los humanos, y no al revés.

Hasta la vista, Hawking Por qué los robots militares son una buena idea

by Comentarios desactivados en Hasta la vista, Hawking Por qué los robots militares son una buena idea

Cuando se envía una carta abierta a la prensa en pleno verano pueden pasar cosas terribles. La que escribió el Future of Life Institute sobre las armas autónomas, por ejemplo, está sembrando el pánico en medio mundo. Los titulares que la presentan son apocalípticos, con menciones al “juicio final” y a un futuro “que da miedo”. Con una increíble falta de originalidad, los medios acompañan la noticia con imágenes de la nueva película de Terminator, que se está estrenando justo ahora en los cines.

La alarma se remonta a enero, cuando el FLI publicó un comunicado en el que invitaba la comunidad científica a prestar atención al impacto social de la inteligencia artificial. En un documento adjunto sugerían campos de estudio en los que merecería la pena destinar más recursos, como la regulación de los vehículos automáticos, las predicciones financieras —seguros incluidos— y el desarrollo de armas autónomas, esto es, de robots militares. Todo muy académico. ¿Preocupación? Sí. ¿Pánico? No.

landscape-1428935780-terminator-genisys-arnold-smile

Terminator es educado: siempre pide las cosas antes de tomarlas por la fuerza

A la prensa le encanta jugar con el miedo. Y también a algunos empresarios y figuras que quieren una mayor visibilidad, como Elon Musk, CEO de Tesla Motors, que destinó diez millones de dólares a investigar formas de “mantener amistosa” a la IA. Quizá lo haya hecho porque no puede dormir pensando en que algún día sus coches automáticos atropellarán a gente. O quizá porque es una forma muy cool de autopromoción. El caso es que sus aseveraciones han generado todavía más miedo.

La segunda carta del FLI, publicada el 28 de julio, arguye que una carrera de armamentos autónomos es una mala idea y que deberían prohibirse. Entre los firmantes hay más de 2.000 investigadores y algunas personalidades destacadas del mundo de la ciencia y la tecnología, como Stephen Hawking, Steve Wozniak y Noam Chomsky. También esta carta ha recibido amplia cobertura mediática, con fotos de androides asesinos y ciudades reducidas a escombros.

Si fuese un investigador de la IA, mi primer impulso sería firmar la carta sin dudarlo, pues esta pinta un escenario peligroso a la vez que señala a los investigadores como los primeros responsables. Con tal de no ser asociado con una horda de robots asesinos, firmaría como mis colegas y me olvidaría del asunto. Luego seguiría investigando, sin saber que mis patentes acabarían por usarse de todas formas en proyectos militares. Ocurre con todo tipo de investigación básica (¡hola, Oppenheimer!).

La cuestión importante, con todo, no es lo efectivo que pueda ser este panfleto, sino lo real que es la amenaza de las armas autónomas. Es un tema delicado de abordar porque en él confluyen muchos de los temores atávicos de la humanidad, como el complejo de Frankenstein (¿me matará mi creación?) o el recuerdo de guerras y actos sangrientos. La mera imagen de un Furby armado hasta los dientes basta para ponernos la piel de gallina y rechazar de cuajo cualquier idea de robots castrenses.

Pero deberíamos pensar mejor.

La carta abierta del FLI parece presuponer 1) que podemos crear máquinas capaces de perpetrar genocidios, 2) que podemos detener esta amenaza con una prohibición y 3) que los humanos somos mejores a la hora de empuñar un arma. La última idea no se expresa de manera explícita, pero está ahí: en la carta la máquina se compara con la destrucción causada por armas nucleares, químicas y bacteriológicas. La máquina, incontrolable e impredecible, es el cuarto jinete del apocalipsis.

El punto más fácil de desmontar es el de la prohibición. Como la misma carta afirma, el coste de construir armas autónomas es mucho menor que el de construir armas nucleares, que requieren una infraestructura que solo está al alcance de un puñado de países. Esta no es una revolución que podamos detener, a menos que controlemos la venta de hardware de propósito general y prohibamos tecnologías de cifrado. Es más sensato limitar el acceso a lo que de verdad mata: explosivos y sus ingredientes. Un robot armado con cuchillos puede matar, pero no sería más peligroso que un perro anti-tanque.

También el primer punto está en entredicho. Solo quien desconoce la investigación en IA, o alguien muy loco, puede afirmar a la ligera que dentro de diez o veinte años tendremos Terminator. Los avances en IA son lentos y escalonados. La famosa singularidad preconizada por algunos no tiene porque llegar. De hecho parece imposible. Como dijo Steven Pinker, “la potencia de procesamiento no es una varita mágica”. No se puede obtener un diamante amasando carbón. Por este motivo, pensar que llegaremos pronto a una IA de batalla tan fiable como peligrosa es una insensatez.

Finalmente está el punto implícito de la carta, según el cual los humanos somos moralmente mejores que las máquinas. Es una proyección de una ingenuidad enorme: según el FLI eliminar al humano de la ecuación es peligroso. Los autores de la carta parecen olvidar que la crueldad es un rasgo exclusivamente humano y cultural. La proyectamos sobre las máquinas, pero es coto del Homo Sapiens, algo que explicó muy bien Erich Fromm en su ensayo sobre la destructividad:

Man’s history is a record of extraordinary destructiveness and cruelty, and human aggression, it seems, far surpasses that of man’s animal ancestors, and man is, in contrast to animals, a real “killer”

Una máquina autónoma es más parecida a un animal que a un ser humano a la hora de matar; carece de la flexibilidad y de los impulsos típicamente humanos que conducen a la violencia excesiva. Una máquina programada para cometer actos de violencia gratuita sería tan poco fiable que se descartaría. En el robot de guerra se busca precisión y frialdad. El robot no tiene miedo, ni tampoco las emociones que llevan los soldados humanos a perder el control. En otras palabras, un robot armado no es una mala idea si se compara con la alternativa, que es la destrucción descontrolada.

Weapons with greater autonomy could mean more accuracy and fewer civilian casualties. The appropriate response is not to forgo potentially useful technology, but instead to understand where human judgment is still required, regardless of how advanced the technology becomes.

La guerra es una actividad racional donde ser humano aporta más problemas que ventajas. Un conflicto entre máquinas autónomas bien programadas puede concluir con una menor pérdida de vidas y sin crímenes de guerra. Sí, sería maravilloso que ni siquiera las máquinas hiciesen falta, pero, de momento, un mundo sin conflictos no es posible. ¿Preferimos entonces una guerra entre humanos emocionales e impredecibles o entre máquinas precisas e incapaces de crueldad?

En un excelente artículo de 2013, Kenneth Anderson y Matthew Waxman, miembros de la Task Force on National Security and Law, explicaron que una prohibición internacional no solo sería inútil, sino que además conllevaría el peligro de que los beneficios de la investigación de armas autónomas se pierdan por una política de todo o nada. La solución que proponen pasa por no cerrar los ojos ante un tema en apariencia aterrador: hay que “programar las leyes de la guerra” e iniciar conversaciones internacionales.

Autonomous weapon systems are not inherently unlawful or unethical. Existing legal norms are sufficiently robust to enable us to address the new challenges raised by robotic systems. The best way to adapt existing norms to deal with these new technologies is a combined and international-national dialogue designed to foster common standards and spread best practices

Las armas y los conflictos bélicos son un aspecto inevitable de la civilización, un lastre con el que tendremos que cargar durante mucho tiempo. Frente a la inevitabilidad de la guerra, desarrollar armas mejores y más selectivas es un acto humanitario. Y aunque el de las armas autónomas sea un tema que nos genere repulsión, no debe ser censurado con argumentos inválidos, sino que debe ser discutido e investigado. Necesitamos leyes y reglas, no rumores apocalípticos.

En resumen: no debemos temer las armas autónomas, sino las matanzas asistidas por ordenador. No es la máquina el problema, sino el humano que la programa en un vacío legal.

Bibliografía recomendada: The Ethics of Autonomous Weapons Systems

¿Yo cuantificado? Prefiero el Yo asesorado

¿Sabéis esa gente que insiste en contaros los detalles más vulgares de un suceso? Con las apps de fitness me siento igual. Insisten en hacerme saber cuántas calorías he quemado, cuánta grasa saturada tienen mis alimentos y en cuántas semanas alcanzaré mi peso deseado. Algunas incluso explican por qué tal dieta es superior a otra, o los beneficios de beber tres litros de agua al día.

Hay cosas que no necesito saber sobre mi cuerpo. No necesito saberlas porque no sé qué hacer con ellas. Porque nadie en realidad sabe muy bien qué hacer con esos datos excepto entrar en competiciones absurdas. El campo de la nutrición humana está plagado de opiniones seudocientíficas, pero a los autores de aplicaciones de quantified self no parece importarles. A fin de cuentas, ellos solo recogen los datos.

Pero es que cuando hablamos de mejora personal, lo importante no es lo que sabes, sino lo que haces. En este sentido, el exceso de información al que nos llevan las apps de yo cuantificado hace más mal que bien. En el mejor de los casos nos hace sentir falsamente expertos. En el peor nos paraliza. Antes dejábamos de correr al quedarnos sin aliento; ahora observamos el parpadeo de un brazalete.

Un Apple Watch o una FitBit no nos ayudan a tomar mejores decisiones sobre nuestro bienestar, sino únicamente a preocuparnos más. Por eso abandonamos los wearables al cabo de unos meses de uso. Yo mismo he renunciado a llevar en la muñeca el equivalente de una hoja de cálculo Excel: regalé datos valiosos a cambio de semanas de confusión y ansiedad. La pérdida de peso inicial se produjo porque era más consciente de mis hábitos.

¿Qué es mejor? Correr en un mundo virtual. Es mejor dar sentido al juego con objetivos reales que convertir la vida en juego. También un sistema experto, una Siri que tome la responsabilidad de interpretar los datos y dar instrucciones simples y efectivas. Pero mientras los wearables y sus aplicaciones se limiten a recolectar y mostrar datos, no puede haber una comunicación útil entre hombre y máquina, ni tampoco decisiones efectivas.

No necesitamos juegos educativos, sino educadores que puedan jugar

by Comentarios desactivados en No necesitamos juegos educativos, sino educadores que puedan jugar

Todos los videojuegos son educativos, sin excepción. Todos enseñan cosas útiles, ya sean idiomas o técnicas de resolución de conflictos. Puedes aprender a reírte con Monkey Island, a soportar la soledad con Elite o a dominar el arte de la diplomacia con Civilization. Call of Duty y Grand Theft Auto rebosan de dilemas morales y muestran las bajezas del ser humano. The Stanley Parable es una clase magistral de ironía y metanarrativa. Dear Esther da cuerpo a la poesía contemporánea. Journey enseña el misticismo. Y así hasta agotar el catálogo de juegos. Incluso de Carmageddon pueden sacarse lecciones vitales.

Pero el propósito de los juegos no es enseñar, sino entretener. La enseñanza es un efecto colateral positivo, no el objetivo central. Lo mejor que saben hacer los videojuegos es estimular la curiosidad y facilitar la transferencia de habilidades al mundo real, exactamente como ocurre con los juegos de siempre. Los videojuegos educativos, en cambio, son aburridos y fracasan porque a menudo ponen el acento más en los contenidos educativos en sí que en la diversión y la exploración libre del conocimiento. Como dijo hace poco un experto, “los juegos educativos compiten contra Angry Birds”.

04-07-2015 15-18-05

Cuatro de cada cinco videojuegos usados en las aulas americanas son “educativos” (fuente)

Los videojuegos están entrando en los colegios, pero no pueden hacerlo solos, ni tampoco empujados por áridas leyes educativas. Son los maestros quienes han de traer el videojuego al aula y tratarlo como un medio de enseñanza más. Iniciativas como Minecraft Education solo funcionarán si el profesor se implica con el juego tanto como el alumno, hasta el punto de formar parte de la comunidad de desarrollo. Sin embargo, casos como el de los docentes que amenazaron con denunciar a los padres que dejan a sus hijos jugar al Call of Duty muestran lo lejos que estamos de tener escuelas videolúdicas.

En el informe Level up learning, Lori Takeuchi y Sarah Vaala hacen hincapié en la necesidad de que todos los actores involucrados, desde los desarrolladores hasta los políticos, trabajen juntos para mejorar la integración del videojuego en el aula. Es una buena recomendación, pero cabe añadir que no basta con comprar pantallas y mandos para llegar a esa integración, sino que a veces hay que plantear cambios en el modelo de enseñanza: mientras que el fomentado por los videojuegos es cooperativo, el que predomina en las aulas es jerárquico. ¿Deben los profes ganar a sus alumnos al Street Fighter? Lo dudo.

No, la psicología no es una ciencia

Esa frase ya no me molesta. Es más: la repetiré todas las veces que haga falta, porque es el martillazo que la psicología necesita para avanzar. Lo digo como amante de la ciencia, pero sobre todo como psicólogo.

Durante años intenté rebatir esa frase con energía, pero la única conclusión a la que llegué todas las veces es que la psicología es una ciencia débil. Y eso solo puede decirse de una parte de la psicología. El resto es indefendible, sea cual sea la definición de ciencia empleada. Pero a diferencia de Vaughan Bell, que dice que la psicología no siempre es una ciencia (y no pasa nada), creo que el estatus de ciencia a medias hace más mal que bien. No solo daña el conocimiento, sino también las personas.

Porque el problema de la psicología como ciencia no es epistemológico, sino social.

El motivo por el que las instituciones llaman “ciencia” a la psicología -y la presentan como “ciencia de la salud”- es evidente: otorga una pátina de seriedad, e incluso desbloquea fondos estatales cuando las cosas van bien. Pero la psicología, al menos la que se enseña y practica en España, no merece ese apelativo, y no porque no haya gente que haga ciencia en su seno -que la hay, y muy buena-, sino porque la comunidad de psicólogos no actúa ni comunica como una comunidad de científicos.

El conocimiento de metodología y estadística es un ejemplo de lo que quiero decir. Es el área más odiada de la carrera. Quienes estudian psicología con la intención de convertirse en jefes de recursos humanos, terapeutas o pedagogos, la perciben como una tortura, un obstáculo en su camino. Lo mismo ocurre con las neurociencias, o con la psicología experimental. En lugar de querer ser un científico, el aspirante a psicólogo desea convertirse en un ejecutor ignorante de técnicas misteriosas.

El resultado de años de laxitud es que muchos de los que practican la psicología en España tienen un bagaje científico escaso o nulo. Los tratamientos que se aplican son a menudo refritos de filosofía, pseudociencias y tratamientos ineficaces. El colegio oficial de psicólogos cierra los ojos ante esto. En cuanto a la recién creada Academia de Psicología de España dudo que coja el toro por los cuernos, porque es un toro demasiado grande, pesado y lucrativo. Y porque la inercia universitaria es enorme.

A los neurocientíficos y psicólogos experimentales que intentan hacer ciencia en medio del erial que es la psicología española, les diría que buscasen asilo en otras disciplinas y en otros países. Muchos, de hecho, ya lo hacen. Deben hacerlo porque el estatus de la psicología como ciencia no puede sustentarse en el esfuerzo de un grupo aislado. Es mejor dejar que el barco de la psicología se hunda con su cargamento de contradicciones que apoyar indirectamente a colectivos dañinos.

El escenario ideal sería que los colegios profesionales, refugium peccatorum de charlatanes y gente que pasaba por ahí se refundiesen, y que la psicología como carrera se fragmentase como en el mundo anglosajón, en grados para cada gran rama. Prefiero que la psicología pierda financiación y sea echada de la universidad a que la farsa actual siga su curso. Y no importa si lo descrito ocurre también en otras disciplinas aplicadas: el “y tú también” no es un argumento válido.

Necesitamos más que nunca que la psicología sea una ciencia fuerte y bien conectada con las demás. La solución pasa por admitir que la psicología, tal y como se enseña y practica en España, no es una ciencia, y por reconstruirla a partir de una sana y tenaz autocrítica. Pero quienes han de emprender el proceso somos los psicólogos mismos. Si no lo hacemos, la única voz crítica seguirá siendo la de Paul Lutus.