Hasta la vista, Hawking

Cuando se envía una carta abierta a la prensa en pleno verano pueden pasar cosas terribles. La que escribió el Future of Life Institute sobre las armas autónomas, por ejemplo, está sembrando el pánico en medio mundo. Los titulares que la presentan son apocalípticos, con menciones al “juicio final” y a un futuro “que da miedo”. Con una increíble falta de originalidad, los medios acompañan la noticia con imágenes de la nueva película de Terminator, que se está estrenando justo ahora en los cines.

La alarma se remonta a enero, cuando el FLI publicó un comunicado en el que invitaba la comunidad científica a prestar atención al impacto social de la inteligencia artificial. En un documento adjunto sugerían campos de estudio en los que merecería la pena destinar más recursos, como la regulación de los vehículos automáticos, las predicciones financieras —seguros incluidos— y el desarrollo de armas autónomas, esto es, de robots militares. Todo muy académico. ¿Preocupación? Sí. ¿Pánico? No.

landscape-1428935780-terminator-genisys-arnold-smile

Terminator es educado: siempre pide las cosas antes de tomarlas por la fuerza

A la prensa le encanta jugar con el miedo. Y también a algunos empresarios y figuras que quieren una mayor visibilidad, como Elon Musk, CEO de Tesla Motors, que destinó diez millones de dólares a investigar formas de “mantener amistosa” a la IA. Quizá lo haya hecho porque no puede dormir pensando en que algún día sus coches automáticos atropellarán a gente. O quizá porque es una forma muy cool de autopromoción. El caso es que sus aseveraciones han generado todavía más miedo.

La segunda carta del FLI, publicada el 28 de julio, arguye que una carrera de armamentos autónomos es una mala idea y que deberían prohibirse. Entre los firmantes hay más de 2.000 investigadores y algunas personalidades destacadas del mundo de la ciencia y la tecnología, como Stephen Hawking, Steve Wozniak y Noam Chomsky. También esta carta ha recibido amplia cobertura mediática, con fotos de androides asesinos y ciudades reducidas a escombros.

Si fuese un investigador de la IA, mi primer impulso sería firmar la carta sin dudarlo, pues esta pinta un escenario peligroso a la vez que señala a los investigadores como los primeros responsables. Con tal de no ser asociado con una horda de robots asesinos, firmaría como mis colegas y me olvidaría del asunto. Luego seguiría investigando, sin saber que mis patentes acabarían por usarse de todas formas en proyectos militares. Ocurre con todo tipo de investigación básica (¡hola, Oppenheimer!).

La cuestión importante, con todo, no es lo efectivo que pueda ser este panfleto, sino lo real que es la amenaza de las armas autónomas. Es un tema delicado de abordar porque en él confluyen muchos de los temores atávicos de la humanidad, como el complejo de Frankenstein (¿me matará mi creación?) o el recuerdo de guerras y actos sangrientos. La mera imagen de un Furby armado hasta los dientes basta para ponernos la piel de gallina y rechazar de cuajo cualquier idea de robots castrenses.

Pero deberíamos pensar mejor.

La carta abierta del FLI parece presuponer 1) que podemos crear máquinas capaces de perpetrar genocidios, 2) que podemos detener esta amenaza con una prohibición y 3) que los humanos somos mejores a la hora de empuñar un arma. La última idea no se expresa de manera explícita, pero está ahí: en la carta la máquina se compara con la destrucción causada por armas nucleares, químicas y bacteriológicas. La máquina, incontrolable e impredecible, es el cuarto jinete del apocalipsis.

El punto más fácil de desmontar es el de la prohibición. Como la misma carta afirma, el coste de construir armas autónomas es mucho menor que el de construir armas nucleares, que requieren una infraestructura que solo está al alcance de un puñado de países. Esta no es una revolución que podamos detener, a menos que controlemos la venta de hardware de propósito general y prohibamos tecnologías de cifrado. Es más sensato limitar el acceso a lo que de verdad mata: explosivos y sus ingredientes. Un robot armado con cuchillos puede matar, pero no sería más peligroso que un perro anti-tanque.

También el primer punto está en entredicho. Solo quien desconoce la investigación en IA, o alguien muy loco, puede afirmar a la ligera que dentro de diez o veinte años tendremos Terminator. Los avances en IA son lentos y escalonados. La famosa singularidad preconizada por algunos no tiene porque llegar. De hecho parece imposible. Como dijo Steven Pinker, “la potencia de procesamiento no es una varita mágica”. No se puede obtener un diamante amasando carbón. Por este motivo, pensar que llegaremos pronto a una IA de batalla tan fiable como peligrosa es una insensatez.

Finalmente está el punto implícito de la carta, según el cual los humanos somos moralmente mejores que las máquinas. Es una proyección de una ingenuidad enorme: según el FLI eliminar al humano de la ecuación es peligroso. Los autores de la carta parecen olvidar que la crueldad es un rasgo exclusivamente humano y cultural. La proyectamos sobre las máquinas, pero es coto del Homo Sapiens, algo que explicó muy bien Erich Fromm en su ensayo sobre la destructividad:

Man’s history is a record of extraordinary destructiveness and cruelty, and human aggression, it seems, far surpasses that of man’s animal ancestors, and man is, in contrast to animals, a real “killer”

Una máquina autónoma es más parecida a un animal que a un ser humano a la hora de matar; carece de la flexibilidad y de los impulsos típicamente humanos que conducen a la violencia excesiva. Una máquina programada para cometer actos de violencia gratuita sería tan poco fiable que se descartaría. En el robot de guerra se busca precisión y frialdad. El robot no tiene miedo, ni tampoco las emociones que llevan los soldados humanos a perder el control. En otras palabras, un robot armado no es una mala idea si se compara con la alternativa, que es la destrucción descontrolada.

Weapons with greater autonomy could mean more accuracy and fewer civilian casualties. The appropriate response is not to forgo potentially useful technology, but instead to understand where human judgment is still required, regardless of how advanced the technology becomes.

La guerra es una actividad racional donde ser humano aporta más problemas que ventajas. Un conflicto entre máquinas autónomas bien programadas puede concluir con una menor pérdida de vidas y sin crímenes de guerra. Sí, sería maravilloso que ni siquiera las máquinas hiciesen falta, pero, de momento, un mundo sin conflictos no es posible. ¿Preferimos entonces una guerra entre humanos emocionales e impredecibles o entre máquinas precisas e incapaces de crueldad?

En un excelente artículo de 2013, Kenneth Anderson y Matthew Waxman, miembros de la Task Force on National Security and Law, explicaron que una prohibición internacional no solo sería inútil, sino que además conllevaría el peligro de que los beneficios de la investigación de armas autónomas se pierdan por una política de todo o nada. La solución que proponen pasa por no cerrar los ojos ante un tema en apariencia aterrador: hay que “programar las leyes de la guerra” e iniciar conversaciones internacionales.

Autonomous weapon systems are not inherently unlawful or unethical. Existing legal norms are sufficiently robust to enable us to address the new challenges raised by robotic systems. The best way to adapt existing norms to deal with these new technologies is a combined and international-national dialogue designed to foster common standards and spread best practices

Las armas y los conflictos bélicos son un aspecto inevitable de la civilización, un lastre con el que tendremos que cargar durante mucho tiempo. Frente a la inevitabilidad de la guerra, desarrollar armas mejores y más selectivas es un acto humanitario. Y aunque el de las armas autónomas sea un tema que nos genere repulsión, no debe ser censurado con argumentos inválidos, sino que debe ser discutido e investigado. Necesitamos leyes y reglas, no rumores apocalípticos.

En resumen: no debemos temer las armas autónomas, sino las matanzas asistidas por ordenador. No es la máquina el problema, sino el humano que la programa en un vacío legal.

_Bibliografía recomendada: The Ethics of Autonomous Weapons Systems_