Nos encanta hablar con las máquinas. Parecen tener una respuesta para todo. Están disponibles a todas horas. No nos juzgan y no pueden competir con nosotros. Al compararlas con un chamán o un terapeuta, ganan de calle, pues sabemos que están diseñadas para dar sin pedir nada a cambio. Son dioses menores en una caja.
Empezó todo con ELISA, la IA que simulaba ser un psiquiatra. El bot que Creative Labs distribuyó con sus tarjetas de sonido, Dr. Sbaitso, te invitaba a hablar de tus problemas. En Pórtico, el protagonista se explaya con un robopsiquiatra. En THX-1138, los ciudadanos se confiesan ante una IA. Incluso hay robots que reconfortan sin hablar, como PARO.
Distribuido como una broma, Dr. Sbaitso sigue en la memoria de millones de personas
Por razones que deberíamos preguntar a un antropólogo, a menudo nos resulta más fácil buscar comprensión en las máquinas. Pero eso no significa que hagan un buen trabajo. Un artículo del Journal of the American Medical Association encontró que Siri, Google Now, Cortana y S Voice contestan mal a peticiones de ayuda médica o por violencia.
Las respuestas de los asistentes virtuales a peticiones médicas (fuente)
Con razón la estratega de contenidos Sarah Wachter-Boettcher lanzó un ataque enfurecido a Apple y compañía, que mantuvo incluso después de que Apple parcheara aprisa y corriendo a Siri. Las respuestas de los asistentes virtuales a peticiones de auxilio serias reciben respuestas pobres, desesperantes o insultantes.
En otras palabras, el smartphone, que se ha vuelto la primera línea de escucha, que se ha vendido como un dispensador de ayuda portátil, falla terriblemente cuando las peticiones se vuelven serias. Apple, Google y Microsoft no parecen pensar que cada vez más personas enfermas, vulnerables o que viven solas usan su tecnología.
I just want it to stop writing off queries as “not a problem.”
I just want it to do what it’s designed to do: look things up for users, rather than say it doesn’t understand and leave them with a dead end.
–Sarah Wachter-Boettcher
Que esto haya ocurrido no creo que se deba a la priorización a la hora de diseñar un producto, sino al profundo ombliguismo de ingenieros que piensan que sus vidas de suburbios son las de todos, que la tragedia no forma parte de la vida de una persona, y que las emociones negativas no son compatibles con un producto que usamos las 24 horas.
¿Cómo se resuelve esto? Podríamos empezar por aumentar la diversidad de perfiles en los equipos que desarrollan apps conversacionales, por ejemplo. Antropólogos, sociólogos, psicólogos, médicos de atención primaria, supervivientes, pacientes… Todos ellos tienen cabida a la hora de diseñar un producto para personas reales (que no abstractas).
Hasta entonces, hasta que las empresas de tecnología aborden problemas humanos desde un enfoque humanista, lo mejor que las inteligencias artificiales pueden hacer es callar, como recomendó Wittgenstein al final de su Tractatus, frase que titula este artículo y que vuelvo a repetir aquí: Siri, de lo que no se puede hablar hay que callar.