Cuando me enteré de que Facebook había experimentado con las emociones de cientos de miles de usuarios no sentí repugnancia, sino envidia. Un investigador mentiría si os dijese que Facebook no le parece una plataforma con potencial para experimentos de psicología social. En un campo en el que la mayoría de estudios se hacen con estudiantes de psicología desmotivados, la posibilidad de acceder cómodamente a la muestra más grande de todos los tiempos, en un entorno repleto de datos, resulta irresistible. Las redes sociales pueden ayudar a las ciencias del comportamiento a replicar estudios y confirmar hipótesis a una escala antes impensable. El efecto positivo de todo eso, a medio y largo plazo, está en la mejora de los métodos de psicoterapia, por ejemplo. Semejante utilidad no se puede ignorar.
También sentí sorpresa. Sorpresa por ver a otros sorprendiéndose. Los humanos manipulamos las emociones de los demás constantemente. Las empresas lo hacen de manera sistemática a través de la publicidad y el márketing. No es tan fácil ni tan directo como en el caso de una red social como Facebook, pero se lleva haciendo desde hace décadas. Se juega con el color, con el tono de los mensajes, con las imágenes que van asociadas a los anuncios, con el estilo de las interfaces. Y en Internet, donde la psicología se transforma en user experience, este tipo de manipulación no es algo nuevo: se hacen pruebas A/B para ver qué títulos funcionan mejor, por ejemplo. Como dicen algunos, si Facebook lo ha hecho, no lo dudéis: también lo están haciendo Google, Twitter y otros grandes. Deben hacerlo. ¿Por qué? Porque su supervivencia depende de nuestras emociones.
Sí me preocupa, por otro lado, la falta de transparencia. Alguien preguntó en Twitter dónde había puesto Facebook las opciones para modificar el estado de ánimo. No están, obviamente. Facebook nunca las pondrá. Pero sí hubiera podido preguntar a sus usuarios a través de un cuestionario de consentimiento informado. Tal vez eso hubiera afectado los resultados del estudio, ya de por sí pobres: la gente se habría echado atrás, o hubiese actuado de manera distinta al percibir que Facebook estaba espiando. La psicología, no lo olvidemos, es una astronomía en la que las estrellas cambian de rumbo cuando las observas. Pero no fue ese el motivo por el que Facebook no informó del estudio, no; Facebook calló para evitar ruido, para no dañar su ya dañada reputación de Gran Hermano digital.
Al actuar como ha actuado, Facebook ha quebrado la confianza de los usuarios todavía más. Se ha portado de manera poco ética cuando hubiese podido hacerlo bien, como en este otro estudio, que sí respetó las reglas del juego. No ha explicado, ni jamás explicará, cómo funciona, cómo modifica las noticias que vemos según nuestros clic y comentarios, cómo lee las cosas que escribimos y nunca llegamos a publicar. En este sentido, Facebook es una caja negra, un enorme experimento en el que entramos engañados. Un Cube del que es difícil salir, puesto que los que controlan el experimento pueden cerrar puertas, engancharnos e invitarnos a participar y a hacer clic. Hay un Cave Johnson en Facebook que se frota las manos pensando en cómo aprovechar estos hallazgos.
Por eso hay que decirle a la gente que el pastel es una mentira.