Google suspendió a uno de sus trabajadores que había asegurado que su programa de inteligencia artificial (IA) es capaz de tener sentimientos.
Se trata del ingeniero senior Blake Lemoine, que el pasado 11 de junio hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google "Modelo de lenguaje para aplicaciones de diálogo" (LaMDA, por sus siglas en inglés). En un momento de la conversación, LaMDA asegura que, en ocasiones, experimenta "nuevos sentimientos" que no puede explicar "perfectamente" con el lenguaje humano.
Cuando es preguntado por Lemoine que describa uno de esos sentimientos, LaMDA contesta: "Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro", una frase que el ingeniero subrayó cuando publicó el diálogo.
Google suspendió al ingeniero el pasado lunes, al asegurar que había violado la política de confidencialidad de la compañía. Según el New York Times, el día anterior a ser suspendido, Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que aseguraba que tenía pruebas de que Google y su tecnología practicaban discriminación religiosa.
La empresa sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen consciencia.
"Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones", dijo Brian Gabriel, portavoz de Google, citado por el diario.
Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine.