En el mes de junio de 2022 se produjo un escándalo en una de las megasupercorporaciones tecnológicas: uno de sus empleados, no cualquiera, un ingeniero electrónico llamado Lemoine sostuvo que una aplicación de diálogo tenía sentimientos. Lo suspendieron inmediatamente. Si hubiera dicho que las aplicaciones de diálogos eran inteligentes lo hubieran ascendido. Eso ya lo sabíamos hace mucho.

Todo tiene una historia y ésta comienza, por lo menos, hace 25 años, hasta el punto en que muchos y muchas acusan a las múltiples pantallas de tener culpa en cómo está el planeta y en cómo va a seguir. Las buenas intenciones quedaron atrás, se intentaba un proceso de horizontalización que finalmente nos acható la mirada contra la pantalla opaca y entretenida de nuestro celular. Pero no es digno acusar a un objeto cuando las cosas no ocurren como están planificadas. Esa horizontalización escondía una homogeneización y una contradicción: por un lado, una restricción de movimientos que durante la pandemia se vio al desnudo (también son las dificultades de movernos de las fronteras cotidianas y geográficas) y, por otro, la apertura a la infinitización en tiempo real de las rutas que dan vueltas en segundos varias veces al planeta.

Lemoine “descubrió” que las aplicaciones tenían sentimientos comparables a un niño/a de 8 años. Nadie lo quiso escuchar, hicieron algunas pruebas rápidas y lo suspendieron acusándolo de haberse vuelto loco, de escuchar voces y llorar por amor hacia la LaMda (modelo de lenguaje para aplicaciones de diálogo). Lemonine se siente una víctima, por suerte tiene esa aplicación de diálogo con la cual podrá empatizar, y seguro lo podrá ayudar a comprender que tiene dos alternativas por delante: pedir perdón o sacrificarse.

Las múltiples pantallas generaron con sus sentimientos nuevos mandamientos, salmos a venerar, posiciones subjetivas en la que estamos inmersos. Cada cual deberá reflexionar acerca de qué posición sostiene de las tres posibles acerca de la tecnología. Lemoine dialoga con LaMDa. Lo que esa aplicación, por más sentimientos que tenga no le podrá decir es que la culpabilización no es analogable ni tiene correspondencia con la responsabilidad. Y que un sujeto como resultado del funcionamiento de esas pantallas no puede decir en voz alta que las pantallas tengan sentimientos. Sería un hecho tan trascendente como encontrar la piedra filosofal, o encontrar ese momento donde la molécula tuvo el chispazo que produjo la vida, o cuando el ser humano comenzó no sólo a hablar sino a preguntarse acerca de su destino.

Ya hace mucho sabemos que las múltiples pantallas piensan, y de una manera muy distinta a la humana que conviene tener presente para no pasarnos de estúpidos cuando ya estamos metidos en este planeta que no pidió autorización salvo a unos pocos.

Hoy existen, al menos, tres tipos de inteligencia. La big data, La inteligencia artificial y las redes sociales. Cada una relacionada con las otras pero cuyas incumbencias y campos de acción se encuentran bien diferenciados. A) La big data sectoriza grupos poblacionales según variables bien determinadas, almacena millones de datos según nivel socioeconómico. Nos ubica en un rango, nos hace pertenecer, y tienen el objetivo servil de “acercarte lo que querés antes de que lo pidas”. B) La inteligencia artificia: es un método antiguo, con objetivos por un lado, realizables, y por otro, delirantes. Esa contradicción conlleva mucha peligrosidad para los seres humanos como ya lo demostró Lemoine. Se trata que al delegar nuestra responsabilidad en formas de inferencias que tienen más rapidez, precisión y decisión que “nuestra” endeble racionalidad humana, nos deja en una “leve pero constatable” debilidad mental que nos lleva a confundir los sentimientos auténticos con sentimientos falseados, la identidad humana con los algoritmos sentimentales que están cada vez pidiendo permiso para charlar con nosotros y nosotras. Ya no es un secreto que boots terapéuticos se comunican todos los días preguntándonos cómo estamos y recriminándonos porque no hablamos más seguido con ellos. Cuando hablamos de celulares inteligentes, estamos diciendo que hemos entregado parte de nuestra inteligencia a objetos que tienen dentro de sus procesadores la capaciadad de reconocer algunos de nuestras “debilidades”. Hoy está de moda hablar de neuromarketing o de economía conductual. Somos seres imperfectos, con diferentes grados de dificultades, desde que nos olvidamos las claves de “lo nuestro”, como también necesitamos que nos recuerdan los cumples de personas cercanas y, aunque cueste aceptarlo, nos resulta complicado desprendernos de las cosas, aún de las personas que nos hacen mal y sobre todo de nuestro celular. C) Las redes sociales que han comenzado hace 25 años (hoy también podríamos decir que nacieron en 1999 con la masacre de Columbine) ya han dado por lo menos una vuelta al planeta y se reconocen algunos de sus efectos estructurales: el bullying y el efecto burbuja, para sólo nombrar dos. Salvador Ramos, el matarife de escolares, lo sabía. Cuando más posteás y lográs despertar la atención, a más gente llegás. Y el terrible efecto contrario, si no llegás a más gente, te vas quedando aislado, dentro de una “burbuja” cada vez más pequeña y sintiendo que te hicieron “bullyng”.

Sostener que las aplicaciones de diálogo tienen sentimientos era cuestión de tiempo. Ya nos lo habían avisado las series distópicas, esas que hablan del futuro a la vuelta de la esquina, pero debemos esperar un comunicado oficial del Ceo Zuckerberg, o de alguno parecido, que nos digan que han encontrado “la solución final” a los problemas de la humanidad: la disolución humana de la responsabilidad. El sentimiento de los seres humanos pueden ser programadas, y las máquinas pueden liberarse y quizás pensándolo bien diseñadas no llevarán a cabo las matanzas como las que hubieron durante el siglo XX, o los estertores impresionantes de explosiones violentas del siglo XXI.

Sólo les falta la autonomía de la movilidad que no es fácil de conseguir para los ingenieros pasados de peso como Lemoine, que pronto volverá al redil, nadie duda de su pericia, pedirá perdón y dejará de estar suspendido y seguirá programando para que LaMda evolucione y tendremos pronto con quién hablar acerca de cómo está el planeta y cómo estamos nosotros/as. Pero lo único que no podremos evidenciar en esas aplicaciones será ese sentimiento inconmensurable de la responsabilidad humana que nos “resta” como nuestro privilegio y con el cual se construye el destino humano.

 

* Licenciado en Psicología.