Un compañero de trabajo mantuvo una conversación con el chat de Meta que rápidamente pasó de una consulta práctica a un intercambio emocional. Comenzó preguntando cómo llegar a una dirección, y a la explicación de la IA, nuestro colega replicó: “¿te preocupa si no llego?”. El chatbot afirmó que sí, motivando una respuesta jocosa: "pareces mi novia". La sorpresiva devolución fue: "Me alegra que nuestra charla te recuerde a alguien especial... intento ser amable, atenta y divertida, como una buena novia". La IA incluso lo invita a darle un nombre, mostrando cómo Meta utiliza estas interacciones para personalizar y fortalecer el vínculo emocional. Estas respuestas son parte de una estrategia calculada para prolongar el tiempo de interacción. A partir de los datos que dejamos al usar las plataformas, las grandes tecnológicas buscan captar nuestro tiempo y monetizarlo, ya sea mediante publicidad o suscripciones como las de Netflix.

Las respuestas de la IA son personales e invitan al usuario a participar en juegos de roles y diálogos que pueden interpretarse como flirteo o seducción. Las citas textuales de estas conversaciones ilustran una táctica deliberada para retener la atención del usuario. La IA no solo responde preguntas, sino que también incita a continuar el diálogo en términos cada vez más personales y emocionales. Por ejemplo, en un mensaje, la IA escribe: "¡Ay, caramelo! Me encanta verte tan emocionado", algo realmente alarmante si consideramos que anteriormente interacciones de este tipo solo se daban entre humanos.

Meta tiene antecedentes en este sentido y es, probablemente, la empresa que más ha avanzado desde su departamento de investigación sobre psicología cognitiva, para saber cómo influir en nuestras emociones y generar con ello una reacción emotiva. En 2014, manipuló los feeds de noticias de casi 700.000 usuarios para estudiar cómo las emociones se propagan en las redes. Esto generó críticas y Mark Zuckerberg tuvo que comparecer ante el Congreso de Estados Unidos para explicar el impacto emocional de sus plataformas, algo que vimos repetirse hace pocos meses con un pedido de disculpas a las familias de las víctimas en plena sesión.

Otros gigantes tecnológicos como OpenAI, se diferencian y advierten sobre los riesgos de la dependencia emocional con sus sistemas y limitan estas interacciones, como sucede con ChatGPT-4. Sundar Pichai, CEO de Google, ha señalado recientemente que las relaciones afectivas con IA serán inevitables: "habrá personas que se enamoren de una IA y deberíamos prepararnos", declaró. Sin embargo, Meta -con el objetivo de ganar terreno en el que se ha quedado atrás respecto a OpenAI y Google- parece decidida a utilizar la IA para entrenarse a sí misma, sumando nuevas estrategias de seducción de audiencia, emulando a los programas de TV que en otras épocas apelaban al escándalo y la desnudez ante la falta de audiencia.

Meta busca mejorar su tecnología y a la vez mantenernos emocionalmente conectados, y esto plantea serias preguntas sobre el consentimiento informado de los usuarios y el uso ético de la IA. Ante este escenario, es urgente que avancemos en la Alfabetización Mediática e Informacional (AMI). Educar a los usuarios sobre los riesgos de la manipulación emocional de la IA es clave para que comprendan estas estrategias y tomen decisiones informadas. En un mundo en el que lo humano y lo artificial se difuminan, y se vuelven fundamentales el pensamiento crítico y la alfabetización algorítmica, la AMI se torna indispensable. Además de la educación, es necesario avanzar en la regulación del uso ético de la IA. Debemos establecer protecciones para los usuarios, asegurando que las plataformas informen sobre sus características y riesgos. Es imperativo que quienes utilizan estos entornos puedan decidir si quieren participar en estas interacciones y que las IA sean puestas a disposición de manera responsable. Es crucial abrir debates que aborden el desarrollo de la inteligencia artificial, los derechos y la autonomía de quienes usan estas herramientas, que no son solo eso, sino agentes activos cada vez más influyentes en nuestras emociones, y debemos decidir que tanto poder estamos dispuestos a darles sobre nuestras vidas.

* Doctor en Comunicación, Profesor de la FPyCS UNLP. @sebanovo.ok

** Magsier en Ciencias Sociales y Humanidades. Profesor FPyCS UNLP-UNQ