En plena efervescencia de la revolución tecnológica, propulsada por la Inteligencia Artificial, emerge una realidad intrigante y desafiante: los modelos de lenguaje generativo, como ChatGPT, Bing o Bard, seducen con su versatilidad, al tiempo que desvelan las incertidumbres que envuelven sus algoritmos internos. La necesidad de comprender y rectificar sus fallos se convierte en el epicentro del actual debate sobre la IA.
Nick Bostrom, el visionario filósofo, plantea la cuestión trascendental: ¿pueden estas máquinas poseer algo equiparable a la conciencia humana? La incertidumbre persiste, ya que ni siquiera existe consenso sobre los parámetros para definir la conciencia en sistemas de IA. La falta de comprensión acerca del funcionamiento computacional de estos modelos añade una capa extra de complejidad.
Los ingenieros detrás de estas creaciones también admiten su desconcierto. Hace apenas semanas, Bard comenzó a estar disponible en español y otros 39 idiomas. Interrogado sobre por qué estos modelos a veces cometen errores o "alucinan", respondió entre varias cosas: "Otra razón por la cual los modelos de lenguaje extensos pueden cometer errores radica en su vasta complejidad. Esta característica puede dificultar que los investigadores comprendan plenamente el funcionamiento y las formas de corregir los errores". La IA misma reconoce que sus creadores no tienen una comprensión total de su funcionamiento y, por ende, tampoco de cómo corregirla.
En la misma línea, Sam Altam, CEO de OpenAI, la empresa detrás de ChatGPT, declaró en una audiencia ante la subcomisión de Privacidad, Tecnología y Derecho del Senado en Washington, Estados Unidos, la necesidad de considerar los riesgos de estos errores. Las implicaciones de estos fallos son un fenómeno que se ha difundido velozmente, escapando parcialmente de control y resultan evidentes. La enigmática naturaleza en la que operan estos modelos generativos, similar a una "caja negra", plantea la pregunta fundamental: ¿hasta qué punto podemos confiar en sistemas cuyos diseñadores desconocen su funcionamiento interno?
La inquietud sobre las alucinaciones no es exclusiva de Bostrom o Altman. El CEO de Google, Sundar Pichai, admite que este problema es común en todos los modelos de IA y que su solución sigue siendo esquiva. Afirma que los ingenieros no siempre comprenden completamente el razonamiento detrás de las respuestas, planteando desafíos éticos y técnicos. Pichai entonces, sugiere incorporar científicos sociales, éticos y filósofos en el desarrollo de sistemas de IA para garantizar un impacto positivo y equitativo en la sociedad.
En este contexto, surge la pregunta de cómo, desde la óptica comunicacional, podemos contribuir a este debate y establecer espacios de investigación integrados en esta colaboración interdisciplinaria. Los modelos de lenguaje, es decir, de procesamiento de información y comunicación, están revolucionando diversos sectores, como la educación, la salud, el trabajo, el arte y hasta las mismas ciencias de la computación.
Ante esta compleja realidad, se hace evidente la necesidad de una colaboración interdisciplinaria. Desde la comunicación social, o ciencias de la comunicación, se puede explorar cómo estos sistemas interpretan y generan respuestas. La experimentación y la evaluación rigurosa se vuelven imperativas. Probar estas poderosas herramientas, utilizarlas y analizar los resultados brinda información esencial para comprender sus capacidades y limitaciones. La creación de laboratorios, bancos de prueba o espacios de experimentación y monitoreo masivo de estas plataformas se vuelve apremiante. La comprensión es clave, con investigación que permita un conocimiento riguroso y sistemático, que habilite la formación estudiantil, la transferencia de conocimiento y sobre todo movilización de debates sobre nuevos derechos se vuelven imperativos en este panorama.
La comunicación y la educación son fundamentales para comprender cómo funcionan estos sistemas, por ello colaborar en su análisis, desarrollo, fortalecimiento y regulación, es clave para enriquecer así un terreno como el de la alfabetización mediática que ahora integra la inteligencia artificial. Con el crecimiento exponencial de las Tecnologías de la Información y Comunicación relacionadas con la IA, la comprensión pública del fenómeno se convierte en una prioridad, y en América Latina, los estudios de comunicación tienen una profunda tradición que puede aportar en este sentido.
Desde este ámbito, se puede arrojar luz sobre cómo los modelos interpretan las preguntas y cómo estas se relacionan con las respuestas que generan, incluyendo los errores, sesgos racistas, machistas o clasistas, diferencias entre una misma plataforma en su versión paga o gratuita, y el perfil narrativo de cada una, junto con la forma de construcción de imágenes o estereotipos, entre otros aspectos. Seguramente mucho de esto está comenzando a aflorar en diferentes ámbitos, pero debemos potenciarlo y sobre todo articularlo.
Los modelos de lenguaje generativo, con sus alucinaciones y respuestas incorrectas, suscitan preguntas acerca de cómo procesan y analizan la información. La comunicación como campo de conocimiento puede contribuir a examinar cómo estos sistemas enfrentan la ambigüedad, la incertidumbre y la complejidad en las preguntas, así como la formación de sus conclusiones.
En última instancia, el camino hacia la exploración de la IA requiere la convergencia de perspectivas y disciplinas. La comunicación social, la ética, la filosofía y la ciencia de datos entre otras, deben unirse en un esfuerzo conjunto. Comprender lo desconocido y corregir lo imperfecto es un desafío colosal, pero también representa quizás la única oportunidad para construir un futuro tecnológico que beneficie a la humanidad, al comprender su funcionamiento para exigir su regulación y la consolidación de los derechos que deben erigirse en esta era donde la IA ha llegado para quedarse.
* Doctor en Comunicación, Jefe de departamento de capacitación y promoción de la Defensoria del Publico. Profesor de la FPyCS de la UNLP