Hablar hoy del chatGPT a varios meses de su masiva aparición parece redundante, aunque en realidad muchos aun seguimos con el estupor inicial que implica interactuar con esta plataforma de Inteligencia Artificial (IA), o con muchas de sus derivaciones ya ramificadas en el entorno Windows, en aplicaciones o webs.
Trataremos aquí de proponer una serie de puntos claves que consideramos necesario desandar para poder al menos tener un poco más de claridad y ver sus implicancias en el derecho a la comunicación y por lo tanto en el sistema democrático.
Para eso, primero tenemos que hacer un breve repaso de algunos acontecimientos, todos muy actuales aunque no necesariamente cronológicos.
Desde la aparición del Chat GPT, rápidamente hubo universidades que no permiten su uso por ejemplo en Francia. Países como Italia, Rusia o China lo inhabilitan, otros como Estados Unidos o Alemania están estudiando qué hacer, pero todos alrededor de un mismo problema. No hay ahí un debate ético, filosófico, conceptual o incluso pedagógico, sino una fuerte preocupación por la seguridad de los datos que allí cada usuario deja. Hoy nuestra huella digital, es decir la información que dejamos a nuestro paso en internet, es profunda y la utilización o preservación de estos metadatos un debate mundial.
Luego podemos encontrar la carta que firmaron más de mil doscientas personalidades internacionales en la que advirtieron sobre los riesgos generales de la IA para la sociedad. Los autores de la misiva destacan que la IA tiene el potencial de transformar la sociedad de manera profunda, pero también representa una amenaza significativa para la privacidad, la seguridad y la estabilidad económica.
Así lo plantean: "Pedimos a todos los laboratorios de inteligencia artificial que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4 (incluido GPT-5, que se está entrenando actualmente)"
La tercera cuestión es quizás una de las que más nos interesa aquí, que desde ya compartimos y se encuentra en un texto firmado por más de 400 científicos y académicos de la región: la Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina.
El texto señala que la IA puede generar desigualdades económicas y sociales, y puede exacerbar las brechas existentes entre países y regiones. Además, que la IA puede ser utilizada para el control y la represión, lo que representa una amenaza para la libertad de expresión y la democracia. Pero hay una idea que está presente allí de manera transversal y es que la transformación del mundo del trabajo que implica la integración de la IA en los procesos productivos tendrá un doble efecto. Por un lado desaparecerán muchas actividades que hasta ahora eran desarrolladas por personas, pero por el otro aparecen nuevas oportunidades de tareas que hoy quizás ni si quiera podemos imaginar y para ello se requerirán nuevos profesionales. La carta dice “Cualquier transformación del mercado laboral debe atender de forma prioritaria la problemática del desempleo y la precarización con medidas proactivas y efectivas”.
Finalmente, Carlos Scolari posteaba hace unos días una serie de interrogantes que consideramos clave para retomar. Decía “¿Cómo aprende la #IA?¿En qué "bibliografía" se basa para generar textos? ¿Ha "pirateado" contenidos? ¿Existe un currículum algorítmico oculto en ese proceso de aprendizaje? Está claro: la inteligencia artificial es (también) un problema educativo” .
Coincidimos con él en todas las preguntas, pero sobre todo en la afirmación final. La IA es un enorme desafío para múltiples campos de la educación como el curriculum, la evaluación, la didáctica, pero también en el debate sobre el estatuto del conocimiento y lo que realmente se torna relevante trabajar hoy en las aulas.
Pero dentro de estas cuestiones hay una que necesitamos destacar desde el inicio, y que hoy abre un desafío enorme también en el campo de la Alfabetización Mediática e Informacional (AMI).
Estamos en un momento en el cual ya no podemos ver para creer, necesitamos chequear, contrastar, desconfiar y tener nuevas habilidades para poder ahora si confiar en lo que nuestros ojos nos muestran. Nada de lo que fue, volverá a ser como antes en este sentido y eso es seguro, también lo es que sin información de calidad no hay democracia posible.
Por ello y ante semejante desafío, la Defensoría del Publico junto con la UNESCO tomaron el reto y estarán desarrollando una serie de capacitaciones para educadores desde el Instituto Nacional de Formación Docente (INFOD) del Ministerio de Educación de la Nación, para abordar junto a prestigiosos especialistas los problemas que hoy se abren en este nuevo campo.
La IA es una herramienta poderosa que tiene el potencial de transformar el mundo de manera significativa. Sin embargo, también representa riesgos para el sistema democrático y para la sociedad en general. Es importante que los gobiernos, las empresas y la ciudadanía sean conscientes de estos y trabajen juntos para proteger la transparencia, la verdad y los derechos humanos en la era de la IA.
* Doctor en Comunicación, Director de capacitación y promoción de la defensoría del Publico y Profesor de la FPyCS de la UNLP.