La irrupción de la inteligencia artificial en el ecosistema mediático plantea desafíos que parecen crecer día a día. Hace pocas semanas, casi de manera inadvertida, se presentó Grok, la nueva IA desarrollada por X (antes Twitter). Esta herramienta profundiza un problema ya conocido: la dificultad de distinguir lo real de lo falso en el entorno digital, ya que lo central en ella es poder poner a cualquier persona, sobre todo aquellas reconocidas públicamente en cualquier tipo de situación. En un contexto donde las imágenes validan y estructuran nuestra percepción de la realidad, Grok pone en riesgo la capacidad ciudadana de discernir entre verdad y mentira.
Las nuevas fake news y sus peligros
Como ya se mecionó en esta sección, el concepto de “desinformación sintética” abarca tres fenómenos interrelacionados que hoy amenazan la confianza en la información: los contenidos ficticios generados por inteligencia artificial, las “alucinaciones” de los modelos de lenguaje y las noticias falsas tradicionales, ahora potenciadas por las redes sociales.
Por un lado, la IA permite crear imágenes, videos y audios hiperrealistas que no son registros del mundo físico, sino producciones artificiales diseñadas para simular la realidad. Por otro, herramientas como ChatGPT o Gemini generan respuestas falsas pero plausibles -las llamadas “alucinaciones de IA”-, complicando aún más la distinción entre lo verdadero y lo falso. Finalmente, las fake news tradicionales, amplificadas por las redes sociales y algoritmos de viralización, encuentran en estas tecnologías un aliado que multiplica su impacto. Este tipo de contenidos erosiona la capacidad de discernir entre verdad y mentira, debilitando la confianza social.
¿Un riesgo inadvertido o deliberado?
Podríamos pensar que herramientas como Grok se lanzan de forma apresurada, sin considerar sus consecuencias. Sin embargo, también es posible que los riesgos asociados a estas tecnologías sean intencionales. La falta de regulación y transparencia en estos sistemas deja a la ciudadanía en un estado de desprotección, expuesta a la capacidad de estas herramientas para generar falsificaciones masivas y sofisticadas.
Europa busca enfrentar esta problemática con su Ley de Regulación de Inteligencia Artificial, que exigirá identificar contenidos generados por IA. Aunque esta normativa entrará en vigor en 2026, aún está por verse si empresas como X, liderada por Elon Musk, cumplirán con estas reglas. Mientras tanto, en muchas regiones no existen límites claros ni protecciones efectivas para los ciudadanos.
Es importante recordar que Musk ha declarado su apoyo a partidos como Alternativa para Alemania (AfD), de extrema derecha. Este dato revela cómo los intereses detrás de estas tecnologías pueden alinearse con visiones políticas que impactan negativamente la vida democrática, especialmente en países con un pasado tan sensible en torno a la manipulación informativa.
Tiempo atrás señalamos cómo algunas empresas adoptan enfoques divergentes en el desarrollo de la IA. Lo que para OpenAI puede ser un problema asociado a la manipulación emocional, para Meta constituye una estrategia clave para fomentar la interacción, como se evidenció en su implementación de IA en WhatsApp. Tal como detallamos en una nota anterior, estas decisiones estratégicas, lejos de ser neutras, demuestran cómo los riesgos que generan pueden ser parte de modelos deliberados para maximizar el impacto de nuevas herramientas tecnológicas.
En la era de la posverdad, donde las opiniones personales suelen imponerse sobre los hechos, estas dinámicas agravan aún más el problema. Si las imágenes y contenidos que estructuran nuestra percepción de la realidad pierden credibilidad, la confianza social y el derecho humano a la información quedan profundamente comprometidos.
Alfabetización mediática como respuesta
Para enfrentar este reto, necesitamos con urgencia alfabetización mediática e informacional. América Latina tiene una rica tradición en vincular comunicación y educación, y esta perspectiva debe reforzarse. Enseñar a discernir, cuestionar y verificar la información, y exigir transparencia tanto en medios tradicionales como en plataformas digitales, es una tarea urgente.
La protección del derecho humano a la información, base de nuestras democracias, exige respuestas claras frente a los avances tecnológicos. Solo así podremos garantizar que las herramientas digitales, lejos de debilitarlas, refuercen nuestras instituciones democráticas frente a los riesgos que plantean la inteligencia artificial.
* Doctor en Comunicación, Experto en medios, tecnologías y educación orientadas a la IA. Profesor titular de la FPyCS UNLP. IG @sebanovo.ok