Un algoritmo de inteligencia artificial está nadando en los océanos de contenido que los usuarios de las redes sociales están publicando sobre los Juegos Olímpicos con una misión singular: neutralizar el abuso en línea, según publicó la BBC. Se llama Treat Matrix (matriz de amenazas) y ya está funcionando

Cuando terminen, los Juegos Olímpicos de Verano de 2024 habrán generado más de 500 millones de publicaciones en las redes sociales, según lo que estima el Comité Olímpico Internacional (COI). Eso ni siquiera incluye los comentarios. Suponiendo que la publicación promedio es de 10 palabras, para ser conservadores, se tardaría cerca de 16 años en leerlo si se tardara un segundo por publicación.

Muchas de esas publicaciones incluyen nombres de personas, y más de 15.000 atletas y 2.000 funcionarios y acompañantes estarán sujetos a una montaña de atención justo cuando están navegando por algunos de los capítulos de mayor presión de sus carreras. Los vítores y las expresiones de orgullo nacional vendrán acompañados de odio, abuso coordinado, acoso e incluso amenazas de violencia.

Esto supone un grave riesgo para la salud mental de los atletas olímpicos, por no hablar de su rendimiento en los juegos. Pero el COI está explorando una solución: todo lo que se publique sobre los Juegos Olímpicos será revisado por un sistema impulsado por IA para mantener a los atletas a salvo del acoso cibernético y el abuso.

Threat Matrix es una IA de prevención e identificación de conductas lesivas, con la que se puede también hacer denuncias. En su uso en los JJOO, reconoce dichos hirientes y amenazas dirigidas a los deportistas y sus allegados, como por ejemplo el club donde juegan, sus familiares y sus patrocinios. Puede reportar las cuentas, tanto reales como de bots, que difundan discursos de odio. Al filtrar los comentarios nocivos, brinda protección a las marcas y patrocinadores. Como respuesta a las amenazas ya hechas, que han mermado o afectado el estado de animo y mental de los participantes, Threat Matrix da soporte para los servicios de protección, brindando información precisa de que, cuando y como hirieron a los deportistas.

El abuso en línea se ha convertido en un problema creciente dentro del deporte de élite, y muchos deportistas de alto perfil piden que se los proteja con más eficacia. La tenista estadounidense Sloane Stephens, por ejemplo, reveló que recibió más de 2.000 mensajes abusivos después de un partido. El futbolista inglés Jude Bellingham también protestó por los insultos racistas que él y otros jugadores reciben de forma regular. La Asociación Inglesa de Fútbol anunció recientemente que financiará una unidad policial para enjuiciar a las personas que abusan de los jugadores.

En los últimos años, la salud mental ocupa un lugar cada vez más central en los esfuerzos de los organizadores de los Juegos Olímpicos por proteger el bienestar de los atletas, y el mundo del deporte se está dando cuenta del papel que desempeñan las redes sociales en esa ecuación, dice Kirsty Burrows, jefa de la Unidad de Deporte Seguro del COI. 

"La violencia interpersonal es algo que se puede perpetuar en forma física, pero también se puede perpetuar en línea, y lo que estamos viendo en toda la sociedad es que el abuso y la agresión en línea están aumentando", dice Burrows. Y aclara que la IA no es una panacea, pero es una parte crucial del esfuerzo por contraatacar: "Sería imposible manejar el volumen de datos sin el sistema de IA".


Es fácil configurar un filtro de búsqueda que seleccione ciertas palabras o frases nocivas, como maldiciones o insultos raciales. Pero el lenguaje es a menudo más sutil que eso. Y cuando se trata de controlar una inmensa cantidad de mensajes. se necesita una herramienta capaz de comprender o aprender a interpretar el lenguaje. Ahí es donde entra en juego la última generación de IA.

Modelos de lenguaje de gran tamaño , que aprenden a procesar y generar lenguaje mediante el análisis de patrones en grandes franjas de texto (como ChatGPT, Open IA y otras similares), pueden ayudar a identificar los sentimientos y las intenciones detrás de un fragmento de texto, incluso si las palabras reveladoras no están presentes. El sistema que el COI está utilizando para erradicar el abuso en línea, la Matriz de amenazas, está entrenado exactamente para ese propósito.

Esta IA monitorea, con la ayuda de fuentes de datos de código abierto, cada ataque de índole racial, homofóbico o religioso que hay en las redes sociales. Los datos se procesan, se reconocen y se filtran  para eliminar cualquier bot hecho con la intención de ofender y dañar. La evaluación de los hechos suma la alta velocidad de análisis de la IA con la interpretación humana (lo que permite reconocer sarcasmos, ironías, chistes, alusiones y otros usos normales del lenguaje, además del meramente informativo).

El monitoreo de las redes para detectar los mensajes agresivos en todas sus expresiones y evitar que las plataformas se transformen en inmensas cloacas de odio es uno de los campos en los que la IA, lejos de ese monstruo amenazante que parece a veces, puede transformarse en un aliado imprescindible para la humanidad.