El algoritmo de la plataforma YouTube bloqueó los videos de ajedrez de un conocido jugador por un insólito error: creyó que los usuarios que hablaban de "blancas" contra "negras" difundían discursos racistas.
El malentendido no fue producto de una falla humana, sino de una respuesta del sistema de inteligencia artificial que modera el contenido en el portal de videos, que presenta un sistema mixto de control entre humanos y algoritmos.
El mismo tipo de confusiones suelen aparecen en Instagram y Facebook, que han llegado a censurar publicaciones al confundir mensajes o imágenes.
El problema se produjo en junio de 2020, cuando el canal de YouTube del ajedrecista croata Antonio Radic fue bloqueado mientras presentaba un video con el maestro de la disciplina Hikaru Nakamura, decisión que fue revertida 24 horas más tarde.
La información se dio a conocer recientemente tras la investigación de la Universidad Carnegie Mellon, Pensilvania, Estados Unidos, cuando especialistas descubrieron que el sistema de inteligencia artificial de la plataforma revisó las conversaciones en los videos y encontró frases como “blanco contra negro”, que hacían referencia a las piezas del juego.
Al registrar ese intercambio, YouTube catalogó el contenido como un discurso de odio. Las conclusiones del estudio se presentaron en la conferencia “Association for the Advancement of AI”.
Después de revisar manualmente una selección de 1000 comentarios que la inteligencia artificial de YouTube había clasificado como discursos de odio, encontraron que el 82% de ellos habían sido clasificados erróneamente debido al uso de palabras como “negro”, “blanco”, “ataque” y “amenaza”, terminología usual en el juego de mesa.
En defensa de la inteligencia artificial, uno de los investigadores del Instituto de Tecnologías del Lenguaje, de la mencionada universidad estadounidense, afirmó que "este tipo de accidentes pueden suceder”, y filtró casi 700.000 comentarios en canales de YouTube centrados en el ajedrez.