Benton Tarrant, autor de la masacre en dos mezquitas de Nueva Zelanda, trasmitió en vivo a través de Facebook los 17 minutos que duró su ataque a la mezquita Al Noor. A pesar de que la red social viene trabajando en formas más eficientes para remover el contenido violento de su plataforma, el día de la masacre fue la policía local la que tuvo que avisar a Facebook que quitara el video de Tarrant. “La policía nos alertó de un vídeo en Facebook poco después de que comenzara la retransmisión en directo y rápidamente eliminamos tanto el vídeo como las cuentas del atacante en Facebook e Instagram -la plataforma de fotografía propiedad de Facebook-”, declaró la portavoz de la red social en Nueva Zelanda, Mia Garlick. Pero cuando Facebook bajó el video, millones de usuarios de Internet ya lo habían viralizado en YouTube, Instagram y Twitter.
En conversación con PáginaI12, Natalia Zuazo, directora de Salto Agencia y autora del libro Los dueños de Internet, alertó respecto de la dificultad de evaluar los contenidos que circulan en redes sociales mientras están siendo transmitidos en vivo y explicó el mecanismo que utiliza Facebook para controlar lo que se difunde en la red.
Por un lado, explicó, la plataforma usa inteligencia artificial, como por ejemplo robots, para remover información violenta de manera automática. “Esta herramienta es eficaz en un 70 por ciento de los casos”, explicó Zuazo. Pero además, agregó, Facebook terceriza la parte de moderación y en cada país contrata personal que se encarga de remover el contenido que va en contra de las leyes de uso de Facebook. “Estas personas hacen un trabajo inhumano, están expuestas al contendido que luego debe ser eliminando y a las reglas que impone la red social”, consideró la politóloga.
Para Zuazo, la masacre en las mezquitas el viernes pasado tiene que ver con el crecimiento de Instagram y Facebook, del contenido en streaming, y la consecuente imposibilidad de detectar los videos creados en el minuto a minuto. “Facebook es cada vez más una plataforma audiovisual, un broadcaster. Antes su contenido se reducía más que nada a fotos y ese contenido era más fácil de filtrar. Sin embargo hoy Facebook es más que nada una plataforma de video y de streaming y allí radica la dificultad de detectarlos en el momento en que están siendo emitidos”, consideró la experta en redes sociales. El día de la masacre ni los mecanismos automáticos ni el equipo humano fueron capaces de bajar a tiempo el video de Tarrant, como así tampoco la plataforma 8Chan detectó los mensajes previos que el autor dejó en su red. “Bueno, muchachos, es hora de dejar de subir mierdas y llegó el momento de hacer un esfuerzo por una publicación en la vida real”, advirtió Tarrant en 8chan, un foro de origen estadounidense conocido por la libertad que ofrece para difundir todo tipo de contenidos. Allí también el agresor compartió el enlace a la cuenta de Facebook desde donde emitió el atentado. De manera que el ataque se anunció en un chat, se retransmitió en Facebook, se publicó en Twitter y se consumió en YouTube. La red social creada por Mark Zukerberg dio de baja el contenido de inmediato al igual que Twitter y Reddit. Youtube, por su parte, esperó varias horas para imitar la decisión de Facebook. La plataforma de videos, propiedad de Google, alojó rápidamente varias piezas audiovisuales de la masacre subidas en su mayoría por usuarios anónimos. “Por favor, sepan que estamos trabajando y vigilando para eliminar cualquier metraje violento”, tuiteó YouTube en su perfil oficial, horas después del ataque. Desde Facebook también aseguraron que estaban trabajando en eliminar cualquier alabanza o apoyo al crimen “tan pronto como sean conscientes” de que existe una publicación de ese tipo.
¿Es incontrolable la difusión de contenidos agresivos en redes sociales? “En principio es muy difícil para Facebook y para Instagram y si hablamos de Whatsapp nos metemos en otro terreno porque es una red social privada,” contesta Zuazo. “Hay un margen de mejora a la hora de controlar los contenidos emitidos pero el problema con esto es que corremos el riesgo de que el remedio sea peor que la enfermedad. Y por ello estos sucesos nos muestran la tensión, todavía no saldada, entre el derecho a la información y la censura previa.”
Informe: Sofía Solari.