Hace unos días, en una carta publicada en su sitio web que luego quitó, el músico de 76 años Neil Young anunció que retiraría inmediatamente su música de Spotify por difundir noticias falsas. La protesta era puntualmente contra el podcast del comediante Joe Rogan, el más escuchado de 2021, en el que se hacían frecuentes comentarios antivacunas. "Pueden tener a Rogan o a Young. No a ambos", escribió el músico.
Warner, la discográfica con los derechos de Young pidió oficialmente el retiro de su música, aunque al momento de escribir esta nota, seguía disponible. El artista además invitó a otros artistas a imitarlo aunque, aseguró, no tenía muchas expectativas al respecto. Días después, otra leyenda canadiense, Joni Mitchell, se sumó a la iniciativa: "Me solidarizo con Neil Young y con la comunidad científica y sanitaria global en este asunto", escribió.
La polémica iniciada de esta manera con un tema tan sensible como las noticias falsas, para peor, referidas a la vacuna contra la covid-19, determinante para detener nada menos que una pandemia global, vuelve a traer sobre la escena la responsabilidad de las grandes plataformas sobre el discurso público.
De momento Spotify lamentó que Young quiera irse, pero aseguró que es su decisión. Cabe aclarar que en 2020 Spotify firmó un contrato de exclusividad con Rogan por más de 100 millones de dólares como parte de su plan de fortalecer el área de podcasts.
No es la primera vez que la moderación de contenidos plantea problemas a la empresa. En 2018 desarrolló una nueva política de "Contenidos y conductas de odio" que duró tres semanas porque fue considerada demasiado vaga y aplicada, según argumentaron, con algunos "excesos". El caso más conocido fue el del músico R. Kelly, eliminado en primera instancia de la plataforma por las denuncias que recibió por abuso sexual. La empresa volvió atrás y limitó la remoción de contenidos a los casos más extremos de supremacismo y racismo.
Cómo trazar los límites
"El caso de Neil Young y Spotify es súper interesante porque habilita un debate público sobre qué hacemos con un discurso tan peligroso en términos de salud pública como es el de noticias falsas sobre vacunas y tratamientos médicos", dice Bea Busaniche, presidenta de la Fundación Vía Libre y Magister en propiedad intelectual. "Todo eso tiene un impacto no solo en la vida de personas que terminan perjudicándose a sí mismas, sino también en dificultar la salida de una pandemia global. Acá hay una decisión individual de un artista muy famoso que no quiere compartir espacio con un tipo de discurso que repudia. En ese sentido está totalmente en su derecho y me parece valioso que lo manifieste públicamente y que se haga cargo de las consecuencias decir 'él o yo'".
Con respecto a la decisión de quitar los contenidos, para la especialista, Spotify "simplemente sopesó qué le resulta más redituable, qué le trae más audiencia y ganancias. Lamentablemente la difusión de este tipo de discurso genera un negocio también en los medios de comunicación masivos".
¿Las plataformas son sólo mediadoras?
En realidad, el desafío que enfrenta Spotify no es nuevo. Un proceso similar ocurrió, por ejemplo, con Facebook, otra plataforma que también busca resolver de la manera más simple complejas cuestiones sociales. Mark Zuckerberg insistió muchas veces con una defensa irrestricta y simplista de la libertad de expresión. En esa línea llegó a defender el derecho de los negacionistas del holocausto de promocionar su versión de la historia, aunque luego cambió de opinión.
Más allá de las convicciones ideológicas, hacer una edición responsable de millones de contenidos es un costo que ninguna empresa quiere afrontar. Todas prefieren considerarse simples mediadores tecnológicos entre amigos, fans o usuarios y contenidos en general que se gestionan de forma automatizada.
Esta concepción simplista que busca resolver cuestiones complejas con un algoritmo, se demostró extremadamente peligrosa. La densidad del problema se expuso, por ejemplo, en la toxicidad de las noticias falsas utilizadas en las campañas presidenciales de Estados Unidos de 2015 y 2019. Frente a la evidencia, Zuckerberg tuvo que retocar los algoritmos que promueven los posteos con el solo criterio de su atractivo, una lógica que da más dinero pero ensancha las grietas. Por eso tuvo que, además, armar equipos especializados para la última elección, pero los desarmó una vez terminada. Poco después fue la toma del Capitolio organizada, en parte, a través de la red social. En otros países en los que el costo político era menor para la red, ni siquiera se tomaron estas medidas básicas e insuficientes, como denunciaron varios ex-empleados.
La experiencia de Facebook y otras indica que el poder de estas empresas para difundir información es enorme y que liberarlos de cualquier responsabilidad al respecto es un peligro. Spotify, al entrar al mundo de los podcast, avanzó en este terreno fangoso.
Incómodos
Por ahora la decisión de Spotify parece relativamente simple: mantiene un podcast exitoso y se va un músico con poco más de seis millones de seguidores. Al reclamo ya se sumó Joni Mitchell. ¿Qué pasara si llegaran más con la misma exigencia?
"Si fueran cincuenta o cien los músicos relevantes, Spotify seguiría haciendo una evaluación costo-beneficio. Si decidieran bajar el podcast, sí ejercerían censura", explica Martín Becerra, doctor en Comunicación y docente de las universidades de Buenos Aires y Quilmes. "Distinto es cuando una plataforma, supongamos Spotify, remueve contenido alegando los motivos que fueran. Un ejemplo es el caso del sitio digital de investigación periodística uruguayo Sudestada, que fue censurado por Google. Los limpiaron del motor de búsqueda alegando regulaciones vigentes en Europa y los Estados Unidos".
Entonces, ¿debe considerarse que estas empresas tienen una responsabilidad editorial? ¿Deben garantizar un equilibrio entre derechos y obligaciones?
"El tema de la responsabilidad editorial es discutible", explica Becerra. "Obviamente los abogados de la plataforma, organizaciones de la sociedad civil muy amigas de las plataformas y los académicos más amigos de ellas, dicen que no tienen ninguna responsabilidad editorial. Por otro lado estamos quienes creemos que las plataformas efectivamente ejercen un rol editorial, porque gestionan, jerarquizan y remueven contenidos y cuentas. Y en muchos casos, además, lo hacen sin respetar estándares básicos de libertad de expresión o derechos humanos. Por ejemplo, no dan derecho defensa. Ese es un tema que está en discusión en términos globales".
El caso de Neil Young, quien invitó a sus seguidores a escucharlo en otras plataformas, parece una señal de un problema que muy probablemente se repetirá en el futuro. Las posibles soluciones chocan con el modelo de negocios de estas empresas.