Flavia Costa se especializa en filosofía de la técnica y, como investigadora del Conicet, estudia la influencia de las nuevas tecnologías en las artes, las relaciones sociales y las subjetividades. Doctora en Ciencias Sociales, es desde 1995 profesora en la Universidad de Buenos Aires y tradujo buena parte de la obra de Giorgio Agamben. Su reciente libro Tecnoceno. Algoritmos, biohackers y nuevas formas de vida (Taurus) describe los desafíos del nuevo escenario tecnológico, político y cultural que se abrió con la digitalización y que se acentuó en pandemia: el uso de datos masivos, la vigilancia y el horizonte de una superinteligencia artificial.
Su libro describe una hipótesis fuerte sobre nuestro tiempo: “el ser humano se ha convertido en un agente geológico”. Es decir, dejamos huellas que modifican las capas geológicas de la Tierra. El nombre habitual que se le ha dado a esto es Antropoceno, pero Costa, siguiendo a autores como Herminio Martins y Peter Sloterdijk, incorpora la idea de Tecnoceno, ligada a la capacidad definitiva y comprobada del ser humano de afectar el planeta, dejando huellas concretas en las capas geológicas.
--¿Cuándo empezó esta era?
--Uso el término Tecnoceno para hacer más específica la noción de Antropoceno, que propuso en el año 2000 el químico Paul Crutzen para señalar que la actividad humana sobre la Tierra está siendo tan significativa como para implicar transformaciones perdurables en los suelos, la atmósfera y los océanos. Dejamos huellas que pueden permanecer por cientos de miles de años. Ya el tema de la huella ecológica venía inquietando a investigadores de diferentes disciplinas desde fines del siglo XX, y la propuesta de Crutzen aglutinó esas preocupaciones por la sustentabilidad del crecimiento humano. También despertó controversia en su momento.
--¿Por qué?
--Hasta 2015, la comunidad científica no terminaba de aceptar el término; consideraban que era una tesis más política que científica. Pero en 2016, un equipo de geólogos realizó pruebas estratigráficas que mostraron la presencia de aluminio, hormigón, plástico, restos de pruebas nucleares y el aumento del dióxido de carbono, entre otras huellas en los sedimentos. Sobre esta base, en mayo de 2019, el Grupo de Trabajo sobre el Antropoceno --un cuerpo de la Comisión Internacional de Estratigrafía-- votó por 29 votos contra 4 que el Antropoceno constituye una nueva capa estratigráfica en el planeta. Aunque aun debe ratificarse, fue un gesto importante. Ahí mismo se fechó su inicio hacia 1950, por los residuos radiactivos de plutonio producidos por la actividad atómica. Este dato me inclina a hablar de Tecnoceno: porque asocia la era del “antropos”, es decir del humano, con la capacidad poderosísima de afectar el planeta, con nuestros modos de liberar energía, de dejar residuos, de avanzar sobre las otras especies y los ecosistemas.
--¿Usted dice que la clave del hombre del Tecnoceno es su capacidad tecnológica?
--Sí, fue el desarrollo técnico el que impulsó el salto de escala que estamos atravesando. Y así como nos permitió pasar de ser tres mil millones de seres humanos en 1960 a casi ocho mil millones hoy --más longevos, con mejor salud y educación, con muchos más productos de consumo--, estamos agotando recursos que no sabemos cómo reemplazar. Por eso pongo el acento en el despliegue técnico, en las infraestructuras, en los modos de energía desencadenados y en las imaginaciones políticas, sociales y subjetivas que acompañan todo este movimiento. Otros investigadores hablan de "Capitaloceno", señalando la economía política y las relaciones sociales de la acumulación capitalista como los grandes propiciadores de este salto. En ambos casos, buscamos iluminar una dimensión significativa del Antropoceno. Digamos que Tecnoceno, Capitaloceno y Antropoceno no son términos en competencia, sino que tratamos de enfocar el problema y ser propositivos acerca de sobre qué trabajar para seguir adelante.
--Su libro profundiza conceptos de Paul Virilio como la dromología, el estudio del impacto político de la aceleración de los procesos tecnológicos en la sociedad. ¿Dónde observa esos incrementos exponenciales?
--Muy buena observación: Virilio fue pionero en abordar la aceleración técnica en su complejidad, poniendo en relación las cuestiones ecológicas, urbanísticas y subjetivas. En cuanto a la pregunta, veamos dónde estamos hoy: si todo sale bien, estamos empezando a dejar atrás una pandemia que afectó a la casi totalidad del planeta. En abril de 2020, más de un 90 por ciento de la población mundial tenía alguna limitación de movimiento. Ese mes escribí un artículo, La pandemia como accidente normal, que en parte impulsó este libro, porque toda la investigación que venía haciendo sobre la aceleración técnica y la digitalización me permitió poner en una serie histórica algo que podía parecer un acontecimiento disruptivo muy desconcertante. Pero que no lo era tanto si teníamos presente el salto de escala que venimos produciendo en los últimos 70 años. Estamos actuando en la escala del sistema Tierra.
Accidente normal
--¿Qué significa esto, concretamente?
--Ya no solo actuamos en la escala personal, doméstica, nacional e internacional: estamos siendo agentes transformadores en la escala planetaria. El químico Will Steffen llamó a este proceso la Gran Aceleración. Junto con su equipo, reunió estadísticas de tendencias desde 1750 hasta 2010 sobre 24 marcadores, doce referidos a áreas sociales (aumento de la población, de la urbanización, del producto bruto interno global, del uso de energía primaria) y doce del sistema Tierra (emisiones de dióxido de carbono, óxido nitroso y metano, descenso del nivel de ozono en la estratósfera, acidificación de los océanos, entre otros). Y lo que se ve en cada gráfico es que en torno a 1950 la curva sube abruptamente. Allí comienza esta nueva época. Si lo queremos ver en la vida cotidiana, pensemos en las nuevas infraestructuras y dispositivos: redes informáticas, cables submarinos interoceánicos, aeropuertos, centrales nucleares, plantas petroquímicas, satélites, laboratorios de biotecnología, celulares, tablets, ecografías, tests presintomáticos. Pensemos en las energías que los humanos somos capaces de liberar: algunas de altísima intensidad, como la atómica. Todo esto produce formas inéditas de relación entre lo humano y lo no humano, como los 132 embriones interespecie, o “quimeras”, que combinan células de mono y de humano, y que fueron producidos en 2019 para explorar la creación de órganos para trasplante. Y también nuevas relaciones entre los seres humanos, como cuando se “programa” el nacimiento de un niño para que su dotación genética pueda salvar la vida de su hermano. Haciendo una analogía, la pandemia aparecía así como un “accidente normal” de esta nueva época marcada por el salto de escala, que incluye el crecimiento inédito de nuestra especie, de la urbanización –no siempre en condiciones adecuadas--, y de las desigualdades estructurales, que es un punto crucial. Doy un solo dato: según el informe de la ONG Oxfam de enero de 2020, 2.153 personas tienen más dinero que los 4.600 millones de seres humanos más pobres del planeta, el 60 por ciento de la población del mundo.
--¿Qué implica un “accidente normal”?
--La noción de accidente normal o sistémico fue acuñada por el sociólogo estadounidense Charles Perrow para analizar los accidentes propios de industrias que operan con sistemas técnicos y organizaciones complejos e involucran tecnologías de alto riesgo. Perrow desarrolla su teoría luego de estudiar el accidente de la planta nuclear de Three Mile Island, en Pennsylvania, de 1979. Fue el mayor en su tipo conocido para entonces, y el tercero en envergadura todavía hoy después de Chernóbil y Fukushima. Los sistemas sociotécnicos complejos, dice Perrow, tienen dos características clave: una, que sus procesos están muy acoplados. Una vez que la actividad se desencadena, no es posible detenerla rápidamente, y ante una falla o un imprevisto no hay tecla off, como vemos en una corrida bancaria, un derrame de petróleo o un reactor nuclear que comienza a explotar. Y además en ellos se dan interacciones inesperadas: distintos componentes del sistema pueden interactuar con otros elementos por fuera de la secuencia prevista por el diseño. Perrow afirma que los accidentes normales son infrecuentes pero inevitables: tarde o temprano van a ocurrir. La buena noticia es que sabemos que es así, son previsibles. Lo que debemos hacer es actuar para que, cuando ocurran, los daños que provoquen sean lo más limitados posible. A partir de aquí, dependemos de nuestra capacidad para evaluar esos riesgos, e imaginar soluciones y formas de acción alternativas.
Más que Big Data
--La ampliación en la capacidad de acumular datos, la aceleración y complejización de los métodos algorítmicos de procesamiento, apresurarían entonces la aparición del "accidente normal tecnológico". ¿Cuál sería el accidente paradigmático del Big Data? ¿El robo de datos?
--Más que un accidente de los Big Data --en sí no son una tecnología, sino un producto de las tecnologías de captación, almacenamiento y procesamiento--, está la combinación entre datos masivos y los sistemas de tratamiento de esos datos, como la llamada minería de datos o data mining. Uno de los problemas más conocidos son las fallas en los sistemas de perfilado debido a los sesgos de programación. Los sistemas operan a partir de algoritmos, y estos suelen reproducir los sesgos cognitivos y culturales de los programadores. Un ejemplo lo ofreció la aplicación FaceApp, famosa por su filtro “edad” que permite ver cómo luciría el usuario en su vejez. En 2017, después de un escándalo, la aplicación tuvo que cambiar su algoritmo para hacer selfies más atractivas, porque incluía la instrucción de hacer que la piel luciera más blanca. Aquí tienen una tarea importante: trabajar con los programadores para que los algoritmos no automaticen y multipliquen los estereotipos, las falsas creencias. Por otro lado, los usos combinados de biometría, inteligencia artificial y datos masivos son un hecho en términos de vigilancia.
--De eso quería hablar. En su libro ofrece datos impactantes sobre el “nuevo orden informacional”. Por ejemplo, que en este minuto 208 mil personas han participado de conferencias por Zoom; 347 mil historias se subieron a Instagram; se enviaron 350 mil tuits, 2 millones de dedos han hecho swip en Tinder y Amazon despachó 6.659 paquetes. Toda esta mega-información implica una gran novedad en términos comerciales y de gobernabilidad. Usted menciona el caso de Clearview IA. ¿Qué hace esa compañía?
--La aplicación Clearview IA rastrea en internet toda la información de la persona retratada con una precisión cercana al 99%, para lo cual usa una base de datos con más de 3.000 millones de imágenes recopiladas de sitios web y redes sociales. Hace unos años fue noticia cuando, a pesar de que su desarrollador decía que su uso estaba restringido a las agencias de aplicación de la ley, The New York Times reveló que también la usaban clientes poderosos, y difundió una escena: el propietario de una cadena de supermercados estaba cenando en un exclusivo restaurante de Nueva York cuando vio entrar a su hija con un desconocido. Le pidió al mozo que fotografiara con discreción a la pareja y subió la imagen a la aplicación, que en segundos le informó que el comensal de su hija era un capitalista de riesgo de San Francisco. "Quería asegurarme de que no era un charlatán", alardeó John Catsimatidis mientras le enviaba a su hija un mensaje de texto con la biografía del muchacho. En febrero de 2021, Canadá prohibió definitivamente el uso de la aplicación. Con todo, estos son más bien incidentes que accidentes, en el sentido de verdaderas crisis sistémicas. Involucran dilemas éticos, usos indebidos e aun ilegales de las tecnologías, pero no son accidentes al estilo del Flash Crash financiero de mayo de 2010, cuando un programa de inteligencia artificial reaccionó de forma incorrecta a una situación inesperada y provocó que el mercado de valores se desplomara durante nueve minutos, llevándose un billón de dólares. Volviendo a tu pregunta, necesitamos seguir trabajando en definir el real alcance de los problemas y cómo enfrentarlos. La investigación indica que no basta con proteger los datos personales: no es suficiente el entramado jurídico --que incluye decenas de términos y condiciones que jamás llegamos a leer--, ni la idea de evitar brindar datos personales en redes sociales. Sobre todo después del shock de virtualización que implicó la pandemia, la escala personal es insuficiente para enfrentar este tema.
Hacia una superinteligencia artificial
--En el epílogo, El malestar en la cultura digital, usted aborda la teoría de la Singularidad, desarrollada por un grupo de científicos para quienes el cuerpo humano está quedando obsoleto: en el futuro podríamos irnos a vivir --ellos sueñan con hacerlo-- a una computadora o a un robot. Menos artificiosos --aunque inciertos-- son los planteos sobre la “Gran Aceleración” de la inteligencia artificial. ¿Qué implica esto y cuáles son las etapas hipotéticas de ese salto?
--La idea de la Singularidad tecnológica se refiere a la posibilidad —hipotética, pero en la que confían tecnólogos influyentes, como el inventor y empresario transhumanista Ray Kurzweil, desde 2012 director de ingeniería de Google— de que la Inteligencia Artificial haga ella también, su salto de escala. Primero pasaría de ser la Inteligencia Artificial Estrecha que conocemos hoy (especializada en una sola tarea, como guiarnos en una ciudad) a ser una Inteligencia Artificial General, que será al menos tan desarrollada como un ser humano. Y que de allí saltaría a una Superinteligencia Artificial, mucho más veloz e inteligente que cualquier humano, e incluso que la humanidad en su conjunto. Y consideran imposible imaginar el futuro humano después de ese punto de inflexión. La idea tiene sus detractores, como el cofundador de Microsoft, Paul Allen, para quien la complejidad de la cognición humana es un obstáculo que la tesis de la Singularidad subestima. En lugar del avance cada vez más acelerado que predice Kurzweil, Allen sostiene que hay un “freno de complejidad”: una vez que se investiga un sistema complejo como el capaz de desencadenar un pensamiento --o una acción social sofisticada-- las cosas se vuelven más y más difíciles y la carrera de los “rendimientos acelerados” se frena forzosamente.
--¿Cuáles serían los peligros de alcanzar una Superinteligencia Artificial?
--De eso habla un conocido transhumanista, Nick Böstrom, director del Instituto Futuro de la Humanidad en Universidad de Oxford: asegura que la Superinteligencia es un desafío para el que no estamos preparados; para él somos como chicos jugando con una bomba. En la perspectiva de Böstrom, la primera computadora que alcanzara el nivel de Superinteligencia vería inmediatamente la ventaja estratégica decisiva de ser el único sistema así en el mundo, y podría suprimir a todos los competidores. Sería capaz de gobernar el mundo a su antojo; hacernos inmortales o borrarnos de un plumazo. ¿Qué nos queda? Para empezar, diseñar alternativas de inteligencia artificial amistosa, no competitiva, orientada por las necesidades humanas y del conjunto del sistema Tierra.