La inteligencia artificial evoluciona a un ritmo imprevisible. Puede acelerar la recolección e interpretación de datos, optimizar el uso de energía, hacer predicciones basadas en tendencias o anticipar fallas en equipos críticos, al tiempo que conlleva, en determinados usos, altos niveles de riesgo. El principal desafío es mantener una vigilancia permanente, en especial con respecto al cuidado de los derechos de la ciudadanía.
La investigadora de Conicet y profesora de las universidades de Buenos Aires y San Martín Flavia Costa estudia la evolución de la inteligencia artificial y sus impactos sociales y políticos; remarca sus potencialidades y advierte sobre sus implicancias negativas. Costa publicó el libro Tecnoceno. Algoritmos, biohackers y nuevas formas de vida (Taurus) en plena pandemia. Allí reflexiona sobre la capacidad del humano de “desencadenar tecnológicamente energías de altísima intensidad y altísimo riesgo”. Enfocada en esta perspectiva, la experta en tecnologías dialoga con Página/12.
--¿Por qué habla de "Tecnoceno"? ¿Qué propone con ese concepto?
--El término “Tecnoceno” remite a la era en la que el humano se vuelve un agente geológico. Es una especificación del término "Antropoceno". ¿Cuál es ese antropos (humano) que deja huellas perdurables en los sedimentos, los océanos, la atmósfera y que actúa en escala planetaria? En los últimos años se propusieron, al menos, dos respuestas a esta pregunta. Una pone el acento en las relaciones sociales de producción capitalista, así como en los modos de acumulación, y afirma que el Antropocenoes en realidad un Capitaloceno. La otra proviene de quienes estudiamos el despliegue acelerado de tecnologías en el último siglo, quienes sostenemos que el Antropoceno es un Tecnoceno. Que, tal como afirma la posición mayoritaria dentro de la Comisión Internacional de Estratigrafía, se inicia con la Era Atómica, cuando el humano fue capaz de desencadenar tecnológicamente energías de una intensidad inédita y de un riesgo igualmente grande: la energía nuclear, la petroquímica, la megaminería, la agroindustria, las biotecnologías, y también las tecnologías de la información. Estas energías desencadenadas, a la vez que permiten un enorme crecimiento en términos de población, longevidad, productos de consumo, producen cambios irreversibles --la pérdida de bosques tropicales, la crisis climática--, que hacen que ese crecimiento sea insustentable. Es la época del desencadenamiento de grandes potencias y grandes riesgos: nuevos “poderes inhumanos”.
--Planteado que más que hablar de Inteligencia Artificial, cabría hablar de “sociedad artificial”. ¿Por qué?
--Busco dar una discusión sobre cuáles son los ámbitos expertos que deben tratar con estos dispositivos. Porque estos sistemas no son incumbencia exclusiva de la ingeniería o de las ciencias de la computación. Si pensamos en los modelos de lenguaje grande que están en la base de chatGPT o Google Bard, tienen tres pilares importantes: las redes neuronales de aprendizaje profundo, una gran capacidad de cómputo en el nivel del hardware, y un enorme volumen de datos, esto es, la información provista por cientos de miles de usuarios de internet: por nuestros contenidos, formas de hablar, las figuras retóricas que empleamos. Para funcionar, los sistemas de IA generativa no solo dependen de la energía eléctrica o de la capacidad de cómputo, sino del conocimiento, de las habilidades lingüísticas y el trabajo cognitivo de una importante porción de la sociedad que se expresa en la red: cerca del 65% de la población mundial. Y en el Cono Sur, más del 80% de la población tiene acceso a Internet.
--¿Es decir que son sistemas que leen y procesan lo social?
--Exacto. Y que aceleran procesos de análisis y gestión de la reproducción social. Por un lado, ¿para qué se extraen esos saberes sobre lo social? ¿Quiénes se los apropian? ¿Cuáles son las prioridades en el desarrollo de estos sistemas? Por otro, si como decía Paul Virilio, toda tecnología nace con su accidente específico –con el tren se inventa el descarrilamiento; con el avión, el accidente aéreo-, ¿qué accidentes pueden advenir con una meta-tecnología como la IA?
--¿Cuáles podrían ser los accidentes de la IA?
--Dado que la IA no es una tecnología sino una meta-tecnología, puede implementarse en áreas muy diferentes, por lo tanto no hay un único tipo de accidente. Podemos pensar en accidentes como el Flash Crash financiero de 2010, o los escándalos provocados por softwares para la gestión de asuntos públicos como el COMPAS, una herramienta usada por algunos tribunales de los Estados Unidos para evaluar el riesgo de reincidencia en delincuentes, o el SyRI (Sistema de Indicadores de Riesgo), para la detección de fraude en la solicitud de asistencia social en los Países Bajos, que terminó con unas 25 mil familias en la ruina y la renuncia en pleno del gobierno neerlandés en 2021. Se necesitan equipos interdisciplinarios capaces de estudiar y anticipar los accidentes de la IA, en particular cuando involucran riesgo para las personas. De evaluar estos sistemas durante el desarrollo y monitorearlos durante la implementación, como se hace en otras industrias de riesgo. No pueden tener como único límite la normativa, porque el derecho actúa a posteriori del accidente. ¿Quién se subiría a un avión si le dijeran: “No se preocupe, usted está seguro porque si hay una falla grave, la empresa irá a juicio y pagará una multa suculenta”?
--¿Cómo se puede mantener un desarrollo sustentable con este desencadenamiento de energías de alta intensidad?
--En el Tecnoceno, la tecnología es parte de nuestro ambiente. Hoy nuestro entorno urbano es tecnonatural, y más aún después del “shock de virtualización” que implicó la pandemia. Convivimos con grandes conjuntos técnicos que no podemos elegir no usar, sino que se presentan como obligatorios para actividades totalmente cotidianas: movernos en la ciudad, sacar documentación, pedir turnos médicos, hacer transacciones bancarias. Habitamos en sistemas bio-socio-técnicos complejos; y dada la doble condición de los sistemas complejos –acoplamientos estrechos y complejidad interactiva–, cuando ocurre un accidente, de acuerdo con su magnitud puede ser un problema severo para regiones enteras. Los nuevos accidentes de esta escala planetaria son generales, transversales, multiescalares. Por eso, cuando una industria puede desencadenar riesgos dramáticos, es necesario anticipar, gestionar y monitorear esos riesgos en forma permanente. Las industrias ultraseguras son aquellas en las que hay un accidente por millón de operaciones. Necesitamos entender cuáles son, y cómo prevenir, aquellos riesgos que consideramos inadmisibles en materia de IA.
--¿Qué nivel de riesgo puede generar el avance de la IA?
--La IA se usa hoy en muchos campos: para organizar logísticas, en salud pública, para redactar dictámenes judiciales –como es el caso del software Prometea, que se usa en la fiscalía de la Ciudad de Buenos Aires-, para hacer recomendaciones. Pero puede usarse también para fines indeseables, como la vigilancia de la población. El riesgo se evalúa, entonces, de acuerdo a los usos. La reciente normativa general sobre IA de la Unión Europea, aprobada en junio, propone una perspectiva basada en el riesgo, donde se considera que algunos usos son inaceptables: la vigilancia masiva, la manipulación cognitiva del comportamiento, la calificación social. Luego menciona los ámbitos en los que puede afectar a la seguridad o a los derechos fundamentales de los ciudadanos, lo que considera de alto riesgo. Se refiere entre otros a los sistemas de identificación biométrica, de manejo de infraestructuras críticas, los relacionados con la educación, la gestión de trabajadores, la aplicación de la ley, o la gestión de la migración y el control de fronteras. En estos casos, los sistemas de IA de alto riesgo deberán ser evaluados en el momento de ser adquiridos y a lo largo de su ciclo de vida, es decir durante la implementación.
--¿Cómo evalúa esta concepción del riesgo?
--Para mí es clave, porque una de las apuestas deTecnoceno era incluir a las tecnologías infocomunicacionales en el debate sobre el Antropoceno, pensarlas a partir de la perspectiva del riesgo, lo que implica imaginar sus potenciales accidentes. A la vez, necesitamos democratizar los saberes y las tecnologías que se desarrollan sobre la base de la cooperación social. Porque tradicionalmente muchos de estos recursos buscan abaratar costos en términos detrabajo humano–los chatbots de atención al público son un ejemplo clásico–; pueden desplazar a trabajadores de sectores enteros, o pueden usarse para limitar derechos como la migración o la privacidad. Por eso hay que evitar que el aumento de productividad se realice a costa del acceso al empleo, de la equidad, de la calidad democrática o de la seguridad de las personas.
--Cuando se problematiza la necesidad de control humano sobre la IA, se insiste en el concepto de “alineación”. ¿Qué es lo que se debe alinear?
--Se refiere a la necesidad de que los sistemas de IA contemplen, desde su diseño, en su desarrollo y en su implementación, valores de la humanidad, o al menos, de la sociedad en la que se insertan. Porque si los únicos valores de programación son la competitividad, la eficacia, la productividad, esos sistemas podrán tener gran robustez para alcanzar esos objetivos, pero pueden ser poco seguros para la vida democrática o para el cuidado del ambiente. Es un área muy desafiante hoy, porque no está claro cómo alcanzarla, sobre todo en las escalas más altas y concentradas del desarrollo de IA.
--¿Qué plantea la normativa en términos de alineación?
--Todavía hay muy poca normativa estrictamente orientada a la IA en el mundo. La de la UE es una de las primeras a nivel mundial, y todavía es un marco general: los países de la Unión deben hacer sus propias adaptaciones. En los Estados Unidos el decreto del Ejecutivo de 2019 para la IA, durante la presidencia de Donald Trump, señalaba que la intervención estatal dentro del sector de IA debía estar orientada a “proteger las libertades civiles, la privacidad y los valores estadounidenses”. En Argentina, las recomendaciones de la Subsecretaría de Tecnologías de la Información, publicadas el 2 de junio en el Boletín Oficial, mencionan una serie de valores: proporcionalidad e inocuidad, seguridad, equidad y no discriminación, sostenibilidad, derecho a la intimidad y protección de datos, supervisión y decisión humanas, transparencia y explicabilidad, responsabilidad y rendición de cuentas, sensibilización y educación. Pero son recomendaciones, no normas.
--¿Cómo se debería avanzar?
--Es importante que la discusión sobre los valores de alineación sea abierta. Y que haya equipos capaces de trabajar en que los sistemas estén alineados a esos valores en el momento de la programación, en la búsqueda de los datos, en todo el ciclo de vida. Quizás debe haber equipos permanentes para monitorear las áreas críticas, como ocurre con los medicamentos o con la alimentación. Si bien los dos temas no son el mismo, coincido con Paul Christiano–un egresado del MIT que integró OpenIA y ahora se dedica a estudiar los problemas de alineación de la IA–, quien sostiene que trabajar en seguridad de la IA es una buena manera de avanzar en la alineación, ya que muchos problemas de alineación se manifiestan primero como problemas de seguridad. Por esto es necesario que la prevención de los riesgos no se reduzca a la ley, que el monitoreo forme parte del ciclo de vida de la IA y sea abordado por expertos formados en la interdisciplina.
--¿En qué se diferencian las perspectivas de estas normativas en cada región?
--En Estados Unidos el desarrollo de la IA está en manos de grandes empresas privadas, pero la tecnología en sí emerge de aquello que solía llamarse el complejo militar-industrial, y por lo tanto se la concibe como área crítica. Hay una Iniciativa Nacional para la Inteligencia Artificial (NIST) de la que participan todas las grandes agencias del Estado, incluidas las áreas de comercio, salud, transporte, alimentos, Defensa, Educación, la NASA, entre otras. Y el objetivo central de esta Iniciativa es el liderazgo estadounidense en el desarrollo de la IA. La Unión Europea tiene una perspectiva diferente, más defensiva si se quiere, con un marco sobre riesgos y seguridad que es bastante detallado. En nuestra región estamos un poco contrarreloj: necesitamos desarrollar las iniciativas y los marcos dentro de cada país y, al mismo tiempo, coordinar perspectivas y acciones con la región.
--¿Cómo es por el momento la perspectiva argentina?
--La Argentina tiene potencialmente capacidad para liderar algunos desarrollos en esta tecnología. Es un tema clave de soberanía tecnológica. Acaba de llegar, además, un crédito del Banco Interamericano de Desarrollo para esto. Como en todo escenario complejo, es preciso trabajar en distintos frentes: definiendo las áreas prioritarias de desarrollo, atendiendo a los riesgos, identificando las áreas sobre las cuales se requiere monitoreo permanente, formando equipos, creando las condiciones para que esos equipos permanezcan y se desarrollen en el país.
--La reforma de la Constitución de Jujuy incluyó un artículo referido a IA. ¿Qué opina sobre eso?
--Primero, que es sintomático que exista. Es un artículo breve, el 76, referido a la “inteligencia artificial o no humana”, con cinco puntos. El primero reconoce el derecho de toda persona a utilizar sistemas de inteligencia artificial. El segundo postula una serie de valores generales a los que los sistemas de IA deberían ajustarse: legalidad, transparencia, responsabilidad, protección de datos, seguridad, no discriminación y rendición de cuentas, a la vez que consagra la posibilidad de solicitar revisión humana “cuando sea necesario”. El quinto afirma que en caso de conflicto de derechos, se dará primacía a los derechos humanos y a las libertades y garantías constitucionales. Los puntos 3 y 4, referidos a la acción del Estado provincial en cuanto al desarrollo y a la seguridad respectivamente, son los que me resultan más asimétricos: el tercero señala que el Estado fomentará la investigación y el desarrollo de estos sistemas, mientras que el cuarto dice que el Estado fomentará la educación y el debate público sobre los desafíos éticos y jurídicos que ellos plantean. Es decir que, con respecto a los controles, el Estado sólo se compromete a promover el debate, pero no a investigar sistemáticamente los riesgos, ni a monitorear las implementaciones, ni a auditar e investigar para entender la fiabilidad del sistema. Parece demasiado poco ese compromiso para todo lo que está en juego.