Hace no poco tiempo que la Inteligencia Artificial (IA) cumple un rol cada vez más importante en la vida cotidiana de los humanos. Y está mucho más presente de lo que pensamos: ya sea ver una película que nos recomendó el servicio de streaming que contratamos, chequear el clima en nuestro celular o decidir el destino de nuestras vacaciones por las publicidades en internet. Aunque hayamos naturalizado esas acciones, la realidad es que los algoritmos se esparcen por cada aspecto de nuestras vidas.
Si bien muchos debates alrededor de la IA coparon los medios en el último tiempo, hay uno especialmente importante a los riesgos de la política y la privacidad de los usuarios: la gobernanza de datos y el uso de ellos por parte de los gobiernos. ¿Hacia dónde van mis datos cuando apreto "Si, acepto", a los términos y condiciones de una aplicación? ¿Cómo tomar una posición más activa como usuario frente a esto? ¿Existe manera de proteger mi privacidad?
Los doctores de la Universidad Nacional del Sur Elsa Estévez y Gerardo Simari no tienen las respuestas certeras a estas preguntas, por el simple hecho de que todavía no existen, pero si algo les importa es contribuir al debate y la reflexión sobre las mismas. La semana pasada, representaron a la universidad y a la Argentina en un evento de discusión sobre el uso de datos que fue organizado de manera conjunta entre los Departamentos de Estado y de Comercio de Estados Unidos, y la cancillería argentina.
"Los estados son los encargados de cuidar a la ciudadanía. Las empresas por sí solas rara vez lo hacen, porque buscan maximizar sus ganancias. Encontrarán la forma legal de hacerlo y lo harán. Acá el rol regulador es del Estado, que es el responsable de proteger los derechos de los ciudadanos. El tema es que el tráfico de datos es intangible, no es un contenedor que va a pasar por una aduana, es apretar un enter y nadie lo ve. Así como los estados tienen soberanía en todo su territorio y tienen el rol de regular en su territorio, acá hay que pensar en términos de colaboración internacional y ponerse de acuerdo en cómo se quiere legislar, qué tipo de convenios se quieren hacer, porque si no lo que un país prohíbe en el otro se puede hacer", afirma Estévez, profesora en la Universidad Nacional del Sur, vicedirectora del Instituto de Ciencias e Ingeniería de la Computación, de la UNS e investigadora del CONICET. Se especializa en temas de transformación digital. Por su parte, Simari es compañero de Elsa en la UNS e investigador, pero se inclina más por la parte técnica, lógica e inteligencia. Ambos forman un buen equipo para llevar a cabo esta discusión.
La experiencia de ese congreso fue muy rica para estudiar en profundidad las capacidades institucionales de Argentina para adoptar la inteligencia artificial en áreas de gobierno. Como parte de sus objetivos de contribuir a la discusión, y que además de la academia, se discuta inteligencia artificial entre la opinión pública, mantuvieron una conversación para este diario. Entre otras cosas, los expertos indicaron la necesidad de fortalecer el sistema de ciencia y tecnología, adviertieron sobre las cuestiones éticas y sobre la "fuga de cerebros" del sector informático, entre otras cuestiones.
-Pensando en la organización del congreso en el que participaron, de la mano de Estados Unidos, y en su trabajo quizás era algo localizado, situado, ¿cuáles son las diferencias que notan con respecto a las discusiones que se dan en países que tienen tecnología más desarrollada en este tema y Argentina?
EE: Yo creo que las diferencias fundamentalmente están en la estrategia política que están siguiendo los países. Hay países desarrollados que tienen y que están implementando políticas muy fuertes en el desarrollo de inteligencia artificial, inversiones muy grandes, no solamente relacionadas a la formación de talento. Cuando hablo de talento estoy hablando de posgrados especialistas, de posgrado en inteligencia artificial, sobre todo lo que son tareas de investigación, la profesionalización de los recursos humanos en el sector público, en ciudad en general. También estoy hablando de inversiones en gobernanza de datos en el sector público, regulación del uso de IA, cómo se comparten los datos, qué se hacen con los datos, dónde se puede aplicar inteligencia artificial, dónde es conveniente y dónde no es conveniente, cuestiones éticas, cuestiones de Facebook. Hay una serie de capacidades, no solamente en términos de recursos humanos sino también en infraestructura técnica, de regulación, de procedimientos, de marcos regulatorios que tienen que ver con el uso de IA, y eso debería ser una política que esté absolutamente coordinada desde el gobierno. Entonces, la diferencia más grande entre los países que están avanzando en estos temas y otros que están un poco más retrasados es fundamentalmente el abordaje que toman los gobiernos en base a estas estrategias, a estas políticas.
-¿Cómo está posicionada la Argentina en la discusión sobre las políticas públicas de inteligencia artificial?
EE: Hubo intentos, tanto en el gobierno anterior como en este, se intentaron hacer y se formularon estrategias de inteligencia artificial, pero lamentablemente creo que falta la continuidad para poder llevarlas a la práctica. Ahí es donde veo que realmente hay un área de vacancia, como para poder discutir y para poder concientizar y sensibilizar a los tomadores de decisiones en gobierno, donde realmente la tecnología debería ser una política del Estado, donde realmente estrategias tanto de transformación digital como de estrategias de inteligencia artificial o de gobernanza de datos (son mutuamente dependientes y una es necesaria para la otra) deberían ser temas de política de estado, deberíamos poder tener continuidad en estos esfuerzos. Hubo alguna continuidad en algunas cosas, como por ejemplo el GDE (Sistema de Gestión Documental Electrónica), y por suerte lo hubo, porque facilitó poder operar digitalmente cuando vino la pandemia. Pero se ven como esfuerzos aislados.
-También pienso en algunos casos pocos éticos de la inteligencia artificial por parte de medios estatales. Por ejemplo, los falsos positivos de las cámaras de reconocimiento facial de la Ciudad de Buenos Aires o el sistema de IA en Salta para "preveer embarazos adolescentes".
GS: Esos son dos muy buenos ejemplos de los peligros que puede haber en el uso de este tipo de tecnologías. Fueron tanto negativos porque no deberían ocurrir, pero también positivos porque hubo una visibilización y una respuesta de la sociedad y de todos los actores que nos hizo saber que eso no podía avanzar. Además, es un buen ejemplo del balance muy delicado que hay entre las dos cosas. Por ejemplo, con el reconocimiento facial puedo agarrar a los ladrones, a la gente que está haciendo actividades que quiero evitar. Pero también quizás ocurre un falso positivo y meto preso a quien no es. Los sistemas inteligentes siempre van a tener falsos positivos y falsos negativos, pero depende mucho del dominio, del impacto que tiene cada una de las personas que juegan. Hay que tener mucho cuidado y casos como este son perjudiciales, ya que el incendio tecnológico parcial está realmente muy mal visto hoy en día a nivel mundial. Así que esto es parte de lo que se hace en este tipo de estudios, ver qué efectos puede tener y por qué uno debería regularlo o es prohibido.
EE: Las distintas sociedades en el mundo tienen distintos patrones culturales y la ética depende de la cultura de cada sociedad. Por eso, estamos tratando de facilitar, promover o incentivar el diálogo multidisciplinario, multisectorial, para que como sociedad podamos decidir qué es lo que nosotros entendemos como ético, como correcto en el uso de estos sistemas y hacia dónde queremos ir.
CS: Además creo que muchas de las cosas que surgen acá no es que son inherentemente nuevas, sino que están impulsadas, multiplicados y aceleradas por la capacidad que tienen los sistemas automatizados. Por ejemplo, el famoso chat GPT, al que un alumno de la universidad o de la escuela podría pedirle que haga un trabajo, y lo hace en menos de un minuto. Y eso es simplemente el problema de la copia, del plagio, no es nuevo, pero fue facilitado enormemente por la automatización. Son problemas que antes pasaban, pero ahora están amplificados enormemente por estas innovaciones. Son problemas viejos pero es como una nueva manera de resolverlos, o quizás por las características de estas tecnologías, más masivos.
-En una entrevista a Karina Pedace, filósofa del grupo GIFT, que busca ampliar el debate público sobre IA, ella sostenía la idea de que este tipo de sistemas están diseñados por humanos, en el sentido de que puedan traducir sesgos que la sociedad que la desarrolló ya tenía, y alejarnos de la idea de que la máquina "lo genera sola". ¿Qué piensan al respecto?
CS: El tema es que los datos que hoy nosotros tenemos son sesgados, entonces aplicar un algoritmo inteligente que tome decisiones sobre datos sesgados obviamente va a producir efectos sesgados. De alguna forma sí está haciéndolo sola la computadora, porque el algoritmo, como decimos, se entrena en base a muchos datos. Hay un ejemplo clásico, de una compañía que automatizó a través de un algoritmo el envío de CVs, que los ayudara a filtrar los candidatos y asegurarse de que les quedaran una lista corta para utilizar gente que estuviese mejor preparada, más propensa al éxito. Lo que pasó es que tarde o temprano tendía a recomendar hombres y ninguna mujer, porque había pocas mujeres en la empresa, entonces una de las cosas que aprendió la máquina era que una de las características del éxito era ser hombre. Sin darse cuenta, uno puede fomentar este tipo de cosas. El trabajo de investigación que hay hoy en día es en intentar la justicia algorítmica, para evitar este tipo de cosas.
-¿Cómo hacemos para evitar que los casos negativos como este y otros ejemplos no demonicen a la herramienta, o no aleje al público general de que empiece a involucrarse con el tema?
CS: Es como toda herramienta, hay que analizarla de la mejor manera, para ver qué se puede usar para el bien y evitar el mal uso. El ejemplo clásico de un cuchillo que sirve para cortar la comida y sin eso no podría comer, pero con el que también podría cometer un crimen.
EE: Es necesario poder regular el uso de estas tecnologías, en qué situaciones ese uso tiene un impacto positivo y en cuáles tiene un impacto negativo para la sociedad. Muchas veces, en el sector privado, en aplicaciones comerciales o en internet, la persona usuaria ni siquiera sabe que está siendo utilizada, no sabe a qué se está exponiendo. Es importante compartir esto, informar y que realmente los usuarios que navegan en Internet, que utilizan redes sociales, que utilizan cualquier tipo de herramienta donde haya algún tema de manejo de datos personales, pueda ser consciente y decidir por sí mismo cuánto quiere utilizar esos servicios o cuánto prefiere mantener su privacidad. Porque hay casos que parecen inofensivos y otros que no tanto. Las mismas herramientas que se utilizan para recomendar películas en Netflix se están utilizando para decidir si una persona puede ser elegible o no para recibir un servicio público. Eso es bastante más delicado si comete un error.
-Con respecto al rol activo del usuario, muchas veces las personas no tienen las herramientas, el tipo de lenguaje o el tiempo como para entender realmente qué es lo que le van a robar y en qué momento. ¿Cómo nos defendemos sin perder todo nuestro tiempo en esfuerzos inútiles?
CS: Creo que hay que poner la vara un poco más alta con las empresas. Pero creo que está cambiando un poco. En el sistema operativo Android del celular, por ejemplo, uno puede darse cuenta a través de los años cómo ha cambiado el uso de los permisos en las aplicaciones. "¿Permitir que la app use la cámara?", y te deja elegir si si, siempre, de vez en cuando, cuando uso la app. Y uno puede identificar algunas cosas raras, como che por qué me pide la cámara si es un juego, por ejemplo. Hoy en día ya se le está pidiendo a los desarrolladores de las aplicaciones que hagan eso, falta un montón y sigue habiendo aplicaciones maliciosas, pero me parece que el camino se está reformando.
-¿Cuáles son las recomendaciones que piensan que debería escuchar Argentina para mejorar su dispocisión frente a la IA de ahora en más?
EE: Hay un tema importantísimo y que resaltamos mucho que es el desgranamiento que está teniendo el sistema científico tanto de investigadores como de docentes en ciencias de la computación, y también la falta del personal informático en el estado. Como no se puede competir con los sueldos del sector privado, se está desarrollando mucho software para el sector privado y para empresas del exterior y estamos perdiendo recursos, tanto de informática en el estado, como investigadores y docentes en informática. En las universidades el problema es serio por dos motivos: no solo por la necesidad que tenemos de docentes formativos, y para lo que significa la necesidad de crear profesionales en estas áreas para el desarrollo del país. Hoy por hoy es muy difícil convencer a un recién graduado en informática que teniendo la posibilidad de tener un buen empleo quiera hacer investigación, y eso pauperiza mucho los recursos.