Una seductora voz española nos guía por las calles del mundo cuando al GPS le pedimos que hable en castellano. Una expeditiva asistente nos dice ¿en qué te puedo ayudar? y es más conocida como Siri, la asesora virtual de los usuarios del sistema operativo iOS. Cortana, la de Microsoft, va por la misma línea en tono de voces que pertenecen a mujeres reales aunque su inteligencia no. Esta forma parte de lo que se conoce como deep y machine learning: una serie de algoritmos que permiten que las máquinas puedan aprender por ellas mismas en base a repositorios de imágenes, palabras e información. La cuestión tecnológica es maravillosa y de gran ayuda en la vida diaria pero ¿Cómo nos hablan? ¿Quién le enseña a una ginoide a pensar?
Hasta ahora, los sistemas de inteligencia artificial (AI), que son muchos, están plagados de sesgos racistas. Si a Siri, a Cortana o a Alexa (la de Amazon) se la ofende sexualmente, no sabe qué responder. Sólo reproduce frases cómo ¿perdón? “no se trata de mí sino de ti” y en el mejor de los casos, nos manda a lavar la boca con agua y jabón. Peor aún, no están preparadas para ayudar en casos de violencia machista. Un estudio de JAMA Internal Medicine demuestra que los agentes de voz más usados del mercado no saben ni responden nada útil ante situaciones de riesgo.
En abril de este año, un informe de la revista Science demostró que cuando una inteligencia artificial aprende un idioma, termina por asumir los sesgos humanos que están incluidos en el lenguaje y, en consecuencia, se vuelven racistas y machistas porque el lenguaje ya contiene ese tipo de sesgos.
El análisis de Science, liderado por Aylin Caliskan y Joanna Bryson, descubrió que la máquina asociaba con mayor probabilidad los nombres femeninos a palabras relacionadas con tareas domésticas o familiares y los nombres masculinos con conceptos relacionados con carreras profesionales. Cualquier semejanza con la realidad no es mera coincidencia: la IA relaciona con mayor probabilidad palabras como “mujer” y “niña” a conceptos relacionados con las artes y menos con las matemáticas. A la orden del día también estaban los sesgos raciales: se comprobó que se emparentaban los nombres americanos de origen europeo con estímulos positivos con más probabilidad que los afroamericanos.
Este tema no pasa desapercibido en el mundo, aunque tampoco tiene visibilidad en los medios. En Estados Unidos, la investigadora del MIT Joy Buolamwini creó la Liga de la Justicia Algorítmica, a raíz de otra muestra machista de los bots: su imagen no fue reconocida por un software de reconocimiento facial porque es afroamericana.