Un escándalo se desató en la comunidad de Soldini a partir de la viralización de alrededor de 300 imágenes de personas del pueblo desnudas, creadas con Inteligencia Artificial (IA). Algunas de las víctimas, a quienes les extrajeron las fotos de Instagram para modificarlas con una aplicación, son niñas y adolescentes. Así lo hizo público la mamá de una de las niñas, una de las denunciantes en la Justicia. El autor sindicado es un adolescente de 16 años de la misma localidad.
Cecilia, mamá de una nena afectada, contó por Radio 2 que se empezaron a enterar junto a otras madres y padres el pasado domingo a través de los grupos de WhatsApp de sus hijos, en los que “andaban circulando fotos de nenas del pueblo desde los ocho o nueve años de edad, desnudas”.
“Las fotos fueron extraídas de Instagram, se hicieron capturas. Me entero por los papás de un niño que hay una aplicación que permite sacar y modificar las fotos”, dijo la mujer acerca de lo que ocurrió en el pueblo de 3.700 habitantes, ubicado a 15 kilómetros al sudoeste de Rosario.
De acuerdo a la información que pudieron recabar, se compartieron aproximadamente 300 fotos e identificaron al menos a 25 familias de Soldini damnificadas. “Hay muchas menores de edad, un mayor y grupos de hockey femenino, un surtido de personas del pueblo”, señaló.
Identificaron al presunto autor, que es un chico del pueblo menor de edad: “Asiste a la escuela, todos se conocen y comparten con él muchos ámbitos, ya sea deportivos y en el camping municipal. Las imágenes se viralizaron, ahí fue cuando nos enteramos todos”.
Cecilia relató que los hechos los dejaron atónitos y sin saber cómo proceder. “Es una situación que suele pasar, uno no sabe cómo resolverla. Quedamos inmóviles porque no tenemos las herramientas ni se conoce mucho sobre el tema. Primero hablamos con los padres, pero no tuvimos una buena respuesta y minimizaron el caso”, dijo.
“Después se comunicó gente de la comuna para ver qué recursos judiciales teníamos. Elevamos una denuncia y estamos viendo cómo se procede. Lo que más nos interesa es que el rostro de nuestras hijas no se esté difundiendo por todos lados de esa manera”, reclamó la mamá de una de las víctimas.
Por su parte, la abogada Claudia Guardia, especialista en IA, consideró que existe “un vacío legal porque los delitos que se producen con IA no están regulados” en Argentina.
“Son casos que te dejan shockeados porque son menores, muy pequeños, compañeros de escuela. Pero no son aislados, sucedieron en varios lugares como Córdoba, Buenos Aires, Entre Ríos, Chaco”, manifestó la especialista en Radio 2.
En cuanto a cómo funcionan las aplicaciones que permiten crear imágenes con IA, Guardia explicó que “en cuestión de minutos” son capaces de generar fotos que combinan la cara de una persona real y un falso cuerpo desnudo.
Sin embargo, como en el Código Penal (CP) no está tipificada la creación o difusión de pornografía infantil creada con IA, allí se produce el vacío legal al que alude la presidenta de la Comisión de Inteligencia Artificial del Colegio de Abogados de Rosario.