La tranquilidad de Soldini, un pequeño pueblo de 3.700 habitantes, ubicado a 15 kilómetros de Rosario, se vio alterada por un sorpresivo episodio -aunque cada vez más habitual en distintos lugares-, vinculado con la difusión de imágenes de personas del pueblo desnudas creadas con Inteligencia Artificial (IA), entre ellas niñas y adolescentes. El autor, según trascendió, sería un adolescente de 16 años de la misma localidad.

Cecilia, mamá de una niñas afectadas, explicó en diálogo con una radio local que se enteraron de lo ocurrido, junto a otras madres y padres, el pasado domingo a través de los grupos de WhatsApp de sus hijos, en los que “andaban circulando fotos de nenas del pueblo desde los ocho o nueve años de edad, desnudas”.

“Las fotos - según relató la mujer - fueron extraídas de Instagram, se hicieron capturas. Me entero por los papás de un niño que hay una aplicación que permite sacar y modificar las fotos”.

De acuerdo a la información trascendida, serían aproximadamente 300 fotos difundidas y unas 25 las familias de Soldini damnificadas. “Hay muchas menores de edad, un mayor y grupos de hockey femenino, un surtido de personas del pueblo”, señaló la mujer denunciante. 

Asimismo, se informó que se logró identificar al presunto autor, que sería un adolescente del pueblo: “Asiste a la escuela, todos se conocen y comparten con él muchos ámbitos, ya sea deportivos y en el camping municipal. Las imágenes se viralizaron, ahí fue cuando nos enteramos todos”, continuó la mujer denunciante.

Además, Cecilia relató que, tras enterarse de lo sucedido, intentaron hablar con los padres, "pero no tuvimos una buena respuesta y minimizaron el caso”.

Finalmente, se elevó una denuncia formal y las familias aguardan una respuesta para saber cómo proceder puesto que hay un vacío legal. "Lo que más nos interesa es que el rostro de nuestras hijas no se esté difundiendo por todos lados de esa manera”, reclamó la mujer.

Vacío legal

La abogada Claudia Guardia, especialista en IA, explicó que existe “un vacío legal porque los delitos que se producen con IA no están regulados” en Argentina.

“Son casos que te dejan shockeados porque son menores, muy pequeños, compañeros de escuela. Pero no son aislados, sucedieron en varios lugares como Córdoba, Buenos Aires, Entre Ríos, Chaco”, manifestó en declaraciones con Radio 2

En cuanto a cómo funcionan las aplicaciones que permiten crear imágenes con IA, Guardia explicó que “en cuestión de minutos” son capaces de generar fotos que combinan la cara de una persona real y un falso cuerpo desnudo.

Sin embargo, como en el Código Penal (CP) no está tipificada la creación o difusión de pornografía infantil creada con IA, allí se produce el vacío legal al que alude la presidenta de la Comisión de Inteligencia Artificial del Colegio de Abogados de Rosario.

El artículo 128 del CP refiere a la producción, distribución y/o comercializacion de material de abuso sexual infantil o material sexual infantil. En tanto que el Código Civil contiene en su articulado afectaciones al derecho a la imagen, la intimidad e integridad. Son elementos que podrían, según Guardia, ayudar a “desarmar la madeja”, pero que dejan al descubierto la necesidad de que esté tipificado el delito por el uso de IA.

Además, para la abogada “todo esto se agrava al tratarse de un menor de 16 años, que es inimputable”. Y agregó: “Lo primero que tienen que hacer las personas es la denuncia, luego se allanará el domicilio del menor y se verá a través de la dirección IP del celular y la computadora, para comprobar dónde se produjo y distribuyó el material”.

También hizo mención a los daños que pueden provocar estos casos debido a la dificultad que existe para frenar la circulación del material una vez publicado en Internet. “Se puede desindexar, pero una vez que entró en la red produce mucho daño, es prácticamente irreversible porque esto pasa de ordenador a ordenador. Aunque se desindexe de una plataforma, si ya circuló en teléfonos o computadoras es muy difícil frenar la circulación, por lo cual el daño es muy complejo”, precisó.