En Soldini, una localidad en las afueras de Rosario, no se habla de otra cosa. El pueblo de poco más de tres mil habitantes está conmocionado después de que descubrieran que se viralizaron más de 300 fotos de mujeres, la mayoría menores de edad, desnudas. Las fotos son falsas y fueron creadas con Inteligencia Artificial pero las caras son de vecinas de la localidad que no encuentran respuestas a sus reclamos y sienten que las denuncias quedan en la nada porque hay un “vacío legal” para afrontar estas situaciones. Las imágenes fueron descubiertas en distintos grupos de WhatsApp de chicos del pueblo. La madre de una de las víctimas vio las fotos y reconoció a su hija y a las amigas. Después le contó a las madres de las otras adolescentes y descubrieron que hay al menos 25 familias afectadas.
MÁS INFO
En una investigación “casera” realizada por las familias de las víctimas, identificaron al creador de esas fotos. Según denuncian, es un adolescente de 16 años que vive en el pueblo y que empezó falsificando las imágenes de las chicas de un grupo de hockey y luego creó muchas más. Esas fotos empezaron a circular el fin de semana en distintos grupos y en pocas horas se volvieron virales en el pueblo. Sin embargo, la investigación de los padres identificó que había imágenes de nenas muy pequeñas y realizaron la denuncia judicial. Cecilia, una de las madres denunciantes, contó: “Descubrimos que había imágenes de nenas de los 8 o 9 años en adelante” y señaló que “después de hablar e investigar supimos que sacaron las imágenes de cuentas de Instagram y usaron una aplicación que permite modificar esas fotos”.
Así, las familias descubrieron que el domingo, en pocas horas, “se publicaron más de 300 fotos donde hay adolescentes de un equipo de hockey, mayores y muchos menores. Es un surtido de personas del pueblo”, explicó la mujer y contó: “Identificamos a un adolescente del pueblo, menor de edad”. Él habría sido quien modificó y difundió esas fotos, por lo que decidieron enfrentar a sus familiares. “Hablamos con los padres pero no tuvimos buena respuesta, lo minimizaron”, cuestionó, al asegurar que “el chico va a la escuela, comparte con las chicas muchos ámbitos como el deportivo o la convivencia en el camping”. Además, reclamó que quieren evitar la viralización para que "no se difundan los rostros por todos lados de esa manera"
En medio de la denuncia, volvió el debate por la creación y el uso de imágenes creadas con Inteligencia Artificial. Los especialistas aseguran que “existe un vacío legal” porque los delitos realizados con inteligencia artificial no están regulados en nuestro país. La mayoría de los casos surgen con cuestiones vinculadas a la imagen con aplicaciones que en pocos minutos generan un hecho que podría tipificarse como delito pero para ello hace falta regular en el Código Penal.
El fiscal bonaerense especializado en Cibercrimen, Lucas Moyano, aseguró a El Destape que “cuando hay una producción de estas imágenes generadas 100% con inteligencia artificial o cualquier método tecnológico no es delito ya que nuestro país hizo reserva de los artículos del Convenio de Budapest que toma como delitos la creación de imágenes que representan a un menor adoptando un comportamiento sexualmente explícito”. En ese sentido, el especialista aseguró que “esta problemática se acrecienta en la actualidad porque existen apps que con una sola foto permiten desnudar a la persona”.
El fiscal aseguró que entiende el debate en torno a la falta de legislación, aunque aclaró: “Yo buscaría imputar por el artículo 128 del Código Penal que habla de la posibilidad de lograr una pena de 3 a 6 años de prisión a quien publicare, facilitare, distribuyere o divulgare por cualquier medio toda representación de un menor de 18 años dedicado a actividades sexuales explícitas o toda representación de sus partes genitales con fines predominantemente sexuales”. Además, Moyano destacó que hay que "tener presente que este tipo de supuestos puede ser utilizado en casos de grooming para extorsionar a la víctima”, por lo que debe observarse siempre que “hay menores que están siendo vulnerados” y aseguró que “es necesario incorporarlo al Código Penal porque este tipo de material banaliza y contribuye a la aceptación de la explotación sexual de niños, niñas y adolescentes, y además ataca la integridad sexual en todo su conjunto”.
Mientras el debate por la utilización de inteligencia artificial para la creación o modificación de imágenes con fines sexuales sigue abierto y los especialistas debaten qué hacer y cómo, las familias vulneradas reclaman acciones rápidas y concretas para sentir que la Justicia les da respuestas y que las víctimas puedan volver a salir a la calle sin ser señaladas y evitar sufrir un daño mayor al que ya les causaron.