El Ministerio de Seguridad, con Patricia Bullrich a la cabeza, creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad. Según dicta la resolución 710/2024, este espacio “tiene como misión la prevención, detección, investigación y persecución del delito y sus conexiones mediante la utilización de la inteligencia artificial”. Así, entre sus actividades está el patrullaje de las redes sociales, aplicaciones y sitios de internet. En esta nota, la Agencia de Noticias Científicas de la UNQ dialoga con especialistas acerca de cuál es el impacto que puede tener esto en la navegación y comunicación libre de los usuarios por el mundo digital.
Al inicio, la resolución enfatiza en que países como Estados Unidos, China, Reino Unido, Israel, Francia, India y Singapur son pioneros en el uso de la Inteligencia Artificial (IA) en sus gobiernos y fuerzas de seguridad, aunque no entra en detalle sobre cómo es la utilización en cada caso. “Hay que tener claro que, bajo el brillo de un nombre pomposo, estos sistemas no esconden más que complejos cálculos estadísticos. Contrario a lo planteado por la resolución, en muchos países del mundo estos sistemas están en retirada por problemas originados a partir de la presencia de sesgos y por la imposibilidad de dotar a los mismos de un grado de transparencia adecuado”, declara a la Agencia Tomás Pomar, integrante del Observatorio de Derecho Informático Argentino.
MÁS INFO
La nueva Unidad analizará actividades en redes sociales para “detectar amenazas potenciales, identificar movimientos de grupos delictivos o prever disturbios”, a la vez que examinará imágenes de cámara de seguridad en tiempo real para detectar actividades sospechosas o identificar personas a partir del reconocimiento facial. Asimismo, podrá patrullar la Internet profunda o Dark-Web, espacio utilizado para realizar actos ilegales, “en orden a la investigación de delitos e identificación de sus autores, así como la detección de situaciones de riesgo grave para la seguridad, en el marco de la Constitución Nacional y legislación vigente”.
Incluso, mediante la IA, la Unidad podrá procesar volúmenes de datos de diversas fuentes para extraer información útil y “crear perfiles de sospechosos o identificar vínculos entre diferentes casos”. Ante la Agencia, Javier Pallero, analista de políticas públicas de Internet, explica: “Los sistemas de IA son propensos a generalizaciones inadecuadas, errores y sesgos. Además, la forma masiva, general y especulativa en la que se aplican estas tecnologías no es compatible con leyes y garantías constitucionales y procesales vigentes en el país”.
Y agrega: “Las tareas de inteligencia, es decir, de vigilancia específica de conductas y personas, debe hacerse bajo control judicial y sobre sospechas de delitos concretos. Reunir información en general para luego evaluar si existen posibles delitos es algo contrario a la Constitución”.
¿Hay que ponerle IA a todo?
La resolución destaca el avance de la tecnología, en particular de la Inteligencia Artificial, como uno de los cambios socio-tecnológicos más relevantes para la población en general. Desde el Observatorio de Derecho Informático Argentino sostienen que hay una “todología tecnológica”.
Así lo describe Pomar: “En ningún momento la resolución invoca algún informe técnico, estudio de factibilidad o requerimiento de área que justifique las futuras compras de sistemas. Por el contrario, sólo se justifica mediante una invocación abstracta de la tecnología como mejora de proceso citando ejemplos tan disímiles como Singapur, Francia o Israel”.
Y continúa: “Siguiendo con esa falta de estudio serio de la cuestión, la resolución introduce bajo la idea de ‘inteligencia artificial’ tecnologías con tradiciones y procesos tan distintos como la robótica, el análisis de video, la predicción del delito y la ciberseguridad. Es muy llamativa la ausencia de distinciones y especificidades por parte de una norma de este tipo”.
Por su parte, Pallero indica que la nueva Unidad puede funcionar como una forma de censura en la comunicación de las personas. “Esto no es lo mismo que vigilar las calles. Observar charlas, así sean públicas, deja a quienes vigilan muy cerca del seguimiento de personas y además genera un efecto inhibidor de la libertad de expresión”.
Aún es temprano para saber si el impacto será negativo o positivo, pero sí es necesario establecer un debate para identificar, por ejemplo, cuáles serán las actividades que indiquen un posible delito o cuál será el perfil de persona que se califique como “sospechoso”, según los términos de la resolución.
De igual manera, habrá que evaluar si será el Estado el que se encargue de esto o se requerirá de empresas externas que manejen datos personales e información sensible. El objetivo del debate sería evitar problemas futuros como un posible uso y abuso del poder por parte de las fuerzas de seguridad o falta de transparencias en el proceso que lleve adelante la IA.
Si se contratan empresas de software con asistencia remota, “no sabes por ejemplo en qué servidor costean la información o a qué tiene acceso la empresa proveedora. Eso ya no es solo un problema de datos personales sino que se trata de un cuestión de soberanía política y jurídica. Utilizarán herramientas de las cuales no se tiene control y le dan la posibilitan al proveedor del software un acceso a los datos y a toda la arquitectura de información que emplea el ministerio o las fuerzas”, reflexiona Pomar.
Con información de la Agencia de Noticias Científicas