La creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad marca un paso significativo hacia la modernización de las estrategias de seguridad pública en el país. Sin embargo, este avance también generó polémicas y preocupaciones legítimas sobre la privacidad y los derechos civiles.
04 de agosto 2024, 04:28hs
El Gobierno argentino anunció esta semana la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) con el objetivo de patrullar las redes sociales abiertas, aplicaciones, sitios web y la dark web para identificar delitos y a sus autores, o situaciones que sean de riesgo para la seguridad pública.
Entre las funciones de la nueva agencia estatal se encuentra el análisis de actividades en internet para detectar potenciales amenazas, identificar movimientos de grupos delictivos y prever disturbios.
Leé también: El rol de la inteligencia artificial en la industria de la ciberseguridad: riesgos, oportunidades y desafíos
Según la Resolución 710/2024, la UIAAS utilizará inteligencia artificial aplicada al reconocimiento de imágenes, identificación de amenazas de malware y phishing, procesamiento de grandes volúmenes de datos y vigilancia con drones en áreas extensas.
El texto oficial señala que las Fuerzas Policiales y de Seguridad Federales estarán a cargo de esta Unidad, que operará dentro de la Dirección de Ciberdelito y Asuntos Cibernéticos. Y aclara que las tareas preventivas se llevarán a cabo únicamente mediante el uso de sitios web de acceso público y fuentes digitales abiertas como los medios y plataformas de información y comunicación digital de carácter público, no sensible y sin clasificación de seguridad, cuyo acceso no implica una transgresión al derecho a la intimidad de las personas, según se detalla en la Ley de Protección de Datos Personales N° 25.326 y sus normas reglamentarias.
Aunque todavía no se conoce el software que se utilizará ni tampoco los analistas que conformarán el equipo de la Unidad, TN Tecno consultó al Ministerio de Seguridad desde donde afirmaron que se encuentran trabajando en los protocolos y procesos de actuación con base en las legislaciones vigentes en Argentina, dando una principal importancia en Ley Nacional de Protección de datos personales.
La Resolución establece que la creación y puesta en marcha de la UIAAS no implica un nuevo gasto presupuestario, por lo que se presume que no se va a usar tecnología que no se esté usando, y no habría inversión en el área para comprar o implementar nuevos sistemas de inteligencia artificial.
Leé también: Miedos, preocupaciones, beneficios y desafíos: así perciben los argentinos a la inteligencia artificial
Según se desprende del documento oficial, la Dirección de ciberdelitos y asuntos cibernéticos, quien impulsó la UIASS desde su armado y gestión, velará por el cumplimiento de estos estándares mencionados. “Además, un área de tecnología de datos realizará las auditorias de los procesos. Todo ello unificado a las fuerzas de seguridad federales para poder utilizar las herramientas de inteligencia artificial, con la asistencia de machine learning, bajo los estándares nacionales y de buenas prácticas internacionales”, agregaron desde la cartera de Seguridad.
“Al no haber legislación vigente sobre uso de inteligencia artificial en el país, se trabajará sobre estándares internacionales como el recientemente incorporado a la Unión Europea, y así poder tener una auditoria trazable de los procesos salvaguardando los derechos constitucionales de los ciudadanos”, afirmaron fuentes del Ministerio a TN Tecno.
La polémica: ¿Minority report versión Argentina?
El anuncio no pasó desapercibido. Sobre todo en las redes sociales, donde varios usuarios hicieron referencia a la película de Steven Spielberg Minority report. En el film de ciencia ficción protagonizado por Tom Cruise, una unidad de la policía se encargaba de investigar y detener a futuros criminales antes de que cometan sus delitos.
En declaraciones al Dark News, el newsletter especializado en ciberseguridad del periodista Juan Brodersen, Luis García Balcarce, abogado especialista en derechos digitales, expresó que, más allá de su aplicación real, es preocupante el espíritu de la norma: “A través de una resolución, se establecen pautas que en caso de implementarse pueden atentar contra el principio de inocencia, la privacidad y libertad de expresión”, afirmó. Y agregó: “El Reglamento sobre IA de la Unión Europea establece que, en consonancia con la presunción de inocencia, las personas siempre deben ser juzgadas por sus conductas reales, y nunca a partir de comportamientos predichos por una IA basados en la elaboración de sus perfiles, en los rasgos o características de su personalidad, como la nacionalidad, el lugar de nacimiento, el lugar de residencia, entre otros, sin una valoración humana y sin que exista una sospecha razonable basada en hechos objetivos comprobables”.
En la misma línea, Mariela Belski, directora ejecutiva de Amnistía Internacional Argentina, expresó en The Guardian: “La vigilancia a gran escala afecta a la libertad de expresión porque incita a las personas a autocensurarse o a abstenerse de compartir sus ideas o críticas si sospechan que todo lo que comentan, postean o publican está siendo vigilado por las fuerzas de seguridad”.
Sin embargo, el uso de la inteligencia artificial en estas cuestiones no es nada nuevo. Sistemas que usan estas tecnologías se usan desde hace años para la prevención, investigación y judicialización de la delincuencia. Varios países utilizan autómatas que vigilan espacios públicos y escanear rostros humanos y patentes de vehículos para detectar delincuentes, delitos e infracciones.
Leé también: Ver para no creer: la inteligencia artificial debilitó nuestra capacidad de reconocer qué es verdad y qué no
Según la resolución 710/2024, países como Estados Unidos, China, Reino Unido, Israel, Francia, Singapur, India, entre otros, son pioneros en la utilización de la inteligencia artificial en sus áreas de gobierno y fuerzas de seguridad y la utilizan en tareas como análisis de video y reconocimiento facial, predicción de crímenes, ciberseguridad y detección de fraude.
Por su parte, Lucas Moyano, fiscal especializado en ciberseguridad, expresó en diálogo con TN Tecno que la utilización de inteligencia artificial para analizar grandes datos, sobre todo de fuentes abiertas, es necesaria en estos tiempos: “La gente, en promedio, pasa ocho horas diarias en Internet. Sabemos lo exponencial que resulta la tecnología y los desarrollos como los deepfakes e inteligencia artificial para potenciar determinadas actividades criminales, como fraudes, actividades relacionadas al terrorismo y todo lo que tiene que ver con difusión de material sexual infantil virtual o artificial. Esto es una gran problemática que en Argentina no tiene legislación, por lo cual, me parece positivo el uso de inteligencia artificial para detectar estos casos, siempre y cuando se respeten los derechos y garantías que se encuentran en la Constitución Nacional”.
La creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) por parte del Gobierno argentino marca un paso significativo hacia la modernización de las estrategias de seguridad pública en el país. Sin embargo, este avance también genera preocupaciones legítimas sobre la privacidad y los derechos civiles, especialmente en un contexto donde la legislación sobre el uso de inteligencia artificial aún es incipiente.
La implementación de esta unidad, que se propone utilizar tecnologías avanzadas para la detección y prevención de delitos, debe ser acompañada de un riguroso marco regulatorio que garantice la protección de los derechos fundamentales de los ciudadanos. A medida que Argentina se adentra en esta nueva era de vigilancia digital, es crucial que se mantenga un equilibrio entre la seguridad y las libertades individuales, para asegurar que las herramientas tecnológicas se utilicen de manera ética y responsable.
¿Querés recibir más información de Tecno?
Suscribite acá