24.5 C
Resistencia
28 noviembre, 2024

En EE.UU. ya piden protección para adolescentes víctimas de deepfakes con desnudos

Una madre y su hija de 14 años piden más protecciones para las víctimas de imágenes de desnudos generadas por inteligencia artificial después de que dichas imágenes de la joven y otras de sus compañeras circularan en una secundaria en Nueva Jersey.

Mientras tanto, en el otro lado del país, funcionarios investigan un incidente que involucra a un adolescente que presuntamente utilizó inteligencia artificial para crear y distribuir imágenes similares de otras estudiantes, también adolescentes, de una secundaria en los suburbios de Seattle, Washington.

Los casos perturbadores una vez más han arrojado luz sobre el material explícito de inteligencia artificial generativa que de forma abrumadora afecta a mujeres y menores y está proliferando en línea a un ritmo sin precedentes. Según un análisis de la investigadora independiente Genevieve Oh al que tuvo acceso la agencia de noticias The Associated Press (AP), más de 143.000 nuevos videos manipulados digitalmente fueron publicados en línea este año, lo que supera todos los años anteriores combinados.

Desesperadas por una solución, las familias afectadas presionan a los legisladores para que implementen salvaguardas sólidas para las víctimas, cuyas imágenes son manipuladas usando nuevos modelos de IA o la plétora de aplicaciones y sitios web que abiertamente publicitan sus servicios. Los defensores y algunos expertos legales también piden regulaciones federales que puedan proporcionar protecciones uniformes en todo el país y que envíen un fuerte mensaje a los actuales y futuros perpetradores.

“Luchamos por nuestros hijos”, dijo Dorota Mani, cuya hija fue una de las víctimas de Westfield, un suburbio de Nueva Jersey en las afueras de la ciudad de Nueva York. “No son republicanos y no son demócratas. No les importa. Sólo quieren ser queridos y quieren estar protegidos”.

El problema de los videos deepfake no es nuevo, pero los expertos afirman que empeora conforme la tecnología para producirlos está más disponible y es más fácil de usar. Este año, los investigadores han advertido sobre la explosión del material de abuso sexual infantil producido con IA generativa que usa representaciones de víctimas reales o personajes virtuales. En junio, el FBI advirtió que seguía recibiendo reportes de víctimas, tanto menores como adultos, cuyas fotografías o videos eran usados para crear contenido explícito que era compartido en línea.

Varios estados han aprobado sus propias leyes a lo largo de los años para intentar combatir el problema, pero su alcance es variado. Texas, Minnesota y Nueva York aprobaron una ley este año que criminaliza la pornografía deepfake no consensuada, sumándose a Virginia, Georgia y Hawái que ya contaban con leyes aprobadas. Algunos estados, como California e Illinois, sólo han otorgado a las víctimas la posibilidad de demandar a los agresores por daños y perjuicios en una corte civil, algo que también permiten Nueva York y Minnesota.

Algunos otros estados consideran su propia legislación, incluido Nueva Jersey, en donde actualmente se trabaja en una propuesta de ley para prohibir la pornografía deepfake e imponer sanciones, ya sea penas en prisión, una multa o ambas, para quienes la propagan.

La situación en Argentina

Congreso de la Nación Argentina. Foto APCongreso de la Nación Argentina. Foto APLa inteligencia artificial aplicada a la producción de imágenes falsas pero hiperrealistas -lo que se conoce como “deepfakes”- es todavía una laguna legal para los juristas: es que hoy no figuran en el Código Penal ni siquiera la violencia digital o “pornovenganza” con videos o fotografías reales de la intimidad de una persona adulta.

El Congreso aprobó en octubre de este año la Ley Olimpia, que permitirá que se incluya la “violencia digital o en línea” como una de las formas de violencia de género contempladas en la Ley Nº 26.485, así como se menciona la violencia mediática, entre otras.

Y se presentó el proyecto de Ley Belén, que promueve que incorporar como delito al Código Penal la difusión no consentida de imágenes íntimas, la extorsión y los deepfakes (tanto en imagen, como en video o en audio).

En ambos casos, estas normativas buscan dar una respuesta solo en el caso de adultos.

“Antes era más difícil hacer un montaje. Hoy, está al alcance de todo el mundo, y es evidente que el problema nos está explotando en la mano”, advirtió a Clarín la especialista en cibercrimen y evidencia digital Florencia Zerda, integrante de GENTIC, una organización contra la ciberviolencia de género que participó en la elaboración de los proyectos de Ley Olimpia y Ley Belén.

La abogada, autora de “Violencia de género digital” (Editorial Hammurabi, 2021), apuntó que tanto los deepfakes como la difusión no consentida de videos y fotos de la intimidad de las personas tienen «un efecto nefasto».

El de los deepfakes demuestra ser un caso donde los avances tecnológicos se mueven a mayor velocidad que las dinámicas sociales. Es responsabilidad del derecho ponerse al día para minimizar el riesgo que puede conllevar.

Con información de AP

Últimas Noticias
NOTICIAS RELACIONADAS