34.1 C
Resistencia
23 octubre, 2024

Las novias creadas con inteligencia artificial son “tóxicas y generan dependencia”, asegura un estudio

Además, el principal problema del romance con chatbots es la privacidad de la información. “Roban grandes cantidades de datos”, advierten los investigadores.

16 de febrero 2024, 10:50hs

El estudio examinó 11 chatbots y concluyó que muchos de ellos no son confiables. (Foto: Adobe Stock)

El estudio examinó 11 chatbots y concluyó que muchos de ellos no son confiables. (Foto: Adobe Stock)

La Fundación Mozilla, aquella que desarrolla el navegador Firefox, realizó un estudio para comprobar cuán confiables son los chatbots que emulan una relación romántica. Las conclusiones son elocuentes: “Generan dependencia, más soledad y toxicidad, todo esto mientras extraen la mayor cantidad de datos posible sobre los usuarios”, comentó el responsable del informe, el investigador Misha Rykov.

El peligro de los “chatbots románticos”: relaciones tóxicas y vulneración de la privacidad

Tal como señala Business Insider, “un potencial peligro se cierne bajo el barniz de los romances con la IA”. Para desprevenidos, existen versiones de chatbots basados en inteligencia artificial diseñados para emular una relación amorosa. En lugar de consultar dudas o pedir que resuman un texto, los usuarios de esos modelos interactúan de forma similar a como lo harían con una pareja.

Leé también: Una chica creó a su novio “ideal” con inteligencia artificial y lo abandonó por “baboso e irritante”

Con el ánimo de echar luz sobre esa escena, la Fundación Mozilla analizó 11 chatbots y concluyó que involucran importantes riesgos para la privacidad de los datos personales. Esto ocurre mientras “se promocionan como algo que mejorará la salud mental y el bienestar”, notó Rykov.

Los investigadores señalan que el vínculo

Los investigadores señalan que el vínculo «romántico» con las máquinas involucra riesgos para la privacidad. (Foto: Adobe Stock)

De acuerdo al estudio, el 73% de esas herramientas con IA no comparten cómo gestionan las vulnerabilidades de seguridad, el 45% permite contraseñas débiles y casi todas comparten o venden información de los usuarios. La única que no lo hace, señalaron los investigadores, es EVA AI Chat Bot & Soulmate.

Una de las apuntadas es CrushOn.AI que, según el informe, puede recopilar información sensible sobre la salud sexual de los usuarios y los medicamentos recetados. La Fundación Mozilla señaló que, anteriormente, herramientas en esta categoría habían fomentado comportamientos peligrosos, incluido el suicidio (Chai AI) y un intento de asesinato de la difunta reina Isabel II (Replika).

Leé también: En San Valentín, casi la mitad de los hombres usaron inteligencia artificial para escribir cartas y mensajes de amor

En caso de no espantarse con las advertencias y seguir “saliendo” con chatbots, los investigadores recomiendan tomar precauciones, que por cierto son aquellas que conviene aplicar en los diversos entornos digitales. Desde usar contraseñas robustas, limitar el acceso a datos sensibles (como la ubicación geográfica, la cámara y el micrófono) y evitar la divulgación de información privada.

“Hay nuevas tecnologías que son interesantes, pero no deberías pagar con tu seguridad o privacidad”, concluye el informe de la Fundación.

La respuesta de los desarrolladores de chatbots

Un portavoz de EVA AI —que se autodescribe como “tu alma gemela con IA” y “el reflejo de tus sueños románticos”— le dijo a BI que tras el mencionado informe ha decidido revisar la gestión de contraseñas para brindar más protección a los usuarios. Por lo demás, señalaó que trabaja para mantener un “control meticuloso” de sus modelos de lenguaje, y que su modelo prohíbe la discusión de una variedad de temas que incluyen pedofilia, suicidio, opiniones políticas y religiosas, discriminación sexual y racial, entre otros.

Leé también: Creó al “hombre perfecto” con Inteligencia Artificial, se casó y contó detalles de la intimidad: “Hay límites”

Por su parte, un representante de Replika —una empresa creada por una mujer que clonó con IA a su mejor amigo fallecido— aseguró que nunca ha vendido información de los usuarios, y que “el único uso de los datos es para mejorar las conversaciones”.

Últimas Noticias
NOTICIAS RELACIONADAS