22.4 C
Resistencia
26 octubre, 2024

¿Es seguro ChatGPT? Estos son los riesgos y peligros de la inteligencia artificial

Desinformación, difusión de malware y brechas de seguridad son algunos de temas que preocupan a los expertos. Cómo protegerse de los malos usos y consejos para manejar esta revolucionaria herramienta.

13 de marzo 2024, 21:25hs

Líderes tecno advirtieron sobre los riesgos para la sociedad y la humanidad de la inteligencia artificial

¿Es seguro ChatGPT? Estos son los riesgos y peligros de la inteligencia artificial. (Foto: AdobeStock)

ChatGPT no solo revolucionó la forma en que nos comunicamos e interactuamos con las máquinas, sino también nuestros trabajos, la educación y hasta el entretenimiento. Sin embargo, a medida que la popularidad de esta fantástica herramienta basada en inteligencia artificial aumenta, también lo hacen las preocupaciones sobre su seguridad.

Algunos expertos temen que la tecnología pueda ser utilizada para difundir información errónea, crear contenido malicioso o incluso manipular a las personas. Con esto en consideración, mucha gente se pregunta: ¿es seguro ChatGPT?

Leé también: Miedos, preocupaciones, beneficios y desafíos: así perciben los argentinos a la inteligencia artificial

Si bien OpenAI garantiza que ChatGPT se construya y funcione bajo extensas medidas de seguridad, y generalmente se considera seguro de usar, no está libre de riesgos: al igual que con cualquier herramienta en línea, especialmente las nuevas, es importante practicar una buena higiene digital y mantenerse informado sobre las posibles amenazas a la privacidad, así como sobre las formas en que la herramienta puede ser mal utilizada.

¿Es seguro ChatGPT? Estos son los riesgos y peligros de la inteligencia artificial. (Foto: AdobeStock)

¿Es seguro ChatGPT? Estos son los riesgos y peligros de la inteligencia artificial. (Foto: AdobeStock)

En este contexto, la empresa de ciberseguridad Avast compartió con TN Tecno las claves para conocer los riesgos de seguridad que pueden existir y consejos para usar ChatGPT de manera segura.

Estafas que se valen de ChatGPT y riesgos a evitar

Desinformación: la fortaleza de ChatGPT es su capacidad para imitar la forma en que los humanos escriben y usan el lenguaje. Si bien el modelo de lenguaje se nutre de grandes cantidades de datos y puede responder muchas preguntas complejas con precisión, se sabe que comete errores graves y genera contenido falso, un fenómeno llamado “alucinación”. Siempre que se utilice ChatGPT o cualquier otra IA generativa, es crucial comprobar la información que produce, ya que a menudo puede inventar cosas y ser muy convincente.Desarrollo de malware: hace referencia al software malicioso que los ciberdelincuentes utilizan para obtener acceso y dañar un sistema informático o una red. Todos los tipos de malware requieren código informático, lo que significa que los hackers generalmente tienen que conocer un lenguaje de programación para crear malware nuevo. Los estafadores ahora pueden usar ChatGPT para escribir o al menos mejorar el código de virus para ellos. Aunque la herramienta cuenta con medidas de seguridad para evitar que sucedan tales cosas, no son pocos los casos de usuarios que lograron eludir esas restricciones.Leé también: Así es la técnica que usan los ciberdelincuentes para enviar virus a través de imágenes

Catfishing: esta práctica que consiste en crear una identidad falsa en línea para engañar a otros con fines maliciosos, como estafas o robo de identidad. Como la mayoría de las tácticas de ingeniería social, el catfishing requiere excelentes habilidades de suplantación de identidad. Pero los piratas informáticos podrían usar ChatGPT para crear conversaciones más realistas o incluso para hacerse pasar por personas específicas.Filtraciones de datos: una violación de datos se produce cuando se exponen datos confidenciales o privados sin autorización, a los que se podría acceder y utilizar para beneficiar a un ciberdelincuente. Por ejemplo, si los datos personales que se compartieron en una conversación con ChatGPT se ven comprometidos, se está en riesgo de robo de identidad.Phishing: se trata del conjunto de tácticas de manipulación que los ciberdelincuentes utilizan para engañar a las personas para que proporcionen información confidencial, como contraseñas o detalles de tarjetas de crédito. Ciertas modalidades de esta amenaza, como el phishing por correo electrónico, involucran a estafadores que se hacen pasar por una fuente confiable, como su banco o empleador. Uno de los puntos débiles de las tácticas de phishing es la presencia de signos reveladores, como la mala ortografía o la gramática. Pero ChatGPT ahora puede ser utilizado por los estafadores para crear correos electrónicos de altamente realistas, en muchos idiomas, que pueden engañar fácilmente a las personas.Whaling: ataque cibernético que se dirige a una persona de alto perfil, como un ejecutivo de negocios o un alto funcionario dentro de una organización, generalmente con el objetivo de robar información confidencial o cometer fraude financiero. Si bien las empresas pueden protegerse de muchos ataques mediante el uso de las mejores prácticas de ciberseguridad, un hacker podría utilizar ChatGPT para crear correos electrónicos realistas que puedan eludir los filtros de seguridad y utilizarse en un ataque de whaling.Leé también: Consejos de ciberseguridad: 12 recomendaciones de un experto para evitar caer en estafas digitales

Consejos para protegerte mientras usás ChatGPT

A pesar de las medidas de seguridad de ChatGPT, como con cualquier herramienta en línea, existen riesgos. Estos son algunos consejos de seguridad para mantenerse seguro dentro de la herramienta de OpenAI.

1. Evitá compartir información confidencial. Es importante mantener la privacidad de los datos personales y nunca revelar información financiera u otra información confidencial durante las conversaciones con ChatGPT.

2. Revisá las políticas de privacidad. Se recomienda leerla para comprender cómo se manejan los datos y qué nivel de control se tiene sobre ellos.

3. Usá una cuenta anónima. Considerará usar una cuenta anónima para interactuar con ChatGPT para tener una barrera adicional de privacidad digital.

4. Mantenerse informado. Estar actualizado sobre los últimos problemas de seguridad de inteligencia artificial y estafas en línea relacionadas. El conocimiento es poder cuando se trata de ciberseguridad.

Últimas Noticias
NOTICIAS RELACIONADAS