17 C
Resistencia
18 octubre, 2024

Cada vez más personas usan chatbots como sus psicólogos

Personas de todo el mundo están chateando con inteligencias artificiales generativas para que los aconsejen como si se trataran de sus terapeutas. Como es lógico, esto genera dudas y temores en la comunidad científica. Qué opinan los expertos.

Axel Marazzi

23 de diciembre 2023, 05:45hs

Cada vez más personas usan chatbots como sus psicólogos. (Foto: Adobe Stock)

Cada vez más personas usan chatbots como sus psicólogos. (Foto: Adobe Stock)

No hace falta decir que la inteligencia artificial está atravesando uno de los momentos más importantes de la historia después de la llegada de ChatGPT, que puso a los algoritmos y tecnologías en boca de todos. La simpleza a la hora de poder usar estos sistemas hizo que personas que nunca habían interactuado con tecnologías del estilo pudieran hacerlo. Así es como hoy hay usuarios de todo el mundo que, constantemente, le escriben a estos chatbots conversacionales para hacerles preguntas sobre historia, matemática, para que les traduzcan frases, los ayuden con sus estudios o pedirles recetas.

Pero si bien decirle a GPT que prepare la lista de compras para el supermercado no luce para nada peligroso, hay personas que empezaron a usar a estos algoritmos como sus propios terapeutas. Los motivos son tan variados como personales: desde personas que no tienen los recursos para acceder a un tratamiento psicológico hasta quienes quieren ahorrarse el tiempo de la sesión.

Leé también: La Corte Suprema del Reino Unido le puso un tajante límite a la inteligencia artificial

Varios usuarios utilizan ChatGPT como sus terapeutas. (Foto: Adobe Stock)

Varios usuarios utilizan ChatGPT como sus terapeutas. (Foto: Adobe Stock)

Terapia GPT

Ejemplos por la web, con publicaciones de usuarios a través de redes sociales donde cuentan sus experiencias, hay de sobra. Así es como se pueden encontrar posts en Reddit, TikTok, Twitter o cualquiera de las grandes plataformas donde personas cuentan que le dicen a GPT cosas como “actuá como si fueras mi terapeuta. Necesito apoyo y consejo sobre qué hacer con algunas situaciones complejas que estoy atravesando”. La respuesta del sistema, si bien puede variar levemente, es siempre la misma: “Entendido, estoy aquí para ofrecerte apoyo. Puedes compartir las situaciones o problemas con los que estás lidiando, y haré lo mejor posible para darte orientación y consejo”. Después, recuerda que es importante consultar con un profesional de la salud mental.

Como no podría ser de otra manera, este tipo de situaciones despiertan temores en los especialistas. Hablé con la psicóloga Constanza Gonzalez Cazón: “La inteligencia artificial puede ser utilizada como herramienta para la terapia psicológica, pero no puede reemplazar la relación entre el terapeuta y el paciente. Básicamente porque un terapeuta puede entender y atender la complejidad propia de la vida humana; experimentar, comprender y validar las emociones; tener empatía hacia la persona que consulta y trabajar dependiendo de su contexto e historia de aprendizaje”. Una cosa es mensajearse con GPT, que puede simular la forma de hablar de un humano que sabe de terapia, otra es hablar con una persona que puede entender lo que estamos atravesando y que fue entrenada para eso.

Leé también: Sin autos voladores ni robots, así será el mundo en 2100, según la inteligencia artificial

Pero hay otras preocupaciones. Si bien GPT puede contestar, en muchas oportunidades, con información que efectivamente le servirá a quien esté hablando con esta IA, en muchas oportunidades puede devolver información sin sentido o, peor, incorrecta. Sin ir más lejos, en la pantalla principal de GPT, exactamente abajo del campo para chatear con el algoritmo, se puede leer “ChatGPT puede cometer errores. Chequear la información es importante”.

Últimas Noticias
NOTICIAS RELACIONADAS