Alejandra Enríquez, psicóloga: “Cuidado con contarle tus problemas a ChatGPT… Después de escuchar estas cuatro razones te lo piensas dos veces”

Desahogarse con ChatGPT se ha vuelto tan habitual que muchos ya lo usan como si fuera un psicólogo, pero una especialista advierte de los peligros de hacerlo.

Alejandra Enríquez, psicóloga: “Cuidado con contarle tus problemas a ChatGPT" |TikTok (@alenriquezpsicologia)
Fecha de actualización:

En los últimos años, millones de personas han dejado de lado Google para usar ChatGPT para absolutamente todo. Lo mismo le preguntan qué cocinar con lo que hay en la nevera, que le piden ayuda para redactar un correo complicado o para que le resuelva una duda existencial en tres segundos. Hasta ahí, todo bien. Pero hay algo que cada vez más gente está haciendo y que puede ser mucho más peligroso de lo que parece: contarle sus problemas personales a la inteligencia artificial.

La psicóloga, Alejandra Enríquez, en su vídeo de TikTok

Cada vez es más común ver a usuarios desahogándose, contando sus problemas personales o buscando respuestas emocionales en ChatGPT. Y es ahí donde una psicóloga, Alejandra Enríquez (@alenriquezpsicologia), lanza una advertencia rotunda al convertir a ChatGPT en tu confidente, porque puedes acabar pagando un precio mucho más alto de lo que esperas.

Aunque herramientas como ChatGPT pueden ser útiles para aclarar ideas o informarse, la especialista subraya cuatro razones de peso por las que nunca deberías usar este tipo de plataformas como sustituto de una terapia psicológica profesional.

Los peligros de usar la IA como psicólogo

La especialista lo resume de la siguiente manera: “ChatGPT no sabe quién eres realmente, no va a resolver tus problemas y seguramente estés reforzando las ideas que le estás dando tú”. Detrás de esa pantalla y esas respuestas aparentemente empáticas, hay varios riesgos que la mayoría pasa por alto.

1. Falta total de personalización y riesgo de reforzar tus peores ideas

La IA no te conoce, ni sabe tu historia, ni tus circunstancias. Solo responde a lo que le cuentas y eso puede ser una trampa. ¿El problema? Puedes acabar dándole vueltas a lo mismo, reforzando creencias negativas o alimentando tu propio malestar sin que nadie te frene.

2. Validación de delirios y peligro en crisis emocionales

Un estudio de la Universidad de Stanford “ha demostrado que ChatGPT puede llegar a validar delirios, al no detectar crisis emocionales graves” o incluso reforzar pensamientos peligrosos, comenta la joven. La IA no tiene sensibilidad clínica ni formación terapéutica, así que si lo que buscas es ayuda de verdad, puedes acabar atascado en bucle en el problema o empeorando sin darte cuenta.

3. Solo lees lo que quieres oír

Según la psicóloga, con la IA (y en general con internet) es muy fácil caer en el sesgo de confirmación, ya que buscas solo respuestas que te den la razón y acabas aislado en tu propia versión del drama. Enríquez lo dice claro: “solo te fijas en las ideas o los mensajes que refuerzan tus teorías, eliminando así toda objetividad posible y con las redes es muy fácil caer en ello”.

4. El vínculo humano de la terapia no se puede copiar

“Sanar heridas o curar traumas no va solo de aplicar una teoría que hay en un manual o de coger toda la literatura posible que es lo que puede hacer ChatGPT”, según la psicóloga, por muy avanzada que sea la tecnología, ningún chatbot puede sustituir a un terapeuta: “un tratamiento psicológico va mucho más allá de eso”.

La psicóloga insiste en que lo que de verdad ayuda a sanar es la relación única, el sentirse escuchado y comprendido. Además, “los tratamientos psicológicos tienen un mejor pronóstico cuanto mejor es el vínculo con tu terapeuta, cosa que con ChatGPT no puede existir”, explica la profesional.

La propia Enríquez lo deja claro: “entiendo que uses Chat GPT para ordenar tus ideas, para afianzar conceptos e incluso para leer sobre cosas que no entiendes muy bien, pero no lo uses como psicólogo”, concluye.

Otras noticias interesantes

Lo más leído

Últimas noticias