Logo de Huffpost

Los médicos alertan del peligro de usar ChatGPT para consultas de salud: “se inventa datos o cita estudios científicos que ni siquiera existen”

La mitad de las respuestas, según un reciente estudio, fueron problemáticas, proporcionando información que no se ajustaba al consenso científico establecido.

Una médica en un centro sanitario
Una médica en un centro sanitario |Europa Press
Esperanza Murcia
Fecha de actualización:
whatsapp icon
linkedin icon
telegram icon

La Inteligencia Artificial (IA) forma ya parte de nuestro día a día. Convirtiéndose herramientas como ChatGPT en el consultorio por excelencia, tanto para nuestra vida profesional como privada. Tal es el punto, que incluso muchas personas usan la IA para solventar sus dudas médicas. Una práctica que puede tener sus riesgos y sobre la que ya están advirtiendo algunos facultativos.

Entre ellos se encuentra Víctor Espuig, médico de familia: “¿Utilizas Chat GPT para consultar dudas cuando estás enfermo o incluso para interpretar resultados de tus analíticas? Si la respuesta es sí, hay algo que debes saber”, comienza explicando en uno de sus últimos vídeos en TikTok (@victorespuig).

Se refiere a los resultados del estudio ‘Chatbots basados en inteligencia artificial generativa y desinformación médica: un análisis de la precisión, las referencias y la legibilidad’ publicado por la revista BMJ, del que se desprende que “casi la mitad de las respuestas médicas de las IAs más populares resultaron ser problemáticas, incompletas o directamente erróneas”.

En concreto, en el estudio, elaborado en febrero de 2025, se formularon 50 preguntas a cada uno de los cinco chatbots (Gemini, DeepSeek, Meta AI, ChatGPT y Grok) de distintas categorías propensas a la desinformación en salud pública: cáncer, vacunas, células madre, nutrición y rendimiento deportivo.

Expertos de cada campo calificaron las respuestas bajo tres criterios: “no problemáticas”, “algo problemáticas” o “altamente problemáticas”. Pues, el 49,6% fueron calificadas como problemáticas, observándose que los modelos prefirieron proporcionar respuestas dudosas antes que admitir ignorancia. Por su parte, se tildaron estas respuestas de problemáticas porque proporcionaban información que no se ajustaba al consenso científico establecido, o usaban un lenguaje ambiguo que creaba una “falsa equivalencia”, dándole el mismo peso a los hechos científicos que a posturas sin ningún tipo de respaldo.

“Incluso se inventan datos o citan estudios científicos que ni siquiera existen para aportar mayor credibilidad”

Atendiendo al estudio, Víctor Espuig considera que “lo más peligroso es que estos sistemas responden con una seguridad absoluta. Incluso se inventan datos o citan estudios científicos que ni siquiera existen. para aportar mayor credibilidad”.

Esto también se respaldó en el estudio. En el mismo, se reveló que el desempeño al momento de citar fuentes fue sumamente deficiente. Las IA mostraron una tendencia a arrojar referencias incompletas, inventadas o directamente falsas, al punto de que ninguna de las cinco IA mencionadas logró producir una lista de referencias bibliográficas que fuera completamente exacta.

Además, como apunta este médico de familia, “el lenguaje que utilizan suele ser tan técnico y complejo que es fácil interpretar mal sus resultados”. De las áreas analizadas, fue en nutrición o suplementación donde más fallaron.

“Esto no significa que no puedas buscar información sobre tu salud en internet. Es genial que te intereses por entender qué te pasa, pero recuerda, una IA no conoce todo tu historial médico, no puede explorarte físicamente y no tiene criterio clínico para priorizar lo que realmente importa, por no hablar de la falta de sentimientos o empatía”, concluye rotundo Espuig, quien añade que, para temas importantes sobre salud, es mejor consultar con tu médico de familia, “porque cada persona es única”.