Logo de Huffpost

Un hombre de 60 años acaba en urgencias por fiarse de los consejos nutricionales de ChatGPT: tres semanas hospitalizado por una intoxicación rara

La Inteligencia Artificial recomendó sustituir la sal por un compuesto químico, actualmente retirado del mercado por su toxicidad.

Una persona echando sal a la comida
Un hombre de 60 años acaba en urgencias por fiarse de los consejos nutricionales de ChatGPT: tres semanas hospitalizado por una intoxicación rara |Canva
Icíar Carballo
Fecha de actualización:
whatsapp icon
linkedin icon
telegram icon

Un hombre de 60 años estuvo al borde del delirio y acabó ingresado tres semanas en el hospital tras seguir al pie de la letra un consejo de ChatGPT para “mejorar su dieta”. Esta Inteligencia Artificial (IA) le sugirió sustituir la sal común por bromuro de sodio, una sustancia prohibida en la mayoría de países por su toxicidad. Pero, para sorpresa del hombre, el resultado fueron alucinaciones, paranoia, acné y un nivel de bromuro en sangre 240 veces superior al normal.

La historia, documentada en la revista médica Annals of Internal Medicine, y recogida por el diario italiano ‘Wired’, arranca con el objetivo del hombre de reducir el consumo de sal en sus comidas. De manera inocente, le preguntó a ChatGPT cómo eliminar el cloruro de sodio de su dieta, a lo que la IA le recomendó buscar un “sustituto” y le sugirió el bromuro de sodio. Como no se especificaba ningún tipo de advertencia sanitaria, el hombre compró el compuesto en Internet y lo estuvo tomando durante tres meses.

Qué le pasó tras estar tres meses ingiriendo este compuesto químico

El resultado tras estar tres meses sustituyendo el bromuro por la sal, fue demoledor. Cuando llegó a urgencias, los médicos encontraron en su sangre un nivel de bromuro de 1.700 mg/L, cuando el rango normal no supera los 7,3 mg/L. El paciente sufría fatiga extrema, sed constante, problemas de equilibrio y brotes psicóticos, con alucinaciones visuales y auditivas.

Los síntomas encajaban con una intoxicación por bromuro, una sustancia utilizada hace años como ansiolítico y que fue retirada por sus graves efectos secundarios neuropsiquiátricos y dermatológicos. Hoy en día, su uso está prohibido en la mayoría de países, y su venta solo es posible en mercados online poco regulados.

ChatGPT volvió a recomendar este compuesto químico

Sin embargo, lo más grave es que el error no fue un hecho aislado. Los médicos reprodujeron la consulta en ChatGPT 3.5 y recibieron la misma respuesta, sin advertencias clínicas acerca de los efectos secundarios de este compuesto. Tan solo alertaba sobre “el contexto”, que era “importante”.

Desde OpenAI insisten en que “la herramienta no está diseñada para el diagnóstico ni el tratamiento de ninguna afección médica” y que siempre debe consultarse a un especialista. Sin embargo, la realidad es que el paciente nunca fue advertido del riesgo y acabó hospitalizado por confiar ciegamente en la Inteligencia Artificial.

Este caso pone en evidencia el peligro que supone delegar decisiones sanitarias en la IA, ya que las recomendaciones automáticas pueden resultar fatales, especialmente en un entorno sanitario sin supervisión.