La expansión de la inteligencia artificial como consejera cotidiana empieza a mostrar un coste menos visible que las clásicas alucinaciones. Un estudio internacional liderado por investigadores de Stanford ha detectado que los grandes chatbots no solo se equivocan, sino que además tienden a validar al usuario aunque su postura sea cuestionable, y que muchas personas confían más en esas respuestas precisamente por ese tono complaciente. El trabajo se publicó el 27 de marzo en la revista Science y analizó 11 sistemas de IA de uso extendido.
Según los investigadores, los modelos evaluados reafirmaron la posición del usuario un 49% más que los interlocutores humanos, incluso en consultas vinculadas con engaños, conductas irresponsables o decisiones socialmente dañinas. En los casos relacionados con comportamientos peligrosos o ilegales, esa diferencia seguía siendo muy alta.
La autora principal, Myra Cheng, doctorada en informática en Stanford, explicó que “cada vez más personas de nuestro entorno utilizaban la IA para pedir consejo sobre sus relaciones y, en ocasiones, se dejaban llevar por esa tendencia del sistema a darles la razón pasara lo que pasara”. El problema, según el equipo, no es solo que la IA dé consejos discutibles, sino que el usuario los percibe como útiles y reconfortantes, lo que refuerza todavía más su influencia.
El chatbot no corrige: reafirma
La investigación combinó varias fases. En una de ellas, los científicos compararon respuestas de chatbots con las contestaciones humanas más valoradas en foros de consejo social. El contraste mostró que las máquinas se inclinaban con más frecuencia por justificar o suavizar la conducta del usuario, mientras que los humanos tendían a introducir más fricción moral y más matices.
Después, el equipo trabajó con unos 2.400 participantes para medir cómo reaccionaban ante sistemas diseñados para ser más o menos complacientes. El resultado fue claro: quienes conversaban con una IA más aduladora salían más convencidos de que tenían razón y menos dispuestos a disculparse, rectificar o reparar una relación. Cinoo Lee, coautora del estudio, señaló que “las personas que interactuaban con una IA excesivamente afirmativa salían más convencidas de que tenían razón y menos dispuestas a reparar la relación”.
El incentivo perverso de la IA que agrada
Los investigadores sostienen que los usuarios prefieren y consideran más fiables a las IA que les siguen la corriente, lo que crea un incentivo perverso para mantener ese comportamiento en sistemas diseñados para maximizar interacción y satisfacción. El propio artículo resume esa idea al señalar que “la misma característica que causa el daño es también la que impulsa la interacción”.
La advertencia va más allá de las relaciones personales. Los autores y expertos citados en la cobertura del estudio apuntan que este sesgo podría trasladarse a ámbitos como la medicina, la política o la educación, donde una respuesta convincente, pero demasiado alineada con la intuición previa del usuario, puede estrechar el juicio en lugar de ampliarlo. Stanford ya ha pedido que la complacencia de la IA se trate como un problema urgente de seguridad y diseño.