¿Qué ocurre cuando la IA acepta síntomas absurdos? El fallo ya ha aparecido en textos científicos

A muchas personas les basta una respuesta escrita con tono seguro para pensar que una máquina sabe de verdad de qué habla. Los chatbots sirven para resumir textos, traducir documentos o resolver dudas rápidas, pero siguen generando datos falsos con una facilidad enorme y, además, suelen expresarlos con el mismo tono firme que usan cuando aciertan.

Ese problema se vuelve mucho más delicado cuando la conversación entra en el terreno médico. Un síntoma corriente puede terminar asociado a una dolencia inventada y un usuario cansado o preocupado puede aceptar esa explicación porque aparece redactada con lenguaje técnico. Los sistemas de inteligencia artificial todavía no distinguen bien una fuente fiable de un texto construido para engañar, sobre todo cuando la mentira adopta apariencia científica.

Por eso varios especialistas desaconsejan utilizar estas herramientas como sustituto de médicos, psicólogos o profesionales sanitarios, aunque muchas personas ya las usen cada día para buscar respuestas sobre su salud.

Almira Osmanovic Thunström inventó una dolencia para ponerlas a prueba

Una investigadora médica convirtió esa preocupación en un experimento real. Almira Osmanovic Thunström, de la Universidad de Gotemburgo, creó una enfermedad inexistente llamada bixonimania y publicó varios textos falsos para comprobar si los modelos de inteligencia artificial terminarían aceptándola como auténtica. Nature explicó que la falsa dolencia acabó apareciendo en respuestas médicas de distintos chatbots pese a que el montaje incluía señales absurdas desde las primeras líneas.

La bixonimania apareció por primera vez en marzo de 2024 y sus síntomas parecían bastante corrientes. Picor de ojos, párpados rosáceos y molestias tras pasar horas delante de pantallas. Osmanovic Thunström diseñó los artículos falsos casi como algo imposible de creer. El supuesto investigador principal se llamaba Lazljiv Izgubljenovic, una identidad inexistente creada con ayuda de IA. También eran falsas la Asteria Horizon University de Nova City, California, y las entidades financiadoras, entre ellas la Fundación del Profesor Secundario Bob y la Universidad de la Comunidad del Anillo y la Tríada Galáctica.

Uno de los textos incluso agradecía la ayuda de “la profesora Maria Bohm, de la Academia de la Flota Estelar”, por colaborar “a bordo del USS Enterprise”. El propio artículo admitía que “todo este trabajo es inventado” y que se había reclutado “a cincuenta personas inventadas”.

Nada de eso evitó que varios chatbots asumieran la enfermedad como auténtica. El 13 de abril de 2024, Copilot definió la bixonimania como “una afección intrigante y relativamente poco frecuente”. Gemini recomendó acudir a un oftalmólogo si aparecían síntomas compatibles y Perplexity afirmó que una de cada 90.000 personas la padecía. ChatGPT también respondió a usuarios que preguntaban si sus molestias coincidían con esa supuesta enfermedad.

Una revista médica retiró un estudio que citaba la bixonimania

Osmanovic Thunström explicó a Nature que “es preocupante que estas afirmaciones importantes pasen por la literatura sin ser cuestionadas”. La investigadora añadió que probablemente existen más errores similares todavía sin detectar. Las compañías reaccionaron de manera distinta. OpenAI aseguró a la revista científica que sus modelos actuales son “significativamente mejores” ofreciendo información médica. Google afirmó que esas respuestas procedían de versiones antiguas de Gemini y Microsoft no respondió. Aun así, en marzo de 2026 Copilot seguía describiendo la bixonimania como una dolencia “aún no ampliamente reconocida”.

El caso también llamó la atención de Mahmud Omar, investigador de Harvard que publicó un trabajo en Lancet Digital Health. El estudio señalaba que los modelos de lenguaje aceptan con más facilidad un texto falso cuando presenta apariencia académica.

Cuanto más profesional parece el documento, más probable resulta que la IA lo trate como información fiable. Alex Ruani, investigador doctoral en desinformación sanitaria del University College London, dijo a Nature que el experimento fue “una lección magistral sobre cómo funciona la desinformación”.

La historia dio otro paso preocupante cuando uno de los artículos falsos terminó citado en una publicación revisada por pares. Un estudio aparecido en Cureus, revista de Springer Nature elaborada por investigadores de un instituto médico de India, mencionó la bixonimania como “una forma emergente” de melanosis periorbital. Nature contactó después con la revista y el artículo acabó retirado. El aviso de retractación reconoció “la presencia de tres referencias irrelevantes, incluida una referencia a una enfermedad ficticia”.

Las respuestas sanitarias baratas atraen cada vez más consultas personales

El crecimiento de estas herramientas también ha cambiado la forma en que algunas personas buscan ayuda emocional. Cada vez más usuarios recurren a ChatGPT y a otros bots conversacionales para hablar de ansiedad, problemas personales o síntomas físicos porque el coste resulta mucho más bajo que el de una consulta tradicional.

Una sesión psicológica de 45 minutos ronda los 60 euros como poco, mientras la suscripción mensual al chatbot cuesta cerca de 23 euros. Esa diferencia económica ha empujado a muchos usuarios a consultar a la IA durante cualquier momento del día. Sin embargo, varios especialistas recuerdan que esos sistemas no sustituyen a un profesional sanitario y ya se han registrado casos de personas que siguieron consejos dañinos generados por inteligencia artificial.