La enfermedad rara que ha desarrollado un hombre por preguntarle a ChatGPT si debe dejar de consumir sal
Un hombre de 60 años ha sido hospitalizado en Estados Unidos tras desarrollar bromismo, una intoxicación causada por el consumo de bromuro de sodio. El episodio, descrito por especialistas en la revista Annals of Internal Medicine y recogido por The Guardian, ha encendido las alarmas sobre la confianza ciega en herramientas de inteligencia artificial como fuente de información médica.
El paciente decidió modificar su alimentación después de leer sobre los posibles efectos adversos del cloruro de sodio, es decir, la sal común. En lugar de acudir a un profesional, consultó a ChatGPT sobre cómo eliminar el cloruro de su dieta. A raíz de esa búsqueda comenzó a tomar bromuro de sodio durante varios meses, una sustancia empleada como sedante hace más de un siglo y descartada desde entonces por su toxicidad.
El consumo derivó en un cuadro de bromismo, un síndrome que en el pasado estuvo vinculado a numerosos ingresos psiquiátricos. Durante la hospitalización, el hombre mostró desconfianza hacia el agua que se le ofrecía, llegó a pensar que estaba siendo envenenado por un vecino y presentó síntomas como insomnio, sed persistente y lesiones cutáneas.
La advertencia de los investigadores
El equipo médico de la Universidad de Washington que documentó el caso destaca que este episodio refleja cómo la información proporcionada por sistemas de IA puede inducir a errores graves cuando se interpreta sin orientación especializada. Los investigadores no pudieron acceder a la conversación original entre el paciente y ChatGPT, pero al replicar una consulta similar comprobaron que la aplicación mencionaba el bromuro como sustituto del cloruro sin advertencias sobre los riesgos, algo que “un profesional de la salud nunca recomendaría”.
Para los autores, este caso pone de manifiesto la necesidad de recordar que la inteligencia artificial puede ofrecer respuestas incompletas, descontextualizadas o directamente erróneas, lo que aumenta las posibilidades de generar desinformación en el ámbito sanitario.
La postura de OpenAI y el debate en curso
La empresa responsable de ChatGPT ha anunciado recientemente mejoras en su última versión, GPT-5, que incluye mecanismos para mejorar las respuestas en relación a posibles problemas de salud y detectar consultas delicadas. Aun así, la compañía recalca que el sistema no sustituye la atención médica ni debe utilizarse para diagnosticar ni tratar enfermedades.
El caso ha reavivado la discusión sobre el papel de la inteligencia artificial en el acceso a la información sanitaria. Mientras que algunos expertos valoran su potencial como herramienta de divulgación, otros insisten en que sin la mediación de profesionales puede convertirse en una fuente de confusión y riesgos para la salud pública.
0