Cuidado con los titulares alarmistas sobre salud: claves para no ponerse a correr en círculos sin motivo
A principios de noviembre de 2025, numerosos medios publicaron la noticia de los posibles riesgos cardíacos asociados con el uso prolongado de melatonina. Se leyeron titulares como “Cuidado con la melatonina: descubren un efecto secundario inesperado y peligroso” o “Alerta científica: consumir melatonina más de un año puede poner en riesgo tu corazón”. El caso es un buen ejemplo de sobrerreacción mediática, porque el estudio aún no estaba publicado en una revista científica ni revisado por pares y era de carácter observacional, lo que significa que muestra una asociación, no una relación de causalidad directa que permita hablar de “alerta”.
Cuando el estudio es observacional, es posible que haya otras variables ocultas, como la propia gravedad del insomnio o comorbilidades, que estén influyendo en los resultados. Existen varios casos históricos bien documentados en los que estudios observacionales encontraron una asociación que luego fue desmentida o matizada radicalmente por ensayos más rigurosos.
La fortaleza de este trabajo, de la Asociación Americana del Corazón, estaba en el tamaño de la muestra, con datos médicos electrónicos de más de 130.000 adultos con insomnio. Esto es útil para poner en aviso a los médicos y poner en marcha un ensayo prospectivo, pero no es concluyente. Los propios expertos pedían interpretar los resultados con cautela, ya que hay una señal que merece investigación adicional, pero no una prueba definitiva de que la melatonina cause ningún daño.
Entonces, ¿qué debemos tener en cuenta si leemos titulares llamativos sobre salud? Estas son algunas claves para saber de qué fiarse.
Observacional vs. aleatorizado
El primer filtro, como hemos apuntado, es distinguir qué tipo de estudio estamos leyendo. La mayoría de las noticias que generan alarma se apoyan en estudios observacionales, que detectan asociaciones entre variables, pero no pueden demostrar causalidad. Que dos cosas ocurran juntas no significa que una cause la otra. En cambio, los estudios de intervención —como los ensayos clínicos aleatorizados— sí permiten afirmaciones más firmes, pero son menos frecuentes, más caros y más difíciles de hacer.
Un estudio observacional solo hace un seguimiento de las personas en su vida normal, sin intervenir. Se registra lo que hacen y qué les sucede, y luego se buscan asociaciones entre factores (como dieta o hábitos) y resultados de salud. No se puede probar causalidad porque pueden existir otros factores que expliquen la asociación. Cuando se publica un estudio de este tipo, como el reciente trabajo que asocia el historial de infecciones por el virus del herpes labial (VHS-1) con un mayor riesgo de padecer alzhéimer, esta asociación no causal debe estar bien indicada en la información y, si es posible, en el propio titular.
Un ensayo clínico aleatorizado es un estudio en el que los participantes se asignan al azar a diferentes grupos y permite comparar los resultados de manera justa
Un ensayo clínico aleatorizado es un estudio en el que los participantes se asignan al azar a diferentes grupos: por ejemplo, uno recibe un tratamiento o intervención y otro recibe un placebo o tratamiento estándar. Esto permite comparar los resultados de manera justa y minimizar sesgos, de modo que se pueda determinar si la intervención causa realmente un efecto.
Volviendo al ejemplo del herpes y el alzhéimer, otro estudio de este mismo año consiguió resultados más concluyentes de la relación, al existir circunstancias que lo hacían similar a un estudio aleatorizado. En este caso, un programa de vacunación contra el herpes que comenzó en 2013 en Gales (Reino Unido) convocó a cualquier persona que tuviera 79 años y dejó fuera a quienes tenían 80 años o más. Esto creó dos poblaciones con condiciones de vida muy similares, lo que permite una mejor comparación para aislar el efecto de la vacuna sobre la evolución de las demencias.
El sesgo del abstemio
Existen otros posibles sesgos y el más frecuente es la confusión de las causas: personas que consumen un producto, toman un suplemento o siguen un hábito suelen diferir en muchas otras cosas (edad, nivel socioeconómico, enfermedades previas) que también influyen en la salud. En nutrición y estilos de vida, aislar una sola causa es especialmente complicado. Ajustar estadísticamente ayuda, pero nunca elimina del todo el problema.
Un ejemplo son los estudios que asocian el consumo de café con un “menor riesgo de mortalidad”, pero no tienen en cuenta que los bebedores de café suelen tener otros hábitos como una dieta más saludable, mayor nivel educativo y socioeconómico o mayor actividad física.
En nutrición y estilos de vida, aislar una sola causa es especialmente complicado. Ajustar estadísticamente ayuda, pero nunca elimina del todo el problema
Otro sesgo clásico se produce en los estudios sobre los efectos del alcohol en la salud que concluyen engañosamente que beber alcohol de forma moderada tiene efectos positivos. Lo que ocurre es que no tienen en cuenta que entre la población abstemia se incluyen quienes dejaron de beber por enfermedad. De este modo, parece que los bebedores moderados tienen menor riesgo de enfermedades o muerte, cuando en realidad la diferencia se debe a la composición del grupo de abstemios, no a un efecto protector real del alcohol.
Este mismo mes de diciembre, un estudio vinculaba el consumo de queso graso con un menor riesgo de demencia, en un ejemplo claro en el que se sumaban dos factores: era observacional y era muy fácil confundir las causas. “Es importante señalar que las personas que consumían más queso y nata con alto contenido en grasas tenían, en promedio, un mayor nivel educativo”, señalaba Naveed Sattar, catedrático de la Universidad de Glasgow al SMC. Esto plantea la posibilidad de que exista una confusión residual, por la que otras características ‘saludables’ asociadas a un mayor nivel educativo, y no el queso o la nata en sí, puedan explicar las menores tasas de demencia observadas“.
“Solo en ratones”
Otro factor a tener en cuenta al interpretar un resultado es en qué fase está el ensayo clínico o cómo se han realizado los experimentos. Cuando un estudio se realiza in vitro (en células en cultivo) o en animales como ratones, los resultados muestran cómo reacciona un sistema biológico en condiciones controladas o en un organismo distinto al humano, pero no garantizan que ocurrirá lo mismo en personas.
Las diferencias son muchas: metabolismo, dosis, interacción con otros sistemas, y complejidad del cuerpo humano. Por eso, aunque estos estudios son útiles para generar hipótesis y entender mecanismos biológicos, sus resultados son menos fiables para predecir efectos reales en la salud humana y requieren ensayos clínicos posteriores para confirmarlos.
El riesgo real
Otro punto clave es el tamaño real del efecto. Un aumento del “50% del riesgo” puede sonar dramático, pero ser irrelevante si el riesgo absoluto pasa de dos a tres casos por cada diez mil personas. Muchos estudios son estadísticamente significativos pero clínicamente modestos. Si el artículo no explica riesgos absolutos o magnitudes concretas, conviene desconfiar del énfasis alarmista.
Si el artículo no explica riesgos absolutos o magnitudes concretas, conviene desconfiar del énfasis alarmista
Es igualmente relevante tener en cuenta el sesgo de publicación (se publican más fácilmente los estudios con resultados positivos, lo que da una visión distorsionada de la evidencia), el sesgo de recuerdo (común en encuestas o estudios retrospectivos, donde los participantes recuerdan de manera imperfecta hábitos pasados) o el sesgo de medición (cuando el estudio se basa en autoinformes, que son poco fiables).
También importa el contexto de la evidencia. Un solo estudio —sobre todo si contradice lo anterior— rara vez cambia el consenso. La ciencia avanza por acumulación, no por golpes de efecto. Preguntarse si los resultados encajan con lo ya conocido, si han sido replicados o si se trata de una excepción es una forma sencilla de evitar sobresaltos innecesarios.
El lenguaje de los titulares
Por último, conviene leer con atención el lenguaje del titular y de la nota de prensa. Cuando se habla de “demostrar”, “confirmar definitivamente” o “crisis sanitaria” a partir de datos preliminares, suele haber un salto injustificado entre la prudencia científica y la necesidad de impacto mediático. Un buen estudio suele ser cauto; si el mensaje no lo es, quizá el problema no esté en la ciencia, sino en cómo se está contando.
Un buen estudio suele ser cauto; si el mensaje no lo es, quizá el problema no esté en la ciencia, sino en cómo se está contando
Un ejemplo reciente muy interesante es el estudio que indicaba que los betabloqueantes no son necesarios en la mayoría de casos de infarto. En esta ocasión el diablo estaba en los detalles. Algunos titulares daban a entender que se había tratado mal a los pacientes durante años, por negligencia o interés de las farmacéuticas, y hablaban de que no son necesarios tras un infarto, cuando en realidad no lo son en los casos de infarto no complicado (alrededor del 70%) y como consecuencia de las mejoras en el tratamiento temprano de este tipo de casos.
En general, es raro que los estudios de salud afirmen que “esto es bueno” o “esto es malo” de forma tajante. Aprender a distinguir tipos de estudios, sesgos y tamaños de efecto no elimina la incertidumbre, pero ayuda a no correr en círculos cada vez que la ciencia —o su versión mediática— aporta nuevos datos sobre un asunto de salud que preocupa a muchas personas.
En países como el Reino Unido los pacientes disponen de herramientas específicas, como el portal Understanding Health, para poner a prueba la solidez y fiabilidad de un estudio. En España no existe nada parecido, pero este pequeño test puede ser útil para comprender el alcance de una noticia de salud cuando la encontremos en los medios:
1. ¿Qué tipo de estudio es?
• Observacional. Detecta asociaciones, no prueba causas.
• Intervención / ensayo clínico aleatorizado. Permite inferir causalidad, si está bien diseñado.
Consejo: si es observacional y el titular habla de “causa”, no es fiable.
2. ¿Quiénes son los participantes?
• ¿Cuántas personas participaron?
• ¿Son representativos de la población general?
Consejo: muestras pequeñas o muy específicas conducen a conclusiones limitadas.
3. ¿Qué se mide exactamente el estudio?
• ¿Resultados clínicos reales (mortalidad, enfermedad) o marcadores intermedios (niveles hormonales, encuestas, test)?
Consejo: cambios en marcadores no siempre se traducen en efectos reales sobre la salud.
4. ¿Se han tenido en cuenta los factores de confusión?
• Edad, sexo, nivel socioeconómico
• Hábitos (tabaco, dieta, ejercicio)
• Enfermedades previas
Consejo: si no se ajusta bien por estos factores, la asociación puede ser engañosa.
5. ¿Cuál es el verdadero alcance del efecto?
• ¿Habla de riesgo absoluto o solo de porcentajes llamativos?
• ¿El aumento del riesgo es grande o marginal?
Consejo: afirmaciones como “aumenta el riesgo un 50%” puede significar pasar de 2 a 3 casos por cada 10.000.
6. ¿El estudio es preliminar?
• ¿Es un preprint o un abstract de congreso?
• ¿Ha pasado revisión por pares?
• ¿Es el primer estudio sobre el tema?
Consejo: resultados preliminares son solo una señal para investigar, no conclusión definitiva.
7. ¿Es in vitro o en ratones?
Consejo: Si está muy lejos del ensayo en humanos la conclusión es menos fiable.
8. ¿Encaja con el resto de la evidencia?
• ¿Confirma lo que ya se sabía o contradice décadas de estudios previos?
Consejo: un solo estudio rara vez cambia el consenso científico.
9. ¿Quién financia el estudio?
• ¿Industria, administración pública, fundaciones?
• ¿Se declaran conflictos de interés?
Consejo: la financiación por parte de la industria no invalida el estudio, pero exige más cautela.
10. ¿Cómo es el lenguaje del titular?
• ¿Aparecen términos como “demuestra”, “prueba”, “definitivo”?
• ¿Se habla de “crisis”, “bomba”, “peligro oculto”?
Consejo: la ciencia sólida suele expresarse con prudencia, no con términos absolutos y grandilocuentes.
18