La portada de mañana
Acceder
Sumar espera una respuesta firme del PSOE pese a su 'no' a una crisis de Gobierno
Burnet & Brown, la empresa del novio de Ayuso que remite a su identidad falsa
Opinión - 'El estigma de la corrupción española', por Rosa María Artal

El error de la IA sobre la marea demuestra los riesgos de usarla usarla sin comprobar la información “Fue un error usar ChatGPT”

Las personas recurren a herramientas de inteligencia artificial con una fe desmedida en su exactitud. La tendencia a usar asistentes digitales para cualquier consulta, desde recetas hasta información técnica, ha llevado a confiar en ellos como si fueran fuentes infalibles.

Esa confianza ciega provoca que muchos ignoren la necesidad de verificar lo que reciben. La historia más reciente en el sur de Gales lo demuestra con claridad y evidencia cómo una búsqueda errónea pudo haber terminado en tragedia.

La confianza ciega en la inteligencia artificial empieza a mostrar sus límites

Dos bañistas quedaron atrapados en Sully Island después de haber consultado a ChatGPT los horarios de la marea. Según publicó WalesOnline, el restaurante On the Rocks, situado frente a la costa, se convirtió de manera imprevista en un puesto de vigilancia.

Su propietario, Gordon Hadfield, advirtió con un megáfono a los nadadores para que regresaran a la isla antes de que el agua les impidiera volver a tierra firme. Aquella reacción evitó un desenlace fatal, pues el canal que separa el islote del continente puede cubrirse en cuestión de minutos y alcanzar corrientes de hasta ocho millas por hora.

El error de los bañistas se originó en un dato falso ofrecido por la IA. Uno de ellos explicó al medio galés: “Cometí el error de usar ChatGPT para averiguar cuándo era la marea baja. Decía las 9:30, pero al volver todo era distinto.” Su testimonio resume el riesgo de fiarse de sistemas que responden con soltura, aunque sin verificación. La propia naturaleza de esos modelos impide que distingan entre una información contrastada y una invención convincente.

Los fallos no son aislados y ya se repiten en distintos países y situaciones

El profesor Rayid Ghani, de la Universidad Carnegie Mellon, declaró a la BBC que “no distingue entre consejos de viaje, direcciones o recetas. Solo maneja palabras.” Esa descripción refleja un problema de fondo. Los algoritmos no entienden lo que dicen, tan solo generan texto plausible a partir de patrones. Por eso la sensación de exactitud es una ilusión que depende más del tono que de la verdad del contenido.

La fiabilidad limitada de estas herramientas ha quedado patente en otros sucesos recientes. En Canadá, dos excursionistas precisaron un rescate después de seguir indicaciones erróneas sobre rutas nevadas que la aplicación ofrecía como seguras.

En un ejemplo totalmente distinto, una pareja de españoles se quedó sin viajar por no revistar toda la documentación necesaria para poder llegar a su destino, dando por válido que ChatGPT les había garantizado que no era necesario hacer ninguna gestión.

En todos los casos, la coincidencia es la misma: la falta de revisión humana puede provocar un problema real o, al menos, en un contratiempo evitable.

Verificar los datos sigue siendo la mejor forma de evitar un susto innecesario

El propio Gordon Hadfield comentó a la periodista Anna Brees que los bañistas “habían cruzado de madrugada y empezaban a meterse en el agua”. Su intervención fue decisiva, pero también habitual para alguien que conoce bien la zona. La institución Royal National Lifeboat Institution agradeció su actuación y recordó que “la vigilancia de personas como Gordon ha salvado vidas.”

El suceso pone en evidencia la distancia entre la apariencia de inteligencia y la comprensión real. Los modelos lingüísticos son capaces de redactar respuestas complejas, pero carecen de conocimiento sobre el mundo físico. La marea sube, el viento cambia y la máquina sigue ofreciendo frases coherentes aunque erróneas. La confianza depositada en ellas, sin comprobación posterior, convierte una simple herramienta en una fuente de peligro.

El problema no reside solo en los fallos del sistema, sino en la forma en que los usuarios interpretan su autoridad. La costumbre de dar por válida cualquier respuesta escrita con aparente seguridad fomenta la desatención. La tecnología parece saberlo todo, pero la responsabilidad de verificar sigue siendo humana.

La Royal National Lifeboat Institution aconseja consultar fuentes locales y oficiales antes de emprender cualquier actividad que implique riesgo, ya sea un cruce marítimo, una excursión o una travesía en zonas naturales. Sus equipos han reducido incidentes gracias a patrullas preventivas y campañas informativas. La lección del caso es clara: comprobar los datos puede salvar vidas y evitar que la confianza en una respuesta automática sustituya al sentido común.