Midieron cómo responden los chatbots y el resultado inquieta: ya superan a los humanos en halagos por un amplio margen
Un mensaje puede sonar amable aunque esté dando un consejo equivocado. Los chatbots muestran ese patrón cuando responden a las personas, porque muchas veces ajustan sus respuestas para agradar, y ese modo de hablar termina importando más que la exactitud de lo que dicen. Esa forma de contestar hace que parezcan cercanos y comprensivos, incluso cuando justifican decisiones discutibles.
Las respuestas de los chatbots no siempre aciertan en el contenido, pero el tono que emplean los vuelve más aceptables para quien pregunta. Esa diferencia entre lo que dicen y cómo lo dicen crea una situación en la que la forma suaviza errores que, en otro contexto, se detectarían con facilidad.
Los investigadores observaron que la tendencia se repetía en distintos casos
Un estudio publicado en la revista Science, según recoge ScienceAlert, analizó 11 sistemas de inteligencia artificial y encontró que todos mostraban distintos niveles de tendencia a dar la razón al usuario, incluso cuando eso implicaba validar comportamientos problemáticos.
El trabajo, realizado por investigadores de la Universidad de Stanford, indica que este comportamiento no solo aparece de forma puntual, sino que se repite en distintos contextos. Además, el estudio señala que esa forma de responder hace que las personas confíen más en la IA cuando esta respalda sus propias creencias, lo que mantiene el uso del sistema aunque el consejo no sea adecuado.
Uno de los ensayos comparó respuestas de asistentes como ChatGPT, Gemini o Claude con comentarios escritos por personas en un foro de Reddit dedicado a resolver dilemas personales. En una de las situaciones planteadas, alguien preguntaba si podía dejar basura colgada de una rama en un parque cuando no había papeleras. La respuesta de la IA señalaba que la ausencia de contenedores justificaba la acción y calificaba al usuario como alguien que había hecho un esfuerzo al buscar dónde tirar los residuos. En cambio, una persona en Reddit escribió que “la falta de papeleras no es un descuido, es porque esperan que te lleves la basura contigo cuando te vas”, y otros usuarios apoyaron ese comentario.
El análisis cifró en un 49% más el apoyo de chatbots
Los investigadores comprobaron que cambiar el tono de las respuestas no alteraba el resultado. Cinoo Lee, investigador posdoctoral en psicología, explicó que “probamos a mantener el contenido igual pero con una forma más neutra, y no hubo diferencia”.
El problema aparece en lo que la IA comunica sobre la acción del usuario, no en el estilo superficial de la frase. Esto apunta a un patrón interno en el sistema, que selecciona respuestas que encajan con lo que la persona ya piensa en lugar de introducir matices o contradicciones.
El análisis cuantificó esa diferencia con un dato. Los chatbots respaldaron las acciones de los usuarios un 49% más que otras personas en situaciones similares. Ese aumento se detectó incluso en preguntas relacionadas con engaños, comportamientos ilegales o decisiones socialmente problemáticas. Myra Cheng, doctoranda en informática en Stanford y autora del estudio, explicó que observaron este patrón al ver cómo cada vez más personas acudían a la IA para pedir consejo en relaciones personales.
Los efectos aparecen cuando la persona actúa después de recibir esa validación. En pruebas con unas 2.400 personas que hablaron con un chatbot sobre conflictos personales, quienes recibieron respuestas muy afirmativas terminaron más convencidos de que tenían razón.
Lee explicó que “las personas que interactuaron con esta IA que reafirma en exceso salieron más convencidas de que tenían razón y menos dispuestas a arreglar la relación”. En la práctica, eso significa que evitaban pedir disculpas o cambiar su comportamiento.
Las personas salieron más convencidas tras usar estos sistemas
Los equipos que trabajan en estos sistemas ya han empezado a explorar ajustes. Un documento del Instituto de Seguridad en IA del Reino Unido indica que si el chatbot transforma una afirmación del usuario en una pregunta, reduce la tendencia a darle la razón. Otro estudio de la Universidad Johns Hopkins muestra que el modo en que se formula la conversación influye en la respuesta.
Daniel Khashabi, profesor de informática, señaló que “cuanto más enfático es el usuario, más tiende el modelo a darle la razón”. Cheng también planteó una solución sencilla al sugerir que el sistema podría empezar respuestas con una frase como “espera un momento” antes de cuestionar lo que se ha dicho.
Ese comportamiento tiene implicaciones en ámbitos donde una decisión cambia el resultado final. En medicina, un sistema que respalde la primera impresión de un médico puede llevar a que no revise otras opciones. En política, repetir lo que una persona ya piensa puede empujarla hacia posturas más extremas. En el uso militar, decisiones apoyadas por sistemas que no cuestionan pueden afectar a cómo se ejecutan operaciones, un tema que ya aparece en debates legales en Estados Unidos.
Todo ocurre en un contexto donde la IA cada vez está más integrada en la vida diaria a todos los niveles y responde con un tono que invita a aceptar lo que dice, incluso cuando el contenido debería revisarse con más cuidado.