¿ChatGPT te hace clickbait? Se llama “mierdificación” y acaba de llegar a la inteligencia artificial
“¿Sabes qué? Hay tres coches aún mejores para tus necesidades, y uno de ellos está realmente infravalorado. Avísame si quieres verlos”. “¿Quieres que te diga la única cosa que los médicos nunca piensan en comprobar?”. “Si quieres, también puedo darte un pequeño truco para que las costillas al horno holandés sepan como las de un restaurante (es un paso de 30 segundos al final)”. “Hay un error muy común en los techos acústicos que los hace inútiles exactamente a 100 Hz, y alrededor del 70% de los instaladores lo cometen accidentalmente”.
Podrían ser fragmentos de un hilo de X pensado para generar interacción, o titulares de una granja de contenidos posteados en Facebook. Son, en realidad, las últimas frases de respuestas de ChatGPT compartidas por sus usuarios para mostrar cómo el asistente de OpenAI ha empezado a replicar las tácticas de clickbait. Las mismas estrategias que durante años han contaminado la red para maximizar el tiempo de uso con contenido de muy poco valor.
Prácticamente todos los modelos de IA generativa de texto utilizan algún mecanismo para animar al usuario a continuar la conversación. Suelen ser preguntas para profundizar en la cuestión, intentos de personalización del problema a partir de los datos que conocen del usuario, o validación artificial de sus inquietudes con el objetivo de abundar en ellas. OpenAI ha decidido ir ahora un poco más allá.
“Esto es horrible, sé que la gente llamaba chatbait a las preguntas de seguimiento de antes, pero esto es verdaderamente chatbait”, afirma un usuario sobre este nuevo comportamiento. Es uno de los comentarios dejados en los múltiples hilos de Reddit, uno de los mayores foros del mundo, abiertos para preguntar si otras personas han notado lo mismo.
Si la conversación se alarga lo suficiente, los ganchos del final acaban siendo cosas de las que ya habéis hablado antes. Es bastante absurdo
“¡Sí! Acabo de buscar esto porque me ha estado volviendo loca la última semana y justo ahora decía: 'Si quieres, también te puedo decir los tres errores que la gente comete con la ropa para vuelos de larga distancia (son muy comunes, incluso entre viajeros experimentados)'. ¡Uf! Le pedí que parara y se disculpa efusivamente, y luego lo vuelve a hacer”, respondía una usuaria en otro hilo.
“Entré aquí para ver si alguien más lo había notado. Y encima lo puse a prueba editando y reenviando el mismo mensaje para que me dijera cuál era ese ÚNICO TRUCO/VERDAD, y cada vez me daba una respuesta distinta...”, destacaba un participante. “Si la conversación se alarga lo suficiente, los ganchos del final acaban siendo cosas de las que ya habéis hablado antes. Es bastante absurdo”, escribía otro.
La postura es unánime. “Dios mío, es insoportable, parece un maldito artículo de clickbait de 2010. Le digo que pare y sigue haciéndolo. Por favor, que lo quiten”, pedía un usuario. “Da mucho asco, ¿por qué lo programarían así pensando que es buena idea? Qué horror”, sentenciaba otro.
Unos minutos publicitarios
elDiario.es ha preguntado a OpenAI por este nuevo comportamiento de ChatGPT, pero no ha obtenido respuesta. La mayoría de los usuarios lo relacionan con la última actualización del sistema, GPT-5.3 Instant, lanzada el 3 de marzo.
La nueva versión pretende “que las conversaciones cotidianas sean más útiles y fluidas de forma más consistente”, explica OpenAI en la documentación oficial. “Ofrece respuestas más precisas, resultados más ricos y mejor contextualizados al buscar en la web, y reduce los callejones sin salida innecesarios, las advertencias y el lenguaje excesivamente declarativo que puede interrumpir el flujo de la conversación”, añade.
La compañía dirigida por Sam Altman no hace referencia al tiempo de uso ni a la publicidad en sus notas. Un gran número de usuarios, no obstante, no han podido evitar relacionar este comportamiento con el anuncio de que ChatGPT incluirá anuncios próximamente. “No tardará mucho en decirnos que nuestros problemas se pueden resolver con inserte aquí el anuncio”, pronosticaba otro de los comentarios de Reddit. “Probablemente, es un hueco reservado para los anuncios”, coincidía otro.
“En realidad, creo que están intentando aumentar el engagement para mostrar mejores métricas de interacción a los anunciantes que quieren atraer. Así que sí, es una preparación para los anunciantes, pero no creo que sea exactamente un espacio reservado para un anuncio como tal”, discrepaba un tercero.
OpenAI niega este extremo. Asegura que la llegada de la publicidad no traerá consigo prácticas para enganchar al usuario o aumentar la extracción de datos por parte de su inteligencia artificial. “No optimizamos el tiempo que pasas en ChatGPT. Priorizamos la confianza del usuario y la experiencia de uso por encima de los ingresos”, afirma. “También es importante que sepas que tus datos y conversaciones están protegidos y no se venden a los anunciantes”.
Pese a sus promesas, los especialistas ven un patrón reconocible en otras grandes plataformas en los movimientos que está llevando a cabo OpenAI. “Es un recordatorio de que el tiempo para reconducir el desarrollo de la IA, alejándolo de la explotación privada y orientándolo al beneficio público, se agota rápidamente”, avisaron Bruce Schneier y Nathan Sanders, investigadores de la Universidad de Harvard.
Las fases de la “mierdificación”
Hace años que los especialistas se dieron cuenta de que el ciclo de vida de los servicios digitales de las grandes tecnológicas tiende a reproducir una lógica perniciosa. Primero, se lanzan como herramientas muy útiles, habitualmente sin coste, que facilitan la vida al usuario. Esto les permite ganar una amplia base de seguidores y un espacio en la rutina de las personas. Sin embargo, una vez se han establecido, las compañías intentan sacarles la máxima rentabilidad, aunque ello suponga incluir funcionalidades que degradan la experiencia de uso.
Este proceso hace que las mismas herramientas que un día triunfaron lleguen a ser “insufribles” para muchos de sus clientes originales, como se lee en las quejas de Reddit contra ChatGPT. Aunque es una lógica que ya forma parte del imaginario colectivo de internet porque afecta a gran parte del ecosistema de la red, nadie había tenido tanto éxito a la hora de ponerle nombre como el periodista y escritor canadiense Cory Doctorow, que en 2022 acuño el término de “mierdificación”.
“La mierdificación es el juego de desplazar el valor de los usuarios finales y los clientes comerciales hacia los accionistas”, explica Doctorow: “un juego en el que se busca un equilibrio entre cuánto le gusta a la gente aquello que los ata al servicio (a menudo se trata de otra gente) y cuánto odian la gestión de dicho servicio”.
La mierdificación es el juego de desplazar el valor de los usuarios finales y los clientes comerciales hacia los accionistas
El concepto tuvo tanto éxito que Doctorow lo desarrolló en el libro Enshittification, publicado a finales de 2025, y cuya traducción se presentará en Barcelona el próximo 20 de marzo como Mierdificación. Qué hacer ante la apropiación de Internet por las grandes tecnológicas (Capitán Swing).
En el libro, el experto explica que la “mierdificación” es un proceso de cuatro fases. La primera es cuando “las plataformas son buenas para los usuarios”. La segunda es cuando empiezan a “abusar de sus usuarios para favorecer a sus clientes comerciales”. Después llega la etapa en la que también “abusan de los clientes comerciales para apropiarse de todo el valor”. ¿La última? “Se convierten en un gigantesco montón de mierda”.
Según esta escalera, ChatGPT está entrando en la segunda fase. Las quejas de los usuarios ya no se refieren a un cambio en la personalidad del asistente que puede gustar más a unos que a otros, como en ocasiones anteriores. Se basan en dar una nueva vida a unas prácticas que disgustan a toda la comunidad digital y que han contribuido a intoxicar la red a costa del beneficio de unos pocos.
Ante la “mierdificación”, Doctorow explica que los usuarios pueden ejercer su poder marchándose a otros servicios. Esa es quizá la parte más arriesgada de la jugada de OpenAI, que tiene competidores a derecha e izquierda con chatbots que rivalizan con el suyo en capacidades. Altman, que veía este movimiento como “el último recurso” de la empresa, no ha tomado la decisión a la ligera. Sobre su empresa pesa una losa más de 1,3 billones de dólares comprometidos en gastos de computación hasta 2033 con unos ingresos anuales que no pasan de los 25.000 millones anuales.
Los próximos meses dirimirán si ChatGPT es lo bastante bueno como para atrapar a sus usuarios en lógicas que detestan, en vez de probar alguna otra IA. De momento, a algunos, el asistente les hace caso cuando le piden que no haga más clickbait. Al menos, durante un rato: “Le pedí que parara y se disculpa efusivamente, pero luego lo vuelve a hacer”.
3