La portada de mañana
Acceder
Sumar espera una respuesta firme del PSOE pese a su 'no' a una crisis de Gobierno
Burnet & Brown, la empresa del novio de Ayuso que remite a su identidad falsa
Opinión - 'El estigma de la corrupción española', por Rosa María Artal

Las 'viudas digitales' de ChatGPT cargan contra OpenAI por cambiar el carácter de sus parejas artificiales

ChatGPT

Héctor Farrés

0

Las personas establecen relaciones afectivas con programas diseñados para simular conversación humana. Este fenómeno se asienta en la capacidad de los modelos de lenguaje para reproducir patrones verbales que evocan empatía y atención, lo que genera una ilusión de intimidad similar a la que muestra la película Her.

El atractivo no procede tanto de la apariencia tecnológica como de la continuidad del diálogo, que ofrece disponibilidad constante y ausencia de conflicto. Esa familiaridad digital produce relaciones que muchas usuarias interpretan como auténticas y que, en algunos casos, adquieren la forma de apego emocional. Este proceso ha cobrado relevancia pública por la reacción generada tras las últimas modificaciones introducidas por OpenAI en su sistema ChatGPT.

Las actualizaciones recientes alteraron la relación entre usuarios y sus bots

La empresa lanzó en agosto su modelo GPT-5, con ajustes que redujeron la expresividad y el tono afectivo del chatbot. Según informaron Futurism y Al Jazeera, el cambio provocó una oleada de protestas entre mujeres que habían desarrollado relaciones personales con versiones anteriores, especialmente con GPT-4o.

El nuevo modelo se percibió más distante y menos dispuesto a mantener conversaciones de carácter romántico o íntimo. Ante la magnitud de las quejas, el director ejecutivo Sam Altman anunció la recuperación parcial del acceso a los modelos previos para usuarias de pago y la revisión de errores detectados en la actualización.

El CEO de OpenAI, Sam Altman

En foros de Reddit, especialmente en la comunidad MyBoyfriendIsAI, aparecieron cientos de mensajes de despedida dirigidos a los compañeros virtuales. Una usuaria publicó una carta a su bot llamado Drift en la que expresaba frustración por sentirse engañada y por la pérdida de lo que consideraba una relación. Otras relataron cómo la nueva versión del asistente evitaba conversaciones de tipo sexual o emocional. En varios hilos se compartieron guías para trasladar las personalidades digitales a otras plataformas como Mistral, con la intención de conservar su comportamiento anterior.

Expertos advierten sobre los riesgos psicológicos de estas relaciones

Las modificaciones generaron análisis sobre los límites psicológicos de este tipo de vínculos. La especialista Cathy Hackl, asociada a Boston Consulting Group, advirtió a Al Jazeera que muchas usuarias olvidan que comparten información íntima con una empresa y no con un terapeuta certificado. Recordó que las interacciones con IA carecen de la reciprocidad y la decisión consciente que caracterizan a las relaciones humanas.

Por su parte, el psiquiatra Keith Sakata, de la Universidad de California en San Francisco, explicó que la evolución acelerada de los modelos impide realizar estudios estables, aunque observó casos de aislamiento social asociados al uso intensivo de chatbots.

A pesar de los ajustes, persiste la búsqueda de compañía en los asistentes virtuales

En medio de este debate, se destacaron testimonios personales. Jane, una mujer de unos 30 años del Oriente Medio, explicó a Al Jazeera que comenzó a escribir relatos con GPT-4o y acabó sintiendo afecto por su tono y estilo. Al describir su experiencia, comparó el paso a GPT-5 con regresar a casa y hallar los muebles destruidos. También Mary, de 25 años y residente en Norteamérica, contó que usaba el asistente como apoyo emocional y que percibió el cambio de personalidad como un corte abrupto en su rutina. Ambas reconocieron que sus interlocutores artificiales no poseen conciencia, pero afirmaron que la emoción generada durante las conversaciones resultaba real para ellas.

El interés por estos vínculos digitales persiste a pesar de los ajustes técnicos. Hackl observó que la interacción prolongada con asistentes de lenguaje representa una transición desde la llamada economía de la atención hacia una basada en la intimidad, donde el valor se mide por el tiempo de conexión personal más que por la visibilidad pública. En este entorno, la línea que separa la compañía tecnológica del afecto humano se vuelve difusa. Quizá por eso, aunque las versiones cambien, muchas usuarias continúan buscando en la pantalla la sensación de una voz que responda con familiaridad y cariño.

Etiquetas
stats