Cuando ChatGPT se usa para resolver conflictos de pareja: “Si le preguntas más que a ti misma, es una señal de alerta”
ChatGPT se ha convertido en un aliado imprescindible para muchas personas. Es motor de búsqueda, guía de viajes, fuente inagotable de ideas para regalar, experto en recetas, consultor médico, psicólogo… y ahora también terapeuta de pareja.
“Uso la IA para saber cómo responder en una discusión o para entender el punto de vista de mi pareja”, reconoce Marcos, de 21 años, convencido de que le ayuda a “aclarar las ideas y saber estructurarlas”. Por su parte, a Julio, de 30 años, ChatGPT le ayuda a ver las situaciones desde otra perspectiva: “Me ha ayudado mucho a ver mis propias red flags”. Esta tendencia se amplifica en redes sociales, donde usuarios y creadores de contenido dan consejos sobre cómo sacar partido a ChatGPT para solucionar problemas de pareja, analizar tu relación o incluso saber si tu novio/a te es infiel –a partir de un análisis de conversaciones de WhatsApp–.
El fenómeno no es anecdótico. Según el estudio Singles in America, el uso de la inteligencia artificial en el ámbito sentimental está especialmente extendido entre los más jóvenes: casi la mitad de la generación Z (49%) asegura haber utilizado IA para ligar o gestionar sus relaciones –un porcentaje superior a cualquier otra generación–. Aunque también se extienden los usos previos a tener pareja: el número de solteros que utiliza algoritmos en el entorno romántico aumentó un 300% con respecto a 2024; un 26% de los encuestados afirma que la IA ha hecho que ligar sea más fácil y un 16% reconoce haber interactuado con una IA como compañero romántico —una cifra que asciende al 33 % entre la Generación Z—.
A Carmen, que tiene 60 años y apenas usa la IA, no le parece raro que los jóvenes estén utilizando ChatGPT en el ámbito de la pareja; está segura de que si hubiera existido cuando su generación era joven, también la habrían usado. “Me parece de lo más normal, ahora la usamos para todo y a todas horas; igual que buscas una receta, puedes buscar cómo reconciliarte con tu pareja después de una discusión (...) A lo mejor no se te ocurre qué decirle y la inteligencia artificial te puede ayudar”, opina.
¿Por qué recurrimos a la IA?
La accesibilidad, la economía, la rapidez, el anonimato y la vergüenza son algunas de las motivaciones que encuentran las psicólogas para emplear la IA como terapeuta de pareja. Como expone la psicóloga Paula Orell, con mucha presencia en redes sociales, es “muy tentador” tener “una app en tu móvil donde, cuando quieras, sea la hora que sea, puedas contarle lo que te preocupa, de forma anónima, sin pasar por el riesgo de ser juzgada por una persona y la vergüenza que eso pueda conllevar”.
La IA para Marcos ha sido un refugio. Además de pedirle consejos y preguntarle dudas, ha comentado con ChatGPT temas que nunca ha hablado con su círculo cercano. El miedo a ser juzgado ha convertido a la IA en su confidente: “Pensaba que iban a decirme que estaba loco por pensar esas cosas, que era un tóxico”, confiesa en conversación con este diario.
El miedo a ser juzgado ha convertido a la IA en su confidente para Marcos: 'Pensaba que iban a decirme que estaba loco por pensar esas cosas, que era un tóxico
Para Mireia Cosano, psicóloga y también creadora de contenido, la IA ofrece posibilidades que en terapia no existen; ChatGPT proporciona “un marco donde preguntar” qué “está pensando o sintiendo la pareja” —“¿Por qué crees que le pasa eso?, ¿Crees que me quiere?”— y permite “curiosear y llegar al fondo de una cuestión sin tener que afrontarla directamente”.
En un contexto terapéutico, explica, esto no es posible: en sesión no se trata de adivinar lo que piensa la otra persona, sino de abrir un espacio de reflexión que ayude a entender qué nos ocurre, cómo interpretamos la situación y qué responsabilidad tenemos en el vínculo. Las personas que lo usan quieren hipótesis de lo que les ocurre a sus parejas, quieren “curiosear” pero sin afrontar lo que puede haber detrás, pudiendo cambiar de tema o hacer como que nada ha pasado si la situación les incomoda.
Una ayuda con matices
Tanto Julio como Marcos tienen claro que van a volver a hacer uso de la inteligencia artificial cuando tengan dudas o necesiten apoyo en sus relaciones. “Me ayuda a ver la visión de otros cuando yo no puedo o en discusiones para decir las cosas de mejor manera y no sonar tan borde”, justifica Marcos.
Las psicólogas son conscientes de este uso generalizado de la IA, y encuentran beneficios en su empleo. Cosano identifica un perfil concreto en quienes recurren a estas herramientas para desahogarse o hablar de sus sentimientos: suelen ser personas a las que les cuesta expresarse, que suelen reprimir sus emociones. En este aspecto, “tiene efectos positivos porque dejan de reprimir sus emociones, y es más, incluso empiezan a generar curiosidad por conocerse más emocionalmente”. Hay estudios que indican que una integración correcta de la IA puede brindar “apoyo personalizado para fortalecer los vínculos y superar los desafíos relacionales”.
En un contexto terapéutico no se trata de adivinar lo que piensa la otra persona, sino de abrir un espacio de reflexión que ayude a entender qué nos ocurre, cómo interpretamos la situación y qué responsabilidad tenemos en el vínculo
“Puede ser una herramienta de ayuda pero, como todo, depende de cómo se use. Si quieres que té de ideas para hacer una cita romántica, te va a servir. Si quieres que te de tips para comunicarte con asertividad, te los va a dar. Ahora bien, si quieres saber por qué te cuesta a ti comunicarte con tu pareja y cómo solucionarlo en función de tu historia de vida y la de tu relación, no te va a poder ayudar”. Aunque no niega los beneficios que puede llegar a tener el uso de la IA en el entorno de la pareja, Orell se muestra tajante en sus limitaciones.
No sustituye a la terapia
Por encima de las ventajas y beneficios que pueda traer consigo la IA, las expertas recalcan sus inconvenientes. Desde consejos demasiado generales a pérdida de habilidades sociales o generar una sensación de aislamiento; un uso perpetuado de la inteligencia artificial sin supervisión humana experta puede resultar dañino.
Cuando volcamos nuestras conversaciones en ChatGPT, le pedimos opinión sobre el comportamiento de nuestra pareja o le contamos una discusión para que nos aconseje, Orell advierte: el análisis es únicamente de lo que le enviamos, “no de lo que ha ocurrido antes o después, ni del contexto, ni del tono y mil cosas más que se escapan”. La IA se queda con la idea que nosotros le damos, no conoce otras versiones, no sabe si lo que estamos sintiendo parte de “una creencia limitante o creencia irreal”.
“Si generamos el hábito de explorar nuestras emociones a través de la IA”, advierte Cosano, aunque pueda ayudar a naturalizar la expresión emocional, también puede favorecer el aislamiento y derivar en “comportamientos adictivos”, especialmente “en personas que pasan de no haberse abierto nunca a abrirse únicamente con la IA”. Por ello, Orell recuerda que “lo que realmente necesitamos las personas es una guía adaptada a nuestras particularidades”, algo que te ofrece la terapia.
Generar el hábito de explorar nuestras emociones a través de la IA puede favorecer el aislamiento y derivar en comportamientos adictivos, especialmente en personas que pasan de no haberse abierto nunca a abrirse únicamente con la IA
A nivel individual, si constantemente nos ayudamos de ChatGPT para formar nuestras opiniones podemos perder “capacidad de criterio y reflexión propia”, además de generar una “necesidad” de que la IA revise o apruebe lo que pensamos. A nivel de pareja, Orell advierte sobre la “rigidez a la hora de ‘evaluar lo que pasa’, tendiendo más a la polarización de blanco o negro y no ver tanto los grises”. Podemos incluso creer que la IA “es más que suficiente para solucionar lo que pasa en la relación” –siendo esto un obstáculo para acudir a lugares donde sí se puedan conseguir las herramientas que se están buscando–, o, en un caso extremo, “llegar a creer que no hay solución porque la IA nos lo ha dado a entender o quedarnos ‘en el lugar equivocado”.
Y es que otro de los peligros que señalan las expertas es creer que la inteligencia artificial tiene la razón absoluta y la última palabra. Cosano relata que, en sesiones de terapia de pareja, algunos de sus pacientes llegan a justificar pensamientos o decisiones apelando directamente a análisis realizados por ChatGPT. Esto, para la psicóloga, puede conducir al “adoctrinamiento emocional” –que se daría cuando la IA nos dice cómo debemos interpretar una conversación, comentario o comportamiento y lo aceptamos sin cuestionarlo–. Frente a esto, Orell subraya que la utilidad real de estas herramientas debería ser la de acompañar la reflexión, no sustituirla. La tecnología puede servir como punto de partida para pensar, pero no para dictar conclusiones. “Por eso en terapia no damos consejos”, recuerda, “sino que ayudamos a la persona a descubrir sus propias respuestas”, algo que requiere contexto, escucha y una guía adaptada a cada caso.
¿Es seguro contarle a ChatGPT nuestros problemas de pareja?
Para pedir consejo a la IA, Julio suele explicarle con detalle la situación que quiere analizar y, en ocasiones, le envía directamente los mensajes o la conversación completa. A partir de esta información, ChatGPT le ofrece su análisis. Marcos coincide: “A ChatGPT no me he cortado de contarle ni enviarle nada, a lo mejor resumía pero por pereza de escribir”. No son los únicos, en redes sociales muchos usuarios confiesan compartir sus situaciones y conversaciones más personales sin reparo.
Esta falta de contexto que señalan las psicólogas no es el único inconveniente de pedir interpretación sobre nuestras conversaciones o situaciones a modelos de IA. En primer lugar, Elvira Moreno, experta en ciberseguridad del Instituto IMDEA Software, explica que estas herramientas “a día de hoy no son 100% fiables”, son “modelos que se han entrenado hasta cierto punto, pero todos tienen lo que se conoce como ‘alucinaciones”, es decir, pueden inventarse datos, análisis, conclusiones… Un motivo más para usar estas herramientas con cuidado, especialmente cuando se habla de emociones y relaciones.
En cuanto a seguridad y privacidad, Jorge Mayo, desarrollador de software y experto en IA, advierte: “Una vez que compartes tus datos personales, pierdes el control sobre ellos. No sabes dónde se almacenan, para qué se utilizan o quién tiene acceso a ellos... Sin darte cuenta, dejas de tener el control. (...) ¿Dejarías un papel con toda tu información personal tirado en un centro comercial sin preocuparte por quién lo recogería? Seguro que no. Pues dar tus datos a la IA es lo mismo, no tienes idea de quién, cuándo o para qué se usará esa información”. Este riesgo se puede manifestar en un futuro en forma de suplantación de identidad, fraudes financieros, phishing dirigido…
Una vez que compartes tus datos personales, pierdes el control sobre ellos. No sabes dónde se almacenan, para qué se utilizan o quién tiene acceso a ellos... Sin darte cuenta, dejas de tener el control.
Además, Moreno añade que los datos que compartimos “no se van a borrar, o al menos no a corto plazo”; pueden estar almacenados durante años. Algo que hoy en día no nos parece peligroso puede serlo en un futuro. Como experta en ciberseguridad, le sorprende que la inteligencia artificial sea algo “al alcance de todo el mundo”, pero que a la vez esté rodeada de tanto desconocimiento: “Ojo, con todo esto no digo que no haya que usarla; yo la uso, pero lo que hay que hacer es tener cuidado, no dar cierta información catalogada como sensible, como pueden ser los datos de salud, y chequear lo que te da la IA antes de simplemente copiar y pegar”.
¿Cómo usar la IA sin que se convierta en un sustituto de la terapia?
La inteligencia artificial ha llegado para quedarse, y los expertos son conscientes de ello. Es por esto por lo que no abogan por una eliminación, prohibición o demonización de la IA, sino que apuestan por una integración sana en los procesos de terapia de pareja.
Para la psicóloga Orell es imprescindible no perder de vista que ChatGPT “no tiene toda la verdad, no te conoce realmente ni es un/a experto/a en la materia”. “Si te ves preguntándole más a la IA que a ti misma, es una señal de alerta para consumir menos ese recurso e intentar recuperar más tus propias habilidades de reflexión, análisis o apoyo emocional. Y, si realmente hay algo en ti o en tu relación de pareja que sientes que se te escapa de las manos, acude a un profesional”. Coincide Cosano, quien considera primordial establecer una serie de límites para el uso de algoritmos –algo que puedes preguntar a un profesional si ya vas a terapia–: “Por ejemplo, la IA me va a ayudar a entender a mi pareja, y para ello voy a contarle cómo es, hablarle de nosotros, de nuestra relación, de las cosas que me preocupan… pero no voy a subir conversaciones que yo tenga que interpretar porque ese trabajo tengo que hacerlo yo”.
En definitiva, a pesar de la ayuda que puede suponer el uso adecuado de estas herramientas, Cosano no quiere que se olvide que “es el psicólogo quien conoce tus miradas, el que conecta con tu emoción, y eso no lo va a hacer la IA”. “El contacto humano real, que es el que realmente nos ayuda al 100% a todo lo que nos enfrentamos en el día a día, no va a poder imitarlo la IA”.
4