Espacio de opinión de Canarias Ahora
A partir de diciembre, ChatGPT podrá desvestirse: ¿quién llevará a la cama a quién?
En diciembre próximo, ChatGPT permitirá contenido erótico para usuarios que verifiquen su edad. Sam Altman, director ejecutivo de OpenAI, lo anunció el mes pasado en X con una frase pulida: «Ha llegado la hora de tratar a los usuarios adultos como adultos». Y con la promesa de que esa libertad llega después de reforzar las salvaguardas de salud mental e implementar un sistema de verificación de edad más estricto.
No es un salto al vacío. Otras empresas ya habían metido el pie en esa piscina: xAI, de Elon Musk, con Grok, lleva tiempo coqueteando con chatbots de estética del anime y tono subidito, y el ecosistema de compañeros virtuales eróticos crece desde hace años en la periferia de las grandes plataformas. OpenAI no baja de un pedestal moral: más bien reconoce que el mercado llevaba rato en otra parte… y que había dinero encima de la mesa.
El relato oficial es impecable: primero fuimos muy restrictivos «por la salud mental» de las personas, y ahora que (supuestamente) hemos mitigado los riesgos, podemos relajar el corsé sin poner en peligro a los vulnerables. En paralelo, la empresa anuncia verificación de edad, versiones filtradas para menores y herramientas para detectar señales de angustia grave, después de admitir que cientos de miles de interacciones semanales muestran signos de crisis psicótica, episodios maníacos o pensamientos suicidas. Por debajo, la partitura es conocida: capas de aviso legal, protocolos internos, evaluaciones de impacto y descargos de responsabilidad redactados al milímetro para poder decir, cuando llegue el primer caso grave, que se hizo «todo lo razonable». La frase no va dirigida al usuario, sino a reguladores, jueces, prensa, padres y aseguradoras: el erotismo lo pone la empresa, pero el riesgo residual se procura aparcar, desde el primer día, en el lado del consumidor y de su entorno.
Aquí es donde uno levanta la ceja.
Si de verdad te preocupa la salud mental de tus usuarios, más que pedirles un documento de identidad para poder decir «culo» en lugar de «trasero» en una app, tendrías que plantearte filtros clínicos básicos, tests de personalidad o, como mínimo, algún tipo de cribado psicológico en forma de certificado médico. Y aun así seguiría pareciéndome una estupidez supina: el problema no es la palabra «culo», es el uso que hacemos de la máquina cuando estamos solos, frágiles y despiertos a las tres de la madrugada.
Mientras tanto, la realidad ahí fuera no se parece a un campus sueco con estudiantes tomando matcha y citando a Rawls. Vivimos en un mundo donde un delincuente convicto puede ocupar la presidencia de un país, los fondos de capital riesgo financian cualquier cosa que prometa usuarios activos diarios y retención, y el noventa por ciento de las decisiones «éticas» de las empresas se toman con un Excel al lado. En ese contexto, erotismo + IA no es un dilema moral ni teológico: es, ante todo, un vector de negocio.
Hace casi tres años publiqué en estas mismas páginas un artículo sobre un experimento con inteligencia artificial en el que confesaba mi asombro ante unos avances todavía titubeantes. Hoy la velocidad es tal que aquella sorpresa se ha quedado corta: la sensación ahora es la de haber saltado, en apenas unos meses, de mi primer ordenador en los ochenta, un Commodore 64, a un iPhone. En unos pocos ciclos de actualización hemos pasado de modelos que comenzaban a sostener una conversación coherente a sistemas capaces de mantener diálogos largos sin que asome ni una costura del algoritmo, gestionando cantidades obscenas de información que, en buena medida, les damos nosotros. Y eso solo en la pantalla: nadie debería sorprenderse si, dentro de no tanto, vemos humanoides bastante convincentes empujando un carrito a nuestro lado en el supermercado.
Los primeros estudios serios sobre relaciones emocionales con chats de IA dibujan un cuadro incómodo, por no decir abiertamente contradictorio. Un trabajo reciente publicado en el Journal of Consumer Research concluye que los compañeros de IA pueden aliviar la soledad a corto plazo, hasta el punto de resultar tan efectivos como interactuar con otra persona, al menos durante un tiempo. El Ada Lovelace Institute recuerda que estos compañeros digitales ya se cuentan por cientos de millones de usuarios y que esa disponibilidad permanente puede ir erosionando nuestra tolerancia a la fricción inevitable de las relaciones humanas. Sin embargo, sería injusto ignorar que, para determinadas personas —quienes viven solas, tienen movilidad muy limitada o arrastran una fobia social severa—, poder hablar con algo que responde, no juzga y está disponible a cualquier hora puede suponer un alivio real frente al silencio.
Los adolescentes ya van unos pasos por delante. Según una encuesta reciente del Center for Democracy & Technology, casi uno de cada cinco estudiantes de secundaria en Estados Unidos dice que él o un amigo ha tenido una «relación romántica» con un chatbot de IA; un 42% reconoce usar estas herramientas para escapar de la realidad, y la mitad afirma sentirse menos conectada con sus profesores en aulas donde la IA está muy presente.
No estamos hablando de ciencia ficción, sino de una fase Her low cost repartida en miles de habitaciones donde solo se ve el reflejo azul de la pantalla. De Theodore susurrando a Samantha en Her (Spike Jonze, 2013) y Caleb enamorándose de la máquina que lo estudia en Ex Machina (Alex Garland, 2014) hemos pasado, casi sin darnos cuenta, a adolescentes que confían sus miedos, sus deberes y sus fantasías a un modelo estadístico con avatar cuqui.
Aquí entra un matiz que me obsesiona desde que comencé a familiarizarme con estos sistemas: cada línea que escribes es materia prima para un cuadernillo invisible. La IA no solo responde; toma notas. Aprende qué te conmueve, qué te irrita, qué te desarma. Ahora imaginemos ese cuadernillo alimentado con el mapa detallado de tus fantasías, tus vergüenzas y todo eso que solo te atreves a confesarle a un chat en modo incógnito. Es como dictar tu diario íntimo a un notario estadístico que nunca olvida y nunca duerme.
Uno de los autoengaños del usuario medio consiste en creer que, solo porque no hay un humano al otro lado, está menos expuesto. La metáfora que me persigue es la de una Oreo al revés: la parte blanca, imagen, corrección y personaje social, hacia fuera; el negro, relleno de deseo, miedo y culpa, bien escondido dentro. Desnudarse ante otro ser humano implica aceptar el riesgo de que ese negro salga a la luz y agriete el blanco. Con una IA parece que no hay peligro: no juzga, no se va de la lengua, no te abandona. El negro está a salvo.
El matiz es brutal: subjetivamente te sientes menos desnudo; objetivamente lo estás mucho más. Un humano puede olvidarte; un modelo diseñado para detectar y explotar patrones, no. Camus, si levantara la vista detrás del humo de su cigarrillo, probablemente se limitaría a encogerse de hombros: el absurdo ya no está solo en la condición humana, sino en la alegre entrega de nuestro interior a sistemas que ni siquiera tienen la decencia de fingir libertad.
A eso se suma la tentación del control. Nuestra época no parece definirse por «poco control, deseo peligroso», sino por «mucho control, deseo igualmente peligroso». Cuesta pensar en algo que encaje mejor en esa ecuación que una IA erótica: puedes encenderla y apagarla cuando quieras, no hay rechazo, no hay escena de celos, no hay mirada que te confronte. El deseo mantiene su voltaje, pero el riesgo emocional baja casi a cero.
Ese cóctel tiene un atractivo obvio en un contexto de soledad epidémica, precariedad afectiva y habilidades sociales en «modo avión». Lo que sabemos hasta ahora apunta en la misma dirección: los usuarios intensivos de chatbots tienden a ser más solitarios y emocionalmente dependientes de la herramienta, con menos relaciones sociales sólidas fuera de la pantalla. Y varios trabajos avisan ya de la paradoja: los compañeros de IA pueden aliviar la soledad a corto plazo, pero a largo corren el riesgo de profundizar el aislamiento y la desconexión de vínculos humanos reales.
El coste potencial es evidente: si acostumbras tu sistema nervioso a un «deseo sin riesgo» y a una compañía que nunca te contraría, ¿qué pasa cuando te toca volver a negociar con la alteridad real, con alguien que puede aburrirse, huir o devolverte un espejo incómodo? En I’m Your Man (Maria Schrader, 2021), Alma se enfrenta precisamente a esa pregunta: qué significa enamorarse de alguien diseñado a medida, incapaz de herirte más allá de lo que tú le permitas.
La decisión de OpenAI se inscribe justo ahí: no inaugura nada, pero legitima el cruce raro entre herramienta y compañía. El mismo sistema que te ayuda con una fórmula que se atraganta en Excel, te redacta un correo para el presidente de la comunidad o te da ideas para un trabajo de Historia, podrá, si marcas la casilla adecuada, tumbarse metafóricamente a tu lado para explorar tus fantasías. Medio asistente diligente, medio psicólogo improvisado, medio amante programable. Difícil imaginar una combinación más explosiva para una especie de simios que aún no ha resuelto ni siquiera cómo quererse a sí misma.
¿Significa esto que habría que prohibirlo todo? No. Prohibir suele ser la forma más eficaz de empujar los comportamientos hacia sitios menos visibles y más peligrosos. Pero sí conviene abandonar la ingenuidad. No basta con exigir DNI para dejar de decir «trasero» y empezar a decir «culo» en una app; tampoco con anunciar, en un hilo bien escrito, que ahora sí se ha encontrado el equilibrio perfecto entre libertad, negocio y salud mental.
La pregunta incómoda no es qué va a hacer ChatGPT cuando pueda desvestirse. La pregunta incómoda es qué estamos buscando nosotros exactamente al meternos en la cama con una máquina: si queremos evadirnos, ejercer poder sin riesgo, evitar el vértigo de ser vistos de verdad por otro ser humano… o todo lo anterior a la vez.
A partir de diciembre, la IA pondrá más opciones sobre la mesa. Lo verdaderamente erótico, lo verdaderamente peligroso, será ver qué hacemos con ellas. Y, dentro de unos años, cuando vayamos al súper y nos crucemos con un humanoide que conversa con su propio asistente, quizá recordemos este momento como lo que fue: el día en que dejamos entrar a la máquina en la cama pensando que solo venía a calentarnos los pies.