Era un secreto a voces en el sector, aunque no por anticipado deja de ser un cambio potencialmente trascendental para el futuro de los servicios de inteligencia artificial. OpenAI, desarrolladora de ChatGPT, ha anunciado que su popular herramienta incluirá anuncios próximamente y ha publicado las directrices en las que se basará esta publicidad. Afectará tanto al modelo gratuito como a la suscripción “Go”, que en España cuesta 9,99 euros al mes. Las pruebas comenzarán “en las próximas semanas” en Estados Unidos.
“Al principio, probaremos los anuncios al final de las respuestas en ChatGPT, cuando haya un producto o servicio patrocinado relevante según la conversación. Los anuncios estarán claramente etiquetados y separados de las respuestas orgánicas”, ha explicado la empresa en un comunicado.
OpenAI, que en octubre reestructuró su matriz para dejar de depender de la organización sin ánimo de lucro que la fundó, asegura que los patrocinadores no influirán en las respuestas de la inteligencia artificial. “Puedes confiar en que las respuestas de ChatGPT se basan en lo que es objetivamente útil y nunca en la publicidad”, afirma en su comunicado.
Esta posible dependencia era el motivo por el que Sam Altman, cofundador y director ejecutivo de OpenAI, siempre se mostró contrario a que la publicidad fuera un modelo de negocio viable para los servicios de inteligencia artificial. “La combinación de anuncios con IA me resulta especialmente inquietante”, afirmaba en mayo de 2024, asegurando que la publicidad sería “el último recurso” para ChatGPT. “Odio los anuncios”, insistía.
El peligro de la manipulación
El uso de los datos personales para orientar el comportamiento o mantener la atención de los usuarios de redes sociales ha sido uno de los campos más estudiados de la sociedad digital en los últimos años. Un área en la que los especialistas temen que ahora haya que incluir también a la IA, el mismo motivo por el que Altman la definía como “inquietante”.
“Como expertos en seguridad y científicos de datos, vemos estos ejemplos como presagios de un futuro en el que las empresas de IA obtengan beneficios manipulando el comportamiento de sus usuarios en favor de anunciantes e inversores”, destacan en un informe publicado en The Conversation Bruce Schneier y Nathan Sanders, de la Universidad de Harvard.
“También es un recordatorio de que el tiempo para reconducir el desarrollo de la IA, alejándolo de la explotación privada y orientándolo al beneficio público, se agota rápidamente”, añaden.
Quizá consciente de las preocupaciones que generaría sobre la posibilidad de manipulación, OpenAI destaca en su comunicado que no llevarán a cabo este tipo de prácticas. “No optimizamos el tiempo que pasas en ChatGPT. Priorizamos la confianza del usuario y la experiencia de uso por encima de los ingresos”, afirman.
Los científicos, no obstante, avisan que se debe tener en cuenta que el potencial de la IA en este sentido es mucho mayor que el de las plataformas tradicionales. “Tiene el potencial de influir en tu forma de pensar, en tus patrones de gasto e incluso en tus creencias personales de maneras mucho más sutiles”, resumen Schneier y Sanders. Un chatbot no se limita a “filtrar contenido estático”, sino que puede abordar “preguntas, preocupaciones e ideas específicas”, por lo que “su potencial de influencia es mucho mayor”.
“El problema no es la tecnología en sí”, remarcan los autores, sino “las prioridades de las corporaciones que poseen estas plataformas y en cuyo beneficio operan. Hay que ser conscientes de que no tienes control sobre qué datos se introducen en la IA, con quién se comparten ni cómo se utilizan. Conviene tenerlo presente cuando conectas dispositivos y servicios a plataformas de IA, les haces preguntas o consideras comprar o hacer las cosas que te sugieren”, concluyen.
Dudas de privacidad
“También es importante que sepas que tus datos y conversaciones están protegidos y no se venden a los anunciantes”, reza el comunicado de OpenAI. La privacidad y la protección de datos es el principal ángulo de preocupación de los expertos sobre el anuncio, puesto que los chats de IA tienen un potencial mucho mayor de extracción de datos que las redes sociales.
“Observando lo que están haciendo, todo apunta a que de lo que estamos hablando aquí es de reproducir todo lo que hicimos mal con las redes sociales”, avisaba Enrique Dans, profesor de Innovación y Tecnología en IE Business School en un reportaje de elDiario.es sobre la posibilidad de que ChatGPT incluyera publicidad: “¿Qué son las redes sociales en realidad? Son máquinas de capturar datos para luego venderlos al mejor postor. ¿Qué pasa si en lugar de simplemente dar me gusta o poner un comentario, lo que haces es estar todo el día hablando con esa máquina? Pues que le das todos los datos del mundo”.
En los últimos meses, OpenAI ya había llevado a cabo movimientos que parecían destinados a aumentar la cantidad de datos que extrae de sus usuarios. El último, de este enero, fue la activación de una herramienta para dar consejos de salud a través de ChatGPT. La compañía anima a los clientes a compartir con ella sus documentos médicos así como los datos recogidos por otras apps de salud, como las propias de relojes electrónicos.
Sobre esta cuestión, OpenAI afirma que este tipo de información sensible quedará fuera del análisis publicitario en un primer momento. “Durante la prueba, no mostraremos anuncios en cuentas donde el usuario nos indique que no los desea o cuando estimemos que tiene menos de 18 años, y evitaremos que aparezcan cerca de temas sensibles o regulados, como la salud, la salud mental o la política”, expone.
Las agencias de protección de datos de la Unión Europea llevan más de dos años y medio investigando el uso de datos personales por parte de ChatGPT. En un expediente conjunto lanzado en abril de 2023, los reguladores están analizando si la absorción de información pública para su entrenamiento, entre la que había datos personales, así como el tratamiento de las conversaciones, se ajusta a las leyes comunitarias.
1,2 billones comprometidos
La decisión llega en un momento crítico del desarrollo. En el último año, OpenAI se ha lanzado a la construcción de centros de datos hiperescala y la contratación a terceros de una gran potencia de cómputo para poder seguir mejorando ChatGPT. Sus compromisos de gasto se han elevado hasta los 1,2 billones de euros (1,4 trillones de dólares en la medida anglosajona) hasta 2033. Un plan que contrasta con el hecho de que la empresa no ha tenido nunca beneficios y no espera contar con ellos hasta, al menos, 2030.
La inmensa hipoteca que cae sobre OpenAI llevó a su directiva financiera a afirmar que el Gobierno de EEUU debería actuar como “respaldo” de su deuda, ya que esa capacidad de cómputo se podría considerar una infraestructura crítica del país en su carrera con China por dominar la IA. Las declaraciones provocaron un escándalo, con políticos tanto republicanos como demócratas criticando que la compañía privada intentara dictar la política de gasto nacional, comprometiendo cifras similares al PIB de muchos países, y luego pidiera la seguridad federal para mitigar el riesgo para sus inversores.
La polémica obligó a Altman a corregir a su directora financiera y asegurar que OpenAI “debería quebrar” si no puede asumir sus deudas. Con todo, la situación evidencia el momento de incertidumbre que atraviesa la compañía, especialmente en lo referente a su negocio corporativo.
Actualmente, existen dudas de que la inteligencia artificial generativa actual pueda llevar a cabo automatizaciones amplias del empleo. El premio Nobel de Economía de 2024, Daron Acemoglu, estima que menos del 5% de las tareas laborales de los países desarrollados se verán afectadas por esta tecnología. Los primeros estudios sobre proyectos que la han desplegado en empresas afirman que más del 90% no están ofreciendo retornos claros de la inversión.