La portada de mañana
Acceder
Sánchez impulsa una regeneración que incluye una reforma del Poder Judicial
La fumata blanca de Sánchez: cinco días de aislamiento, pánico y disculpas al PSOE
Opinión - ¿Y ahora qué? Por Marco Schwartz

Buenos días, ChatGPT: ¿por qué somos amables con la IA?

Joaquin Phoenix en 'Her', Spike Jonze (2013).

Carmen López

5

En 2013, el director de cine Spike Jonze estrenó su película Her. Su protagonista es un hombre en pleno proceso de divorcio que se enamora de una inteligencia artificial con la voz de Scarlett Johansson. Aunque por aquel entonces los asistentes virtuales ya formaban parte de la cotidianidad, la intimidad con máquinas con rasgos humanos aún tenía tintes de ciencia ficción, como el propio filme. El tiempo ha demostrado que el cineasta –que, en realidad, le estaba enviando un mensaje fílmico a su exmujer Sofia Coppola– no andaba tan desencaminado a la hora de plasmar una relación así. No es extraño que una persona conceda cualidades humanas a aquellos elementos con los que interactúa, como sus mascotas, sus plantas o algunas herramientas tecnológicas como Alexa, Siri o en los últimos meses ChatGPT, el nuevo invitado a la fiesta.

Este último 'cacharro' es un chatbot de inteligencia artificial entrenado para mantener conversaciones de manera más o menos fluida. El usuario puede hacerle una pregunta sobre cualquier tema y el programa le contesta según la información a la que sea capaz de acceder. Puede ser de ayuda para articular textos más o menos elaborados o recopilar datos, entre otras funciones, y muchas personas lo utilizan ya como una herramienta más de trabajo. Pero podría decirse que sus usuarios se dividen en dos grupos: los que le dan los buenos días y los que directamente le piden que haga algo. Es decir, los que antropomorfizan a la máquina y los que no.

Laura F. (39 años) pertenece al primer colectivo: “Yo abro ChatGPT y le digo 'buenos días', 'hola' o 'buenas tardes' y él me dice, '¿en qué puedo ayudarte?”, explica a elDiario.es. Después de ese intercambio inicial, se presentan tres escenarios: “a) Me resuelve la duda y entonces yo le digo ”muchas gracias“. b) No la sabe y respondo 'ok'. c) Lo dice mal y le corrijo. Por ejemplo: 'no, pero esa Mérida está en México”. Aunque ella es consciente de que es una IA, su sensación es la de tratar con un servicio de atención al cliente tradicional. “Alguna vez pensé que era absurdo dar los buenos días pero luego pensé: ¿y si hay realmente alguien detrás?”, sostiene.

El parecido de ChatGPT con los chats de ayuda al usuario gestionados por trabajadores que incluyen algunas webs es lo que lleva a Susana M. (43 años) a ser amable con esta IA. Además, para ella también es una cuestión de educación. “Siempre digo hola y adiós, ¡incluso a mis mascotas!”, comenta. Ha reflexionado sobre si tiene sentido comportarse de esta manera o significa caer en una antropomorfización excesiva de la tecnología pero ha concluido que no es así. “Ya sé perfectamente que no estoy hablando con un ser humano y tampoco creo eso de que las máquinas dominarán el mundo y por eso soy amable con ellas. No le doy más importancia”, dice. Isabel B. (33 años) está en sintonía con Susana y considera que “son nuevos tiempos”. A veces piensa que es “estúpido” ser amable con una máquina pero ha llegado a la conclusión de que más bien “es humano y quiero que siga siendo así”, dice.

Sé perfectamente que no estoy hablando con un ser humano y tampoco creo eso de que las máquinas dominarán el mundo y por eso soy amable con ellas. No le doy más importancia

Susana M. 43 años

Ana J. (34 años) trabaja precisamente en atención al público, lo que hace que la buena disposición le salga de manera instintiva. “Supongo que ya tengo automatizada la táctica de que si eres amable la gente suele responder con lo mismo”, comenta. Nunca le había dado muchas vueltas a su comportamiento, hasta que hace poco le enseñó a un amigo cómo usa ChatGPT para trabajar y repasó sus conversaciones. “Suelo saludarle cuando empiezo a pedirle cosas rollo 'hola amigo chat, puedes ayudarme a…' y siempre se lo agradezco como 'gracias eres el mejor”, afirma, entre risas, por mensaje de texto [“jajajajaja”].

Para Adrián R. (47 años), que también es cortés con la IA, el mundo se ha “virtualizado” y los cuerpos han desaparecido en muchas de las relaciones cotidianas con otros seres humanos. “Hay gente con la que interactúas a diario sin haber visto nunca su cara ni oído su voz (las redes sociales son el más claro ejemplo), pero esto está empezando a pasar también con personas conocidas”, dice. Él mismo se escribe por WhatsApp con gente a la que hace mucho tiempo que no ve y a la que posiblemente no verá más. “Aunque parezcan conversaciones, en realidad se trata de un intercambio de bits porque no queda casi nada humano ahí: no nos vemos, no nos tocamos ni nos olemos, no oímos nuestras voces. Nada que una buena IA no pudiera sustituir”, afirma. Por eso, la tesis de la película Her no le parece para nada descabellada. “¿Existe la gente que conocimos y nunca volveremos a ver? Pues sí, pero sobre todo en nuestro cerebro, igual que la IA. La gente que habla con Dios lo hace con confianza y respeto (me parece) y en realidad no sabemos si existe y si existe, desde luego no responde (la IA sí que lo hace)”, comenta.

Hay gente con la que interactúas a diario sin haber visto nunca su cara ni oído su voz (las redes sociales son el más claro ejemplo), pero esto está empezando a pasar también con personas conocidas

Adrián R. 47 años

Isabel C. (39 años) trabaja en el ámbito de la comunicación y utiliza mucho ChatGPT para sus labores. Siempre se dirige al software de forma amable, en parte por hábito y en parte porque le ayuda a “hacer las cosas mejor”, comenta. Además de ser redactora y haber trabajado en proyectos relacionados con la usabilidad, también tiene formación en diseño de interfaces de voz. “Realmente este comportamiento no es desinteresado, porque me salga así o porque esté antropomorfizando a la máquina dándole forma de persona en mi cabeza, sino porque me he dado cuenta que funciona mejor”, declara. Los asistentes virtuales están entrenados con la forma en la que habla un ser humano, así que tal y como lo ve Isabel: “Las personas no nos comunicamos de una forma seca o aséptica, entonces creo que es mucho más fácil también que nos entendamos con las máquinas y hablamos como le hablaríamos a una persona normal”.

Su tabaco, gracias

El escritor y profesor de Innovación y Tecnología en IE Business School Enrique Dans publicó en su web un artículo acerca de este tema titulado El problema de antropomorfizar los algoritmos. Su perspectiva no es psicológica o antropológica sino tecnológica y desmiente la idea de que si se habla con amabilidad a la máquina esta responderá mejor. De hecho, su planteamiento es el opuesto. “Muchas de las personas que han comenzado a utilizar algoritmos generativos como ChatGPT de manera habitual tienden a una antropomorfización de la tecnología, a tratarla como si fuera una persona a la que se hacen peticiones”, afirma en su texto. Pero para obtener los resultados óptimos de su trabajo, hay que tener en cuenta de que se trata de “un algoritmo que recombina estadísticamente textos y extrae información de ellos, no una persona. Los protocolos y normas de educación no aplican, el tratarlo como si fuera un asistente humano o un compañero de trabajo no tiene sentido, y en su lugar, lo que debemos hacer es tratar de definir lo mejor posible lo que deseamos, de forma precisa, clara e inequívoca”, sostiene. Es decir, ChatGPT no necesita cordialidad sino concreción.

Tratarlo como si fuera un asistente humano o un compañero de trabajo no tiene sentido y, en su lugar, lo que debemos hacer es tratar de definir lo mejor posible lo que deseamos, de forma precisa, clara e inequívoca

Enrique Dans escritor y profesor de Innovación y Tecnología en IE Business School

Para Ramón López de Màntaras, uno de los investigadores pioneros en IA en España y antiguo director del Instituto de Investigación en Inteligencia Artificial (IIIA-CSIC), la antropomoformización de las máquinas es algo común desde hace mucho tiempo. “Hace muchos años había aquella cosa que llaman los tamagotchi, que se decía que era para niños pero es igual, porque es una ilusión mental que nos hacemos. Es un sesgo cognitivo que tenemos las personas. La percepción de la conciencia y la realidad de la conciencia están mal alineadas”, sostiene. “En Japón, que son sintoístas y animistas, creen que los objetos, incluso las piedras, tienen alma. O sea que la antropomorfización de la IA no es algo tan raro cuando analizas lo que ocurre en otras culturas”, dice.

El hecho de que se utilice la palabra 'inteligencia' para denominar a estos programas hace que la inclinación a asignarles cualidades propias de los humanos se agudice. El término tiene mucha carga y predispone al usuario a pensar que está tratando con una persona real. “No es realmente inteligencia, es una etiqueta que le hemos dado a un software, a una informática avanzada. Si en la Conferencia de Dartmouth de 1956 John McCarthy hubiese dicho Advanced Computer Science pues posiblemente nos hubiéramos evitado en buena parte esta tendencia a antropomorfizar que tenemos hacia la inteligencia artificial”. De todas formas, no solo es ChatGPT o Siri quienes hablan al usuario, sino que muchas de las máquinas, incluso las que pronto quedarán obsoletas como las expendedoras de tabaco, lo hacen. “Estamos rodeados. Y los culpables somos nosotros, que estamos diseñando cosas para que nos creamos que son como personas”, sostiene el experto.

Si en la Conferencia de Dartmouth (1956) John McCarthy hubiese dicho Advanced Computer Science [en vez de usar el término inteligencia] posiblemente nos hubiéramos evitado en buena parte esta tendencia a antropomorfizar la inteligencia artificial

Ramón López de Màntaras investigador pionero en IA en España y antiguo director del IIIA-CSIC

Ese efecto de ilusión mental que generan muchas IAs puede ser peligroso ya que si las personas creen lo que están viendo se vuelven fácilmente manipulables. “Se puede falsificar cualquier realidad, se ha visto con imágenes o vídeos que no son reales pero tendemos a creer que sí por ese sesgo que tenemos”, dice López de Màntaras. “Eso tiene implicaciones muy serias a nivel de la sociedad, por eso muchos pedimos que hay que regularlo y que sea obligatorio que nos avisen de que esa imagen o ese vídeo ha sido creado por una inteligencia artificial, que lo que vemos ahí no es real”, declara.

Macarena Pérez Bullemore, psicóloga especialista en psicología clínica, explica que desde el campo de la salud mental se estudia desde hace una década esta predisposición de las personas a la antropomorfización de las máquinas. En su opinión, el propio diseño de esa tecnología está pensado para que el usuario tenga la sensación de estar tratando con otro ser humano, sobre todo cuando entra en juego la capacidad para conversar. “Los elementos de comunicación, interacción y respuesta inmediata son claves en estos comportamientos y en esta atribución de cualidades humanas a la herramienta”, explica. Sin embargo, para que funcione las máquinas no pueden adoptar un aspecto demasiado humano porque puede llegar a provocar rechazo. “Es lo que denominamos el Uncanny Valley Effect o el 'efecto del valle inquietante' que significa que los objetos robóticos o humanoides provocan una respuesta de inquietud o rechazo si tienen una apariencia casi humana o demasiado humana porque los reconocemos como familiares pero al mismo tiempo los percibimos como algo extraño”.

Hay estudios hechos en Japón con robots utilizados para el cuidado de personas mayores que confirman que establecen una relación con ellos y que no necesariamente tiene que ser negativa si se utilizan como complemento a la atención humana

Macarena Pérez Bullemore psicóloga especialista en psicología clínica

¿Es la soledad no deseada un factor determinante a la hora de desarrollar una dependencia afectiva hacia una IA? Ramón López de Màntaras considera que quizá las personas que tengan un problema de este tipo “sean más propensas a humanizar este software” pero no únicamente. Pérez Bullemore afirma que, en situaciones extremas, el usuario puede llegar a olvidar que la herramienta no es un ser humano y vivir una realidad distorsionada. Sin embargo, también es posible que la IA pueda funcionar de forma positiva a la hora de paliar el aislamiento. “Hay estudios muy interesantes hechos en Japón con robots utilizados para el cuidado de personas mayores que vienen a confirmar que establecen una relación con ellos y que no necesariamente tiene que ser negativa si se utilizan como complemento a la atención humana ya que pueden cumplir funciones de estimulación y acompañamiento”, comenta Pérez Bullemore. Si se tiene en cuenta el aumento de la longevidad y de los hogares unipersonales es posible que esa tecnología aplicada a los cuidados sea cada vez más necesaria. “Estamos atentos a qué efectos tiene su uso. Y entiendo que como sociedad necesitamos hacer una reflexión sobre cuánta y qué tipo de influencia queremos que tengan estas herramientas en nuestras vidas”, sostiene.

Etiquetas
stats