Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
La izquierda presiona para que Pedro Sánchez no dimita
Illa ganaría con holgura y el independentismo perdería la mayoría absoluta
Opinión - Sánchez no puede más, nosotros tampoco. Por Pedro Almodóvar

Computación afectiva, la última frontera de la privacidad: ¿sabrán las máquinas lo que sentimos?

Computación afectiva: ¿hasta qué punto nuestras emociones son privadas?

Lucía El Asri

Observas una pantalla con atención. En un momento concreto, alejas tu mirada: te acabas de distraer. Sonríes. Esa sonrisa es natural. Un aparato está examinando la comisura de tus labios y la expresión de tus ojos. Pareces concentrado. ¿Por qué? Porque fruñes el ceño y se detecta un surco entre tus cejas. Ahora las has levantado: estás sorprendido. ¿Tal vez por el mensaje publicitario que acabas de ver en televisión? Estás enfadado, disgustado, emocionado, escéptico, con sueño... Y ellos lo saben.

Aunque te resulte difícil de creer, no es un humano quien observa, sino una máquina. O muchas. Examinan cada emoción, cada sensación que experimentas. Son capaces de saber cómo te sientes analizando tu reacción física ante un estímulo. Lo hacen mediante cámaras y sensores. Sí, como los que tienes en tu teléfono móvil, tu reloj inteligente, la cámara de tu ordenador o la de tu televisor.

El aparato no solo obtiene esa información, sino que, además, puede descubrir el género de la persona y muy pronto sabrá en qué rango de edad se encuentra. Analiza los datos para que después alguien pueda utilizarlos. No obstante, para que esa información sea realmente útil, es necesario que un grupo de ingenieros “entrenen” a los algoritmos que se encargarán de recogerla. ¿Cómo? Analizando muchos y muy diversos casos: es la única forma de que una máquina llegue a entender una amplia gama de emociones.

Que la máquina y el sentimiento conecten

¿Qué de qué estamos hablando? De un fenómeno que lleva más de veinte años estudiándose y que, hace no mucho, investigadores del MIT (el Instituto Tecnológico de Massachusetts) han bautizado como “computación afectiva”. Es un área de investigación que se encarga de desarrollar sistemas y dispositivos para reconocer, medir e interpretar las emociones humanas, una información que a día de hoy suele ser invisible para los ordenadores. Lo explica a HojaDeRouter.com el español Javier Hernández, investigador del MIT.

Cuidado porque es más que probable que todo lo que te rodea acabe obteniendo información privada sobre tu cuerpo y tus hábitos. ¿La intención? Muchas de las investigaciones están dirigidas al ámbito privado, por lo que tu privacidad no está del todo a salvo. Otras, por suerte, solo quieren ayudarte a gestionar los sentimientos. Todo se resume en la conexión entre máquina y persona por la vía de las emociones.

En la práctica, ¿cómo se hace para que una máquina detecte una emoción? “Hay muchas maneras”, asegura Hernández. Una de ellas es preguntar al usuario de forma directa cómo se siente. También es posible hacerlo observando el lenguaje que utiliza o analizando información fisiológica: desde el ritmo cardiaco hasta el estado de sus pupilas, pasando por las diferentes expresiones faciales y hasta la entonación de la voz.

La información obtenida es cada vez más refinada, puesto que las máquinas están preparadas para manejar información teniendo en cuenta, incluso, condiciones de iluminación, diversidad de rostros, etnias, colores…

El manjar de las empresas

Medir y entender las emociones de un rostro va a ser uno de los canales “más ricos para obtener esa información”, explica a este medio Gabi Zijderveld, quien también investiga este ámbito de la mano de Affdex, un 'software' de codificación facial. Lo hace para una empresa, Affectiva - que también salió del Media Lab del MIT -, encargada de analizar emociones para extraer datos de cara a estudios de mercado y a la elaboración de informes para medios, agencias y otras compañías.

Es información importante para las empresas, que se han dado cuenta de que las emociones de las personas que están utilizando sus productos tienen que ser analizadas para luego aplicarlas a sus decisiones. “Así, en vez de preguntarles si les gusta un anuncio o no, simplemente pueden saber la respuesta dependiendo de la reacción directa de la persona”, explica Hernández.

Zijderveld lo tiene claro: “las emociones influyen en todos los aspectos de nuestras vidas y son fundamentales a la hora de tomar decisiones, desde lo que vamos a desayunar hasta con quién nos casaremos o dónde quieremos comprar una casa”. Y, por supuesto, los vendedores saben el importante papel que juegan los sentimientos en la fidelidad hacia una marca y la decisión de compra.

Emotient es otra de las empresas encargadas de recoger y analizar este tipo de información. Vikki Herrera, una de las integrantes del equipo, asegura a este medio que las marcas de tecnología - sin dar nombres - han sido las primeras en adoptar su 'software' como una forma de investigar el mercado y la experiencia de usuario. Y reconoce que “no es ningún secreto que las personas felices compran más”. Aunque dicen tomarse la privacidad en serio, y afirman que venden la información a las empresas de forma anónima, queda por ver si eso tranquiliza realmente al usuario.

Razones tiene para estar preocupado. A diferencia de las tradicionales encuestas, en las que buena parte de los consultados se mostraban reacios a opinar, o simplemente no estaban dispuestos posicionarse; con la computación afectiva, la participación no tiene por qué ser voluntaria.

¿Y eso es ético? Desde Affectiva, afirman ser conscientes de que manejan datos muy importantes, así que dicen no recolectarlos sin haber solicitado el consentimiento explícito del usuario. Es decir, en muchos de los casos, los consumidores saben que una máquina o aplicación está recolectando información privada, pero no son conscientes de ello (como cuando aceptamos los términos y condiciones al descargarnos en nuestro teléfono cualquier aplicación).

Psicología para ayudar al usuario

Más allá de cuestiones de marketing y venta, la empresa Sensoree diseña aparatos terapéuticos que monitorizan el cuerpo con sensores y pantallas y proporcionan información visual a los demás en tiempo real. Entre otras cosas, han creado una camiseta que analiza las reacciones fisiológicas de la persona y se ilumina con colores diferentes dependiendo de su estado anímico. “Es algo que nosotros definimos como ‘extimidad’, es decir, una forma de externalizar la intimidad, de mostrar el estado interno en el mundo exterior”, explican a este medio.

“Cuando lo probamos, vimos que quienes lo utilizaban sentían que podía hablar en su nombre”. De hecho, su objetivo no es comercial. Sensoree no pretende que una empresa utilice la información para sacar un beneficio. En este caso, la herramienta está pensada sobre todo para las personas con autismo, para las que no suele ser sencillo comunicarse de forma verbal y para las que un accesorio de este tipo puede ser muy valioso.

A algo similar se dedican en el MIT. Concretamente, Javier Hernández estudia todo lo relacionado con el estrés y la forma en que una máquina podría apoyar a un usuario que lo padece. Ayudarle a entender sus propias emociones y a cambiar aquello que va mal. Así, por ejemplo, ha estudiado profundamente cómo debe actuar un ordenador cuando sabe que el usuario está estresado. Entre otras cosas, el aparato podría entender que, si tiene prevista una actualización, debería dejarla para más tarde y así no molestar a la persona que lo está utilizando.

En su grupo de investigación también desarrollaron hace un tiempo unas gafas – similares a las Google Glass – que tienen una cámara y permiten reconocer las expresiones faciales de otras personas, simplificándolas mediante un semáforo con dos luces: una roja y una verde. Si el semáforo se pone en rojo, significa que la persona no está interesada en lo que le estás contando; si se pone en verde, sí lo está.

También trabajaron con un coche que les permitía analizar el estrés del conductor en tiempo real. El coche detectaba la situación del piloto desde el mismo momento en que agarraba el manillar de la puerta, se sentaba, tocaba el GPS o hacía una llamada de voz. Así, por ejemplo, si el conductor estaba muy estresado, el color de la pintura del coche cambiaba. “Si ves que el conductor de delante de ti lleva una L, y el color del vehículo cambia a un rojo intenso, seguramente quieras mantener una prudente distancia con él”, explica Hernández.

¿Un futuro real?

Zijderveld dice que el futuro pasa porque millones de dispositivos conectados entre sí, y conectados a nosotros mismos y a nuestros hogares, controlen cada emoción que experimentamos. A medida que nuestros televisores, neveras, termostatos, espejos, coches, robots de asistencia y hasta nuestras casas se vuelven más y más inteligentes, “no vamos a interactuar con ellos por medio de texto”.

Javier Hernández cree que debe haber límites, porque podríamos llegar un punto en que las personas no tuvieran que preocuparse por entender o leer los sentimientos ajenos, y acabaran perdiendo su inteligencia emocional. Por ello recuerda que la máquina no debe utilizarse para reemplazar al humano, sino para ayudarle y asistirle.

El investigador no quiere ver un futuro en el que cualquier aparato pueda medir en cualquier momento cómo se encuentra una persona: eso vulneraría sin duda su derecho a la privacidad y le llevaría a un estado permanente de conexión y monitorización. Las consecuencias negativas podrían ser inasumibles.

---------------------

Las imágenes utilizadas en este artículo han sido cedidas a HojaDeRouter.com por Affectiva, Sensoree y Javier Hernández (Instituto Tecnológico de Massachusetts)

Etiquetas
stats