Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
El ataque limitado de Israel a Irán rebaja el temor a una guerra total en Oriente Medio
El voto en Euskadi, municipio a municipio, desde 1980
Opinión - Vivir sobre un polvorín. Por Rosa María Artal

OpenAI subcontrató a empleados keniatas por un euro la hora para testar la inteligencia artificial ChatGPT

kevin ku w7ZyuGYNpRQ unsplash

elDiario.es

3

La inteligencia artificial ChatGPT ha revolucionado la conversación internacional sobre este tipo de tecnologías. Su capacidad para redactar cualquier tipo de texto a petición del usuario y contestar preguntas sobre casi cualquier aspecto del conocimiento humano ha servido de demostración de las capacidades de la inteligencia artificial para un público global. Sin embargo, también ha impulsado el escrutinio sobre cómo funcionan este tipo de sistemas y cómo se entrenan. Una investigación de la revista Time ha revelado este martes que ChatGPT utilizó para ese proceso a trabajadores keniatas que cobran un euro la hora.

Estos empleados pertenecen a la empresa Sama, con oficinas en Silicon Valley y delegaciones en Kenia, Uganda y la India. OpenAI, la fundación que ha desarrollado ChatGPT, le encargó la revisión de los textos que escribía la inteligencia artificial para enseñarle a hacerlos “menos tóxicos”. Sama puso a trabajar en esta misión a sus empleados contratados en Kenia, que cobran desde 1,32 a 2 dólares (1,2 a 1,85 euros) según su experiencia.

Su trabajo consistía en impedir que ChatGPT sufriera los problemas con los comentarios tóxicos que redactaba a menudo su predecesora, la inteligencia artificial GPT-3. Para preparar sus textos, estos sistemas se entrenan analizando textos públicos extraídos de Internet, donde se encuentra la gran compilación de conocimiento humano pero también una ingente cantidad de insultos, comentarios ofensivos y violentos o prejuicios sexistas y racistas. Esto hizo que GPT-3 no tuviera una gran salida entre las empresas a las que OpenAI podía vendérselo, que no querían verse asociadas a estos comentarios.

Para enseñar a ChatGPT a no cometer esos errores OpenAI diseñó una herramienta para marcar qué tipo de comentarios resultan ofensivos para las personas pese a que estas los escriban y los publiquen en Internet. Fue el trabajo que hizo Sama en Kenia a muy bajo coste, según ha revelado ahora Time. Sus empleados debían leer texto tras texto preparado por ChatGPT y marcar esas partes desagradables que no deberían aparecer en sus respuestas.

OpenAI ha confirmado el papel que los trabajadores keniatas tuvieron en el desarrollo de su nueva herramienta. “Clasificar y filtrar [textos e imágenes] dañinos es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino”, ha afirmado un portavoz al citado medio. elDiario.es se ha puesto en contacto con OpenAI para ampliar esta información pero por el momento no ha recibido respuesta.

Pese a que las compañías tecnológicas han perfeccionado sistemas automáticos para reconocer los comentarios ofensivos, estos están lejos de ser perfectos. El componente de subjetividad que a veces llevan implícitos estos mensajes los hace indetectables para las máquinas. Por eso es necesario que personas revisen la toxicidad de las plataformas. Esto expone a esos trabajadores a una serie de visiones desagradables que a menudo desembocan en problemas de salud mental o estrés postraumático, como mostró esta investigación de elDiario.es sobre los moderadores de Facebook.

En Kenia se ha replicado la misma situación. “Fue una tortura”, afirma uno de los trabajadores entrevistados por Time que tuvo que leer una respuesta de un texto de ChatGPT sobre una descripción de un acto de zoofilia presenciado por un niño. “Leerás varios textos como esa a lo largo de una semana. Para cuando llega el viernes, estás perturbado de pensar en esas imágenes”, declara. La naturaleza traumática del trabajo finalmente llevó a Sama a cancelar todo su trabajo para OpenAI en febrero de 2022, ocho meses antes de lo previsto.

Etiquetas
stats