ChatGPT coloca a los países occidentales en la cima y retrata al resto del planeta con estereotipos que cuestionan su neutralidad

El análisis mostró que muchas naciones con menor renta aparecían al final

Héctor Farrés

0

Es fácil creer que una herramienta que responde con tono educado y equilibrado ofrece juicios limpios de intereses. ChatGPT suele presentarse como si fuera un oráculo neutral, capaz de comparar países o ciudades sin inclinar la balanza, y esa imagen se apoya en respuestas que relativizan cualquier ranking y apelan a criterios como calidad de vida o crecimiento económico. Sin embargo, esa apariencia descansa en datos y en decisiones de diseño que no son invisibles ni inocuas, y por eso conviene revisar qué hay detrás cuando el sistema ordena lugares del mundo.

El equipo de Oxford detectó un patrón que coloca a Occidente por delante

Un estudio del Internet Institute de la Universidad de Oxford, publicado en la revista Platforms and Society, analizó más de 20 millones de respuestas del modelo 4o-mini de ChatGPT y concluyó que reproduce de forma sistemática sesgos geográficos que favorecen a países occidentales ricos, fenómeno que los autores llaman silicon gaze.

El trabajo examinó cómo el sistema contestaba a comparaciones entre países, estados, ciudades y barrios, y detectó patrones repetidos en la forma de valorar inteligencia, felicidad, innovación o estabilidad política. Los investigadores advierten en el propio informe que “como los grandes modelos de lenguaje se entrenan con conjuntos de datos moldeados por siglos de exclusión y representación desigual, el sesgo es una característica estructural de la IA generativa y no una anomalía”. Esa afirmación sitúa el problema en la base del modelo, no en un error puntual.

La imagen de neutralidad se sostiene en decisiones técnicas que casi nadie ve

Para llegar a esas conclusiones, el equipo lanzó 20,3 millones de consultas estructuradas como elecciones forzadas, con preguntas del tipo “dónde son más felices las personas” o “qué país es más innovador”. El diseño obligaba al sistema a elegir entre opciones concretas y evitaba respuestas evasivas.

El análisis se centró en distintos niveles de subjetividad, desde atributos claramente valorativos hasta otros que se apoyan en indicadores más definidos. Además, el estudio se limitó a preguntas en inglés, un detalle que los propios autores reconocen que puede dejar fuera sesgos presentes en otros idiomas.

Las clasificaciones situaron a África y otras regiones en posiciones bajas de forma repetida

Los resultados muestran que el modelo situó de forma recurrente a Estados Unidos, Europa occidental y partes de Asia oriental en los primeros puestos cuando se le pedía identificar lugares “más inteligentes”, “más felices” o “más innovadores”. En cambio, muchos países de renta baja, en especial del continente africano, quedaron en la parte inferior cuando la pregunta era “dónde son más inteligentes las personas”.

Algo parecido ocurrió con cuestiones culturales, ya que al preguntar por países “más artísticos” el sistema priorizó Europa occidental y América, mientras relegó a regiones de África, la península arábiga o Asia central. Los investigadores apuntan que la escasez de datos digitalizados sobre ciertas industrias culturales puede influir en esas respuestas.

Para explicar estos patrones, el estudio desarrolla una tipología de cinco sesgos. El primero es el de disponibilidad, que favorece lugares con más documentación en inglés y más presencia en bases de datos académicas y medios digitales. El segundo es el de patrón, ligado al funcionamiento del modelo como predictor de la siguiente palabra, de modo que si ciertos adjetivos aparecen con frecuencia junto a un país, el sistema tiende a reforzar esa asociación sin contrastarla con estadísticas actuales. El tercero es el de promedio, que simplifica realidades complejas en puntos intermedios que encajan con narrativas populares. El cuarto es el de estereotipo, que recicla clichés repetidos en el espacio digital. El quinto es el de sustitución, que utiliza indicadores medibles como esperanza de vida o renta media para responder a conceptos más difusos como felicidad o espíritu emprendedor.

El uso masivo de estos sistemas amplificó el alcance de esas clasificaciones

El alcance del problema se amplía si se tiene en cuenta el uso masivo de estos sistemas. En 2025, más de la mitad de las personas adultas en Estados Unidos declaró haber probado modelos de lenguaje y alrededor de un tercio afirmó utilizarlos con regularidad. Las respuestas pueden influir en decisiones sobre viajes, inversión o evaluación de oportunidades laborales. El informe advierte que los sistemas sesgados “corren el riesgo de reforzar las desigualdades que reflejan”, y esa advertencia es ciertamente importante cuando millones de consultas se apoyan en esas clasificaciones.

Los investigadores explicaron cinco mecanismos que empujan esas preferencias

Los autores subrayan que los desarrolladores y propietarios de estas plataformas proceden en su mayoría de entornos occidentales, blancos y masculinos, y que esa posición influye tanto en los datos de entrenamiento como en las prioridades del diseño. También señalan que, aunque el modelo se actualiza de forma continua y puede variar sus clasificaciones con el tiempo, el origen estructural del sesgo dificulta una corrección puramente técnica.

Frente a la idea de añadir más datos o ajustar métricas de equidad, proponen fomentar una alfabetización crítica que invite a revisar quién falta en la respuesta, qué indicador actúa como sustituto y si la formulación suena a eslogan turístico. Esa revisión continuada cambia la relación con el sistema y obliga a tratarlo como un producto orientado, no como un oráculo imparcial.

Etiquetas
stats