La portada de mañana
Acceder
Ucrania entra en el tercer año de guerra con miedo al olvido y dificultades ante Rusia
Koldo García, su mujer y un hermano cobraban sueldos públicos y comisiones
La corrupción siempre llama dos veces. Por Rosa María Artal

La creadora del área de ética algorítmica de Twitter: “X es la antítesis de lo que debería ser una red social”

ACN

Barcelona —

0

La creadora del área de ética de algoritmos en Twitter hasta que llegó Elon Musk, Ariadna Font, avisa de que la política del magnate basada en recortes y eliminar controles está dejando la plataforma en una situación “insostenible” con “abusos, insultos y comentarios denigrantes”. “Es la antítesis, la red social en la parte más oscura, un sálvese quien pueda donde todo el mundo puede decir la suya de manera denigrante sin que nadie lo controle”, ha expresado en declaraciones a la agencia ACN un año después de marcharse de la plataforma. 

La actual consejera delegada de Alinia, residente en Estados Unidos, ha pasado por Barcelona para ofrecer la ponencia principal del Barcelona Deep Tech Summit y explicar su experiencia de más de 20 años en empresas tecnológicas.

Dos días después de comprar Twitter, Musk anunció que echaría a la mitad de la plantilla y cambios radicales en la plataforma. La organización de ética, transparencia y rendición de cuentas que presidía Font, llamada META (nada que ver con la nueva marca de Facebook), sufrió más despidos que la media y hasta el 80% de los empleados perdieron su empleo. Las intenciones de Musk eran claras y Font asegura que “no tenía ninguna intención de quedarse” y “estuvo encantada” de ser una de las despedidas. En su etapa en Twitter contribuyó a establecer la IA Responsable como uno de los principales objetivos de la plataforma.

Aparte de “cargarse” el equipo de ética y la plataforma de Machine Learning para poder entrenar los algoritmos de forma responsable, Font explica que eliminó el área de confianza y seguridad que se aseguraba de detectar y eliminar abusos de la red y también el equipo de moderación. “Ahora no hay nadie en Twitter que lo haga, antes teníamos una organización grande, unos objetivos y unas métricas que mirábamos muy regularmente, ahora no hay nada de eso”, ha explicado.

El equipo anterior a Musk, añade, “no era perfecto, pero la intención era buena” y se buscaba crear una “conversación pública sana que permitiera a todo el mundo opinar de forma constructiva”. Un año después, el scroll de X “es un sálvese quien pueda, todo el mundo puede decir lo suyo de manera denigrante y como te escondes detrás de una pantalla puedes decir barbaridades y no hay nadie que lo controle”. El cambio, añade, se notó “muy rápidamente” tras el recorte masivo de personal.

Experta en inteligencia artificial, Font ha hecho un llamamiento a las empresas a invertir para crear un “marco ético de gobernanza” y dedicarle tiempo y dinero para “mitigar los riesgos antes de que se conviertan en crisis” . Por ejemplo, ha detallado cómo durante su etapa como dirigente del área de ética de la plataforma se detectó que el algoritmo que recortaba la imagen automáticamente tendía a enfocar a las personas blancas y no a las negras.

Esta discriminación se generó porque el algoritmo había “amplificado un sesgo humano” tras ser entrenado con miles de datos humanos sobre dónde depositamos primero la mirada. “Si la mayor parte de la población mira primero a la persona blanca, el algoritmo dice que esto es lo importante. El algoritmo no tiene ninguna intención, pero los datos son sesgados y los amplifica”, detalló, recordando la importancia de prevenir situaciones así y de solucionarlas una vez se den.

Los riesgos no afectan sólo a las redes sociales sino a todo tipo de aplicaciones entrenadas con datos, como plataformas como ChatGTP, que hace casi un año que se lanzó al mercado en fase experimental. Según asegura, existen “muchos riesgos” a la hora de utilizar este chat con inteligencia artificial generativa como las “alucinaciones” que provoca cuando “da informaciones de forma muy convincente pero totalmente inventada” y también la vulneración de la privacidad. 

Font ha hecho un llamamiento a apostar por invertir desde un inicio en la inteligencia artificial responsable “antes de escalar la tecnología para asegurarte de que no hay sesgos no intencionados”. “Si no tienes una infraestructura mínima, no podrás reaccionar de forma adecuada”, ha dicho la cofundadora de Alinia, una start-up que ayuda a las empresas a implementar la IA de forma fiable, segura y con ética