Las empresas se niegan a desvelar sus algoritmos laborales un año después de aprobarse la obligación legal

La ley rider acaba de cumplir un año desde su aprobación en Consejo de Ministros en mayo de 2021. La norma ha impulsado el proceso para que los repartidores que trabajan a través de apps dejen de ser falsos autónomos, pero este no era su único objetivo. La ley rider también dio poder a los comités de empresa para solicitar datos a cualquier compañía, sea del campo que sea, sobre cómo funcionan los algoritmos que actúan sobre sus empleados. Un derecho que se está encontrando con reticencias por parte de la mayoría de las empresas, explican varias fuentes conocedoras de la situación.

España vigilará la Inteligencia Artificial como a los fármacos o los alimentos

Saber más

Los algoritmos se están convirtiendo en los nuevos jefes digitales de cada vez más trabajadores. Evalúan su rendimiento, les asignan turnos y horarios, cargas de trabajo y valoran si su nivel de producción es el esperado. Sin embargo, su funcionamiento, sus sesgos y los factores que analizan para ofrecer esas valoraciones son, por regla general, desconocidos para el trabajador. Una opacidad por la que a menudo se les señala como “cajas negras”, pero que no solo afecta a los empleados de servicios digitales, sino a cualquiera sobre el que se aplique un sistema de decisión automática.

La ley rider (o Real Decreto-Ley 9/2021, por su denominación oficial) introdujo un nuevo punto en el Estatuto de los Trabajadores para controlar esta situación y forzar a aquellas empresas que desplieguen inteligencia artificial sobre sus empleados a explicarles cómo funciona. Entró en vigor en agosto de 2021 y da derecho a “ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

La pregunta es: ¿se está cumpliendo?

“Las empresas, especialmente medianas y grandes, a las que estamos empezando a ir como comité de empresa a pedir esta información, tienen una primera respuesta negativa”, contesta José Varela, responsable de Digitalización de UGT. “Salvo muy contadas excepciones, la mayoría de las empresas no quieren entregar ninguna documentación ni quieren cumplir con el nuevo artículo 64.4.d) del Estatuto de los Trabajadores”.

La mayoría de las empresas no quieren entregar ninguna documentación ni cumplir con el nuevo artículo del Estatuto de los Trabajadores

“Su primera reacción es ampararse en secretos comerciales o industriales, y la segunda es defender que no tenemos derecho a pedirlo porque no influyen en nuestras condiciones laborales”, continúa Varela en conversación con este medio. “O la más tonta de todas, que es decir que la Ley Orgánica de Protección de Datos no lo permite, cuando eso no es verdad”.

Esta reacción complica aún más las cosas para los trabajadores. Pese a que la valoración de su trabajo que hacen estos algoritmos puede ser clave en su continuidad en la empresa o sus posibilidades de promoción, fiscalizar los sistemas automáticos que actúan sobre ellos no es una tarea sencilla.

“A muchos compañeros y compañeras hablar de las implicaciones que pueden tener los algoritmos aún les parece algo de ciencia ficción”, reconoce Carlos Gutiérrez, secretario de Formación de CCOO. “Estamos hablando de algo que no es muy visible y que en muchos casos no somos muy conscientes de su utilización, por lo que también estamos haciendo una labor de formación interna para concienciar sobre las implicaciones que puede tener”.

Un prospecto para algoritmos

Desde el Ministerio de Trabajo también han detectado esta problemática. El departamento que dirige Yolanda Díaz encargó un informe sobre la cuestión y una herramienta para ayudar a trabajadores y empresas con la transparencia algorítmica establecida en la ley rider. “Esperamos poder presentar las conclusiones del informe de la comisión de Expertas y de Expertos en las próximas semanas”, exponen desde Trabajo a elDiario.es.

“Permitirán, partiendo de estos resultados, establecer los mecanismos para que el Real Decreto-Ley 9/2021 pueda desplegar todos los efectos en cuanto a la transparencia de la incidencia de los algoritmos en las condiciones de trabajo, el acceso y al mantenimiento del empleo y la elaboración de perfiles”, explican las mismas fuentes. “Recordamos que este derecho es aplicable en todas las empresas y no solo en las de reparto a través de plataformas digitales”, recalcan.

Recordamos que este derecho es aplicable en todas las empresas y no solo en las de reparto a través de plataformas digitales

El informe sobre la transparencia de los algoritmos laborales ha sido coordinado por Gemma Galdón, directora de Eticas, una de las pocas empresas especializadas en la auditoría de algoritmos en España. “Lo que vemos es que hay desconocimiento, falta de ganas, poca voluntad de cumplir en el mercado, y eso demora los pasos”, coincide la experta.

“La ley rider está sufriendo lo mismo que todas las normas vinculadas a temas de datos inteligentes y a las nuevas tecnologías: salen las leyes pero nadie hace nada. Parece que el regulador no solo tiene que declarar cuáles son las normas, sino ayudar a su cumplimiento. Esto es algo extraño que pasa en este sector, porque cuando sale una ley la responsabilidad de cumplirla es de quien utiliza esos datos”, recalca Galdón.

La herramienta que ha presentado a Trabajo se basa en los prospectos de los medicamentos, que ayudan a que sus propiedades y riesgos sean comprensibles por un público general. “Es un formato muy diferente, pero esa es la idea: plantear que todos los algoritmos se acompañan de esa herramienta”, detalla Galdón: “Un formulario con información para el usuario o para el comprador del algoritmo, porque no olvidemos que lo que hacen muchas empresas es comprar algoritmos a terceros, por lo que deben pedir esta información antes de introducirlo en un espacio laboral para que después les sea más fácil cumplir con sus obligaciones de transparencia”.

Hay interés por parte de muchos gobiernos, pero la primera que va a sacar una herramienta aplicable a la transparencia de los algoritmos es España

No es una tarea fácil y se complica porque no hay nadie en quien fijarse. La directora de Éticas afirma que la ley rider ha sido pionera al conceder a los trabajadores el derecho a fiscalizar los algoritmos laborales, con lo que aún no hay ejemplos prácticos sobre como llevar a la práctica una medida así. “Hay interés por parte de muchos gobiernos en lo que estamos haciendo, pero la primera que va a sacar una herramienta aplicable a la transparencia de los algoritmos es España”.

La transparencia algorítmica también beneficia a las empresas

Uno de los casos de éxito en la aplicación de la ley rider, señalan los sindicatos, es Just Eat. El servicio de comida a domicilio aceptó la regularización laboral de los repartidores, que han empezado a sindicarse y crear los comités de empresa a través de los cuales solicitar la información sobre los algoritmos que actúan sobre ellos. Compañía y sindicatos ya han pactado la creación de una “Comisión del algoritmo” donde articular la negociación.

''En Just Eat consideramos que, siempre y cuando sean garantizados los principios de propiedad intelectual e industrial, y los secretos de empresas implicados, la transparencia algorítmica ayuda a la mejora de la organización de las relaciones laborales entre las plataformas y sus repartidores“, explica a elDiario.es Patrik Bergareche, director gerente de la plataforma.

Que los empleados puedan conocer detalles de la inteligencia artificial que rige su trabajo puede suponer un plus para la empresa. “Consideramos que dicha transparencia ayuda a los trabajadores a desempeñar mejor su trabajo y entender los parámetros de valoración del mismo, lo cual redunda en un mejor servicio para nuestros usuarios y restaurantes”, asegura Bergareche.

La transparencia ayuda a los trabajadores a desempeñar mejor su trabajo y entender los parámetros de valoración del mismo, lo cual redunda en un mejor servicio

La ley rider afecta a las plataformas de reparto directamente, por lo que hay menos espacio para evasivas como las que los sindicatos denuncian en otros sectores. Pero no en todos estos servicios hay noticias positivas. Glovo, por ejemplo, suspende a la hora de aplicar la ley rider, continúa empleando a trabajadores que pueden ser considerados falsos autónomos y tampoco está poniendo facilidades para dar detalles de sus algoritmos. La empresa se ha negado a hacer declaraciones para esta información.

“En el tema de los algoritmos está pasando lo mismo que con la laboralidad de los repartidores. No había ninguna empresa que defendiese en absoluto su derecho a ser personal contratado hasta que empezaron a caer las sentencias una detrás de otra”, afirma José Varela, de UGT. “Las empresas españolas están acostumbradas siempre a litigar hasta que hay una doctrina del Supremo y luego a reconocer derechos. Eso es un error porque el mensaje que le estás enviando a tus plantillas es que no eres transparente”.

“Estamos en un momento muy incipiente de la aplicación de la transparencia en esta cuestión. Ahora bien, o las empresas empiezan a entender que tienen que cumplir estrictamente con la ley o nos vamos a un escenario de confrontación”, avisa Varela: “El trabajador no es tonto y cuando un algoritmo decide que tiene que hacer tres turnos seguidos de noche y nadie se lo explica, va a protestar. El trabajador protestará, lo hará el comité de empresa y se creará un escenario de conflictividad que irá a mayores”.

La ley rider acaba de cumplir un año desde su aprobación en Consejo de Ministros en mayo de 2021. La norma ha impulsado el proceso para que los repartidores que trabajan a través de apps dejen de ser falsos autónomos, pero este no era su único objetivo. La ley rider también dio poder a los comités de empresa para solicitar datos a cualquier compañía, sea del campo que sea, sobre cómo funcionan los algoritmos que actúan sobre sus empleados. Un derecho que se está encontrando con reticencias por parte de la mayoría de las empresas, explican varias fuentes conocedoras de la situación.

España vigilará la Inteligencia Artificial como a los fármacos o los alimentos

Saber más

Los algoritmos se están convirtiendo en los nuevos jefes digitales de cada vez más trabajadores. Evalúan su rendimiento, les asignan turnos y horarios, cargas de trabajo y valoran si su nivel de producción es el esperado. Sin embargo, su funcionamiento, sus sesgos y los factores que analizan para ofrecer esas valoraciones son, por regla general, desconocidos para el trabajador. Una opacidad por la que a menudo se les señala como “cajas negras”, pero que no solo afecta a los empleados de servicios digitales, sino a cualquiera sobre el que se aplique un sistema de decisión automática.

La ley rider (o Real Decreto-Ley 9/2021, por su denominación oficial) introdujo un nuevo punto en el Estatuto de los Trabajadores para controlar esta situación y forzar a aquellas empresas que desplieguen inteligencia artificial sobre sus empleados a explicarles cómo funciona. Entró en vigor en agosto de 2021 y da derecho a “ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

La pregunta es: ¿se está cumpliendo?

“Las empresas, especialmente medianas y grandes, a las que estamos empezando a ir como comité de empresa a pedir esta información, tienen una primera respuesta negativa”, contesta José Varela, responsable de Digitalización de UGT. “Salvo muy contadas excepciones, la mayoría de las empresas no quieren entregar ninguna documentación ni quieren cumplir con el nuevo artículo 64.4.d) del Estatuto de los Trabajadores”.

La mayoría de las empresas no quieren entregar ninguna documentación ni cumplir con el nuevo artículo del Estatuto de los Trabajadores

“Su primera reacción es ampararse en secretos comerciales o industriales, y la segunda es defender que no tenemos derecho a pedirlo porque no influyen en nuestras condiciones laborales”, continúa Varela en conversación con este medio. “O la más tonta de todas, que es decir que la Ley Orgánica de Protección de Datos no lo permite, cuando eso no es verdad”.

Esta reacción complica aún más las cosas para los trabajadores. Pese a que la valoración de su trabajo que hacen estos algoritmos puede ser clave en su continuidad en la empresa o sus posibilidades de promoción, fiscalizar los sistemas automáticos que actúan sobre ellos no es una tarea sencilla.

“A muchos compañeros y compañeras hablar de las implicaciones que pueden tener los algoritmos aún les parece algo de ciencia ficción”, reconoce Carlos Gutiérrez, secretario de Formación de CCOO. “Estamos hablando de algo que no es muy visible y que en muchos casos no somos muy conscientes de su utilización, por lo que también estamos haciendo una labor de formación interna para concienciar sobre las implicaciones que puede tener”.

Un prospecto para algoritmos

Desde el Ministerio de Trabajo también han detectado esta problemática. El departamento que dirige Yolanda Díaz encargó un informe sobre la cuestión y una herramienta para ayudar a trabajadores y empresas con la transparencia algorítmica establecida en la ley rider. “Esperamos poder presentar las conclusiones del informe de la comisión de Expertas y de Expertos en las próximas semanas”, exponen desde Trabajo a elDiario.es.

“Permitirán, partiendo de estos resultados, establecer los mecanismos para que el Real Decreto-Ley 9/2021 pueda desplegar todos los efectos en cuanto a la transparencia de la incidencia de los algoritmos en las condiciones de trabajo, el acceso y al mantenimiento del empleo y la elaboración de perfiles”, explican las mismas fuentes. “Recordamos que este derecho es aplicable en todas las empresas y no solo en las de reparto a través de plataformas digitales”, recalcan.

Recordamos que este derecho es aplicable en todas las empresas y no solo en las de reparto a través de plataformas digitales

El informe sobre la transparencia de los algoritmos laborales ha sido coordinado por Gemma Galdón, directora de Eticas, una de las pocas empresas especializadas en la auditoría de algoritmos en España. “Lo que vemos es que hay desconocimiento, falta de ganas, poca voluntad de cumplir en el mercado, y eso demora los pasos”, coincide la experta.

“La ley rider está sufriendo lo mismo que todas las normas vinculadas a temas de datos inteligentes y a las nuevas tecnologías: salen las leyes pero nadie hace nada. Parece que el regulador no solo tiene que declarar cuáles son las normas, sino ayudar a su cumplimiento. Esto es algo extraño que pasa en este sector, porque cuando sale una ley la responsabilidad de cumplirla es de quien utiliza esos datos”, recalca Galdón.

La herramienta que ha presentado a Trabajo se basa en los prospectos de los medicamentos, que ayudan a que sus propiedades y riesgos sean comprensibles por un público general. “Es un formato muy diferente, pero esa es la idea: plantear que todos los algoritmos se acompañan de esa herramienta”, detalla Galdón: “Un formulario con información para el usuario o para el comprador del algoritmo, porque no olvidemos que lo que hacen muchas empresas es comprar algoritmos a terceros, por lo que deben pedir esta información antes de introducirlo en un espacio laboral para que después les sea más fácil cumplir con sus obligaciones de transparencia”.

Hay interés por parte de muchos gobiernos, pero la primera que va a sacar una herramienta aplicable a la transparencia de los algoritmos es España

No es una tarea fácil y se complica porque no hay nadie en quien fijarse. La directora de Éticas afirma que la ley rider ha sido pionera al conceder a los trabajadores el derecho a fiscalizar los algoritmos laborales, con lo que aún no hay ejemplos prácticos sobre como llevar a la práctica una medida así. “Hay interés por parte de muchos gobiernos en lo que estamos haciendo, pero la primera que va a sacar una herramienta aplicable a la transparencia de los algoritmos es España”.

La transparencia algorítmica también beneficia a las empresas

Uno de los casos de éxito en la aplicación de la ley rider, señalan los sindicatos, es Just Eat. El servicio de comida a domicilio aceptó la regularización laboral de los repartidores, que han empezado a sindicarse y crear los comités de empresa a través de los cuales solicitar la información sobre los algoritmos que actúan sobre ellos. Compañía y sindicatos ya han pactado la creación de una “Comisión del algoritmo” donde articular la negociación.

''En Just Eat consideramos que, siempre y cuando sean garantizados los principios de propiedad intelectual e industrial, y los secretos de empresas implicados, la transparencia algorítmica ayuda a la mejora de la organización de las relaciones laborales entre las plataformas y sus repartidores“, explica a elDiario.es Patrik Bergareche, director gerente de la plataforma.

Que los empleados puedan conocer detalles de la inteligencia artificial que rige su trabajo puede suponer un plus para la empresa. “Consideramos que dicha transparencia ayuda a los trabajadores a desempeñar mejor su trabajo y entender los parámetros de valoración del mismo, lo cual redunda en un mejor servicio para nuestros usuarios y restaurantes”, asegura Bergareche.

La transparencia ayuda a los trabajadores a desempeñar mejor su trabajo y entender los parámetros de valoración del mismo, lo cual redunda en un mejor servicio

La ley rider afecta a las plataformas de reparto directamente, por lo que hay menos espacio para evasivas como las que los sindicatos denuncian en otros sectores. Pero no en todos estos servicios hay noticias positivas. Glovo, por ejemplo, suspende a la hora de aplicar la ley rider, continúa empleando a trabajadores que pueden ser considerados falsos autónomos y tampoco está poniendo facilidades para dar detalles de sus algoritmos. La empresa se ha negado a hacer declaraciones para esta información.

“En el tema de los algoritmos está pasando lo mismo que con la laboralidad de los repartidores. No había ninguna empresa que defendiese en absoluto su derecho a ser personal contratado hasta que empezaron a caer las sentencias una detrás de otra”, afirma José Varela, de UGT. “Las empresas españolas están acostumbradas siempre a litigar hasta que hay una doctrina del Supremo y luego a reconocer derechos. Eso es un error porque el mensaje que le estás enviando a tus plantillas es que no eres transparente”.

“Estamos en un momento muy incipiente de la aplicación de la transparencia en esta cuestión. Ahora bien, o las empresas empiezan a entender que tienen que cumplir estrictamente con la ley o nos vamos a un escenario de confrontación”, avisa Varela: “El trabajador no es tonto y cuando un algoritmo decide que tiene que hacer tres turnos seguidos de noche y nadie se lo explica, va a protestar. El trabajador protestará, lo hará el comité de empresa y se creará un escenario de conflictividad que irá a mayores”.

La ley rider acaba de cumplir un año desde su aprobación en Consejo de Ministros en mayo de 2021. La norma ha impulsado el proceso para que los repartidores que trabajan a través de apps dejen de ser falsos autónomos, pero este no era su único objetivo. La ley rider también dio poder a los comités de empresa para solicitar datos a cualquier compañía, sea del campo que sea, sobre cómo funcionan los algoritmos que actúan sobre sus empleados. Un derecho que se está encontrando con reticencias por parte de la mayoría de las empresas, explican varias fuentes conocedoras de la situación.

España vigilará la Inteligencia Artificial como a los fármacos o los alimentos

Saber más

Los algoritmos se están convirtiendo en los nuevos jefes digitales de cada vez más trabajadores. Evalúan su rendimiento, les asignan turnos y horarios, cargas de trabajo y valoran si su nivel de producción es el esperado. Sin embargo, su funcionamiento, sus sesgos y los factores que analizan para ofrecer esas valoraciones son, por regla general, desconocidos para el trabajador. Una opacidad por la que a menudo se les señala como “cajas negras”, pero que no solo afecta a los empleados de servicios digitales, sino a cualquiera sobre el que se aplique un sistema de decisión automática.

Apúntate aquí al boletín de economía

En un momento convulso para las noticias de economía, es más importante que nunca estar bien informado. Todas las repercusiones de la guerra de Ucrania en la economía mundial, explicadas desde un punto de vista riguroso y diferente.