Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Israel se prepara para una ofensiva en Rafah mientras el mundo mira a Irán
EH Bildu, una coalición que crece más allá de Sortu y del pasado de ETA
Opinión - Pedir perdón y que resulte sincero. Por Esther Palomera

La tensión entre lo público y lo privado en la regulación de los contenidos de las redes sociales

Facebook bloqueó 115 cuentas en la víspera de las legislativas en EE.UU.

Joan Barata

Experto internacional en libertad de expresión y miembro de la PDLI —

La reciente tragedia ocurrida en Nueva Zelanda ha vuelto a poner sobre la mesa la cuestión de por quién y cómo se controlan los contenidos difundidos masivamente y de forma inmediata en las redes sociales. Como es sabido, el asesino utilizó un sistema de streaming para retransmitir en directo la matanza a medida que la perpetraba. A pesar de las medidas adoptadas por la mayor parte de las redes sociales, la secuencia en cuestión ha continuado circulando por la red e incluso, en algunos casos, ha sido facilitada o reproducida total o parcialmente por parte de medios de comunicación, tanto online como convencionales. 

Muchos se han escandalizado al constatar la posibilidad de que cualquier persona con conexión a la red pueda retransmitir en directo eventos disponibles desde cualquier parte del mundo. Ello, sin embargo, no tiene nada de novedoso, e incluso ha demostrado ser en los últimos años un instrumento muy útil para facilitar el acceso de los ciudadanos a informaciones no cubiertas por medios tradicionales o desvelar situaciones de abuso de poder en países en los que la censura impide el trabajo normal de los periodistas. 

En el caso de Nueva Zelanda, sin embargo, ha chocado el hecho de que la retransmisión de unos hechos de tal naturaleza pudiera ser seguida durante un periodo relativamente largo de tiempo a través de plataformas diversas, las cuales generalmente cuentan con sistemas propios de moderación de contenidos. 

En el actual debate sobre la regulación de contenidos en las redes sociales existe una primera tensión difícil de gestionar. Por un lado, Estados y grupos de la sociedad civil piden a las redes sociales un mayor esfuerzo para erradicar contenidos dañinos e indeseables, especialmente el discurso del odio, incitaciones a la comisión de actos y violentos y otras conductas parecidas. Por otra parte, organizaciones dedicadas a la defensa de la libertad de expresión, organismos internacionales de derechos humanos y incluso algunos gobiernos han expresado su preocupación por el hecho de que compañías privadas globales como Google o Facebook a menudo restringen o simplemente eliminan ideas, opiniones y otros contenidos publicados por los usuarios sobre la base de reglas internas que se consideran injustificadas, abusivas y ambiguas. 

Esta tensión pone igualmente de manifiesto formas distintas de entender la libertad de expresión en un mundo globalizado, incluso en lo que se refiere a Estados que podemos encuadrar bajo la categoría de democracias liberales. 

Así, en el sistema estadounidense las plataformas son reconocidas y protegidas como titulares del derecho a la libertad de expresión contenido en la Primera Enmienda de la Constitución. Por este motivo, dichas entidades pueden oponer su derecho constitucional a la libertad de expresión frente a cualquier usuario que haya visto cómo sus posts han sido retirados o incluso su cuenta cancelada. En ese debate prevalecerá siempre (al menos ha prevalecido hasta ahora en las decisiones de los tribunales de diverso nivel) el derecho a la libertad de expresión de quien suministra y gestiona una plataforma para la difusión de contenidos, frente a las reclamaciones de los usuarios de ésta, a los que se considera contractualmente sujetos a sus normas internas. 

El debate está más abierto e indefinido en Europa. Un tribunal inferior alemán entendió que la supresión, por parte de Facebook, de un contenido colgado por un usuario constituía una vulneración de su libertad de expresión en la medida en que el contenido en cuestión formaba parte del ámbito legítimo del ejercicio de ese derecho en Alemania, a pesar de que según las normas internas de la plataforma se trataba de una expresión inaceptable. No sabemos todavía si esta decisión es objeto de confirmación por parte de tribunales superiores. Por otra parte, en diversas recomendaciones y proyectos normativos formulados por parte de las instituciones europeas se incluye, aparte de directrices dirigidas a las plataformas sobre cómo gestionar correctamente y evitar contenidos nocivos, la obligación genérica de que éstas respeten siempre el derecho a la libertad de expresión de sus usuarios. Cierto es, sin embargo, que más allá de esta declaración no queda claro hasta qué punto la libertad de éstos puede ser efectivamente protegida frente a decisiones de remoción por parte de las plataformas. 

Está claro pues que nos encontramos ante un escenario nuevo con relación a los debates acerca del alcance y límites de la libertad de expresión. El nudo de la cuestión, cuando se discute acerca de la posibilidad de regular dicho derecho en el marco de las redes sociales, no se refiere tanto al margen de actuación en manos de los poderes públicos para establecer los límites y el marco de lo que se expresa, sino a la capacidad de sujetos privados que operan a nivel global para establecer y aplicar una serie de normas que si bien se presentan como internas o privadas, tienen un impacto evidente en la forma como se forma la opinión pública y se distribuye la información. Y ello en la medida en que, precisamente, esos sujetos han devenido un instrumento fundamental en la facilitación, distribución y acceso a ideas, informaciones y opiniones. 

Para hacer las cosas incluso más complejas, hay que decir que en la actualidad la progresiva tendencia, por parte de los poderes públicos, a incentivar, promover o incluso forzar (bajo la amenaza de la adopción de regulaciones específicamente dirigidas a las redes sociales) la moderación interna de los contenidos por parte de las propias plataformas, ha llevado a éstas no solo a incorporar nuevas y más amplias normas internas para abordar cuestiones tales como el discurso del odio, los contenidos discriminatorios, las noticias falsas o los contenidos terroristas, sino también a procesos calificados por muchos de exceso de celo o sobrerregulación. Así, son muchos los casos, en muchos países, en los que, fruto de las mencionadas presiones, se ha procedido a la eliminación de expresiones y cuentas de usuarios que en otro medio de distribución estarían plenamente amparadas por el derecho a la libertad de expresión (dando lugar a lo que se ha venido denominando, en otras palabras, como censura privada o por delegación). La tentación, cada vez más frecuente, de atribuir a sujetos privados funciones cuya sensibilidad y afectación a derechos fundamentales requerirían, en puridad, de la intervención de un organismo público (y preferiblemente un juez) no dejan de ser preocupantes. 

Por otra parte, es innegable también que la ya mencionada importancia de las plataformas y redes sociales como conformadoras del debate público nos obliga a considerar qué medidas podrían ser adecuadas para evitar distorsiones en la esfera pública fruto del posible ejercicio abusivo de un poder privado de moderación (ya sea por iniciativa propia, o a requerimiento de las autoridades) que no resulta fácil de ejercer, como ha reflejado eldiario.es en un reportaje reciente.

 En todo caso, y como ya señalaba en un artículo anterior sería necesario garantizar, en primer lugar, que las normas internas o de comunidad de las redes sociales sean, en lo que se refiere a contenidos, claras y precisas y no contengan restricciones o límites no razonables, arbitrarios o que puedan dar lugar a limitaciones desmesuradas e injustificadas de la libertad de expresión de los usuarios. En segundo lugar, también es necesario garantizar, a través de mecanismos regulatorios adecuados, que los procedimientos internos de remoción de contenidos, desactivación de cuentas u otras acciones similares sean transparentes, proporcionados, y permitan la intervención de los afectados, con la posibilidad asimismo de acudir a instancias imparciales de apelación. La propuesta de creación de consejos independientes encargados en última instancia de juzgar la corrección de las decisiones tomadas por las plataformas en materia de contenidos es en estos momentos objeto de debate entre los expertos. Su forma concreta de implementación queda lejos de estar clara. 

Las nuevas tecnologías han aportado un cambio sin precedentes a la comunicación y han indudablemente expandido las posibilidades y alcance del ejercicio del derecho a la libertad de expresión. Ello tiene un gran valor en la mejora del pluralismo y en la articulación de mejores controles y críticas a la actividad de los poderes públicos. Ello también ha avivado, lógicamente, nuevos riesgos que solo podrían evitarse por completo con la implantación de indeseables mecanismos de censura previa y control del pensamiento (ya sea por parte de entes públicos o privados). 

Cómo solucionar estas complejas tensiones es pues un debate que continúa abierto entre gobiernos, plataformas, medios, activistas y una gran diversidad de sujetos implicados. Cualquier solución efectiva va a requerir un esfuerzo de imaginación, sobre todo a los juristas, para encontrar mecanismos y categorías distintos de los utilizados hasta ahora para abordar correctamente el ejercicio de la libertad de expresión y sus límites.   

Etiquetas
stats