Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Si no está de acuerdo, razón de más para leer esto

Foto: Efe

Andrés Ortega

No es una novedad que uno tienda a leer o a informarse en medios que le aportar lo que uno quiere que le aporten. Antes de la era digital y de la Red –por ceñirnos a los medios de comunicación, incluida la televisión–, esta predisposición ya existía. Por eso había gente que leía ABC, La Vanguardia o El País, seguía la COPE o veía este u otro canal de televisión (cuando se empezó a poder elegir), por citar algún ejemplo. Uno se acercaba (y se sigue acercando) al medio más afín –que además lo sabe– para ratificar las opiniones que uno tenía. Un error, pues lo que más enriquece intelectual y políticamente hablando es habérselas con opiniones inteligentes que socavan nuestras creencias y querencias. Los mejores medios no nos dan lo que queremos, sino que nos sorprenden. Un medio que no sorprende no tiene interés. Pero no vamos a eso, sino que la tendencia a recibir informaciones afines se acrecienta de una manera preocupante.

Hace unos años Nicolas Negroponte habló de la posibilidad de que cada cual se creara en la Red un “Daily Me”, un “Diario Yo”, que nos aportara sólo lo que queremos, lo afín. Con esta idea se trataba de una decisión consciente y activa del usuario que elegía. Ahora ya responde a la decisión de unos algoritmos que nos manipulan. El reciente estudio impulsado por Facebook mismo con un gran aparataje matemático, muestra como en EE UU el algoritmo básico de selección de noticias (news feed) de esta red social tiende a acentuar las que coinciden con el perfil ideológico de su usuario. Es decir, es el robot, el algoritmo, el que está detrás de todo esto, el que nos manipula, e intenta forjarnos una identidad. El Muro de cada cual en Facebook se convierte en una pantalla ideológica. En España hay excelentes investigadores independientes que está yendo más allá de este estudio.

Más allá de este caso, a menudo los algoritmos nos inscriben en un determinado perfil, especialmente de consumidor, del que es difícil escapar. Intentan encasillarnos, y para ello se retroalimentan. De hecho, ¿quién que haya comprado un libro o un e-book por la Red o alguna película en streaming, no ha recibido después recomendaciones de lectura basadas en las adquisiciones previas, ratificando nuestras tendencias e intereses? Aunque nos sorprende que a veces algunas de esas sugerencias nos puedan sorprender.

No ha mucho, Facebook publicó –prefiere hacerlo ella a que lo hagan otros– otro paper sobre cómo un polémico programa experimental de esta red social había logrado manipular emocionalmente a una amplia muestra de usuarios seleccionados para ello. La cuestión no es sólo de quién sea Facebook, o de las preferencias de Mark Zuckerberg. Sino de cómo funcionan sus algoritmos. De hecho, Facebook se jacta de haber sacado en las últimas elecciones presidenciales en EE UU a 340.000 ciudadanos de la abstención para hacerlos votar.

En EE UU la política ha entendido muy bien de qué va todo esto, e invierte en ello. Ya no se trata de estar presentes en las redes sociales (como a menudo nos creemos aún en España), sino de manipularlas, en este caso por los partidos políticos, a través de algoritmos diseñados para ello, para hacer llegar al ciudadano, al votante, la orientación que sus impulsores desean. En España, se está empezando.

Es verdad que, como dice el citado estudio de Facebook, “el poder de exponerse uno a perspectivas de la otra parte en medios sociales reposa en primer lugar y primordialmente en el individuo”. Sus autores consideran que la composición de nuestras redes sociales (“amigos” en Facebook, otras denominaciones en otras redes) es “el factor más importante que limita el mix de contenido que uno encuentra en medios sociales”. Es decir, es la forma de elegir a las amistades.

La acentuación de esta tendencia a recibir información y opinión afín que brindan las redes sociales puede contribuir a conocer aún menos lo que piensan los que no piensan como uno, es decir, los otros. Los nuevos medios unifican pero también facilitan la reproducción de las diferencias culturales, y radicalizan los discursos y las posiciones, alejando las posibilidades de consenso (algo que está pasando en EE UU). ¿Medios de incomunicación, como los llamé –antes de las redes sociales– en La fuerza de los Pocos (2007), que refuerzan, en nuevas dimensiones, incluido ahora el ciberespacio, esa condición esencial del ser humano al tribalismo?

El control sobre nuestro propio destino debe llevarnos a buscar activamente textos, videos, música, etc. con datos, análisis y opiniones con los que uno no esté de acuerdo. Además, se aprende. Si doblegamos al algoritmo.

Etiquetas
stats