Ante un suceso ¿nuestro primer instinto es sacar el móvil y grabar?
El investigador y profesor del Máster en Comunicación Transmedia de la Universidad Internacional de La Rioja (UNIR), Pavel Sidorenko, ha afirmado que en la actualidad cuando se produce un suceso “nuestro primer instinto pasa por sacar el móvil” y cubrir lo que allí sucede. En una entrevista a Europa Press, el docente ha abordado el contenido relacionado con la muerte o con actos violentos que cualquier encuentra cuando navega por redes sociales.
Ha señalado que “tenemos una cultura prosumidora ya muy arraigada en el comportamiento de la sociedad, es decir, ya no nos limitamos a consumir directamente los contenidos que nos provienen de Internet, sino también a producirlos en correspondencia”.
Ante ello, “si lo unimos, por ejemplo, a otro tipo de fenómenos, como puede ser el de la amplificación algorítmica, nos invita o nos empuja a que nos constituyamos en creadores de contenidos”. Con ello, “lo que ocurre en muchas ocasiones, porque todos ahora tenemos un dispositivo móvil, el primer instinto que tenemos en lugar de intentar socorrer es sacar el dispositivo y cubrir aquello, pero no con una idea periodística, sino simplemente como que mira, está pasando esto”, pero se hace “sin filtro ni nada”.
Este tipo de filtros, ha explicado Sidorenko, “era un trabajo que anteriormente realizaban los medios de comunicación, que lo monopolizaban, porque eran, sobre todo, los que tenían accesos a cámaras o más medios”, que hacía que “limitasen escenas fuertes que sin un debido contexto y sin una debida explicación podían ser muy duras y difíciles de comprender por parte de grandes audiencias”.
Sin embargo, “hoy en día cualquiera tiene la libertad de sacar el móvil, y cubrir un acontecimiento sin esta contextualización y colocar el contenido por una necesidad de intentar difundir una situación, pero al mismo tiempo también ganar relevancia”, si bien “a veces lo hace no de forma conscientes, porque esta persona no tiene planificado ser un influencer pero ya forma parte de estas dinámicas y esta cultura digital actual que es que hay que aportar en correspondencia a lo que consumimos”.
Además, el investigador ha unido otro aspecto, que es que este tipo de contenidos, más dramáticos, “despiertan nuestro morbo”. Para ello, ha puesto como ejemplo “cuando vas por una carretera y hay un accidente, y ves que están las autoridades, se ralentiza la marcha por ver qué ha ocurrido, aunque la escena sea poderosamente dantesca y no tengamos la capacidad de asimilarla de forma adecuada”. Esto es lo que sería “el morbo intrínseco, que está implícito en el ser humano”.
Ha explicado, que, también hay algunos mecanismos que recompensan, que saben perfectamente que el ser humano actúa de esta manera, no solamente esto, sino que el ser humano recompensa el morbo, como por ejemplo la plataforma Kick, donde la humillación es monetizada; donde personas que se autolesionan; personas que se humillan como consecuencia de que otros le arenguen, siendo éstos últimos los que arengan los que pagan“.
¿Cómo ponerle freno?
Por ello, “este morbo forma parte de todo este contexto que hace que evidentemente los algoritmos recompensan el contenido que genere más engagement, porque es el que genera mayor retención dentro de la plataforma”. “Aquí quien ha ganado realmente es la plataforma y el algoritmo, y como la gente se queda hasta el final pues yo le voy a todavía dar más visibilidad”.
En cuanto a la posibilidad de poner freno a este tipo de contenidos, Sidorenko ha indicado que “tenemos legislaciones, marcos normativos comunitarios y también nacionales, pero el problema deriva de que hay varias aristas, porque podríamos recurrir a la misma herramienta del algoritmo para que haga de árbitro y de censor, pero entonces ocurriría lo que ocurre en TikTok, que el algoritmo de TikTok, a diferencia de otras plataformas, es una IA, es una inteligencia artificial, pero la inteligencia artificial no interpreta contexto, no interpreta sarcasmo, no interpreta sátira, no interpreta matices culturales”.
Con ello, “no puede censurar algo que realmente es censurable, pero te puede también censurar algo que no lo es”. Ante ello, “la complejidad nos exige a intentar hibridar la capacidad humana con la capacidad tecnológica, siendo lo ideal contar con una primera instancia de algoritmos de inteligencia artificial que sirvieran de un primer filtro, pero que sea el ser humano el que tenga la última palabra”.
Por este motivo, ha concluido el investigador de UNIR “hay conducta humana, hay una actuación de los actores tecnológicos, y luego como tercero los actores gubernamentales o los actores estatales, que provoca que entre los tres estén en constante pugna”.
0