Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
La guerra de Israel es también la guerra de EEUU, por Olga Rodríguez
Fuego y furia: la guerra perpetua de Netanyahu, por Íñigo Sáenz de Ugarte
OPINIÓN | Las trampas de la memoria, por Enric González

La Guàrdia Civil investiga tres menors per manipular fotos de les seves companyes amb IA per crear contingut pornogràfic

Una persona utilitza el telèfon mòbil.

elDiario.es

Europa Press —

0

La Guàrdia Civil investiga a Felanitx (Mallorca) un cas de manipulació pornogràfica d'imatges amb intel·ligència artificial que afecta menors, segons han confirmat a Europa Press fonts pròximes al cas. Com ha avançat el diari 'Última Hora', els presumptes autors serien tres menors que haurien manipulat fotos de companyes d'institut per convertir-les en escenes sexuals, i després les haurien compartit per Internet.

Segons aquesta informació, els menors imputats tenen edats d'entre 14 i 16 anys i els arxius manipulats -escenes pornogràfiques en un gimnàs de les tres companyes- es van difondre massivament per les xarxes socials i van arribar a altres instituts de Mallorca. La denúncia va ser interposada dissabte de la setmana passada a la caserna de la Guàrdia Civil després que els pares de les víctimes fossin informats del que passava.

Els imputats haurien agafat la cara de les menors, de 14 anys, a través de fotografies d'Instagram, segons aquest mateix diari. Aquest també apunta que la Guàrdia Civil investiga el cas com a un possible delicte de pornografia infantil, que un dels investigats té 14 anys i que és, per tant, inimputable, i que la Fiscalia de Menors ha obert diligències contra ells i han estat citats a declarar.

Casos com aquest s'han donat abans en altres punts d'Espanya, com ara Saragossa i Badajoz. En el primer van ser investigats 7 menors -encara que la trama era de 13, però sis eren menors de 14 anys i, per tant, inimputables- després de difondre fotografies sexuals d'altres menors que van ser manipulades amb Intel·ligència Artificial. Les víctimes es van adonar que aquestes fotografies estaven circulant per grups de missatgeria mòbil entre diversos menors de l'institut a què pertanyien, que fins i tot oferien la possibilitat d'adquirir cada imatge per cinc euros.

En el segon cas, la Policia Nacional va assumir la investigació dels fets. Noies menors van denunciar que circulaven fotografies seves nues manipulades amb intel·ligència artificial per part d'un grup de menors d'Almendralejo. L'app que van fer servir els investigats no preveu cap mesura per bloquejar-ne l'ús quan l'usuari no sigui major de 18 anys ni compti amb el consentiment de les persones per utilitzar les imatges.

El paper de l'Agència de Protecció de Dades

En aquests casos, l'Agència Espanyola de Protecció de Dades (AEPD) podria actuar per defensar les víctimes. Els menors poden ser sancionats per infringir la normativa de protecció de dades a partir dels 14 anys. Des d'aquesta edat fins als 18, seran les famílies les que hauran de fer front a la multa. Aquestes poden arribar fins a 10.000 euros.

En el cas de Badajoz, l'AEPD va iniciar una investigació d'ofici per demanar tots els detalls del cas de les menors despullades amb intel·ligència artificial. La imatge d'una persona es considera part de les seves dades personals, per la qual cosa la recollida, la manipulació i la distribució sense el seu consentiment pot comportar una violació de la normativa de privacitat.

En aquest cas, l'AEPD pot a més actuar sense denúncia prèvia gràcies a La llei de garantia de llibertat sexual, més coneguda com a llei del només sí és sí, que li encomana la missió de “garantir una protecció específica de les dades personals de les dones en els casos de violència sexual, especialment quan aquesta es perpetuï a través de les tecnologies de la informació i la comunicació”.

Així mateix, el Senat va aprovar a l'octubre una moció del Partit Popular que advoca per ampliar la definició legal de pornografia infantil per tipificar les imatges generades per IA que presentin menors en conductes sexualment explícites o que afectin la seva intimitat.

Etiquetas
stats