Ancora un caso di violenza sessuale, ancora dei ragazzi minorenni, ma questa volta succede in Spagna. Il caso è particolarmente emblematico perché riguarda una particolare forma di violenza tramite immagini che non è ancora abbastanza conosciuta, ma che è già particolarmente difficile da arginare. Stiamo parlando del deepfake porn, ovvero della pornografia realizzata tramite l'intelligenza artificiale. In questo caso le immagini pornografiche sono state create artificialmente da alcuni ragazzi con le fattezze delle loro coetanee e poi condivise su Whatsapp.

Oggi, ottenere l'immagine di una compagna di classe nuda e in atteggiamenti sessualmente espliciti non è fantascienza. A realizzarle sono stati 10 ragazzini minorenni che hanno preso di mira una ventina di ragazze tra gli 11 e i 17 anni nella cittadina di Alendralejo. Sono stati usati dei programmi di intelligenza artificiale a pagamento che hanno "incollato" i visi delle minori, presi dalle loro foto Instagram, su corpi sconosciuti in pose sessuali. Immagini e video sono poi stati condivisi su Whatsapp e su Telegram tanto che ora si teme che possano essere finiti anche su piattaforme di pedopornografia. «È così realistico che la prima cosa che ho pensato quando ho visto le foto è stata "Cosa avete fatto”», ha dichiarato una delle madri delle ragazze coinvolte in un’intervista a El Périodico mentre un'altra mamma ha raccontato di come la figlia sia stata ricattata sotto la minaccia di diffondere le immagini.

Ora il caso è nelle mani della Procura dei Minori, ma in Spagna, proprio come in Italia, non esiste il reato di deepfake porn non consensuale (secondo uno studio di Senti AI tra il 90 e il 95% dei video deepfake sono pornografia non consensuale). Lo scorso maggio il parlamento spagnolo ha bocciato una proposta per introdurlo e ora il problema si è presentato in tutta la sua pericolosità. Per punire i colpevoli sarà necessario trovare nel codice penale spagnolo dei reati diversi in cui il fatto possa rientrare. Alcuni giuristi ipotizzano si possa trattare di pseudo pornografia infantile che si verifica quando si abusa dell'immagine del minore manipolandola con accorgimenti tecnici. In tal caso la pena prevista arriva a nove anni di reclusione, ma qui si tratta di ragazzi minorenni e la pena potrebbe essere diversa. Al di là della soluzione del caso, però, rimane una domanda più cruciale: come possiamo arginare un fenomeno così pervasivo?