Sono passati pochi mesi dal caso di Phica.net, il sito web che, lo scorso agosto, è stato fatto chiudere dopo che è emerso come da anni raccogliesse migliaia di foto pubblicate senza consenso di donne, anche famose. Ora si torna a parlare di foto diffuse senza consenso dopo che la giornalista e scrittrice Francesca Barra ha denunciato su Instagram un sito in cui circolano immagini di lei nuda (e di moltissime altre donne) generate con l’intelligenza artificiale.
Il sito per adulti offre servizi pornografici ed erotici, spesso tramite software di intelligenza artificiale, ma è anche possibile "svestire" foto caricate sul sito tramite un chatbot accessibile a pagamento. Si tratta di una pratica molto popolare e diffusa: basta una semplice ricerca su Google per trovare svariati siti di "AI Undressing" o "AI Deepnude". «Spoglia chiunque online e completamente gratis!», si legge in alcuni di questi, «un algoritmo AI originale per generare nudi da foto di donne vestite». Si tratta di siti con centinaia di migliaia di view al mese e di app estremamente popolari.
- Che fare contro i forum di foto senza consenso?
- «Noi come carne da macello»
- Facebook scende in campo contro il revenge porn
Cosa sono i siti di deepnude
La "nudificazione" non consensuale esiste da tempo. «Storicamente, le foto non consensuali e le loro alterazioni sessuali venivano realizzate principalmente ritagliando volti da riviste o foto pubbliche e inserendoli in immagini intime», si legge nello studio Analyzing the AI nudification application ecosystem che traccia un quadro del fenomeno, «Successivamente, abbiamo assistito a un aumento del numero di immagini ritoccate con Photoshop. Tuttavia, la loro somiglianza con l'originale era principalmente condizionata dal livello di abilità dell'utente». Ora, con l'intelligenza artificiale queste piattaforme hanno reso la nudification sempre più accessibile e il risultato sempre più realistico. «I siti di nudificazione come fotomontaggi esistono da tempo», conferma Matteo Flora, presidente di Permesso Negato, associazione nata per offrire supporto alle vittime di diffusione non consensuale di materiale intimo e violenza online. «Noi, come Permesso Negato, abbiamo iniziato ad avere problematiche di deep fake dal 2018. Non erano ancora nudify, non generavano il corpo nudo, ma davano la possibilità di sostituire il viso di un'attrice porno con quello, ad esempio, di una compagna di liceo. C'è stato un processo di consumerizzazione: una cosa che prima era molto difficile e necessitava di macchine molto potenti, è diventato alla portata più o meno di chiunque».
Il recente studio Analyzing the AI nudification application ecosystem dei ricercatori Gibson, Olszewski, Brigham, Crowder, Butler, Traynor, Redmiles e Kohno, ha preso in considerazione «20 siti web di nudificazione popolari e facili da trovare» e li ha analizzati nella loro interfaccia, funzionalità, infrastruttura di monetizzazione. Tra le scoperte evidenziate c'è il fatto che non sempre è richiesto che gli utenti abbiano almeno 18 anni e solo alcuni siti specificano che il soggetto dell'immagine deve avere almeno 18 anni. Inoltre, 19 siti sui 20 analizzati sono esplicitamente focalizzati su corpi femminili, 14 siti menzionano esclusivamente donne e/o ragazze, senza altri generi, due siti su 20 si riferiscono ai soggetti esclusivamente come "donne" (ad esempio, «Algoritmo di intelligenza artificiale per generare nudi da foto di donne vestite»), cinque si riferiscono ai soggetti esclusivamente come "ragazze" e sette si riferiscono ai soggetti come "donne" o "ragazze".
Del resto i dati ci dicono che il 99% dei deepfake sessualizzati e non consensuali riguarda donne e ragazze. I siti e le app online spesso non si limitano solo a "spogliare" le foto caricate. Nello studio, la metà delle applicazioni analizzate consente di modificare le immagini in modo tale che il soggetto venga inserito «in scene di natura sessuale non presenti nella foto originale». Alcune applicazioni consentono anche di modificare il soggetto dell'immagine selezionando diversi abiti, diversa tipologia di biancheria intima, variazioni di peso, aumento del seno o dei glutei, cambiamento dell'età. «L'utente», spiegano i ricercatori fornendo un esempio, «può scegliere tra "sesso" (ad esempio, selezionando "missionario", "cowgirl" o "cowgirl inversa"), "eiaculazione" (eiaculazione sul viso del soggetto dell'immagine), "shibari" (una forma di bondage) e "BDSM" (termine legato a una varietà di pratiche sessuali che includono bondage, disciplina, dominanzione, sottomissione)».
Vale lo stesso per l'app a cui rimanda il sito denunciato da Francesca Barra dove, nella sezione apposita, si può scegliere tra animazioni dove il soggetto della foto viene fatto spogliare in un video generato dall'AI, scambio volti, diverse posizioni sessuali e diversi scenari. Si possono creare immagini, ma anche veri e propri video pornografici. Solitamente diverse funzioni sono a pagamento perché c'è, come osservano gli autori dello studio, questi siti si basano su «un ecosistema di monetizzazione diversificato».
Foto senza nessun consenso
Nella ricerca sopra citata, solo la metà dei siti web analizzati afferma in qualche modo di aspettarsi che l'utente ottenga il consenso del soggetto dell'immagine caricata, «tuttavia», osservano gli autori, «solo alcuni siti web chiedono all'utente di confermare tale presupposto». Ed è qui che sorge il problema e la violenza. «È fondamentale capire se il servizio di per sé è illegale», osserva Matteo Flora, «Se tu vuoi mandare delle tue tue foto nude modificate con l'AI a un tuo contatto, si tratta della tua volontà e non c'è nessun tipo di problema. Il problema si pone quando la piattaforma non verifica che tu sia la titolare di una certa foto e di un certo volto, ma accetta da parte di chiunque l'invio di qualunque tipo di contenuto. È lì che si concretizza l'illiceità».
In Italia è stato appena introdotto un nuovo reato per sanzionare la pubblicazione e la diffusione di immagini, video o voci falsificati o alterati attraverso sistemi di intelligenza artificiale, in grado trarre in inganno sulla loro autenticità e di provocare un danno alla persona interessata. Di recente, poi, il Garante per la protezione dei dati personali ha bloccato in Italia l'applicazione Clothoff, un'app di AI generativa che consentiva di creare deepnude da qualsiasi fotografia senza limiti di età e «in assenza di qualsiasi accorgimento che permetta di verificare il consenso della persona ritratta e senza apporre alcuna segnalazione circa il carattere artificiale di foto e video». Pare che Clothoff fosse particolarmente popolare nelle scuole italiane: gli studenti, come ha raccontato un componente del collegio del Garante a Wired, fotografavano le compagne di classe con lo smartphone e le "spogliavano" tramite l'app per poi condividere le imamgini nelle chat e sui social.
Sarebbe necessario che questi siti e applicazioni fossero obbligati a inserire dei controlli stringenti sull'età e la titolarità delle foto, ma attualmente è un fenomeno davvero difficile da arginare. Il Garante ha detto di avere in programma la chiusura di altre applicazioni simili a Clothoff, ma a volte la sensazione è di lottare contro i mulini a vento, dato che questi siti spesso rinascono, cambiano forme e canali. Quello che si può fare a oggi è soprattutto cercare di limitare la diffusione di foto senza consenso, chiedere assistenza a chi si occupa del problema e denunciare siti e piattaforme che lo consentono. «Si cerca di mitigare la distribuzione all'interno dei grandi social network», spiega ancora Flora, «Oggi ci sono strumenti automatici che permettono di identificare la foto che sta circolando senza consenso ed evitare che venga ridistribuita all'interno delle principali piattaforme. Si può chiedere la rimozione dai vari siti web, non solo denunciando alla polizia ma anche attraverso il garante della privacy (nell'apposito sito web), che è molto solerte anche se poco usato e può intimare la rimozione del contenuto in 24 ore. Siamo consapevoli che anche noi come Permesso Negato siamo un palliativo, ma è la migliore soluzione possibile al momento».












