Nel maggio 2021 Emily Ratajkowski ha messo all'asta un NFT, un certificato digitale che certificava la proprietà di una sua foto. Il titolo della foto era Buying Myself Back: A Model for Redistribution e rappresentava la modella nel suo appartamento di New York di fronte a un quadro, una gigantografia di un post Instagram di se stessa in bikini. La foto faceva parte di una mostra dell'artista Richard Prince che prende foto da Instagram e le trasforma (semplicemente creando delle gigantografie dei post) in quadri molto costosi. «Io mi guadagno da vivere posando per le foto e non mi sembrava giusto che un artista celebre e quotato, il cui lavoro veniva pagato infinitamente più del mio, si sentisse in diritto di soffiarmi un post Instagram e di rivenderlo come proprio», ha scritto Ratajkowski nel suo libro My Body. Ha raccontato che lei e il suo fidanzato di allora hanno ricomprato la sua stessa foto, per la quale era stata pagata poche migliaia di dollari, sborsandone 81.000. «Il mondo digitale dovrebbe essere un luogo in cui le donne possono condividere la propria immagine come preferiscono, controllandone l'utilizzo e ricevendo qualsiasi potenziale guadagno», ha commentato la modella parlando della creazione del NFT, «Invece, Internet è spesso uno spazio in cui altri sfruttano e distribuiscono immagini di corpi femminili senza il loro consenso e per il lo profitto».

Se questo accade a top model di fama mondiale come Emrata, il discorso vale altrettanto, con le dovute proporzioni, per le persone comuni, sopratutto ragazze. Nel mondo digitale le immagini vengono riprodotte così velocemente da perderne traccia, le foto pubblicate su Instagram o scattate di nascosto possono essere prese e utilizzate per i fini più disparati, anche lontanissimi dal controllo di chi vi è rappresentato, spesso a scopo sessuale e violento. Sorge quindi spontaneo chiedersi: a chi appartengono davvero le nostre immagini?

A chi appartengono le nostre immagini?

Nelle ultime settimane in Italia si è tornati a parlare di condivisione online di foto senza consenso. Sui social sono stati denunciati gruppi come "Mia moglie" e "Phica.eu" che da anni pubblicavano immagini di donne e ragazze - mogli, sorelle, amiche, ex fidanzate, attrici - a scopo sessuale. Le prendevano dai social (a volte persino da Vinted) o le scattavano di nascosto e poi le commentavano in modo volgare e spesso violento, chiedevano di usarle per masturbarcisi, a volte condividevano informazioni personali sulle ragazze in questione. Attualmente, dopo l'ondata di denunce, la polizia postale sta indagando sui due casi. Resta però il problema di come limitare un fenomeno che è sempre più diffuso e ancora difficile da arginare.

Gruppi come quelli che hanno fatto scandalo nell'ultimo mese nascono di continuo e spesso vivono a lungo prima che la polizia intervenga. La violenza tramite immagini è tentacolare, assume forme sempre nuove e diverse tra loro: si va dai video intimi dell'ex pubblicati per vendetta alle foto delle sconosciute scattare per strada, dalle foto prese da Instagram, fino ai deepfake creati con l'intelligenza artificiale. Qualche giorno fa si è scoperta persino l'esistenza di una piattaforma online che pubblicava filmati rubati da telecamere di sorveglianza installate in abitazioni private, centri estetici e studi medici di varie nazioni. In Italia, come ha spiegato a Cosmopolitan la sociologa digitale Silvia Semenzin che da anni si occupa del fenomeno, alcuni strumenti legali per tutelarsi esistono: «Se si tratta di materiale sessualmente esplicito, si applica l’articolo 612-ter del codice penale», «Se invece parliamo di foto “neutre” prese dai social, si tratta di trattamento illecito dei dati personali e rientra nell’articolo 167 del Codice della Privacy». Ma siamo sicuri che basti?

Il caso della Danimarca

Per arginare il fenomeno del deepfake porn, la Danimarca ha rivisto la propria legge sul copyright. Ora tutti i cittadini detengono il copyright sulla propria voce e sull'immagine del proprio viso e corpo. Potrebbe sembrare scontato, ma non lo é: si tratta della prima legge europea che protegge in questo modo l'identità digitale delle persone e costituisce un precedente a cui ispirarsi. «Gli esseri umani possono finire in mezzo a una sorta di fotocopiatrice digitale e utilizzati in modo improprio per ogni sorta di scopo, e io non sono disposto ad accettarlo», ha detto al Guardian il ministro della cultura danese, Jakob Engel-Schmidt, «Inviamo un messaggio inequivocabile: ognuno ha diritto al proprio corpo, alla propria voce e ai propri lineamenti del viso, cosa che finora la legge non faceva per protegge le persone dall'intelligenza artificiale generativa».

Per tutelare la libertà di parola, la legge prevede alcune eccezioni per la satira e la critica sociale. Per il resto pone un principio fondamentale nel mondo digitale: ognuno è proprietario della propria immagine e della propria voce, ognuno sceglie se usarla e come usarla, gli altri non hanno lo stesso diritto. Secondo Henry Ajder, esperto di intelligenza artificiale e deepfake che ha parlato con il New York Times, «Non si tratta di dire "Stiamo prendendo di mira questo danno specifico". Si tratta piuttosto di dire "Ecco come concepiamo l'identità nell'era sintetica"».