Cerca
Close this search box.
  • EDITORIAL TEAM
    STOCKLIST
    NEWSLETTER

    FAQ
    Q&A
    LAVORA CON NOI

    CONTATTI
    INFORMAZIONI LEGALI – PRIVACY POLICY 

    lampoon magazine dot com

TESTO
CRONACHE
TAG
SFOGLIA
Facebook
WhatsApp
Pinterest
LinkedIn
Email
twitter X

Casi di deepfake pornografici: intelligenza artificiale?

Nessuna tecnologia nasce neutrale – quando il progresso tecnologico è questione di sessualità e rispetto umano, casi di deepfake pornografici e politici in intelligenza artificiale

Deepfake porn – una serie di immagini sessualmente esplicite che hanno come soggetto Taylor Swift spopolano su X 

su X digitando ‘Taylor Swift IA’ si trovano immagini che ritraggono la cantante in stivali Louboutin mentre si esibisce sui palchi del suo Eras Tour da record, con hashtag #protecttaylorswift o #respecttaylorswift. Sono state postate dai fan, nel tentativo di nascondere e far finire in fondo al motore di ricerca quello che era apparso su X nelle scorse settimane: immagini sessualmente esplicite generate da utenti anonimi con intelligenze artificiali. 

Le immagini sessualmente derogatorie di celebrità – rubate o costruite con la fotomanipolazione – circolano da quando esiste Internet e da quando esistono i giornali scandalistici. La differenza a oggi è che un’immagine falsa potrebbe essere realizzata da chiunque. I fake circolano più velocemente sulle piattaforme e sono un business facile e poco rischioso, soprattutto quando gli sviluppi dell’intelligenza artificiale si consacrano alla pornografia non consensuale. Questo genere di porno ha anche un nome: si chiama deepfake porn

Cosa significa deepfake porn – si moltiplicano i casi di revenge porn e sextortion che usano intelligenze artificiali – il progresso tecnologico deve interfacciarsi con questioni di sessualità e rispetto

Il caso di Taylor Swift è la punta dell’iceberg di una nuova forma di violenza: quella che usa l’intelligenza artificiale per denigrare le donne online. Mentre negli Stati Uniti, come nel mondo, si moltiplicano i casi di revenge porn e sextortion che usano le IA generatrici di video, immagini e suoni, il progresso tecnologico non può che interfacciarsi anche con questioni di sessualità e rispetto umano. 

Cosa significa deepfake, e una definizione di deepfake porn. Li avevamo già incontrati – Prisma, Faceswap, MSQRD, il nostro primo approccio al mondo dei deepfakes

I deepfake li avevamo già incontrati, prima che si cominciasse a parlare di investimenti nello sviluppo del deep learning. Su Prisma, Faceswap, MSQRD. Nel 2016 Instagram esplodeva con i suoi filtri e lanciava un approccio più caricaturale alle immagini. Con Prisma si poteva trasformare un ritratto in un’opera d’arte, riproducendo i colori, le atmosfere e le pennellate di artisti come Munch o Picasso. Le applicazioni di face swapping consentivano di scambiarsi facce con gli amici, mentre MSQRD è stata la prima app a permettere di aggiungere una maschera realistica alla propria faccia – come il noto filtro con le orecchie e la lingua da cane. Per questo motivo – sempre nel 2016 – Facebook (ora Meta) l’aveva comprata. Prisma, Faceswap, MSQRD: queste applicazioni hanno costituito il primo approccio – inconsapevole – al mondo dei deepfakes

Cosa significa dunque Deepfake? Per una definizione deepfake, si tratta della creazione di video o immagini il più realistiche possibili grazie all’ars combinatoria e manipolatoria delle intelligenze artificiali. Applicando queste tecnologie alla pornografia si ottiene un bacino di dati illimitato a cui accedere e con cui produrre materiale non consensuale. Nel linguaggio del deepfake porn, i “facesets” sono i visi di celebrità, di avversarie politiche (come è capitato a Alexandria Ocasio-Cortez), attiviste e persone comuni; che vanno abbinati a dei corpi di pornostar – le cosiddette “donatrici di corpi” – per generare foto o immagini in movimento. 

MrDeepFakes vanta diciassette milioni di visitatori in un mese e su Discord, gli utenti pagano 65 dollari per un video deepfake di cinque minuti

È facile accedere a un sito di pornografia deepfake. Basta fare una ricerca su Google e il primo risultato del motore di ricerca – non offuscato e senza ban – è MrDeepFakes, il sito porno di maggior successo per quanto riguarda il genere, che vanta diciassette milioni di visitatori, in un mese. L’NBC News ha scoperto come su motori di ricerca popolari, digitando “deepfake” o “fake nudes”, i primi risultati sono quelli di siti di distribuzione, tutorial e applicazioni per la realizzazione di pornografia IA. Articoli come questo che invece trattano i rischi del fenomeno arrivano dopo duecento risultati su Bing, e dieci su Google. Per di più, gli utenti e i siti che producono pornografia deepfake sono bravissimi a creare comunità online. 

Su Discord, per esempio, gli utenti richiedono delle combinazioni specifiche di video pornografici e fotografie della loro celebrità preferita. E la customizzazione dei deepfake non si limita solo alle celebrities: i creatori possono realizzare video di tutti, per tutti. Su Discord uno di loro chiede 65 dollari per un video deepfake di cinque minuti di una “personal girl”, ovvero una ragazza con meno di due milioni di follower su Instagram, e che solo l’acquirente conosce. 

Telegram, i bot che consentono agli utenti di spogliare le donne vestite 

Sensity è una società di cybersecurity che si occupa di monitorare la diffusione di immagini deepfake e di mantenere un’«integrità dei media visivi nell’era dell’intelligenza artificiale generativa». Mettono a disposizione una serie di strumenti per la rilevazione di immagini false, hanno un blog dove sviscerano le sfide contemporanee poste dall’uso dell’intelligenza artificiale e hanno prodotto due report, l’ultimo risalente al 2020 sull’uso dell’app Deep Nude che dal 2019 consente agli utenti di “spogliare” le foto di donne vestite. 

Il 70% delle donne coinvolte non sono famose e le loro immagini circolano prevalentemente su canali Telegram. Qui basta entrare in chat con un bot per richiedere con facilità foto di nudi realistici di qualsiasi donna. L’applicazione non funziona se testata su immagini ritraenti uomini perché l’intelligenza artificiale è stata addestrata specificatamente su corpi femminili: un abuso del deep learning che già profetava i pericoli legati alla crescente accessibilità di strumenti automatizzati per la creazione di pornografia. 

L’Italia nel 2020 risultava essere tra i paesi al mondo in cui il fenomeno è più diffuso – Gli strumenti legali per contrastare la pornografia deepfake

Questo tipo di bot più rudimentali sono i più utilizzati nel quotidiano. Come nel caso che ha visto coinvolte due ragazze minorenni di Treviso, di cui erano circolate false foto nude a ottobre 2023, generate con l’app Bikini Off. Nell’ottobre 2020 il report di Sensity aveva contato nelle chat private Telegram le immagini di 104.852 donne virtualmente ‘spogliate’ con l’uso dell’intelligenza artificiale. L’Italia, peraltro, risultava essere, dopo gli Stati Uniti, la Russia e l’Argentina, tra i paesi al mondo in cui il fenomeno è più diffuso. In Italia, per adesso, gli strumenti legali per contrastare la pornografia deepfake si limitano al reato di diffamazione.  Estorsione nel caso in cui ci siano minacce di revenge porn o sextortion. Così come ci si potrebbe riferire anche al reato di stalking come fattispecie tendenzialmente idonea a tutelare le vittime di deepfake. 

Nel caso di pornografia minorile, invece, le immagini virtuali sono già integrate nel reato. Per tutte le altre occorrenze, i legislatori propongono l’applicabilità anche a contenuti pornografici deepfake del decreto sul Revenge Porn – da poco entrato nel nostro ordinamento – che per ora tutela solamente la pubblicazione e la diffusione di immagini e video reali. 

L’uso più popolare dei deepfakes e delle tecnologie generative IA è legato alla violenza di genere 

Tra siti web che ospitano esclusivamente video pornografici deepfake, video pubblicati sui social media, video condivisi in privato e foto manipolate è davvero difficile misurare la portata della produzione di pornografia deepfake online a livello globale. Sappiamo che il 2023 ha visto una produzione senza precedenti di porno deepfake. Un ricercatore indipendente ha condiviso con Wired dati che riportano un aumento del 54% di videografia deepfake su tutti i siti presi in esame e 113.000 video pubblicati in soli nove mesi, in un periodo che va da gennaio a settembre 2023. In generale, il dato rilevante e che interessa è che l’uso più popolare dei deepfakes e delle tecnologie generative IA è legato alla violenza di genere. Un report di Sensity AI ha rilevato che il 96% della produzione di deepfakes è sessualmente esplicita, e il 99% di questa produzione ha come protagoniste delle donne. 

Cos’è l’Infowar: le fake robocalls del presidente Biden e i deepfake in politica 

La proliferazione dei deepfake online non ha toccato solo la pornografia. Il secondo utilizzo più frequente di IA generatrici di immagini, suoni, video – dopo quello pornografico – infatti riguarda la propaganda politica. L’ultimo caso, che ha fatto tornare in auge il dibattito sulla necessità di varare una legge federale contro queste pratiche, riguarda le primarie dei democratici nel New Hampshire. Qui molti elettori, il giorno prima di recarsi alle urne, hanno ricevuto una robotcall, una telefonata dove un’imitazione digitale della voce del presidente in carica Joe Biden li esortava a non andare a votare: “Your vote makes a difference in November, not this Tuesday”. 

Il termine infowar sta a indicare quelle che sono le connessioni tra guerre fisiche, commerciali, reputazionali e i sistemi di informazione. E se è chiaro che quello del New Hampshire è un caso minore – che tra l’altro non ha avuto effetti sulla corsa di Biden alla presidenza – accende certamente una spia sugli usi dell’intelligenza artificiale nelle campagne politiche, in un anno pivotale in cui bilioni di persone voteranno in tutto il mondo – secondo le stime, intorno a metà della popolazione globale. Le numerosissime elezioni democratiche del 2024 dovranno ponderare gli effetti di questa proliferazione del falso, quello che molti definiscono il political deepfake moment.

Per il World Economic Forum, il pericolo di disinformazione sarà la sfida più grande del prossimo anno: quello che ci circonda è un nuovo tipo di falso – ipermedializzato, augmented 

Pare, insomma, che l’intelligenza artificiale riguardi sempre di più le piccolezze di persone reali: quello che sembrava un medium – addirittura per alcuni un’entità sensiente – distaccato dal mondo, sospeso nel cloud e nelle fantasie della Silicon Valley, si è rivelato essere molto più simile a noi di quanto pensavamo, ereditando tutti i nostri difetti. E le ripercussioni della democratizzazione di questi strumenti di produzione appaiono più reali che mai. Per il World Economic Forum, il pericolo di disinformazione sarà la sfida più grande del prossimo anno. 

Si assiste a un nuovo tipo di falso – ipermedializzato, augmented. Un falso in realtà aumentata, in altissima qualità, che sembra essere quasi un’esagerazione del vero ed è molto più facile da credere, come le immagini dell’arresto di Trump o la foto del papa in Balenciaga. «Le prime forme assunte dal falso online – ad esempio i siti di fake news degli anni Dieci – sono già dei reperti archeologici rispetto a quelle che abbiamo di fronte oggi», scrive Mattia Salvia, direttore di Iconografie. 

Iconografie, account Instagram che si propone di creare un archivio memetico di immagini emblematiche del nostro tempo, ha deciso di dedicare un numero della propria rivista al falso nel XXI secolo, e considera il 2023 come un anno di svolta nel discorso sulle AI generatrici di immagini: «Siamo passati nel corso di un anno dai disegni di DALL-E Mini, che chiunque era in grado di riconoscere come prodotti da una macchina, alla immagini fotorealistiche di Midjourney scambiate per vere da migliaia di persone». 

Il 2024, il primo anno dello sviluppo delle immagini IA – le risposte dei policy makers sulle responsabilità delle piattaforme social

Nell’anno appena trascorso i deepfake e le intelligenze artificiali hanno cambiato definitivamente il rapporto di Internet con il vero e con il falso nel campo delle immagini. Il 2024 costituisce il primo dopo cristo nello sviluppo delle immagini IA, e ora sta ai policy makers capire come far sì che il mondo delle intelligenze artificiali online diventi un posto più sicuro. La prima questione sorta dopo il caso Swift riguarda la responsabilità di piattaforme social come X nella diffusione di contenuti ad alto rischio, come immagini di nudo o hate speech

Sembra che i discorsi di odio – violenza, antisemitismo, razzismo, sessismo – sull’ex Twitter siano aumentati da quando Elon Musk ha preso in mano la piattaforma, presentandosi come difensore della libertà di espressione sui social media. A dirlo non solo solamente utenti scontenti, ma diversi report del Center for Countering Digital Hate. C’è chi addirittura si è spinto a dire che le elezioni presidenziali americane di novembre saranno determinate dalle politiche di moderazione che i social media decideranno di implementare per quanto riguarda i contenuti relativi alle campagne elettorali. 

«Il funzionamento delle intelligenze artificiali dipende dall’appropriazione della cultura esistente» – Per James Bridle nessuna tecnologia nasce neutrale

Le piattaforme social sono responsabili solo dello smistamento dei prodotti deepfake. Quello che è poco chiaro ai policy makers e a chi decide sulle leggi è come pulire l’acqua sporca della fonte. Non è che l’intelligenza artificiale sia di per sé cattiva, ma nessuna tecnologia nasce neutrale. Come potrebbero esserlo quindi degli algoritmi che lavorano al rimpasto delle nostre immagini e delle nostre parole, che non sono mai neutrali? 

Nel 2023 James Bridle, artista e scrittore che si occupa dei modi in cui il mondo digitale raggiunge quello reale, scriveva sul Guardian che le intelligenze artificiali basano il loro funzionamento su una nuova forma di «accumulazione primitiva»: non di materie prime o di forza lavoro, ma di dati: un’espropriazione del lavoro, della vita personale, della creatività dei molti utenti. Insomma – lo sappiamo – «il funzionamento delle intelligenze artificiali dipende dall’appropriazione della cultura esistente», resa sotto forma di banche dati. Premesso che la nostra è spesso una cultura dell’odio, dello stupro, del sessismo, come faranno le IA a non promuovere questi stessi disvalori? Insomma, a ora le intelligenze artificiali sembrano fare l’opposto di quello che pensavamo avrebbero fatto: più che migliorare o cambiare le nostre condizioni di vita, rinforzano le strutture di potere e le disuguaglianze esistenti, con le loro bias razziali, gli usi e gli abusi. 

Per regolare gli usi delle IA occorre capire come funzionano, come imparano, come pensano

Da una prospettiva legislativa, il punto pivotale che molti faticano a capire è che per regolare gli usi delle IA bisognerebbe prima capire come funzionano, come imparano, come “pensano”. Bisognerebbe, pertanto, che le grandi aziende high-tech rendessero disponibile una conoscenza – quella del linguaggio computazionale e del deep learning – che a ora è elitaria e che esclude gran parte della popolazione – coloro che dagli usi di queste tecnologie vengono spesso truffati. Certo, alcune cose le abbiamo capite. Ormai sappiamo tutti che esistono enormi banche dati da cui le intelligenze artificiali attingono per imparare, sappiamo anche che molti sono i nostri, blocchiamo i cookie e navighiamo in modalità privata con la VPN ma conosciamo davvero i nomi delle compagnie che forniscono e vendono questi dati? 

Un tema che Bridle esplora bene in Nuova Era Oscura, testo del 2019, è proprio l’oscuramento: tutti quei non detti che aleggiano intorno al funzionamento e alla diffusione dell’intelligenza artificiale. Basti pensare che solo di recente si sta parlando degli effetti devastanti che la produzione di IA semplici come Amazon Echo ha sull’ambiente. Il punto è semplice e lo ha spiegato bene anche Kate Crawford, ricercatrice specializzata nelle implicazioni politiche dell’intelligenza artificiale, in una mostra all’Osservatorio Fondazione Prada di Milano: «l’IA non è né artificiale né intelligente. Piuttosto, l’intelligenza artificiale è sia incarnata che materiale, composta da risorse naturali, combustibili, lavoro umano, infrastrutture, logistica, storie e classificazioni». Solo che spesso non ci è dato conoscere questi retroscena. E l’impossibilità, allo stato attuale, di difendersi e tracciare anche solo i numeri della pornografia deepfake ne è una dimostrazione. 

Alessia Baranello

L’autore non collabora, non lavora né partecipa, non riceve compensi né finanziamenti, da alcuna azienda o organizzazione che possa ricevere vantaggi economici o di sorta dalla pubblicazione di questo articolo.

SFOGLIA
CONDIVIDI
Facebook
LinkedIn
Pinterest
Email
WhatsApp
twitter X