"Il video è stato condiviso altre 40,000 volte"
In un’era dominata dal rapido progresso della tecnologia, l’emergere dei deepfake ha aggiunto un nuovo livello di complessità al panorama digitale.
I deepfake si riferiscono a contenuti generati dall'intelligenza artificiale che sostituiscono in modo convincente le sembianze di una persona in audio, video o immagini con un'altra.
Se da un lato la tecnologia presenta interessanti possibilità in termini di intrattenimento e creatività, dall’altro solleva anche preoccupazioni allarmanti sulla privacy, sulla disinformazione e sul suo potenziale di esacerbare questioni come il porno vendetta.
Ci sono già stati casi di alto profilo di celebrità dell’Asia meridionale colpite da deepfake.
Alia Bhatt, Rashmika Mandanna, Priyanka Chopra Jonas e Kajol hanno fatto trapelare video online in cui i loro volti sono provocatoriamente incollati su altri corpi.
Anche il sindaco di Londra, Sadiq Khan, è stato vittima del deepfake. Sky News ha riportato nel novembre 2023:
"L'audio generato digitalmente, utilizzando la voce e i manierismi del sindaco di Londra, pretende di essere una registrazione di lui che minimizza l'importanza delle commemorazioni del fine settimana della Memoria."
Nel morso, si può sentire "Khan" dire:
"Non me ne frega un cazzo del fine settimana della Memoria."
Sebbene le autorità fossero consapevoli che la clip era falsa, ciò evidenzia il pericolo che i deepfake possono causare sia in formato visivo che audio.
Ma presenta una nuova rivelazione allarmante.
Anche se gli individui di alto profilo sono più inclini a soffrire di deepfake, l’oggetto in questione può essere liquidato come falso quasi immediatamente.
Tuttavia, le persone normali hanno meno risorse per rimuovere immagini, audio o video da Internet.
Una volta che qualcosa viene pubblicato online, è quasi impossibile rimuoverlo. E questo significa un nuovo pericolo per le vittime del porno vendetta.
Comprendere i Deepfake

La tecnologia Deepfake utilizza l'intelligenza artificiale e algoritmi di deep learning per creare contenuti realistici, spesso indistinguibili dai media autentici.
Mappando le espressioni facciali, i gesti e i modelli vocali, questi algoritmi possono manipolare i contenuti esistenti o generare materiale completamente nuovo.
La facilità con cui possono essere creati deepfake solleva preoccupazioni sulla diffusione della disinformazione.
Con intenti malevoli, gli individui potrebbero utilizzare i deepfake per manipolare la percezione pubblica o offuscare la reputazione di personaggi pubblici all’interno della comunità dell’Asia meridionale.
I deepfake rappresentano una minaccia significativa per la privacy personale.
Con l’avanzare della tecnologia, aumenta la possibilità per gli autori malintenzionati di creare simulazioni realistiche di individui coinvolti in situazioni compromettenti.
Ciò potrebbe portare a danni alla reputazione e disagio emotivo, in particolare nelle società conservatrici dell’Asia meridionale.
Una delle preoccupazioni più urgenti è la possibilità che i deepfake facilitino la diffusione porno vendetta.
Sovrapponendo i volti degli individui a contenuti espliciti, gli autori del reato potrebbero sfruttare questa tecnologia per danneggiare la reputazione e il benessere emotivo delle donne nella comunità dell'Asia meridionale.
I deepfake hanno il potenziale per erodere la fiducia nelle relazioni personali.
La capacità di manipolare i contenuti digitali potrebbe portare ad un aumento dello scetticismo e dell’insicurezza, influenzando le dinamiche delle relazioni in cui i valori tradizionali hanno un peso significativo.
Deepfake e porno

Da The Guardian, editorialista Moira Donegan ha scritto:
“Gli annunci per servizi deepfake appaiono direttamente accanto ai video espliciti su PornHub.
“Sebbene la tecnologia deepfake possa teoricamente essere utilizzata per qualsiasi tipo di contenuto… la tecnologia viene utilizzata per creare porno non consensuale.
"Secondo un rapporto del 2019, il 96% del materiale deepfake online è pornografico."
Lei aggiunge:
“Il deepfake vendetta porno, quindi, non fa altro che realizzare con la tecnologia ciò che il porno tradizionale ha offerto agli uomini nella fantasia…
“…la certezza che ogni donna può essere resa inferiore, degradata e umiliata, attraverso la forza sessuale.
“Il punto è il mancato consenso; il punto è l'umiliazione; il punto è la crudeltà.
Forse uno dei casi più eclatanti di questo problema è stato quello della giornalista indiana Rana Ayyub.
In seguito alla sua copertura del caso di violenza sessuale del 2018 che coinvolgeva una bambina del Kashmir di otto anni, Ayyub ha dovuto affrontare una reazione negativa per aver affermato che l’India protegge i predatori di bambini.
Inizialmente, i troll diffondevano falsi tweet utilizzando Photoshop per far sembrare che Ayyub stessa li stesse twittando dal suo account ufficiale.
Alcuni dei tweet falsi recitano: “Odio l’India” e “Amo i bambini stupratori”.
In un Huffington Post Nell'articolo, Ayyub spiega di essere stata "costretta a scrivere un chiarimento" sull'intero incidente.
Ma continua dicendo che ciò non ha fermato la catastrofe che sarebbe accaduta dopo:
"Una fonte del BJP al potere mi ha inviato un messaggio per dire 'Sta circolando qualcosa su WhatsApp, te lo manderò ma promettimi che non ti arrabbierai.'
“Quello che mi ha mandato era un video porno e la donna in esso ero io.
“Quando l'ho aperto per la prima volta, sono rimasto scioccato nel vedere la mia faccia, ma ho capito che in realtà non ero io perché, per esempio, ho i capelli ricci e la donna aveva i capelli lisci.
“Sembrava anche molto giovane, non più di 17 o 18 anni.
“Ho iniziato a vomitare. Semplicemente non sapevo cosa fare. In un paese come l’India, sapevo che questo era un grosso problema.
“Non sapevo come reagire, ho iniziato a piangere.
“Gli ho chiesto perché circolava negli ambienti politici e lui mi ha detto che qualcuno all’interno del partito lo aveva trasmesso.
“Prima ancora che potessi riprendermi, il mio telefono ha iniziato a emettere un segnale acustico e ho visto che avevo più di 100 notifiche Twitter, tutte condividevano il video.
“Il mio amico mi ha detto di cancellare Twitter ma non potevo, non volevo che la gente pensasse che fossi davvero io.
“Sono andato su Facebook e anche lì sono stato inondato di messaggi.
“Stavano cercando di farmi deragliare, ogni altra persona mi molestava con commenti del tipo 'Non sapevo che avessi un corpo così meraviglioso'.
“Ho cancellato il mio Facebook, semplicemente non potevo sopportarlo.
“Ma su Instagram, sotto ogni mio post, i commenti si riempivano di screenshot del video.
“Poi la fanpage del leader del BJP ha condiviso il video e la cosa è esplosa a dismisura.
“Il video è stato condiviso altre 40,000 volte.
"È finito su quasi tutti i telefoni in India."
“È stato devastante. Non potevo proprio mostrare la mia faccia.
“Puoi definirti una giornalista, puoi definirti una femminista ma in quel momento non riuscivo proprio a vedere oltre l'umiliazione.
“Mi aveva esposto a un linciaggio in India. La gente pensava che ora avrebbero potuto farmi quello che volevano.
“Il giorno dopo mi hanno derubato.
“Un altro tweet è circolato sui social media con uno screenshot del video e accanto il mio numero, dicendo 'Ciao, questo è il mio numero e sono disponibile qui'.
“La gente ha iniziato a mandarmi messaggi WhatsApp chiedendomi le tariffe per il sesso.
“Sono stato mandato in ospedale con palpitazioni cardiache e ansia, il medico mi ha dato delle medicine.
"Ma stavo vomitando, la mia pressione sanguigna è aumentata vertiginosamente, il mio corpo aveva reagito così violentemente allo stress."
Questo evento toccante è sentito da molte donne in tutto il mondo, ma questa è ancora solo la punta dell’iceberg, il che è molto allarmante.
Volevamo raccogliere i pensieri delle donne asiatiche britanniche per vedere cosa pensavano di questo problema.
Sanno almeno cos'è il deepfake? Sono preoccupati? A loro importa?
La prospettiva delle donne asiatiche britanniche

Per comprendere le implicazioni nei confronti delle comunità dell’Asia meridionale, abbiamo parlato con le donne del Regno Unito dei loro pensieri.
Mentre nei paesi dell’Asia meridionale la situazione è completamente diversa a causa della loro tecnologia, risorse e consapevolezza, un posto come il Regno Unito sta vedendo un’enorme crescita dei deepfake.
La 28enne Sonia Patel di Londra ha detto a DESIblitz:
“Sono sinceramente preoccupato per i deepfake; sono come marionette digitali.
“Le nostre vite sono già un atto di equilibrio delle aspettative culturali.
“Questo aggiunge solo un altro livello, in cui gli uomini troveranno un altro modo per demonizzare una donna per qualcosa su cui non ha alcun controllo.
Ayesha Bassi da Manchester ha dichiarato:
“I deepfake potrebbero facilmente distorcere le nostre voci e le nostre azioni.
"Non è nemmeno solo un porno di vendetta, ma donne e uomini possono usarlo per pescare le persone, commettere frodi o anche per il proprio piacere malato."
Allo stesso modo, Meera Joshi, nativa di Birmingham, ha detto:
“Come donna dell’Asia meridionale, la privacy è un bene prezioso.
“Il pensiero che qualcuno manipoli la mia immagine o la mia voce è snervante. Abbiamo bisogno di garanzie contro questa invasione digitale.
"Non sono preoccupato a questo punto, ma immagino che tu debba trovarti in questo tipo di clima."
Zara Ahmad*, un'infermiera di 27 anni di Edimburgo, ha espresso:
“Mi preoccupa l’impatto sugli appuntamenti.
“È già un campo minato; i deepfake potrebbero trasformarlo in una zona di guerra digitale in cui metti in discussione ogni interazione e immagine.
“Il Revenge Porn esiste da decenni ed è una fantasia malata sfruttata dall'industria del porno.
"Quindi temo che qualsiasi legge in merito non farà la differenza."
Anika Kapoor, 33 anni, di Bristol, ha espresso i suoi pensieri:
“Non si tratta solo di me stesso; riguarda il futuro.
“Ho visto deepfake di celebrità e c'era anche quello spettacolo comico ITV. Quando si scherza su qualcosa, diminuisce l’importanza del controllo.
“Non riesco a immaginare che la mia faccia e i miei manierismi facciano qualcosa di sporco affinché la gente possa vederli liberamente. Mi fa ammalare."
Sara Kaur di Oxford è d'accordo, dicendo:
“Come professionista della tecnologia, l’idea che i deepfake possano manipolare la mia immagine è angosciante.
“Sono in conflitto perché amo il settore che sta accelerando lo sviluppo dei deepfake e dell’intelligenza artificiale.
“Quindi, se le persone sono preoccupate adesso, non hanno idea di quanto enorme potrebbe diventare la situazione.
“Non è solo una preoccupazione personale; è una minaccia alla nostra integrità professionale.
"E per le donne che pensano che non saranno un bersaglio, ripensaci."
“Verrà un momento (speriamo di no) in cui le persone potranno prendere una semplice immagine e creare un video intero utilizzando manierismi, voce, movimenti, ecc.
“Ciò porterà senza dubbio a ulteriori casi di porno vendetta e deepfake. È ancora più preoccupante per la prossima generazione, cresciuta in un ambiente più tecnologico e basato sull’intelligenza artificiale.
"Immediatamente acquisiranno queste abilità, come facevano i bambini durante l'era dell'iPad."
Anche Aisha Hemek di Londra aveva le sue preoccupazioni:
“Lavorando nel settore dei media, sono entusiasta delle possibilità offerte dall'intelligenza artificiale, ma il lato oscuro dei deepfake è snervante.
“È un campanello d’allarme per noi affinché diventino consumatori più esigenti e per l’industria ad adottare linee guida etiche per frenare potenziali usi impropri”.
Tuttavia, altre donne asiatiche britanniche hanno fornito alcune prospettive interessanti:
La 25enne Rima Kang* di Birmingham ha rivelato:
“Deepfake? Onestamente, sto ancora cercando di capire come utilizzare i filtri Snapchat!
"L'intelligenza artificiale è come un linguaggio completamente nuovo, ma ehi, finché le mie orecchie da gatto e le corone di fiori rimangono carine, non mi stresserò."
Saira, 22 anni, anche lei di Birmingham, ci ha detto:
“Sono più preoccupato quando il mio telefono non si sblocca con la mia faccia rispetto ai deepfake.
“Non penso che siano così pericolosi per noi, solo per le celebrità.
"Se qualcuno è un esperto in questo campo, non prenderà di mira un nessuno di Birmingham."
Zeema Ahmed da Londra è intervenuto:
“Conosco ChatGPT ma questo è tutto.
"Penso che il vendetta porno in sé sia un problema, ma i deepfake non avranno alcun impatto sulle normali donne brune del Regno Unito, questo è certo."
Anche la sorella minore di Zeema, Zainab, 19 anni, ci ha raccontato il suo punto di vista:
“Capisco a malapena il telecomando della TV per la metà del tempo.
“Deepfake? È il lontano cugino delle carte d'identità false? L’intelligenza artificiale può fare il suo dovere fintanto che posso continuare a guardare i miei K-drama senza interruzioni.
Neha Khan, 22 anni, di Leeds ha aggiunto:
“Onestamente penso che le ragazze della mia età siano ossessionate da TikTok e Insta più di ogni altra cosa. Non me ne preoccupo troppo, a dire il vero.
“Sembra anche una questione maschile. Non riesco a immaginare le donne che usano il volto di un uomo per creare un video sporco.
"Penso che debbano prima controllare gli uomini e tutto questo sparirà."
Infine, Meera Singh, 23 anni di Newcastle, ha espresso:
“Sono ancora stupito dalla correzione automatica, per non parlare dei deepfake!
“Ho visto cose su Alia Bhatt e Kajol su Instagram, ma pensavo che fosse un problema in India. Sembra che ci sia qualcosa di più pericoloso laggiù che qui.
“Ci sono pervertiti ovunque, ma questo è un problema per l’industria del porno.
“Glorificano ogni genere di cose e questo fa sì che tutto vada bene. È così che la gente se la cava.
“Ma nulla cambierà o si fermerà – in ogni caso, non sono preoccupato.”
È chiaro che qui esiste una spaccatura tra la consapevolezza dei deepfake e il danno che potrebbero potenzialmente causare in relazione al porno vendetta.
Sebbene la maggior parte delle donne asiatiche britanniche siano attratte dalla questione, alcune non vedono il deepfake come una priorità e pensano di non essere direttamente colpite.
Anche se questo potrebbe essere vero, la tecnologia che circonda i deepfake sta crescendo rapidamente.
Con le celebrità già di alto profilo prese di mira, le comunità normali potrebbero avere più difficoltà anche solo a sapere se sono state vittime di questo problema.
Quindi, ci sono molti fattori da tenere in considerazione.
Promuovendo la consapevolezza, implementando solidi quadri giuridici e sfruttando la tecnologia in modo responsabile, le comunità possono salvaguardare i propri membri dalle insidiose minacce poste dalla tecnologia deepfake.
Se sei o conosci qualcuno che soffre di porno vendetta, chiedi aiuto:
- Helpline di vendetta porno - 0345 6000 459
- Assistenza alle vittime - 0808 168 911
- La Cyber Helpline








