"Il fatto che possano essere così facilmente utilizzati in modo improprio"
I deepfake basati sull'intelligenza artificiale e le app "nudify" stanno allontanando le donne indiane da Internet, mentre una nuova ricerca mostra un forte aumento delle immagini sessuali alterate digitalmente.
Per Gaatha Sarvaiya, laureata in giurisprudenza e residente a Mumbai, la paura di diventare un bersaglio influenza la sua presenza online.
Lei disse The Guardian: "Mi viene subito in mente: 'OK, forse non è sicuro. Forse la gente può scattare le nostre foto e farci qualcosa'."
Molti Donne indiane stanno cercando di costruire una carriera che dipenda dalla visibilità online. Ma con l'avanzare dell'intelligenza artificiale, questa visibilità diventa pericolosa.
Un rapporto diffuso da chiacchiere hanno scoperto che gli strumenti di intelligenza artificiale vengono sempre più utilizzati per umiliare e controllare le donne.
Il rapporto, che si basa sui dati della Rati Foundation, avverte che l'intelligenza artificiale ha creato "un nuovo e potente modo per molestare le donne e le minoranze di genere".
Rohini Lakshane, ricercatrice sui diritti di genere e digitali, ha affermato: "L'effetto paralizzante è vero.
"Il fatto che possano essere così facilmente usati in modo improprio mi rende particolarmente cauto."
Secondo il rapporto, circa un caso di molestie online su dieci riguarda ormai immagini generate dall'intelligenza artificiale.
Tra questi rientrano nudi manipolati e altre immagini alterate che, pur non essendo esplicite, possono comunque generare stigma nelle comunità conservatrici.
Il rapporto afferma: "L'intelligenza artificiale semplifica notevolmente la creazione di contenuti dall'aspetto realistico".
L'India è diventata un banco di prova per l'intelligenza artificiale. È uno dei mercati più grandi per OpenAI, con una rapida adozione nei settori professionale e creativo.
Ma questa popolarità ha anche messo in luce una tendenza più oscura: la normalizzazione del deepfake abuso.
Le celebrità sono state le prime vittime. L'immagine e la voce di Asha Bhosle sono state clonate tramite intelligenza artificiale e condivise su YouTube.
La giornalista investigativa Rana Ayyub è stata presa di mira da una campagna di doxing che ha portato alla diffusione di immagini di natura sessuale deepfake sui social media.
Mentre casi del genere alimentano il dibattito nazionale, spesso sono le donne comuni a subire i danni più silenziosi.
Tarunima Prabhakar, co-fondatrice di Tattle, ha affermato: "La conseguenza di subire molestie online è in realtà quella di zittirsi o di diventare meno attivi online".
Il team di Prabhakar ha trascorso due anni tenendo focus group per comprendere in che modo l'abuso digitale influenza il comportamento.
Ha affermato: "L'emozione che abbiamo identificato è la stanchezza. E la conseguenza di questa stanchezza è anche quella di allontanarsi completamente da questi spazi online".
Lakshané ha anche cambiato il suo modo di partecipare pubblicamente. Utilizza un'illustrazione al posto di una foto come immagine del profilo e rifiuta di essere fotografata agli eventi.
Ha spiegato: "C'è il timore di un uso improprio delle immagini, soprattutto per le donne che hanno una presenza pubblica, che hanno voce online e che prendono posizioni politiche".
Il rapporto della Rati Foundation descrive come le app "nudify" basate sull'intelligenza artificiale stiano alimentando un'epidemia di estorsioni e ricatti digitali.
In un caso, la fotografia di una donna contenuta in una richiesta di prestito è stata digitalmente ritoccata utilizzando uno strumento simile e condivisa online.
Il rapporto afferma: "Quando si è rifiutata di continuare con i pagamenti, la sua fotografia caricata è stata modificata digitalmente utilizzando un'app 'nudify' e inserita in un'immagine pornografica".
Quell'immagine, insieme al suo numero di telefono, circolava su WhatsApp. Sconosciuti iniziarono a chiamarla con messaggi espliciti.
La donna ha raccontato alla linea di assistenza di Rati di essersi sentita "vergognata e marchiata socialmente, come se fosse stata 'coinvolta in qualcosa di sporco'".
Attualmente, i deepfake si trovano in una zona grigia dal punto di vista legale in India. Nessuna legge li vieta specificamente, sebbene possano essere applicate le disposizioni vigenti in materia di molestie e intimidazioni online.
Eppure le vittime affermano che orientarsi nel sistema giudiziario è scoraggiante.
Anche le forze dell'ordine affermano che convincere le piattaforme di social media ad agire è difficile. Un rapporto separato di Equality Now descrive il processo come "opaco, dispendioso in termini di risorse, incoerente e spesso inefficace".
Sebbene Apple e Meta abbiano adottato misure limitate per limitare le app "nudificate", il rapporto afferma che le risposte alle vittime restano lente e inadeguate.
In un caso, WhatsApp ha eliminato i contenuti offensivi solo dopo che si erano già diffusi. In un altro, Instagram non è intervenuta finché la vittima non ha ripetutamente presentato denuncia.
I ricercatori di Rati chiamano questo schema "recidivismo dei contenuti", ovvero la ricomparsa ripetuta di materiale offensivo anche dopo la rimozione.
Il rapporto prosegue: “Una delle caratteristiche costanti degli abusi generati dall’intelligenza artificiale è la sua tendenza a moltiplicarsi.
“Si crea facilmente, viene ampiamente condiviso e tende a riemergere ripetutamente.”
L'organizzazione esorta le principali aziende tecnologiche a essere più trasparenti e a condividere dati che potrebbero aiutare a tracciare e rimuovere tale materiale. Senza un intervento più incisivo, avvertono gli esperti, il problema non potrà che aggravarsi.
Per molte donne indiane il messaggio è già chiaro: rimanere visibili online comporta rischi crescenti.








