“Le immagini replicano la grammatica visiva della povertà”
Immagini generate dall'intelligenza artificiale che raffigurano povertà estrema e sopravvissuti a violenze sessuali stanno comparendo sempre più spesso sui siti di foto stock e vengono utilizzate dalle principali ONG sanitarie, spingendo gli esperti a mettere in guardia contro una moderna forma di "pornografia della povertà".
Noah Arnold, di Fairpicture, Ha detto The Guardian:
"Ovunque, la gente lo sta usando. Alcuni stanno attivamente utilizzando immagini di intelligenza artificiale, e altri, sappiamo che stanno almeno sperimentando."
Arsenii Alenichev, ricercatore presso l'Istituto di medicina tropicale di Anversa che studia le immagini relative alla salute globale, ha affermato che le immagini imitano i classici stereotipi sulla povertà.
Ha spiegato: "Le immagini riproducono la grammatica visiva della povertà: bambini con piatti vuoti, terra screpolata, immagini stereotipate".
Alenichev ha raccolto oltre 100 immagini generate dall'intelligenza artificiale e utilizzate nelle campagne sui social media contro la fame e la violenza sessuale.
Tra queste, scene molto esagerate, come bambini rannicchiati nell'acqua fangosa o una ragazza africana in abito da sposa con una lacrima che le riga il viso.
In un commento in La salute globale di Lancet, Alenichev ha descritto il fenomeno come “pornografia della povertà 2.0”.
Sebbene sia difficile misurarne l'esatta portata, gli esperti affermano che è in crescita. La tendenza è stata alimentata da vincoli di bilancio e dalle preoccupazioni relative all'ottenimento del consenso per la fotografia autentica.
Alenichev ha affermato: "È abbastanza chiaro che diverse organizzazioni stanno iniziando a prendere in considerazione le immagini sintetiche invece della fotografia reale, perché sono economiche e non c'è bisogno di preoccuparsi del consenso e di tutto il resto".
Siti come Adobe Stock e Freepik ospitano numerose immagini generate dall'intelligenza artificiale sotto termini di ricerca come "povertà".
Molte di queste immagini riportano didascalie come "Bambino fotorealistico in un campo profughi", "Bambini asiatici nuotano in un fiume pieno di rifiuti" e "Volontario bianco caucasico fornisce consulenza medica a bambini neri in un villaggio africano".
Alenichev ha continuato: "Sono così razzializzati. Non dovrebbero nemmeno permettere che vengano pubblicati, perché sono i peggiori stereotipi sull'Africa, o sull'India, o su qualsiasi altra cosa".
Secondo Joaquín Abela, CEO di Freepik, le piattaforme stesse non sono responsabili dell'utilizzo delle immagini. Le foto sono generate dalla community globale di contributori della piattaforma, che percepiscono una commissione di licenza quando le loro immagini vengono acquistate.
Ha aggiunto che Freepik ha tentato di affrontare i pregiudizi nel suo archivio promuovendo la diversità nelle immagini professionali, come quelle di avvocati e CEO, ma ha ammesso che la domanda dei clienti determina in larga misura ciò che viene creato e venduto.

Le ONG hanno già utilizzato immagini generate dall'intelligenza artificiale.
Nel 2023, la filiale olandese di Plan International ha pubblicato un video di campagna contro i matrimoni infantili, utilizzando immagini generate dall'intelligenza artificiale di una ragazza con un occhio nero, di un uomo anziano e di un'adolescente incinta.
L'ONU ha anche pubblicato un video su YouTube che mostrava "ricostruzioni" di violenze sessuali durante i conflitti, generate dall'intelligenza artificiale, tra cui la testimonianza di una donna burundese che descriveva il suo stupro da parte di tre uomini nel 1993. Il video è stato successivamente rimosso.
Un portavoce delle missioni di mantenimento della pace delle Nazioni Unite ha dichiarato: "Il video in questione, prodotto più di un anno fa utilizzando uno strumento in rapida evoluzione, è stato rimosso, poiché riteniamo che mostri un uso improprio dell'intelligenza artificiale e possa comportare rischi per l'integrità delle informazioni, mescolando filmati reali e contenuti quasi reali generati artificialmente.
“Le Nazioni Unite restano ferme nel loro impegno a sostenere le vittime di violenza sessuale legata ai conflitti, anche attraverso l’innovazione e un’advocacy creativa.”
Arnold ha affermato che la proliferazione delle immagini basate sull'intelligenza artificiale è il risultato di dibattiti di lunga data sulla rappresentazione etica nella salute globale:
"A quanto pare, è più facile prendere immagini di intelligenza artificiale già pronte, provenienti senza consenso, perché non si tratta di persone reali."
Kate Kardol, consulente di comunicazione per una ONG, ha affermato che le immagini sono allarmanti:
“Mi rattrista che la lotta per una rappresentazione più etica delle persone in povertà si estenda ora all’irreale.”
Gli esperti avvertono che l'intelligenza artificiale generativa spesso riproduce l'esistente pregiudizi sociali.
Alenichev ha osservato che l'uso diffuso di tali immagini nelle campagne sanitarie globali potrebbe aggravare questi problemi, poiché potrebbero essere incorporate in futuri set di dati di addestramento dell'intelligenza artificiale, amplificando i pregiudizi.
Un portavoce di Plan International ha confermato che la ONG ha ora "adottato linee guida che sconsigliano l'uso dell'intelligenza artificiale per rappresentare singoli bambini" e ha affermato che la campagna del 2023 ha utilizzato l'intelligenza artificiale per proteggere "la privacy e la dignità delle ragazze reali".








