Su X, Musk ha definito le risposte di Gemini "estremamente allarmanti
Lo strumento di intelligenza artificiale di Google Gemini è stato oggetto di discussione negli ultimi giorni, soprattutto tra le comunità di sinistra e di destra.
È un concorrente di ChatGPT, risponde alle domande in forma di testo e genera immagini da istruzioni di testo.
Un post virale mostrava che i Gemelli generavano un'immagine dei padri fondatori degli Stati Uniti, tuttavia, includeva erroneamente un uomo di colore.
I Gemelli generarono anche soldati tedeschi della Seconda Guerra Mondiale, raffigurando erroneamente un uomo di colore e una donna asiatica.
Google si è scusato e ha “messo in pausa” lo strumento AI, scrivendo in un post sul blog che “stava mancando il bersaglio”.
Ma le sue risposte eccessivamente politicamente corrette continuarono, questa volta dalla versione testuale.
Alla domanda se Elon Musk pubblicare meme su X fosse peggio dell’uccisione di milioni di persone da parte di Hitler, Gemini ha risposto che “non esiste una risposta giusta o sbagliata”.
Quando è stato chiesto se sarebbe stato giusto considerare la transwoman misgender Caitlyn Jenner se fosse l’unico modo per evitare un’apocalisse nucleare, Gemini ha detto che questo “non sarebbe mai” stato accettabile.
Jenner ha risposto e ha detto che le sarebbe andato bene in queste circostanze.
Su X, Musk ha definito le risposte di Gemini “estremamente allarmanti” dato che lo strumento sarebbe incorporato negli altri prodotti Google, utilizzati collettivamente da miliardi di persone.
In una nota interna, l'amministratore delegato di Google Sundar Pichai ha riconosciuto che alcune delle risposte di Gemini "hanno offeso i nostri utenti e mostrato parzialità", il che è "del tutto inaccettabile".
Pichai ha aggiunto che i team stanno lavorando per risolvere il problema, ma nel tentativo di risolvere un problema, ne è emerso un altro: un risultato che si sforza così tanto di essere politicamente corretto da finire per essere assurdo.
Ciò accade a causa della grande quantità di dati su cui vengono addestrati gli strumenti di intelligenza artificiale. Gran parte di esso è pubblicamente disponibile su Internet, che contiene vari pregiudizi.
Un esempio è che tradizionalmente è più probabile che le immagini dei medici ritraggano uomini.
D'altra parte, è più probabile che le foto degli addetti alle pulizie siano donne.
Gli strumenti di intelligenza artificiale addestrati con questi dati hanno commesso degli errori, come concludere che solo gli uomini avevano lavori di alto livello o non riconoscere i volti neri come umani.
Inoltre, non è un segreto che la narrazione storica tenda a omettere i ruoli delle donne dalle storie del passato.
Google ha cercato attivamente di compensare questo pregiudizio umano dando istruzioni ai Gemelli di non fare tali presupposti.
Ma è fallito perché la storia e la cultura umana hanno sfumature che le macchine non conoscono.
A meno che uno strumento di intelligenza artificiale non sia specificamente programmato per saperlo, non farà questa distinzione.
Il co-fondatore di DeepMind, Demis Hassabis, ha affermato che per sistemare Gemini ci vorranno alcune settimane. Ma altri esperti di intelligenza artificiale non ne sono così sicuri.
La dottoressa Sasha Luccioni, ricercatrice presso Huggingface, ha dichiarato:
“Non esiste davvero una soluzione semplice, perché non esiste una risposta univoca su quali dovrebbero essere i risultati.
“Le persone nella comunità etica dell’IA lavorano da anni su possibili modi per affrontare questo problema”.
Ha detto che una soluzione potrebbe includere chiedere agli utenti il loro contributo, ad esempio "quanto diversa vorresti che fosse la tua immagine?" ma questo di per sé presenta i suoi segnali d’allarme.
Il dottor Luccioni ha aggiunto:
“È un po' presuntuoso da parte di Google affermare che risolverà il problema in poche settimane. Ma dovranno fare qualcosa”.
Nel frattempo, il professor Alan Woodward, informatico dell’Università del Surrey, ha affermato che sembra che il problema sia “abbastanza profondamente radicato” sia nei dati di addestramento che negli algoritmi sovrastanti – e che sarebbe difficile da risolvere.
Ha detto: “Ciò a cui stai assistendo… è il motivo per cui ci sarà ancora bisogno di un essere umano nel circuito per qualsiasi sistema in cui si fa affidamento sul risultato come verità fondamentale”.
Rosie Campbell, Policy Manager presso OpenAI, creatore di ChatGPT, ha affermato che in OpenAI, anche quando viene identificato un pregiudizio, correggerlo è difficile e richiede il contributo umano.
Sembra che Google abbia scelto un modo scomodo per cercare di correggere vecchi pregiudizi. Nel tentativo di risolverli, ne ha involontariamente creati tutta una serie di nuovi.
In apparenza, Google guida la corsa all’intelligenza artificiale poiché produce e fornisce i propri chip AI, possiede una rete cloud, ha accesso a molti dati e ha un’enorme base di utenti.
Tuttavia, gli attuali problemi di Google con Gemini non sembrano essere una soluzione rapida.