"Questa non è fantascienza."
Leader mondiali e alti dirigenti del settore tecnologico hanno partecipato all'AI Summit di Parigi per discutere su come gestire i rischi dell'intelligenza artificiale.
Tuttavia, Regno Unito e Stati Uniti se ne sono andati senza firmare una dichiarazione globale sull'IA. Entrambi i paesi hanno affermato che l'accordo non è stato all'altezza di quanto necessario.
Il vicepresidente degli Stati Uniti J.D. Vance ha messo in guardia contro una regolamentazione eccessiva.
Ha affermato: "Troppa regolamentazione potrebbe uccidere un settore in trasformazione proprio nel momento in cui sta decollando".
La dichiarazione è stata respinta anche dal Regno Unito, che ha espresso preoccupazioni in merito alla sicurezza nazionale e alla governance globale.
Un portavoce del governo del Regno Unito ha affermato: "La dichiarazione non ha fornito sufficiente chiarezza pratica sulla governance globale e [non] ha affrontato a sufficienza le questioni più difficili relative alla sicurezza nazionale".
Gli esperti hanno ripetutamente messo in guardia dai rischi posti dall'intelligenza artificiale, dalla perdita di posti di lavoro alle violazioni dei dati, fino a minacce più gravi come le armi biologiche e i robot AI non autorizzati.
Carsten Jung, responsabile dell'intelligenza artificiale presso l'Institute for Public Policy Research (IPPR), ha affermato:
"Questa non è fantascienza."
Ha spiegato che l'intelligenza artificiale potrebbe supportare gli hacker, aiutare i terroristi e potenzialmente portare Internet fuori controllo.
Per alcuni esperti, l'IA non regolamentata è una preoccupazione crescente per le comunità vulnerabili. Quelli senza un accesso regolare a Internet sono i più a rischio, ha affermato la dott. ssa Jen Schradie, professoressa associata presso la Sciences Po University.
Ha affermato: "Molti di noi passano tutto il tempo usando il telefono e vorremmo che ciò accadesse di meno.
"Ma per molte persone che non hanno un accesso regolare e costante [a Internet] o non hanno le competenze e persino il tempo per pubblicare contenuti, quelle voci vengono lasciate fuori da tutto".
Schradie ha affermato che queste comunità sono escluse dai dati su cui si basa l'intelligenza artificiale, il che significa che le soluzioni tecnologiche potrebbero ignorare le loro esigenze.
Michael Birtwistle dell'Ada Lovelace Institute ha affermato che l'intelligenza artificiale non regolamentata dovrebbe essere considerata alla stregua di cibo o medicine non regolamentate.
Ha affermato: "Quando pensiamo al cibo, ai medicinali e agli aerei, esiste un consenso internazionale sul fatto che i paesi specifichino ciò di cui pensano che la loro gente abbia bisogno".
Al contrario, i prodotti basati sull'intelligenza artificiale vengono lanciati direttamente sul mercato, con una valutazione minima dei rischi.
Alcuni avvertono che ciò potrebbe causare seri problemi in futuro.
ChatGPT, ad esempio, è diventata l'app in più rapida crescita nella storia, raggiungendo i 100 milioni di utenti in soli due mesi.
Secondo Jung, la natura globale dell'intelligenza artificiale richiede una soluzione globale.
Ha affermato: "Se tutti corriamo avanti e cerchiamo di arrivare primi il più velocemente possibile e non gestiamo congiuntamente i rischi, possono succedere cose brutte".