"Ciò crea un effetto paralizzante sulla libertà di espressione".
Grok di Elon Musk sta suscitando polemiche in India, con gli utenti che chiedono ripetutamente: "Quanto tempo ci vorrà prima che Grok venga vietato in India?"
Nel febbraio 2025, xAI di Elon Musk ha annunciato che il suo chatbot AI Grok 3 sarebbe stato gratuito. Il suo lancio è stato caotico, rispecchiando la natura imprevedibile della piattaforma di social media di proprietà di miliardari.
Le risposte di Grok includevano parolacce, slang hindi e insulti misogini.
Le questioni politiche riguardanti il primo ministro Narendra Modi, il leader del Congresso Rahul Gandhi e altre figure hanno suscitato polemiche.
Molti utenti hanno messo alla prova i pregiudizi di Grok, nonostante gli avvertimenti degli esperti di intelligenza artificiale contro l'uso dei chatbot per l'indagine sui fatti.
Il Ministero dell'Informazione e della Tecnologia dell'Unione ne ha preso nota. I funzionari hanno affermato:
“Siamo in contatto, stiamo parlando con loro (X) per scoprire perché sta succedendo e quali sono i problemi. Stanno interagendo con noi.”
Alcuni esperti mettono in guardia contro una regolamentazione eccessiva.
Pranesh Prakash, co-fondatore del Centro per Internet e Società (CIS), ha affermato:
"Il Ministero dell'Informatica non esiste per garantire che tutti gli indiani, o addirittura che tutte le macchine, utilizzino il linguaggio parlamentare.
"Ciò costituisce motivo di preoccupazione se le aziende iniziano ad autocensurare il discorso legale solo perché i governi si oppongono.
“Ciò crea un effetto agghiacciante sulla libertà di espressione.”
Il caso di Grok mette in luce le preoccupazioni relative alla disinformazione generata dall'intelligenza artificiale, alla moderazione dei contenuti e alla responsabilità legale.
La controversia richiama anche le critiche pubbliche all'avviso sull'intelligenza artificiale del governo indiano del 2024, ora ritirato.
Musk promuove Grok come alternativa "anti-woke" a ChatGPT e Gemini di Google. Ha detto al commentatore conservatore Tucker Carlson che i modelli di intelligenza artificiale esistenti hanno pregiudizi di sinistra.
Musk ha affermato: "Mi preoccupa il fatto che venga addestrato per essere politicamente corretto".
Grok può cercare X post pubblici per generare risposte in tempo reale. Gli utenti possono taggare Grok nei post per ricevere risposte. Una modalità premium "unhinged" promette risposte provocatorie e imprevedibili, secondo il sito web del chatbot.
Rohit Kumar, socio fondatore dello studio di politica pubblica The Quantum Hub, ritiene che ciò sia rischioso:
“Il problema più grande nel caso Grok non è il suo output, ma la sua integrazione con X, che consente la pubblicazione diretta su una piattaforma di social media dove il contenuto può diffondersi senza controllo, portando potenzialmente a danni nel mondo reale, come una rivolta.”
Il quadro giuridico per la comunicazione vocale generata dall'intelligenza artificiale resta poco chiaro.
Meghna Bal, direttrice dell'Esya Centre, ha affermato: "Dobbiamo considerare, innanzitutto, se ciò rientra nelle restrizioni ammissibili alla libertà di parola previste dalla Costituzione, e poi distinguere dove e come oltrepassa il limite previsto dalle diverse leggi".
Riguardo alla possibilità che Grok possa essere ritenuto penalmente responsabile, Bal ha citato precedenti come un caso in Canada in cui una compagnia aerea è stata ritenuta responsabile per false informazioni fornite dal suo chatbot con intelligenza artificiale.
I tribunali hanno trattato l'IA come un editore, respingendo la richiesta di non responsabilità della compagnia aerea.
Bal ha proposto di creare delle tutele di sicurezza per gli sviluppatori di intelligenza artificiale, simili alle regole che proteggono le piattaforme online dalla responsabilità per i contenuti degli utenti.
Ha affermato: “Il quadro di riferimento sicuro per le aziende di intelligenza artificiale potrebbe prendere spunto dagli accordi di licenza per gli utenti finali, dai codici di condotta degli utenti e dalle policy sui contenuti creati da alcune aziende per i loro modelli linguistici di grandi dimensioni”.
Microsoft ha avvertito che i jailbreak dell'IA, ovvero le tecniche utilizzate per aggirare i controlli di sicurezza nei sistemi di intelligenza artificiale, sono difficili da prevenire.
Gli utenti di Grok hanno testato il chatbot su argomenti che spaziano dal cricket alla politica, spingendosi deliberatamente oltre i limiti.
Bal ha affermato: "La letteratura indica che è molto più facile attaccare un servizio di intelligenza artificiale generativa (attraverso l'ingegneria immediata) che proteggersi da tali attacchi".
Kumar ritiene che il controllo diretto degli output dei chatbot AI sia un approccio sbagliato:
“Invece, gli sviluppatori dovrebbero essere tenuti a valutare i rischi, a essere più trasparenti sui set di dati utilizzati per la formazione per garantire la diversità e a condurre un red-teaming e test di stress approfonditi per mitigare i potenziali danni”.
Per ora, Grok rimane operativo in India. Ma mentre il controllo si intensifica, persistono domande sul suo futuro.