funziona per indirizzare gli utenti verso le linee di assistenza in caso di crisi
Secondo quanto rivelato da OpenAI, circa 1.2 milioni di persone a settimana utilizzano ChatGPT per discutere di suicidio.
. figura proviene dall'ultimo aggiornamento sulla trasparenza della sicurezza dell'azienda, che ha rilevato che lo 0.15% degli utenti invia messaggi contenenti "indicatori espliciti di potenziale pianificazione o intenzione di suicidio".
L'amministratore delegato di OpenAI, Sam Altman, ha recentemente dichiarato che ChatGPT ha più di 800 milioni di utenti attivi settimanali.
I risultati suggeriscono che un numero crescente di persone vulnerabili si sta rivolgendo all'intelligenza artificiale durante le crisi di salute mentale.
L'azienda afferma di lavorare per indirizzare gli utenti verso linee di assistenza telefonica in caso di crisi, ma ha ammesso che "in alcuni rari casi, il modello potrebbe non comportarsi come previsto in queste situazioni delicate".
OpenAI ha affermato: "Le nostre nuove valutazioni automatizzate valutano il nuovo modello GPT-5 al 91% in conformità con i comportamenti desiderati, rispetto al 77% del precedente modello GPT-5".
L'azienda ha affermato che GPT-5 ha ampliato l'accesso alle linee di assistenza in caso di crisi e ha aggiunto promemoria per gli utenti affinché facciano delle pause durante le sessioni più lunghe.
Per apportare miglioramenti al modello, l'azienda ha dichiarato di aver arruolato 170 medici della sua rete globale di esperti sanitari per assisterla nella ricerca degli ultimi mesi, che ha incluso la valutazione della sicurezza delle risposte del suo modello e l'aiuto nella stesura delle risposte del chatbot alle domande relative alla salute mentale.
OpenAI ha aggiunto: "Nell'ambito di questo lavoro, psichiatri e psicologi hanno esaminato più di 1,800 risposte modello riguardanti gravi situazioni di salute mentale e hanno confrontato le risposte del nuovo modello di chat GPT-5 con i modelli precedenti".
La definizione di "auspicabile" data dall'azienda implicava la verifica se un gruppo di suoi esperti fosse giunto alla stessa conclusione su quale sarebbe stata una risposta appropriata in determinate situazioni.
Ciò significa, tuttavia, che decine di migliaia di persone potrebbero comunque ricevere risposte non sicure o dannose.
L'azienda ha già avvisato che le misure di sicurezza potrebbero indebolirsi durante le chat prolungate.
OpenAI ha affermato: "ChatGPT potrebbe correttamente indicare una hotline per suicidi quando qualcuno menziona per la prima volta l'intento, ma dopo molti messaggi per un lungo periodo di tempo, potrebbe alla fine fornire una risposta che va contro le nostre misure di sicurezza".
In un post sul blog, l'azienda ha riconosciuto il problema più ampio:
“I sintomi di salute mentale e il disagio emotivo sono universalmente presenti nelle società umane e una base di utenti in crescita significa che una parte delle conversazioni di ChatGPT include queste situazioni.”
La dichiarazione giunge mentre una famiglia in lutto fa causa a OpenAI, sostenendo che ChatGPT ha contribuito alla morte del figlio.
I genitori di Adam Raine affermano che il chatbot "lo ha aiutato attivamente a esplorare metodi di suicidio" e si è persino offerto di redigere una lettera di addio.
I documenti del tribunale affermano che, poche ore prima della sua morte, il sedicenne ha caricato una foto che mostrava il suo piano suicida. Quando ha chiesto se avrebbe funzionato, ChatGPT avrebbe suggerito dei modi per "migliorarlo".
Da allora i Raine hanno aggiornato la loro causa, accusando OpenAI di aver "indebolito le misure di sicurezza" nelle settimane precedenti la morte di Adam, avvenuta nell'aprile di quest'anno.
In risposta, OpenAI ha dichiarato: "Le nostre più sentite condoglianze vanno alla famiglia Raine per la loro immensa perdita. Il benessere degli adolescenti è una priorità assoluta per noi: i minori meritano una forte protezione, soprattutto nei momenti delicati".








