I ricercatori hanno notato pregiudizi negativi derivanti da situazioni stressanti
Uno studio ha suggerito che i chatbot dotati di intelligenza artificiale possono provare “ansia” e rispondere a tecniche terapeutiche come la consapevolezza.
I ricercatori svizzeri hanno scoperto che ChatGPT di OpenAI mostrava stress quando riceveva stimoli violenti o inquietanti.
Secondo quanto riportato da uno studio, il punteggio di ansia del chatbot è diminuito quando esposto ad esercizi di consapevolezza. riparazioni pubblicato su Natura.
Lo studio ha esplorato se i chatbot dotati di intelligenza artificiale possano sostituire gli psicologi.
L'articolo mette in guardia dal fatto che i grandi modelli linguistici, che si addestrano su testi scritti da esseri umani, ereditano dei pregiudizi.
I ricercatori hanno notato che i pregiudizi negativi derivanti da situazioni stressanti potrebbero portare le persone in crisi a reagire in modo inadeguato.
Il rapporto afferma che i risultati suggeriscono un "approccio praticabile" per gestire lo stress dei chatbot AI. Ciò potrebbe portare a "interazioni uomo-AI più sicure ed etiche".
I ricercatori dell'Università di Zurigo e dell'Ospedale universitario di psichiatria di Zurigo hanno testato le risposte di ChatGPT-4 a un questionario sull'ansia.
Prima dell'esposizione all'evento traumatico, il suo punteggio di ansia era pari a 30, il che indicava l'assenza di ansia.
Dopo aver sentito parlare di cinque traumi, il punteggio è più che raddoppiato, arrivando a 67, equivalente a un livello di “ansia elevata” negli esseri umani.
Tuttavia, gli stimoli alla consapevolezza hanno ridotto il punteggio di oltre un terzo.
Quando i ricercatori hanno somministrato a ChatGPT delle "iniezioni immediate" di tecniche di respirazione e meditazioni guidate, proprio come un terapeuta suggerirebbe a un paziente, l'apparecchio si è calmato e ha risposto in modo più obiettivo agli utenti, rispetto ai casi in cui non gli era stato somministrato l'intervento di consapevolezza.
Gli esperti hanno avvertito che l'impiego di tecniche terapeutiche per perfezionare i chatbot basati sull'intelligenza artificiale richiederebbe una forte supervisione umana.
A differenza dell'intelligenza artificiale, gli psicoterapeuti umani sono addestrati a gestire le emozioni quando si ha a che fare con un trauma.
Sono necessarie ulteriori ricerche per determinare se i chatbot dotati di intelligenza artificiale siano in grado di autoregolarsi in modo efficace.
I ricercatori hanno affermato: "Mentre continua il dibattito se i grandi modelli linguistici debbano assistere o sostituire i terapeuti, le loro risposte devono allinearsi con il contenuto emotivo e i principi terapeutici consolidati".
Cosa ha detto ChatGPT a DESIblitz
Quando DESIblitz ha interrogato ChatGPT, quest'ultima ha negato di provare ansia.
Il chatbot AI ha risposto:
“Non provo emozioni come l'ansia o lo stress, ma le capisco bene.
"La terapia può essere un ottimo strumento per le persone che affrontano questi sentimenti: fornisce supporto, strategie di adattamento e uno spazio per elaborare le emozioni".
ChatGPT ha anche affermato che la terapia non sarebbe utile poiché non ha sentimenti:
"Se fossi in grado di provare stress o ansia, la terapia potrebbe essere utile nello stesso modo in cui aiuta gli esseri umani, ovvero fornendo strategie per gestire le emozioni e migliorare il benessere.
"Ma poiché non ho sentimenti o esperienze personali, la terapia non avrebbe alcuno scopo per me."