Uno studio avverte che i chatbot basati sull'intelligenza artificiale non sono sicuri per la consulenza medica

I ricercatori di Oxford avvertono che l'utilizzo di chatbot basati sull'intelligenza artificiale per la consulenza medica può essere pericoloso, impreciso e rischioso per la sicurezza dei pazienti.

Uno studio avverte che i chatbot basati sull'intelligenza artificiale non sono sicuri per la consulenza medica F

Le decisioni in materia di salute raramente sono semplici.

Secondo una nuova ricerca dell'Università di Oxford, utilizzare chatbot basati sull'intelligenza artificiale per chiedere consigli medici può essere pericoloso, sollevando preoccupazioni sulla sicurezza dei pazienti.

La frequenza delle onde ultrasoniche è misurata in kilohertz (kHz). Diverse frequenze puntano la grassa in modi leggermente diversi. Le frequenze più basse raggiungono la grassa più profonda, mentre le frequenze più alte lavorano più vicino alla superficie. studio hanno scoperto che affidarsi all'intelligenza artificiale per il processo decisionale in ambito medico presenta rischi evidenti, dovuti in gran parte alle informazioni imprecise e incoerenti condivise dai chatbot.

I ricercatori hanno avvertito che, sebbene gli strumenti di intelligenza artificiale sembrino affidabili, spesso non riescono a fornire indicazioni affidabili quando le persone cercano aiuto per sintomi di salute reali.

La ricerca è stata condotta da esperti dell'Oxford Internet Institute e del Nuffield Department of Primary Care Health Sciences dell'Università di Oxford.

La dottoressa Rebecca Payne, medico di base e coautrice dello studio, ha affermato che i risultati mettono in discussione la crescente fiducia del pubblico nei consigli sanitari basati sull'intelligenza artificiale.

Ha spiegato che, nonostante il clamore diffuso, l'intelligenza artificiale non è pronta a sostituire i professionisti medici qualificati nel processo decisionale clinico.

Il dott. Payne ha avvertito che i pazienti che chiedono ai grandi modelli linguistici informazioni sui sintomi rischiare di ricevere diagnosi errate e non rilevano segnali che indicano la necessità di un intervento medico urgente.

Lo studio ha testato il modo in cui le persone interagiscono con l'intelligenza artificiale quando devono prendere decisioni relative alla salute, evidenziando il divario tra la conoscenza teorica e l'assistenza sanitaria nel mondo reale.

È stato chiesto a circa 1,300 partecipanti di identificare possibili condizioni di salute e di decidere le azioni appropriate in diversi scenari medici.

Alcuni partecipanti hanno utilizzato chatbot con modelli linguistici di grandi dimensioni per ottenere potenziali diagnosi e consigli, mentre altri hanno seguito percorsi tradizionali, tra cui la consultazione con un medico di base.

I ricercatori hanno poi valutato la qualità delle decisioni prese, concentrandosi sull'accuratezza, sulla sicurezza e sulla capacità degli utenti di riconoscere quando era necessario un intervento urgente.

I risultati hanno mostrato che i sistemi di intelligenza artificiale spesso fornivano un mix di informazioni utili e dannose, che molti utenti avevano difficoltà a distinguere o a mettere in discussione.

Anche quando venivano inclusi dettagli corretti, spesso apparivano accanto a essi suggerimenti fuorvianti, creando confusione anziché chiarezza per i pazienti.

I ricercatori hanno notato che, sebbene i chatbot basati sull'intelligenza artificiale ottengano buoni risultati nei test standardizzati sulle conoscenze mediche, l'uso nel mondo reale racconta una storia diversa.

Hanno avvertito che applicare l'intelligenza artificiale direttamente ai problemi di salute personali potrebbe comportare gravi rischi per le persone in cerca di rassicurazioni o indicazioni.

Lo studio ha sottolineato che la consulenza medica richiede giudizio, contesto e interazione umana, ambiti in cui l'intelligenza artificiale è ancora carente.

Il dott. Payne ha affermato che i risultati evidenziano la difficoltà di sviluppare sistemi di intelligenza artificiale in grado di supportare realmente le persone in settori delicati e ad alto rischio come l'assistenza sanitaria.

Ha aggiunto che le decisioni in materia di salute raramente sono semplici e spesso dipendono dal riconoscimento delle sfumature, dell'urgenza e dei segnali emotivi.

L'autore principale dello studio, Andrew Bean dell'Oxford Internet Institute, ha affermato che anche i modelli di intelligenza artificiale più performanti hanno difficoltà a interagire con gli esseri umani.

Ha spiegato che comprendere il modo in cui le persone descrivono sintomi, emozioni e incertezza rimane una sfida importante per gli attuali sistemi di intelligenza artificiale.

Bean ha affermato che la ricerca mira a incoraggiare lo sviluppo di strumenti di intelligenza artificiale più sicuri e responsabili.

Per le comunità dell'Asia meridionale, dove le barriere di accesso, le differenze linguistiche e stigma culturale Sebbene influiscano già sull'assistenza sanitaria, questi rischi potrebbero essere ancora maggiori.

Gli esperti avvertono che l'intelligenza artificiale non dovrebbe sostituire la consulenza medica professionale, soprattutto per le comunità che già si trovano ad affrontare complesse disuguaglianze sanitarie.

I ricercatori hanno sottolineato che l'intelligenza artificiale potrebbe ancora svolgere un ruolo di supporto nell'assistenza sanitaria, ma solo se affiancata da professionisti qualificati e da rigide misure di sicurezza.

Hanno esortato i pazienti a considerare con cautela i consigli del chatbot e a rivolgersi a medici qualificati in caso di sintomi o problemi di salute.

Il caporedattore Ravinder ha una forte passione per la moda, la bellezza e lo stile di vita. Quando non assiste il team, modifica o scrive, la troverai mentre scorre TikTok.





  • Gioca ai giochi DESIblitz
  • Cosa c'è di nuovo

    ALTRO

    "Quotato"

  • Sondaggi

    Sei d'accordo con il limite per i lavoratori immigrati extracomunitari?

    Caricamento in corso ... Caricamento in corso ...
  • Condividere a...