sabato 18 aprile 2026

Chatbot - intelligenza artificiale - i nuovi medici?

   

Studio: i chatbot basati sull'intelligenza artificiale formulano diagnosi errate in oltre l'80% dei casi medici iniziali.

Non affidate le vostre decisioni sanitarie al vostro chatbot preferito, magari un prodotto di massa. Se non siete in grado di fornire le informazioni corrette fin dall'inizio, non aspettatevi una diagnosi accurata. Nonostante gli avvertimenti presenti su tutti i prodotti di massa che raccomandano di affidarsi al proprio medico o a un professionista sanitario, molte persone ripongono comunque false speranze nel chatbot. - Patrick Wood, redattore.

Secondo una nuova ricerca, i chatbot basati sull'intelligenza artificiale per i consumatori mostrano delle lacune quando vengono utilizzati per formulare diagnosi mediche, soprattutto in presenza di informazioni incomplete, evidenziando i rischi di affidarsi a questi dispositivi come veri e propri medici digitali.

Lo studio rileva che i principali modelli linguistici di grandi dimensioni faticano a suggerire una gamma di possibili diagnosi quando i dati del paziente sono limitati, restringendo spesso troppo rapidamente le opzioni a una singola risposta.

I risultati indicano una limitazione più ampia dell'intelligenza artificiale: sebbene i chatbot possano identificare le probabili patologie una volta che un caso è stato completamente descritto, sono meno affidabili nelle fasi iniziali e più incerte del ragionamento clinico.

I risultati mettono in luce i pericoli di affidarsi esclusivamente alla tecnologia per individuare problemi di salute, soprattutto nei casi in cui i dati inseriti dagli utenti possono essere vaghi o incompleti.

"Questi modelli sono ottimi per formulare una diagnosi definitiva una volta che i dati sono completi, ma faticano nella fase iniziale di un caso, quando le informazioni a disposizione sono scarse", ha affermato Arya Rao, autrice principale dello studio e ricercatrice presso il sistema sanitario Mass General Brigham, con sede in Massachusetts.

Lo studio, pubblicato lunedì su Jama Network Open, ha testato modelli di intelligenza artificiale utilizzando 29 casi clinici basati su un testo di riferimento medico standard.

L'esperimento prevedeva la divulgazione graduale di dati, tra cui l'anamnesi della malattia attuale, i risultati dell'esame obiettivo e i referti di laboratorio. I ricercatori hanno posto ai partecipanti al test LLM dei quesiti diagnostici e ne hanno misurato il tasso di errore, definito come la percentuale di domande a cui non è stata data una risposta completamente corretta.

I ricercatori hanno valutato 21 modelli LLM, tra cui i modelli di punta di OpenAI, Anthropic, Google, xAI e DeepSeek.

È emerso che i tassi di fallimento superavano l'80% per tutti i modelli quando era necessario effettuare la cosiddetta diagnosi differenziale, ovvero in assenza di informazioni complete sul paziente.

Grazie a dati più completi, il tasso di errore è sceso a meno del 40% per le diagnosi finali, con i risultati migliori che hanno superato il 90% di accuratezza.

Claude è addestrato a indirizzare le persone che pongono domande di carattere medico verso i professionisti competenti, ha affermato Anthropic. Gemini è progettato per fare lo stesso e, secondo Google, include dei promemoria integrati nell'app per invitare gli utenti a verificare le informazioni.

La politica di utilizzo di OpenAI stabilisce che i suoi servizi non devono essere utilizzati per fornire consulenza medica che richieda una licenza senza il coinvolgimento di un professionista qualificato.

xAI non ha risposto alla richiesta di commento. Non è stato possibile contattare DeepSeek per un commento.

Le aziende hanno sviluppato piattaforme di apprendimento online (LLM) più specializzate in ambito medico, come Articulate Medical Intelligence Explorer (AMIE) e MedFound di Google.

I primi risultati delle valutazioni di modelli come AMIE sono promettenti, ha affermato Sanjay Kinra, epidemiologo clinico presso la London School of Hygiene & Tropical Medicine. Tuttavia, è improbabile che riescano a replicare il modo in cui le valutazioni cliniche dei medici "si basano in gran parte sull'aspetto e sulle sensazioni del paziente", ha aggiunto.

"Tuttavia, potrebbero avere un ruolo da svolgere, soprattutto in situazioni o aree geografiche in cui l'accesso ai medici è limitato", ha affermato Kinra. "Pertanto, abbiamo urgente bisogno di studi di ricerca con pazienti reali provenienti da tali contesti."

Leggi la storia completa qui ...

Pubblicato sul sito web: https://www.technocracy.news/

®wld 

Nessun commento:

Posta un commento

Tutti i commenti sono sottoposti a moderazione prima della loro eventuale pubblicazione.E' gradito il nome o il nikname

Enki e l’ordine mondiale – e la battaglia continua ancora oggi

COSA ACCADE NEI NOSTRI CIELI? - GIORGIO PATTERA

L’OZONO POTREBBE INDEBOLIRE UNO DEI PIÙ IMPORTANTI MECCANISMI DELLA TERRA

Una nuova classe globale che modella il nostro futuro comune in base ai propri interessi

Gli umani non sono sovrappopolati - Stiamo invecchiando e diminuendo

Li chiamano effetti collaterali - quando sapevano che sarebbe successo ... Essi sapevano che questo

E c'è chi ancora nega affermando che non siamo una colonia USA…

GUARDA IL CIELO! CHE COSA STANNO FACENDO?

Come osano? come osano fare questo? Questa deve essere la reazione dell’umanità.

Perché questa mancanza di interesse dei nostri cieli?

Related Posts Plugin for WordPress, Blogger...