Lo studio, pubblicato sul Journal of Medical Informatics Research, invita alla cautela nell'uso attuale dell'IA in ambito clinico, pur riconoscendone il potenziale futuro.
Dettagli della Ricerca
Il lavoro ha coinvolto 28 pazienti anonimi. L'obiettivo era testare l'affidabilità e la qualità delle indicazioni cliniche fornite dai modelli generativi in un contesto simile a una reale prima visita, sebbene non fossero specificamente addestrati in medicina.
Oltre alla minore accuratezza diagnostica, entrambi i modelli di IA hanno mostrato una tendenza alla sovra-prescrizione di esami diagnostici, riscontrata in circa il 17-25% dei casi.
Il Ruolo Futuro dell'Intelligenza Artificiale
"Questo studio dimostra che, sebbene i LLM abbiano un potenziale interessante come strumenti di supporto, al momento non sono ancora pronti per prendere decisioni cliniche autonome, soprattutto in ambiti complessi come la neurologia," ha commentato Natale Maiorana, neuropsicologo e primo autore.
Sara Marceglia, professoressa di Bioingegneria e coordinatrice della ricerca, ha sottolineato che i modelli testati erano versioni pubbliche e generaliste. L'IA può diventare utile, a patto che sia "inserita in modo responsabile nei processi clinici, con una forte supervisione umana."
Gli autori guardano al futuro con ottimismo: l'IA potrà diventare un alleato prezioso nella pratica clinica, a condizione che venga adeguatamente sviluppata, personalizzata e validata con rigorosi studi clinici.
Alberto Priori, ideatore dello studio e direttore della Neurologia, ha concluso: "L’intelligenza artificiale è una risorsa promettente, ma oggi non può sostituire il giudizio clinico umano. Sarà necessaria una specifica formazione e certificazione per l’uso dell’intelligenza artificiale nel percorso curriculare degli studenti di medicina e degli specializzandi."
Lo studio, infine, suggerisce prudenza anche nell'utilizzo dei LLM da parte di non-sanitari per l'auto-interpretazione di sintomi ed esami diagnostici.