Remuzzi: AI diagnostica meglio dei medici, serve integrarla subito

Giuseppe Remuzzi: l'intelligenza artificiale riduce gli errori medici. 2,6 milioni di morti evitabili. Focus su ChatGPT Salute in Australia e cybersecurity.

Pubblicato il 25 Gen 2026
Aggiornato il 25 Gen 2026
di lettura

In Breve (TL;DR)

Giuseppe Remuzzi definisce eticamente insostenibile ignorare l’AI, capace di diagnosi quattro volte più precise rispetto ai medici umani

L’integrazione immediata degli algoritmi potrebbe ridurre drasticamente i 2,6 milioni di decessi annuali causati da errori medici e valutazioni sbagliate

L’avvio di test clinici con l’AI in Australia solleva importanti interrogativi sulla necessità di bilanciare innovazione, privacy e supervisione umana

Il diavolo è nei dettagli. 👇 Continua a leggere per scoprire i passaggi critici e i consigli pratici per non sbagliare.

Pubblicità

BERGAMO – «Continuare a ignorare il potenziale dell’intelligenza artificiale in medicina non è più solo una scelta conservatrice, è un atto eticamente insostenibile». Non usa mezzi termini Giuseppe Remuzzi, direttore dell’Istituto di Ricerche Farmacologiche Mario Negri, che in una lunga intervista rilasciata oggi, 25 gennaio 2026, torna a scuotere il mondo della sanità. Al centro del dibattito ci sono i nuovi dati sull’accuratezza diagnostica degli algoritmi, che ormai superano sistematicamente le capacità umane, e un bilancio tragico che si ripete ogni anno: quello delle vittime per errori medici.

Secondo Remuzzi, la tecnologia ha raggiunto un punto di maturità tale da rendere ingiustificabile il ritardo nella sua adozione clinica. «Gli studi più recenti ci dicono che l’AI fa diagnosi quattro volte più corrette rispetto ai medici in carne ed ossa», spiega il professore, citando le ultime validazioni cliniche dei sistemi di supporto decisionale. Una presa di posizione netta che arriva proprio mentre dall’altra parte del mondo, in Australia, si apre un nuovo capitolo con il lancio di strumenti consumer dedicati alla salute, sollevando però interrogativi sulla cybersecurity e sulla privacy dei pazienti.

Giuseppe Remuzzi durante un'intervista sull'intelligenza artificiale medica
Per Giuseppe Remuzzi ignorare l’AI in medicina è un errore etico: diagnosi 4 volte più precise. (Visual Hub)

Il divario diagnostico: l’AI è quattro volte più precisa

Il dato citato da Remuzzi fa riferimento alla consolidata letteratura scientifica emersa tra il 2024 e il 2025, in particolare agli studi sui sistemi come AMIE di Google e il più recente MAI-DxO di Microsoft. Queste intelligenze artificiali, messe alla prova su casi clinici complessi tratti dal New England Journal of Medicine, hanno dimostrato una capacità di risoluzione superiore all’85%, contro una media che per i medici umani si ferma spesso sotto il 60% in contesti di simulazione comparativa. «Non si tratta di sostituire il medico», precisa Remuzzi, «ma di fornirgli un ‘super-potere’. L’occhio umano si stanca, ha bias cognitivi, può dimenticare un sintomo raro. La macchina no».

L’intelligenza artificiale eccelle nel correlare migliaia di variabili in pochi secondi, un compito che per un essere umano richiede tempo e concentrazione assoluta, risorse sempre più scarse negli ospedali sovraffollati. Secondo il direttore del Mario Negri, l’integrazione di questi sistemi potrebbe abbattere drasticamente la percentuale di diagnosi errate o tardive, che rappresentano la prima causa di inefficienza nei sistemi sanitari occidentali.

Potrebbe interessarti →

Una strage silenziosa: 2,6 milioni di morti l’anno

Remuzzi: AI diagnostica meglio dei medici, serve integrarla subito - Infografica riassuntiva
Infografica riassuntiva dell’articolo "Remuzzi: AI diagnostica meglio dei medici, serve integrarla subito" (Visual Hub)
Pubblicità

Il vero motore dell’appello di Remuzzi è però il costo umano dell’inefficienza attuale. «Ogni anno nel mondo si contano circa 2,6 milioni di morti a causa di valutazioni sbagliate o cure non sicure», ricorda il professore, riprendendo le stime dell’Organizzazione Mondiale della Sanità (OMS). Una cifra spaventosa, superiore a quella di molte pandemie, che avviene nel silenzio degli ambulatori e delle corsie. «Se abbiamo una tecnologia capace di ridurre anche solo del 30% o 40% questi errori, abbiamo il dovere morale di usarla. Chi si oppone per difesa corporativa si assume una responsabilità gravissima».

Gli errori non riguardano solo la diagnosi errata, ma anche la mancata previsione di interazioni farmacologiche o il mancato riconoscimento di sintomi precoci di patologie degenerative. In tutti questi campi, l’AI ha dimostrato di poter agire come un filtro di sicurezza indispensabile, un “secondo parere” istantaneo e a costo quasi nullo.

Potrebbe interessarti →

Il caso Australia: debutta ChatGPT Salute

Tecnologia medica avanzata con interfaccia di intelligenza artificiale per diagnosi cliniche
Giuseppe Remuzzi sostiene l’integrazione urgente dell’AI per migliorare le diagnosi mediche. (Visual Hub)

La discussione sollevata da Remuzzi si intreccia con la cronaca internazionale di queste ore. Come riportato dalla RSI (Radiotelevisione svizzera), OpenAI ha scelto l’Australia come terreno di test per il lancio di “ChatGPT Salute”, una versione del celebre chatbot verticalizzata sull’assistenza medica primaria. Il sistema è stato addestrato su milioni di cartelle cliniche e linee guida sanitarie per fornire un primo triage ai pazienti.

Tuttavia, l’iniziativa non è priva di polemiche. Se da un lato promette di alleggerire il carico sui medici di base, dall’altro solleva enormi dubbi sulla sicurezza. La comunità scientifica australiana e internazionale teme le cosiddette “allucinazioni” dell’AI (risposte inventate ma plausibili) e, soprattutto, i rischi legati alla cybersecurity. Affidare dati sensibili sulla salute a server privati espone i cittadini a potenziali violazioni della privacy senza precedenti. «L’Europa fa bene a essere cauta con l’AI Act», commenta Remuzzi, «ma la cautela non deve diventare paralisi. Dobbiamo governare questi strumenti, non vietarli».

Il ruolo delle startup e il futuro della professione

In questo scenario, il ruolo delle startup med-tech diventa cruciale. Non sono solo i giganti della Silicon Valley a muoversi; un intero ecosistema di nuove imprese sta sviluppando soluzioni ibride che mantengono il medico al centro del processo (“human-in-the-loop”), usando l’AI solo come assistente. Queste realtà stanno lavorando per certificare i propri algoritmi come dispositivi medici, superando lo scetticismo iniziale delle istituzioni.

Per Remuzzi, il futuro è il modello “centauro”: metà uomo, metà macchina. «Il medico del 2030 non sarà sostituito dall’AI, ma il medico che non usa l’AI sarà sostituito da quello che la usa», conclude, parafrasando un celebre adagio del settore. La sfida per i prossimi mesi sarà formare una nuova classe di professionisti sanitari in grado di dialogare con gli algoritmi senza subirli passivamente.

Conclusioni

disegno di un ragazzo seduto a gambe incrociate con un laptop sulle gambe che trae le conclusioni di tutto quello che si è scritto finora

Le parole di Giuseppe Remuzzi segnano uno spartiacque nel dibattito pubblico italiano sull’innovazione sanitaria. Di fronte a 2,6 milioni di decessi potenzialmente evitabili, la resistenza al cambiamento appare sempre meno difendibile. Mentre l’Australia sperimenta con coraggio (e qualche rischio) nuove frontiere con ChatGPT Salute, l’Europa e l’Italia devono decidere se restare a guardare o guidare una transizione che appare ormai inevitabile. La tecnologia esiste ed è quattro volte più precisa dell’uomo: la vera cura, ora, sta nella volontà politica di applicarla.

Domande frequenti

disegno di un ragazzo seduto con nuvolette di testo con dentro la parola FAQ
Quanto è affidabile l’intelligenza artificiale nelle diagnosi mediche?

Secondo gli studi citati dal professor Remuzzi, i sistemi di intelligenza artificiale hanno dimostrato una precisione diagnostica superiore all’85 per cento, risultando fino a quattro volte più corretti rispetto ai medici umani in contesti di simulazione. Questi algoritmi riescono a correlare migliaia di variabili in pochi secondi, superando limiti umani come la stanchezza o i bias cognitivi, e riducendo drasticamente il rischio di errori fatali.

L’intelligenza artificiale sostituirà il lavoro dei medici in futuro?

No, l’obiettivo non è la sostituzione ma l’integrazione secondo il modello centauro, dove l’uomo collabora con la macchina. Giuseppe Remuzzi sottolinea che l’AI agirà come un supporto fondamentale per le decisioni cliniche e per filtrare gli errori; tuttavia, avverte che i medici che si rifiuteranno di utilizzare questi strumenti rischiano di essere rimpiazzati dai colleghi che invece sapranno sfruttarne le potenzialità nel lavoro quotidiano.

Perché è urgente integrare l’AI nel sistema sanitario secondo Remuzzi?

L’urgenza nasce da un imperativo etico legato alla sicurezza dei pazienti, poiché ogni anno si registrano circa 2,6 milioni di morti nel mondo a causa di errori medici o cure non sicure. Poiché la tecnologia attuale potrebbe ridurre questi errori del 30 o 40 per cento, continuare a ignorarne l’adozione per difesa corporativa viene considerato un atto insostenibile e una grave responsabilità morale di fronte a decessi evitabili.

Quali sono i rischi legati all’uso dell’AI in medicina?

Nonostante i benefici, l’introduzione di strumenti avanzati solleva preoccupazioni significative riguardo alla cybersecurity e alla privacy dei dati sensibili dei pazienti affidati a server privati. Inoltre, la comunità scientifica teme il fenomeno delle allucinazioni, ovvero risposte inventate ma plausibili fornite dall’algoritmo, motivo per cui l’Europa mantiene un approccio cauto tramite regolamentazioni specifiche pur senza voler bloccare l’innovazione.

Cosa dimostrano i test di ChatGPT Salute in Australia?

L’esperimento australiano con una versione di ChatGPT specializzata in assistenza medica primaria mira a fornire un primo triage ai pazienti per alleggerire il carico sui medici di base. Sebbene rappresenti un passo avanti nell’innovazione, questo test ha evidenziato la necessità di bilanciare l’efficienza tecnologica con la protezione dei dati personali e la supervisione umana per evitare diagnosi errate generate dai chatbot.

Francesco Zinghinì

Ingegnere e imprenditore digitale, fondatore del progetto TuttoSemplice. La sua visione è abbattere le barriere tra utente e informazione complessa, rendendo temi come la finanza, la tecnologia e l’attualità economica finalmente comprensibili e utili per la vita quotidiana.

Hai trovato utile questo articolo? C'è un altro argomento che vorresti vedermi affrontare?
Scrivilo nei commenti qui sotto! Prendo ispirazione direttamente dai vostri suggerimenti.

Lascia un commento

I campi contrassegnati con * sono obbligatori. Email e sito web sono facoltativi per proteggere la tua privacy.







12 commenti

Icona WhatsApp

Iscriviti al nostro canale WhatsApp!

Ricevi aggiornamenti in tempo reale su Guide, Report e Offerte

Clicca qui per iscriverti

Icona Telegram

Iscriviti al nostro canale Telegram!

Ricevi aggiornamenti in tempo reale su Guide, Report e Offerte

Clicca qui per iscriverti

Condividi articolo
1,0x
Indice