In Breve (TL;DR)
Giuseppe Remuzzi definisce eticamente insostenibile ignorare l’AI, capace di diagnosi quattro volte più precise rispetto ai medici umani
L’integrazione immediata degli algoritmi potrebbe ridurre drasticamente i 2,6 milioni di decessi annuali causati da errori medici e valutazioni sbagliate
L’avvio di test clinici con l’AI in Australia solleva importanti interrogativi sulla necessità di bilanciare innovazione, privacy e supervisione umana
Il diavolo è nei dettagli. 👇 Continua a leggere per scoprire i passaggi critici e i consigli pratici per non sbagliare.
BERGAMO – «Continuare a ignorare il potenziale dell’intelligenza artificiale in medicina non è più solo una scelta conservatrice, è un atto eticamente insostenibile». Non usa mezzi termini Giuseppe Remuzzi, direttore dell’Istituto di Ricerche Farmacologiche Mario Negri, che in una lunga intervista rilasciata oggi, 25 gennaio 2026, torna a scuotere il mondo della sanità. Al centro del dibattito ci sono i nuovi dati sull’accuratezza diagnostica degli algoritmi, che ormai superano sistematicamente le capacità umane, e un bilancio tragico che si ripete ogni anno: quello delle vittime per errori medici.
Secondo Remuzzi, la tecnologia ha raggiunto un punto di maturità tale da rendere ingiustificabile il ritardo nella sua adozione clinica. «Gli studi più recenti ci dicono che l’AI fa diagnosi quattro volte più corrette rispetto ai medici in carne ed ossa», spiega il professore, citando le ultime validazioni cliniche dei sistemi di supporto decisionale. Una presa di posizione netta che arriva proprio mentre dall’altra parte del mondo, in Australia, si apre un nuovo capitolo con il lancio di strumenti consumer dedicati alla salute, sollevando però interrogativi sulla cybersecurity e sulla privacy dei pazienti.

Il divario diagnostico: l’AI è quattro volte più precisa
Il dato citato da Remuzzi fa riferimento alla consolidata letteratura scientifica emersa tra il 2024 e il 2025, in particolare agli studi sui sistemi come AMIE di Google e il più recente MAI-DxO di Microsoft. Queste intelligenze artificiali, messe alla prova su casi clinici complessi tratti dal New England Journal of Medicine, hanno dimostrato una capacità di risoluzione superiore all’85%, contro una media che per i medici umani si ferma spesso sotto il 60% in contesti di simulazione comparativa. «Non si tratta di sostituire il medico», precisa Remuzzi, «ma di fornirgli un ‘super-potere’. L’occhio umano si stanca, ha bias cognitivi, può dimenticare un sintomo raro. La macchina no».
L’intelligenza artificiale eccelle nel correlare migliaia di variabili in pochi secondi, un compito che per un essere umano richiede tempo e concentrazione assoluta, risorse sempre più scarse negli ospedali sovraffollati. Secondo il direttore del Mario Negri, l’integrazione di questi sistemi potrebbe abbattere drasticamente la percentuale di diagnosi errate o tardive, che rappresentano la prima causa di inefficienza nei sistemi sanitari occidentali.
Una strage silenziosa: 2,6 milioni di morti l’anno

Il vero motore dell’appello di Remuzzi è però il costo umano dell’inefficienza attuale. «Ogni anno nel mondo si contano circa 2,6 milioni di morti a causa di valutazioni sbagliate o cure non sicure», ricorda il professore, riprendendo le stime dell’Organizzazione Mondiale della Sanità (OMS). Una cifra spaventosa, superiore a quella di molte pandemie, che avviene nel silenzio degli ambulatori e delle corsie. «Se abbiamo una tecnologia capace di ridurre anche solo del 30% o 40% questi errori, abbiamo il dovere morale di usarla. Chi si oppone per difesa corporativa si assume una responsabilità gravissima».
Gli errori non riguardano solo la diagnosi errata, ma anche la mancata previsione di interazioni farmacologiche o il mancato riconoscimento di sintomi precoci di patologie degenerative. In tutti questi campi, l’AI ha dimostrato di poter agire come un filtro di sicurezza indispensabile, un “secondo parere” istantaneo e a costo quasi nullo.
Il caso Australia: debutta ChatGPT Salute

La discussione sollevata da Remuzzi si intreccia con la cronaca internazionale di queste ore. Come riportato dalla RSI (Radiotelevisione svizzera), OpenAI ha scelto l’Australia come terreno di test per il lancio di “ChatGPT Salute”, una versione del celebre chatbot verticalizzata sull’assistenza medica primaria. Il sistema è stato addestrato su milioni di cartelle cliniche e linee guida sanitarie per fornire un primo triage ai pazienti.
Tuttavia, l’iniziativa non è priva di polemiche. Se da un lato promette di alleggerire il carico sui medici di base, dall’altro solleva enormi dubbi sulla sicurezza. La comunità scientifica australiana e internazionale teme le cosiddette “allucinazioni” dell’AI (risposte inventate ma plausibili) e, soprattutto, i rischi legati alla cybersecurity. Affidare dati sensibili sulla salute a server privati espone i cittadini a potenziali violazioni della privacy senza precedenti. «L’Europa fa bene a essere cauta con l’AI Act», commenta Remuzzi, «ma la cautela non deve diventare paralisi. Dobbiamo governare questi strumenti, non vietarli».
Il ruolo delle startup e il futuro della professione
In questo scenario, il ruolo delle startup med-tech diventa cruciale. Non sono solo i giganti della Silicon Valley a muoversi; un intero ecosistema di nuove imprese sta sviluppando soluzioni ibride che mantengono il medico al centro del processo (“human-in-the-loop”), usando l’AI solo come assistente. Queste realtà stanno lavorando per certificare i propri algoritmi come dispositivi medici, superando lo scetticismo iniziale delle istituzioni.
Per Remuzzi, il futuro è il modello “centauro”: metà uomo, metà macchina. «Il medico del 2030 non sarà sostituito dall’AI, ma il medico che non usa l’AI sarà sostituito da quello che la usa», conclude, parafrasando un celebre adagio del settore. La sfida per i prossimi mesi sarà formare una nuova classe di professionisti sanitari in grado di dialogare con gli algoritmi senza subirli passivamente.
Conclusioni

Le parole di Giuseppe Remuzzi segnano uno spartiacque nel dibattito pubblico italiano sull’innovazione sanitaria. Di fronte a 2,6 milioni di decessi potenzialmente evitabili, la resistenza al cambiamento appare sempre meno difendibile. Mentre l’Australia sperimenta con coraggio (e qualche rischio) nuove frontiere con ChatGPT Salute, l’Europa e l’Italia devono decidere se restare a guardare o guidare una transizione che appare ormai inevitabile. La tecnologia esiste ed è quattro volte più precisa dell’uomo: la vera cura, ora, sta nella volontà politica di applicarla.
Domande frequenti

Secondo gli studi citati dal professor Remuzzi, i sistemi di intelligenza artificiale hanno dimostrato una precisione diagnostica superiore all’85 per cento, risultando fino a quattro volte più corretti rispetto ai medici umani in contesti di simulazione. Questi algoritmi riescono a correlare migliaia di variabili in pochi secondi, superando limiti umani come la stanchezza o i bias cognitivi, e riducendo drasticamente il rischio di errori fatali.
No, l’obiettivo non è la sostituzione ma l’integrazione secondo il modello centauro, dove l’uomo collabora con la macchina. Giuseppe Remuzzi sottolinea che l’AI agirà come un supporto fondamentale per le decisioni cliniche e per filtrare gli errori; tuttavia, avverte che i medici che si rifiuteranno di utilizzare questi strumenti rischiano di essere rimpiazzati dai colleghi che invece sapranno sfruttarne le potenzialità nel lavoro quotidiano.
L’urgenza nasce da un imperativo etico legato alla sicurezza dei pazienti, poiché ogni anno si registrano circa 2,6 milioni di morti nel mondo a causa di errori medici o cure non sicure. Poiché la tecnologia attuale potrebbe ridurre questi errori del 30 o 40 per cento, continuare a ignorarne l’adozione per difesa corporativa viene considerato un atto insostenibile e una grave responsabilità morale di fronte a decessi evitabili.
Nonostante i benefici, l’introduzione di strumenti avanzati solleva preoccupazioni significative riguardo alla cybersecurity e alla privacy dei dati sensibili dei pazienti affidati a server privati. Inoltre, la comunità scientifica teme il fenomeno delle allucinazioni, ovvero risposte inventate ma plausibili fornite dall’algoritmo, motivo per cui l’Europa mantiene un approccio cauto tramite regolamentazioni specifiche pur senza voler bloccare l’innovazione.
L’esperimento australiano con una versione di ChatGPT specializzata in assistenza medica primaria mira a fornire un primo triage ai pazienti per alleggerire il carico sui medici di base. Sebbene rappresenti un passo avanti nell’innovazione, questo test ha evidenziato la necessità di bilanciare l’efficienza tecnologica con la protezione dei dati personali e la supervisione umana per evitare diagnosi errate generate dai chatbot.
Fonti e Approfondimenti
- Sito ufficiale dell’Istituto di Ricerche Farmacologiche Mario Negri
- Scheda informativa OMS sulla sicurezza del paziente e gli errori medici
- Commissione Europea: La legge sull’intelligenza artificiale (AI Act)
- Wikipedia: Panoramica sull’intelligenza artificiale nel settore sanitario
- OMS: Intelligenza Artificiale per la salute – Potenzialità diagnostiche e integrazione nei sistemi sanitari



Hai trovato utile questo articolo? C'è un altro argomento che vorresti vedermi affrontare?
Scrivilo nei commenti qui sotto! Prendo ispirazione direttamente dai vostri suggerimenti.