Dalla diagnostica alla ricerca, dalla gestione dei dati alla pratica clinica: l’AI è già entrata in sanità. Ecco quali opportunità apre, quali rischi pone e quali competenze servono per usarla bene.
L’AI è già presente in molti passaggi della pratica clinica: nella lettura delle immagini diagnostiche, nell’analisi dei dati sanitari, nella ricerca scientifica, nella gestione dei documenti, nell’organizzazione dei servizi e, sempre più spesso, anche nella comunicazione tra medico e paziente.
Per chi oggi sta studiando Medicina, questo significa prepararsi a una professione che nei prossimi anni sarà sempre più attraversata dalla tecnologia. Per chi medico lo è già, significa invece acquisire nuove competenze per capire come usare questi strumenti in modo utile, sicuro e responsabile.
Il punto centrale è proprio questo: l’intelligenza artificiale non elimina il ruolo del medico, ma lo cambia. E lo rende, per certi aspetti, ancora più importante. Perché più gli strumenti diventano potenti, più servono professionisti capaci di interpretarli, controllarli e metterli davvero al servizio della cura.
L’AI nella sanità italiana: qualche dato per capire dove siamo
Secondo l’Osservatorio Sanità Digitale del Politecnico di Milano, nel 2024 gli investimenti in sanità digitale in Italia hanno raggiunto i 2,47 miliardi di euro, con una crescita del 12% rispetto al 2023. Nello stesso report emerge che l’AI generativa è già stata utilizzata dal 46% dei medici di medicina generale, dal 26% dei medici specialisti e dal 19% degli infermieri coinvolti nella ricerca. Anche i cittadini stanno iniziando a usare questi strumenti: l’11% dichiara di aver utilizzato la GenAI in ambito sanitario, soprattutto per cercare informazioni su problemi di salute, farmaci e terapie.
Sono numeri importanti, ma vanno letti con attenzione. La stessa ricerca precisa, infatti, che nella maggior parte dei casi i professionisti utilizzano piattaforme generaliste, non strumenti progettati e validati specificamente per l’uso clinico. Questo è un punto decisivo: usare l’intelligenza artificiale in medicina non significa semplicemente aprire un chatbot e chiedergli un parere. Significa conoscere le potenzialità dello strumento, ma anche i suoi limiti, i rischi e il contesto normativo in cui può essere utilizzato.
L’interesse, però, è evidente. Sempre secondo l’Osservatorio, l’AI potrebbe far risparmiare a un medico specialista circa due giornate all’anno nella ricerca di informazioni scientifiche e fino a una settimana in attività amministrative o di gestione operativa. Per i medici di famiglia, il risparmio potenziale stimato per le attività amministrative arriva a circa due settimane lavorative all’anno.
In un sistema sanitario sotto pressione, in cui il tempo dei professionisti è una risorsa sempre più scarsa, questo dato aiuta a capire perché il tema sia così rilevante.
Che cosa significa davvero “intelligenza artificiale in medicina”
Prima di parlare delle applicazioni, vale la pena chiarire che cosa intendiamo quando usiamo l’espressione intelligenza artificiale in medicina.
In modo semplice, possiamo dire che l’intelligenza artificiale comprende sistemi informatici capaci di analizzare grandi quantità di dati, riconoscere schemi, formulare previsioni, generare testi o immagini, supportare decisioni e automatizzare alcune attività.
In medicina, questi dati possono essere molto diversi tra loro:
- immagini radiologiche, come TC, risonanze, radiografie ed ecografie;
- vetrini digitalizzati, utilizzati in anatomia patologica;
- referti, cartelle cliniche e lettere di dimissione;
- dati di laboratorio;
- parametri vitali;
- dati genetici e biomolecolari;
- informazioni raccolte da dispositivi indossabili;
- letteratura scientifica;
- dati organizzativi, come accessi, liste d’attesa, flussi di pazienti.
Non tutta l’AI è uguale. Alcuni sistemi sono progettati per riconoscere pattern in immagini o dati numerici. Altri servono a prevedere un rischio clinico. Altri ancora, come i modelli generativi, sono capaci di produrre o rielaborare testi, immagini, sintesi e risposte a partire da una richiesta dell’utente.
Quando parliamo di AI in medicina, quindi, non parliamo solo di ChatGPT o di strumenti simili. Parliamo di un insieme molto ampio di tecnologie, alcune già integrate in dispositivi medici, altre ancora sperimentali, altre usate in modo informale dai professionisti per attività di supporto.
Diagnosi e immagini mediche: uno degli ambiti più avanzati
Radiologia, dermatologia, anatomia patologica, cardiologia e oculistica sono ambiti in cui gli algoritmi possono essere addestrati a riconoscere anomalie, individuare segnali sospetti, confrontare immagini e aiutare il medico a dare priorità ai casi più urgenti.
La ragione è abbastanza intuitiva: molte specialità mediche lavorano ogni giorno su enormi quantità di immagini. Un algoritmo può analizzarle rapidamente, individuare pattern ricorrenti e segnalare al professionista elementi che meritano attenzione.
Per esempio, l’AI può essere usata per supportare:
- l’individuazione di noduli polmonari in una TC o una RM;
- il riconoscimento di lesioni sospette in una mammografia;
- l’analisi di immagini dermatoscopiche;
- la lettura di immagini del fondo oculare;
- il supporto all’identificazione di alterazioni elettrocardiografiche;
- l’analisi di campioni istologici in anatomia patologica.
Questo non significa che la diagnosi venga affidata alla macchina. Nella pratica clinica, il sistema di AI può funzionare come un supporto: segnala, ordina, suggerisce, evidenzia. Ma il giudizio finale resta del medico.
Il fatto che l’imaging sia uno degli ambiti più maturi si vede anche dal panorama dei dispositivi medici basati su AI. Negli Stati Uniti, per esempio, la FDA pubblica un elenco dei dispositivi medici basati su intelligenza artificiale che possono essere commercializzati nel Paese: molti di questi strumenti riguardano proprio la radiologia e la diagnostica per immagini.
Per gli studenti interessati a Medicina, questo dato racconta una trasformazione importante: il medico del futuro non dovrà solo conoscere anatomia, fisiologia, patologia e clinica, ma dovrà anche saper dialogare con strumenti digitali sempre più sofisticati. Per i medici già formati, invece, la sfida è capire come integrare questi sistemi nel proprio lavoro senza perdere il controllo del processo diagnostico.
AI generativa: documenti clinici, sintesi e ricerca scientifica
Negli ultimi anni, l’attenzione si è spostata molto sull’AI generativa, cioè su quei sistemi capaci di produrre testi, sintesi, immagini, schemi o risposte a partire da una richiesta.
In medicina, questi strumenti possono avere diverse applicazioni. Una delle più immediate riguarda la gestione delle informazioni. Un medico, infatti, non lavora solo durante la visita o l’intervento. Una parte consistente del suo tempo è occupata da attività documentali: leggere referti, aggiornare cartelle cliniche, scrivere relazioni, produrre sintesi, recuperare informazioni, consultare linee guida e letteratura scientifica.
L’AI generativa può aiutare in attività come:
- sintetizzare documenti lunghi;
- riorganizzare appunti clinici;
- preparare bozze di lettere o relazioni;
- facilitare la ricerca di informazioni scientifiche;
- confrontare documenti;
- estrarre punti chiave da testi complessi;
- supportare la formazione e lo studio.
L’Organizzazione Mondiale della Sanità ha individuato tra le possibili applicazioni dei grandi modelli multimodali in salute anche la diagnosi e l’assistenza clinica, le attività amministrative e di documentazione, la formazione medica e infermieristica, la ricerca scientifica e lo sviluppo di farmaci. Allo stesso tempo, l’OMS sottolinea i rischi legati a risposte false, inaccurate, incomplete o condizionate da dati di bassa qualità o non rappresentativi.
Questo è il punto da tenere sempre presente: l’AI generativa può essere molto utile per organizzare informazioni, velocizzare alcuni passaggi e supportare lo studio, ma non può essere trattata come una fonte clinica infallibile. Un conto è chiederle di riassumere un testo o aiutare a preparare una traccia di lavoro. Un altro è usarla per prendere decisioni diagnostiche o terapeutiche senza verifica. In medicina, la differenza tra supporto e delega è fondamentale.
Supporto alla pratica clinica: dati, rischi e percorsi di cura
Un altro ambito molto importante è quello del supporto alle decisioni cliniche.
Oggi la medicina produce una quantità enorme di dati. Esami di laboratorio, immagini, anamnesi, parametri vitali, dati genetici, farmaci assunti, patologie pregresse, esiti di visite e ricoveri: ogni paziente porta con sé una storia clinica sempre più ricca e complessa. L’intelligenza artificiale può aiutare a mettere in relazione questi dati e a individuare elementi che potrebbero sfuggire a una lettura frammentata.
Per esempio, può supportare il medico nel:
- stimare il rischio che un paziente sviluppi una complicanza;
- individuare segnali precoci di peggioramento;
- riconoscere pattern ricorrenti in pazienti con patologie croniche;
- suggerire controlli o approfondimenti;
- classificare i pazienti in base al livello di rischio;
- personalizzare alcuni percorsi di cura;
- monitorare l’andamento di una terapia.
Anche in questo caso, però, è importante usare parole precise. L’AI non “cura” e non “decide” al posto del medico. Può aiutare a leggere meglio i dati, ma la decisione clinica resta un atto umano, professionale e responsabile.
Questo vale ancora di più perché i sistemi di AI possono essere opachi: non sempre è chiaro perché un algoritmo arrivi a una certa previsione o a un certo suggerimento. Non a caso, tra gli ostacoli segnalati dai medici italiani ci sono proprio la mancanza di spiegazioni nei processi decisionali dell’AI e le possibili responsabilità medico-legali. Secondo l’Osservatorio Sanità Digitale, il 55% degli specialisti e il 47% dei medici di medicina generale indicano la scarsa spiegabilità come un ostacolo alla piena integrazione dell’AI nella pratica, mentre circa 6 medici su 10 esprimono riserve sulle responsabilità medico-legali.
Sono dubbi comprensibili. E sono anche il segnale che la formazione sull’AI in medicina non può limitarsi a “come usare uno strumento”, ma deve includere capacità critica, conoscenza dei limiti e consapevolezza normativa.
AI, telemedicina e monitoraggio a distanza
L’intelligenza artificiale si lega anche a un altro grande tema della sanità contemporanea: la possibilità di seguire i pazienti fuori dagli spazi tradizionali dell’ospedale o dell’ambulatorio.
Telemedicina, telemonitoraggio, dispositivi indossabili e app per la salute producono dati continui: frequenza cardiaca, pressione, saturazione, glicemia, attività fisica, qualità del sonno, aderenza alla terapia. Questi dati possono essere molto utili, soprattutto nella gestione delle cronicità. Pensiamo a pazienti con diabete, scompenso cardiaco, broncopneumopatia cronica ostruttiva, ipertensione, aritmie o altre condizioni che richiedono controlli regolari.
L’AI può aiutare a:
- individuare anomalie nei parametri;
- segnalare situazioni che richiedono attenzione;
- distinguere i pazienti più stabili da quelli più a rischio;
- supportare il lavoro dei team territoriali;
- rendere più efficiente il monitoraggio;
- favorire interventi più tempestivi.
Anche in Italia questo ambito è in evoluzione. AGENAS ha avviato una procedura per la realizzazione di una piattaforma di intelligenza artificiale a supporto dell’assistenza sanitaria primaria, finanziata con fondi PNRR, con l’obiettivo di supportare l’attività di diagnosi e cura dei medici impegnati nell’assistenza territoriale. Il progetto prevede anche una fase di sperimentazione su 1.500 professionisti sanitari.
Questo dato è interessante perché mostra che l’AI non riguarda solo ospedali altamente specializzati, ma anche la medicina del territorio, cioè uno dei punti più delicati del sistema sanitario.
Ricerca, farmaci e medicina personalizzata
L’intelligenza artificiale ha un ruolo importante anche nella ricerca scientifica.
La ricerca biomedica produce enormi quantità di dati: genetici, molecolari, clinici, epidemiologici. Analizzarli richiede strumenti capaci di individuare relazioni complesse e generare nuove ipotesi. In questo contesto, l’AI può essere usata per:
- analizzare grandi database clinici;
- individuare nuovi possibili bersagli terapeutici;
- selezionare pazienti per studi clinici;
- studiare l’efficacia di trattamenti;
- integrare dati genetici, molecolari e clinici;
- sviluppare modelli predittivi.
Uno degli obiettivi più ambiziosi è la medicina personalizzata, cioè una medicina sempre più capace di adattare prevenzione, diagnosi e terapia alle caratteristiche del singolo paziente.
Naturalmente, anche qui bisogna evitare semplificazioni. L’AI non rende automaticamente la medicina “più giusta” o “più precisa”. La qualità dei risultati dipende dalla qualità dei dati, dal modo in cui gli algoritmi sono costruiti, dalla validazione scientifica e dall’uso che ne fanno i professionisti.
Però è chiaro che chi lavorerà nella medicina dei prossimi anni incontrerà sempre più spesso strumenti basati su dati, modelli predittivi e analisi computazionale. Questo vale non solo per i clinici, ma anche per chi si occuperà di ricerca, sanità pubblica, farmacologia, epidemiologia, biotecnologie e organizzazione sanitaria.
Organizzazione dei servizi sanitari: l’AI oltre la diagnosi
Quando si parla di AI in medicina, si pensa quasi sempre alla diagnosi. In realtà, una parte importante delle applicazioni riguarda l’organizzazione dei servizi.
Un sistema sanitario deve gestire risorse limitate: personale, posti letto, sale operatorie, ambulatori, strumenti diagnostici, tempi di attesa. L’intelligenza artificiale può aiutare ad analizzare flussi, prevedere bisogni, individuare colli di bottiglia e rendere più efficiente la gestione.
Per esempio, può essere usata per:
- prevedere l’afflusso di pazienti in pronto soccorso;
- migliorare la gestione delle liste d’attesa;
- ottimizzare l’uso delle sale operatorie;
- supportare la programmazione del personale;
- analizzare i percorsi dei pazienti;
- identificare aree in cui si concentrano ritardi o inefficienze;
- favorire una migliore distribuzione delle risorse.
Per un medico, questo può sembrare un ambito lontano dalla pratica clinica quotidiana. In realtà non lo è. L’organizzazione influenza direttamente la qualità delle cure: tempi di diagnosi, continuità assistenziale, accesso agli esami, carico di lavoro, possibilità di seguire bene i pazienti.
L’AI può quindi avere un impatto non solo sul singolo atto medico, ma sull’intero modo in cui i servizi sanitari vengono progettati e gestiti.
Alcuni esempi di applicativi AI in sanità
Esistono già molti strumenti basati su intelligenza artificiale sviluppati per l’ambito sanitario. Alcuni sono dispositivi medici regolati, altri sono piattaforme di supporto al lavoro clinico, altri ancora sono strumenti generativi usati per attività documentali, formative o di ricerca.
Senza trasformare questo articolo in una lista di software, può essere utile citare alcune tipologie di applicativi.
Nel campo dell’imaging, esistono strumenti pensati per supportare radiologi e clinici nell’individuazione di condizioni tempo-dipendenti, come ictus, embolia polmonare, emorragie o lesioni sospette. In anatomia patologica, l’AI può aiutare ad analizzare immagini digitali di tessuti. In ambito oncologico, alcuni sistemi vengono studiati o utilizzati per supportare diagnosi, classificazione e monitoraggio. In cardiologia, l’AI può essere applicata all’interpretazione di tracciati elettrocardiografici o immagini ecocardiografiche.
Ci sono poi strumenti di AI generativa e assistenti digitali pensati per supportare attività di documentazione clinica: trascrivere, sintetizzare, organizzare informazioni, produrre bozze di note o aiutare nella gestione dei testi.
Infine, ci sono strumenti generalisti, come chatbot e modelli linguistici, che molti professionisti iniziano a usare per attività non direttamente cliniche: studiare, riassumere articoli, preparare scalette, confrontare concetti, semplificare contenuti complessi.
La distinzione è fondamentale: un conto sono i dispositivi medici validati e autorizzati per uno specifico uso; un altro conto sono gli strumenti generalisti, che possono essere utili ma non sono progettati per sostituire fonti cliniche, linee guida, banche dati scientifiche o valutazioni professionali.
Rischi e limiti: perché serve uno sguardo critico
L’intelligenza artificiale in medicina offre opportunità molto concrete, ma porta con sé anche rischi importanti.
Il primo riguarda l’accuratezza. I sistemi di AI possono produrre risposte sbagliate, incomplete o apparentemente corrette ma non affidabili. Questo è particolarmente delicato con l’AI generativa, che può formulare testi molto convincenti anche quando il contenuto non è corretto.
Il secondo rischio riguarda i bias. Un algoritmo viene addestrato su dati. Se quei dati sono incompleti, poco rappresentativi o sbilanciati, anche il sistema può produrre risultati distorti. In medicina questo può tradursi in differenze nella qualità del supporto offerto a gruppi diversi di pazienti.
Il terzo tema è la privacy. I dati sanitari sono tra i dati personali più sensibili. Usarli in strumenti digitali richiede attenzione, regole chiare, sicurezza informatica e rispetto della normativa.
Il quarto riguarda la responsabilità. Se un sistema suggerisce una valutazione sbagliata, chi risponde dell’errore? Il medico? La struttura? Il produttore del software? È una questione ancora complessa, che richiede norme, procedure e formazione.
Il quinto rischio è l’automation bias, cioè la tendenza a fidarsi troppo della macchina. Se uno strumento sembra avanzato, rapido e sicuro, il professionista potrebbe essere portato ad accettarne il suggerimento senza verificarlo con sufficiente attenzione. L’OMS segnala proprio questo rischio: decisioni difficili potrebbero essere delegate impropriamente a un sistema di AI, oppure errori che altrimenti verrebbero riconosciuti potrebbero passare inosservati.
Per questo, parlare di AI in medicina significa parlare anche di metodo, etica e responsabilità. Non basta sapere che uno strumento esiste: bisogna sapere quando usarlo, come usarlo, quali dati inserire, come leggere le risposte e quando fermarsi.
Norme, sicurezza e dati: il quadro europeo
L’Europa sta cercando di costruire un quadro regolatorio per rendere l’AI più sicura e affidabile.
L’AI Act, entrato in vigore il 1° agosto 2024, introduce regole diverse a seconda del livello di rischio dei sistemi di intelligenza artificiale. In ambito sanitario, molti software basati su AI destinati a scopi medici rientrano tra i sistemi ad alto rischio e devono rispettare requisiti specifici, tra cui gestione del rischio, qualità dei dati, informazioni chiare per gli utenti e supervisione umana. Questo aspetto è particolarmente importante in medicina, perché la tecnologia può incidere direttamente sulla salute, sulla sicurezza e sui diritti delle persone.
Accanto all’AI Act, l’Unione Europea sta lavorando anche sullo Spazio Europeo dei Dati Sanitari, pensato per favorire l’uso e il riuso dei dati sanitari in modo regolato, sicuro e utile per cura, ricerca e innovazione. La Commissione Europea sottolinea che lo sviluppo dell’AI in medicina richiede dati sanitari diversi e di alta qualità, necessari per garantire accuratezza, robustezza ed equità dei sistemi.
Per i professionisti sanitari, questo significa che la competenza tecnologica dovrà andare di pari passo con la consapevolezza normativa. Non sarà sufficiente sapere “che cosa può fare” uno strumento. Bisognerà sapere anche se è adatto all’uso clinico, se è validato, quali dati usa, quali rischi comporta e quali responsabilità implica.
Studiare Medicina nell’era dell’AI: quali competenze serviranno
Per chi sta pensando di studiare o sta studiando Medicina, tutto questo può sembrare molto distante. Prima ci sono l’accesso all’università, gli esami, il percorso lungo della laurea, il tirocinio, la specializzazione.
Eppure, capire come sta cambiando la professione medica è importante già oggi.
La medicina resta fondata su basi scientifiche solide: biologia, chimica, fisica, anatomia, fisiologia, patologia, farmacologia, clinica. L’intelligenza artificiale non riduce il valore di queste conoscenze. Al contrario, le rende ancora più necessarie.
Per usare bene l’AI, infatti, bisogna prima sapere di medicina. Serve una mente capace di distinguere un’informazione plausibile da una debole, un dato rilevante da uno secondario, un suggerimento utile da una semplificazione pericolosa.
Ai futuri medici serviranno quindi competenze nuove, ma non alternative a quelle tradizionali. Tra le più importanti ci sono:
- capacità di leggere e interpretare dati;
- familiarità con strumenti digitali;
- conoscenza dei principi di base dell’AI;
- spirito critico;
- attenzione alla qualità delle fonti;
- capacità di lavorare in team multidisciplinari;
- consapevolezza etica;
- capacità comunicativa;
- centralità della relazione con il paziente.
C’è un punto da sottolineare: più la tecnologia entra nella medicina, più la dimensione umana diventa preziosa. Perché un algoritmo può analizzare dati, ma non può sostituire l’ascolto, la responsabilità, l’empatia, la capacità di spiegare una diagnosi o accompagnare una persona in un momento difficile.
Per i medici già formati: un corso per aggiornarsi
Se per gli studenti il tema è prepararsi alla medicina che verrà, per i medici e i professionisti sanitari il tema è più immediato: capire come orientarsi tra strumenti che stanno già entrando nella pratica quotidiana.
Aggiornarsi sull’AI non significa diventare programmatori. Non significa saper costruire un algoritmo o scrivere codice. Significa acquisire competenze pratiche e critiche per usare questi strumenti in modo consapevole.
Un medico oggi può avere bisogno di capire:
- che differenza c’è tra machine learning, AI generativa e modelli multimodali;
- quali strumenti possono essere usati nella pratica clinica e quali no;
- come formulare richieste efficaci a un sistema generativo;
- come verificare l’affidabilità delle risposte;
- quali dati non inserire mai in strumenti non adeguati;
- come evitare errori, bias e interpretazioni superficiali;
- quali sono le implicazioni etiche e medico-legali;
- come integrare l’AI nei flussi di lavoro senza delegarle il giudizio clinico.
È proprio qui che la formazione diventa centrale perché l’AI può essere utile solo se chi la usa sa che cosa sta facendo.
Alpha Test ha progettato AI Pro Medical – L’intelligenza artificiale al servizio della pratica clinica, un corso realizzato in collaborazione con SIIAM – Società Italiana Intelligenza Artificiale in Medicina e Promeditec, rivolto a professionisti medico-sanitari come medici di medicina generale, specializzandi, strutturati, infermieri e farmacisti. L’obiettivo è aiutare i professionisti a valutare le applicazioni dell’IA in medicina diagnostica, terapeutica e organizzativa e a capire come l’intelligenza artificiale possa supportarli nella pratica clinica.
Il valore di un percorso di questo tipo sta proprio nel taglio pratico: non imparare l’AI “in astratto”, ma capire come può entrare nel contesto clinico e sanitario, con attenzione alle opportunità, ai limiti e alle responsabilità.
L’AI non sostituisce il medico, ma cambia il modo di lavorare
La domanda che spesso accompagna il dibattito sull’intelligenza artificiale in medicina è: l’AI sostituirà i medici? Posta così, la domanda è fuorviante. La questione più realistica è un’altra: quali attività potranno essere supportate, accelerate o trasformate dall’AI? E quali competenze serviranno ai medici per governare questo cambiamento?
L’intelligenza artificiale può aiutare a leggere immagini, analizzare dati, cercare informazioni, produrre sintesi, alleggerire alcune attività amministrative, supportare la ricerca e migliorare l’organizzazione dei servizi. Ma non può assumersi la responsabilità della cura. Non può conoscere una persona nella sua complessità. Non può sostituire il giudizio clinico, l’esperienza, la relazione, l’etica professionale.
Il medico resta centrale. Cambiano però gli strumenti con cui lavora.
Per questo, chi oggi studia Medicina dovrà costruire basi scientifiche forti e sviluppare una mentalità aperta, capace di dialogare con la tecnologia senza subirla. Chi è già medico dovrà invece aggiornarsi per capire come usare l’AI in modo efficace, sicuro e conforme al proprio ruolo.
La medicina del futuro non sarà meno umana perché userà più tecnologia. Potrà essere migliore solo se la tecnologia sarà guidata da professionisti preparati, responsabili e consapevoli.