
Luigi Preti, Lecturer alla SDA Bocconi, spiega dove l’AI è già realtà nelle strutture ospedaliere, cosa frena medici e operatori sanitari e perché il vero nodo non è la tecnologia, ma l’integrazione organizzativa e la fiducia nei sistemi automatici.
Luigi Preti, lei è lecturer di healthcare management alla sda bocconi school of management. in cosa consiste il suo lavoro?
Sono un docente e ricercatore affiliato al CerRGAS, il centro di ricerca della SDA Bocconi dedicato ai sistemi e alle aziende sanitarie. Mi occupo di gestione delle organizzazioni sanitarie e, in particolare, di come l’intelligenza artificiale viene progressivamente adottata nel settore.
In quali ambiti viene oggi utilizzata l’intelligenza artificiale in sanità?
Bisogna distinguere tra il loro grande potenziale tecnologico e l’uso reale nella pratica quotidiana. L’AI è già impiegata in modo strutturato in diversi ambiti clinici, soprattutto attraverso dispositivi medici certificati. La radiologia è uno dei campi più sviluppato, perché l’AI funziona molto bene nell’analisi delle immagini.
Un altro ambito rilevante è quello prognostico, cioè la previsione dei rischi clinici. L’AI generativa apre scenari nuovi, grazie all’interazione con linguaggio più naturale e umano.
Per non parlare della multimodalità, ma siamo ancora in una fase esplorativa. In generale, l’adozione concreta è più lenta rispetto allo sviluppo tecnologico, soprattutto in ambito clinico.
Cosa frena maggiormente l’adozione dell’AI nella pratica clinica?
Il fatto che buone performance in fase di validazione non garantiscono risultati identici nel contesto reale. I modelli dipendono molto dai dati su cui sono addestrati.
Uno strumento può funzionare perfettamente in un Paese o in un sistema sanitario e molto meno in un altro, con caratteristiche cliniche e organizzative diverse.
È solo una questione di performance o anche di fiducia?
La fiducia è un tema centrale e va oltre gli aspetti tecnici. In sanità la responsabilità resta sempre in capo al professionista, soprattutto nelle decisioni ad alto rischio.
Questo rende i medici più prudenti nell’affidarsi a uno strumento automatico, anche quando è tecnicamente valido.
I medici sono adeguatamente formati per usare queste tecnologie o servono interventi nei corsi di laurea?
Il tema della formazione è sempre più presente. Non tanto perché l’uso pratico sia complesso – spesso l’AI è integrata nei sistemi esistenti – quanto perché è importante capire come funzionano questi strumenti, quando fidarsi e quali sono i loro limiti.
Alcune professioni, come i radiologi, stanno già riflettendo su come ridefinire il proprio ruolo, visto che molte attività vedono già un rilevante intervento dell’AI.
La chirurgia robotica rientra in questo discorso?
È un tema diverso. La chirurgia robotica esiste da tempo e il nodo principale non è tanto l’AI, ma l’infrastruttura tecnologica nel suo complesso: serve minimizzare il tempo che passa tra quando il chirurgo prende una decisione a distanza e quando il robot la esegue.
Poi c’è la questione della responsabilità, dovremo accettare l’idea che il chirurgo non sia fisicamente in sala operatoria.
Ma anche qui non è solo un tema di AI, piuttosto serve una rete velocissima, una latenza praticamente nulla e un’infrastruttura sicura e affidabile.
L’intelligenza artificiale in ambito clinico è sicura? E la privacy dei dati?
Esistono regolamentazioni molto stringenti, soprattutto in Europa, che pongono limiti chiari all’uso dell’AI in sanità.
L’adozione avviene solo quando ci sono elevate garanzie di sicurezza, supportate da studi e dall’esperienza.
Sul tema dei dati, i rischi sono quelli tipici della cybersicurezza in generale. Il quadro normativo europeo offre tutele solide.
Quanti strumenti di AI sono oggi utilizzati in sanità?
Sono moltissimi. Il mercato è composto da startup e tutte le grandi aziende tecnologiche che producono dispositivi medici e sanitari sviluppano soluzioni di data analytics e data science.
Ci racconta una sua recente ricerca sull’AI?
Stiamo studiando l’adozione di un sistema di AI in due unità operative di ospedali in Lombardia, che stanno adottando una soluzione di intelligenza artificiale che suggerisce un trattamento farmacologico per i pazienti dialitici.
È addestrata su numerosissimi dati raccolti da questa azienda che produce già tecnologie per questo tipo di pazienti. I primi risultati mostrano che l’impatto sulle decisioni dei clinici è limitato.
Spesso gli obiettivi per i quali viene addestrato l’algoritmo (che sono decisi da chi li sviluppa) non coincidono con quelli del medico sul singolo caso. Inoltre, emergono ostacoli organizzativi e di utilizzo: se lo strumento non è ben integrato nei sistemi informativi, tende a essere poco usato.
