L’intelligenza artificiale non è più una promessa del futuro, ma una realtà operativa che sta entrando nei nostri ospedali con una velocità superiore a quella delle policy ufficiali. Un recente sondaggio condotto negli Stati Uniti da CITE Research per conto di Wolters Kluwer Health (“Wolters Kluwer healthcare shadow AI survey”) su un campione di 518 professionisti sanitari, equamente suddivisi tra personale medico e amministratori, scatta una fotografia del fenomeno nel settore ospedaliero americano, portando alla luce la crescente diffusione della cosiddetta Shadow AI, ovvero dell’utilizzo non autorizzato di strumenti di intelligenza artificiale nel settore sanitario per gestire carichi di lavoro sempre più pressanti. Il rapporto evidenzia una sostanziale divergenza di percezione: gli amministratori (48%) sono più fiduciosi sul fatto che l’AI migliorerà la sanità nei prossimi 5 anni, contro il 34% dei medici, che sono però più inclini a testare le applicazioni dell’intelligenza artificiale non autorizzati per curiosità, rispetto agli amministratori.
Più di 1 professionista su 2 ha usato l’AI in modo non autorizzato
I dati dell’indagine, diffusi a gennaio 2026, rivelano che il 41% dei professionisti era a conoscenza dell’uso di strumenti non autorizzati da parte di colleghi e il 17% dichiara di averli usati personalmente; inoltre, 1 su 10 riferisce un impiego in assistenza diretta. La spinta principale? Workflow più rapidi (circa metà dei rispondenti). Tra i clinici, il 26% segnala curiosità/esperimenti come motivazione, contro il 10% degli amministratori.
Sicurezza dei pazienti e Shadow AI: i rischi che preoccupano la sanità
I professionisti del settore clinico-ospedaliero esprimono timori per i possibili “danni collaterali” dovuti all’utilizzo clandestino dell’AI: la sicurezza del paziente è la preoccupazione principale, sia per gli amministratori che per i medici. Quasi un quarto (23% degli intervistati) evidenzia il rischio di intrusioni informatiche, accessi non autorizzati e la necessità di misure di protezione robuste.
I medici considerano i risultati imprecisi come il secondo problema più rilevante, connesso al rischio delle “allucinazioni cliniche” generate dall’AI: il 42% teme output errati dagli strumenti non certificati che mettono a rischio la sicurezza e la conformità normativa e il 30% dedica particolare attenzione al monitoraggio del bias algoritmico come rischio critico per l’equità delle cure. Tuttavia, non manca un’esigua percentuale di medici (10%) che ha già usato strumenti non autorizzati persino per casi di assistenza diretta al paziente.
La minaccia della Shadow AI: un rischio da quasi 7 Mln di dollari
L’uso di strumenti di IA non autorizzati può generare impatti estesi e costi elevati. Un’analisi condotta da IBM indica che nel 2025 il costo medio di una violazione di sicurezza nel settore sanitario ha superato i 7,42 milioni di dollari (circa 6,91 milioni di euro); il 97% delle organizzazioni con incidenti di sicurezza legati all’AI era privo di adeguati controlli di accesso e il 63% era privo di policy di governance dell’AI.
Nelle corsie italiane il 68% degli operatori utilizza l’AI senza autorizzazione
In un momento in cui anche il sistema sanitario italiano affronta importanti criticità legate alla carenza di personale e alla gestione dei flussi documentali previsti dal PNRR, il fenomeno della Shadow AI sta ridefinendo le modalità di cura del paziente, con dati che mostrano un’adozione spontanea spesso superiore alla media globale. Secondo l’Osservatorio Sanità Digitale del Politecnico di Milano, il 46% dei medici di medicina generale (MMG) e il 26% dei medici specialisti in Italia hanno già utilizzato strumenti di intelligenza artificiale generativa nella propria pratica clinica. Questo dato si inserisce in un contesto nazionale dove il 68% degli operatori sanitari ammette di utilizzare l’IA senza informare i propri vertici aziendali.
La spinta verso queste tecnologie è alimentata anche dal comportamento dei cittadini: il 42,8% degli italiani usa l’IA generativa per informarsi sulla salute e il 63,9% la sfrutta per verificare diagnosi e terapie suggerite dai professionisti. Tuttavia, questa diffusione non regolamentata espone il sistema a rischi severi. Il Rapporto Clusit 2025 evidenzia che quasi 3 aziende sanitarie italiane su 4 (73%) hanno subito un incidente di sicurezza nell’ultimo anno, in un clima dove gli attacchi informatici gravi nel nostro paese sono cresciuti del 15,2%.
Conclusioni
Questi dati sono l’espressione di un segnale di urgenza. I professionisti della salute sono sottoposti a una pressione senza precedenti, tra carenza di personale e carichi amministrativi che, in medicina primaria, richiederebbero teoricamente 26,7 ore al giorno per essere assolti secondo le linee guida. È quindi naturale che cerchino nell’innovazione un alleato. Tuttavia, quando questa ricerca avviene nell’ombra, i benefici dell’efficienza vengono annullati da rischi sistemici inaccettabili.
L’uso di strumenti non autorizzati espone le strutture a violazioni della privacy e a data breach. Ma la vera criticità risiede nella sicurezza clinica: l’impiego di IA generiche, soggette ad “allucinazioni” e non addestrate su evidenze scientifiche validate da esperti, può compromettere la qualità delle cure e la stessa relazione medico-paziente. L’obiettivo non è limitare l’accesso alla tecnologia, ma colmare il vuoto di governance. La tecnologia da sola non basta: è necessario lavorare su processi integrati e rinnovati modelli organizzativi e di validazione degli strumenti per ottimizzare le risorse.
È essenziale fornire ai clinici strumenti purpose-built — progettati specificamente per la sanità — che siano trasparenti, basati su fonti autorevoli e integrati nei flussi di lavoro ufficiali. Solo trasformando l’IA da esperimento solitario e “ombra” a partner istituzionale validato potremo garantire che l’innovazione serva realmente il suo scopo primario: elevare la qualità dell’assistenza mantenendo il paziente al centro delle cure.
A cura di Christian Cella, Vice President & General Manager, Wolters Kluwer Health International
[1] Fonte: Report IBM 2025: “Cost of a Data Breach”
2 Fonte: Report “Sanità Digitale: oltre l’hype, il valore per i pazienti e il sistema“ (Edizione 2024).
