• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
Sanità DigitaleSanità Digitale
    Facebook X (Twitter) LinkedIn Instagram Vimeo RSS
    martedì, 13 Maggio
    Trending
    • Clinical Trials Day, in scena al ‘Campus Gemelli’, il 20 e 21 Maggio
    • QuEra accede alla fase finale della Quantum for Bio Challenge
    • Innovazione farmaceutica: serve un’Europa più competitiva
    • Napoli Bees Square torna il 16 maggio con la seconda edizione
    • GenAI nel Settore Sanitario: dati personali a rischio
    • Intelligenza Artificiale: un alleato per i medici, non un sostituto
    • Cybersecurity e sanità: i passi per una reale resilienza informatica
    • Ridurre i costi IT nel Medical Imaging: l’approccio innovativo di Cubbit
    Facebook X (Twitter) LinkedIn Instagram Vimeo RSS
    Sanità DigitaleSanità Digitale
    • Home
    • Cura
    • Tendenze
    • Riabilitazione
    • No Limits
    • Incontri
    Sanità DigitaleSanità Digitale
    Sei qui:Home»In Evidenza»GenAI nel Settore Sanitario: dati personali a rischio

    GenAI nel Settore Sanitario: dati personali a rischio

    By Redazione BitMAT13 Maggio 20255 Mins Read
    Facebook LinkedIn Twitter WhatsApp Telegram Reddit Email

    Il nuovo report del Netskope Threat Labs mette in evidenza le vulnerabilità legate all’uso della GenAI in ambito sanitario. Come possono proteggersi le organizzazioni?

    GenAI

    Il settore sanitario sta sperimentando da tempo i benefici derivanti dall’uso dell’Intelligenza Artificiale ma, allo stesso tempo, non è esente da pericoli informatici ad essa legati.
    Netskope Threat Labs ha pubblicato il suo ultimo report sulle minacce che prende in esame il settore sanitario negli ultimi 12 mesi (1° marzo 2024 – 31 marzo 2025). Dal report emerge che i lavoratori di questo settore tentano regolarmente di caricare dati sensibili su siti web non approvati o piattaforme cloud non autorizzate. Le applicazioni di intelligenza artificiale generativa (GenAI), come ChatGPT o Google Gemini — le due più comunemente utilizzate dagli operatori sanitari — sono spesso coinvolte in tali violazioni delle policy sui dati, poiché il loro utilizzo negli ambienti di lavoro sta diventando sempre più diffuso.

    Violazioni legate all’uso della GenAI in ambito sanitario

    Dal report emergono i seguenti risultati principali:

    • L’81% di tutte le violazioni delle policy sui dati che si sono verificate nelle organizzazioni sanitarie negli ultimi dodici mesi ha riguardato dati sanitari regolamentati, ovvero dati protetti da normative locali, nazionali o internazionali, che includono informazioni mediche e cliniche sensibili. Anche password e chiavi di accesso, codice sorgente o proprietà intellettuale sono stati coinvolti (per un totale del 19%), e un gran numero di tali violazioni è stato causato da individui che hanno caricato dati sensibili su account personali di Microsoft OneDrive o Google Drive.
    • L’intelligenza artificiale generativa è ormai onnipresente e le applicazioni basate su GenAI sono attualmente utilizzate nell’88% delle organizzazioni sanitarie. Una larga parte delle violazioni delle politiche sui dati avviene ora nel contesto dell’utilizzo della GenAI da parte degli operatori sanitari, con il 44% dei casi che coinvolge dati regolamentati, il 29% codice sorgente, il 25% proprietà intellettuale e il 2% password e chiavi di accesso. Ulteriori rischi di perdita di dati possono derivare da applicazioni che utilizzano i dati degli utenti per l’addestramento, o che integrano funzionalità basate su GenAI, utilizzate rispettivamente nel 96% e nel 98% delle organizzazioni sanitarie.
    • Oltre due utenti su tre di GenAI nel settore sanitario utilizzano e inviano dati sensibili ai propri account personali di GenAI durante l’orario di lavoro. Questo comportamento ostacola la visibilità da parte dei team di sicurezza sulle attività legate alla GenAI tra il personale e, in assenza di adeguate misure di protezione dei dati, compromette la loro capacità di rilevare e prevenire fughe di dati.

    Best practice per prevenire le minacce cyber

    Le organizzazioni sanitarie possono considerare di:

    • Implementare applicazioni di intelligenza artificiale generativa approvate dall’organizzazione tra il personale, al fine di centralizzare l’uso della GenAI in strumenti approvati, monitorati e protetti dall’organizzazione stessa, riducendo così l’utilizzo di account personali e della cosiddetta “shadow AI”. L’uso di account personali di GenAI da parte degli operatori sanitari, sebbene ancora elevato, è già diminuito dall’87% al 71% nell’ultimo anno, poiché le organizzazioni stanno progressivamente adottando soluzioni di GenAI approvate a livello aziendale.
    • Implementare rigorose politiche di prevenzione della perdita dei dati (Data Loss Prevention – DLP) per monitorare e controllare l’accesso alle applicazioni di GenAI, e definire il tipo di dati che possono essere condivisi con esse, offre un ulteriore livello di sicurezza nel caso in cui i lavoratori compiano azioni rischiose. La percentuale di organizzazioni sanitarie che hanno adottato politiche DLP per la GenAI è aumentata dal 31% al 54% nell’ultimo anno.
    • Implementare strumenti di formazione in tempo reale per gli utenti, che avvisano i dipendenti quando stanno compiendo azioni rischiose. Ad esempio, se un operatore sanitario tenta di caricare un file su ChatGPT contenente nomi di pazienti, un messaggio che appare sul suo schermo chiederà all’utente se desidera procedere. Un altro report di Netskope mostra che la grande maggioranza dei dipendenti (73%) in tutti i settori si ferma dopo aver ricevuto simili avvisi.

    Netskope fornisce protezione dalle minacce a milioni di utenti in tutto il mondo. Le informazioni presentate in questo report si basano su dati di utilizzo resi anonimi raccolti dalla piattaforma Netskope One, su un sottoinsieme di clienti Netskope del settore sanitario che hanno dato autorizzazione preventiva affinché i loro dati vengano analizzati.

    Dichiarazioni

    Gianpietro Cutolo, Cloud Threat Researcher presso Netskope Threat Labs, ha commentato così i risultati del report: “Le applicazioni di intelligenza artificiale generativa offrono soluzioni innovative, ma introducono anche nuovi vettori per potenziali violazioni dei dati, soprattutto in ambienti ad alta pressione e criticità come quello sanitario, dove il personale e i professionisti devono spesso operare con rapidità e agilità. Le organizzazioni sanitarie devono bilanciare i benefici della GenAI con l’adozione di misure di sicurezza e protezione dei dati per mitigare tali rischi”.

    “Nel settore sanitario, la rapida adozione delle applicazioni di intelligenza artificiale generativa e l’uso crescente delle piattaforme cloud hanno reso ancora più urgente la protezione dei dati sanitari regolamentati”, conclude Gianpietro Cutolo. “Man mano che la GenAI viene integrata nei flussi di lavoro clinici e operativi, le organizzazioni stanno accelerando l’implementazione di controlli come le politiche DLP e il blocco delle applicazioni per ridurre i rischi. Le organizzazioni sanitarie stanno facendo progressi, ma sarà fondamentale mantenere l’attenzione su soluzioni sicure e approvate a livello aziendale, per garantire che i dati restino protetti in questo scenario in continua evoluzione”.

    cybersecurity intelligenza artificiale (AI) Intelligenza Artificiale Generativa minacce informatiche Netskope protezione dei dati personali
    Share. Facebook LinkedIn Twitter WhatsApp Telegram Reddit Email

    Correlati

    QuEra accede alla fase finale della Quantum for Bio Challenge

    13 Maggio 2025

    Innovazione farmaceutica: serve un’Europa più competitiva

    13 Maggio 2025

    Intelligenza Artificiale: un alleato per i medici, non un sostituto

    13 Maggio 2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Più Letti

    Clinical Trials Day, in scena al ‘Campus Gemelli’, il 20 e 21 Maggio

    13 Maggio 2025

    QuEra accede alla fase finale della Quantum for Bio Challenge

    13 Maggio 2025

    Innovazione farmaceutica: serve un’Europa più competitiva

    13 Maggio 2025

    Napoli Bees Square torna il 16 maggio con la seconda edizione

    13 Maggio 2025
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    NAVIGAZIONE
    • Cura
    • Tendenze
    • Riabilitazione
    • No Limits
    • Incontri
    Ultime

    Clinical Trials Day, in scena al ‘Campus Gemelli’, il 20 e 21 Maggio

    13 Maggio 2025

    QuEra accede alla fase finale della Quantum for Bio Challenge

    13 Maggio 2025

    Innovazione farmaceutica: serve un’Europa più competitiva

    13 Maggio 2025
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati Iscrizione al tribunale di Milano n° 295 del 28-11-2018 Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.