• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
Sanità DigitaleSanità Digitale
    Facebook X (Twitter) LinkedIn Instagram Vimeo RSS
    domenica, 21 Dicembre
    Trending
    • Startup innovative premiate a Next Startup Academy
    • Payback dispositivi medici, Conflavoro PMI Sanità: condividiamo l’analisi della premier Meloni, ma ora servono atti concreti per le PMI
    • Novartis sceglie Agentforce Life Sciences di Salesforce per potenziare la personalizzazione del servizio clienti a livello globale
    • Life Sciences: 5 modi in cui l’AI trasformerà il settore nel 2026
    • ICU smart e silenziose: il supporto della tecnologia
    • NET HEALTH: il 64% degli italiani si fida della sanità digitale
    • IA: presentate alla Camera dei Deputati le Linee di Indirizzo per l’uso in sanità
    • Spalla: all’Ospedale Sacco la prima protesi guidata dal Gps
    Facebook X (Twitter) LinkedIn Instagram Vimeo RSS
    Sanità DigitaleSanità Digitale
    • Home
    • Cura
    • Tendenze
    • Riabilitazione
    • No Limits
    • Incontri
    Sanità DigitaleSanità Digitale
    Sei qui:Home»In Evidenza»Garante Privacy: disponibile il decalogo sull’uso dell’intelligenza artificiale
    Updated:13 Ottobre 2023

    Garante Privacy: disponibile il decalogo sull’uso dell’intelligenza artificiale

    By Redazione BitMAT10 Ottobre 20233 Mins Read
    Facebook LinkedIn Twitter WhatsApp Telegram Reddit Email

    Il Decalogo è disponibile sul sito www.gpdp.it

    checklist-lista-Garante Privacy
    Foto di Gerd Altmann da Pixabay

    Il Garante Privacy vara un decalogo per la realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale (IA). Trasparenza dei processi decisionali, decisioni automatizzate supervisionate dall’uomo, non discriminazione algoritmica: questi i tre principi cardine enucleati dall’Autorità sulla base del Regolamento e alla luce della giurisprudenza del Consiglio di Stato.

    In base alle indicazioni dell’Autorità, il paziente deve avere il diritto di conoscere, anche attraverso campagne di comunicazione, se esistono e quali sono i processi decisionali (ad esempio, in ambito clinico o di politica sanitaria) basati su trattamenti automatizzati effettuati attraverso strumenti di IA e di ricevere informazioni chiare sulla logica utilizzata per arrivare a quelle decisioni.

    Il processo decisionale dovrà prevedere una supervisione umana che consenta al personale sanitario di controllare, validare o smentire l’elaborazione effettuata dagli strumenti di IA. È opportuno, avverte il Garante, che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano gli errori dovuti a cause tecnologiche o umane e ne verifichi periodicamente l’efficacia, mettendo in atto misure tecniche e organizzative adeguate. Questo, anche allo scopo di mitigare potenziali effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona. Un esempio è il caso americano, richiamato dal Garante nel decalogo, riguardante un sistema di IA utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani. Gli algoritmi tendevano ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, a causa della metrica utilizzata, basata sulla spesa sanitaria media individuale che risultava meno elevata per la popolazione afroamericana, con la conseguenza di negare a quest’ultima l’accesso a cure adeguate.

    Il dato non aggiornato o inesatto, sottolinea il Garante Privacy, potrebbe influenzare anche l’efficacia e la correttezza dei servizi che i sistemi di IA intendono realizzare.

    Particolare attenzione è stata posta dal Garante Privacy all’idoneità della base giuridica per l’uso dell’intelligenza artificiale. Il trattamento di dati sulla salute attraverso tecniche di IA, effettuato per motivi di interesse pubblico in ambito sanitario, dovrà essere previsto da uno specifico quadro normativo, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati.

    Nel rispetto del quadro normativo di settore, il Garante Privacy ha inoltre sottolineato la necessità che, prima di effettuare trattamenti di dati sulla salute mediante sistemi nazionali di IA, sia svolta una valutazione d’impatto allo scopo di individuare le misure idonee a tutelare i diritti e le libertà dei pazienti e garantire il rispetto dei principi del Regolamento Ue. Un sistema centralizzato nazionale che utilizzi l’IA determina infatti un trattamento sistematico su larga scala di dati sanitari che rientra tra quelli ad “alto rischio”, per i quali la valutazione d’impatto è obbligatoria e deve essere svolta a livello centrale per consentire un esame complessivo sull’adeguatezza e omogeneità degli accorgimenti adottati.

    Nella descrizione dei trattamenti è altresì necessario che siano puntualmente indicate, in particolare, le logiche algoritmiche utilizzate al fine di “generare” i dati e i servizi, le metriche impiegate per addestrare il modello, i controlli svolti per verificare la presenza di eventuali bias e la possibilità di una loro correzione.

    Il Decalogo è disponibile sul sito www.gpdp.it

     

    FONTE: Garante Privacy

    Decalogo Garante privacy intelligenza artificiale (AI) sanità
    Share. Facebook LinkedIn Twitter WhatsApp Telegram Reddit Email

    Correlati

    Startup innovative premiate a Next Startup Academy

    19 Dicembre 2025

    Payback dispositivi medici, Conflavoro PMI Sanità: condividiamo l’analisi della premier Meloni, ma ora servono atti concreti per le PMI

    19 Dicembre 2025

    Novartis sceglie Agentforce Life Sciences di Salesforce per potenziare la personalizzazione del servizio clienti a livello globale

    19 Dicembre 2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    BitMATv – I video di BitMAT
    RS Italia, sostenibilità come leva strategica per la filiera
    Dal Forum Fiscale di Wolters Kluwer Italia le voci e le idee che stanno cambiando la professione
    Commend, la comunicazione diventa intelligente
    Aikom Technology presenta la sicurezza del futuro a SICUREZZA 2025
    Non c’è produzione senza pianificazione
    Più Letti

    Startup innovative premiate a Next Startup Academy

    19 Dicembre 2025

    Payback dispositivi medici, Conflavoro PMI Sanità: condividiamo l’analisi della premier Meloni, ma ora servono atti concreti per le PMI

    19 Dicembre 2025

    Novartis sceglie Agentforce Life Sciences di Salesforce per potenziare la personalizzazione del servizio clienti a livello globale

    19 Dicembre 2025

    Life Sciences: 5 modi in cui l’AI trasformerà il settore nel 2026

    16 Dicembre 2025
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    NAVIGAZIONE
    • Cura
    • Tendenze
    • Riabilitazione
    • No Limits
    • Incontri
    Ultime

    Startup innovative premiate a Next Startup Academy

    19 Dicembre 2025

    Payback dispositivi medici, Conflavoro PMI Sanità: condividiamo l’analisi della premier Meloni, ma ora servono atti concreti per le PMI

    19 Dicembre 2025

    Novartis sceglie Agentforce Life Sciences di Salesforce per potenziare la personalizzazione del servizio clienti a livello globale

    19 Dicembre 2025
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati Iscrizione al tribunale di Milano n° 295 del 28-11-2018 Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.