• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
Sanità DigitaleSanità Digitale
    Facebook X (Twitter) LinkedIn Instagram Vimeo RSS
    mercoledì, 30 Luglio
    Trending
    • Cancro al polmone: nuove prospettive arrivano da intelligenza artificiale e immunoterapia
    • AQ, l’app healthcare basata sull’AI di Ant Group, raggiunge i 100 milioni di utenti
    • Boehringer Ingelheim sceglie Veeva per ottimizzare l’engagement
    • Intelligenza Artificiale e Psicologia: una relazione da regolamentare
    • Colesterolo alto: gli steroli vegetali possono risultare utili?
    • Cybersecurity nella sanità: una priorità europea, ma in Italia c’è già chi agisce
    • ASST Fatebenefratelli Sacco adotta il Sistema Surfacer Inside-Out
    • Le nuove frontiere dell’abbigliamento monouso
    Facebook X (Twitter) LinkedIn Instagram Vimeo RSS
    Sanità DigitaleSanità Digitale
    • Home
    • Cura
    • Tendenze
    • Riabilitazione
    • No Limits
    • Incontri
    Sanità DigitaleSanità Digitale
    Sei qui:Home»In Evidenza»Garante Privacy: disponibile il decalogo sull’uso dell’intelligenza artificiale
    Updated:13 Ottobre 2023

    Garante Privacy: disponibile il decalogo sull’uso dell’intelligenza artificiale

    By Redazione BitMAT10 Ottobre 20233 Mins Read
    Facebook LinkedIn Twitter WhatsApp Telegram Reddit Email

    Il Decalogo è disponibile sul sito www.gpdp.it

    checklist-lista-Garante Privacy
    Foto di Gerd Altmann da Pixabay

    Il Garante Privacy vara un decalogo per la realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale (IA). Trasparenza dei processi decisionali, decisioni automatizzate supervisionate dall’uomo, non discriminazione algoritmica: questi i tre principi cardine enucleati dall’Autorità sulla base del Regolamento e alla luce della giurisprudenza del Consiglio di Stato.

    In base alle indicazioni dell’Autorità, il paziente deve avere il diritto di conoscere, anche attraverso campagne di comunicazione, se esistono e quali sono i processi decisionali (ad esempio, in ambito clinico o di politica sanitaria) basati su trattamenti automatizzati effettuati attraverso strumenti di IA e di ricevere informazioni chiare sulla logica utilizzata per arrivare a quelle decisioni.

    Il processo decisionale dovrà prevedere una supervisione umana che consenta al personale sanitario di controllare, validare o smentire l’elaborazione effettuata dagli strumenti di IA. È opportuno, avverte il Garante, che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano gli errori dovuti a cause tecnologiche o umane e ne verifichi periodicamente l’efficacia, mettendo in atto misure tecniche e organizzative adeguate. Questo, anche allo scopo di mitigare potenziali effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona. Un esempio è il caso americano, richiamato dal Garante nel decalogo, riguardante un sistema di IA utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani. Gli algoritmi tendevano ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, a causa della metrica utilizzata, basata sulla spesa sanitaria media individuale che risultava meno elevata per la popolazione afroamericana, con la conseguenza di negare a quest’ultima l’accesso a cure adeguate.

    Il dato non aggiornato o inesatto, sottolinea il Garante Privacy, potrebbe influenzare anche l’efficacia e la correttezza dei servizi che i sistemi di IA intendono realizzare.

    Particolare attenzione è stata posta dal Garante Privacy all’idoneità della base giuridica per l’uso dell’intelligenza artificiale. Il trattamento di dati sulla salute attraverso tecniche di IA, effettuato per motivi di interesse pubblico in ambito sanitario, dovrà essere previsto da uno specifico quadro normativo, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati.

    Nel rispetto del quadro normativo di settore, il Garante Privacy ha inoltre sottolineato la necessità che, prima di effettuare trattamenti di dati sulla salute mediante sistemi nazionali di IA, sia svolta una valutazione d’impatto allo scopo di individuare le misure idonee a tutelare i diritti e le libertà dei pazienti e garantire il rispetto dei principi del Regolamento Ue. Un sistema centralizzato nazionale che utilizzi l’IA determina infatti un trattamento sistematico su larga scala di dati sanitari che rientra tra quelli ad “alto rischio”, per i quali la valutazione d’impatto è obbligatoria e deve essere svolta a livello centrale per consentire un esame complessivo sull’adeguatezza e omogeneità degli accorgimenti adottati.

    Nella descrizione dei trattamenti è altresì necessario che siano puntualmente indicate, in particolare, le logiche algoritmiche utilizzate al fine di “generare” i dati e i servizi, le metriche impiegate per addestrare il modello, i controlli svolti per verificare la presenza di eventuali bias e la possibilità di una loro correzione.

    Il Decalogo è disponibile sul sito www.gpdp.it

     

    FONTE: Garante Privacy

    Decalogo Garante privacy intelligenza artificiale (AI) sanità
    Share. Facebook LinkedIn Twitter WhatsApp Telegram Reddit Email

    Correlati

    Cancro al polmone: nuove prospettive arrivano da intelligenza artificiale e immunoterapia

    30 Luglio 2025

    AQ, l’app healthcare basata sull’AI di Ant Group, raggiunge i 100 milioni di utenti

    30 Luglio 2025

    Boehringer Ingelheim sceglie Veeva per ottimizzare l’engagement

    30 Luglio 2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    BitMATv – I video di BitMAT
    ExpertBook P5, il notebook con l’AI integrata
    La tua fabbrica è resiliente?
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Più Letti

    Cancro al polmone: nuove prospettive arrivano da intelligenza artificiale e immunoterapia

    30 Luglio 2025

    AQ, l’app healthcare basata sull’AI di Ant Group, raggiunge i 100 milioni di utenti

    30 Luglio 2025

    Boehringer Ingelheim sceglie Veeva per ottimizzare l’engagement

    30 Luglio 2025

    Intelligenza Artificiale e Psicologia: una relazione da regolamentare

    30 Luglio 2025
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    NAVIGAZIONE
    • Cura
    • Tendenze
    • Riabilitazione
    • No Limits
    • Incontri
    Ultime

    Cancro al polmone: nuove prospettive arrivano da intelligenza artificiale e immunoterapia

    30 Luglio 2025

    AQ, l’app healthcare basata sull’AI di Ant Group, raggiunge i 100 milioni di utenti

    30 Luglio 2025

    Boehringer Ingelheim sceglie Veeva per ottimizzare l’engagement

    30 Luglio 2025
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati Iscrizione al tribunale di Milano n° 295 del 28-11-2018 Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.