• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
Sanità DigitaleSanità Digitale
    Facebook X (Twitter) LinkedIn Instagram Vimeo RSS
    giovedì, 2 Aprile
    Trending
    • CALL4INNOVIT 2026: candidature aperte fino al 21 aprile
    • AI nello sviluppo dei farmaci: cosa cambia
    • Wearable Robotics chiude round Serie A da 5 milioni per l’espansione internazionale
    • SOTI: i sistemi legacy frenano la digitalizzazione e mettono a rischio la salute dei pazienti
    • Il CHC MontLégia riduce il rumore della terapia intensiva grazie a Ascom
    • Autismo e attenzione: i robot catturano lo sguardo dei bambini
    • InBuoneMani: nasce il Trustpilot dei terapisti
    • Wearable: 1 italiano su 3 li indossa ma come gadget per il benessere e il fitness
    Facebook X (Twitter) LinkedIn Instagram Vimeo RSS
    Sanità DigitaleSanità Digitale
    • Home
    • Cura
    • Tendenze
    • Tecnologia
    • Riabilitazione
    • No Limits
    • Incontri
    Sanità DigitaleSanità Digitale
    Sei qui:Home»In Evidenza»AI nello sviluppo dei farmaci: cosa cambia

    AI nello sviluppo dei farmaci: cosa cambia

    By Redazione BitMAT2 Aprile 20268 Mins Read
    Facebook LinkedIn Twitter WhatsApp Telegram Reddit Email

    Le autorità regolatorie hanno appena ridefinito le regole del gioco per l’uso dell’AI nello sviluppo dei farmaci: occorre renderla affidabile, tracciabile e supervisionabile nei workflow regolamentati

    robot-AI
    Foto di Christopher White da Pixabay

    Il messaggio chiave del 2026 non è che l’AI stia diventando più intelligente, ma che le aspettative stanno diventando più definite. Il 14 gennaio 2026, EMA e FDA hanno pubblicato principi guida congiunti sulle buone pratiche di utilizzo dell’AI nello sviluppo dei farmaci. Si tratta di un segnale di allineamento regolatorio su ciò che costituisce “buona pratica” quando l’intelligenza artificiale supporta la generazione di evidenze lungo l’intero ciclo di vita del prodotto, inclusi gli studi clinici e le attività di monitoraggio della sicurezza.

    Questi principi non rappresentano un nuovo insieme di regole. Sono un punto di riferimento su come l’intelligenza artificiale debba essere applicata all’interno dei processi regolamentati. Le linee guida sono tecnologicamente neutrali, ma specifiche dal punto di vista operativo: definire il contesto d’uso, applicare controlli basati sul rischio, governare dati e documentazione e gestire il sistema lungo tutto il suo ciclo di vita affinché la supervisione rimanga integra. Vanno interpretate come un passaggio da “possiamo usare l’AI?” a “possiamo far funzionare l’AI in modo affidabile, trasparente e responsabile?”

    Perché è importante: la conversazione sta passando dalla capacità al controllo

    Negli ultimi 18–24 mesi, molte aziende del settore Life Sciences hanno esplorato l’uso dell’AI in casi d’uso “ad alta densità testuale” e di tipo assistivo: sintetizzare documenti estesi, classificare contenuti, estrarre punti dati e redigere testi interni o esterni. Si tratta di un punto di partenza logico perché permette una sperimentazione rapida ed è semplice dimostrare il valore generato.

    Il passaggio più complesso è ciò che viene dopo. Nel momento in cui l’output dell’AI inizia a influenzare evidenze regolamentate, decisioni o azioni, “sembra funzionare” non è più uno standard accettabile. Lo standard sta evolvendo verso un modello ripetibile e soggetto a supervisione: utilizzo coerente nel proprio contesto, responsabilità chiaramente definita con un intervento umano nel ciclo (‘human in the loop’) e una tracciabilità che resista nel tempo alle verifiche ispettive. È proprio questo che i principi EMA–FDA rendono più evidente.

    Il contesto d’uso diventa l’elemento cardine

    La frase più rilevante nel quadro delineato dalle autorità regolatorie è “contesto d’uso”. L’AI non viene valutata in astratto. Viene valutata in relazione a ciò che è progettata per fare, a ciò che influenza e al rischio che introduce.

    Un assistente di redazione utilizzato per sintetizzare note interne rappresenta un certo livello di impiego. Un sistema di AI che utilizza lo stesso metodo di sintesi per prioritizzare la revisione dei casi di safety, identificare potenziali segnali oppure attivare passaggi operativi in uno studio clinico rappresenta tutt’altro livello. La medesima tecnica di base può passare da un impatto basso a un impatto elevato semplicemente in funzione della posizione che occupa nel processo e del modo in cui il suo output viene utilizzato.

    Questa differenza è rilevante perché modifica ciò che, nella pratica, viene richiesto come “buona prassi”. Quando il contesto d’uso comporta un rischio più elevato, anche le aspettative regolatorie e operative si innalzano: controlli più chiari, documentazione più robusta, supervisione umana esplicita e una gestione delle modifiche più rigorosa. La conseguenza pratica è che i programmi di AI avranno sempre più bisogno di un inventario dei casi d’uso mappato in base al rischio, con confini operativi ben definiti e una comprensione condivisa delle responsabilità.

    L’elemento su cui si fonda la fiducia non è il modello in sé, ma il workflow in cui opera e il record che genera

    I principi guida sono tecnologicamente neutrali, ma non sono neutrali rispetto alla loro esecuzione. Nella pratica, questo amplia l’attenzione oltre il modello in sé, includendo i controlli e la documentazione che lo circondano: la provenienza dei dati, il versioning, le modalità con cui gli output vengono revisionati e utilizzati e ciò che è cambiato nel tempo.

    È qui che una scelta strategica di design diventa critica: decidere se l’AI debba rimanere al di fuori del workflow regolamentato come strumento separato, oppure se debba essere integrata all’interno dei sistemi in cui il lavoro regolamentato viene effettivamente svolto.

    Quando l’AI è integrata in un workflow regolamentato, può ereditare automaticamente ciò che tali ambienti richiedono: autorizzazioni basate sui ruoli, passaggi standardizzati, handoff controllati e audit trail progettati nativamente. Quando invece l’AI rimane al di fuori del workflow regolamentato, i team finiscono spesso per ricostruire il contesto e i controlli a posteriori: copiare informazioni tra strumenti diversi, riconciliare versioni e ricostruire la “storia del record” durante revisioni e ispezioni. Questo approccio può essere gestibile in un pilot, ma è estremamente fragile quando si scala.

    Questa direzione “embedded” è anche quella verso cui si sta orientando la strategia di prodotto del settore. Veeva, ad esempio, ha delineato un rollout graduale di AI agent che parte dalle applicazioni commercial e si estende a R&D e Quality nel corso del 2026. Ciò riflette un principio più ampio: integrare l’AI in profondità all’interno dei sistemi operativi di record è strutturalmente più allineato a dati governati, auditabilità e supervisione ripetibile rispetto a trattare l’AI come un livello esterno separato.

    La gestione del ciclo di vita smette di essere opzionale quando l’AI entra nei workflow regolamentati.

    La gestione del ciclo di vita può sembrare un concetto astratto finché non la si collega al modo in cui l’AI si comporta in produzione.

    I modelli fondazionali di nuova generazione vengono rilasciati. I prompt derivati dagli obiettivi e dalle istruzioni degli agenti evolvono. Le fonti di conoscenza e i dati transazionali cambiano. Ognuno di questi cambiamenti può modificare in modo sottile l’output dell’AI, in modi che risultano significativi in un contesto regolamentato. L’enfasi dei regolatori sulla valutazione delle prestazioni basata sul rischio e sulla gestione del ciclo di vita è, in pratica, un promemoria che “impostare e dimenticare” non è un’opzione nel momento in cui l’AI influenza attività regolamentate.

    Che cosa significa, in termini operativi, “gestione del ciclo di vita”?

    ● Version control rilevante ai fini ispettivi: non solo per codice e modelli, ma anche per prompt, istruzioni degli agenti, template e materiali di riferimento che influenzano gli output.

    ● Monitoraggio definito e trigger di drift: cosa monitorare, con quale frequenza e cosa costituisce un cambiamento significativo.

    ● Change control proporzionato al rischio: quando una modifica richiede documentazione, revisione, ri‑qualificazione o rollback.

    ● Responsabilità chiaramente definita quando l’output dell’AI viene accettato, corretto o sottoposto a escalation: affinché la responsabilità non si dissolva nel “lo ha detto l’algoritmo”.

    Si tratta di discipline dell’operating model. Non sono componenti opzionali da delegare a un team di data science. Vivono all’intersezione tra qualità, ownership dei processi di business e tecnologia, esattamente il punto in cui risiede già l’esecuzione regolamentata.

    La spinta regolatoria sta convergendo con le aspettative operative

    I principi EMA–FDA si inseriscono in un più ampio movimento regolatorio che rafforza lo stesso messaggio di fondo: una tecnologia affidabile richiede un’esecuzione affidabile.

    In Europa, la tempistica definita dalla Commissione Europea per l’AI Act rende sempre più concreti i requisiti di governance, con l’applicazione completa prevista per il 2 agosto 2026, accompagnata da milestone precedenti relative alle pratiche vietate e alla AI literacy (dal 2 febbraio 2025) e agli obblighi per l’AI di uso generale (dal 2 agosto 2025).

    Negli Stati Uniti, la guida FDA di ottobre 2024 sui sistemi elettronici, le registrazioni elettroniche e le firme elettroniche nelle sperimentazioni cliniche chiarisce cosa significhi che

    record e sistemi elettronici siano affidabili e robusti. Non è una guida sull’AI, ma diventa direttamente rilevante quando l’output dell’AI contribuisce alla generazione di evidenze. Se l’AI influenza evidenze e decisioni, l’integrità del record elettronico e del sistema che lo produce diventa più centrale, non meno.

    Nulla di tutto ciò suggerisce che le autorità vogliano rallentare l’innovazione. I principi congiunti sono formulati esplicitamente per abilitare un uso responsabile. L’asticella operativa si sta alzando in un modo che premia le organizzazioni capaci di rendere la supervisione pratica, ripetibile e scalabile.

    Cosa dovrebbero fare ora i leader

    La risposta pratica non è rallentare l’adozione dell’AI. È renderla operativa, così che ogni nuovo caso d’uso non faccia ripartire da zero un nuovo dibattito sulla governance.

    Per la maggior parte delle organizzazioni, l’opportunità nel breve termine consiste nell’utilizzare i principi EMA–FDA come requisito di design per l’ambiente operativo dell’AI, anche mentre le funzionalità dei prodotti a supporto di ambiti clinical, regulatory e safety continuano a maturare sul mercato. Ciò significa svolgere il lavoro fondamentale necessario per passare da applicazioni AI isolate a una capability governata all’interno di un ambiente di esecuzione regolamentato. Questo comporta definire i contesti d’uso, mapparli in base al rischio, standardizzare cosa debba costituire l’“informazione essenziale” per la supervisione e applicare controlli di lifecycle a ciò che cambia e a quando cambia.

    Questo è anche il momento per chiedere maggiore specificità ai vendor. Non “fa AI?”, ma: dove si colloca l’AI nel workflow, quale record produce, cosa viene versionato, cosa è auditabile, cosa è monitorato e cosa cambia sotto change control? Maggiore è l’integrazione dell’AI nei sistemi che già gestiscono ruoli, autorizzazioni, workflow e audit trail, più semplice diventa scalare in modo responsabile nel tempo, senza dover ricostruire evidenze e supervisione da zero.

    Operationalizzare l’AI per ambienti GxP

    I principi EMA–FDA stanno cambiando il modo in cui il settore affronta l’AI: non come componente aggiuntiva separata, ma come parte della base regolamentata per la generazione e il monitoraggio delle evidenze. Le organizzazioni di successo non saranno quelle che conducono il maggior numero di pilot. Le biopharma che integreranno l’AI in workflow controllati, dove le decisioni sono revisionabili e tracciabili e i cambiamenti possono essere gestiti con supervisione, saranno quelle in grado di trasformare l’investimento in AI in un reale vantaggio operativo.

    A cura di Crystal Allard, Senior Director, Government Strategy e Pratyusha Pallavi, Executive Director, Regulatory AI Strategy, Veeva Systems

    Veeva Systems
    Share. Facebook LinkedIn Twitter WhatsApp Telegram Reddit Email

    Correlati

    CALL4INNOVIT 2026: candidature aperte fino al 21 aprile

    2 Aprile 2026

    SOTI: i sistemi legacy frenano la digitalizzazione e mettono a rischio la salute dei pazienti

    2 Aprile 2026

    Il CHC MontLégia riduce il rumore della terapia intensiva grazie a Ascom

    31 Marzo 2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    BitMATv – I video di BitMAT
    Nuova Transizione 5.0: cosa cambia?
    Il futuro del lavoro passa dai Personal Systems: l’innovazione HP tra AI e sicurezza
    AI in locale: la workstation secondo Syspack tra potenza e flessibilità
    Tra promesse e realtà: vita (vera) da System Integrator
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    Più Letti

    CALL4INNOVIT 2026: candidature aperte fino al 21 aprile

    2 Aprile 2026

    AI nello sviluppo dei farmaci: cosa cambia

    2 Aprile 2026

    Wearable Robotics chiude round Serie A da 5 milioni per l’espansione internazionale

    2 Aprile 2026

    SOTI: i sistemi legacy frenano la digitalizzazione e mettono a rischio la salute dei pazienti

    2 Aprile 2026
    Chi Siamo
    Chi Siamo

    Sanità Digitale è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    NAVIGAZIONE
    • Cura
    • Tendenze
    • Riabilitazione
    • No Limits
    • Incontri
    Ultime

    CALL4INNOVIT 2026: candidature aperte fino al 21 aprile

    2 Aprile 2026

    AI nello sviluppo dei farmaci: cosa cambia

    2 Aprile 2026

    Wearable Robotics chiude round Serie A da 5 milioni per l’espansione internazionale

    2 Aprile 2026
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati Iscrizione al tribunale di Milano n° 295 del 28-11-2018 Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.