L'intelligenza artificiale è una grande scommessa per il settore della salute, ma presenta anche dei potenziali rischi, che vanno dalla raccolta di dati non etici alle minacce alla sicurezza informatica fino l'amplificazione di pregiudizi o disinformazione. È questo il punto di partenza con il quale nasce una nuova pubblicazione dell'Oms, Organizzazione mondiale della Sanità, che elenca le principali considerazioni normative sull'intelligenza artificiale per la salute. La pubblicazione mira a delineare i principi chiave che i Governi possono seguire per sviluppare nuove linee guida o adattare quelle esistenti. L'Oms sottolinea che con la crescente disponibilità di dati sanitari e il rapido progresso delle tecniche analitiche gli strumenti di intelligenza artificiale potrebbero trasformare il settore sanitario.
Riconosce il potenziale dell'IA nel migliorare i risultati sanitari rafforzando gli studi clinici, la diagnosi medica, il trattamento, l'assistenza centrata sulla persona e integrando le competenze degli operatori sanitari. Ad esempio, l'intelligenza artificiale potrebbe essere utile in contesti in cui mancano specialisti, come nell'interpretazione di scansioni retiniche e di immagini radiologiche. Tuttavia, il documento sottolinea che le tecnologie di IA vengono rapidamente implementate a volte senza una piena comprensione del loro funzionamento, il che potrebbe avvantaggiare o danneggiare gli utenti finali.
Inoltre quando si utilizzano per dati sanitari potrebbero avere accesso a informazioni personali sensibili, necessitando di solidi quadri giuridici e normativi per salvaguardare la privacy e la sicurezza. "Questa nuova guida-sottolinea Tedros Adhanom Ghebreyesus, direttore generale dell'Oms- aiuterà i Paesi a regolamentare l'IA in modo efficace, per sfruttarne il potenziale, riducendo al minimo i rischi". La pubblicazione delinea sei aree per la regolamentazione dell'IA per la salute: dalla documentazione e trasparenza, ad esempio documentando l'intero ciclo di vita del prodotto e monitorando i processi di sviluppo, alla gestione del rischio, in base alla quale interventi umani, modelli di formazione e minacce alla sicurezza informatica devono essere tutte affrontate in modo completo, con modelli resi semplici il più possibile.