Sanità e intelligenza artificiale: il Garante pubblica il nuovo decalogo

Il Garante Privacy ha recentemente varato un decalogo che fornisce linee guida per l’attivazione di servizi sanitari a livello nazionale basati sui sistemi di intelligenza artificiale (IA). Queste direttive costituiscono una grande innovazione verso l’adozione responsabile di tecnologie avanzate nel settore sanitario.

Il documento è stato creato in stretta conformità con il GDPR – Regolamento Generale sulla Protezione dei Dati- garantendo il rispetto dei diritti fondamentali degli interessati.

 

Principi

I tre punti salienti individuati dall’Autorità sulla base del GDPR e, alla luce della giurisprudenza del Consiglio di Stato, sono:

  • Trasparenza dei processi decisionali;
  • Decisioni automatizzate supervisionate dall’uomo;
  • Non discriminazione algoritmica.

 

Trasparenza dei processi decisionali

Uno dei principi fondamentali di questa guida riguarda la trasparenza dei processi decisionali basati sull’IA.

I pazienti dovrebbero essere sempre informati della presenza e dell’impiego di processi decisionali automatizzati, in quanto essi potrebbero avere un impatto notevole rispetto alle loro condizioni di salute.

Il paziente ha il diritto di individuare – anche attraverso campagne di comunicazione – quali siano i processi decisionali basati sui trattamenti effettuati tramite strumenti di intelligenza artificiale.

Secondo l’opinione del Garante, i pazienti devono ottenere informazioni precise circa la logica utilizzata per arrivare a tali decisioni: questa chiarezza diventa fondamentale, in particolare in contesti clinici e politiche sanitarie in cui i sistemi di IA potrebbero influenzare nettamente le scelte in ambito sanitario.

 

Decisioni automatizzate supervisionate dall’uomo

Un altro aspetto importante è la presenza necessaria di una supervisione umana durante i processi decisionali basati sull’IA.

Il processo decisionale dovrà prevedere una supervisione umana che permetta al personale sanitario di controllare e validare l’elaborazione effettuata dagli strumenti di IA. È necessario che il titolare del trattamento utilizzi sistemi di intelligenza artificiale affidabili che riducano gli errori dovuti a cause tecnologiche e umane.

Inoltre, è essenziale che il Titolare ne verifichi periodicamente l’efficacia, attraverso misure tecniche e organizzative adeguate. Il processo di verifica regolare è fondamentale per prevenire eventuali discriminazioni derivanti da informazioni inesatte o incomplete, le quali potrebbero recar danno alla salute delle persone.

 

Non discriminazione algoritmica

La discriminazione algoritmica è collegata all’analisi dei sistemi algoritmici automatizzati e sulla loro valutazione, in particolare nei casi in cui possano crearsi effetti discriminatori.

Secondo l’opinione del Garante, è fondamentale condividere sempre informazioni precise e coincise per evitare discriminazioni a causa di fattori errati o inadeguati.

 

Considerazioni

Il Garante per la protezione dei dati ha rimarcato l’importanza di effettuare la valutazione d’impatto prima dell’implementazione di sistemi di IA nei servizi sanitari nazionali. Un’efficiente valutazione d’impatto permette di applicare misure idonee a proteggere i diritti e le libertà dei pazienti, nel rispetto dei principi del GDPR.

Inoltre, è necessario disporre di una base giuridica adeguata all’impiego degli strumenti di IA nei trattamenti sanitari.

In aggiunta, è essenziale fornire informazioni chiare circa il funzionamento degli algoritmi per identificare e correggere eventuali bias.

Le misure sopra citate sono fondamentali al fine di consentire un uso etico e sicuro dell’IA nei servizi sanitari nazionali e di proteggere i diritti e le libertà delle persone coinvolte.

Condividi