Ai Act, la legge europea sull’intelligenza artificiale

A seguito dell’accordo politico tra il Consiglio e il Parlamento europeo, è stata elaborata la versione finale dell’AI Act, il Regolamento europeo relativo all’IA. Questa legge, la prima del suo genere a livello mondiale, affronta in maniera specifica lo sviluppo della tecnologia dell’intelligenza artificiale.

Avevamo parlato dell’AI Act in questo articolo: AI Act: approvato il regolamento europeo sull’intelligenza artificiale

 

Struttura

A distanza di un mese dall’accordo politico, è disponibile il testo definitivo dell’AI Act.

La versione finale è basata su una struttura di rischi suddivisi nelle seguenti categorie: inaccettabili, alti, limitati e minimi. L’approccio utilizzato è legato al rischio: maggiore è il rischio, maggiori sono le responsabilità e le restrizioni per chi utilizza sistemi di intelligenza artificiale, con la possibilità di vietare l’utilizzo di applicazioni considerate troppo pericolose.

 

Divieti

Nel corpo del testo sono specificate le pratiche vietate. Tra queste, rientrano l’impiego di tecnologie subliminali per influenzare comportamenti (come il dark pattern), lo sfruttamento di individui vulnerabili, la categorizzazione biometrica basata su dati sensibili, l’estrazione di volti da internet (scraping), l’adozione di sistemi di valutazione sociale e il riconoscimento delle emozioni in ambienti lavorativi. In particolare, quest’ultimo si riferisce alluso di tecnologie intelligenti per identificare, interpretare e rispondere alle emozioni dei dipendenti all’interno di un contesto professionale, attraverso l’utilizzo di algoritmi e modelli di machine learning.

Inoltre, l’impiego di sistemi di riconoscimento facciale e biometrico in tempo reale è negato (salvo specifiche situazioni). Infatti, quest’ultimo può portare a risultati basati su pregiudizi e, conseguentemente, provocare effetti discriminatori.

Tuttavia, sono previste alcune eccezioni:

  • sono ammessi sistemi di analisi del rischio che non eseguono profilazione di individui;
  • il divieto di categorizzazione biometrica non impedisce l’applicazione di etichettature o filtri a dataset biometrici legalmente acquisiti, quando utilizzati a fini di polizia.

 

Alto rischio legato all’intelligenza artificiale

Tra i sistemi considerati ad alto rischio sono inclusi i sistemi di identificazione e categorizzazione biometrica o di riconoscimento delle emozioni. L’utilizzo del riconoscimento delle emozioni nell’ambito dell’IA potrebbe portare idealmente a diversi benefici in ambito lavorativo, tra cui: miglioramento della comunicazione, gestione del benessere, personalizzazione dell’esperienza lavorativa e sensibilizzazione e prevenzione del burnout. Questo tipo di attività ha però un impatto altissimo circa il trattamento dei dati e la riservatezza della persona.

Oltre a ciò, sono considerati sistemi ad alto rischio i software per la sicurezza delle infrastrutture critiche e le applicazioni educative o di formazione utilizzare per valutare risultati di studio.

Inoltre, in questa categoria rientrano gli algoritmi impiegati nei contesti lavorativi della pubblica amministrazione o da enti privati. Tra gli algoritmi, rientrano quelli legati alla valutazione dei CV, alla distribuzione dei compiti e alla determinazione del grado di rischio durante la sottoscrizione di un’assicurazione.

In generale, per coloro che sviluppano sistemi di AI, si raccomanda di implementare sistemi di controllo che comprendano la gestione trasparente dei dati, l’indicazione chiara dell’origine delle informazioni e la registrazione automatica di log. In questo modo, è possibile rilevare potenziali situazioni di rischio.

Gli sviluppatori di sistemi ad alto rischio devono comunicare il livello di accuratezza dell’AI, rispettando metriche stabilite dalla Commissione. L’intero processo deve comunque essere soggetto al controllo umano che può intervenire in caso di pericolo imminente.

 

Uso generale dei sistemi AI

Un altro punto saliente riguarda i sistemi di AI per uso generale. Essi sono capaci di eseguire varie attività e sono addestrati su grandi quantità di dati non categorizzati, tra cui GPT—4 utilizzato nel chatbot ChatGPT o LaMDA dietro Google Bard. Gli sviluppatori devono garantire che i contenuti siano contrassegnati in un formato leggibile dalle macchine e siano identificabili come generati da un’intelligenza artificiale.

Le intelligenze artificiali ad alto impatto sono tenute a implementare – prima di essere introdotte sul mercato – regole riguardanti la sicurezza informatica, la trasparenza nei processi di addestramento e la condivisione della documentazione tecnica.

Condividi