AI Act: approvato il regolamento europeo sull’intelligenza artificiale

Al giorno d’oggi, l’intelligenza artificiale è considerata come la rivoluzione integrale della società più significativa del XXI secolo. Recentemente, è stato raggiunto un importante accordo provvisorio sull’AI Act – la prima legge al mondo in merito alla regolamentazione dell’Intelligenza artificiale – a tutela della protezione dei diritti fondamentali e dell’innovazione.

L’AI Act potrebbe divenire realtà nel corso del prossimo anno.

 

Dall’intelligenza artificiale all’AI Act

L’intelligenza artificiale si è estesa in quasi tutti i settori della società, estendendosi in molti aspetti della nostra routine. L’Ai ha trasformato le nostre abitudini e i servizi di cui usufruiamo, tra cui sanità, ambiente, istruzione e intrattenimento.

La sua adozione ha generato notevoli benefici, ma, allo stesso tempo, è importante saper fronteggiare i pericoli correlati. Pertanto, l’Unione Europea ha recentemente emanato un’innovativa regolamentazione specifica.

 

AI ACT: che cos’è

L’AI Act è un regolamento dell’Unione Europea che stabilisce le norme per l’utilizzo dell’Intelligenza Artificiale. Questo Regolamento è stato varato per garantire un utilizzo sicuro ed etico della normativa vigente e dei Diritti Fondamentali. Era già stato precedentemente proposto dalla Commissione Europea nel 2021, al fine di introdurre un quadro normativo e giuridico per l’intelligenza artificiale.

La necessità di stabilire un regolamento nasce dalla crescente preoccupazione dell’incorporazione delle tecnologie AI nei prodotti e nei servizi usati quotidianamente. In particolare, i sistemi di intelligenza artificiale possono compromettere i diritti fondamentali, tra cui la libertà d’espressione, la non discriminazione e, infine, la protezione dei dati personali e la privacy. È importante che gli individui possano beneficiare delle tecnologie sviluppate ma che, al contempo, rispettino dei valori precisi.

 

AI ACT: che cosa prevede

Le nuove regole stabiliscono alcuni obblighi che fornitori e utenti sono invitati a seguire. I presupposti su cui su cui si basa questo regolamento sono:

  • Approccio basato sul rischio: i sistemi di intelligenza artificiale sono valutati secondo il rischio che rappresentano per gli utenti. I vari livelli di rischio determinano il grado di regolamentazione a cui devono attenersi;

 

  • Armonizzazione delle regole: la presenza di regole precise permette di stabilire un quadro normativo comune. In questo modo, le organizzazioni che implementano sistemi di AI avranno l’obbligo di rispettare lo stesso insieme di regole, indipendentemente dal paese membro in cui si è operativi.

A questo proposito l’UE, in base al rischio potenziale, ha stabilito le varie tipologie di AI. Di conseguenza, le aziende dovranno valutare le AI sviluppate e identificarsi in una delle seguenti categorie:

  • Rischio inaccettabile: sistemi di AI che comportano una minaccia per le persone, perciò il loro sviluppo la commercializzazione saranno vietati;

 

  • Alto rischio: sistemi di AI che agiscono, in maniera negativa, sulla sicurezza o diritti fondamentali e, conseguentemente, le aziende dovranno testarli prima di renderli disponibili al pubblico;

 

  • Rischio limitato: sistemi di AI che devono sottostare a requisiti minimi di trasparenza, in modo da consentire agli utenti di prendere decisioni informate;

 

  • Rischio basso: sistemi di Ai che hanno un rischio minimo e, quindi, possono essere commercializzati nell’UE, senza dover rispettare alcun obbligo legale ulteriore.

Condividi