Ripensare il calendario normativo dell’intelligenza artificiale
La decisione della Commissione europea di proporre un rinvio fino a sedici mesi dell’entrata in vigore delle prescrizioni dell’AI Act dedicate ai sistemi di intelligenza artificiale considerati ad alto rischio apre una fase inedita nel percorso regolatorio europeo. Questa scelta, inserita in un più ampio programma di interventi volto a “semplificare” l’ecosistema digitale e che abbraccia anche la disciplina in materia di protezione dei dati, dei cookies e del Data Act, segna una sorta di torsione del progetto originario. Il baricentro, per anni orientato soprattutto alla costruzione di un apparato di garanzie solide a tutela di diritti, servizi essenziali e infrastrutture critiche, viene lentamente spostato verso un nuovo equilibrio. In questo nuovo assetto la competitività economica e la capacità delle imprese europee di sostenere la concorrenza globale assumono un ruolo più marcato.
La Commissione giustifica infatti il rinvio facendo leva su un argomento tecnico, cioè la necessità di attendere la pubblicazione di standard tecnici armonizzati. L’applicazione delle disposizioni diventerà effettiva soltanto quando tali elementi saranno concretamente disponibili, anche se entro un limite massimo che proietta la piena operatività del regolamento verso la fine del 2027, e in alcuni casi oltre, aggiungendo ulteriore flessibilità ai già lunghi periodi di transizione stabiliti nel testo approvato nel 2024.
Questo meccanismo, pur funzionale dal punto di vista organizzativo, modifica la linearità del rapporto fra legislatore e destinatari, spostando una parte significativa del potere effettivo dalla norma al modo in cui essa viene implementata dall’esecutivo europeo e dagli organismi di standardizzazione. La conseguenza è un aumento della discrezionalità nella definizione dei tempi di tutela, che merita attenzione alla luce del principio di prevedibilità e affidabilità delle regole.
Tutela dei diritti e competizione globale: un equilibrio instabile
L’architettura normativa dell’AI Act vieta gli impieghi considerati “a rischio inaccettabile” e impone requisiti rigorosi per le applicazioni capaci di incidere su dignità, non discriminazione, libertà personale e diritti sociali. Posticiparne l’efficacia significa convivere più a lungo con una zona grigia, nella quale soluzioni tecnologiche potenzialmente critiche rimangono operative senza sottostare ai nuovi obblighi di trasparenza, gestione del rischio e responsabilità post–commercializzazione.
La contemporanea estensione delle semplificazioni previste per le piccole e medie imprese solleva un ulteriore nodo: il diritto europeo rischia di assumere una forma “a geometria variabile”, nella quale il livello di tutela non dipende soltanto dalla categoria di rischio del sistema di intelligenza artificiale, ma anche dalla struttura economica di chi lo sviluppa.
La semplificazione, se eccessiva, potrebbe finire per cristallizzare dipendenze strutturali verso pochi operatori dominanti, riducendo nel lungo periodo la libertà di scelta che il Data Act mirava a potenziare. Questa dinamica alimenta un acceso dibattito pubblico: da una parte, associazioni e studiosi paventano un arretramento generale delle garanzie; dall’altra, imprese e alcuni governi invocano un freno all’accumulo normativo per scongiurare la stagnazione dell’innovazione. La sfida consiste nel valutare se le modifiche in corso stiano realmente aumentando l’efficienza o se rischino di ridurre il livello delle tutele che ha reso il modello europeo un riferimento globale.
Un aggiustamento fisiologico o una revisione costituzionale del digitale?
Il vero metro di misura di questo processo non è la quantità di norme ritoccate, bensì la loro coerenza complessiva. Se il rinvio delle disposizioni sull’intelligenza artificiale ad alto rischio, la riforma del consenso nell’ambito dei cookies, l’alleggerimento di alcuni obblighi del GDPR e le deroghe introdotte nel Data Act saranno accompagnati da un reale potenziamento delle capacità di enforcement, da standard tecnici chiari e da decisioni delle autorità più prevedibili, il Digital Omnibus si configurerà come un fisiologico aggiornamento di un impianto normativo ambizioso e complesso. In tal caso, la flessibilità temporale rappresenterebbe uno strumento utile per garantire che gli operatori possano effettivamente conformarsi alle regole senza sacrificare la protezione dei diritti.
Se invece tali interventi si tradurranno essenzialmente in proroghe, attenuazioni e affidamento all’autoregolazione del mercato, allora ci troveremmo davanti a una revisione sostanziale della costituzione digitale europea, che segnerebbe un passaggio dalla centralità dei diritti alla priorità della competitività economica. In questo scenario, non si può sottovalutare il ruolo del Parlamento europeo e del Consiglio. Saranno questi organi a stabilire se avallare l’impianto proposto dalla Commissione, rafforzandone eventualmente le garanzie, oppure se introdurre correttivi che ristabiliscano in modo chiaro la centralità dei diritti nella trasformazione tecnologica.
Nel frattempo, anche le imprese dovranno cogliere questa fase come un’occasione per consolidare processi, strumenti di auditing algoritmico e strategie di governance. In ultima analisi, in questa fase di transizione non conteranno i mesi risparmiati o i costi evitati, ma la capacità dell’ordinamento europeo di preservare l’idea che la rivoluzione digitale è un processo costituzionale che ridisegna rapporti di potere, confini della libertà e forme di responsabilità.