AI Act: il Consiglio dell’Unione europea adotta il primo quadro normativo globale per l’IA

29 Maggio 2024

Il 21 maggio scorso, il Consiglio dell’Unione europea ha approvato il Regolamento sull’intelligenza artificiale (“AI Act”), il quale costituisce la prima normativa sull’intelligenza artificiale (“AI”) adottata ufficialmente a livello mondiale. Questo regolamento potrebbe, dunque, costituire uno standard globale per la regolamentazione dell’IA anche in altre giurisdizioni, analogamente a quanto avvenuto con il Regolamento (UE) 2016/679 (il “GDPR”) in materia di protezione dei dati personali.

Dopo essere stato firmato dai presidenti del Parlamento europeo e del Consiglio, l’AI Act verrà pubblicato nella Gazzetta ufficiale dell’Unione europea nei prossimi giorni ed entrerà in vigore venti giorni dopo la sua pubblicazione. In generale, il nuovo regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni con riguardo a specifiche disposizioni.

L’AI Act è un quadro normativo che mira a garantire che i sistemi di IA siano sicuri e affidabili e che rispettino la legge, i diritti e i valori fondamentali dell’Unione europea. Gli obiettivi dell’AI Act non si limitano però al miglioramento della governance e all’applicazione efficace della legislazione esistente in materia di diritti fondamentali e sicurezza: esso mira altresì a promuovere investimenti e innovazioni attraverso l’implementazione dei cosiddetti sandbox normativi per l’IA. Il nuovo quadro normativo include, infatti, disposizioni atte a sostenere le innovazioni nel settore dell’IA all’interno dell’Unione europea, quali, a mero titolo esemplificativo, il Piano coordinato sull’IA.

L’AI Act si applica solo alle aree soggette all’applicazione del diritto dell’Unione europea, prevedendo però anche alcune eccezioni, quali, ad esempio, quelle relative ai sistemi utilizzati esclusivamente per la difesa militare e per scopi di ricerca.

L’approccio basato sul rischio

Il nuovo quadro legislativo segue un approccio basato sul rischio. Ciò implica che quanto maggiore è il rischio associato a un sistema di IA, tanto più stringenti saranno i requisiti e gli obblighi da rispettare.

Nel dettaglio, l’AI Act classifica i rischi in quattro livelli (inaccettabile, elevato, limitato e minimo), stabilendo per ciascuno di essi regole specifiche. Ad esempio, i sistemi di IA a rischio limitato sono soggetti a obblighi di trasparenza molto leggeri (previsti dall’articolo 50 della legge sull’IA). Al contrario, i sistemi di IA ad alto rischio devono rispettare una serie di requisiti e obblighi per poter accedere al mercato dell’Unione europea. In particolare, l’AI Act richiede una maggiore trasparenza per quanto riguarda lo sviluppo e l’utilizzo di tali sistemi. Inoltre, prima di utilizzare un sistema di IA ad alto rischio, i deployer che sono enti pubblici, enti privati che forniscono servizi pubblici, o banche e compagnie di assicurazione, devono effettuare una valutazione d’impatto sui diritti fondamentali.

Per alcuni altri usi dell’IA – come la manipolazione cognitiva del comportamento, i sistemi di valutazione sociale o classificazione (ad esempio, la profilazione), il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative e il social scoring – i rischi sono invece ritenuti inaccettabili e quindi l’utilizzo di tale tipologia di sistemi è vietato.

Inoltre, l’AI Act disciplina anche l’uso dei modelli di IA ad uso generale (c.d. general-purpose AI – “GPAI”), che possono presentare o meno un rischio sistemico. A seconda del livello di rischio associato, tali modelli possono quindi essere soggetti a regole più severe, quali specifici disposizioni relative a obblighi di trasparenza e misure volte alla mitigazione del rischio.

Ma quando entrerà in vigore l’AI Act?

Ai sensi dell’articolo 113 dell’AI Act, il nuovo quadro normativo entrerà in vigore venti giorni dopo la sua pubblicazione nella Gazzetta ufficiale dell’Unione europea e si applicherà a partire da 24 mesi dalla data della sua entrata in vigore. Tuttavia:

  • le disposizioni generali di cui al Capo I (ossia quelle relative all’oggetto, all’ambito di applicazione, alle definizioni e all’alfabetizzazione in materia di IA) e le disposizioni relative alle pratiche di IA vietate di cui al Capo II, si applicheranno a partire da 6 mesi dalla data di entrata in vigore dell’AI Act;
  • le disposizioni relative a (i) le autorità di notifica e gli organismi notificati di cui alla Sezione 4 del Capo III (Sistemi di IA ad alto rischio), (ii) le regole per i nuovi modelli GPAI (di cui al Capo V), (iii) i nuovi enti governativi europei – i.e. il nuovo Ufficio europeo per l’IA, il comitato scientifico di esperti indipendenti, il Consiglio IA con i rappresentanti degli Stati membri e il forum consultivo – e quelli nazionali (di cui al Capo VIII), e (iv) le sanzioni (di cui al Capo XII) si applicheranno a partire da 12 mesi dalla data di entrata in vigore dell’AI Act, ad eccezione dell’articolo 101, relativo alle sanzioni per i fornitori dei modelli GPAI;
  • le disposizioni relative ai sistemi di IA ad alto rischio di cui all’Allegato 1 e a cui si fa riferimento nell’articolo 6, comma 1, dell’AI Act e gli obblighi ivi previsti, si applicheranno a partire da 36 mesi dalla data della sua entrata in vigore.

Inoltre, l’AI Act prevede, all’articolo 111, dei termini entro i quali i sistemi di IA già immessi sul mercato o messi in servizio devono conformarsi ai requisiti e agli obblighi ivi previsti. In particolare, fatta salva l’applicazione delle disposizioni di cui all’articolo 5 (Pratiche di IA vietate), a partire da 6 mesi dalla data di entrata in vigore dell’AI Act:

  • i sistemi di IA che costituiscono componenti di sistemi IT su larga scala istituiti dagli atti giuridici elencati nell’Allegato X e che sono stati immessi sul mercato o messi in servizio prima di 36 mesi dalla data di entrata in vigore dell’AI Act, devono essere resi conformi all’AI Act entro il 31 dicembre 2030;
  • l’AI Act si applica agli operatori di sistemi di IA ad alto rischio, diversi dai sistemi descritti nel precedente punto, che sono stati immessi sul mercato o messi in servizio prima di 24 mesi dalla data di entrata in vigore della legge stessa, solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche significative della loro progettazione. Nel caso di sistemi di IA ad alto rischio destinati ad essere utilizzati da parte delle autorità pubbliche, i fornitori e i deployer di tali sistemi dovranno adottare le misure necessarie per conformarsi ai requisiti e agli obblighi previsti dall’AI Act entro 6 anni dalla sua entrata in vigore.

Infine, l’articolo 111 prevede altresì che i fornitori di modelli GPAI immessi sul mercato prima di 12 mesi dalla data di entrata in vigore dell’AI Act adottino le misure necessarie per conformarsi agli obblighi della legge stessa entro 36 mesi dalla sua entrata in vigore.

2024 - Morri Rossetti

I contenuti pubblicati nel presente sito sono protetti da diritto di autore, in base alle disposizioni nazionali e delle convenzioni internazionali, e sono di titolarità esclusiva di Morri Rossetti e Associati.
È vietato utilizzare qualsiasi tipo di tecnica di web scraping, estrazione di dati o qualsiasi altro mezzo automatizzato per raccogliere informazioni da questo sito senza il nostro esplicito consenso scritto.
Ogni comunicazione e diffusione al pubblico e ogni riproduzione parziale o integrale, se non effettuata a scopo meramente personale, dei contenuti presenti nel sito richiede la preventiva autorizzazione di Morri Rossetti e Associati.

cross