AI Pact: un’iniziativa in continua evoluzione

4 Ottobre 2024

L’AI Pact, l’iniziativa promossa dall’Ufficio per l’IA[1] per incoraggiare e sostenere le imprese a lavorare proattivamente per anticipare l’applicazione di alcune delle disposizioni chiave dell’AI Act (i.e. il Regolamento (UE) 1689/2024 – per maggiori approfondimenti sull’AI Act, si rimanda a un nostro precedente contributo, disponibile qui), sta ottenendo risultati significativi. Il testo degli impegni, inizialmente redatto a maggio 2024 dall’Ufficio per l’IA, è stato condiviso a settembre con i partecipanti all’iniziativa per raccogliere feedback e suggerimenti. 

In questo contesto, a meno di due mesi dall’entrata in vigore dell’AI Act, la Commissione europea ha annunciato che oltre cento realtà industriali hanno già aderito all’AI Pact. Tra i firmatari figurano diverse multinazionali, anche di spicco (Amazon, Booking.com, Google, Microsoft e Samsung, ecc.) oltre a numerose PMI europee operanti in diversi settori, tra cui information technology, telecomunicazioni, sanità, banche, automotive e aeronautica.

Ma cos’è e cosa prevede l’AI Pact?

L’AI Pact si basa su due pilastri (“Pillar”):

  1. Pillar I: raccolta e scambio di informazioni con i firmatari dell’AI Pact

In tale ambito, i partecipanti contribuiscono alla creazione di una comunità collaborativa, condividendo le loro esperienze, conoscenze e best practices. Ciò comprende, ad esempio, seminari organizzati dall’Ufficio per l’IA volti a fornire ai partecipanti una migliore comprensione dell’AI Act e delle loro responsabilità.

2. Pillar II: facilitare e comunicare gli impegni delle imprese

L’obiettivo di questo Pillar è fornire un quadro strutturato per favorire l’implementazione tempestiva di alcune delle misure previste dall’AI Act, incoraggiando le organizzazioni a condividere i processi e le pratiche adottate per anticipare la conformità alla normativa. In questo ambito rientra, ad esempio, la predisposizione di appositi modelli operativi.

L’AI Pact contiene diversi impegni volontari per le organizzazioni che decidono di allinearsi alle disposizioni dell’AI Act prima che le stesse diventino formalmente obbligatorie. Tali impegni, presentati sotto forma di “dichiarazioni di impegno”, non sono giuridicamente vincolanti e non impongono alcun obbligo giuridico ai partecipanti. Essi delineano azioni concrete finalizzate a soddisfare i requisiti dell’AI Act, con l’obiettivo di mitigare il prima possibile i rischi che l’IA può comportare per la salute, la sicurezza e i diritti fondamentali. 

  1. Nello specifico, partecipando a questa iniziativa, le organizzazioni dichiarano di voler rispettare tre impegnifondamentali” (mantenendo comunque la facoltà di adottare anche ulteriori impegni previsti dall’AI Pact) che si focalizzano principalmente sugli obblighi di trasparenza e sui requisiti per i sistemi di IA ad alto rischio[2]:adottare una strategia di governance per l’IA, con l’obiettivo di promuovere l’adozione dell’IA nell’organizzazione e lavorare per la futura conformità all’AI Act;
  2. mappare i sistemi di IA sviluppati o utilizzati in settori considerati ad alto rischio ai sensi dell’AI Act (quali, ad esempio, quello della biometria, delle infrastrutture critiche, dell’occupazione, ecc...);
  3. promuovere la consapevolezza e l’alfabetizzazione in materia di IA tra il personale, ossia le competenze, le conoscenze e la comprensione che consentono ai fornitori, ai deployer e alle persone interessate di procedere a una diffusione informata dei sistemi di IA e di acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che la stessa può causare[3].

Gli impegni non fondamentali

Come anticipato, i firmatari possono inoltre assumere l’impegno di adoperarsi al meglio per rispettare o contribuire al raggiungimento di specifici obiettivi. L’AI Pact distingue tali impegni in base al ruolo dell’organizzazione, differenziando tra fornitori e deployer di sistemi di IA.

Nello specifico, i fornitori di sistemi di IA, laddove rilevante e ove possibile, potranno:

  • implementare processi per identificare, durante l’intero ciclo di vita del sistema di IA, i potenziali rischi per la salute, la sicurezza e i diritti fondamentali derivanti dall’uso dei sistemi di IA;
  • sviluppare specifiche policy per garantire dataset di alta qualità per l’addestramento, la validazione e i test dei sistemi di IA;
  • implementare meccanismi di registrazione (logging) per garantire la tracciabilità del sistema in modo appropriato rispetto al suoscopo previsto dal sistema;
  • informare i deployers su come utilizzare correttamente i sistemi di IA, sulle loro capacità, limitazioni e potenziali rischi;
  • implementare misure concrete per garantire la supervisione umana;
  • adottare apposite policy con l’obiettivo di mitigare i rischi associati all’uso di sistemi di IA;
  • progettare i sistemi di IA destinati a interagire direttamente con gli individui in modo che essi siano informati che stanno interagendo con un sistema di IA;
  • progettare sistemi di IA generativa affinché i contenuti generati dall’IA siano contrassegnati come generati o manipolati artificialmente;
  • fornire strumenti ai deployers per etichettare chiaramente e in modo distinguibile i contenuti generati dall’IA, inclusi deepfake[4] e testi pubblicati per informare il pubblico su questioni di interesse pubblico.

Quanto invece ai deployers, laddove rilevante e ove possibile, potranno:

  • mappare i possibili rischi per i diritti fondamentali delle persone che potrebbero essere influenzate dall’uso dei sistemi di IA;
  • implementare misure concrete per garantire la supervisione umana;
  • etichettare chiaramente e in modo distinguibile i contenuti generati dall’IA, inclusi deepfake e testi pubblicati per informare il pubblico su questioni di interesse pubblico;
  • informare gli utenti che stanno interagendo con un sistema di IA;
  • fornire spiegazioni chiare agli utenti quando una decisione che li riguarda è stata preparata, raccomandata o presa da sistemi di IA con un impatto negativo sulla loro salute, sicurezza o diritti fondamentali;
  • nel caso di utilizzo di un sistema di IA sul luogo di lavoro, informare i rappresentanti dei lavoratori e i lavoratori coinvolti.

[1] L’Ufficio per l’IA è la funzione della Commissione volta a contribuire all’attuazione, al monitoraggio e alla supervisione dei sistemi di IA, dei modelli di IA per finalità generali (general purpose AI models – “GPAI”) e della governance dell’IA.

[2] Risultano invece essere esclusi i requisiti previsti per i modelli GPAI in quanto gli stessi verranno definiti in appositi codici di buone pratiche, come previsto dall’art. 50, par. 7, dell’AI Act.

[3] La definizione di “alfabetizzazione in materia di IA” è contenuta nell’art. 3, n. 56, dell’AI Act.

[4] In linea con l’AI Act (Art. 3, n. 60, dell’AI Act), i deepfake generati dall’IA sono intesi come contenuti di immagini, audio o video generati o manipolati artificialmente dall’IA che somigliano a persone, oggetti, luoghi, entità o eventi esistenti e che potrebbero sembrare falsamente autentici o veritieri a una persona.

2024 - Morri Rossetti

I contenuti pubblicati nel presente sito sono protetti da diritto di autore, in base alle disposizioni nazionali e delle convenzioni internazionali, e sono di titolarità esclusiva di Morri Rossetti e Associati.
È vietato utilizzare qualsiasi tipo di tecnica di web scraping, estrazione di dati o qualsiasi altro mezzo automatizzato per raccogliere informazioni da questo sito senza il nostro esplicito consenso scritto.
Ogni comunicazione e diffusione al pubblico e ogni riproduzione parziale o integrale, se non effettuata a scopo meramente personale, dei contenuti presenti nel sito richiede la preventiva autorizzazione di Morri Rossetti e Associati.

cross