L’AI Pact, l’iniziativa promossa dall’Ufficio per l’IA[1] per incoraggiare e sostenere le imprese a lavorare proattivamente per anticipare l’applicazione di alcune delle disposizioni chiave dell’AI Act (i.e. il Regolamento (UE) 1689/2024 – per maggiori approfondimenti sull’AI Act, si rimanda a un nostro precedente contributo, disponibile qui), sta ottenendo risultati significativi. Il testo degli impegni, inizialmente redatto a maggio 2024 dall’Ufficio per l’IA, è stato condiviso a settembre con i partecipanti all’iniziativa per raccogliere feedback e suggerimenti. In questo contesto, a meno di due mesi dall’entrata in vigore dell’AI Act, la Commissione europea ha annunciato che oltre cento realtà industriali hanno già aderito all’AI Pact. Tra i firmatari figurano diverse multinazionali, anche di spicco (Amazon, Booking.com, Google, Microsoft e Samsung, ecc.) oltre a numerose PMI europee operanti in diversi settori, tra cui information technology, telecomunicazioni, sanità, banche, automotive e aeronautica. Ma cos’è e cosa prevede l’AI Pact? L’AI Pact si basa su due pilastri (“Pillar”): In tale ambito, i partecipanti contribuiscono alla creazione di una comunità collaborativa, condividendo le loro esperienze, conoscenze e best practices. Ciò comprende, ad esempio, seminari organizzati dall’Ufficio per l’IA volti a fornire ai partecipanti una migliore comprensione dell’AI Act e delle loro responsabilità. 2. Pillar II: facilitare e comunicare gli impegni delle imprese L’obiettivo di questo Pillar è fornire un quadro strutturato per favorire l’implementazione tempestiva di alcune delle misure previste dall’AI Act, incoraggiando le organizzazioni a condividere i processi e le pratiche adottate per anticipare la conformità alla normativa. In questo ambito rientra, ad esempio, la predisposizione di appositi modelli operativi. L’AI Pact contiene diversi impegni volontari per le organizzazioni che decidono di allinearsi alle disposizioni dell’AI Act prima che le stesse diventino formalmente obbligatorie. Tali impegni, presentati sotto forma di “dichiarazioni di impegno”, non sono giuridicamente vincolanti e non impongono alcun obbligo giuridico ai partecipanti. Essi delineano azioni concrete finalizzate a soddisfare i requisiti dell’AI Act, con l’obiettivo di mitigare il prima possibile i rischi che l’IA può comportare per la salute, la sicurezza e i diritti fondamentali. Gli impegni non fondamentali Come anticipato, i firmatari possono inoltre assumere l’impegno di adoperarsi al meglio per rispettare o contribuire al raggiungimento di specifici obiettivi. L’AI Pact distingue tali impegni in base al ruolo dell’organizzazione, differenziando tra fornitori e deployer di sistemi di IA. Nello specifico, i fornitori di sistemi di IA, laddove rilevante e ove possibile, potranno: Quanto invece ai deployers, laddove rilevante e ove possibile, potranno: [1] L’Ufficio per l’IA è la funzione della Commissione volta a contribuire all’attuazione, al monitoraggio e alla supervisione dei sistemi di IA, dei modelli di IA per finalità generali (general purpose AI models – “GPAI”) e della governance dell’IA. [2] Risultano invece essere esclusi i requisiti previsti per i modelli GPAI in quanto gli stessi verranno definiti in appositi codici di buone pratiche, come previsto dall’art. 50, par. 7, dell’AI Act. [3] La definizione di “alfabetizzazione in materia di IA” è contenuta nell’art. 3, n. 56, dell’AI Act. [4] In linea con l’AI Act (Art. 3, n. 60, dell’AI Act), i deepfake generati dall’IA sono intesi come contenuti di immagini, audio o video generati o manipolati artificialmente dall’IA che somigliano a persone, oggetti, luoghi, entità o eventi esistenti e che potrebbero sembrare falsamente autentici o veritieri a una persona.