Il Comitato Europeo per la Protezione dei Dati (European Data Protection Board – “EDPB”) ha recentemente adottato l’Opinion 28/2024 relativa all’uso dei dati personali nello sviluppo e nella gestione di modelli di intelligenza artificiale (il “Parere”). Il Parere rappresenta un passaggio cruciale nella tutela della protezione dei dati, un ambito che sta diventando sempre più complesso e fondamentale in un contesto tecnologico in rapida evoluzione. L’intelligenza artificiale, infatti, si caratterizza per l’uso pervasivo di tecniche di raccolta, trattamento e analisi di dati, che sollevano nuove sfide in termini di privacy e sicurezza Il Parere è stato redatto a seguito della richiesta dell’autorità per la protezione dei dati personali irlandese, al fine di garantire un’armonizzazione normativa a livello europeo su alcune questioni fondamentali relative alla tutela dei dati personali nell’era dell’IA. Tali questioni riguardano: (i) quando e come un modello di IA può essere considerato “anonimo”; (ii) l’utilizzo dell’interesse legittimo come base giuridica per il trattamento dei dati durante le fasi di sviluppo e utilizzo dei modelli di IA e (iii) cosa accade se un modello di IA viene sviluppato utilizzando dati personali trattati illecitamente. Ma cosa prevede, in concreto, il Parere dell’EDPB? L’EDPB osserva che un modello di IA addestrato con dati personali non può, in ogni caso, essere considerato anonimo senza una valutazione specifica. In effetti, quando un modello di IA è costruito utilizzando dati personali è possibile che esso generi inferenze (ossia previsioni o conclusioni) su individui non inclusi nei dati di addestramento o che produca direttamente dati personali riferibili a tali soggetti. In tal caso, il modello incorpora informazioni relative a persone fisiche identificate o identificabili, comportando il trattamento di dati personali e risultando, pertanto, non anonimo. Si pensi, ad esempio, a un modello di IA generativa addestrato con registrazioni vocali di un individuo per replicarne la voce. Allo stesso modo, anche se i modelli non sono progettati per produrre informazioni relative a persone identificate o identificabili, i dati personali utilizzati per l’addestramento potrebbero restare “assorbiti” nei parametri del modello sotto forma di rappresentazioni matematiche. Queste rappresentazioni potrebbero poi essere estratte o dedotte, sia direttamente che indirettamente. Pertanto, qualora fosse possibile ottenere dati personali tramite mezzi ragionevolmente prevedibili, il modello non potrà essere considerato anonimo. Ci si chiede, quindi, quali circostanze debbano essere prese in considerazione per definire un modello di IA “anonimo”. L’EDPB suggerisce che le autorità di vigilanza e i titolari del trattamento dovrebbero rispettivamente verificare e provare che: (i) non sia possibile estrarre dati personali dai dati di addestramento attraverso il modello; e (ii) qualsiasi output prodotto dal modello non sia riconducibile ai soggetti i cui dati personali sono stati utilizzati per l’addestramento. A tal fine, l’EDPB precisa che questa valutazione dovrebbe considerare tre aspetti fondamentali: In sintesi, l’EDPB sottolinea che per considerare anonimo un modello di IA, è necessario che (i) non vi sia alcuna possibilità di estrazione diretta di dati personali (compresa quella probabilistica) relativi agli individui il cui dato è stato utilizzato per l’addestramento, e (ii) che la probabilità di ottenere tali informazioni, sia intenzionalmente che accidentalmente, sia irrilevante per l’interessato. Le DPA dovrebbero, quindi, prendere in considerazione la necessità di una valutazione approfondita dei rischi di identificazione, che deve includere tutti i “mezzi ragionevolmente prevedibili” che potrebbero essere impiegati dal titolare del trattamento o da terzi, inclusi il riutilizzo o la divulgazione non intenzionale del modello. Inoltre, l’EDPB elenca una serie di elementi per valutare la probabilità residua di identificazione che le DPA potrebbero prendere in considerazione, tra cui: 2. L’interesse legittimo come base giuridica nelle fasi di sviluppo e utilizzo dei modelli di IA L’EDPB, richiamando le proprie linee guida sul legittimo interesse[2], prende in considerazione le tre fasi richieste dalla valutazione del legittimo interesse (Legitimate Interest Assessment – “LIA”) nel contesto dello sviluppo e della diffusione dei modelli di IA: a. il perseguimento di un interesse legittimo da parte del titolare del trattamento o di una terza parte L’EDPB sottolinea che un interesse può essere considerato legittimo se è lecito, specifico e non speculativo. Nel contesto dei modelli di IA, esempi di interessi legittimi possono comprendere lo sviluppo di IA conversazionale, come chatbot o assistenti virtuali; l’implementazione di soluzioni di IA per rilevare contenuti o comportamenti fraudolenti; o il miglioramento della sicurezza informatica, come il rafforzamento della capacità di rilevamento di minacce; b. la necessità del trattamento per perseguire l’interesse legittimo (necessity test) Il necessity test implica due valutazioni principali: (i) il trattamento deve essere necessario per perseguire lo scopo perseguito; e (ii) non devono esistere alternative meno invasive per raggiungere lo stesso obiettivo. In concreto, nel contesto dei modelli di IA, questo significa che il titolare deve considerare se il trattamento dei dati personali è indispensabile per ottenere il risultato desiderato, o se esistono metodi alternativi, che comportano una minore invasività nei diritti degli interessati, per raggiungere lo stesso scopo. Pertanto, se l’obiettivo può essere conseguito tramite un modello di IA che non comporta il trattamento di dati personali, allora quest’ultimo non dovrebbe essere considerato necessario. Il necessity test può comunque essere soddisfatto se vengono adottate misure tecniche e organizzative appropriate[3], come l’uso di pseudonimizzazione, la minimizzazione dei dati (ad es., riducendo al minimo la quantità di dati personali utilizzati per l’addestramento), e l’adozione di strategie di filtraggio per escludere dati personali non rilevanti. Sebbene queste misure non garantiscano l’anonimizzazione totale, contribuiscono comunque a ridurre la probabilità di identificare gli interessati; c. la prevalenza degli interessi, diritti e libertà degli interessati (balancing test) L’ultima condizione che deve essere soddisfatta per il trattamento basato sull’interesse legittimo è il balancing test, ossia la verifica che gli interessi, i diritti fondamentali e le libertà degli interessati non prevalgano sull’interesse legittimo del titolare. In questo contesto, l’EDPB individua una serie di diritti e interessi degli interessati che devono essere presi in considerazione. Questi includono, nella fase di sviluppo del modello di IA, il diritto all’autodeterminazione e al controllo sui propri dati personali. Nella fase di utilizzo del modello, gli interessi degli interessati possono riguardare la gestione dei propri dati personali, ma anche interessi finanziari, benefici personali e socio-economici, come l’accesso migliorato ai servizi sanitari o l’esercizio di diritti fondamentali come l’accesso all’istruzione. Il trattamento dei dati personali durante lo sviluppo e l’uso dei modelli di IA può comportare rischi significativi per i diritti tutelati dalla Carta dei diritti fondamentali dell’Unione europea, in particolare il diritto alla vita privata (art. 7) e il diritto alla protezione dei dati personali (art. 8)[4]. Tali rischi possono emergere tanto nella fase di sviluppo (ad es., attraverso il web scraping) quanto in quella di utilizzo (ad es., nel caso in cui un cyberattacco porti alla rivelazione di dati sensibili contenuti nel dataset di addestramento). Il trattamento di dati personali durante lo sviluppo e l’utilizzo dei modello di IA può avere impatti sia positivi[5] che negativi sugli interessati. Questi impatti devono essere valutati considerando: (i) la natura dei dati trattati, (ii) il contesto del trattamento (inclusi i rischi legati al modo in cui è stato sviluppato e utilizzato il modello e alle misure di sicurezza adottate), e (iii) le ulteriori conseguenze, da valutare in base al caso concreto, inclusa la probabilità che tali conseguenze si materializzino e le misure di sicurezza adottate[6]. Le ragionevoli aspettative degli interessati, come stabilito nel Considerando 47 del GDPR, rivestono un ruolo fondamentale nel balancing test, soprattutto in considerazione della complessità intrinseca delle tecnologie di IA. Gli interessati potrebbero non essere pienamente consapevoli dei potenziali utilizzi dei loro dati da parte di un modello di IA, rendendo cruciale la trasparenza e l’informazione adeguata. L’EDPB osserva, tuttavia, che la mera compliance agli obblighi di trasparenza del GDPR non è di per sé sufficiente a costituire una “ragionevole aspettativa” da parte degli interessati, la quale deve invece essere valutata in base a fattori concreti, come la pubblica disponibilità dei dati, la loro fonte e le specifiche capacità del modello di IA. Nel caso in cui gli interessi, i diritti e le libertà degli interessati sembrino prevalere sul legittimo interesse del titolare, quest’ultimo potrebbe considerare di introdurre misure di mitigazione per ridurre al minimo l’impatto del trattamento sugli interessati. L’EDPB offre un elenco non esaustivo di misure di mitigazione applicabili, distinguendo tra quelle da adottare durante la fase di sviluppo del modello di IA e quelle da applicare durante l’uso, oltre a specifiche misure riguardanti il web scraping. Nella fase di sviluppo, vengono individuate sia misure tecniche, come la pseudonimizzazione o la sostituzione di nomi e indirizzi e-mail con nomi e indirizzi e-mail fittizi, sia misure volte a facilitare l’esercizio dei diritti degli interessati, come la predisposizione di un diritto di “opt-out” incondizionato, fornendo agli interessati un diritto discrezionale di opporsi al trattamento ancor prima che il trattamento abbia luogo, sia misure di trasparenza, come la pubblicazione di informazioni pubbliche e facilmente accessibili che vadano oltre le informazioni richieste dagli artt. 13 e 14 del GDPR (ad es., fornendo dettagli aggiuntivi sui criteri di raccolta e sui dataset utilizzati), oppure la previsione di forme alternative per informare gli interessati (ad es., la pubblicazione di FAQ). Per quanto riguarda il web scraping, l’EDPB suggerisce l’esclusione di dati che comportano rischi per particolari persone o gruppi di persone dai dataset, l’imposizione di limiti alla raccolta e l’introduzione di meccanismi di opt-out per consentire agli interessati di opporsi, anche in via preventiva, alla raccolta dei loro dati su determinati siti o piattaforme online. Prendendo invece in considerazione la fase di utilizzo del modello di IA, le misure tecniche potrebbero mirare a prevenire la memorizzazione, riproduzione e generazione di dati personali (ad es., i filtri per gli output), mentre misure volte a facilitare l’esercizio di diritti degli interessati potrebbero riguardare, ad esempio, la previsione di tecniche post-addestramento volte a rimuovere i dati personali. Infine, l’EDPB suggerisce che le DPA, nella fase di utilizzo del modello, considerino se il titolare abbia pubblicato il risultato del balancing test e se abbia coinvolto, quando applicabile, il DPO nella valutazione. 3. Conseguenze di un trattamento illecito nello sviluppo di un modello di IA Con riguardo agli impatti che potrebbero derivare da un trattamento illecito nello sviluppo di un modello di IA, l’EDPB ipotizza tre scenari: a. scenario 1: il trattamento illecito e l’utilizzo successivo da parte dello stesso titolare Un titolare del trattamento tratta illecitamente dati personali per sviluppare un modello di IA, conserva tali dati e successivamente continua a trattarli. In questo caso, si rendono necessari: b. scenario 2: il trattamento illecito e il coinvolgimento di un altro titolare Un titolare del trattamento tratta illecitamente dati personali per sviluppare il modello, i quali vengono conservati nel modello e successivamente trattati da un altro titolare. Le osservazioni principali dell’EDPB includono: c. scenario 3: il trattamento illecito con successiva anonimizzazione In questa ipotesi, i dati personali trattati illecitamente per sviluppare il modello vengono anonimizzati prima di ulteriori utilizzi del modello (i.e. sia che il medesimo o un altro titolare avviino un ulteriore trattamento). Sotto quest’ultimo profilo, le osservazioni dell’EDPB riguardano: Considerazioni finali Con questo Parere, l’EDPB conferma il ruolo cruciale del GDPR come pilastro normativo nel contesto delle nuove tecnologie, dimostrando la capacità di questa normativa di adattarsi alle rapide evoluzioni – normative e tecnologiche – che caratterizzano lo scenario attuale. L’obiettivo perseguito è chiaro: cercare di raggiungere il delicato equilibrio tra innovazione e responsabilità. Come affermato anche dal presidente dell’EDPB, occorre garantire che lo sviluppo tecnologico avvenga in modo etico, sicuro e a beneficio di tutti. Il Parere rappresenta un ulteriore passo in avanti verso una regolamentazione sempre più coerente e responsabile dell’IA, confermando l’impegno a garantire la protezione dei dati personali nel pieno rispetto del GDPR. Una prospettiva, dunque, che oltre a tutelare i diritti degli interessati, favorisce un’innovazione responsabile, costruendo un futuro tecnologico sostenibile e inclusivo. [1] WP29 Parere 05/2014, p. 26. [2] Linee Guida 1/2024 sul trattamento di dati personali basato sull’Articolo 6(1)(f) del GDPR. [3] L’EDPB identifica le misure di sicurezza nella Sezione 3.2.2 del Parere. [4] L’EDPB sottolinea come, in realtà, a seconda del caso specifico, possono venire in rilievo anche altri rischi per i diritti fondamentali, tra cui la libertà di espressione (art. 11 della Carta), il diritto a svolgere un’attività lavorativa (art. 15 della Carta), il diritto alla non discriminazione (art. 21 della Carta). [5] Si pensi ad esempio alle ipotesi in cui il modello di IA venga utilizzato per identificare contenuti dannosi online oppure ai casi in cui faciliti l’accesso a determinati servizi essenziali, come l’accesso all’informazione o all’istruzione. [6] Ad esempio, nel caso dell’IA generativa, le misure potrebbero riguardare i controlli volti a limitare il più possibile il loro utilizzo per pratiche dannose, come la creazione di deepfakes. [7] Ai sensi dell’Art. 47 dell’AI Act, un fornitore di un sistema di IA ad alto rischio deve rendere una dichiarazione di conformità del sistema ai requisiti previsti dagli artt. 8-15 dell’AI Act. Tale dichiarazione deve contenere diversi elementi, tra cui, anche la dichiarazione che il sistema rispetti le disposizioni del GDPR.