L’entrata in vigore dell’Articolo 5 del Regolamento (UE) 1689/2024 (“AI Act”) segna un passaggio fondamentale nella regolamentazione dell’intelligenza artificiale (“AI”) nell’Unione europea. Tale disposizione, rubricata “Pratiche di AI vietate”, impone un divieto tassativo su specifici sistemi di AI che possano arrecare danni significati agli individui o pregiudicare i loro diritti fondamentali. Il legislatore ha individuato sette pratiche particolarmente critiche, il cui utilizzo è ormai interdetto: Il mancato rispetto di tali divieti comporta l’applicazione delle più severe sanzioni previste dall’AI Act, con multe che possono raggiungere i 35 milioni di euro o il 7% del fatturato annuo globale, a seconda di quale importo sia maggiore. Consapevole della necessità di garantire un’interpretazione uniforme e coerente del divieto, la Commissione europea, in attuazione dell’art. 96 dell’AI Act, ha adottato apposite linee guida sull’applicazione delle regole relative alle pratiche di AI vietate (le “Linee Guida”). Sebbene si tratti di un documento non vincolante, destinato a essere formalmente adottato solo in una fase successiva, esso rappresenta un punto di riferimento per le autorità competenti, nonché per i fornitori e i deployer di sistemi di AI, al fine di agevolare la comprensione e il rispetto delle prescrizioni normative. Rimettendo ad una lettura delle Linee Guida per l’esame completo del loro contenuto, in questo contributo ci si soffermerà, in particolare, sull’ambito applicativo del divieto di riconoscimento delle emozioni nei luoghi di lavoro, evidenziandone il fondamento giuridico, le implicazioni pratiche e le possibili eccezioni. Il divieto di riconoscimento delle emozioni in ambito lavorativo L’AI Act sancisce il divieto di utilizzo di sistemi di AI per il riconoscimento delle emozioni nei luoghi di lavoro e negli istituti scolastici, salvo che per finalità mediche o di sicurezza. Al di fuori di tale divieto, i sistemi di AI destinati al riconoscimento delle emozioni sono qualificati come ad alto rischio[1] e devono conformarsi agli obblighi normativi previsti per questa categoria di sistemi. L’affect technology, ossia la tecnologia di riconoscimento delle emozioni, si sviluppa attraverso un insieme complesso di tecniche di raccolta, analisi e interpretazione di dati per inferire lo stato emotivo di un soggetto. Le sue applicazioni spaziano dal neuromarketing all’industria dell’intrattenimento, dall’educazione alla selezione del personale, fino alla sanità. Tuttavia, l’utilizzo di tali strumenti in contesti lavorativi pone rilevanti problematiche, in quanto può determinare una lesione dei diritti fondamentali, in primis la privacy, la dignità umana e la libertà di autodeterminazione. In particolare, il riconoscimento delle emozioni nel contesto lavorativo si inserisce in un ambiente caratterizzato da un significativo squilibrio di potere tra datore di lavoro e lavoratore, con il rischio di generare forme di controllo pervasivo e di condizionare il comportamento individuale. Si pensi, ad esempio, a sistemi di AI in grado di monitorare il livello di attenzione o il grado di stress dei dipendenti, oppure di valutare il loro stato d’animo sulla base delle espressioni facciali o del tono di voce. Si tratta di strumenti che, se utilizzati senza adeguate garanzie, possono risultare altamente invasivi e discriminatori. L’ambito di applicazione del divieto Le Linee Guida precisano che il divieto di riconoscimento delle emozioni si riferisce a quei sistemi di AI impiegati per inferire o identificare[2] le emozioni attraverso i dati biometrici di una persona[3]. Si distingue, in particolare, tra: Quanto, invece, alla nozione di “emozioni”, le Linee Guida specificano che dalla stessa sono esclusi gli stati fisici (ad es., dolore o affaticamento), la mera rilevazione di espressioni, gesti o movimenti chiaramente visibili, a meno che non siano utilizzati per identificare o dedurre emozioni[4]. Ad esempio, non costituisce “riconoscimento delle emozioni”, l’osservazione che una persona stia sorridendo; al contrario, concludere che una persona è felice è riconoscimento delle emozioni (si pensi, ad esempio, ad un sistema di AI che deduce che un dipendente sia infelice o arrabbiato con i clienti da gesti del corpo, un cipiglio o la mancanza di un sorriso). Nel contesto lavorativo[5], il divieto si applica indipendentemente dalla natura del rapporto di lavoro (dipendente, collaboratore, tirocinante, etc.) e si estende anche alla fase di selezione del personale. Pertanto, devono essere considerati vietati, ad esempio, i sistemi nel recruiting per analizzare lo stato emotivo dei candidati, le tecnologie di monitoraggio delle emozioni durante riunioni virtuali o videochiamate di lavoro, oppure l’utilizzo di telecamere integrate con l’AI in grado di rilevare le emozioni dei dipendenti. L’eccezione al divieto: le finalità mediche o di sicurezza L’AI Act contempla un’eccezione esplicita al divieto, limitata all’impiego di sistemi di riconoscimento delle emozioni utilizzati nell’ambito del luogo di lavoro e degli istituti educativi per finalità mediche o di sicurezza. Le Linee Guida precisano che tale deroga deve essere interpretata in modo restrittivo: Profili giuslavoristici e protezione dei dati Nel caso in cui un sistema di AI soddisfi le condizioni dell’eccezione per finalità mediche o di sicurezza, lo stesso dovrà in ogni caso rispettare i vincoli imposti dal Regolamento (UE) 679/2016 (“GDPR”) e, in Italia, dall’articolo 4 della L. 300/1970, come modificato dal D.Lgs. 151/2015 (“Statuto dei Lavoratori”), relativo aicontrolli datoriali eseguiti tramite strumenti di monitoraggio a distanza della prestazione dei lavoratori. Si pensi, ad esempio, ad un datore di lavoro che utilizzi un sistema di telecamere per monitorare le emozioni dei propri dipendenti unicamente per scopi di formazione personale, oppure ad un supermercato o una banca che utilizzino un simile sistema per rilevare clienti sospetti, ad esempio per capire se qualcuno stia per commettere una rapina. Questi sistemi, possono essere utilizzati lecitamente, purché tuttavia non influenzino la relazione lavorativa, non vengano monitorati i dipendenti e siano adottate adeguate misure di sicurezza. Pertanto, anche qualora un sistema rientrasse nelle eccezioni previste dall’AI Act, il datore di lavoro sarebbe tenuto a: Riflessioni finali: cosa devono fare in concreto le organizzazioni? Alla luce delle disposizioni dell’AI Act e delle Linee Guida e onde evitare gravose sanzioni, le organizzazioni devono prioritariamente mappare e classificare i sistemi di AI che forniscono e/o utilizzano, al fine di individuare eventuali pratiche vietate, come il riconoscimento delle emozioni nei luoghi di lavoro. Oltre a questa verifica preliminare, è essenziale valutare i rischi connessi e accertare se il sistema rientri nelle eccezioni previste dalla normativa, come quelle per finalità mediche o di sicurezza. In ogni caso, anche laddove un sistema di AI rientri nell’eccezione sopra descritta, le aziende dovranno garantire il rispetto delle ulteriori normative applicabili, tra cui il GDPR e lo Statuto dei Lavoratori, adottando misure adeguate a tutelare la protezione dei dati personali e i diritti fondamentali dei lavoratori. [1] Ciò ai sensi dell’Allegato III, punto 1(c), dell’AI Act. [2] Il Considerando 44 dell’AI Act chiarisce infatti che il divieto di cui all’art. 5, par. 1, lett. f) dell’AI Act riguarda i sistemi di AI destinati a identificare o inferire emozioni. [3] Ciò per ragioni coerenza, in quanto questo divieto deve essere interpretato in modo analogo alle norme applicabili ad altri sistemi di riconoscimento delle emozioni (Allegato III, punto 1(c) e art. 50 dell’AI Act). La definizione di “dati biometrici” nell’AI Act è ampia e include qualsiasi dato biometrico utilizzato per il riconoscimento delle emozioni, la categorizzazione biometrica o altri scopi (cfr. art. 3, n. 34, dell’AI Act). [4] Sulla nozione di “emozione, si veda, in particolare, il Considerando 18 dell’AI Act. [5] Le Linee Guida chiariscono che il concetto di “luogo di lavoro” si riferisce a qualsiasi spazio fisico o virtuale specifico in cui le persone svolgono compiti e responsabilità assegnati dal loro datore di lavoro o dall’organizzazione a cui sono affiliate. Include qualsiasi contesto in cui viene svolto il lavoro e può variare notevolmente in base alla natura dello stesso.