Divieto di riconoscimento delle emozioni sul lavoro e sue implicazioni alla luce dell’AI Act

4 Marzo 2025

L’entrata in vigore dell’Articolo 5 del Regolamento (UE) 1689/2024 (“AI Act”) segna un passaggio fondamentale nella regolamentazione dell’intelligenza artificiale (“AI”) nell’Unione europea. Tale disposizione, rubricata “Pratiche di AI vietate”, impone un divieto tassativo su specifici sistemi di AI che possano arrecare danni significati agli individui o pregiudicare i loro diritti fondamentali. Il legislatore ha individuato sette pratiche particolarmente critiche, il cui utilizzo è ormai interdetto:

  • la manipolazione del comportamento tramite inganno o sfruttando le vulnerabilità degli individui;
  • i sistemi di social scoring;
  • la valutazione del rischio di commissione di un reato da parte di un individuo;
  • lo scraping non mirato di materiale da Internet o da CCTV per la creazione o l’espansione di database di riconoscimento facciale;
  • il riconoscimento delle emozioni in ambito lavorativo e scolastico;
  • la categorizzazione biometrica finalizzata alla deduzione di caratteristiche “sensibili” (quali orientamenti politici o convinzioni religiose);
  • l’identificazione biometrica in tempo reale in spazi accessibili al pubblico a fini di attività di contrasto.

Il mancato rispetto di tali divieti comporta l’applicazione delle più severe sanzioni previste dall’AI Act, con multe che possono raggiungere i 35 milioni di euro o il 7% del fatturato annuo globale, a seconda di quale importo sia maggiore.

Consapevole della necessità di garantire un’interpretazione uniforme e coerente del divieto, la Commissione europea, in attuazione dell’art. 96 dell’AI Act, ha adottato apposite linee guida sull’applicazione delle regole relative alle pratiche di AI vietate (le “Linee Guida”). Sebbene si tratti di un documento non vincolante, destinato a essere formalmente adottato solo in una fase successiva, esso rappresenta un punto di riferimento per le autorità competenti, nonché per i fornitori e i deployer di sistemi di AI, al fine di agevolare la comprensione e il rispetto delle prescrizioni normative.

Rimettendo ad una lettura delle Linee Guida per l’esame completo del loro contenuto, in questo contributo ci si soffermerà, in particolare, sull’ambito applicativo del divieto di riconoscimento delle emozioni nei luoghi di lavoro, evidenziandone il fondamento giuridico, le implicazioni pratiche e le possibili eccezioni.

Il divieto di riconoscimento delle emozioni in ambito lavorativo

L’AI Act sancisce il divieto di utilizzo di sistemi di AI per il riconoscimento delle emozioni nei luoghi di lavoro e negli istituti scolastici, salvo che per finalità mediche o di sicurezza. Al di fuori di tale divieto, i sistemi di AI destinati al riconoscimento delle emozioni sono qualificati come ad alto rischio[1] e devono conformarsi agli obblighi normativi previsti per questa categoria di sistemi.

L’affect technology, ossia la tecnologia di riconoscimento delle emozioni, si sviluppa attraverso un insieme complesso di tecniche di raccolta, analisi e interpretazione di dati per inferire lo stato emotivo di un soggetto. Le sue applicazioni spaziano dal neuromarketing all’industria dell’intrattenimento, dall’educazione alla selezione del personale, fino alla sanità. Tuttavia, l’utilizzo di tali strumenti in contesti lavorativi pone rilevanti problematiche, in quanto può determinare una lesione dei diritti fondamentali, in primis la privacy, la dignità umana e la libertà di autodeterminazione.

In particolare, il riconoscimento delle emozioni nel contesto lavorativo si inserisce in un ambiente caratterizzato da un significativo squilibrio di potere tra datore di lavoro e lavoratore, con il rischio di generare forme di controllo pervasivo e di condizionare il comportamento individuale. Si pensi, ad esempio, a sistemi di AI in grado di monitorare il livello di attenzione o il grado di stress dei dipendenti, oppure di valutare il loro stato d’animo sulla base delle espressioni facciali o del tono di voce. Si tratta di strumenti che, se utilizzati senza adeguate garanzie, possono risultare altamente invasivi e discriminatori.

L’ambito di applicazione del divieto

Le Linee Guida precisano che il divieto di riconoscimento delle emozioni si riferisce a quei sistemi di AI impiegati per inferire o identificare[2] le emozioni attraverso i dati biometrici di una persona[3]. Si distingue, in particolare, tra:

  • identificazione delle emozioni, ossia l’associazione diretta tra una determinata espressione e uno stato emotivo predefinito nel sistema di AI (ad es., rilevazione della rabbia sulla base di un’espressione facciale);
  • inferenza delle emozioni, che avviene attraverso analisi complesse di dati biometrici e di altro genere, permettendo di dedurre stati emotivi in modo indiretto (ad es., determinare il livello di stress di un dipendente analizzando la velocità di battitura sulla tastiera).

Quanto, invece, alla nozione di “emozioni”, le Linee Guida specificano che dalla stessa sono esclusi gli stati fisici (ad es., dolore o affaticamento), la mera rilevazione di espressioni, gesti o movimenti chiaramente visibili, a meno che non siano utilizzati per identificare o dedurre emozioni[4]. Ad esempio, non costituisce “riconoscimento delle emozioni”, l’osservazione che una persona stia sorridendo; al contrario, concludere che una persona è felice è riconoscimento delle emozioni (si pensi, ad esempio, ad un sistema di AI che deduce che un dipendente sia infelice o arrabbiato con i clienti da gesti del corpo, un cipiglio o la mancanza di un sorriso).

Nel contesto lavorativo[5], il divieto si applica indipendentemente dalla natura del rapporto di lavoro (dipendente, collaboratore, tirocinante, etc.) e si estende anche alla fase di selezione del personale. Pertanto, devono essere considerati vietati, ad esempio, i sistemi nel recruiting per analizzare lo stato emotivo dei candidati, le tecnologie di monitoraggio delle emozioni durante riunioni virtuali o videochiamate di lavoro, oppure l’utilizzo di telecamere integrate con l’AI in grado di rilevare le emozioni dei dipendenti.

L’eccezione al divieto: le finalità mediche o di sicurezza

L’AI Act contempla un’eccezione esplicita al divieto, limitata all’impiego di sistemi di riconoscimento delle emozioni utilizzati nell’ambito del luogo di lavoro e degli istituti educativi per finalità mediche o di sicurezza. Le Linee Guida precisano che tale deroga deve essere interpretata in modo restrittivo:

  • gli usi terapeutici dovrebbero essere intesi come riferiti a dispositivi medici con marchio CE, escludendo quindi applicazioni di monitoraggio generico del benessere (ad es., un sistema di AI per rilevare burnout o depressione sul luogo di lavoro);
  • il concetto di motivi di sicurezza deve essere inteso solo in relazione alla protezione della vita e della salute.

Profili giuslavoristici e protezione dei dati

Nel caso in cui un sistema di AI soddisfi le condizioni dell’eccezione per finalità mediche o di sicurezza, lo stesso dovrà in ogni caso rispettare i vincoli imposti dal Regolamento (UE) 679/2016 (“GDPR”) e, in Italia, dall’articolo 4 della L. 300/1970, come modificato dal D.Lgs. 151/2015 (“Statuto dei Lavoratori”), relativo aicontrolli datoriali eseguiti tramite strumenti di monitoraggio a distanza della prestazione dei lavoratori.

Si pensi, ad esempio, ad un datore di lavoro che utilizzi un sistema di telecamere per monitorare le emozioni dei propri dipendenti unicamente per scopi di formazione personale, oppure ad un supermercato o una banca che utilizzino un simile sistema per rilevare clienti sospetti, ad esempio per capire se qualcuno stia per commettere una rapina. Questi sistemi, possono essere utilizzati lecitamente, purché tuttavia non influenzino la relazione lavorativa, non vengano monitorati i dipendenti e siano adottate adeguate misure di sicurezza.

Pertanto, anche qualora un sistema rientrasse nelle eccezioni previste dall’AI Act, il datore di lavoro sarebbe tenuto a:

  • garantire la trasparenza sia mediante informativa privacy, sia attraverso apposita policy aziendale – di solito, attraverso quella relativa all’utilizzo degli strumenti informatici – da pubblicizzare con le modalità più opportune;
  • dimostrare la necessità e proporzionalità dell’utilizzo, valutando che non esistano mezzi alternativi meno invasivi in grado di raggiungere lo stesso obiettivo;
  • effettuare, se del caso, una valutazione d’impatto sulla protezione dei dati (“DPIA”) ai sensi dell’art. 35 GDPR;
  • rispettare le garanzie e le condizioni di cui all’art. 4 dello Statuto dei Lavoratori, riguardanti la sussistenza di esigenze tassative (i.e. organizzative e produttive, di sicurezza del lavoro, di tela del patrimonio aziendale) e previo accordo collettivo o autorizzazione amministrativa, oltre al rispetto degli obblighi di trasparenza sopra citati.

Riflessioni finali: cosa devono fare in concreto le organizzazioni?

Alla luce delle disposizioni dell’AI Act e delle Linee Guida e onde evitare gravose sanzioni, le organizzazioni devono prioritariamente mappare e classificare i sistemi di AI che forniscono e/o utilizzano, al fine di individuare eventuali pratiche vietate, come il riconoscimento delle emozioni nei luoghi di lavoro. Oltre a questa verifica preliminare, è essenziale valutare i rischi connessi e accertare se il sistema rientri nelle eccezioni previste dalla normativa, come quelle per finalità mediche o di sicurezza.

In ogni caso, anche laddove un sistema di AI rientri nell’eccezione sopra descritta, le aziende dovranno garantire il rispetto delle ulteriori normative applicabili, tra cui il GDPR e lo Statuto dei Lavoratori, adottando misure adeguate a tutelare la protezione dei dati personali e i diritti fondamentali dei lavoratori.


[1] Ciò ai sensi dell’Allegato III, punto 1(c), dell’AI Act.

[2] Il Considerando 44 dell’AI Act chiarisce infatti che il divieto di cui all’art. 5, par. 1, lett. f) dell’AI Act riguarda i sistemi di AI destinati a identificare o inferire emozioni.

[3] Ciò per ragioni coerenza, in quanto questo divieto deve essere interpretato in modo analogo alle norme applicabili ad altri sistemi di riconoscimento delle emozioni (Allegato III, punto 1(c) e art. 50 dell’AI Act). La definizione di “dati biometrici” nell’AI Act è ampia e include qualsiasi dato biometrico utilizzato per il riconoscimento delle emozioni, la categorizzazione biometrica o altri scopi (cfr. art. 3, n. 34, dell’AI Act).

[4] Sulla nozione di “emozione, si veda, in particolare, il Considerando 18 dell’AI Act.

[5] Le Linee Guida chiariscono che il concetto di “luogo di lavoro” si riferisce a qualsiasi spazio fisico o virtuale specifico in cui le persone svolgono compiti e responsabilità assegnati dal loro datore di lavoro o dall’organizzazione a cui sono affiliate. Include qualsiasi contesto in cui viene svolto il lavoro e può variare notevolmente in base alla natura dello stesso.

2025 - Morri Rossetti

I contenuti pubblicati nel presente sito sono protetti da diritto di autore, in base alle disposizioni nazionali e delle convenzioni internazionali, e sono di titolarità esclusiva di Morri Rossetti e Associati.
È vietato utilizzare qualsiasi tipo di tecnica di web scraping, estrazione di dati o qualsiasi altro mezzo automatizzato per raccogliere informazioni da questo sito senza il nostro esplicito consenso scritto.
Ogni comunicazione e diffusione al pubblico e ogni riproduzione parziale o integrale, se non effettuata a scopo meramente personale, dei contenuti presenti nel sito richiede la preventiva autorizzazione di Morri Rossetti e Associati.

cross