A partire dallo scorso 2 febbraio 2025 sono divenute ufficialmente applicabili le prime disposizioni del Regolamento (UE) 1689/2024 (noto come “AI Act”), tra cui gli articoli relativi a definizioni, alfabetizzazione e pratiche di AI vietate. Per le aziende, ciò comporta una serie di obblighi che richiedono, tra gli altri, un’accurata mappatura e classificazione dei sistemi di AI in base alle categorie di rischio previste dalla normativa. Tuttavia, prima di affrontare la classificazione del rischio, è imprescindibile comprendere cosa si intenda per “sistema di AI”. La definizione contenuta nell’AI Act è chiara e precisa, ma altrettanto fondamentale è l’interpretazione pratica e concreta che ne può scaturire. Un sistema di AI è definito come un “sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali” (art. 3, n. 1), dell’AI Act). Ma cosa significa in concreto? La risposta a questa domanda viene fornita dalla Commissione europea (la “Commissione”), che ha recentemente adottato delle Linee Guida sulla definizione di un sistema di AI (le “Linee Guida”), con l’obiettivo di consentire a fornitori, deployer e a tutti gli stakeholders di determinare se un software possa essere considerato un vero e proprio “sistema di AI”. I sette requisiti fondamentali per definire un sistema di AI La Commissione ha suddiviso la definizione di sistema di AI in sette elementi chiave, che devono essere considerati per ogni applicazione pratica: I sistemi esclusi dalla definizione di AI Non tutti i sistemi rientrano nella definizione di AI. Le Linee Guida della Commissione precisano quali sistemi, pur essendo automatici, non siano considerabili come sistemi di AI. Tra questi vi sono: L’applicabilità prime disposizioni dell’AI Act rappresenta un passo decisivo nella regolamentazione dell’AI in Europa. La comprensione chiara del concetto di “sistema di AI” e dei requisiti necessari per la sua classificazione è essenziale per ogni azienda che intenda operare in conformità con l’AI Act. In tale contesto, le Linee Guida della Commissione, seppur non vincolanti, costituisco un documento di grande rilevanza, in grado di aiutare le aziende a orientarsi nell’ambito della mappatura e classificazione dei propri sistemi di AI, accompagnandole nel loro processo di adeguamento normativo. Le Linee Guida sono destinate a evolversi nel tempo e, ove necessario, verranno aggiornate, anche e soprattutto alla luce delle esperienze pratiche e dei dubbi che potranno sorgere. [1] Gli obiettivi sono “espliciti” se chiaramente definiti e codificati dallo sviluppatore del sistema; si dicono invece “impliciti” se sono deducibili indirettamente dal sistema. [2] Questa categoria include un’ampia varietà di approcci che permettono a un sistema di “apprendere”, tra cui l’apprendimento supervisionato (dove il sistema di AI apprende da un insieme di dati già etichettato, in cui ogni input è associato all’output corretto), l’apprendimento non supervisionato (in cui il sistema non ha accesso a risposte predefinite e cerca modelli, strutture o relazioni nei dati), l’apprendimento auto-supervisionato (in cui il sistema apprende da dati non etichettati in modo supervisionato, utilizzando i dati stessi per creare le proprie etichette o obiettivi) e l’apprendimento per rinforzo (in cui il sistema apprende dai dati raccolti dalla propria esperienza, provando e sbagliando). [3] In questo caso, invece di apprendere dai dati, i sistemi di AI apprendono dalla conoscenza, che include regole, fatti e relazioni codificate da esperti umani. Sulla base di questa conoscenza, i sistemi possono “ragionare” attraverso motori deduttivi o induttivi o mediante operazioni come ordinamento, ricerca, confronto e concatenazione.