Commissione europea: un supporto per l’interpretazione del concetto di sistema di AI

19 Febbraio 2025

A partire dallo scorso 2 febbraio 2025 sono divenute ufficialmente applicabili le prime disposizioni del Regolamento (UE) 1689/2024 (noto come “AI Act”), tra cui gli articoli relativi a definizioni, alfabetizzazione e pratiche di AI vietate. Per le aziende, ciò comporta una serie di obblighi che richiedono, tra gli altri, un’accurata mappatura e classificazione dei sistemi di AI in base alle categorie di rischio previste dalla normativa.

Tuttavia, prima di affrontare la classificazione del rischio, è imprescindibile comprendere cosa si intenda persistema di AI”. La definizione contenuta nell’AI Act è chiara e precisa, ma altrettanto fondamentale è l’interpretazione pratica e concreta che ne può scaturire. Un sistema di AI è definito come un “sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali” (art. 3, n. 1), dell’AI Act).

Ma cosa significa in concreto? La risposta a questa domanda viene fornita dalla Commissione europea (la “Commissione”), che ha recentemente adottato delle Linee Guida sulla definizione di un sistema di AI (le “Linee Guida”), con l’obiettivo di consentire a fornitori, deployer e a tutti gli stakeholders di determinare se un software possa essere considerato un vero e proprio “sistema di AI”.

I sette requisiti fondamentali per definire un sistema di AI

La Commissione ha suddiviso la definizione di sistema di AI in sette elementi chiave, che devono essere considerati per ogni applicazione pratica:

  1. sistema automatizzato: un sistema che operi su base computazionale, basato su componenti sia hardware che software;
  2. autonomia: il sistema deve operare con un certo grado di indipendenza, pur ammettendo l’intervento umano, quando necessario;
  3. adattabilità: la capacità di autoapprendimento, anche se non obbligatoria, può essere un elemento distintivo del sistema, permettendogli di modificarsi durante l'utilizzo;
  4. obiettivi del sistema: il fine ultimo dei compiti da eseguire e dei risultati da ottenere, che possono essere sia espliciti che impliciti[1];
  5. inferenza: la capacità del sistema, riferita alla sua fase di sviluppo, di elaborare input per generare output, utilizzando tecniche come il machine learning[2] o approcci basati sulla logica e sulla conoscenza[3];
  6. output: i risultati generati dal sistema, che includono previsioni, contenuti, raccomandazioni o decisioni;
  7. influenza sugli ambienti: l’impatto che il sistema può avere su ambienti fisici (come oggetti o macchinari, quali ad esempio, un braccio robotico) o virtuali (come spazi digitali, flussi di dati ed ecosistemi software).

I sistemi esclusi dalla definizione di AI

Non tutti i sistemi rientrano nella definizione di AI. Le Linee Guida della Commissione precisano quali sistemi, pur essendo automatici, non siano considerabili come sistemi di AI. Tra questi vi sono:

  • sistemi di ottimizzazione matematica (come la regressione lineare o logistica) che, pur essendo in grado di effettuare inferenze, non vanno oltre la soglia di “semplice elaborazione dei dati”. Si pensi, ad esempio, a un sistema di telecomunicazioni satellitari destinato a ottimizzare l’allocazione della larghezza di banda e la gestione delle risorse;
  • sistemi di elaborazione dati di base, che eseguono compiti basati su input manuali o regole fisse, senza alcuna capacità di apprendimento, ragionamento o modellizzazione. Ne costituiscono un esempio i gestionali usati per ordinare o filtrare i dati in base a criteri specifici, i software di fogli di calcolo standard o per il calcolo di medie statistiche, oppure i software per la visualizzazione di report di vendita o per l’analisi statistica di sondaggi o rilevazioni d’opinione;
  • sistemi basati su euristiche classiche, ossia tecniche di risoluzione dei problemi – comunemente utilizzate in programmazione – che si basano su modelli basati sull’esperienza per trovare soluzioni approssimative in modo efficiente. Ne costituisce un esempio un programma di scacchi che utilizza un algoritmo per valutare le posizioni sulla scacchiera;
  • sistemi di previsioni semplici, come quelli impiegati nelle previsioni finanziarie di base (in grado, ad esempio, di prevedere i prezzi futuri delle azioni), oppure nelle stime dalla temperatura.

L’applicabilità prime disposizioni dell’AI Act rappresenta un passo decisivo nella regolamentazione dell’AI in Europa. La comprensione chiara del concetto di “sistema di AI” e dei requisiti necessari per la sua classificazione è essenziale per ogni azienda che intenda operare in conformità con l’AI Act.

In tale contesto, le Linee Guida della Commissione, seppur non vincolanti, costituisco un documento di grande rilevanza, in grado di aiutare le aziende a orientarsi nell’ambito della mappatura e classificazione dei propri sistemi di AI, accompagnandole nel loro processo di adeguamento normativo. Le Linee Guida sono destinate a evolversi nel tempo e, ove necessario, verranno aggiornate, anche e soprattutto alla luce delle esperienze pratiche e dei dubbi che potranno sorgere.


[1] Gli obiettivi sono “espliciti” se chiaramente definiti e codificati dallo sviluppatore del sistema; si dicono invece “impliciti” se sono deducibili indirettamente dal sistema.

[2] Questa categoria include un’ampia varietà di approcci che permettono a un sistema di “apprendere”, tra cui l’apprendimento supervisionato (dove il sistema di AI apprende da un insieme di dati già etichettato, in cui ogni input è associato all’output corretto), l’apprendimento non supervisionato (in cui il sistema non ha accesso a risposte predefinite e cerca modelli, strutture o relazioni nei dati), l’apprendimento auto-supervisionato (in cui il sistema apprende da dati non etichettati in modo supervisionato, utilizzando i dati stessi per creare le proprie etichette o obiettivi) e l’apprendimento per rinforzo (in cui il sistema apprende dai dati raccolti dalla propria esperienza, provando e sbagliando).

[3] In questo caso, invece di apprendere dai dati, i sistemi di AI apprendono dalla conoscenza, che include regole, fatti e relazioni codificate da esperti umani. Sulla base di questa conoscenza, i sistemi possono “ragionare” attraverso motori deduttivi o induttivi o mediante operazioni come ordinamento, ricerca, confronto e concatenazione.

2025 - Morri Rossetti

I contenuti pubblicati nel presente sito sono protetti da diritto di autore, in base alle disposizioni nazionali e delle convenzioni internazionali, e sono di titolarità esclusiva di Morri Rossetti e Associati.
È vietato utilizzare qualsiasi tipo di tecnica di web scraping, estrazione di dati o qualsiasi altro mezzo automatizzato per raccogliere informazioni da questo sito senza il nostro esplicito consenso scritto.
Ogni comunicazione e diffusione al pubblico e ogni riproduzione parziale o integrale, se non effettuata a scopo meramente personale, dei contenuti presenti nel sito richiede la preventiva autorizzazione di Morri Rossetti e Associati.

cross