Blog

AI Act: il futuro della regolamentazione sull'intelligenza artificiale

17 luglio 2024

Il Regolamento sull’intelligenza artificiale (comunemente conosciuto come “AI Act” e recentemente pubblicato sulla Gazzetta Ufficiale europea) entrerà in vigore il 2 agosto di quest’anno.

La ratio dell’AI Act è quella di istituire un quadro giuridico uniforme attinente allo sviluppo, all’immissione sul mercato e alla messa in servizio e uso dei sistemi di IA coerentemente con il miglioramento del funzionamento del mercato interno.

Il regolamento, mira a diffondere un’intelligenza artificiale antropocentrica e affidabile, garantendo al contempo un livello elevato di protezione dei diritti fondamentali quali il diritto alla salute, alla sicurezza, all’ambiente.

 

Cos’è un sistema di IA?

 

L’intelligenza artificiale è una famiglia di tecnologie che contribuisce al conseguimento di molteplici benefici nell’ambito delle attività industriali e sociali, sia a livello economico, che ambientale e sociale.

In quanto tale, può però comportare rischi e pregiudicare interessi pubblici e diritti fondamentali dell’individuo. Proprio dall’impatto dell’IA sulla società, deriva la necessità di costruire fiducia attorno ai sistemi di IA attraverso l’istituzione di un quadro giuridico che detti regole armonizzate atte al raggiungimento dell’equilibrio tra garanzia di protezione degli interessi pubblici e promozione dello sviluppo, uso e adozione di sistemi di IA nel mercato interno.

Il Regolamento definisce un sistema di IA come:

un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Come si può evincere dalla definizione, una delle caratteristiche principali di un sistema di IA è la sua capacità inferenziale. La capacità inferenziale si riferisce al processo di ottenimento degli output (quali contenuti o decisioni) che influenzano l’ambiente e alla capacità del sistema di IA di ricavare (alternativamente o contestualmente) algoritmi e/o modelli, da input e dati. La capacità inferenziale consente l’apprendimento, il ragionamento o la modellizzazione del sistema.

 

Destinatari del Regolamento

 

I destinatari dell’AI Act sono innumerevoli soggetti che operano nel mercato interno (e non). Nello specifico:

  • Fornitori di sistemi di IA, indipendentemente dallo stato di sede o stabilimento. Con “fornitore” si designa “una persona fisica o giuridica che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito” (Art. 2);
  • Deployer di sistemi di IA con sede o stabilimento nel territorio UE. Con deployer si intende “una persona fisica o giuridica che utilizza un sistema di IA sotto la propria autorità” (Art. 2);
  • Fornitori e ai deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l'output prodotto dal sistema di IA sia utilizzato nell'Unione;
  • Importatori e distributori di sistemi di IA;
  • Fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA;
  • Rappresentanti autorizzati di fornitori non stabiliti nell'Unione;
  • Persone interessate sul territorio europeo.

 

L’AI Act e il risk based approach

 

Il Regolamento introduce un approccio basato sul rischio individuando la tipologia e il contenuto delle regole per i molteplici sistemi di IA in base all’intensità e alla portata dei rischi che ne possono derivare.

Per questo motivo, l’AI Act distingue:

  1. Pratiche di IA vietate;
  2. Sistemi di IA ad alto rischio;
  3. Sistemi di IA a rischio limitato;
  4. Modelli di IA per finalità generali.

Per ogni livello di rischio potenziale in cui è inquadrato un sistema (o modello) di IA, l'AI Act individua specifiche disposizioni al fine di mitigarne il rischio. Abbiamo provato a semplificare la piramide del rischio come segue:

Piramidev2

Per approfondire il tema del risk based approch consulta l'articolo AI Act e risk based approach: difendere i diritti senza frenare l’innovazione.

 

Prossimi Passi

 

Il Regolamento entrerà in vigore il prossimo 2 agosto e sarà applicabile a decorrere dal 2 agosto 2026. In merito alla sua applicabilità, occorre effettuare opportune precisazioni in merito alle eccezioni all’applicabilità:

  • Le disposizioni generali e le pratiche di IA vietate saranno applicabili dal 2 febbraio 2025;
  • Le disposizioni relative ad Autorità di notifica e organismi notificati, modelli di IA generativa, Governance e sanzioni saranno applicabili dal 2 agosto 2025 (ad eccezione delle disposizioni sulle Sanzioni pecuniarie per i fornitori di modelli di IA per finalità generali);
  • Le regole di classificazione per i sistemi di IA ad alto rischio e i corrispondenti obblighi saranno applicabili dal 2 agosto 2027.

Fonti

European AI Act | LINK

AI Act: Come mettersi in regola ed evitare sanzioni | LINK

Resta informato sul Risk Management, iscriviti alla newsletter!

Post più letti