Se, da un lato, l'utilizzo dell’intelligenza artificiale rappresenta un'opportunità per innumerevoli settori, dall’altro, porta con sé rischi che devono essere gestiti e mitigati opportunamente. L’AI Act introduce un risk based approach al fine di classificare e trattare i sistemi di IA coerentemente con l’impatto che potrebbero generare sui diritti dell’individuo e sulla società.
A tal fine il Regolamento distingue:
L’intelligenza artificiale potrebbe essere utilizzata impropriamente al fine di mettere in atto pratiche manipolatorie, di sfruttamento e controllo sociali. Tali pratiche vengono vietate dall'AI Act in quanto invasive, dannose e contrarie ai principi UE. In tal senso, i legislatori hanno effettuato un bilanciamento con i principi di non discriminazione, protezione dei dati e diritti dei minori.
Le pratiche vietate sono fondamento di sistemi che utilizzano tecniche tali da non essere percepite dalla mente umana e da implicare la compromissione dell’autonomia, del processo decisionale e della libera scelta della persona.
Tra le attività di IA vietate troviamo sistemi che:
I sistemi di IA ad alto rischio possono essere messi in servizio o utilizzati nel territorio UE solo se soddisfano determinati requisiti obbligatori atti a garantire che non rappresentino rischi inaccettabili.
I sistemi ad alto rischio hanno un impatto nocivo significativo su salute, sicurezza e diritti fondamentali delle persone.
Sono identificati come ad alto rischio sistemi IA se dotati di entrambe le seguenti condizioni:
o, alternativamente, se contenuti nell'elenco di cui all'Allegato III del Regolamento. Tra questi ultimi troviamo sistemi di IA utilizzati nei seguenti settori:
Per immettere in servizio o sul mercato i sistemi di IA ad alto rischio, è necessario soddisfare requisiti obbligatori e sottoporre i sistemi ad un sistema di gestione dei rischi iterativo della durata del loro intero ciclo di vita. Tale processo è finalizzato a garantire che il fornitore individui eventuali rischi o impatti negativi e attui misure di mitigazione per i rischi noti e ragionevolmente prevedibili dei sistemi di IA.
I modelli di IA non costituiscono, di per sé, un sistema di IA, ma ne fanno parte e vi sono integrati.
Proprio per questa loro caratteristica che li rende la base per la costruzione di sistemi, i fornitori di modelli di IA per finalità generali hanno un ruolo e una responsabilità cruciale nel garantire la capacità di integrazione dei modelli nei prodotti dei fornitori di sistemi di IA. A tal fine è necessario che vengano previste misure di trasparenza proporzionate, tra cui, ad esempio, la redazione e l'aggiornamento della documentazione e la predisposizione di informazioni sul modello di IA per finalità generali ai fini del suo utilizzo da parte dei fornitori a valle.
I modelli di IA per finalità generali rappresentano, al contempo, sfide e innovazione. La loro capacità di generare testo, immagini e altri contenuti sfidano il tema del diritto d'autore. Tali modelli devono essere sviluppati e addestrati, fini per i quali è richiesto l'accesso a grandi quantità di testo, immagini, video e altri dati. Gli stessi fornitori, nella fase di addestramento dei modelli devono rispettare garanzie di trasparenza, mettendo a disposizione del pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati.
L'attenzione posta del Regolamento sul tema è rilevante sul versante dei rischi sistemici, ossia "qualsiasi effetto negativo effettivo o ragionevolmente prevedibile in relazione a incidenti gravi, perturbazioni di settori critici e serie conseguenze per la salute e la sicurezza pubbliche". Tali rischi possono emergere in tutte le fasi del ciclo di vita del modello e a tal fine devono essere individuate procedure di classificazione dei modelli di IA con rischi sistemici, oltre che previsti obblighi volti a individuare e attenuare tali rischi e a garantire un livello adeguato di protezione della cybersicurezza (indipendentemente dal fatto che il modello sia fornito come modello autonomo o integrato in un sistema di IA o in un prodotto). Resta fermo il diritto, per le persone che interagiscono con il modello, di essere informate di tale interazione.
Da ultimo, i sistemi a rischio limitato non sono soggetti a obblighi specifici, bensì a codici di condotta. I codici di condotta sono sono stilati su base volontaria e mirano a costruire obiettivi e indicatori chiave per lo sviluppo di un'IA affidabile, l'utilizzo di tecniche a favore della sostenibilità ambientale e la promozione dell'alfabetizzazione in materia IA.
Il tema del del bilanciamento tra l'utilizzo dell'intelligenza artificiale e il trattamento dei dati personali rimane fulcro dell'interesse del Garante della privacy anche, e soprattutto, a seguito della pubblicazione dell'AI Act in Gazzetta Ufficiale. La vicenda che ha recentemente coinvolto il Comune di Torino ha proprio il seguente tema: l'utilizzo di un sistema di sorveglianza che si serve di intelligenza artificiale. Nello specifico, tale sistema consentirebbe alla polizia municipale di comprendere la gravità della situazione di emergenza e se sia necessario intervenire.
Proviamo a motivare la pericolosità della pratica dell'utilizzo dell'intelligenza artificiale nei sistemi di videosorveglianza. In primis, si potrebbero rilevare criticità in termini di trasparenza nell'utilizzo dei filmati delle videocamere di sorveglianza, associate anche al rischio di pregiudicare diritti e libertà degli interessati. In ultimo, quando vengono utilizzate nuove tecnologie in zone accessibile al pubblico, rimane fermo l'obbligo di condurre previamente una valutazione d'impatto.
Proprio per scongiurare tali ipotesi, il Comune di Torino dovrà fornire al Garante entro 15 giorni la documentazione tecnica dei sistemi di IA utilizzati e ogni elemento utile sul trattamento dei dati personali.
European AI Act | LINK
AI Act: il futuro della regolamentazione sull'intelligenza artificiale | LINK
Telecamere intelligenti a Torino | LINK