Dal 2 febbraio è entrato in vigore l’AI Act, la prima Legge al mondo che regola l’utilizzo dell’intelligenza artificiale, per evitare ripercussioni negative sulla vita quotidiana. Gli obblighi sono stati calibrati in base a eventuali rischi e al livello di impatto.
In particolare, l’intento è tutelare i diritti dei cittadini, primo fra tutti quello della privacy. Rientrano tra le minacce i sistemi di categorizzazione biometrica, quelli che estrapolano le immagini di facciali da internet o da telecamere a circuito chiuso, i sistemi di credito sociale o quelli che manipolano il comportamento umano. Vediamo nel dettaglio di cosa si occupa l’AI Act.
Cosa implica l’AI Act?
Innanzitutto, è necessario suddividere i vari sistemi di intelligenza artificiale in base al livello di rischio che rappresentano. Nell’AI Act ne emergono quattro: rischio minimo, rischio limitato, ad alto rischio, a rischio inaccettabile. Se la minaccia è limitata, gli obblighi di trasparenza risultano essere leggeri. Se, invece, il rischio è elevato, le limitazioni saranno più specifiche e restringenti.
Per quanto riguarda il divieto assoluto di sistemi di intelligenza artificiale a rischio inaccettabile, le nuove regole dell’AI Act riguardano i seguenti ambiti:
- manipolazione cognitiva del comportamento. Non possono essere utilizzati sistemi di intelligenza artificiale che possono modificare il comportamento degli individui, senza che essi ne siano consapevoli
- social scoring. Si tratta dei punteggi sociale, cioè della capacità di alcuni software di AI di classificare le persone in base al loro comportamento o alle loro opinioni
- profilazione dei dati biometrici per la polizia predittiva. Non è consentito usare i dati biometrici, sia fisici che comportamentali, per calcolare quante probabilità ha un soggetto di compiere un reato, in riferimento a caratteristiche quali razza, orientamento sessuale o religione
- riconoscimento facciale. È vietato creare database sui quali possono essere identificate le persone, prendendo le immagini dai profili social o dalle telecamere di sicurezza. Le restrizioni riguardano anche l’identificazione di soggetti in tempo reale, a opera della polizia, fatta eccezione per i casi di terrorismo o rapimenti. Inoltre, non possono essere usati software AI per analizzare le espressioni facciali di un individuo, cono l’obiettivo di comprenderne le intenzioni o le emozioni, in ambito lavorativo o scolastico
Leggi anche: Il ruolo dell’innovazione e dell’IA nelle nuove strategie aziendali
Cosa cambia nelle aziende
I cambiamenti maggiori avverranno negli ambienti in cui i dati delle persone circolano notevolmente. Un esempio può essere rappresentato da luoghi di lavoro quali le aziende. In particolare, le regole dell’AI Act si applicano ai settori che fanno parte del diritto comunitario, con l’eccezione dei sistemi usati per la ricerca e il comparto militare.
Il test definitivo del nuovo regolamento promuove e favorisce l’apprendimento normativo sulla base dell’evidenza. Proprio per questo non viene adoperato solo in contesti controllati per lo sviluppo dei software, ma anche in situazioni più comuni. Entro il 2 agosto 2025 le aziende dovranno redigere un elenco di test condotti per lo sviluppo delle loro AI e garantire la massima trasparenza sul rispetto dei protocolli di sicurezza per i sistemi dell’intelligenza artificiale a rischio limitato. Rispetto ai sistemi AI ad alto rischio, la scadenza è per il 2 agosto 2026.
Leggi anche: OpenAI lancia Operator, l’Agente virtuale che naviga sul web al posto nostro
Sanzioni e multe salate
Il fine dell’AI Act, come già detto, è quello di garantire un utilizzo consono dell’intelligenza artificiale. Per fare ciò, sono stati istituiti alcuni organi specifici di governo, quali:
- un ufficio AI all’interno della Commissione, per il rispetto delle regole comuni nell’Unione Europea
- un gruppo scientifico di esperti indipendenti, per la corretta applicazione della normativa
- un Comitato per l’AI formato dai rappresentanti degli Stati membri, per applicare in maniera coerente ed efficace la legge sull’AI
- un forum consultivo, per trasmettere le competenze tecniche al Comitato e alla Commissione
Nel caso in cui non si rispettassero gli obblighi sanciti dall’AI Act, si incorre in multe salate. Si può rischiare un’ammenda che va dall’1,5% al 7% del fatturato, da calcolare sull’ultimo esercizio finanziario disponibile oppure da un minimo di 7,5 milioni di euro a un massimo di 35 milioni. Piccole e medie imprese e start up, invece, avranno delle sanzioni proporzionali. Se i sistemi AI sono ad alto rischio, questi dovranno obbligatoriamente essere inseriti nel registro della banca dati apposita, prevista per i sistemi di intelligenza artificiale ad alto rischio.