AI Act in vigore
Il Consiglio Ue ha approvato in via definitiva, il 21 maggio 2024, il Regolamento del Parlamento europeo e del Consiglio (AI Act) che stabilisce regole armonizzate sull’intelligenza artificiale.
Il Regolamento 2024/1689 che introduce regole, obblighi e divieti sull’intelligenza artificiale, è stato pubblicato in Gazzetta Ufficiale dell’Unione Europea del 12 luglio 2024 ed è entrato in vigore il 1° agosto 2024.
Applicabilità scaglionata del regolamento
Le nuove disposizioni però sono applicabili a due anni dall’entrata in vigore del Regolamento, ossia a partire dal 2 agosto 2026, con alcune eccezioni:
- dal 2 febbraio 2025 i divieti per le pratiche ad “alto rischio inaccettabile”e l’obbligo di alfabetizzazione del personale;
- dal 2 agosto 2025 le regole che riguardano i modelli di AI di uso generale, il regime di governance e le sanzioni;
- dal 2 agosto 2027: la Commissione Europea potrà aggiornare l’elenco dei sistemi di IA considerati ad alto rischio per tenere conto dei progressi tecnologici;
- dal 2 agosto 2028: la Commissione dovrà pubblicare una revisione generale del Regolamento AI per valutarne l’efficacia e l’impatto.
La rilevanza del rischio
L’intervento normativo in esame è fondato su un sistema di misurazione del rischio definito in modo chiaro; ciò significa che maggiore è il rischio di causare danni, più severe saranno le norme volte a disciplinare la materia dell’intelligenza artificiale.
Tale approccio si tradurrà nell’introduzione di obblighi di trasparenza meno gravosi per gli ambiti interessati dall’intelligenza artificiale che presentano un rischio limitato, mentre, al contrario, i sistemi di AI considerati ad alto rischio saranno sottoposti a limiti e obblighi più stringenti per poter essere utilizzati all’interno dell’Unione Europea.
Categorie di intelligenza artificiale
In generale, è possibile distinguere le seguenti categorie di intelligenza artificiale, individuate in base alla diversa valutazione del rischio che le caratterizza:
- sistemi di AI vietati dal 2 febbraio 2025 perché implicano un rischio inaccettabile, quali, a mero titolo esemplificativo, l’AI che sfrutta la manipolazione comportamentale cognitiva e il riconoscimento delle emozioni in determinati ambiti;
- sistemi di AI ad alto rischio ma consentiti nel rispetto di stringenti condizione e requisiti;
- sistemi di AI a rischio basso o minimo.
Obblighi di trasparenza
Il Regolamento spiega che per trasparenza “si intende che i sistemi di IA sono sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA”.
I sistemi di IA ad alto rischio dovrebbero essere progettati in modo da consentire ai fornitori di comprendere il funzionamento del sistema di IA, valutarne la funzionalità e comprenderne i punti di forza e i limiti. I sistemi di IA ad alto rischio dovrebbero essere accompagnati da informazioni adeguate sotto forma di istruzioni per l’uso.
Intelligenza artificiale nella giustizia
Nel provvedimento normativo si legge che “Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale”.
L’utilizzo di strumenti di IA, precisa il provvedimento, può fornire “sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi”.
Punteggio sociale
La legge si occupa anche di indicare i sistemi di intelligenza artificiali che, consentendo di attribuire un punteggio sociale alle persone fisiche, possono portare “a risultati discriminatori e all’esclusione di determinati gruppi. Possono inoltre ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano le persone fisiche o i gruppi di persone fisiche sulla base di vari punti di dati riguardanti il loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità”.
In considerazione dei rischi sopra indicati, il testo stabilisce che tali sistemi dovrebbero pertanto essere vietati, senza, tuttavia, che vengano pregiudicate le “pratiche lecite di valutazione delle persone fisiche effettuate per uno scopo specifico in conformità del diritto dell’Unione e nazionale”.
Istituzione di organi di governo
Nell’ambito dell’intervento normativo in esame è stato istituito:
- l’ufficio per l’IA per mano della Commissione europea, con “la missione di sviluppare competenze e capacità dell’Unione nel settore dell’IA e di contribuire all’attuazione del diritto dell’Unione in materia di IA”;
- il gruppo di esperti scientifici indipendenti avente la finalità di “integrare i sistemi di governance per i modelli di IA per finalità generali” e “sostenere le attività di monitoraggio dell’ufficio per l’IA”, anche fornendo “segnalazioni qualificate all’ufficio per l’IA che avviano attività di follow-up quali indagini”;
- il comitato europeo, composto da rappresentanti degli Stati membri, per l’intelligenza artificiale che “dovrebbe sostenere la Commissione al fine di promuovere gli strumenti di alfabetizzazione in materia di IA, la sensibilizzazione del pubblico e la comprensione dei benefici, dei rischi, delle garanzie, dei diritti e degli obblighi in relazione all’uso dei sistemi di IA”;
- il forum consultivo, cui è affidato il compito di “raccogliere il contributo dei portatori di interessi all’attuazione del presente regolamento, a livello dell’Unione e nazionale”.
Sistema sanzionatorio
Il testo stabilisce che la violazione di quanto previsto dall’art. 5 del Regolamento in tema di “Pratiche di IA vietate” è “soggetta a sanzioni amministrative pecuniarie fino a 35 000 000 EUR o, se l’autore del reato è un’impresa, fino al 7 % del fatturato mondiale totale annuo dell’esercizio precedente, se superiore”.
AI ACT: obblighi in vigore dal 2 agosto 2025
- A partire dal 2 agosto 2025, i fornitori di modelli di intelligenza artificiale di uso generale (GPAI), gli utilizzatori che li impiegano in attività professionali nell’UE e i soggetti che li integrano in altri prodotti sono tenuti a rispettare nuovi obblighi. I fornitori devono fornire una documentazione tecnica dettagliata che includa l’architettura, i dati di addestramento, i limiti e i rischi dei modelli. Devono inoltre allegare istruzioni chiare per l’uso e la sorveglianza umana.
- Tutti i contenuti generati dai GPAI (testi, immagini, audio, video) devono essere automaticamente etichettati con marcatori tecnici, come watermark, per renderli riconoscibili come prodotti dall’IA. Ci sono eccezioni limitate per scopi di sicurezza pubblica o editing minimo.
- I modelli GPAI considerati a “rischio sistemico” a causa della loro potenza o scala sono soggetti a requisiti aggiuntivi. Questi includono la valutazione e mitigazione dei rischi, audit di sicurezza annuali, sistemi di gestione degli incidenti e la tracciabilità sull’uso di dati protetti da copyright.
- Il mancato rispetto di queste norme può comportare l’applicazione di sanzioni significative, fino a 15 milioni di euro o il 3% del fatturato globale. Previste anche la sospensione o l’interdizione dall’utilizzo dei modelli non conformi alle regole.
- I modelli già esistenti hanno un periodo di transizione fino al 2 agosto 2027 per adeguarsi alle nuove regole. Parallelamente, gli Stati membri devono istituire autorità nazionali competenti per garantire l’applicazione e la vigilanza di queste normative.
- Le autorità nazionali competenti, operative entro il 2 agosto 2025, avranno il compito di sorvegliare i sistemi di intelligenza artificiale, e dovranno essere dotate di risorse tecniche e umane adeguate.
- A livello europeo, l’Ufficio per l’IA e il Consiglio europeo per l’IA coordineranno l’applicazione uniforme delle normative.
- In vigore le sanzioni per le violazioni.
- La Commissione creerà anche una banca dati UE per i sistemi di IA ad alto rischio, garantendo tracciabilità e trasparenza nel mercato.
- Obbligo per ogni Stato membro di inviare alla Commissione un rapporto sulle condizioni delle risorse delle autorità competenti.
Il DDL italiano sull’AI
Per completezza, si ricorda che il 24 aprile 2024 il Governo italiano ha approvato un disegno di legge in materia di intelligenza artificiale.
Al momento il testo, che ha subito modifiche rispetto a quello originario, è in stato di relazione in Senato dopo una prima approvazione il 20 marzo 2025 e l’approvazione da parte della Camera del 25 giugno 2025.
L’intervento normativo italiano si propone di introdurre criteri regolatori volti a equilibrare “il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso”.
Il disegno di legge in questione non verrà superato dalla nuova normativa europea, al contrario, i due impianti normativi sono destinati ad integrarsi e ad armonizzarsi tra di loro.
Leggi anche Ddl intelligenza artificiale