AI Act in vigore
Il Consiglio Ue ha approvato in via definitiva, il 21 maggio 2024, il Regolamento del Parlamento europeo e del Consiglio (AI Act) che stabilisce regole armonizzate sull’intelligenza artificiale. Le nuove disposizioni sono applicabili a due anni dall’entrata in vigore del Regolamento, con alcune eccezioni, tra cui i divieti e le disposizioni generali, operativi già dopo sei mesi e gli obblighi, applicabili dopo 36 mesi, ai sistemi considerati ad alto rischio.
Il Regolamento UE 1689/2024, che introduce regole, obblighi e divieti sull’intelligenza artificiale, è stato pubblicato in Gazzetta Ufficiale dell’Unione Europea del 12 luglio 2024 ed è entrato in vigore il 1° agosto 2024.
La rilevanza del rischio
L’intervento normativo in esame è fondato su un sistema di misurazione del rischio definito in modo chiaro; ciò significa che maggiore è il rischio di causare danni, più severe saranno le norme volte a disciplinare la materia dell’intelligenza artificiale.
Tale approccio si tradurrà nell’introduzione di obblighi di trasparenza meno gravosi per gli ambiti interessati dall’intelligenza artificiale che presentano un rischio limitato, mentre, al contrario, i sistemi di AI considerati ad alto rischio saranno sottoposti a limiti e obblighi più stringenti per poter essere utilizzati all’interno dell’Unione Europea.
Categorie di intelligenza artificiale
In generale, è possibile distinguere le seguenti categorie di intelligenza artificiale, individuate in base alla diversa valutazione del rischio che le caratterizza:
- sistemi di AI vietati perché implicano un rischio inaccettabile, quali, a mero titolo esemplificativo, l’AI che sfrutta la manipolazione comportamentale cognitiva e il riconoscimento delle emozioni in determinati ambiti;
- sistemi di AI ad alto rischio ma consentiti nel rispetto di stringenti condizione e requisiti;
- sistemi di AI a rischio basso o minimo.
Obblighi di trasparenza
Il Regolamento spiega che per trasparenza “si intende che i sistemi di IA sono sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA”.
I sistemi di IA ad alto rischio dovrebbero essere progettati in modo da consentire ai fornitori di comprendere il funzionamento del sistema di IA, valutarne la funzionalità e comprenderne i punti di forza e i limiti. I sistemi di IA ad alto rischio dovrebbero essere accompagnati da informazioni adeguate sotto forma di istruzioni per l’uso.
Intelligenza artificiale nella giustizia
Nel provvedimento normativo si legge che “Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale”.
L’utilizzo di strumenti di IA, precisa il provvedimento, può fornire “sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi”.
Punteggio sociale
La legge si occupa anche di indicare i sistemi di intelligenza artificiali che, consentendo di attribuire un punteggio sociale alle persone fisiche, possono portare “a risultati discriminatori e all’esclusione di determinati gruppi. Possono inoltre ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano le persone fisiche o i gruppi di persone fisiche sulla base di vari punti di dati riguardanti il loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità”.
In considerazione dei rischi sopra indicati, il testo stabilisce che tali sistemi dovrebbero pertanto essere vietati, senza, tuttavia, che vengano pregiudicate le “pratiche lecite di valutazione delle persone fisiche effettuate per uno scopo specifico in conformità del diritto dell’Unione e nazionale”.
Istituzione di organi di governo
Nell’ambito dell’intervento normativo in esame è stato istituito:
- l’ufficio per l’IA per mano della Commissione europea, con “la missione di sviluppare competenze e capacità dell’Unione nel settore dell’IA e di contribuire all’attuazione del diritto dell’Unione in materia di IA”;
- il gruppo di esperti scientifici indipendenti avente la finalità di “integrare i sistemi di governance per i modelli di IA per finalità generali” e “sostenere le attività di monitoraggio dell’ufficio per l’IA”, anche fornendo “segnalazioni qualificate all’ufficio per l’IA che avviano attività di follow-up quali indagini”;
- il comitato europeo, composto da rappresentanti degli Stati membri, per l’intelligenza artificiale che “dovrebbe sostenere la Commissione al fine di promuovere gli strumenti di alfabetizzazione in materia di IA, la sensibilizzazione del pubblico e la comprensione dei benefici, dei rischi, delle garanzie, dei diritti e degli obblighi in relazione all’uso dei sistemi di IA”;
- il forum consultivo, cui è affidato il compito di “raccogliere il contributo dei portatori di interessi all’attuazione del presente regolamento, a livello dell’Unione e nazionale”.
Sistema sanzionatorio
Il testo stabilisce che la violazione di quanto previsto dall’art. 5 del Regolamento in tema di “Pratiche di IA vietate” è “soggetta a sanzioni amministrative pecuniarie fino a 35 000 000 EUR o, se l’autore del reato è un’impresa, fino al 7 % del fatturato mondiale totale annuo dell’esercizio precedente, se superiore”.
Il DDL italiano sull’AI
Per completezza, si ricorda che il 24 aprile scorso, il Governo italiano ha approvato un disegno di legge in materia di intelligenza artificiale.
In particolare, l’intervento normativo italiano si propone di introdurre criteri regolatori volti a equilibrare “il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso”.
Il disegno di legge in questione non verrà superato dalla nuova normativa europea, al contrario, i due impianti normativi sono destinati ad integrarsi e ad armonizzarsi tra di loro.
Leggi anche Ddl intelligenza artificiale