venerdì, Novembre 15, 2024

I Paesi Ue approvano all’unanimità l’AI Act: significato e ruolo cruciale dell’Italia

VIA LIBERA DEL COREPER ALL’ARTIFICIAL INTELLIGENCE ACT

Come rende noto la presidenza di turno belga del Consiglio dell’Ue, gli ambasciatori dei Ventisette hanno adottato la posizione del Consiglio dell’Ue sull’Artificial Intelligence Act, la prima legislazione al mondo a livello orizzontale e di ampio respiro sull’Intelligenza Artificiale. L’intesa si basa sull’accordo provvisorio raggiunto dal trilogo (Parlamento, Consiglio e Commissione Ue) l’8 dicembre 2023.

Il testo integrale dovrà passare poi ai voti finali di Consiglio e Parlamento. L’approvazione finale è pervista per il 24 aprile.

Il regolamento mira ad assicurare che i sistemi di AI immessi sul mercato europeo e utilizzati nell’Ue siano sicuri e rispettino i diritti fondamentali e i valori dell’Ue. Si punta inoltre a stimolare gli investimenti e l’innovazione in materia di IA in Europa.

BRETON: “UNA PRIMA STORICA”

Per il commissario al Mercato Interno, Thierry Breton, si tratta di una “prima storica”.

“L’AI Act ha scatenato le passioni… e a ragione! Oggi i 27 Stati membri hanno approvato all’unanimità l’accordo politico raggiunto a dicembre, riconoscendo l’equilibrio raggiunto dai negoziatori tra innovazione e Sicurezza. L’Ue è AI!”, scrive su X.

“Dobbiamo avere regole un’intelligenza artificiale sicura per tutti noi e incoraggiare l’innovazione al più presto. L’AI Act stabilirà anche regole chiare per etichettare i deep fake e i contenuti manipolativi”, evidenzia sempre su su X la vicepresidente della Commissione europea, Vera Jourova, subito dopo il raggiungimento dell’intesa.

BUTTI: “RUOLO CHIAVE PER L’ITALIA”

Per il sottosegretario all’Innovazione, Alessio Butti, si tratta di un momento storico per la Ue nel quale l’Italia ha giocato un ruolo chiave.

“L’approvazione all’unanimità dell’AI Act segna un momento storico per l’Unione Europea con il contributo determinante dell’Italia e del governo Meloni – commenta Butti – Fin da quando l’Unione Europea ha iniziato a discutere di AI Act, l’Italia ha compreso l’importanza fondamentale di un quadro normativo chiaro e robusto per l’intelligenza artificiale. Il nostro obiettivo è stato quello di garantire che tutte le applicazioni, inclusi i modelli generativi all’avanguardia, operassero all’interno di un sistema di regole che fosse sia semplice che rigoroso, in grado di tutelare i diritti dei cittadini e promuovere l’innovazione responsabile”.

“L’iter che ha portato all’approvazione dell’AI Act è stato complesso e ha richiesto una negoziazione serrata tra gli Stati membri – spiega – L’Italia ha sempre sottolineato la necessità di un approccio strutturato che prevedesse norme chiare e sanzioni per le violazioni e non semplici codici di autocondotta. Grazie alla nostra diplomazia e alla capacità di dialogo con gli altri paesi membri, in particolare con Francia e Germania, siamo riusciti a superare le divergenze, mantenendo una linea coerente con la posizione espressa fin dall’inizio”.

“Questo regolamento non solo stabilisce standard elevati per lo sviluppo e l’uso dell’intelligenza artificiale ma posiziona anche l’UE come leader globale nella regolamentazione di questa Tecnologia fondamentale. L’Italia ha giocato un ruolo cruciale in questo processo, dimostrando la sua leadership e il suo impegno verso un futuro digitale sicuro, etico e innovativo – conclude Butti – Guardiamo ora al futuro, pronti a collaborare con gli altri Stati membri e le istituzioni europee per implementare efficacemente l’AI Act, consapevoli che questo è solo l’inizio di un percorso che vedrà l’intelligenza artificiale sempre più al centro delle nostre società e delle nostre economie. L’Italia continuerà a essere in prima linea in questo importante dibattito, promuovendo un’IA che sia al servizio dell’uomo e rispettosa dei valori fondamentali su cui si fonda la nostra Unione.”

BENIFEI: “GRANDE SODDISFAZIONE DOPO ANNI DI LAVORO”

“Oggi è un bel giorno per l’Unione Europea: dopo settimane di rumors sulla stampa e di dubbi, fomentati da qualche grande impresa perlopiù extra-europea e magari da ministri che avrebbero voluto usare queste tecnologie per sorveglianza e attività di controllo sociale senza regole, abbiamo avuto oggi l’approvazione unanime dai rappresentanti permanenti dei governi europei del testo finale del regolamento sull’Intelligenza Artificiale, l’AI Act. Una grande soddisfazione dopo più di due anni di lavoro”, dichiara Brando Benifei, eurodeputato che ha guidato il negoziato parlamentare coi governi europei per l’approvazione della prima legge al mondo per la regolazione complessiva dell’AI.

“Con gli ultimi passaggi in Parlamento Europeo, a metà febbraio nelle commissioni parlamentari e poi a marzo o inizio aprile in sessione plenaria, il Regolamento sarà legge e inizierà la sua graduale entrata in vigore – sottolinea – È fondamentale sostenere l’applicazione anticipata delle regole per il contrasto a disinformazione e deepfakes, sicuramente inizialmente approssimativa per via degli standard ancora non pienamente adottati, ma che sarà fondamentale pur in forma imperfetta per proteggere le nostre democrazie nell’anno elettorale più importante per l’Europa e per il mondo. Con l’AI Act saremo più sicuri nell’uso delle nuove tecnologie nella vita di tutti i giorni, nel lavoro così come nel funzionamento delle nostre istituzioni.”

AI ACT, UN APPROCCIO BASATO SUL RISCHIO

L’idea principale della legge è quella di regolamentare l’AI sulla base della capacità di quest’ultima di causare danni alla società seguendo un approccio “basato sul rischio”: tanto maggiore è il rischio, quanto più rigorose sono le regole. In quanto prima proposta legislativa di questo tipo al mondo, può fissare uno standard globale per la regolamentazione dell’IA in altre giurisdizioni, come ha fatto il regolamento generale sulla protezione dei dati, promuovendo in tal modo l’approccio europeo alla regolamentazione della tecnologia sulla scena mondiale.

ARTIFICIALE INTELLIGENCE ACT, I PUNTI CHIAVE

Rispetto alla proposta iniziale della Commissione, l’accordo raggiunto in sede di trilogo e confermato oggi dal Coreper prevede:

– Regole sui modelli di AI per finalità generali ad alto impatto che possono comportare rischi sistemici in futuro, nonché sui sistemi di AI ad alto rischio
– Un sistema di governance riveduto con alcuni poteri di esecuzione a livello dell’UE
– Ampliamento dell’elenco dei divieti, ma con la possibilità di utilizzare l’identificazione biometrica remota da parte delle autorità di contrasto negli spazi pubblici, fatte salve le tutele
– Una migliore protezione dei diritti tramite l’obbligo per gli operatori di sistemi di AI ad alto rischio di effettuare una valutazione d’impatto sui diritti fondamentali prima di utilizzare un sistema di AI.

In termini più concreti, l’accordo riguarda i seguenti aspetti:

Definizioni e ambito di applicazione

Per garantire che la definizione di sistema di AI fornisca criteri sufficientemente chiari per distinguere l’AI da sistemi Software più semplici, l’accordo di compromesso allinea la definizione all’approccio proposto dall’Ocse.

L’accordo provvisorio chiarisce inoltre che il regolamento non si applica a settori che non rientrano nell’ambito di applicazione del diritto dell’Ue e non dovrebbe, in ogni caso, incidere sulle competenze degli Stati membri in materia di sicurezza nazionale o su qualsiasi entità competente in questo ambito. Inoltre, il regolamento sull’IA non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Analogamente, l’accordo prevede che il regolamento non si applichi ai sistemi di AI utilizzati solo a scopo di ricerca e innovazione o alle persone che utilizzano l’AI per motivi non professionali.

Classificazione dei sistemi di AI e pratiche vietate

L’accordo di compromesso stabilisce un livello orizzontale di protezione, compresa una classificazione ad alto rischio, al fine di garantire che non siano inclusi i sistemi di AI che non presentano il rischio di causare gravi violazioni dei diritti fondamentali o altri rischi significativi. I sistemi di AI che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, ad esempio rendere noto che il contenuto è stato generato dall’AI, affinché gli utenti possano prendere decisioni informate in merito all’ulteriore utilizzo.

Un’ampia gamma di sistemi di AI ad alto rischio sarebbe autorizzata, ma soggetta a una serie di requisiti e obblighi per ottenere accesso al mercato dell’Ue. Tali requisiti sono stati chiariti e adeguati dai colegislatori, in modo tale da renderli tecnicamente più realizzabili e meno onerosi per i portatori di interessi, ad esempio per quanto riguarda la qualità dei dati, o in relazione alla documentazione tecnica che le pmidovrebbero redigere per dimostrare che i loro sistemi ad alto rischio sono conformi ai requisiti.

Poiché i sistemi sono sviluppati e distribuiti attraverso catene del valore complesse, l’accordo di compromesso comprende modifiche che chiariscono l’assegnazione delle responsabilità e i ruoli dei vari attori in tali catene, in particolare dei fornitori e degli utenti di sistemi. Chiarisce inoltre il rapporto tra le responsabilità a titolo del regolamento sull’AI e le responsabilità già esistenti in virtù di altri atti legislativi, come la pertinente normativa dell’Ue in materia di protezione dei dati o la normativa settoriale.

Per alcuni usi dell’AI, il rischio è considerato inaccettabile, pertanto tali sistemi saranno vietati dall’Ue. L’accordo provvisorio vieta, ad esempio, la manipolazione comportamentale cognitiva, lo scraping non mirato delle Immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili, quali l’orientamento sessuale o le convinzioni religiose, e alcuni casi di polizia predittiva per le persone.

ECCEZIONI A FINI DI ATTIVITA DI CONTRASTO

Tenuto conto delle specificità delle autorità di contrasto e della necessità di preservarne la capacità di utilizzare l’AI nel loro lavoro vitale, sono state concordate diverse modifiche alla proposta della Commissione relative all’uso dei sistemi a fini di attività di contrasto. Fatte salve le tutele adeguate, tali modifiche mirano a tenere conto della necessità di rispettare la riservatezza dei dati operativi sensibili in relazione alle loro attività. Ad esempio, è stata introdotta una procedura di emergenza che consente alle autorità di contrasto di utilizzare uno strumento di AI ad alto rischio che non ha superato la procedura di valutazione della conformità in caso di urgenza. È stato tuttavia stabilito anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente protetti da eventuali abusi dei sistemi.

Inoltre, per quanto riguarda l’uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, l’accordo provvisorio chiarisce le situazioni nelle quali tale uso è strettamente necessario a fini di contrasto e nelle quali le autorità di contrasto dovrebbero pertanto essere eccezionalmente autorizzate a utilizzare tali sistemi. L’accordo di compromesso prevede ulteriori tutele e limita tali eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili, come attacchi terroristici, e alla ricerca di persone sospettate dei reati più gravi.

SISTEMI DI AI PER FINALITA GENERALI E MODELLI DI BASE

Rispetto alla proposta inziale della Commissione, sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di AI possono essere utilizzati per molti scopi diversi (AI per finalità generali) e di quelle in cui la tecnologia di AI per finalità generali è successivamente integrata in un altro sistema ad alto rischio. L’accordo provvisorio tratta anche i casi specifici dei sistemi di AI per finalità generali.

Sono state inoltre concordate regole specifiche per i modelli di base, i grandi sistemi in grado di svolgere con competenza un’ampia gamma di compiti distintivi, quali la generazione di Video, testi, immagini, la conversazione in linguaggio laterale, il calcolo di dati o la generazione di codici informatici. L’accordo provvisorio prevede che i modelli di base debbano rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato. È stato introdotto un regime più rigoroso per i modelli di base “ad alto impatto”. Si tratta di modelli di base addestrati con grandi quantità di dati e di complessità, capacità e prestazioni avanzate ben al di sopra della media, che possono diffondere i rischi sistemici lungo la catena del valore.

UNA NUOVA ARCHITETTURA DI GOVERNANCE

A seguito delle nuove regole sui modelli di AI per finalità generali e dell’evidente necessità di una loro applicazione a livello dell’Ue, è istituito un ufficio per l’AI all’interno della Commissione incaricato di supervisionare questi modelli di IA più avanzati, contribuire a promuovere norme e pratiche di prova e far rispettare le norme comuni in tutti gli Stati membri. Un gruppo scientifico di esperti indipendenti fornirà consulenza all’ufficio per l’AI in merito ai modelli per finalità generali, contribuendo allo sviluppo di metodologie per valutare le capacità dei modelli di base, fornendo consulenza sulla designazione e l’emergere di modelli di base ad alto impatto e monitorando i possibili rischi materiali di sicurezza connessi ai modelli di base.

Il comitato per l’AI, composto da rappresentanti degli Stati membri, rimarrà una piattaforma di coordinamento e un organo consultivo della Commissione e attribuirà un ruolo importante agli Stati membri nell’attuazione del regolamento, compresa la progettazione di codici di buone pratiche per i modelli di base. Infine, sarà istituito un forum consultivo per i portatori di interessi, quali i rappresentanti dell’industria, le pmi, le start-up, la società civile e il mondo accademico, al fine di fornire competenze tecniche al comitato per l’AI.

SANZIONI

Le sanzioni pecuniarie per le violazioni del regolamento sull’AI sono state fissate in percentuale del fatturato annuo globale nell’esercizio finanziario precedente della società che ha commesso il reato o, se superiore, in un importo predeterminato. Ciò ammonterebbe a 35 milioni, o il 7% per le violazioni relative ad applicazioni di IA vietate, 15 milioni o il 3% per violazioni degli obblighi del regolamento sull’AI e 7,5 milioni o l’1

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: