Obiettivo della normativa è quello di garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale. Von der Leyen: "Novità mondiale"
Dopo un negoziato fiume di oltre 36 ore, le istituzioni Ue hanno raggiunto l'accordo sull'AI Act, la legge europea sull'intelligenza artificiale. Si tratta del primo quadro normativo sui sistemi di IA nel mondo. Lo annuncia in un tweet il commissario europeo al Mercato Interno, Thierry Breton. Obiettivo della normativa è quello di garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, stimolando al tempo stesso l'innovazione e rendendo l'Europa leader nel settore.
© Tgcom24
"Storico! L'Ue diventa il primo continente a stabilire regole chiare per l'uso dell'IA. L'AI Act è molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell'Ue per guidare la corsa globale all'intelligenza artificiale", ha commentato Breton su X."Il meglio - ha promesso - deve ancora venire!".
Secondo il presidente della Commissione Ue, Ursula von der Leyen: "La legge europea sull'intelligenza artificiale è una novità mondiale - ha scritto su X -. Un quadro giuridico unico per lo sviluppo dell'intelligenza artificiale di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese. Un impegno che abbiamo assunto nei nostri orientamenti politici e che abbiamo mantenuto".
Soddisfazione è stata espressa anche dal presidente del Parlamento europeo, Roberta Metsola, che ha definito l'intesa odierna come un "momento storico per l'Europa digitale". "Accolgo con favore l'accordo storico sul nuovo AI Act. Una legislazione all'avanguardia, responsabile e completa che fissa standard globali. L'Europa ha guidato e ha dato risultati", ha scritto su X.
I negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l'uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L'RBI "post-remoto", si spiega, verrebbe utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.
I sistemi di identificazione biometrica "in tempo reale", si legge ancora, sarebbero conformi a condizioni rigorose e il loro uso sarebbe limitato nel tempo e nel luogo, ai fini di: ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, o localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (tra cui terrorismo, traffico di esseri umani, omicidio, stupro).
Quanto alle pratiche vietate, la lista dei divieti include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; l'IA usata per sfruttare le vulnerabilità delle persone.
Sistemi ad alto rischioL'accordo prevede, inoltre, una serie di obblighi per i sistemi ad alto rischio, tra cui quello di una valutazione dell'impatto sui diritti fondamentali. In questa categoria saranno inseriti anche i sistemi di IA usati per influenzare l'esito delle elezioni e il comportamento degli elettori. I cittadini, poi, avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio che hanno un impatto sui loro diritti.
Altro punto fondamentale riguarda i guardrail per i sistemi di IA generale, e in particolare per quelli ad alto impatto con rischio sistemico, per cui sono previsti obblighi più stringenti che vanno dalla valutazione del modello, alla valutazione e mitigazione dei rischi sistemici, alla protezione della sicurezza informatica. Il testo include infine misure a sostegno dell'innovazione e delle Pmi e un regime di sanzioni, con multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l'1,5% del fatturato, a seconda della violazione e delle dimensioni dell'azienda.