GUERRE DI RETE – AI Act, via libera dai governi

Un nuovo estratto dalla newsletter di Carola Frediani, che analizza il via libero definitivo all’AI Act, la prima regolamentazione al mondo sull’Intelligenza Artificiale

--------------------------------------------------------------
INTELLIGENZA ARTIFICIALE PER LA POSTPRODUZIONE, CORSO ONLINE DAL 17 GIUGNO

--------------------------------------------------------------

Guerre di Rete – una newsletter di notizie cyber
di Carola Frediani
N.179 – 3 febbraio 2024

--------------------------------------------------------------
OPEN DAY SCUOLA SENTIERI SELVAGGI, IN PRESENZA/ONLINE IL 7 GIUGNO!

--------------------------------------------------------------

EUROPA
AI Act, ok dei governi, con qualche mugugno

L’AI Act – Il Regolamento Ue sull’intelligenza artificiale – è stato approvato all’unanimità dagli ambasciatori dei 27 Paesi (Coreper) venerdì 2 febbraio. Si è trattato del passaggio decisivo e più delicato dopo l’accordo politico raggiunto a dicembre.
Il 24 gennaio la presidenza belga del Consiglio dei ministri dell’UE aveva presentato la versione finale del testo, durante una riunione tecnica. Diversi Stati membri avevano mantenuto delle riserve, ma sono state infine sciolte il 2 febbraio con l’adozione della legge sull’AI da parte del Comitato dei rappresentanti permanenti (Coreper), scrive Euractiv. I tre governi che avevano mostrato resistenze – essenzialmente Francia in prima linea, Germania e più defilata Italia – si sono sfilacciati verso la fine, anche grazie a divergenze interne sull’AI Act rispetto a chi voleva modificarlo.

----------------------------
SCUOLA DI CINEMA TRIENNALE: SCARICA LA GUIDA COMPLETA!

----------------------------

Con l’approvazione del Coreper, il testo (lo trovate qua e linkato alla fine) passerà ancora dagli eurodeputati delle due commissioni parlamentari che esaminano le proposte di legge sull’AI per conto del Parlamento – le commissioni per il Mercato interno e la protezione dei consumatori e per le Libertà civili, la giustizia e gli affari interni. Infine il tutto sarà sottoposto al voto di tutti gli eurodeputati in una sessione plenaria del Parlamento per l’adozione entro aprile.

A questo punto, “la maggior parte di coloro che hanno lavorato alla legge sull’AI in Parlamento sono fiduciosi che la legge passerà senza modifiche”, scrive Politico, specificando che la Commissione ha cercato di rassicurare i Paesi più incerti promettendo di tenere conto di alcune delle questioni sollevate attraverso delle dichiarazioni formali che indirizzeranno l’implementazione della legge.

Il commento del corelatore dell’AI Act, Brando Benifei

Brando Benifei, europarlamentare italiano e corelatore dell’AI Act, era presente proprio venerdì a un convegno sull’AI organizzato dall’Università di Genova (a cui ha partecipato anche Guerre di Rete, per cui possiamo riportare direttamente le sue parole e le risposte alla domande fatte).

“Il voto in plenaria del Parlamento potrebbe avvenire già tra marzo e aprile”, ha detto l’europarlamentare specificando di aver scritto alla Presidente del Parlamento Ue Roberta Metsola, chiedendo di dare priorità al file in modo da riuscire a votare già a marzo. L’idea è di accelerare sui tempi di implementazione, che a detta di Benifei sarebbero i seguenti: sei mesi per l’entrata in vigore dei divieti (“quindi se approvazione a marzo-aprile parliamo di circa ottobre”); un anno per gli obblighi sulla trasparenza; due anni per il conformity assessment (procedura di conformità) sui sistemi ad alto rischio (in questo ultimo caso servono degli standard che si devono ancora sviluppare, commenta il corelatore). Siccome però a giugno ci sono le elezioni europee, l’Unione proporrà “una procedura di compliance anticipata volontaria, con incentivi, al fine di iniziare già ad applicare la norma”, ha detto Benifei. Si tratta dell’AI Pact, da non confondere con l’AI Act.

Benifei è poi tornato su alcuni degli usi vietati, ad esempio la polizia predittiva. “Alcuni governi non volevano che fosse vietata ed è stato l’ultimo punto che abbiamo chiuso [nelle trattative, ndr]. Abbiamo stabilito che non si possono individuare singole persone come possibili criminali, per noi il principio di non colpevolezza è essenziale. Invece non vietiamo la crime analytics, ad esempio la possibilità di individuare delle zone più a rischio. Ovviamente la crime analytics rientra nei sistemi catalogati dall’AI Act come ad alto rischio [quindi deve seguire le procedure richieste, ndr]”.

Per quanto riguarda i modelli di AI general purpose ad alto impatto e con rischio sistemico (high-impact GPAI models with systemic risk) per cui sono previsti obblighi più stringenti come valutazioni del modello, dei rischi sistemici, test di sicurezza ecc (li trovate qua) Benifei conferma che “si applicheranno a GPT4 e Gemini, e anche ai modelli europei quando cresceranno. Tuttavia molti aspetti devono ancora essere determinati da parte del nuovo AI Office – prosegue il politico – specie per quanto riguarda i principi di safety (sicurezza), sotto supervisione del Parlamento. La base è un certo livello di FLOPs [la misura della complessità computazionale, ndr] ma ci saranno anche altri criteri, come il numero di utenti o dei parametri”.

Su open source e ricerca, Benifei dice che “il Regolamento non si applica a ricerca e sviluppo (né alla sicurezza nazionale, non essendo proprio il suo ambito), e prevede una esenzione parziale per l’open source. Dunque non si applica allo sviluppo e distribuzione, se non c’è volontà commerciale. In pratica lo sviluppatore open source non ha responsabilità ma sarà responsabile chi utilizza quel sistema per una specifica applicazione ad alto rischio (il provider). Dunque lo sviluppatore open source è tutelato. Ma nello stesso tempo abbiamo voluto evitare che l’open source usato ad esempio da Meta fosse escluso”.

Qui il testo attuale dell’AI Act. (via LIBE)
Per altre informazioni su AI Act vedi quanto era già uscito a dicembre: comunicato stampa Parlamento Ue; conferenza stampa (video); comunicato Commissione; Consiglio.

Il commento dell’Ada Lovelace Institute

Poco prima dell’approvazione dell’AI Act di venerdì, così aveva commentato l’Ada Lovelace Institute, prestigioso istituto di ricerca britannico nato in collaborazione con l’Alan Turing Institute, la Royal Society, la British Academy e altre istituzioni culturali: “La legge è stata creata con l’obiettivo di proteggere la salute, la sicurezza e i diritti fondamentali e di fornire certezza e chiarezza giuridica. Pur non essendo perfetto, il testo finale rappresenta un compromesso praticabile e pragmatico che, se attuato correttamente, può contribuire a raggiungere questi obiettivi. La legislazione potrebbe sostenere la leadership dell’UE diventando un importante e influente modello globale per la regolamentazione dell’AI”.

AI E POLITICA
Scontro Casa Bianca e lobbisti tech sulla regolazione dell’AI

Lo scorso ottobre la Casa Bianca ha firmato un importante ordine esecutivo sull’intelligenza artificiale. Tra le altre cose il provvedimento dava al Dipartimento del Commercio – che ospita il National Institute of Standards and Technology, un’agenzia che si occupa della definizione di regole e standard per la tecnologia –  la scadenza del 28 gennaio per elaborare uno schema che obbligasse le aziende a dare alcune informazioni al governo sui nuovi potenti modelli di AI in fase di sviluppo. Informazioni che includono la potenza di calcolo, la proprietà dei dati utilizzati e soprattutto i test di sicurezza.

Ora l’amministrazione Biden vuole implementare il provvedimento ricorrendo al Defense Production Act (una legge del 1950, nata ai tempi della guerra di Corea per velocizzare il rifornimento di materiali e risorse per questioni di sicurezza nazionale) per obbligare le aziende tecnologiche a informare il governo quando addestrano un modello di intelligenza artificiale utilizzando una quantità significativa di potenza di calcolo.

Gina Raimondo, segretaria al Commercio, “ha anche confermato che il Dipartimento del Commercio implementerà presto un altro requisito dell’ordine esecutivo di ottobre, che richiede ai fornitori di cloud computing come Amazon, Microsoft o Google di informare il governo quando un’azienda straniera utilizza le loro risorse per addestrare un modello linguistico di grandi dimensioni”, scrive Wired Usa specificando che i progetti stranieri devono essere segnalati quando superano la soglia iniziale di 10^26 FLOPs (floating-point operations per second, un’unità di misura della performance computazionale), lo stesso limite oltre il quale un modello di AI (americano) deve dare informazioni al Dipartimento del Commercio (per capirci, GPT-4 sarebbe di poco sotto questa soglia, secondo quanto riportato dal Congressional Research Service).

“Non possiamo permettere che attori non statali o la Cina o altre persone che non vogliamo possano accedere al nostro cloud per addestrare i loro modelli”, ha detto Raimondo in un’intervista a Reuters. “Usiamo controlli sulle esportazioni di chip”, ha osservato. “Quei chip si trovano in data center cloud americani, quindi dobbiamo pensare anche a chiudere questa strada per potenziali attività dannose”.
La proposta richiederebbe alle aziende statunitensi di cloud computing di verificare l’identità dei clienti che si iscrivono o mantengono account attraverso un programma “Know-Your-Customer (KYC)”.

Ma tutto questo attivismo dell’amministrazione Biden sull’AI sta sollevando resistenze da parte della lobby tecnologica, i legislatori del GOP e gli attivisti conservatori.
“Un gruppo legato al network conservatore Koch ha tempestato il Dipartimento del Commercio con richieste di informazioni e un’azione legale. I lobbisti del settore tecnologico hanno dichiarato che potrebbero lanciare una sfida legale non appena il Dipartimento del Commercio inizierà a esercitare la sua nuova autorità in materia di AI alla fine di gennaio”, scrive Politico.
Questi gruppi hanno respinto già da ottobre i nuovi requisiti per le aziende private previsti dall’ordine esecutivo, sostenendo che avrebbero soffocato l’innovazione nel settore. Una argomentazione sentita molte volte anche per quanto riguarda l’europeo AI Act.

Leggi anche: Fact Sheet: Biden-⁠Harris Administration Announces Key AI Actions Following President Biden’s Landmark Executive Order.


QUI LA VERSIONE COMPLETA DELLA NEWSLETTER

--------------------------------------------------------------
#SENTIERISELVAGGI21ST N.17: Cover Story THE BEAR

--------------------------------------------------------------

    ISCRIVITI ALLA NEWSLETTER DI SENTIERI SELVAGGI

    Le news, le recensioni, i corsi di cinema, la riviste, i libri, gli eventi e tutte le nostre iniziative


    Scrivi un commento

    Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *