Blog GUERRE DI RETE – Chi domina la conversazione sull’AI

A partire da settembre, con il summit britannico, la conversazione sull’AI si è intensificata. La nuova puntata della newsletter di Carola Frediani ci porta al centro del dibattito

--------------------------------------------------------------
CORSO DI SCENEGGIATURA ONLINE DAL 6 MAGGIO

--------------------------------------------------------------

Guerre di Rete – una newsletter di notizie cyber
di Carola Frediani
N.172 – 12 novembre 2023

--------------------------------------------------------------
#SENTIERISELVAGGI21ST N.17: Cover Story THE BEAR

--------------------------------------------------------------

AI E POLITICA
Chi domina la conversazione sull’intelligenza artificiale

Tra fine ottobre e inizio novembre abbiamo assistito a un climax di incontri, iniziative e dichiarazioni di policy sull’intelligenza artificiale. Ordine esecutivo americano, dichiarazione del G7, AI Safety Summit in UK, mentre sullo sfondo procedono, in una specie di corsa a ostacoli, gli ultimi lavori dell’AI Act, l’atteso regolamento europeo sull’AI che deve chiudersi all’inizio del nuovo anno per non ritrovarsi impantanato nelle prossime elezioni europee. Non potevano mancare le Nazioni Unite, che hanno appena creato un comitato consultivo che dovrebbe emanare a breve delle raccomandazioni.

Dunque dopo la corsa a far uscire i prodotti di AI generativa e aprirli al grande pubblico (che racconto da mesi a partire da questo numero della newsletter Guerre di Rete), ora siamo allo sprint dei politici, dei diplomatici e dei loro sherpa.

L’AI Safety Summit in Gran Bretagna

Dal suo canto, l’AI Safety Summit di inizio novembre, voluto dal primo ministro inglese Rishi Sunak, ha in qualche modo innescato una conversazione insieme più teorica e unilaterale, inducendo una serie di soggetti attivi nel settore dell’intelligenza artificiale o in generale della tecnologia a prendere posizione e a esprimersi pubblicamente.

A livello pratico il summit di due giorni ha prodotto un impegno legalmente non vincolante da parte di alcuni big del settore (OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft, Inflection e Meta) in cui si concede ad alcuni governi (inclusa l’Italia) di testare i loro ultimi modelli per verificare la sicurezza e altri rischi prima che vengano rilasciati alle aziende e ai consumatori. Inoltre, un gruppo internazionale di esperti –  inizialmente presieduto da Yoshua Bengio, professore di informatica all’università di Montreal e considerato tra i pionieri del deep learning – “redigerà un rapporto annuale sui rischi in evoluzione dell’AI, tra cui pregiudizi, disinformazione e rischi “esistenziali” più estremi, come facilitare lo sviluppo di armi chimiche”, scrive il FT.

The Bletchley Declaration e la sua ideologia trainante

Ma vale la pena anche qui andare a leggere le carte, ovvero il documento (policy paper) prodotto dal summit e intitolato The Bletchley Declaration. Dopo un primo tributo alle opportunità si passa ai rischi (del resto il tema del summit era la safety, la sicurezza).
Tra questi, e in generale tra le questioni che vanno esaminate, meritano considerazione la trasparenza, l’equità, l’adeguata supervisione umana, l’etica, l’attenuazione dei pregiudizi, la protezione dei dati. Una sfilza di principi molto generici e sui quali appare difficile obiettare (come obiettare alla pace nel mondo), se non fosse che è proprio andando nel dettaglio su questi temi che escono le magagne e le contraddizioni.

Dopodiché si arriva al cuore concettuale del documento:
“Particolari rischi per la sicurezza sorgono alla “frontiera” dell’AI, intesa come quei modelli di intelligenza artificiale che hanno un’ampia gamma di usi (general purpose), compresi i modelli di base (…) Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi involontari di controllo relativi all’allineamento con le intenzioni umane. Questi problemi sono in parte dovuti al fatto che queste capacità non sono pienamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da questi rischi in settori come la sicurezza informatica e le biotecnologie, nonché nei casi in cui i sistemi di AI di frontiera possono amplificare rischi come la disinformazione. Le capacità più significative di questi modelli di AI possono causare danni gravi, persino catastrofici, sia intenzionali sia non intenzionali (…). Affermiamo che è particolarmente urgente approfondire la comprensione di questi rischi potenziali e delle azioni per affrontarli”.

Intanto una breve analisi linguistica del documento. I riferimenti “AI di frontiera”,allineamento”, rischi o danni catastrofici o “esistenziali” sono segnaposti molto specifici della cartografia concettuale di una certa visione dell’AI. Quella che sottolinea come l’intelligenza artificiale sia avviata verso la creazione di una AGI (Artificial General Intelligence), un concetto come ho raccontato altre volte in newsletter piuttosto vago ma che allude allo sviluppo di un’intelligenza complessivamente superiore a quella umana, dotata di autonomia e capacità di agire, e quindi a rischio di risultare incontrollabile. Da questo primo assunto (estremamente divisivo e contestato nella comunità di ricercatori) discendono dunque una serie di rischi catastrofici, anzi, esistenziali, che cioè potrebbero arrivare a mettere a rischio la stessa umanità.

In genere chi promuove questa prospettiva appare poco interessato ad affrontare nel concreto i rischi e le questioni più di basso livello (si fa per dire, ma ovviamente di fronte al rischio estinzione è tutto di basso livello) legate alla trasparenza nell’uso dei dati e nella realizzazione dei modelli, alle violazioni della privacy, alla perpetuazione di pregiudizi e all’emergere di nuove forme di discriminazione algoritmica, al consumo di risorse, all’accentramento di questa tecnologia nella mani di poche grandi aziende, a cosa significa open source nell’AI, agli effetti di queste tecnologie (per altro ancora altamente imperfette anche in applicazioni molto limitate) nel mondo del lavoro, o della sanità, alla eventuale perdita o più probabilmente precarizzazione di posti di lavoro, alla speculazione finanziaria legata al settore e al rischio di bolla (Web3, remember?), e potrei andare avanti ancora perché le opportunità di questa tecnologia sono molte (qui nessuno le nega, a scanso di equivoci) ma le questioni da affrontare sono ugualmente numerose.

Chi vuole una AI aperta

Ma non era ancora finita. Sempre in quei giorni è arrivata anche un’altra lettera aperta (sulla politiche dell’AI si sta formando un epistolario che neanche Joseph Conrad), coordinata da Mozilla (la no profit dietro a Firefox e sostenitrice di vari progetti open source), e firmata da oltre un migliaio di ricercatori, attivisti e personalità del mondo tech. Ma cosa dice la lettera? Che bisogna spingere e promuovere la trasparenza così come modelli aperti di intelligenza artificiale e non modelli chiusi e proprietari, anche e soprattutto quando si parla di sicurezza:

Siamo a un punto critico nella governance dell’AI. Per mitigare i danni attuali e futuri dei sistemi di AI, dobbiamo favorire l’apertura, la trasparenza e l’ampio accesso. Questo deve essere una priorità globale. È vero che i modelli aperti e accessibili comportano rischi e vulnerabilità: possono essere abusati da attori malintenzionati o utilizzati da sviluppatori non adeguatamente preparati. Tuttavia, abbiamo visto più volte che lo stesso vale per le tecnologie proprietarie e che incrementare l’accesso pubblico e la supervisione rendono la tecnologia più sicura, non più pericolosa (…) Rappresentiamo prospettive diverse e a volte divergenti, comprese le diverse opinioni su come l’AI open source dovrebbe essere gestita e rilasciata. Tuttavia, su una cosa siamo fortemente d’accordo: approcci aperti, responsabili e trasparenti saranno fondamentali per mantenere la sicurezza nell’era dell’AI”.

Ci sono firme importanti, di peso, del mondo AI in questa lettera. C’è ovviamente Yann Lecun, Chief AI Scientist a Meta e considerato un altro pioniere del deep learning, che da tempo polemizza con i modelli chiusi e i fautori dell’AI doomerism. C’è Andrew Ng, già Google Brain, professore a Stanford, fondatore di DeepLearning.AI. C’è la nota scienziata cognitiva Abeba Birhane. C’è il tecnologo ed esperto di cybersicurezza Bruce Schneier. C’è la professoressa Melanie Mitchell, autrice di un bel libro sull’intelligenza artificiale di cui ho anche scritto nella mia newsletter e che è tradotto anche in italiano. Ex parlamentari europee che si sono occupate a lungo di tecnologia e diritti come Marietje Schaake. E molti altri.

Proprio Andrew Ng negli stessi giorni dichiarava ai media: “Ci sono sicuramente grandi aziende tech che preferirebbero non dover cercare di competere con l’open source, quindi stanno creando la paura che l’AI porti all’estinzione umana. È stata un’arma per i lobbisti per sostenere una legislazione che sarebbe molto dannosa per la comunità open source”.


QUI LA VERSIONE COMPLETA DELLA NEWSLETTER

--------------------------------------------------------------
CORSO ONLINE SCRIVERE E PRESENTARE UN DOCUMENTARIO, DAL 22 APRILE

--------------------------------------------------------------

    ISCRIVITI ALLA NEWSLETTER DI SENTIERI SELVAGGI

    Le news, le recensioni, i corsi di cinema, la riviste, i libri, gli eventi e tutte le nostre iniziative


    Array