Blog GUERRE DI RETE – Blackout su Gaza
Una nuova uscita di Guerre di Rete, la cyber newsletter di Carola Frediani, che stavolta ci parla del ruolo di internet a Gaza, di proteste pro-Palestina su Roblox e di avvelenamento di AI
Guerre di Rete – una newsletter di notizie cyber
a cura di Carola Frediani
N.171 – 28 ottobre 2023
Aziende di sorveglianza cyber mobilitate
Mentre sulla Striscia rischia di calare il silenzio delle comunicazioni, Israele – riferisce il quotidiano israeliano Haaretz – ha reclutato le principali aziende che vendono strumenti di sorveglianza digitale. “Tra queste ci sono imprese di cyber offensive come NSO, Rayzone, Paragon e Candiru; diverse società di intelligence digitale come Cobwebs, AnyVision e Intelos; oltre a decine di aziende di difesa, tra cui Cato Networks, Palo Alto, Persist e persino ActiveFence, che fornisce servizi di anti-disinformazione”, scrive la testata.
Ma il conflitto continua a tracimare nella dimensione digitale (che, come sapete e come ho ricordato nella scorsa edizione, è quella su cui si concentra questa newsletter) anche e soprattutto nella parte informativa-dimostrativa. A volte in forme davvero inusuali.
Manifestazioni su Roblox
Su Roblox – gioco e universo virtuale per bambini e ragazzini, molto popolare in tutto il mondo – sono state documentate manifestazioni “virtuali” per la Palestina. L’epicentro sembra essere la Malesia, dove si sono registrate anche manifestazioni in strada. Sono andata su Roblox, e in effetti, anche se la manifestazione era conclusa, ci sono vari gruppi a sostegno della Palestina, alcuni più vecchi, altri nati o rivitalizzati con molti messaggi negli ultimi drammatici giorni.
Intanto, l’exchange di criptovalute Binance ha congelato i conti legati ai militanti di Hamas su richiesta delle forze dell’ordine israeliane. Secondo un post su WeChat del 10 ottobre di Yi He, cofondatore dell’exchange, il blocco è rivolto ad Hamas e non al popolo palestinese, scrive Cointelegraph.
E Telegram ha bloccato due canali di Hamas ma solo su dispositivi Android in seguito alle linee guida del Play store di Google, riferiscono varie testate.
AI E CREATORI
Avvelenare il dato
Un nuovo tipo di attacco promette di contrastare le aziende di AI generativa che usano il lavoro degli artisti, senza il loro consenso, per addestrare i propri modelli. La metodologia, sviluppata da un team guidato da Ben Zhao, professore all’University of Chicago, consentirà agli artisti di aggiungere delle modifiche (invisibili a occhio umano) alle loro opere prima di caricarle online. Col risultato che, se queste sono inserite in un set di addestramento per l’AI, il modello rischia di dare risultati caotici e imprevedibili.
“L’uso di questo strumento per “avvelenare” i dati di addestramento potrebbe danneggiare le future iterazioni di modelli di AI che generano immagini, come DALL-E, Midjourney e Stable Diffusion, rendendo inutili alcuni dei loro risultati: i cani diventano gatti, le auto diventano mucche e così via”, scrive il MIT Technology Review, che ha avuto accesso in anteprima alla ricerca, presentata per peer-review alla conferenza di sicurezza informatica Usenix.
La novità del paper è così espressa dagli stessi autori: “il nostro lavoro dimostra (…) che gli attuali modelli di diffusione da testo a immagine sono molto più suscettibili agli attacchi di avvelenamento (data poisoning) di quanto non si creda comunemente” (…). “Sorprendentemente, dimostriamo che un numero moderato di attacchi Nightshade [così li chiamano, ndr] può destabilizzare le caratteristiche generali di un modello generativo testo-immagine, disabilitando di fatto la sua capacità di generare immagini significative. Infine, proponiamo l’uso dell’attacco Nightshade e di strumenti simili come ultima difesa per i creatori di contenuti contro web scrapers che ignorano le direttive opt-out/do-not-crawl e discutiamo le possibili implicazioni per i creatori di modelli e di contenuti”, scrivono ancora gli autori.
In base alla ricerca, con 50 campioni di immagini così ”avvelenate”, un attaccante può manipolare ad esempio Stable Diffusion – uno dei più noti tool con cui generare immagini – per influenzare il risultato di prompt specifici (detta un po’ semplicisticamente: se si vuole generare immagini di cani, con 50 campioni avvelenati, le immagini prodotte dal prompt “cane” iniziano a essere deturpate; con 300, escono dei gatti).
Il team di Zhao ha anche sviluppato Glaze, un altro sistema che consente agli artisti di “mascherare” il proprio stile personale. Tuttavia “Nightshade fa un ulteriore passo avanti – scrive Ars technica – corrompendo i dati di addestramento. In sostanza, inganna i modelli di intelligenza artificiale inducendoli a identificare erroneamente gli oggetti all’interno delle immagini. (..) Per fare ciò Nightshade prende un’immagine del concetto desiderato (ad esempio, un’immagine reale di un “cane”) e la modifica sottilmente in modo che mantenga il suo aspetto originale, ma sia influenzata nello spazio latente (codificato) da un concetto completamente diverso (ad esempio, “gatto”). In questo modo, a un controllo umano o a un semplice controllo automatico, l’immagine e il testo sembrano allineati. Ma nello spazio latente del modello, l’immagine presenta caratteristiche sia del concetto originale che di quello avvelenato, il che porta il modello fuori strada quando viene addestrato sui dati”.
Lo spazio latente è, in sintesi, la rappresentazione dei dati compressi da parte di una rete neurale profonda (per una definizione più appropriata e articolata andate qua).
QUI LA VERSIONE COMPLETA DELLA NEWSLETTER
Interessante vedere come le aziende di sicurezza digitale siano coinvolte nella situazione attuale. Israele attinge a un arsenale di esperti, inclusi nomi noti come NSO e Paragon. Nel frattempo, la dimensione digitale del conflitto si estende a piattaforme inaspettate come Roblox, dove si manifestano virtualmente opinioni sulla Palestina. Un intreccio di realtà e mondo digitale che non smette di sorprenderci! 🌐