GUERRE DI RETE – Effetto Sora sull’informazione

Nuovo estratto dalla cybernewsletter di Carola Frediani, che analizza gli effetti sull’informazione di Sora, il nuovo text-to-video di OpenAI, oltre che raccontare dell’accordo tra Google e Reddit

--------------------------------------------------------------
CORSO COMUNICAZIONE DIGITALE PER IL CINEMA DALL'11 APRILE

--------------------------------------------------------------

Guerre di Rete – una newsletter di notizie cyber
di Carola Frediani
N.181 – 25 febbraio 2024

--------------------------------------------------------------
#SENTIERISELVAGGI21ST N.17: Cover Story THE BEAR

--------------------------------------------------------------

EFFETTO SORA
Come adattarsi all’ondata di contenuti sintetici sempre più realistici

Sam Gregory, direttore dell’ong WITNESS che da anni usa video per documentare violazioni dei diritti umani nel mondo, ha fatto un’analisi a caldo di come una tecnologia come Sora possa avere un impatto sulla fiducia in ciò che vediamo. Si tratta del nuovo modello text-to-video di OpenAI, in grado di produrre video sintetici di grande realismo da istruzioni testuali. Anche se non ancora aperto al pubblico, OpenAI ha diffuso vari esempi di video così prodotti (li vedete qua).

Fino ad oggi, spiega Gregory in vari post sui social media, i punti di vista multipli sono stati un buon punto di partenza per valutare se un evento è realmente accaduto così come il contesto in cui è avvenuto. Inoltre, in quasi tutti gli episodi di violenza da parte dello Stato o della polizia viene contestato cosa è successo prima/dopo l’accensione di una telecamera che magari riprende un’azione o presunta reazione.
Oppure, una ripresa traballante, fatta da qualcuno con una videocamera a mano, è un “potente indicatore di credibilità emotiva”, di autenticità.

Ma ora ci troviamo di fronte a video sintetici realistici che possono adottare diversi stili, anche quello amatoriale. O ad angoli di ripresa multipli, la possibilità di creare contemporaneamente più punti di vista e angolazioni della telecamera sulla stessa scena. E la possibilità di “aggiungere video (essenzialmente out-paint per i video) avanti e indietro nel tempo da un fotogramma esistente”. [L’outpainting è una funzione, presente in generatori di immagine come DALL-E, di estendere un’immagine oltre i suoi confini originali].

“L’abilità più interessante di Sora – commenta anche il ricercatore Erik Salvaggio – guardando alle specifiche tecniche, è che può rappresentare scenari multipli che si *concludono* con una data immagine. Credo che questo sarà oggetto di discussione in alcune conferenze sulla disinformazione” (…) Supponiamo di avere un video sui social che inizia dal momento in cui la polizia inizia a usare la forza in modo ingiustificato contro una persona in strada”. Le specifiche tecniche dicono “che si possono creare senza soluzione di continuità fino a 46 secondi di video sintetico che termina nel punto in cui inizia il video della violenza. Ciò che accade in quei 46 secondi è guidato dal tuo prompt, che si tratti di un adolescente che lancia una bomba a mano contro un poliziotto sorridente o di un uomo gentile che offre fiori alla polizia arrabbiata”.

In un certo senso, commenta ancora Gregory, “i video realistici di eventi fittizi si avvicinano alle attuali modalità di condivisione di video e immagini shallowfake (ad esempio, video mal contestualizzati o leggermente modificati trasposti da una data o da un’ora a un altro luogo), in cui i dettagli esatti non contano, purché siano sufficientemente convincenti rispetto alle ipotesi”.
Uno shallowfake, come ho raccontato più volte, è un video reale che è stato manipolato con semplici strumenti di editing a fini di propaganda. Si chiama così in contrapposizione a deepfake perché non usa l’intelligenza artificiale.

Ma torniamo a Gregory. Il problema, dice, è che nei video realistici di eventi che non sono mai accaduti (come quelli prodotti da Sora e non riadattati o decontestualizzati da video reali), “mancherebbe la possibilità di cercare il riferimento – cioè quello che facciamo ora con la ricerca shallowfake, quando usiamo la ricerca inversa di un’immagine per trovare l’originale, o la funzione About this Image di Google”.

“Con l’espansione del text-to-video e del video-to-video – conclude Gregory –  dobbiamo capire come rafforzare la fiducia e garantire la trasparenza dei media, approfondire le capacità di rilevamento, restringere gli usi inaccettabili e pretendere la responsabilizzazione di tutta la filiera dell’AI”.

Vorrei allacciarmi a queste considerazioni per aggiungere alcune riflessioni. Forse dovremmo rovesciare il paradigma, e invece di preoccuparci solo di quello che, nel mondo informativo, potrebbe essere sintetico/ falso/ decontestualizzato, pensando a come individuarlo e dimostrarlo (etichettarlo prima, sbugiardarlo poi), concentrarci semmai su ciò che è o vorrebbe essere autentico/ verificato/ contestualizzato.

Perché ammesso e non concesso che riusciremo, in un modo o in un altro, a bollare e bollinare come AI gran parte dei contenuti sintetici che circoleranno (ma al momento sono quasi tutti concordi nel dire che almeno una parte sfuggirà a questa capacità di individuazione, vedi il dibattito tecnico sui watermark di cui ho scritto qua), il crollo di fiducia nell’informazione rischia di risucchiare tutto il resto, come l’acqua di un lavandino stappato, inclusi i video, le foto, gli audio, le dichiarazioni, le notizie, le informazioni autentiche.

Allora, se c’è questo rischio, bisogna investire nel verificare e contestualizzare tutto quello che viene immesso in circolo dai media o da chiunque voglia fare informazione. Ricostruire e mettere a disposizione tutta la filiera non solo dell’AI, ma dei contenuti autentici. Permettere a tutti di risalire la corrente del flusso informativo a ritroso. I lettori come salmoni, esatto. Ogni artefatto informativo per quanto minuscolo non dovrebbe essere una monade slegata dal resto, ma dovrebbe avere una serie di connessioni che permettano di capire da dove arriva, che percorso ha fatto, assieme a chi o cosa altro stava, come è mutato, come è stato tagliato o modificato. E i lettori a quel punto dovrebbero abituarsi al fatto che se vedono 4 foto buttate così, de botto, senza senso, in un post social così come su una pagina cartacea di un giornale, senza tutto quel contorno di informazioni che possono decidere o meno di andare a testare e verificare, ecco allora non vale la pena manco di fermarsi a guardarle. Certo, tutto ciò implica, da un lato, uno sforzo aggiuntivo da parte di chi fa informazione; dall’altro, di abituarsi a essere molto più trasparenti sulle modalità con cui si lavora, e questo è qualcosa che suscita sempre molta resistenza. Ma credo che alla fine sarebbe un vantaggio per tutti. Così, my 2 cents, come si dice sull’internet.

La media literacy parte dagli insegnanti
Legato a questo discorso è anche l’importanza dell’educazione ai media, quella che in inglese si definisce media literacy. E nello specifico l’importanza di insegnare come riconoscere e analizzare contenuti online, nelle scuole. Ne parla in inglese in un podcast Giancarlo Fiorella (Bellingcat), che spiega come hanno sviluppato un curriculum per formare gli insegnanti in UK.

Come fare grande divulgazione ai giovani sull’AI

Altra iniziativa rivolta agli studenti britannici. La Royal Society ha organizzato una serie di conferenze sul tema “La verità sull’intelligenza artificiale”. In questa qua sotto il professor Mike Wooldridge spiega il funzionamento dell’apprendimento nell’intelligenza artificiale, e cosa può fare questa tecnologia, utilizzando una serie di divertenti esperimenti e dimostrazioni. Un video di divulgazione scientifica rivolto ai giovani ma di altissimo livello, da ogni punto di vista. Consigliatissimo.
Interessante anche per adulti (potete guardarlo coi sottotitoli in italiano se volete, scegliendo Rotellina > Subtitles >English >ricliccate su Subtitles >Autotranslate >Lingua che desiderate)
VIDEO YOUTUBE

AI E CONTENUTI
La scommessa di Reddit

Reddit, la nota piattaforma social, strutturata in forum tematici (subreddits), ha stretto un accordo con Google (del valore di circa 60 milioni di dollari all’anno) per rendere disponibili i suoi contenuti per l’addestramento dei modelli di intelligenza artificiale del colosso tech. La mossa si inquadrerebbe all’interno della prossima quotazione in Borsa della società, riferisce Reuters (qua il prospetto depositato per un’offerta pubblica iniziale, IPO,  sul New York Stock Exchange).

Reddit è presente in alcuni dataset usati per l’addestramento dell’AI come outbound links, ovvero sono presenti i contenuti di pagine esterne che sono stati linkati e votati un certo numero di volte dai suoi utenti. Nel documento alla SEC, Reddit scrive che “alcune aziende hanno costruito modelli linguistici commerciali di grandi dimensioni utilizzando i dati di Reddit senza stipulare un contratto di licenza con noi”.
Tuttavia, ora la musica è cambiata.
“Crediamo che i dati della nostra piattaforma, in continua crescita, saranno un elemento chiave per l’addestramento di modelli linguistici di grandi dimensioni (“LLM”) e serviranno come ulteriore canale di monetizzazione per Reddit”, si legge nel documento. Dove si riconosce tuttavia che proprio gli LLM sono in competizione con Reddit.
Leggi anche: 404media


 

QUI LA VERSIONE COMPLETA DELLA NEWSLETTER

--------------------------------------------------------------
CORSO ONLINE SCRIVERE E PRESENTARE UN DOCUMENTARIO, DAL 22 APRILE

--------------------------------------------------------------

    ISCRIVITI ALLA NEWSLETTER DI SENTIERI SELVAGGI

    Le news, le recensioni, i corsi di cinema, la riviste, i libri, gli eventi e tutte le nostre iniziative


    Array

    Un commento

    • Ciao,

      Se la tua azienda ha bisogno di rimuovere recensioni indesiderate dei clienti, siamo qui per aiutarti. Offriamo un servizio specializzato per reimpostare la tua scheda su Google Maps a 0 recensioni o eliminarla permanentemente (non è possibile eliminare recensioni singole).

      Presentiamo un reclamo legale con i nostri esperti legali. Il costo del reclamo è di €697 e garantiamo un rimborso nel caso in cui non riuscissimo a eliminare la scheda di Google e a rimuovere tutte le recensioni.