GUERRE DI RETE – Dove è finita l’etichetta AI
Nella nuova versione della cybernewsletter, Carola Frediani ci racconta di come sia sempre più complicato individuare i contenuti creati con l’AI sui social network
Guerre di Rete – una newsletter di notizie cyber
di Carola Frediani
N. 214 – 27 ottobre 2025
Il cinema in Timeline – Corso online dal 26 gennaio 2026

-----------------------------------------------------------------
ETICHETTE AI
Ma le piattaforme stanno usando le etichette AI?
STORY EDITOR, corso online dal 20 gennaio 2026

-----------------------------------------------------------------
Rilevare con precisione i contenuti generati dall’AI è generalmente difficile per gli esseri umani, e sta diventando sempre più complicato. Per questo è importante un impegno convinto da parte delle piattaforme per trovare soluzioni che aiutino la trasparenza.
Ora, le principali aziende tecnologiche, alcune in prima linea proprio nella creazione di strumenti di AI, avevano promesso di aiutare gli utenti a identificare i contenuti sintetici aggiungendo delle etichette alle immagini e ai video creati con l’intelligenza artificiale. Si trattava forse di una promessa da marinaio? La testata investigativa Indicator ha provato ad andare a vedere come stavano le cose.
Risultato? Secondo la testata, cinque grandi piattaforme hanno ripetutamente omesso di etichettare i contenuti generati dall’intelligenza artificiale.
Indicator ha pubblicato 516 post con immagini e video generati dall’intelligenza artificiale su Instagram, LinkedIn, Pinterest, TikTok e YouTube. Ma solo poco più del 30 per cento è stato correttamente etichettato come AI.
Non solo: secondo Indicator, Google e Meta avrebbero regolarmente omesso di etichettare pure i contenuti che erano stati creati utilizzando i propri strumenti di intelligenza artificiale generativa.
TikTok invece avrebbe etichettato solo i contenuti sintetici creati con il proprio strumento in-app. Mentre Pinterest sarebbe stato il più efficace nell’etichettare immagini sintetiche (anche se con un tasso di successo del 55 per cento…).
La maggior parte delle aziende non ha replicato all’indagine, in alcuni casi limitandosi a commentare come l’etichettatura dell’AI sia un lavoro in corso che migliorerà nel tempo.
Per una piattaforma, rilevare contenuti sintetici che sono stati generati da altri non è compito facile, specie se gli utenti cercano di evadere i meccanismi di rilevazione eliminando i metadati dal contenuto o modificandone l’aspetto. Ma secondo gli esperti intervistati da Indicator, come Sam Gregory, direttore dell’Ong di documentazione delle violazioni dei diritti umani WITNESS, i dirigenti del settore tecnologico non starebbero “prendendo sul serio l’impatto sistemico della corrosione della nostra capacità di distinguere l’autentico dal sintetico e la necessità di collaborare per contrastare questa minaccia epistemica”. E questo malgrado si parli da tempo di standard condivisi per facilitare l’individuazione di contenuti sintetici, come il C2PA.
Secondo Indicator, “lo stato attuale dell’etichettatura dell’AI potrebbe riflettere i limiti di un approccio di autoregolamentazione. La situazione cambierà nell’estate del 2026, quando in California e nell’Unione Europea entreranno in vigore le normative che includono i requisiti relativi all’etichettatura”. Per l’Europa parliamo ovvamente dell’AI Act.
Qui trovate lo speciale di Indicator. Facta-news lo ha tradotto in italiano.
La tendenza evidenziata da Indicator conferma un precedente studio dello scorso luglio di AI Forensics, limitato però a TikTok e Instagram, secondo il quale solo la metà dei contenuti generati dall’intelligenza artificiale su TikTok riceverebbe un’etichettatura adeguata; e solo il 23 per cento su Instagram. Il problema sottolineato da AI Forensics però era che oltre l’80% dei contenuti generati dall’intelligenza artificiale fossero fotorealistici, aumentando dunque il potenziale di inganno.
“I feed dei social media sono sempre più pieni di contenuti generati dall’intelligenza artificiale che “ingannano l’algoritmo” grazie alla loro plausibilità visiva e al loro potenziale virale. Questo fenomeno, soprannominato “AI slop”, rappresenta contenuti sintetici scadenti e potenzialmente ingannevoli su una scala senza precedenti”, scrivevano i ricercatori.
Nel caso non fosse ancora entrato nel vostro vocabolario, con AI slop si intendono contenuti di qualità medio-bassa creati con strumenti di intelligenza artificiale, secondo The Conversation. A me piace più la definizione su Wikipedia: “un contenuto digitale realizzato con l’intelligenza artificiale generativa, in particolare quando viene percepito come privo di impegno, qualità o significato profondo e caratterizzato da un volume di produzione eccessivo” (fino a poco fa non c’era una definizione chiarissima del termine, a giugno è stato aggiunto al Cambridge Dictionary).
Ad agosto, secondo un’analisi del Guardian, quasi uno su dieci tra i canali YouTube in più rapida crescita a livello globale mostravano solo contenuti generati dall’intelligenza artificiale. Ma questi contenuti erano perlopiù AI slop. “L’intelligenza artificiale sta inondando Internet di contenuti che sono essenzialmente spazzatura”, commentava sempre sul Guardian Akhil Bhardwaj, professore associato della facoltà di management dell’Università di Bath. “Questa ‘enshittifcation’ sta rovinando le comunità online su Pinterest, entrando in competizione per i ricavi con gli artisti su Spotify e inondando YouTube di contenuti di scarsa qualità”.
Enshittification sta per degrado progressivo delle piattaforme digitali, termine coniato dall’autore e giornalista Cory Doctorow.
QUI LA VERSIONE COMPLETA DELLA NEWSLETTER























