Blog GUERRE DI RETE – Riconoscimento facciale alla sua prima crisi

Nuovo appuntamento con la newsletter su tecnologie e notizie cyber.

Guerre di Rete – una newsletter di notizie cyber
a cura di Carola Frediani
N.74 – 14 giugno 2020

Oggi parliamo di:
– riconoscimento facciale
– app Immuni
– attacchi a giornalisti/attivisti
– ransomware


RICONOSCIMENTO FACCIALE
Una delle conseguenze dell’uccisione di George Floyd a Minneapolis è stata anche di costringere all’angolo le tecnologie di riconoscimento facciale. Il movimento di protesta globale successivo alla sua morte ha infatti messo alcune aziende tech di fronte alle proprie contraddizioni, nel momento in cui esprimevano solidarietà col movimento ma nel contempo vendevano servizi e prodotti utilizzati dalle forze dell’ordine per sorvegliare e reprimere quegli stessi manifestanti.

L’onda d’urto di tale protesta antirazzista è stata tale da mandare in cortocircuito il già contestato riconoscimento facciale, riuscendo dove altri avevano fallito, in una dinamica decisamente interessante (e che meriterebbe di essere approfondita) in cui sono i movimenti sociali, addirittura di piazza, a incidere sullo sviluppo e l’adozione di tecnologie (e non è la tecnologia che abilita il movimento sociale, uno schema interpretativo forse più battuto fino ad oggi e che a volte ha peccato di soluzionismo tecnologico, in versione radicale-progessista).

Le aziende che hanno fatto marcia indietro
Ha iniziato Ibm. Che una settimana fa, in una lettera al Congresso Usa, ha comunicato di uscire dal business del generico riconoscimento facciale, e di opporsi all’utilizzo di tale tecnologia per sorveglianza di massa e profilazione razziale. Secondo Ibm la decisione era in cantiere da mesi, anche se questa sarebbe la prima uscita pubblica. La lettera chiedeva anche nuove leggi sull’uso responsabile di questa tecnologia e contro gli abusi della polizia (Axios).

Poi è stato il turno di Amazon, anche se la sua reazione è più ridotta (e per questo criticata da alcuni commentatori). Ha infatti detto di aver istituito una moratoria di un anno sull’uso da parte della polizia di Rekognition, il suo software di riconoscimento facciale basato sul cloud. Permette ai clienti di abbinare foto simili e comparare facce. I dipartimenti di polizia possono caricare sui server Amazon le foto di precedenti archivi e poi cercare di identificare qualcuno ripreso per strada (ad esempio da una videocamera di sorveglianza). Il software fornisce un punteggio di somiglianza che indica quanto sia probabile l’abbinamento. Lanciato nel 2016, non è chiaro quanti dipartimenti di polizia, negli Usa o altrove, ne facciano uso. La moratoria servirebbe a dare il tempo al Congresso per regolamentare un uso più “etico” del riconoscimento facciale anche da parte delle autorità (Ars Technica).

E poi è stata la volta di Microsoft. Il suo presidente Brad Smith ha comunicato la decisione di non vendere tecnologie di riconoscimento facciale ai dipartimenti di polizia americana finché non ci sarà una legge che le regolamenti e che tenga conto dei diritti umani (TechCrunch).

La richiesta di messa al bando

Certo, per molte di queste aziende si tratta di attendere un quadro regolatorio e sociale più favorevole e tranquillo per riprendere il business. E non mancano le critiche per il fatto che siano menzionati solo gli Stati Uniti (fra gli altri Garry Kasparov che si chiede se queste policy si applicheranno a Russia, Cina e Turchia, ad esempio). Ma soprattutto, per molti attivisti, l’obiettivo è arrivare alla messa al bando. Lo chiede fra gli altri Amnesty International: un divieto sull’uso, sviluppo, produzione, vendita, esportazione di tecnologie di riconoscimento facciale con lo scopo di sorveglianza di massa e per altre agenzie statali (Amnesty). Ma l’organizzazione per i diritti umani sottolinea anche un aspetto importante che vorrei evidenziare: anche se queste tecnologie sono spesso accusate di essere non accurate, parziali, discriminatorie, e anche se il loro utilizzo rischia di aggravare attuali discriminazioni (ad esempio proprio quelle razziali, ricordo questo studio ad esempio), non significa che una loro eventuale maggiore accuratezza risolva la questione. Perché l’impatto di queste tecnologie è sul diritto alla manifestazione pacifica (compreso anche il relativo anonimato di partecipare a una manifestazione pubblica in cui normalmente a tutti i partecipanti non viene chiesta la carta d’identità) e il diritto alla privacy. Queste tecnologie “permettono il monitoraggio, raccolta, conservazione, analisi e utilizzo di altri dati personali sensibili (dati biometrici) di massa senza un ragionevole e individualizzato sospetto di reato”, e questo altro non è che “sorveglianza di massa indiscriminata”, dice Amnesty.
“Sì, deve essere messa al bando”, lo dice anche una ricercatrice del comitato su AI ed etica di Google (NYT)

Intanto però il vuoto lasciato dai colossi tech che stanno facendo un passo indietro viene riempito da altre aziende. ClearView AI, NEC e altre hanno detto che continueranno a rifornire il mercato delle forze dell’ordine (WSJ, paywall).

Il settore privato del “trova altre facce come questa”
Nel mentre galoppa il settore privato, e si moltiplicano le offerte commerciali. OneZero descrive ad esempio PimEyes, un sito e uno strumento di riconoscimento facciale polacco, che ha una versione gratuita e una premium. Il sito permette di caricare la foto di qualcuno e trovare online immagini di quella persona da molteplici siti. Una versione ridotta, e per i consumatori, del più noto servizio dell’americana ClearView AI (che vende i propri servizi a polizie e altre autorità e di cui ho scritto ampiamente, ad esempio qua). PimEyes presenta la propria offerta addirittura come uno strumento di privacy (“guarda dove stanno le tue immagini”) ma in realtà chiunque può fare ricerche su chiunque (e non solo su di sé). Ho provato a fare da cavia caricando alcune mie foto sul tool per vedere che usciva. Il sito ha tirato fuori e mostrato (almeno in versione free) un po’ di mie foto sparse per la Rete, non tutte però, solo quelle che (a occhio) erano più simili al modello (cioè alla specifica foto, inquadratura ecc) che avevo caricato. Tuttavia ha estratto anche alcune foto (in genere foto di eventi in cui magari la mia presenza è ai margini o sullo sfondo) di cui non avevo cognizione. Ricordo che l’uso di simili tecnologie è molto problematico, se non altro perché è un assist a possibili forme di stalking. Nel 2016 una società russa aveva lanciato il servizio FindFace, descritto inizialmente come un modo per trovare donne di proprio gradimento.

Se la videocamera è nascosta
Invece negli Stati Uniti gli spettatori di una gara annuale di college football sono stati sottoposti a loro insaputa a un sistema di riconoscimento facciale, abilmente camuffato da tabelloni pubblicitari. Quattro videocamere nascoste sotto queste insegne digitali catturavano vari dati dei partecipanti, incluso quanto tempo guardavano le pubblicità, il loro genere, età, e una analisi del viso/corpo per identificare se avessero armi o risultassero in una lista di sospetti. L’azienda che fornisce il servizio, VSBLTY, sostiene che le insegne digitali con la pubblicità siano un modo per far guardare i passanti direttamente in camera, rendendo più accurata la loro potenziale identificazione (Onezero).

L’appetito francese per il riconoscimento facciale
Su questa newsletter avevo raccontato progetti e fughe in avanti sul riconoscimento facciale in Francia, con tentativi di introdurlo in alcune scuole in via sperimentale e in alcune manifestazioni pubbliche. All’epoca tra i protagonisti, oltre all’americana Cisco, c’era la società monegasca Confidentia, diretta da Jean-Philippe Claret, fondatore della associazione World of Blockchain Monaco, con uffici a Parigi, Madrid e Tel Aviv.
Oggi si torna a parlare di questo settore in Francia con Alexandre Benalla, “l’ex bodyguard di Emmanuel Macron (…) diventato la spalla dell’ex deputato macroniano Joachim Son-Forget”, lo definiva Il Foglio, caduto in disgrazia dopo che un video lo ritraeva, vestito da poliziotto, mentre picchiava un manifestante. Benalla, nel mezzo della pandemia, ha messo un piede nel mercato del riconoscimento facciale, “un settore in rapida espansione in Francia, soprattutto per le sue applicazioni di sicurezza”, scrive Mediapart. Qualche tempo fa Benalla ha fondato Comya, società di consulenza e (cyber)sicurezza proiettata in Africa, ma nei giorni scorsi Mediapart ha scritto di possibili trattative tra Benalla, un’altra società di cybersicurezza CS Group (guidata da un noto imprenditore francese a cavallo fra business e politica, Yazid Sabeg) e la startup XXII, specializzata in computer vision, AI, e soluzioni di analisi video in tempo reale per la sicurezza, il commercio e l’industria. (vedi anche La LettreaLe Nouvele Economiste).

Le videocamere di Como
Il Comune di Como ha già fatto due appalti per dotarsi di sistemi di videosorveglianza con riconoscimento facciale. Ma su che basi? Insomma, cosa sappiamo delle videocamere usate dalla città lombarda? Hanno utilizzato un sistema di riconoscimento facciale, come e fino a quando? Wired va in profondità sulla vicenda.
“In sostanza, in questo momento, il Comune di Como non potrebbe utilizzare il riconoscimento facciale perché non rispetta la legge. Secondo il provvedimento del Garante, le immagini dei volti di chiunque passi in quel parco non possono essere utilizzate. Da quanto appreso da Wired, però, solo ai primi di aprile il Comune di Como avrebbe scritto al Garante comunicando la disabilitazione della funzione sperimentale di riconoscimento facciale utilizzata nel parco Tokamachi. Se le videocamere attivate in via Leoni e via Anzani non sono attive, quelle installate di fronte alla stazione avrebbero svolto attività di riconoscimento facciale per mesi”.
Ne è nata una interrogazione parlamentare (Wired).
Riconoscimento facciale, il Comune fa chiarezza – Como, l’obiettivo era metterlo a disposizione delle forze dell’ordine ma il trattamento dei dati biometrici è vietato: stop del Garante della privacy (Il Giorno)

App oscurafacce
Dopo tutta questa lettura non poteva mancare Anonymous Camera, l’app che usa l’AI per anonimizzare velocemente foto e video, di fatto pixelando, sfocando i visi, ma anche togliendo metadati ecc (The Verge). Ricordo che nella scorsa newsletter avevo parlato della nuova funzione di Signal.

 

QUI PER RICEVERE LA VERSIONE COMPLETA DELLA NEWSLETTER

È gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.

    ISCRIVITI ALLA NEWSLETTER DI SENTIERI SELVAGGI

    Le news, le recensioni, i corsi di cinema, la riviste, i libri, gli eventi e tutte le nostre iniziative