Disinformazione in Rete: come si possono rilevare i deepfake

L’abbiamo visto qualche giorno fa: man mano che la realtà diventa sempre più distorta online, le persone perdono la fiducia nella credibilità e nell’autenticità dei media che consumano. In questo contesto, ci si mette anche il fenomeno del deepfake, che abbiamo conosciuto da vicino soprattutto per il caso nostrano su Renzi. Detto questo, le tecnologie per rilevarvi non mancano; Deeptrace, ad esempio, sta lavorando per combattere la disinformazione online.

Ma di cosa stiamo parlando? Il deepfake è una tecnica che impiega l’intelligenza artificiale per sintetizzare le immagini umane – utilizzato per combinare e sovrapporre immagini e video. Secondo Deeptrace, che utilizza il deep learning e la visione computerizzata per intercettarli, la quantità di questi contenuti è raddoppiata dal 2018 a questo 2019 e spesso servono a uno scopo più insidioso e profondo della creazione di un semplice meme virale online.

via Washington Post

Tutte le preoccupazioni del grande pubblico sui deepfake sono aumentate quando l’app cinese Zao, pubblicizzata proprio come la migliore in fatto di sostituzione facciale con l’intelligenza artificiale, ha raggiunto la vetta della classifica dei download gratuiti in Cina. Il modo in cui funziona è semplice: gli utenti posano davanti all’obiettivo per un selfie, sbattono le palpebre e fanno una serie di espressioni facciali, che l’app utilizza quindi per replicare e incollare su film, serie e persino porno.

Deeptrace è entrata nel mercato affermando di essere la prima soluzione di rilevamento dei deepfake sul mercato progettata per garantire l’integrità dei media visivi. È un progetto interessante, perché si distingue per il fatto che capta impronte digitali che l’occhio umano non può vedere: mentre il lavoro degli altri software sta nel ricercare incoerenze semantiche basate sulle tecniche di verifica dei fatti, Deeptrace analizza i pixel contenuti nell’immagine o video stesso.

via Deeptrace Facebook

La preoccupazione riguardo alla possibilità che i deepfake influenzino la politica è in aumento. Un sondaggio del Pew Research Center del 2019 ha rilevato che due terzi degli americani affermano che le immagini e i video inventati causano molta confusione. Come è successo ad esempio per il video di Nancy Pelosi, che ha fatto 2,5 milioni di visualizzazioni su Facebook. La tecnologia deepfake è stata anche utilizzata per ingannare le persone riguardo l’invio di denaro: nell’autunno di quest’anno il CEO di una compagnia energetica era sicuro di parlare al telefono con il suo capo, che gli aveva chiesto di trasferire 243.000 dollari a un fornitore.

I deepfake non spariranno presto, anzi, stanno rapidamente proliferando e diventando più accessibili. Potremmo vedere una rottura definitiva della fiducia nei media audiovisivi e un significativo peggioramento degli attacchi di disinformazione con conseguenze sempre più gravi. Secondo lo studio di ricerca globale Wave X di Universal McCann, solo l’8% delle persone ritiene che la maggior parte delle informazioni online sia vera.

Le contromisure sono fondamentali per fermare gli usi dannosi dei deepfake, in primis quello della pornografia fuorviante. E infatti, Deeptrace Labs ha scoperto che il 96% dei video di deepfake è classificato come “pornografia non consensuale” – con protagoniste vip femminili.

via Vice

L’approccio di Deeptrace fa parte di un sistema che inizia a prendere a cuore la ricostruzione della fiducia nel panorama digitale. Da tenere sott’occhio di cono iniziative come The Trust Project – un consorzio di importanti società di notizie guidate dalla pluripremiata giornalista Sally Lherman che sta sviluppando standard di trasparenza per accedere alla credibilità del giornalismo – oppure come il Trusting News, istituito per dare la possibilità ai giornalisti di assumersi la responsabilità di dimostrare attivamente credibilità e guadagnarsi la fiducia. Il New York Times ha persino lanciato la sua campagna Truth, che evidenzia l’importanza dei fatti e incoraggia il supporto del giornalismo indipendente.

Inoltre, al di là della diffusione delle notizie false, i deepfake minacciano la fiducia nell’audiovisivo più in generale, deformando maliziosamente la realtà per danneggiare individui, organizzazioni e processi chiave come le elezioni. Stiamo davvero affrontando un’era in cui i fake possono essere così ben progettati da cambiare il volto della verità? Nel rapporto Deepfakes e Cheap Fakes: The Manipulation of Audio and Visual Evidence, le dottoresse Britt Paris e oan Donovan esplorano la natura mutevole delle evidenze e mettendo in luce come il comprendere lo scopo di questo fenomeno è forse la principale sfida e opportunità per le parti interessate, media e pubblico.

Ma i deepfake non sono esclusivamente negativi e sono stati anche utilizzati per sbloccare un nuovo livello di narrazione. Humen, ad esempio, è una società che crea deepfake per la danza; Synthesia, invece, è una società che utilizza la tecnologia deepfake per il doppiaggio attraverso la rianimazione automatizzata del viso: ha realizzato un video di David Beckham che parla della malaria in nove lingue per sensibilizzare su un problema di salute globale.

* * *

Alice Avallone (Asti, 1984) coordina il College Digital Storytelling della Scuola Holden, dove insegna e fa ricerca con l’etnografia digitale. Da anni, infatti, unisce scienze sociali e ricerca in Rete per comprendere le relazioni umane online: codici, comportamenti, linguaggi. In passato ha scritto una guida di viaggio con la rivista Nuok (Bur), il manuale Strategia Digitale (Apogeo), e ha curato il libro Come diventare scrittore di viaggio (Lonely Planet). Dallo scorso novembre è in libreria con il saggio People Watching in Rete. Ricercare, osservare, descrivere con l’etnografia digitale (Franco Cesati Editore).