Deep fake: la tecnica video per pilotare le informazioni

Deep fake: la tecnica video per pilotare le informazioni

3 Ottobre 2019 0 Di il Cosmo

di Fabiana Bianchi –

Si chiama “deep fake”, letteralmente “falso profondo”. Si tratta di una tecnica che permette di creare video e immagini in cui si possono sovrapporre verosimilmente il viso e il corpo di un’altra persona a un’immagine già esistente, oppure adattare un video a un audio differente da quello reale. Alla base c’è un’intelligenza artificiale: nello specifico, una tecnica di apprendimento automatico nota come “rete antagonista generativa”. La tecnologia di per sé è stata messa a punto circa 15 anni fa e ha conosciuto diverse applicazioni: nel campo della medicina, per esempio, l’uso di questo tipo di intelligenza artificiale permette di creare simulazioni utili soprattutto nell’ambito della chirurgia plastica ricostruttiva. Nel cinema può essere adottata per riportare sullo schermo attori ormai scomparsi, oppure per ringiovanire o invecchiare un personaggio.

Quando viene usata per creare i “deep fake”, però, i risultati possono essere molto pericolosi. Si tratta di un fenomeno piuttosto recente: l’espressione, infatti, è stata coniata nel 2017 su Reddit. Purtroppo, la tecnica è già stata usata largamente nell’ambito della pornografia, creando video che vedevano protagonisti (falsi) dei personaggi celebri. C’è grande preoccupazione anche per l’uso dei deep fake a scopo di “revenge porn”, tanto che nel Regno Unito sono state avanzate proposte per individuarlo come reato a sé stante. Il problema è così sentito che anche alcuni dei più celebri portali in tema pornografico hanno preso provvedimenti contro questo fenomeno. Ma non solo: questa tecnica può essere usata anche a scopi di diffamazione o propaganda. Permette infatti di “mettere in bocca” a una persona parole che non ha mai detto, oppure che ha pronunciato in contesti diversi, o ancora “farle fare” cose che non ha mai fatto. Esiste un video, per esempio, in cui la speaker democratica della Camera statunitense, Nancy Pelosi, appare completamente ubriaca a un convegno. Appare, appunto, perché si tratta di una manipolazione: in realtà le cose non sono andate così. In un altro, l’ex presidente Barack Obama riserva un insulto al suo successore Donald Trump: anche in questo caso si tratta di un deep fake.

Nei giorni scorsi si è parlato molto anche in Italia di deep fake per via di un video presentato al tg satirico Striscia La Notizia, che vede protagonista Matteo Renzi. Trattasi appunto di deep fake: la voce di un imitatore è stata adattata con questa tecnica all’immagine di Renzi. Nel video sembra che l’ex premier riservi giudizi drastici, gesti dell’ombrello e pernacchie a diversi colleghi e addirittura al presidente della Repubblica. «Questa sera a Striscia un fuorionda esclusivo! È lui o non è lui? Certo che non è lui» è stata la presentazione sui social network da parte della celebre trasmissione Mediaset. Ma, nonostante gli avvertimenti, richiamati scherzosamente anche in trasmissione, pare che qualcuno ci sia cascato. «A tutti quelli che scrivono: Ma che cosa hai detto a Striscia la Notizia? rispondo con una risata. L’imitazione è perfetta. Ma è un’imitazione!!! Un abbraccio a chi ci è cascato e i miei complimenti a Striscia» ha scritto infatti Renzi su Instagram in seguito. Il giorno dopo, però, l’ex democratico ha affidato a Facebook una riflessione più profonda: «Ho ricevuto molte critiche perché ieri ho scherzato sull’imitazione che mi ha fatto Striscia La Notizia. Effettivamente ho sottovalutato la portata potenzialmente devastante del deepfake, la nuova raffinata tecnica di fake news. Sono da anni al centro di valanghe di diffamazioni, insulti e notizie false: molte di queste, peraltro, sono oggi al vaglio dei tribunali. Ho scherzato e sorriso sul finto fuorionda e sono certo che la redazione di Striscia saprà utilizzare bene questo strumento. Prendo l’impegno a vivere con leggerezza le critiche ma non sottovalutare mai le conseguenze pericolose del deepfake. Buona serata e grazie per le critiche costruttive: mi aiutano a fare meglio».

Un secondo deep fake (questa volta più palese) è stato lanciato da Striscia con protagonista Matteo Salvini: vi si vede l’ex vicepremier preoccupato perché in futuro il surriscaldamento globale potrebbe impedirgli di trovare il ghiaccio per il mojito.

Se in questi casi due casi l’”inganno” è stato rivelato dagli stessi autori, che ne hanno sottolineato il fine satirico, è facile però immaginare gli effetti che l’uso di questa tecnologia potrebbe avere se utilizzata indiscriminatamente. Tanto che negli ultimi giorni si è parlato di un vero e proprio “allarme deep fake”.

Un allarme non ingiustificato, purtroppo. Un video è genericamente considerato una fonte affidabile: si vede con i propri occhi una persona fare o dire una determinata cosa. Osservando i due video elaborati dai tecnici di Striscia, è interessante notare come il labiale corrisponda alla perfezione con il sonoro: se non si venisse avvisati che questo effetto è dovuto all’uso di un’intelligenza artificiale, sarebbe facile pensare che il contenuto sia autentico.

Viviamo in un paese in cui migliaia di persone credono con facilità a dichiarazioni e informazioni palesemente inventate. È sufficiente mettere una scritta sotto a una foto per ottenere migliaia di condivisioni senza nessun tipo di verifica del contenuto. Il meccanismo perverso funziona soprattutto quando va contro un personaggio già preso di mira e poco importa se il contenuto è semidelirante. Tempo fa prese a girare la foto di una donna: «Questa è Luciana Boldrini, sorella minore del presidente della camera Laura Boldrini – recitava la scritta che la accompagnava – e gestisce 340 cooperative che si occupano di assistenza agli immigrati ma nessuno ne parla ovviamente». Nessuno ne parlava perché si trattava di una bufala gigante e palese. Innanzitutto, la donna ritratta era un’attrice americana che nulla aveva a che vedere con Laura Boldrini. Secondariamente, sua sorella, Lucia, non solo non si è mai occupata di immigrazione perché nella vita faceva tutt’altro, ma purtroppo era venuta a mancare già molti anni prima. L’immagine ottenne migliaia di condivisioni e commenti. Stessa sorte per la “commemorazione” di un poliziotto ucciso da un gruppo di immigrati e caduto eroicamente in servizio. Ma l’agente in foto aveva un aspetto familiare: si trattava di Ezio Greggio in abito di scena. Anche in questo caso, migliaia di condivisioni per l’inesistente agente Carmine. Agli albori del portale satirico Lercio, in molti credettero che l’ex ministro per l’Integrazione Cecile Kyenge avesse davvero suggerito di dare in pasto cani e gatti degli italiani ai richiedenti asilo in arrivo. Certi utenti, quando si fa loro notare che la notizia condivisa è falsa, si trincerano addirittura dietro al «Ma potrebbe succedere».

Ci sono, insomma, ottime ragioni per considerare un pericolo l’avvento dei deep fake. Se delle anonime foto con scritte guadagnano migliaia di condivisioni, che effetto potrebbero avere dei video in cui si vedono e si sentono parlare i personaggi? Se già ora anche agli utenti più accorti può capitare di incappare nella bufala, cosa potrebbe succedere in un mondo in cui letteralmente non bisogna credere ai propri occhi?

Tempo fa, Facebook aveva annunciato un giro di vite contro le fake news. Era stata inserita la possibilità di segnalarle e si era parlato dell’utilizzo di algoritmi specifici per mostrarle sempre meno. Ma è davvero questa la soluzione? Senza contare che, come già annunciato da alcuni esperti informatici, con il tempo i deep fake diventeranno sempre più realistici e anche con gli strumenti più all’avanguardia diventerà sempre più difficile distinguerli dai video reali.

Curiosamente, ci sono certi aspetti in cui l’intelligenza umana si rivela superiore a quella artificiale. Certe capacità di discernimento, alcune forme di creatività, determinate intuizioni sono appannaggio della mente dell’uomo e probabilmente per molti anni ancora non potranno essere sostituite da una macchina.

Di fronte a un inganno ordito da una macchina, si potrebbe dunque contrapporre l’intelligenza umana? In parole più semplici, si potrebbe fare conto sull’intelligenza dell’essere umano per individuare le bufale di ogni sorta, deep fake compresi, anche laddove l’informatica si potrebbe arrendere?

È forse utopistico, ma si potrebbe prendere in considerazione una sorta di “educazione alla verità”. Esattamente come negli ultimi anni di scuole superiori oppure all’università si imparano a maneggiare le fonti per i lavori di ricerca, occorrerebbe istruire le giovani generazioni fin dalle scuole elementari a distinguere l’affidabilità delle varie fonti, a valutare la verosimiglianza di una notizia, a procedere in modo strutturato per potere dare un verdetto di vero o falso. Si tratterebbe di uno strumento estremamente prezioso da dare loro in mano, affinché un domani nessuno possa farsi beffe della loro credulità. Una popolazione consapevole e ben informata sarebbe l’unico vero grande argine contro le bufale, che senza avere un pubblico che le condivide sarebbero destinate a morire.