Vedi tutti

Siamo certi che i video deepfake non siano poi così pericolosi?

Avevamo sottovalutato la nostra capacità di distinguere i contenuti falsi?

Siamo certi che i video deepfake non siano poi così pericolosi? Avevamo sottovalutato la nostra capacità di distinguere i contenuti falsi?

I software di intelligenza artificiale che permettono di realizzare video fasulli con l’obiettivo di ingannare gli utenti esistono ormai da anni. Nel 2017 per descriverli venne coniato il termine “deepfake”, che alla parola “fake” unisce “deep learning”, cioè una delle tecnologie che stanno alla base dei sistemi necessari per produrre questi contenuti. Fin da subito il tema è stato affrontato con toni piuttosto preoccupati, soprattutto in riferimento al ruolo che hanno nel contribuire a diffondere disinformazione e propaganda politica. Quello che la maggior parte di questi software fanno, infatti, è cercare di replicare la voce e i movimenti facciali di una persona realmente esistente, spesso molto nota, in modo da farle dire all’interno della clip video più o meno ciò che si vuole. Moltissimi deepfake che circolano online, però, vengono ancora creati con software gratuiti e un po’ rudimentali, e contengono quindi molti difetti ed errori, che in alcuni casi si possono riconoscere facilmente. È una cosa di cui spesso ci si accorge immediatamente perché provoca un effetto di straniamento. Alcune delle previsioni più pessimistiche rispetto all'ascesa dei deepfake sottostimavano invece le capacità umane di riconoscere le clip manipolate. Nonostante negli ultimi anni la qualità tecnica dei sistemi basati sull’intelligenza artificiale sia migliorata, è parallelamente aumentata anche la capacità del pubblico di distinguere i contenuti autentici da quelli fake. Ma c’è un ma. Dall’altro lato la sempre maggiore presenza di video manipolati – in maniera grossolana o in modo più sofisticato, per ragioni politiche o di altra natura – avrebbe alimentato uno scetticismo verso i video in generale, a tal punto che a volte clip reali vengono ritenute e fruite da una fetta di utenti come se fossero fake.

La diffusione di contenuti manipolati, in sostanza, avrebbe determinato un aumento della diffidenza, anche inconscia, tra gli individui nei confronti del formato video. Di questo risvolto aveva già parlato l’Atlantic qualche anno fa, scrivendo che l’aumento dei dubbi sull’autenticità dei video in generale a sua volta poteva essere sfruttato per fini propagandistici. A ben vedere, la cosa avviene già con le notizie. Lo stesso Trump è particolarmente abile nel farlo: spesso infatti etichetta qualsiasi verità a lui scomoda come una “fake news”, contribuendo a screditare – a priori – il settore dei media. Allo stesso modo, quindi, la capacità tecnologica di produrre deepfake sempre più realistici, alla lunga, potrebbe far sì che le persone si fidino meno dell’attendibilità dei video in generale. Oggi, infatti, un filmato è tendenzialmente ancora considerato una prova autorevole che qualcosa è effettivamente accaduto, mentre in futuro questa associazione potrebbe non avere più lo stesso peso.

La possibilità di manipolare i video è inevitabile ed è sostanzialmente un rischio presente praticamente da quando esiste tale formato. Per questo, da tempo alcuni studiosi mettono in discussione l’idea che i filmati modificati con strumenti di intelligenza artificiale permettano di manipolare l’informazione più di quanto fosse già possibile farlo in passato. I cosiddetti “cheap fakes” (“fake a buon mercato”) spiegano bene questo fenomeno. L’espressione è usata per definire un insieme di tecniche di manipolazione dei video relativamente semplici e accessibili, come modificarne la velocità, la lunghezza o l’audio. In alcune fasi della recente campagna elettorale per le presidenziali statunitensi, per esempio, gli avversari politici di Joe Biden favorirono la circolazione di clip estrapolate dai suoi incontri ufficiali, ridotte o tagliate in modo da farlo apparire smarrito e confuso. Era un modo ingannevole di rafforzare una percezione sempre più comune, secondo cui Biden – per via dell’età avanzata – non era pienamente in controllo delle proprie azioni, e che quindi non aveva la lucidità necessaria per guidare una nazione. La diffusione di questi video, per quanto rudimentali, aveva contribuito ad alimentare il dibattito sulle condizioni fisiche e mentali di Biden, e paradossalmente erano stati più ingannevoli ed efficaci dei tradizionali deepfake. Spesso, infatti, il risultato dei video manipolati con l’intelligenza artificiale è tutt’altro che convincente. Lo dimostra anche la serie comica Deep Fake Neighbour Wars, che utilizza l’AI per sovrapporre i volti di celebrità agli attori del programma, inserendoli in scenari surreali e grotteschi. Il risultato non è del tutto perfetto: i soggetti hanno a disposizione un quantitativo molto limitato di espressioni facciali che possono fare mentre recitano, ed è sconsigliato girare il volto o agitarsi troppo, perché la tecnologia non è ancora avanzata a sufficienza per seguirli in questo tipo di movimenti. Gli attori non possono nemmeno stare dietro a un vetro, o recitare sotto la pioggia, perché è necessario che la faccia sia totalmente visibile per essere riconosciuta dall’intelligenza artificiale.

@itvx Don't mess with Idris's garden Kim. You've been warned Stream #DeepFake Neighbour Wars on #ITVX original sound - ITVX

I creatori di Deep Fake Neighbour Wars sono stati molto scrupolosi nel cercare di evitare la possibilità che qualcuno prenda sul serio quello che sta guardando, e si convinca che celebrità di quel calibro stiano realmente partecipando a uno show simile. All’inizio di ogni puntata c’è un lungo disclaimer che rende molto chiara la cosa, e per l’intera durata del programma la scritta “deep fake” rimane fissa in un angolo dello schermo. Ma anche quando questo genere di avvertenze viene omesso, a fini ingannevoli, spesso si può capire se una clip è vera o falsa prestando attenzione al contesto in cui è stata pubblicata. Se a trasmettere il video è un organo di informazione attendibile, per esempio, già questo spesso è una prova molto forte del fatto che l’evento mostrato sia accaduto realmente. Il criterio vale per i video da prima che i deepfake diventassero così diffusi, e tuttora è alla base della valutazione di altre tipologie di contenuti, come ad esempio le fotografie. Anche se i sistemi di intelligenza artificiale impiegheranno ancora anni per diventare più sofisticati, come scrive l’esperto di deepfake Hany Farid sul Guardian, è fondamentale già da oggi «sviluppare buone abitudini nel nostro rapporto con le informazioni, unendo un po’ di buonsenso a una buona dose di scetticismo».