Contact Us

Use the form on the right to contact us.

You can edit the text in this area, and change where the contact form on the right submits to, by entering edit mode using the modes on the bottom right. 

         

123 Street Avenue, City Town, 99999

(123) 555-6789

email@address.com

 

You can set your address, phone number, email and site description in the settings tab.
Link to read me page with more information.

Global Columns

Deepfake, il pericolo della falsa realtà

Angie G50

La Reppublica / Moisés Naím con traduzione da Fabio Galimberti

Alla fine dell'anno scorso cominciarono a girare sulla Rete dei video pornografici che avevano come protagoniste principali alcune delle attrici e cantanti più famose del momento. Naturalmente i video diventarono virali e furono visti da milioni di persone in tutto il mondo. Nel giro di pochi giorni uscì fuori che Scarlett Johansson, Taylor Swift, Katy Perry e altre artiste famose non erano le vere protagoniste dei filmati, ma le vittime di una nuova tecnologia che, utilizzando sistemi di intelligenza artificiale e altri strumenti digitali avanzati, permette di inserire l'immagine facciale di qualsiasi persona in un video.

Quello fu solo l'inizio. Ben presto Angela Merkel, Donald Trump e Mauricio Macri finirono anche loro vittime del cosiddetto deepfake, la falsificazione profonda. Barack Obama fu utilizzato, senza il suo consenso, per esemplificare i possibili impieghi nefasti di questa tecnologia: si vedeva l'ex presidente Usa dire in un discorso quello che il falsificatore voleva che dicesse, e che l'ex presidente non aveva mai detto. Ma il risultato era un video molto reale.

La manipolazione di immagini non è certo una novità. I governi autoritari hanno una lunga storia di leader caduti in disgrazia che venivano fatti "sparire" dalle foto ufficiali. E già dal 1990 Photoshop consente agli utenti di alterare le fotografie digitali. Il deepfake però è differente. E molto più pericoloso. Differente perché, da quando sono stati messi in circolazione i falsi video delle attrici a oggi, la tecnologia è migliorata moltissimo. L'immagine corporea e l'espressione facciale sono iperrealistiche e l'imitazione della voce e della gestualità di una persona è talmente accurata che risulta impossibile capire che si tratta di una falsificazione, a meno di poter contare su sofisticati programmi di verifica digitale. E il pericolo del deepfake è che questa tecnologia è alla portata di chiunque.

Un ex fidanzato indispettito e psicopatico può produrre e diffondere anonimamente sui social network un video che imiti perfettamente la voce, i gesti e la faccia di una donna che lo ha lasciato, e dove la si vede fare o dire le bestialità più vergognose. Le immagini di poliziotti che pestano brutalmente una donna anziana che partecipa a una protesta contro il governo possono provocare violenti scontri tra manifestanti e agenti. Il rispettato leader di un gruppo razziale o religioso può istigare i suoi seguaci ad attaccare membri di un'altra razza o religione. Alcuni studenti possono produrre un video compromettente di un professore che ripudiano. Estorsori digitali possono minacciare un'impresa di divulgare un video che danneggerà la sua reputazione, se non riceveranno la somma richiesta.

I possibili impieghi del deepfake in politica, in economia o nelle relazioni internazionali sono tanto vari quanto inquietanti. La divulgazione di un video che mostra un candidato alla presidenza di un Paese che dice o fa cose riprovevoli poco prima del voto diventerà uno stratagemma elettorale di uso comune. Magari il candidato rivale non approverà questo trucco indecente, ma i suoi seguaci più radicali potrebbero realizzare il video e distribuirlo senza chiedere il permesso a nessuno. I video falsificati possono anche intorbidire drammaticamente le relazioni tra Paesi ed esacerbare i conflitti internazionali.

E non è una mera ipotesi, è già avvenuto: lo scorso anno l'emiro del Qatar, Tamim bin Hamad al-Thani, comparve in un video in cui elogiava e appoggiava Hamas, gli Hezbollah, i Fratelli musulmani e l'Iran, provocando la reazione furibonda dell'Arabia Saudita, degli Emirati Arabi Uniti, del Bahrein e dell'Egitto, che già avevano forti attriti con il Qatar. Questi Paesi denunciarono il discorso dell'emiro come un appoggio al terrorismo e ruppero le relazioni diplomatiche, chiudendo le frontiere e imponendo un embargo aereo, marittimo e terrestre. La realtà, però, è che l'emiro del Qatar non aveva mai pronunciato quel discorso: il video che aveva scatenato l'escalation del conflitto era un falso. Molto reale è invece il boicottaggio, che rimane in vigore.

La minaccia che rappresenta il deepfake per l'armonia sociale, la democrazia e la sicurezza internazionale è evidente. Gli antidoti lo sono molto meno, anche se alcune proposte ci sono. Tutte le organizzazioni che producono o distribuiscono fotografie o video devono impegnarsi a usare blocchi tecnologici che garantiscano l'inalterabilità dei loro materiali visivi. Anche le persone devono avere accesso a tecnologie che le proteggano dal rischio di diventare vittime di deepfake. Bisogna adeguare le leggi per fare in modo che coloro che diffamano o arrecano danno ad altri attraverso l'uso di queste tecnologie siano chiamati a risponderne di fronte alla giustizia. L'uso dell'anonimato sulla Rete dev'essere reso più difficile.

Tutto questo è necessario, ma insufficiente. Bisognerà fare molto di più. Siamo entrati in un'era in cui la capacità di distinguere la verità dalla menzogna, i fatti dalle falsità, si è andata progressivamente erodendo. E con essa la fiducia nelle istituzioni e nella democrazia. Il deepfake è un'altra arma nuova e potente nell'arsenale dei mercanti di menzogne. Bisogna combatterli.

(Traduzione di Fabio Galimberti)