Deepfake e Privacy

I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.

Il Garante per la protezione dei dati personali è intervenuto sul tema per sensibilizzare gli utenti circa i rischi connessi agli usi malevoli di questa nuova tecnologia, sempre più frequenti, anche a causa della diffusione di App e software che rendono possibile realizzare deepfake, anche molto ben elaborati e sofisticati, utilizzando un comune smartphone.

In primis quella realizzata con i deepfake è una forma particolarmente grave di furto di identità.

Un deepfake può ricostruire contesti e situazioni mai effettivamente avvenuti e, se ciò non è voluto dai diretti interessati, può rappresentare una grave minaccia per la riservatezza e la dignità delle persone.

Le persone che compaiono in un deepfake a loro insaputa non solo subiscono una perdita di controllo sulla loro immagine, ma sono private anche del controllo sulle loro idee e sui loro pensieri, che possono essere travisati in base ai discorsi e ai comportamenti falsi che esprimono nei video.

Ci sono particolati e molto pericolose tipologie di deepfake, dette deepnude, attraverso le quali le persone possono essere rappresentate nude, in pose discinte, in situazioni compromettenti o addirittura in contesti pornografici, essendo all’oscuro di tutto.

Negli ultimi tempi, con la sempre maggiore diffusione di software che utilizzano questa tecnologia, il rischio coinvolge sempre più persone comuni e non solo personaggi famosi.

Un esempio è il “revenge porn”, cioè la condivisione online, a scopo di ricatto, denigrazione o vendetta, da parte di ex partner, amanti o spasimanti respinti, di foto e video a contenuto sessuale o addirittura pornografico, che, nel caso del deepnude, sono ovviamente falsi.

Video deepnude possono essere utilizzati, a totale insaputa dei soggetti rappresentati nelle immagini, anche per alimentare la pratica del sexting (cioè lo scambio e diffusione di immagini di nudo, che a volte coinvolge anche soggetti minori), la pornografia illegale e, purtroppo, anche reati gravissimi come la pedopornografia.

I deepfake possono riguardare politici o opinion leader, con lo scopo di influenzare l’opinione pubblica. Video deepfake possono ad esempio essere mostrati o inviati agli elettori che simpatizzano per un determinato personaggio politico, rappresentandolo mentre compie azioni poco lecite o mentre si trova in situazioni sconvenienti, allo scopo di screditarlo ed influenzare le opinioni o il voto. In questo modo, i deepfake possono purtroppo contribuire alla diffusione di fake news e alla disinformazione.

Il deepfake può quindi arrivare a privare le persone della cosiddetta “autodeterminazione informativa” (“ciò che voglio far sapere di me lo decido io”), come pure ad incidere sulla loro libertà decisionale (“quello che penso e faccio è una scelta su cui gli altri non possono interferire”).

Il Garante ha fornito alcuni suggerimenti per proteggersi da questo strumento altamente violativo della propria sfera personale e della privacy partendo dalla responsabilità e dall’attenzione degli utenti, quali:

  • Evitare di diffondere in modo incontrollato immagini personali o dei propri cari;
  • Imparare a riconoscere un deepfake;
  • Evitare di condividere un video o un audio, all’insaputa dell’interessato, se si ha il dubbio che siano un deepfakerealizzato;
  • Denunciare alle autorità, quali polizia postale o Garante, un deepfakesia qualora vi siano fondati sospetti.

Anche le grandi imprese del digitale (piattaforme social media, motori di ricerca, ecc.) stanno studiando e applicando delle metodologie per il contrasto al fenomeno, come algoritmi di intelligenza artificiale capaci di individuare i deepfakeo sistemi per le segnalazioni da parte degli utenti, e stanno formando team specializzati nel monitoraggio e contrasto al deepfake.