Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Con l’esplosione delle tecnologie di intelligenza artificiale generativa, non solo i contenuti creativi ma anche le identità digitali—voce, volto e comportamento—possono essere riprodotti con una precisione sorprendente. Questo ha dato vita a una nuova ondata di frodi e manipolazioni, in cui i deepfake non sono più un problema solo di disinformazione, ma una minaccia economica e personale reale.

1. Cosa sono i deepfake e perché sono pericolosi

I deepfake sono contenuti audio e video sintetici creati tramite reti neurali o modelli di IA, capaci di imitare la voce e l’aspetto di una persona reale in modo estremamente realistico. Possono essere generati da pochi secondi di registrazione disponibili online o da foto pubbliche, rendendo possibile clonare un volto e una voce in pochi minuti.

Queste tecnologie possono ingannare persino sistemi automatici di riconoscimento o persone esperte, generando scenari falsi credibili: qualcuno che parla, ordina, supplica o consiglia come se fosse una persona reale.

2. Esempi reali di truffe deepfake

Romance scams e furti emotivi

Un caso emblematico è quello di Abigail Ruvalcaba, una donna di Los Angeles che è stata convinta di avere una relazione romantica con un attore tramite video e messaggi deepfake. Alla fine, ha venduto la casa di famiglia per inviare denaro e gift card ai truffatori, credendo che fosse il suo “partner”.

Questa truffa non solo ha devastato la sua situazione finanziaria, ma mette in evidenza quanto una voce e un volto sintetici possono creare fiducia emotiva e spingere a decisioni estremamente dannose.

Attacchi alle aziende

Non sono solo i consumatori a essere presi di mira:

  • In Asia, diverse multinazionali hanno perso milioni durante videoconferenze deepfake in cui un “CFO” sintetico ha ordinato bonifici urgenti e diretti su conti fraudolenti.
  • In particolare, una società a Hong Kong ha trasferito circa HK$200 milioni (~26 milioni USD) dopo una chiamata video in cui tutti interlocutori — tranne la vittima — erano deepfake.

Questi scenari mostrano che il pericolo non riguarda solo l’utente medio, ma anche settori corporativi dove le decisioni finanziarie vengono delegate in base a credibilità e autorità percepite.

Scenari politici e informazione manipolata

I deepfake non si limitano alle frodi economiche, ma esteriorizzano anche un rischio di disinformazione di massa:

  • Ads deepfake raffiguranti il Primo Ministro britannico Rishi Sunak sono stati diffusi su Facebook per promuovere truffe finanziarie e investimenti falsi.
  • In India, una persona è stata arrestata per aver condiviso un video deepfake del Primo Ministro Narendra Modi con contenuti che incitavano paura e discordia su un gruppo WhatsApp.
  • In passato (2022–2024), deepfake di Zelenskyj e di altri leader sono stati diffusi per manipolare percezioni pubbliche su questioni politiche o militari.

Questi esempi evidenziano come i deepfake possano essere usati per delegittimare figure pubbliche o influenzare l’opinione pubblica — con effetti potenzialmente di portata nazionale.

Falsi endorsement e influencer sfruttati

I deepfake non risparmiano neanche gli influencer: la star britannica Molly-Mae Hague è stata falsamente ritratta in un video che la mostrava dire endorsement ingannevoli per un profumo, inducendo fan a comprare prodotti falsi.

Questo tipo di abuso crea non solo danni economici ai consumatori, ma anche danni reputazionali agli stessi influencer.

3. Perché la legge tradizionale fatica a stare al passo

Il diritto d’autore tradizionale protegge opere creative, non identità biologiche. La voce e il volto non sono considerati opere di cui si possa automaticamente detenere copyright, anche se la loro riproduzione può causare danni enormi.

Per questo diversi ordinamenti stanno discutendo soluzioni nuove: ad esempio, la Danimarca ha proposto una legge che attribuisce a ciascun individuo un diritto simile al copyright sulla propria voce e immagine, con l’obiettivo di combattere i deepfake non autorizzati.

In molti altri paesi, invece, la protezione si basa ancora su norme di privacy, diffamazione o uso indebito dell’immagine: difficili da applicare rapidamente in un mondo di contenuti virali online.

4. Come si evolveranno truffe e normative

Poiché gli strumenti per creare deepfake diventano sempre più accessibili e qualitativi, le truffe seguiranno il trend tecnologico. Ecco alcune direzioni chiave:

  • Romance scams sempre più sofisticate: video e audio personalizzati per ogni vittima.
  • Impersonazioni aziendali in tempo reale: con multa-digit deepfake in meeting Zoom o Teams.
  • Regolamentazione emergente: proposte legali e framework di responsabilità per piattaforme e intermediari tecnologici.

I casi di deepfake fraudolenti finora documentati mostrano che non sono più un fenomeno marginale o solo teorico: ormai riguardano vittime reali, società e persino processi democratici. La voce e i dati biometrici, grazie all’IA, diventano prodotti economicamente sfruttabili—ma anche vulnerabili—e la risposta legale tradizionale fatica a proteggerli.

Discutere se dovrebbero essere soggetti a forme di copyright o di altri strumenti di tutela legale specifici non è più un esercizio accademico, ma una questione di sicurezza personale, economica e sociale.

Scenario ipotetico: deepfake di leader politici usati per truffe

Un’evoluzione particolarmente pericolosa delle truffe deepfake riguarda l’uso di figure politiche di primo piano, sfruttandone autorevolezza, riconoscibilità e fiducia pubblica. In questo contesto, è utile considerare un’ipotesi verosimile che potrebbe manifestarsi anche in Italia.

Il caso ipotetico: un deepfake di Giorgia Meloni

Immaginiamo la circolazione, sui social o tramite messaggistica privata, di un video o audio deepfake attribuito alla Presidente del Consiglio Giorgia Meloni, nel quale la voce e il volto appaiono autentici, il linguaggio coerente con lo stile pubblico e il contesto apparentemente credibile (ufficio istituzionale, bandiera alle spalle, tono formale).

In questo scenario, il contenuto fraudolento potrebbe essere usato per:

  • sollecitare un’azione politica (es. invito a sostenere una specifica iniziativa, referendum o lista “di appoggio”),
  • richiedere un contributo economico urgente, presentato come donazione, fondo straordinario, sostegno a una causa nazionale o a un’emergenza,
  • indirizzare verso siti o conti correnti fraudolenti, sfruttando la percezione di ufficialità.

Il punto critico non è il messaggio in sé, ma il fatto che la vittima percepisca di interagire direttamente con una massima autorità dello Stato, riducendo drasticamente il livello di diffidenza.

Perché questo scenario è particolarmente pericoloso

Questo tipo di truffa avrebbe un impatto potenzialmente enorme perché:

  • combina deepfake e autorità istituzionale, un’accoppiata molto più efficace delle classiche impersonificazioni di CEO o parenti;
  • sfrutta canali ad alta viralità (WhatsApp, Telegram, Facebook, TikTok), dove il contenuto viene condiviso “per avviso” prima ancora di essere verificato;
  • può causare danni multipli: economici per i cittadini, reputazionali per l’istituzione, e democratici per il processo politico.

È importante sottolineare che non servirebbe convincere milioni di persone: basterebbe una piccola percentuale di destinatari che agisce d’impulso per generare profitti significativi ai truffatori.

Implicazioni giuridiche

Uno scenario del genere metterebbe in evidenza tutti i limiti delle tutele attuali:

  • la diffamazione interviene dopo il danno;
  • la privacy non è sempre sufficiente quando il contenuto è pubblico e virale;
  • il diritto elettorale non è progettato per contrastare impersonazioni sintetiche iper-realistiche.

È proprio in casi come questo che prende forza l’idea di una tutela giuridica specifica dell’identità biometrica, potenzialmente assimilabile a un diritto esclusivo (sul modello del copyright o di un diritto dell’identità digitale), che consenta rimozioni rapide, blocchi automatici e responsabilità chiare per piattaforme e intermediari.

Perché parlarne prima che accada

L’assenza di casi noti in Italia non è una garanzia, ma solo un ritardo temporale. Gli esempi internazionali dimostrano che, quando una tecnica funziona, viene rapidamente replicata e adattata a contesti locali.

Affrontare oggi l’ipotesi di un deepfake che sfrutta la voce o l’immagine di un leader politico serve non a creare allarmismo, ma a preparare strumenti normativi e culturali per riconoscere e neutralizzare queste minacce prima che diventino sistemiche.