Truffa deepfake

Una sofisticata truffa ha usato deepfake vocali per impersonare Crosetto, ingannando imprenditori e ottenendo bonifici milionari. Usando OpenAI Voice Engine e simili clonare la voce è semplicissimo.

Truffa deepfake

Indice


Introduzione

Una sofisticata truffa ha coinvolto importanti imprenditori italiani utilizzando deepfake vocali per impersonare il ministro della Difesa Guido Crosetto. I malviventi, servendosi di intelligenza artificiale, hanno clonato la voce del politico per richiedere bonifici milionari con la scusa di finanziare operazioni segrete di salvataggio di giornalisti in Iran e Siria, concludendo le chiamate con la frase: «La Repubblica le sarà grata».

Meccanismo del raggiro

I truffatori hanno combinato ingegneria sociale e tecnologia avanzata:

  • Reperimento dati: la voce di Crosetto è stata clonata sfruttando registrazioni pubbliche disponibili su YouTube e media. Strumenti come OpenAI Voice Engine consentono di replicare una voce con soli 15 secondi di campione audio.
  • Contatto iniziale: le vittime venivano avvicinate da falsi collaboratori del ministro, spesso tramite numeri telefonici clonati.
  • Richiesta di bonifici: agli imprenditori (tra cui Moratti, Armani e Tronchetti Provera) era chiesto di versare centinaia di migliaia di euro su conti a Hong Kong, giustificando l'operazione come riscatto per giornalisti ostaggio.
  • Rassicurazioni fraudolente: si prometteva un rimborso tramite Banca d’Italia, entità estranea alla truffa come confermato dallo stesso istituto.

OpenAI Voice Engine

OpenAI Voice Engine è un avanzato modello di sintesi vocale basato sull'intelligenza artificiale, capace di replicare fedelmente il timbro, il tono e le inflessioni di una voce umana con un campione audio di appena 15 secondi. Questo strumento sfrutta tecnologie di deep learning e modelli neurali addestrati su ampie basi di dati vocali per garantire un risultato estremamente realistico.

Le sue applicazioni legittime comprendono:

  • Accessibilità: supporto per persone con disabilità, consentendo la sintesi vocale personalizzata.
  • Doppiaggio e intrattenimento: creazione di voci artificiali per film, serie TV e videogiochi.
  • Automazione e assistenti vocali: miglioramento delle interazioni con chatbot e assistenti virtuali.

Tuttavia, come dimostra il caso della truffa del "falso Crosetto", questa tecnologia può essere utilizzata anche in modo fraudolento. La creazione di deepfake vocali consente ai malintenzionati di impersonare figure pubbliche, convincendo le vittime a compiere azioni dannose. Per contrastare questi rischi, le aziende stanno sviluppando strumenti di rilevamento dei deepfake e soluzioni per la verifica dell'autenticità delle voci artificiali.