4/28/2021

Dovresti aver paura delle truffe del deepfake?

La possibilità di creare falsi digitali di alta qualità è una delle principali preoccupazioni in quanto la tecnologia deepfake può facilmente ingannare l'occhio nudo.

Immagine

Scritto da Claire Woodcock, Senior Product Manager, Machine Learning & Biometrics, Onfido.

Recentemente, il tema dei deepfakes è stato ampiamente sviluppato e trasformato da un'area di nicchia in un fenomeno mainstream. I netizen ora sono ben consapevoli delle incredibili possibilità della manipolazione digitale - dal " Messaggio di Natale alternativo " di Channel 4 ai " Video di Tom Cruise TikTok " virali .

La possibilità di creare falsificazioni digitali di alta qualità è una delle principali preoccupazioni, poiché la tecnologia deepfake può facilmente ingannare l'occhio nudo. Problemi etici simili sono sorti in passato con la tecnologia del suono. Ad esempio, nel 2016, un prototipo per l' editing e la creazione di suoni Adobe Voco, che è stato in grado di simulare la voce di una persona specifica in base al suo discorso di 20 minuti, non è mai stato rilasciato a causa di problemi etici. Questa decisione non può essere definita infondata, visto che nel 2019 il CEO di una compagnia energetica britannica è stato ingannato per 220mila euro da un sofisticato criminale che è riuscito a impersonare la voce del suo capo, raffigurando anche un leggero accento tedesco e sfumature melodiche di discorso.

Ma i deepfake rappresentano lo stesso rischio nel 2021?

Oggi ci sono tre fattori principali che contribuiscono alla creazione di deepfake. La prima e più famosa è la novità e l'intrattenimento. I creatori di Alternative Christmas Message sono senza dubbio gli artisti che hanno introdotto un nuovo tipo di performance.

Sfortunatamente, il potenziale della tecnologia deepfake può essere sfruttato con cattive intenzioni. Una seria preoccupazione è la possibilità di creare video falsi in cui la persona dice quello che vuoi.

Tuttavia, la minaccia immediata è rappresentata dalla creazione di falsi video pornografici, che vengono poi utilizzati per il revenge porn. Secondo le statistiche di Sesity AI , tali video rappresentano il 90% -95% di tutti i video deepfake monitorati da dicembre 2018.

Infine, la terza tendenza in crescita è l'uso di deepfake per scopi fraudolenti. Un'analisi degli specialisti di frode di identità di Onfido ha mostrato che nel 2019 i criminali informatici hanno iniziato a utilizzare i deepfake per gli attacchi per la prima volta.

Quanto è pericoloso?

I deepfake non sono un vettore comune di frode di identità in questo momento. Tuttavia, la manipolazione digitale rappresenta una minaccia per i metodi di autenticazione biometrica. Un autore può impersonare un'altra persona in base alla propria identità digitale .

Questo tipo di crimine informatico non è per i truffatori dilettanti. La creazione di deepfake convincenti richiede sia molta esperienza tecnica che molta potenza di elaborazione, al contrario del face morphing, che comporta l'alterazione digitale delle immagini statiche e può essere ordinato online. I criminali professionisti dovranno dedicare molto tempo allo sviluppo delle proprie capacità prima di poter iniziare il processo di sviluppo di video deepfake.

Tuttavia, non dovresti fare affidamento su una barriera tecnica elevata per impedire che i deepfake vengano utilizzati per tentare la frode dell'identità. Come con qualsiasi altra tecnica fraudolenta, i membri "avanzati" della comunità dei criminali informatici possono impacchettare il codice, consentendo a tutti gli altri di utilizzare la tecnica. Questa possibilità rende l'uso fraudolento della tecnologia deepfake una vera minaccia di cui le aziende dovrebbero essere consapevoli e anticipare.

Le organizzazioni che lavorano con persone benestanti devono prestare la massima attenzione in quanto è probabile che diventino gli obiettivi principali dei criminali informatici. Perché? In primo luogo, l'autore del reato deve essere sicuro che l'investimento iniziale nella creazione di un video personalizzato genererà un ritorno sufficientemente buono. In secondo luogo, di solito sono necessari dai sei ai nove minuti di video per realizzare un deepfake convincente. Pertanto, gli attacchi mireranno a coloro che godono di una grande autorità nei media o pubblicheranno regolarmente video sui social media .

In che modo l'autenticazione biometrica rileva i deepfake?

Sebbene i deepfake non siano ancora una minaccia che affrontiamo regolarmente, vengono utilizzati numerosi metodi importanti per rilevare i deepfake nella tecnologia di autenticazione dell'ID video. Innanzitutto, l'analisi biometrica basata sull'intelligenza artificiale può determinare in modo molto accurato se un video inviato è un falso. Metodi come l'analisi delle labbra, il movimento e l'analisi della consistenza vengono utilizzati per verificare la presenza fisica dell'utente.

In secondo luogo, randomizzando le istruzioni che gli utenti devono seguire per l'autenticazione. Ad esempio, gli utenti sono incoraggiati a guardare in direzioni diverse o leggere una frase. Ci sono migliaia di possibili richieste che i creatori di deepfake semplicemente non possono prevedere. Gli utenti che rispondono costantemente in modo errato vengono inviati per ulteriori indagini. Sebbene i deepfake possano essere manipolati in tempo reale, la qualità video è notevolmente ridotta poiché l'elevata potenza di elaborazione richiesta non consente una risposta rapida alle modifiche.

Infine, i criminali devono convincere i sistemi di verifica dell'identità che il video deepfake viene filmato dal vivo utilizzando apparecchiature telefoniche. Per fare ciò, i criminali devono imitare un telefono cellulare sul proprio computer. Il software di gestione delle identità può rilevare un computer e denunciare le frodi.

Deepfake entra nell'ecosistema delle frodi

La minaccia di frode d'identità è in aumento. I truffatori migliorano costantemente le proprie capacità, alla ricerca di modi nuovi e più sofisticati per evitare il rilevamento. I deepfake sono solo una delle minacce emergenti, una vasta gamma delle quali influisce sulle varie connessioni e competenze dei criminali professionisti.

Ad esempio, le maschere 3D sono una nuova tendenza in rapida crescita, rappresentando lo 0,3% dei casi di frode di identità rilevati dai prodotti selfie Onfido tra ottobre 2019 e ottobre 2020. Questa tecnologia è molto più accessibile ai truffatori senza competenze tecniche serie ed è anche popolare tra gli spettatori, poiché possono acquistare maschere incredibilmente realistiche su Internet. In Giappone, c'è anche un numero crescente di casi in cui i truffatori hanno alterato fisicamente i loro tratti attraverso la chirurgia plastica per impersonare un individuo. Certo, questo è un approccio estremo, ma spesso l'operazione è molto più economica rispetto alla messa in servizio di un deepfake complesso, soprattutto se ci sono collegamenti medici. Poiché i deepfake richiedono un livello significativo di competenza tecnica,

Tuttavia, sebbene le truffe deepfake non siano ancora diffuse, le organizzazioni non dovrebbero abbandonare immediatamente il rischio di deepfake. Ciò è particolarmente vero per le aziende che hanno clienti facoltosi. Come ha dimostrato il recente deepfake di Tom Cruise, i professionisti possono creare video deepfake di alta qualità che lasciano un'impressione duratura. Come con qualsiasi tendenza fraudolenta emergente, le organizzazioni dovrebbero considerare questo rischio e prepararsi in anticipo piuttosto che aspettare che un incidente reagisca. Man mano che l'appetito per i criminali informatici cresce e l'ostacolo tecnico diminuisce, è fondamentale che le organizzazioni considerino se le loro soluzioni di verifica dell'identità possono gestire il rilevamento deepfake.

Questo non è capitalismo e sarà sempre peggio.

"Per favore, considerate tutti questi fattori la prossima volta che qualcuno denuncerà il sistema statunitense come il mi...