Kaspersky: i 3 principali scenari di minaccia deepfake che gli utenti affronteranno nel 2023
(Adnkronos) –
Milano, 24 maggio 2023 – Secondo il World Economic Forum (WEF), il numero di video deepfake online sta aumentando a un ritmo annuale del 900%. Molti casi di frode deepfake sono finiti sulle prime pagine dei giornali, con segnalazioni relative a molestie, vendette, truffe di criptovalute ecc. I ricercatori di Kaspersky stanno facendo luce sui tre principali scenari di frode utilizzati dai deepfake a cui bisogna prestare attenzione.
Grazie alle reti neurali e al deep learning (da cui deep fake), gli utenti di tutto il mondo possono utilizzare immagini, video e materiali audio per creare video realistici di una persona con viso o corpo alterati digitalmente, in modo tale da farla sembrare qualcun altro. Questi video o immagini modificati sono spesso usati per scopi malevoli per diffondere informazioni false. I deepfake possono essere utilizzati per il social engineering: i criminali usano immagini modificate per fingersi delle celebrità così da adescare vittime per indurle a cadere nelle loro truffe. Ad esempio, l’anno scorso è diventato virale un video creato artificialmente, in cui Elon Musk prometteva elevati profitti grazie a un piano di investimento in criptovalute di dubbia efficacia che, invece, portava gli utenti a perdere il proprio denaro. Per creare deepfake come questo, i truffatori usano filmati di celebrità o uniscono vecchi video e li pubblicano in live stream sui social, promettendo agli utenti di ottenere il doppio in criptovaluta di quanto gli è stato inviato. Un altro modo in cui vengono utilizzati i deepfake è per violare la privacy di un individuo. I video deepfake possono essere creati sovrapponendo il volto di una persona in un video pornografico. In un caso, sono apparsi online video di celebrità che mostravano il loro volto sovrapposto a corpi di attrici porno in scene esplicite. Di conseguenza, in casi simili, le vittime degli attacchi subiscono danni alla propria reputazione e una violazione dei propri diritti. Spesso i deepfake sono utilizzati anche per colpire le aziende a fini criminali, come l’estorsione ai dirigenti, il ricatto e lo spionaggio industriale. Ad esempio, è noto un caso in cui i cyber criminali sono riusciti ad ingannare un dirigente bancario negli Emirati Arabi e a rubare 35 milioni di dollari, utilizzando un deepfake vocale: è stata sufficiente una breve registrazione della voce del superiore di un dipendente per generare un deepfake convincente. In un altro caso, i cyber criminali hanno cercato di truffare Binance, la più grande piattaforma di criptovalute, inviando a un suo dirigente messaggi di ringraziamento per una riunione su Zoom a cui non aveva mai partecipato. Grazie alle sue immagini che sono disponibili pubblicamente, gli aggressori sono riusciti a creare il deepfake e ad applicarlo con successo a una riunione online, spacciandosi per il dirigente. In generale, gli attacchi che sfruttano i deepfake hanno come obiettivi disinformare e manipolare l’opinione pubblica, ricattare o addirittura svolgere attività di spionaggio. I responsabili HR sono già in allerta per quanto concerne l’uso dei deepfake da parte di candidati che si propongono per un lavoro a distanza, come si legge in un avviso dell’FBI. Nel caso di Binance, gli aggressori hanno utilizzato immagini di persone prese da internet per creare deepfake, e sono persino riusciti ad aggiungere le loro foto ai curricula. Qualora riescano a ingannare i responsabili HR e ottenere un’offerta lavorativa, possono rubare i dati del datore di lavoro. Secondo il World Economic Forum (WEF), il numero di video deepfake online è aumentato a un ritmo annuale del 900%. In ogni caso, è importante considerare che i deepfake sono una frode molto costosa che richiede grossi investimenti. Una precedente ricerca Kaspersky ha rivelato le diverse tipologie di deepfake vendute sulla darknet e i loro costi. Se un utente trovasse un software su internet e provasse a creare un deepfake, il risultato sarebbe poco realistico. In pochi crederanno a un deepfake di bassa qualità: noteranno ritardi nell’espressione facciale oppure una sfocatura della forma del mento.
Quindi, quando i criminali informatici si preparano per un attacco, avranno bisogno di una grossa quantità di dati: foto, video e audio della persona che vogliono impersonare. Le diverse angolazioni, la luminosità e le espressioni del viso giocano un ruolo importante per la qualità finale. Affinché il risultato sia realistico, sono necessari computer e software aggiornati. Tutto questo richiede una grande quantità di risorse ed è disponibile solo per un numero ristretto di cyber criminali. Pertanto, nonostante tutti i pericoli che un deepfake può comportare, è ancora una minaccia estremamente rara e solo pochi acquirenti saranno in grado di permetterselo: dopo tutto, il prezzo per un minuto di deepfake può partire da 20.000 dollari americani. “Il furto dei dati non è sempre il rischio peggiore che il deepfake comporta per le aziende. A volte, i danni alla reputazione possono avere conseguenze molto severe. Immaginate che sia pubblicato un video in cui il vostro dirigente fa dichiarazioni (apparentemente) controverse su argomenti delicati, questo può portare rapidamente a un crollo dei prezzi delle azioni. Tuttavia, nonostante i rischi di una simile minaccia siano estremamente elevati, la possibilità di subire un attacco di questo tipo è molto bassa, proprio per il costo elevato di creazione e per il fatto che solo pochi cyber criminali sono in grado di creare deepfake di alta qualità”, dichiara Dmitry Anikin, Senior Security Expert di Kaspersky. “Quello che si può fare oggi è conoscere le caratteristiche chiave dei video deepfake, in modo da prestare attenzione e mantenere un atteggiamento scettico nei confronti dei messaggi vocali e dei video ricevuti. Inoltre, è importante assicurarsi che i dipendenti capiscano che cosa sia un deepfake e come riconoscerlo, ad esempio movimenti a scatti, differenze cromatiche della pelle, battiti di ciglia strani o assenti e così via”. Il monitoraggio continuo delle risorse del Dark Web fornisce preziose informazioni sul fenomeno dei deepfake, consentendo ai ricercatori di seguire le ultime tendenze e attività degli attori delle minacce. Grazie a ricerche nella darknet, si possono scoprire nuovi strumenti, servizi e mercati utilizzati per la creazione e distribuzione di deepfake. Questo tipo di monitoraggio è una componente indispensabile nella ricerca sui deepfake e contribuisce a migliorare la comprensione dell’evoluzione del panorama delle minacce. Il servizio Digital Footprint Intelligence di Kaspersky include questo tipo di analisi per aiutare i clienti a essere sempre all’avanguardia quando si tratta di minacce legate ai deepfake. Scopri di più sul fenomeno dei deepfake su Kaspersky Daily. • Verificare le procedure di cybersecurity adottate nella propria organizzazione, non solo per quanto riguarda i software, ma anche in termini di competenze IT sviluppate. Utilizzate Kaspersky Threat Intelligence per essere al passo con l’attuale panorama delle minacce. • Potenziare il “firewall umano” in azienda: è necessario assicurarsi che i dipendenti comprendano cosa sono i deepfake, come funzionano e le sfide che possono rappresentare. Bisogna organizzare campagne di sensibilizzazione e formazione continue per spiegare ai dipendenti come individuare un deepfake. Kaspersky Automated Security Awareness Platform aiuta i dipendenti a rimanere aggiornati sulle minacce più recenti e aumenta i livelli di alfabetizzazione digitale. • Utilizzare fonti di notizie di elevata qualità. La mancanza di informazioni rimane un fattore cruciale per la proliferazione dei deepfake. • Adottare protocolli validi come il “trust but verify”. Un atteggiamento scettico nei confronti di messaggi vocali e video non garantisce che le persone non vengano mai ingannate, ma può aiutare a evitare molte delle trappole più comuni. Tenere presenti le caratteristiche principali dei video deepfake a cui prestare attenzione per evitare di diventare una vittima: movimenti a scatti, variazioni di illuminazione da un fotogramma all’altro, variazioni del colore della pelle, battiti di ciglia strani o assenti, movimenti delle labbra poco sincronizzate con il parlato, artefatti digitali sull’immagine, video intenzionalmente codificati in bassa qualità e con scarsa luminosità.
Contatto di redazione:
kaspersky@noesis.net
www.kaspersky.it
—immediapress/ictwebinfo@adnkronos.com (Web Info)