Connect with us

Vous cherchez quelque chose en particulier ?

Avis d'expert

Deepfake, décryptage d’une arnaque



L’IA a fait entrer les braquages dans une nouvelle dimension. Plus besoin d’une cagoule noire désormais.

En améliorant les attaques d’ingénierie sociale modernes, l’IA a donné naissance à un autre type de menaces : les deepfakes.

Bienvenue dans ce qui pourrait être un épisode de Black Mirror !




Par Thomas Mannierre, Directeur EMEA Sud de BeyondTrust




Le faux CFO de Hong Kong

En début d’année, une entreprise à Hong Kong s’est vue escroquée de 25,6 millions de dollars par un hacker utilisant l’IA et la technologie deepfake pour usurper l’identité d’un directeur financier.

Si l’on en croit les rapports d’enquête, l’attaque a simulé un environnement de vidéoconférence complet et utilisé une fausse identité d’un important directeur financier de Hong Kong et d’autres participants à la réunion.

La victime ciblée du département financier s’est d’abord méfiée d’un e-mail de phishing prétendant provenir du directeur financier.

Cependant, la victime a rejoint une conférence Web au cours de laquelle les attaquants ont reproduit de manière convaincante la voix et l’apparence du directeur financier, et se sont fait passer pour d’autres participants en exploitant une intelligence artificielle (IA) avancée.

La victime a ainsi été manipulée socialement par les participants à l’appel vidéo falsifié pour transférer 25,6 millions de dollars sur cinq comptes bancaires différents à Hong Kong…


Deepfake, la menace grandit 

Une attaque de type deepfake exploite la technologie pour créer de nouvelles identités, voler l’identité de personnes réelles ou se faire passer pour de vraies personnes, souvent dans le but d’accéder à des actifs, notamment des informations privilégiées ou de l’argent.

Si cette pratique était autrefois observée dans la création d’images, de documents et de vidéos falsifiés, elle est désormais plus fréquemment utilisée pour créer des appels vidéo en temps réel, et même pour usurper l’identité de personnes dans des opérations de vishing élaborées.

En 2022 déjà, 66 % des professionnels de la cybersécurité ont déclaré avoir vu des deepfakes exploités lors d’une cyberattaque.

La plupart de ces attaques ont pris la forme de vidéos (58 %) plutôt que d’audio (42 %), ciblant les employés principalement par courrier électronique et messagerie mobile.

Si les deepfakes sont créés à l’aide de diverses méthodes, l’IA porte ce phénomène à un tout autre niveau. Les applications deepfake peuvent utiliser des encodeurs automatiques pour transférer des images et des mouvements d’une image à une autre.

Cela permet aux attaquants de créer facilement du contenu audio et vidéo hyperréaliste en temps réel.

Des études récentes ont montré que les deepfakes sont de plus en plus difficiles à détecter pour les humains. Ces attaques gagnent en succès, tant en termes économiques que de notoriété.



Les conséquences d’une attaque deepfake

Les pertes financières

L’intelligence artificielle morphing et les menaces de deepfake contribuent à une augmentation générale de l’espionnage d’entreprise.

Les attaques de phishing et de spear phishing par deepfake font partie des premières menaces connues utilisant l’IA. Une technique de plus en plus répandue de vol d’identité, connue sous le nom de « compromission d’email professionnel » (BEC), consiste pour un acteur malveillant à se faire passer pour un employé, un fournisseur ou une autre partie de confiance dans une communication par email pour inciter l’employé à envoyer des actifs précieux, comme de l’argent ou des informations privilégiées.

Les deepfakes rendent ces attaques plus adaptées à leur cible et plus difficiles à détecter.

Dans une note publique, le FBI a classé le BEC comme l’un des crimes en ligne les plus dommageables financièrement et a souligné le fait qu’il exploite la dépendance des organisations aux emails, et désormais aux appels vidéo, pour mener des affaires, tant personnelles que professionnelles.

Le BEC a été responsable de 50,8 milliards de dollars de pertes entre octobre 2013 et décembre 2022, selon le Centre de plaintes pour la criminalité sur Internet (IC3) du FBI.


L’exposition ou vol d’actifs privilégiés

Les deepfakes peuvent également servir à obtenir l’authentification d’une identité non autorisée en utilisant une confirmation visuelle ou auditive.

Si l’identité piratée fournit un accès privilégié, elle pourrait permettre à l’acteur malveillant de se déplacer latéralement et de prendre le contrôle ou la visibilité des données et systèmes sensibles.

Les acteurs malveillants ciblent les équipes du service support via des attaques d’ingénierie sociale. Dans certaines violations, ils ont réussi à persuader les techniciens du service support de réinitialiser l’authentification sur des comptes.

Cela peut permettre aux cybercriminels de détourner des comptes avec des privilèges et donc de traverser un environnement pour réaliser leurs activités illicites.


Le vol d’identité personnelle et l’atteinte à la réputation

Les deepfakes peuvent également être utilisés pour commettre des vols d’identité et du harcèlement. Les créations médiatiques malveillantes peuvent être d’un réalisme alarmant et peuvent nuire considérablement à la réputation d’une personne ou d’une organisation.

Les deepfakes de personnalités, de clients ou d’employés importants peuvent être utilisés pour nuire à la marque ou créer un scandale.

La propagation de la désinformation

Les deepfakes relèvent de la catégorie plus large des médias synthétiques et sont souvent utilisés pour créer des vidéos, des images, des fichiers audio et des textes crédibles et réalistes sur des événements qui n’ont jamais eu lieu.

Les reportages falsifiés, par exemple ceux d’une autorité respectée ou d’un présentateur de nouvelles, peuvent exploiter la tendance naturelle des gens à croire ce qu’ils voient et sont très efficaces pour diffuser de la désinformation.

Cela peut constituer une menace claire, actuelle et évolutive pour le public dans les domaines de la sécurité nationale, de l’application de la loi, de la finance et de la société.


Les entreprises ne sont pas complètement démunies

Différentes stratégies permettent aux entreprises de se protéger contre les menaces modernes basées sur l’identité, telles que les deepfakes.

En voici six dont l’efficacité n’est plus à prouver :

  1. adopter une stratégie Zero Trust,

  2. utiliser soi-même des deepfakes lors de tests de pénétration et d’exercices de formation pour évaluer les vulnérabilités

  3. éduquer les salariés à reconnaître et contrecarrer de telles tactiques de manipulation,

  4. mettre en place des authentifications multifacteur (MFA) résistantes au phishing telles que FIDO2,

  5. veiller à la gestion des accès privilégiés (PAM),

  6. adopter des technologies et des stratégies modernes, telles que la détection et la réponse aux menaces d’identité (ITDR), qui peuvent détecter de manière intelligente les menaces ou les risques liés à l’identité. 


Le cas du deepfake CFO à Hong Kong sert d’avertissement aux organisations pour qu’elles réévaluent leurs mesures de cybersécurité et leurs processus internes, car de plus en plus de ces types d’attaques modernes sont à venir.

Il met en lumière les vulnérabilités émergentes auxquelles nous serons confrontés. Dans ce contexte de menaces, il est devenu primordial de se concentrer sur le zero trust et la sécurité des identités pour parer aux nouvelles attaques qui utilisent des techniques sophistiquées pour manipuler et exploiter les informations personnelles.






# A lire aussi ...

Insights

Si la majorité des responsables marketing français sont actuellement en train de tester l'IA, ils sont encore freinés par des contraintes de budget...

Insights

76% des Français jonglent aujourd'hui avec des budgets familiaux contraints...

Insights

En dépit d'un optimisme généralisé à l'égard de l'IA, la plupart des entreprises sont confrontées à des lacunes en matière de maturité et de...

Insights

63 % des entreprises françaises investissent dans l'IA avant tout par peur d'être distancées si elles ne le font pas...

Publicité