Les deepfakes, un danger croissant en 2024 : La stratégie proactive pour la cybersécurité

Menace accrue des deepfakes en 2024

Le responsable de l’information chez Deep Instinct, Carl Froggett, souligne l’augmentation de la menace que représentent les deepfakes hyper-réalistes en 2024 et conseille aux organisations d’adopter des stratégies de cybersécurité pilotées par l’intelligence artificielle (IA), axées sur la prévention plutôt que sur la réaction. Si l’utilisation de deepfakes par des acteurs malveillants n’est pas nouvelle, leur efficacité a été amplifiée par les progrès réalisés dans le domaine de la technologie de l’IA, portant ces techniques d’attaque à des sommets inédits en 2024. En mettant en place des campagnes étendues de bout en bout grâce à l’IA et à l’automatisation, les approches traditionnelles de cybersécurité seront dépassées pour se défendre contre les deepfakes.

Progrès de l’IA et deepfakes plus sophistiqués

Les progrès réalisés dans le domaine de l’IA ont déjà permis de mener des attaques plus complexes et calculées, en particulier avec des deepfakes réalistes. Cela nécessite que l’industrie de la sécurité relève la barre cette année. Cependant, les dirigeants doivent comprendre comment les deepfakes évoluent, quels sont les risques qu’ils posent et quelles mesures ils peuvent prendre pour se protéger contre les acteurs de la menace qui les utilisent.

Les acteurs de la menace ont commencé à utiliser l’IA pour manipuler l’identité de célébrités et de personnalités connues, afin de diffuser de fausses informations, promouvoir des produits de manière trompeuse et tenter de nuire à leur réputation. Par exemple, des acteurs malveillants ont utilisé la technologie des deepfakes pour manipuler des vidéos de Mark Zuckerberg et simuler sa voix en disant : “Celui qui contrôle les données contrôle la vérité”, provoquant ainsi un tollé médiatique et une controverse sur Facebook.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

Un défi pour les professionnels de la cybersécurité

Aujourd’hui, avec l’essor de l’IA, les deepfakes deviennent plus réalistes tout en étant plus simples et moins coûteux à produire. Cela représente un défi même pour les professionnels de la cybersécurité les plus expérimentés en matière de détection.

La progression de la technologie des deepfakes amène à de nouveaux risques en matière de cybersécurité. Le progrès de l’IA atteignant un point où les acteurs de la menace peuvent imiter la voix de quelqu’un lors d’un appel téléphonique ou les mouvements dans une réunion virtuelle soulève des inquiétudes. Au fur et à mesure que les cybercriminels se sophistiquent eux-mêmes ; ils utiliseront les deepfakes dans le cadre de campagnes étendues de bout en bout soutenues par l’IA et l’automatisation, allant de la reconnaissance à la création et à la livraison de logiciels malveillants. Avec de telles mesures complètes, les acteurs de la menace peuvent contourner les contrôles de sécurité existants, rester indétectés une fois à l’intérieur et frapper au moment le plus opportun.

Trois meilleures pratiques pour se défendre contre les deepfakes

Pour se défendre contre les deepfakes, les équipes de sécurité doivent mettre en œuvre trois meilleures pratiques au sein de leur organisation afin de maintenir une posture de sécurité solide tout au long de 2024 :

1. Évolution de la formation en matière de sécurité : Les approches traditionnelles pour prévenir les menaces et les logiciels malveillants se sont révélées inefficaces au cours de l’année dernière. Par conséquent, les programmes de sensibilisation à la sécurité et de formation doivent être repensés car les deepfakes et autres campagnes d’hameçonnage hyper-réalistes continuent d’augmenter. L’élément humain doit être retiré de l’équation pour que les équipes de sécurité puissent s’assurer que les employés ne tombent pas victimes de deepfakes.

2. Investir dans des technologies avancées : La meilleure façon de lutter contre l’IA est d’utiliser l’apprentissage profond (deep learning), la forme la plus avancée d’IA qui peut distinguer avec précision entre vidéo et audio réelles ou falsifiées. En utilisant un classificateur DL qui examine les caractéristiques brutes d’une image ou d’un enregistrement audio, les organisations peuvent détecter des signes révélateurs de contenu falsifié. Investir dans ces solutions permet d’identifier et de prévenir les attaques par deepfake à mesure qu’elles évoluent constamment.

3. Stratégie de sécurité prédictive et préventive : Investir dans une stratégie axée sur la prédiction et la prévention des attaques est essentiel pour lutter efficacement contre les deepfakes sophistiqués.

Carl Froggett possède une solide expérience dans la construction d’équipes, les architectures de systèmes, la mise en œuvre de logiciels d’entreprise à grande échelle et l’alignement des processus et des outils avec les exigences commerciales. Dans son rôle chez Deep Instinct, il a fourni des capacités de réduction des risques intégrées alignées avec les priorités architecturales sur les dispositifs et les réseaux de Citi dans plus de 100 pays.

Mehdi Bellatig

Master en Sciences Sociales
Expert en cybersécurité et lutte contre les fraudes et arnaques en ligne.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet.
Co-fondateur technique de France Verif, le premier outil pour la sécurité numérique globale des particuliers.