Les emails de phishing se perfectionnent grâce à l’intelligence artificielle

Une augmentation inquiétante des attaques par email

Les entreprises sont de plus en plus vulnérables aux attaques par email, en particulier le phishing, qui consiste à usurper l’identité d’une personne ou d’une organisation pour obtenir des informations sensibles. Selon une étude réalisée par Acronis et relayée par nos confrères de TechRadar, basée sur les données de plus d’un million d’appareils dans 15 pays, le phishing a touché plus de 90% des organisations l’année dernière et le nombre d’attaques par email a augmenté de 222% entre le second semestre 2023 et aujourd’hui.

Le rôle de ChatGPT dans la sophistication du phishing

L’un des facteurs derrière cette forte augmentation est l’utilisation d’outils d’intelligence artificielle générative tels que ChatGPT. “Il y a une tendance mondiale préoccupante où des acteurs malveillants exploitent de plus en plus ChatGPT et d’autres systèmes d’intelligence artificielle générative pour améliorer l’efficacité de leurs cyberattaques, créer du code malveillant et automatiser les attaques”, a déclaré Candid Wüest, vice-président de la gestion des produits chez Acronis.

Le vecteur principal d’infection reste le phishing

Selon le rapport d’Acronis, le phishing demeure le principal vecteur d’infection, avec une augmentation de 54% du nombre d’attaques par entreprise. Avant l’introduction d’outils d’intelligence artificielle générative comme ChatGPT, il était plus facile de repérer une attaque de phishing en utilisant son bon sens et en lisant attentivement le message. Cependant, depuis l’arrivée de ces outils, les messages sont devenus beaucoup plus convaincants.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

Le danger des emails de phishing crédibles et personnalisés

ChatGPT, un outil d’intelligence artificielle générative, permet aux pirates informatiques de créer des emails de phishing plus crédibles et de personnaliser leurs campagnes malveillantes. Grâce à cette technologie, il devient extrêmement difficile pour les destinataires de distinguer un courriel légitime d’un courriel malveillant, même en vérifiant soigneusement leur contenu.

Prévenir plutôt que guérir

Face à cette menace grandissante, il est crucial pour les entreprises de former leurs employés à la détection des tentatives de phishing et de mettre en place des dispositifs de protection performants. Les solutions classiques, telles que les filtres antispam et les antivirus, ne suffisent plus à faire face au niveau de sophistication actuel des cyberattaques. Il faut désormais penser à intégrer également des technologies avancées de protection contre les menaces persistantes et les attaques ciblées, ainsi qu’à adopter une approche globale incluant la formation et la sensibilisation des collaborateurs à ces problématiques.

Les défis éthiques de l’utilisation d’intelligence artificielle générative

Le cas de ChatGPT et autres outils similaires soulève des questions éthiques quant à l’utilisation de l’intelligence artificielle à des fins malveillantes. Si ces technologies peuvent être bénéfiques pour diverses applications, leur utilisation par des cybercriminels représente un défi majeur en termes de sécurité et de protection des données. Les développeurs de ces systèmes sont ainsi appelés à réfléchir aux moyens de limiter leur exploitation abusive, sans restreindre la liberté d’innovation et le partage du savoir-faire technologique.

Responsabilité partagée entre les acteurs de l’écosystème numérique

Pour lutter efficacement contre la menace croissante que représentent ces attaques sophistiquées, il est indispensable que l’ensemble des acteurs de l’écosystème numérique prennent leurs responsabilités et collaborent. Des entreprises développant des solutions de cybersécurité aux organisations qui ont recours à de tels outils, en passant par les autorités chargées d’établir des régulations adéquates, tous doivent oeuvrer ensemble dans un objectif commun : protéger les individus et les données sensibles face aux enjeux multiples posés par l’utilisation abusive de l’intelligence artificielle générative.

En conclusion, il apparaît que l’avènement des outils d’intelligence artificielle générative comme ChatGPT a changé la donne en matière de phishing, rendant les attaques plus sophistiquées et difficiles à détecter. Les entreprises doivent ainsi redoubler d’efforts pour se protéger contre ce type de menaces, et il est impératif que le développement et l’utilisation de ces technologies soient encadrés par des principes éthiques et une responsabilité partagée entre tous les acteurs concernés.

Laurent Amar CEO & Co Founder @FranceVerif

Doctorat Paris Sorbonne.
Expert en cybersécurité et lutte contre les fraudes et arnaques.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet avec un taux d'efficacité de 99,86%.
Co-fondateur de France Verif, 1ère Intelligence Artificielle de Cybersécurité à destination des particuliers.

Cette vidéo YouTube pourrait vous intéresser, ainsi que celle-ci également.