Les nouvelles capacités de Chat GPT-4 pour pirater les systèmes informatiques

La récente avancée des chercheurs en cybersécurité a mis en lumière une nouvelle facette inquiétante de l’intelligence artificielle. En utilisant Chat GPT-4, des experts ont réussi à développer des bots autonomes capables d’exploiter des failles de sécurité encore inconnues, suscitant des préoccupations sur les potentiels abus de cette technologie.

Une équipe de hackers IA autonome : un nouveau paradigme

L’origine de l’initiative

Il y a trois mois, une équipe de chercheurs de l’Université de l’Illinois a réussi à utiliser Chat GPT-4 pour pirater des vulnérabilités connues mais non patchées. Forts de ce succès, ils se sont tournés vers l’exploitation de vulnérabilités zero-day, celles qui ne sont pas encore découvertes par les éditeurs de logiciels.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

La méthode HPTSA

Pour mener leur recherche, les chercheurs ont adopté la méthode HPTSA (Hierarchical Planning Task and Subtask Allocation). Cette technique consiste à structurer une équipe de plusieurs agents spécialisés dans différents domaines du hacking. Les rôles sont hiérarchisés avec un agent planificateur, un manager et divers agents d’exécution spécialisés. Chaque agent agit de manière autonome pour identifier et exploiter les failles détectées.

Les défis de la cybersécurité face à l'ingéniosité humaine à l'ère de l'ia générative

Entités coordonnées : une efficacité redoutable

Des résultats impressionnants

Dans une analyse comparative portant sur 15 vulnérabilités réelles centrées sur le web, l’équipe de bots IA a démontré une efficacité 550% supérieure à celle d’un seul agent. Ils ont réussi à pirater 53% des cibles visées, réussissant là où des experts humains auraient échoué.

Lire  La sécurité numérique des Jeux olympiques de Paris 2024 : un défi discret mais crucial

Comparaison avec un agent unique

Un agent unique n’a pu exploiter que 3 des 15 vulnérabilités zero-day testées, tandis que l’équipe coordonnée par la méthode HPTSA a pu en compromettre 8. Cela montre que la collaboration entre divers agents autonomes permet d’accroître de manière significative l’efficacité des attaques.

Les implications pour la sécurité informatique

Des menaces potentielles accrues

Cette découverte soulève des inquiétudes légitimes quant aux dangers futurs si ces technologies tombent entre de mauvaises mains. Une équipe de hackers IA parfaitement coordonnée pourrait causer des dégâts considérables en attaquant les serveurs et en volant des données sensibles.

Sécurité et transparence dans l'IA

L’avenir de la cybersécurité

Ces résultats poussent à repenser les approches traditionnelles de la sécurité informatique. Les défenseurs doivent anticiper et préparer leurs systèmes contre des attaques orchestrées par des entités intelligentes et autonomes. La course à l’armement cybernétique prend ainsi une nouvelle dimension avec l’intégration de l’intelligence artificielle à des fins malveillantes.

La capacité de Chat GPT-4 à former des équipes de hackers IA ouvre de nouveaux horizons, mais aussi de nouvelles menaces. Les recherches menées montrent que l’utilisation de méthodes comme HPTSA augmente drastiquement l’efficacité des attaques, appelant à une vigilance accrue et à des innovations continues en matière de cybersécurité. L’évolution rapide de l’intelligence artificielle impose une adaptation tout aussi rapide des stratégies de défense pour protéger nos infrastructures numériques.

Laurent Amar CEO & Co Founder @FranceVerif

Doctorat Paris Sorbonne.
Expert en cybersécurité et lutte contre les fraudes et arnaques.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet avec un taux d'efficacité de 99,86%.
Co-fondateur de France Verif, 1ère Intelligence Artificielle de Cybersécurité à destination des particuliers.

Cette vidéo YouTube pourrait vous intéresser, ainsi que celle-ci également.