Nouvelle menace cyber : Le LLMjacking exploite les modèles d’IA pour le profit

Dans le paysage en constante évolution de l’intelligence artificielle (IA), l’innovation est fréquemment accompagnée de risques significatifs. Une révélation récente par l’équipe de recherche sur les menaces de Sysdig attire l’attention sur un risque particulièrement inquiétant : l’attaque par “LLMjacking”. Cette stratégie permet aux cybercriminels de détourner des modèles de langage de grande envergure (LLM) dans des environnements cloud, transformant ces avancées technologiques en sources de profit illicite.

Définition et mécanisme du LLMjacking

Le LLMjacking consiste en une intrusion où des acteurs malintentionnés accèdent à des environnements cloud pour manipuler ou contrôler des modèles de langage localisés. Ces modèles, qui incluent des technologies développées par des entités telles qu’Anthropic, AWS Bedrock, Google Cloud Vertex AI, Mistral et OpenAI, sont visés en raison de leurs capacités étendues et de leur potentiel d’application.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

Processus d’attaque

Les attaquants exploitent des identifiants de cloud volés, souvent issus de comptes cloud compromis, pour infiltrer des systèmes qui exécutent ces LLMs. Ils utilisent ensuite des vulnérabilités dans des systèmes désuets pour exécuter leurs manœuvres, par exemple, en ciblant un système Laravel Framework vulnérable pour obtenir un accès non autorisé à des services tels qu’Amazon Web Services (AWS).

Implications économiques et sécuritaires

Si une telle attaque n’est pas rapidement détectée, elle peut entraîner des coûts exorbitants, pouvant atteindre 46 000 dollars de consommation de LLM par jour pour une seule victime. Ce type de cyberattaque ne cherche pas seulement à perturber ou à voler des données mais vise principalement à générer des profits en vendant l’accès aux capacités des modèles d’IA à d’autres criminels.

Lire  Découvrez comment les logiciels d'IA gratuits deviennent le piège favori des hackers !

Objectifs et motivations des cybercriminels

L’objectif des attaquants dans le cadre du LLMjacking n’est pas l’extraction de données internes aux LLMs mais plutôt l’exploitation de l’accès à ces modèles pour fournir des services à d’autres acteurs malveillants, sans exposer les données sensibles des victimes.

Vidéo : Activez les sous-titre et la traduction automatique FR

Stratégies de mitigation

Pour contrer cette menace, des pratiques robustes de gestion des vulnérabilités et des secrets sont recommandées, accompagnées de solutions de gestion de la posture de sécurité du cloud ou de gestion des droits d’infrastructure cloud. Ces approches permettent de minimiser les permissions inutiles et de prévenir les accès non autorisés, renforçant ainsi la sécurité des modèles d’IA.

Synthèse comparative des caractéristiques d’attaque

Vecteurs d’intrusionConséquences potentiellesMotivation des attaquants
Accès par identifiants volés et exploitation de vulnérabilitésCoûts de consommation excessifsProfit par la vente d’accès

Conclusion : un appel à la vigilance et à l’action

Il est impératif pour les organisations exploitant des modèles d’IA de reconnaître et de se prémunir contre le LLMjacking, une menace qui symbolise les défis sécuritaires posés par les avancées technologiques. La mise en place de mesures de sécurité adéquates est cruciale pour protéger les innovations en IA contre les exploitations malveillantes.

Mehdi Bellatig

Master en Sciences Sociales
Expert en cybersécurité et lutte contre les fraudes et arnaques en ligne.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet.
Co-fondateur technique de France Verif, le premier outil pour la sécurité numérique globale des particuliers.