OpenAI déjoue 5 tentatives de manipulation sur Internet : découvrez comment !

Une menace venue du web

OpenAI, dirigée par Sam Altman, a récemment dévoilé avoir mis en échec cinq opérations d’influence clandestines utilisant ses modèles d’intelligence artificielle à des fins “déceptives”. Ces tentatives visaient à manipuler l’opinion publique et à influencer les résultats politiques sur internet.

Des commentaires et articles trompeurs

Les acteurs derrière les tentatives

Les cybercriminels impliqués provenaient de divers pays, notamment la Russie, la Chine, l’Iran et Israël. Ils ont utilisé les modèles d’OpenAI pour générer des commentaires courts, des articles plus longs dans plusieurs langues, ainsi que des faux noms et biographies pour des comptes sur les réseaux sociaux.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

Des sujets sensibles

Les campagnes se sont concentrées sur des sujets brûlants comme l’invasion de l’Ukraine par la Russie, le conflit à Gaza, les élections en Inde, et la politique en Europe et aux États-Unis. Le but ? Manipuler l’opinion publique et influencer les décisions politiques.

Une réponse implacable d’OpenAI

Le nouveau comité de sécurité

Face à ces menaces, OpenAI a formé un Comité de Sécurité et de Protection dirigé par des membres du conseil d’administration, incluant le PDG Sam Altman. Ce comité supervisera l’entraînement du prochain modèle d’IA d’OpenAI pour garantir une utilisation éthique et sécurisée.

Une réponse implacable d'OpenAI

Pas de gain pour les escrocs

Malgré les efforts des cybercriminels, OpenAI a affirmé que ces campagnes déceptives n’ont pas bénéficié d’un engagement ou d’une portée accrus grâce à leurs services. Les opérations comprenaient non seulement du contenu généré par l’IA, mais aussi des textes écrits manuellement et des mèmes copiés sur internet.

Lire  La menace croissante des deepfakes : comment Lastpass a évité le pire

Facebook et Instagram aussi touchés

Le rapport de sécurité de Meta

Meta Platforms, dans son rapport de sécurité trimestriel, a également signalé la présence de contenus “probablement générés par l’IA” utilisés de manière trompeuse sur Facebook et Instagram. Parmi ces contenus, des commentaires louant la gestion de la guerre à Gaza par Israël publiés sous des posts de grands médias et de législateurs américains.

Tableau comparatif des acteurs impliqués

PaysSujet traitéMéthode utilisée
RussieInvasion de l’UkraineArticles et commentaires générés par l’IA
ChinePolitique en Europe et aux États-UnisFaux comptes et biographies
IranConflit à GazaMèmes et textes copiés
IsraëlÉlections en IndeContenus trompeurs sur les réseaux sociaux
Facebook et Instagram aussi touchés

Conclusion : la vigilance s’impose

Les récentes tentatives de manipulation par l’IA mettent en lumière la nécessité d’une vigilance accrue et de mesures de sécurité renforcées pour prévenir l’utilisation déceptive de ces technologies. OpenAI et Meta sont en première ligne de cette bataille pour protéger l’intégrité de l’information sur internet.

Laurent Amar CEO & Co Founder @FranceVerif

Doctorat Paris Sorbonne.
Expert en cybersécurité et lutte contre les fraudes et arnaques.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet avec un taux d'efficacité de 99,86%.
Co-fondateur de France Verif, 1ère Intelligence Artificielle de Cybersécurité à destination des particuliers.

Cette vidéo YouTube pourrait vous intéresser, ainsi que celle-ci également.