OpenAI crée un nouveau comité de sécurité après avoir dissous l’équipe précédente : ce que vous devez savoir

Dans un revirement spectaculaire, OpenAI vient d’annoncer la formation d’un tout nouveau comité de sécurité. Menée par des figures de proue de l’entreprise, cette décision intervient après la dissolution de l’équipe de surveillance de la sécurité “superalignment”. Mais que se passe-t-il réellement chez OpenAI ? Découvrons ensemble les dessous de cette nouvelle stratégie.

Un nouveau départ pour la sécurité chez OpenAI

OpenAI a récemment annoncé la création d’un comité de sécurité et de sûreté, dirigé par les directeurs Bret Taylor, Adam D’Angelo, Nicole Seligman, et le PDG Sam Altman. Ce comité a pour mission de formuler des recommandations au conseil d’administration sur les mesures de sécurité à adopter pour les projets et les opérations d’OpenAI.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

Pourquoi un nouveau comité maintenant ?

Cette initiative survient après la démission de Jan Leike, ancien cadre de la sécurité chez OpenAI, qui avait critiqué le manque d’investissement dans les travaux de sécurité et les tensions avec la direction. Suite à cette démission, l’équipe de surveillance de la sécurité “superalignment” a été démantelée, ses membres étant réaffectés à d’autres postes.

Les enjeux de la sécurité des IA

Ilia Kolochenko, expert en cybersécurité, a exprimé son scepticisme quant aux bénéfices réels de ce changement pour la société. “Bien que cette initiative soit certainement la bienvenue, son bénéfice final pour la société reste largement flou. Rendre les modèles d’IA sûrs, par exemple pour prévenir leur utilisation abusive ou des hallucinations dangereuses, est évidemment essentiel,” a-t-il déclaré dans un communiqué. “Cependant, la sécurité n’est qu’un des nombreux aspects des risques que les vendeurs de GenAI doivent aborder.”

Lire  La sécurité à l'ère numérique : tout savoir sur le partage de fichiers sécurisé
Intelligence artificielle générative : Un danger pour la sécurité en ligne

Le rôle du comité dans le futur

Le nouveau comité sera d’abord chargé d’évaluer et de développer les processus et les mesures de sécurité de l’entreprise pendant les 90 prochains jours. À l’issue de cette période, le comité partagera ses recommandations avec le conseil d’administration avant de les rendre publiques.

Points forts et points faibles

Points forts

  • Leadership expérimenté : Le comité est composé de personnalités influentes et expérimentées.
  • Évaluation rigoureuse : Une période initiale de 90 jours pour évaluer et développer les processus de sécurité.
  • Transparence : Engagement à partager les recommandations avec le public.

Points faibles

  • Scepticisme externe : Les experts restent dubitatifs quant aux bénéfices réels pour la société.
  • Réorganisation récente : La dissolution de l’équipe précédente peut créer des incertitudes internes.
Points forts et points faibles

Tableau comparatif des équipes et enjeux

CaractéristiqueAncien comité “superalignment”Nouveau comité de sécurité
LeadershipJan Leike et équipeBret Taylor, Adam D’Angelo, Nicole Seligman, Sam Altman
MissionSurveillance de la sécurité de l’IAFormulation de recommandations sur la sécurité et la sûreté
Durée initiale d’évaluationNon spécifiée90 jours
TransparenceLimitéeEngagement à partager avec le public

Conclusion : une nouvelle ère pour OpenAI ?

La formation de ce nouveau comité marque-t-elle le début d’une ère de sécurité renforcée pour OpenAI ? Seul le temps nous le dira. En attendant, cette initiative démontre une prise de conscience accrue des enjeux de sécurité entourant les technologies de l’IA. Restez connectés pour suivre les évolutions de cette passionnante saga technologique.

Laurent Amar CEO & Co Founder @FranceVerif

Doctorat Paris Sorbonne.
Expert en cybersécurité et lutte contre les fraudes et arnaques.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet avec un taux d'efficacité de 99,86%.
Co-fondateur de France Verif, 1ère Intelligence Artificielle de Cybersécurité à destination des particuliers.

Cette vidéo YouTube pourrait vous intéresser, ainsi que celle-ci également.