Les directives pour un déploiement responsable de l’IA aux États-Unis

Appels à des mesures responsables en matière d’intelligence artificielle

Au cours de ces dernières années, les universitaires, les chercheurs et même les PDG d’entreprises qui produisent des outils d’intelligence artificielle (IA) ont appelé à la mise en place de mesures et de garde-fous responsables en matière d’IA. Parmi leurs préoccupations figurent le déplacement des travailleurs, les violations du droit d’auteur, l’accroissement des inégalités de richesse dans les services financiers, la diffusion de discriminations et de fausses informations, ainsi que la sécurité nationale dans un monde où d’autres puissances mondiales disposent également de l’IA. Les autorités américaines ont élaboré un plan visant à mettre en œuvre une régulation de l’utilisation de l’IA au sein du gouvernement fédéral, en intégrant les risques liés à la protection de la vie privée, à la défense des consommateurs, à la sécurité nationale et à la protection des droits civils et humains dans les secteurs public et privé.

Mise en place d’un cadre pour soutenir la recherche sur l’IA et protéger les travailleurs américains

L’objectif du plan est de soutenir les travailleurs américains, d’étendre les fonds de subvention destinés à la recherche sur l’IA, d’intéresser les travailleurs capables de travailler sur des systèmes AI avancés et d’embaucher des professionnels de l’IA au sein des agences fédérales. Le National Institute of Standards and Technology a publié, en janvier 2023, des directives pour développer et déployer des systèmes d’IA de manière responsable au sein du gouvernement, qui peuvent être utilisées volontairement dans le secteur privé.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

L’ordre exécutif donne au département du Commerce près d’un an pour élargir la portée de ce cadre et créer une version pour les produits IA génératifs tels que ChatGPT et Gemini développés par Google. Ainsi, les efforts se poursuivent pour garantir un développement équitable et responsable de l’intelligence artificielle aux États-Unis.

Définition de la notion de double usage pour les systèmes d’IA

Le plan définit également la notion de double usage, comme étant un modèle AI formé sur des données très vastes avec auto-supervision ayant un nombre massif de paramètres (au moins des dizaines de milliards) pouvant être utilisées dans divers contextes. Il soulève également des préoccupations quant à la possibilité que ces modèles facilitent le développement d’armes ou renforcent les capacités de cyber-guerre offensive.

Mesures pour protéger les infrastructures critiques contre les cyberattaques

En outre, le plan met en place des mesures pour protéger les infrastructures critiques contre les cyberattaques via les vulnérabilités des modèles d’IA. Les agences chargées de superviser les infrastructures critiques devront signaler annuellement les risques posés par l’IA au directeur de la Cybersecurity and Infrastructure Security Agency (CISA).

Le ministère du Trésor a la responsabilité de partager les meilleures pratiques en matière de gestion des risques liés à l’IA pour les institutions financières. Le rapport souligne également que des décisions discriminatoires en matière de prêt pourraient être le résultat de l’utilisation par les institutions financières de techniques de profilage basées sur l’IA.

Développement de politiques spécifiques au secteur de la santé

Au cours des prochains mois, une task force sera mise en place pour élaborer des politiques visant à assurer un déploiement responsable de l’IA dans les environnements de soins de santé. Des directives seront fournies pour mettre à jour les normes de sécurité des logiciels afin de protéger les informations personnelles identifiables gérées par les entreprises de ce secteur tout en tenant compte de limites pratiques telles que les budgets, la formation du personnel et les processus de cybersécurité.

En somme, ces directives établissent un cadre solide pour le développement et l’implémentation éthique et responsable de systèmes d’intelligence artificielle aux États-Unis. Il revient désormais aux agences gouvernementales, aux entreprises technologiques et aux institutions financières de travailler ensemble pour garantir un avenir équitable et sécurisé pour tous face à cette révolution technologique sans précédent.

Laurent Amar CEO & Co Founder @FranceVerif

Doctorat Paris Sorbonne.
Expert en cybersécurité et lutte contre les fraudes et arnaques.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet avec un taux d'efficacité de 99,86%.
Co-fondateur de France Verif, 1ère Intelligence Artificielle de Cybersécurité à destination des particuliers.

Cette vidéo YouTube pourrait vous intéresser, ainsi que celle-ci également.