Assurer la sécurité et la transparence de l’IA dans les administrations publiques

Tendance à l’utilisation d’outils d’IA non sécurisés

Les outils d’intelligence artificielle (IA) sont de plus en plus utilisés par les administrations publiques. Cependant, certaines voix s’élèvent pour critiquer le manque de mesures de sécurité concernant ces technologies. Dewand Neely Barnes, expert informatique, déplore que “les États permettent l’utilisation d’outils d’IA avant de les sécuriser”. Pour lui, il est essentiel de comprendre ces technologies avant d’en autoriser l’usage au sein des administrations.

Une approche restrictive face aux risques de l’IA

Conscient des dangers potentiels liés à l’utilisation d’outils d’IA non sécurisés, certains États ont choisi d’adopter une approche plus prudente. C’est notamment le cas de l’Indiana aux États-Unis, qui a décidé de limiter l’accès aux données sensibles et d’étudier les possibilités offertes par ces nouveaux outils avant de les utiliser pleinement. Cette démarche vise à mettre en place des politiques et des protections adaptées pour encadrer l’usage de l’IA dans les services publics.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

Transparence et accessibilité : les défis majeurs de l’IA

Au-delà de la sécurisation des outils, les responsables des technologies de l’information doivent également veiller à ce que l’IA soit transparente et accessible à tous les citoyens. Pour Mike Rupert, directeur de la technologie de l’Office du directeur technique en chef à Washington D.C., il est impératif d'”assurer l’accessibilité pour chaque personne” dans son district.

Une communication transparente avec les utilisateurs

Dans cette optique, le bureau des technologies de l’information de Washington D.C. se focalise sur la transparence : le public doit être informé lorsque du contenu généré par IA est publié ou lorsqu’ils interagissent avec des chatbots. Cette approche vise à garantir que les usagers connaissent les limites et les spécificités des outils d’IA auxquels ils ont accès.

L’importance de l’accessibilité pour les personnes handicapées

Par ailleurs, tous les sites internet de la ville doivent répondre à des normes d’accessibilité en conformité avec les régulations en vigueur. Ces règles permettent de prendre en compte les besoins spécifiques des utilisateurs souffrant de déficiences visuelles, de handicaps moteurs ou de troubles de l’apprentissage.

Ainsi, les outils d’IA sont conçus pour s’intégrer au mieux aux équipements personnels des utilisateurs, leur permettant de bénéficier d’un appui adapté à leurs besoins. L’objectif est d’offrir un service pratique et accessible à tous les citoyens.

Former les employés publics pour une utilisation optimale de l’IA

Pour une mise en œuvre réussie de l’IA au sein des administrations publiques, il est crucial de former et d’équiper les employés afin qu’ils puissent tirer le meilleur parti de ces nouvelles technologies. C’est la position défendue par Dewand Neely Barnes, qui souligne l’importance d’investir dans la formation et les ressources pour que chaque agent puisse pleinement exploiter les potentialités offertes par l’intelligence artificielle dans son travail quotidien.

L’adoption croissante de l’intelligence artificielle dans les services publics présente des défis importants en matière de sécurité, de transparence et d’accessibilité. Pour répondre efficacement à ces enjeux, il est essentiel d’étudier avec précaution les possibilités offertes par ces outils avant de les intégrer au sein des administrations. Parallèlement, garantir une accessibilité totale aux nouveaux services et informer clairement les citoyens sur les limites de ces technologies doit être une priorité pour les décideurs publics. Enfin, investir dans la formation des employés est crucial pour assurer une utilisation optimale de l’IA dans un contexte administratif.

Laurent Amar CEO & Co Founder @FranceVerif

Doctorat Paris Sorbonne.
Expert en cybersécurité et lutte contre les fraudes et arnaques.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet avec un taux d'efficacité de 99,86%.
Co-fondateur de France Verif, 1ère Intelligence Artificielle de Cybersécurité à destination des particuliers.

Cette vidéo YouTube pourrait vous intéresser, ainsi que celle-ci également.