Rendre l’IA et la cybersécurité plus accessibles grâce à la recherche

L’intelligence artificielle (IA) et la cybersécurité sont deux domaines en constante évolution, et leur maîtrise devient de plus en plus importante dans le monde moderne. Afin d’aider à rendre ces technologies plus accessibles, équitables, transparentes, sûres et éthiques, Morgan State University a créé deux centres de recherche : le Centre pour une IA Équitable et les Systèmes d’Apprentissage Automatique (CEAMLS) et le Centre d’Assurance et de Politique en Cybersécurité (CAP). Dans cet article, nous allons explorer comment ces centres contribuent à améliorer le domaine de l’IA et de la cybersécurité.

Lutter contre les biais algorithmiques

Le CEAMLS a pour objectif principal de combattre les biais algorithmiques qui peuvent influencer les résultats fournis par les systèmes d’intelligence artificielle. Le directeur du CEAMLS, Kofi Nyarko, explique que les biais algorithmiques sont parfois des erreurs involontaires qui peuvent avoir un impact disproportionné sur certaines personnes ou groupes de personnes. Pour y remédier, les chercheurs du centre travaillent sur un cadre éthique qui permettrait de prévenir l’apparition de biais dès le stade du développement des algorithmes.

En outre, ils développent également un banc d’essai qui permettra de vérifier et d’évaluer les modèles d’IA disponibles sur le marché en ce qui concerne leurs biais potentiels.

Site frauduleux ? Arnaque ? Piratage ? On vous protège !

Vous avez 35 fois plus de risque de vous faire pirater vos comptes bancaires que de vous faire cambrioler.

Améliorer la cybersécurité

Le Centre d’Assurance et de Politique en Cybersécurité (CAP) se concentre sur l’amélioration de la sécurité des réseaux, des dispositifs et des infrastructures. Le directeur du CAP, Kevin Kornegay, souligne que la sécurité doit être prise en compte à chaque étape, des dispositifs aux réseaux en passant par les systèmes informatiques en périphérie et jusqu’au cloud. Une approche globale de la cybersécurité est nécessaire pour minimiser les risques et assurer la protection des données et des informations.

Les chercheurs du CAP ont notamment travaillé sur un banc d’essai dédié aux voitures connectées, leur permettant de reproduire et de tester la sécurité des systèmes embarqués dans ce type de véhicules.

Soutenir une appréhension interdisciplinaire et inclusive de l’IA et de la cybersécurité

Morgan State University est une institution historiquement noire qui célèbre ses 150 ans. L’un des principaux engagements de cette université est de former les futurs chercheurs et spécialistes de l’intelligence artificielle et de la cybersécurité, tout en promouvant la diversité et l’inclusion dans ces domaines. Selon Nyarko, il est important d’avoir plus de diversité parmi les personnes qui développent les modèles d’IA et les systèmes de cybersécurité. Il explique que les groupes sous-représentés doivent comprendre qu’il y a de la place pour eux dans ces secteurs.

Kornegay cite notamment le programme GenCyber d’été pour les filles des écoles intermédiaires de Baltimore, au Maryland, qui vise à enseigner la cybersécurité dans un environnement sûr et accueillant, encadré par des mentors féminines.

Offrir des opportunités professionnelles aux étudiants

Les centres CEAMLS et CAP offrent également des opportunités de stage aux étudiants, leur permettant de travailler avec des agences gouvernementales et des entreprises. Nyarko explique que ces stages sont bénéfiques à la fois pour les employeurs et les étudiants, puisqu’ils offrent une occasion d’apprendre les uns des autres et de déterminer s’ils souhaitent poursuivre une collaboration sur le long terme après la fin du stage.

En conclusion, les centres de recherche en IA et en cybersécurité de Morgan State University jouent un rôle central dans la promotion d’une meilleure compréhension de ces technologies et en rendant ces domaines plus accessibles et équitables. Grâce à leurs efforts, l’intelligence artificielle et la cybersécurité deviennent des outils à la portée de tous pour améliorer les services et assurer la protection des données.

Mehdi Bellatig

Master en Sciences Sociales
Expert en cybersécurité et lutte contre les fraudes et arnaques en ligne.
Co-créateur de la 1ère Intelligence Artificielle analysant la fiabilité des sites internet.
Co-fondateur technique de France Verif, le premier outil pour la sécurité numérique globale des particuliers.