Le ministère américain du Commerce sécurise l’IA avec Dioptra

Accueil - Technologies et Avenirs - Intelligence Artificielle - Le ministère américain du Commerce sécurise l’IA avec Dioptra
Innovationsfr
juillet 30, 2024

Le ministère américain du Commerce sécurise l’IA avec Dioptra

Face à l'essor fulgurant de l'intelligence artificielle, la question de sa sécurité et de sa fiabilité est plus que jamais cruciale. Pour y répondre, le ministère américain du Commerce vient de dévoiler plusieurs initiatives visant à renforcer la robustesse des systèmes d'IA et à aider les développeurs à gérer les risques associés.

Dioptra, un logiciel open source pour tester la résilience de l'IA

Parmi ces initiatives, le logiciel Dioptra se distingue. Développé par l'Institut national des normes et de la technologie (NIST), ce banc d'essai permet d'évaluer comment certains types d'attaques peuvent dégrader les performances d'un modèle d'IA. L'objectif ? Déterminer dans quelle mesure un système résiste à diverses cybermenaces.

Dioptra se focalise notamment sur un point de vulnérabilité majeur : les données d'entraînement. Si des acteurs malveillants parviennent à empoisonner ces données avec des inexactitudes, cela peut amener le modèle à prendre des décisions incorrectes, potentiellement désastreuses. Le logiciel permet donc de quantifier l'impact de telles attaques sur les performances.

Un outil expérimental qui monte en puissance

Initialement considéré comme un banc d'essai expérimental en 2022, Dioptra a fait ses preuves en l'espace de quelques années. Sa conception modulaire permet aux chercheurs d'échanger facilement des ensembles de données, des modèles, des attaques et des défenses alternatives.

Dioptra vise à faire progresser la métrologie nécessaire pour contribuer à sécuriser les systèmes compatibles avec le Machine Learning.

NIST

Toutefois, le logiciel présente une limitation majeure à ce stade : il ne fonctionne que sur des modèles pouvant être téléchargés et utilisés localement. Les modèles bloqués derrière une API, comme GPT-4 d'OpenAI, restent hors de portée pour l'instant.

Des guides pour atténuer les risques de l'IA générative

Au-delà de Dioptra, le NIST propose également plusieurs publications pour aider les développeurs à gérer les risques. Un guide d'actions identifie ainsi une douzaine de risques clés liés à l'IA générative, comme :

  • La réduction de la barrière à l'entrée pour les cyberattaques
  • La production de fausses informations et de désinformation
  • La génération de discours haineux et d'autres contenus nuisibles
  • Les "hallucinations" des systèmes d'IA

Pour chacun de ces risques, le document détaille plus de 200 mesures d'atténuation potentielles, en s'appuyant sur un cadre de référence dédié à l'IA.

Collaborer à l'échelle mondiale pour des normes d'IA

Enfin, le NIST appelle à une collaboration internationale pour l'élaboration et la mise en œuvre de normes consensuelles liées à l'IA. Un plan d'engagement mondial vise ainsi à stimuler la coopération, la coordination et le partage d'informations entre États et entreprises du monde entier.

Ces initiatives font écho à l'engagement croissant des autorités et des géants de la tech en faveur d'une IA plus sûre et responsable. Elles marquent une étape importante vers un développement maîtrisé de l'intelligence artificielle, conciliant progrès technologique et gestion des risques.

Partager:

Ajouter Un Commentaire

Chercher

Beauty and lifestyle influencer

Follow my journey on all Social Media channels

Alienum phaedrum torquatos nec eu, vis detraxit periculis ex, nihilmei. Mei an pericula euripidis, hinc partem ei est.
facebook
5M+
Facebook followers
Follow Me
youtube
4.6M+
Youtube Subscribers
Subscribe Me
tiktok
7M+
Tiktok Followers
Follow Me
instagram
3.4M+
Instagram Followers
Follow Me