Meta Ouvre Ses Modèles Llama à la Sécurité Nationale
Dans un contexte où l'intelligence artificielle (IA) ouverte est parfois perçue comme une aide potentielle aux adversaires étrangers, Meta a décidé de mettre ses modèles de langage Llama à la disposition des agences gouvernementales américaines et de leurs partenaires privés œuvrant dans le domaine de la sécurité nationale et de la défense. Une annonce qui ne manque pas de soulever des questions sur les usages de l'IA dans ce secteur sensible.
Meta ouvre les portes de Llama au gouvernement américain
Meta a confirmé dans un billet de blog que ses modèles de langage Llama seraient mis à la disposition des agences gouvernementales américaines, y compris celles travaillant sur des applications de défense et de sécurité nationale, ainsi qu'à leurs partenaires du secteur privé. Le géant technologique a noué des partenariats avec de grandes entreprises comme Accenture, Amazon Web Services, Microsoft ou encore Palantir pour faciliter l'adoption de Llama par les agences gouvernementales.
Parmi les exemples d'applications cités, Oracle utilise Llama pour traiter des documents de maintenance aéronautique, Scale AI adapte le modèle pour soutenir des missions spécifiques d'équipes de sécurité nationale, et Lockheed Martin propose Llama à ses clients de la défense pour des cas d'usage comme la génération de code informatique.
Une réponse à la controverse sur l'usage de Llama en Chine
Cette annonce de Meta intervient une semaine après des révélations de Reuters sur l'utilisation d'une version antérieure de Llama, Llama 2, par des chercheurs chinois liés à l'Armée populaire de libération pour développer un chatbot militaire destiné à collecter et traiter du renseignement. Meta avait alors déclaré que cet usage d'un unique modèle obsolète était non autorisé et contraire à sa politique d'utilisation acceptable.
En ouvrant officiellement l'accès à Llama aux agences de sécurité nationale américaines, Meta cherche vraisemblablement à couper court aux critiques sur les risques de son IA ouverte et à montrer patte blanche en coopérant avec le gouvernement de son pays d'origine. Mais cette décision ne manque pas de raviver le débat sur l'utilisation de l'IA, ouverte ou non, à des fins militaires.
Les dangers d'une IA militaire alimentée par les données personnelles
Une récente étude de l'AI Now Institute, un organisme à but non lucratif, met en garde contre les dangers de déployer pour le renseignement, la surveillance et la reconnaissance militaires une IA qui s'appuie sur des données personnelles. Celles-ci pourraient être exfiltrées et weaponisées par des adversaires. De plus, ces systèmes d'IA présentent des vulnérabilités comme des biais et une tendance à halluciner qui sont actuellement sans remède, selon les auteurs.
Les chercheurs recommandent de créer une IA militaire séparée et isolée des modèles "commerciaux".
Par le passé, des employés de plusieurs grandes entreprises technologiques, dont Google et Microsoft, ont déjà protesté contre les contrats de leurs employeurs visant à construire des outils et infrastructures d'IA pour l'armée américaine.
Vers une course à l'armement de l'IA entre grandes puissances ?
Au-delà des enjeux éthiques, la diffusion des modèles d'IA les plus avancés dans la sphère militaire fait craindre une accélération de la course aux armements entre les États-Unis et des puissances rivales comme la Chine. Chaque camp cherche à s'assurer une supériorité stratégique grâce aux progrès exponentiels de l'IA.
Si l'ouverture des modèles Llama de Meta aux agences de sécurité nationale américaines peut sembler une réponse logique à l'utilisation avérée de ces mêmes modèles par des chercheurs militaires chinois, elle soulève néanmoins de profondes questions :
- Comment s'assurer que ces systèmes d'IA militaire restent sous contrôle humain et alignés avec nos valeurs ?
- Quelles garanties existent pour empêcher la prolifération et le détournement de ces technologies à double usage, civil et militaire ?
- Comment instaurer des garde-fous éthiques et des mécanismes de supervision dans un domaine aussi opaque que la défense ?
Face à ces défis complexes, il semble urgent que la communauté internationale se saisisse du sujet pour définir un cadre et des limites à l'utilisation de l'IA dans les applications militaires et de sécurité nationale. Sans quoi le risque est grand de voir cette technologie transformative échapper à tout contrôle dans une spirale aux conséquences potentiellement dévastatrices pour l'humanité.