L’IA décisionnelle dans l’armement : un débat crucial
L'avènement de l'intelligence artificielle dans le domaine militaire soulève un débat de fond : les armes dotées d'IA doivent-elles avoir le pouvoir de décider d'ôter la vie humaine de manière autonome ? Cette question divise actuellement la Silicon Valley, berceau mondial des technologies de pointe.
Des positions contrastées chez les géants de la Tech
Fin septembre, Brandon Tseng, co-fondateur de Shield AI, affirmait avec conviction qu'aux États-Unis, les armes ne seraient jamais totalement autonomes dans la prise de décision létale. "Le Congrès ne veut pas ça, personne ne le souhaite", déclarait-il à TechCrunch.
Pourtant, quelques jours plus tard, Palmer Luckey, co-fondateur d'Anduril, exprimait une position plus nuancée. Lors d'une conférence à l'université Pepperdine, il s'interrogeait :
Nos adversaires disent qu'un robot ne devrait jamais décider de qui vit ou meurt. Mais où est la supériorité morale d'une mine qui ne fait pas la différence entre un bus scolaire et un tank russe ?
Palmer Luckey, co-fondateur d'Anduril
Le spectre d'une course à l'armement autonome
La crainte principale des acteurs de la Silicon Valley et de Washington est de voir la Chine ou la Russie déployer en premier des armes entièrement autonomes, forçant les États-Unis à s'aligner. Lors d'un débat à l'ONU l'an dernier sur les armes à IA, un diplomate russe s'était montré évasif, laissant planer le doute sur les intentions de Moscou.
Joe Lonsdale, co-fondateur de Palantir et investisseur d'Anduril, estime que le secteur technologique doit "éduquer la Marine, le Pentagone et le Congrès" sur le potentiel de l'IA pour "devancer la Chine". Anduril et Palantir ont d'ailleurs dépensé plus de 4 millions de dollars en lobbying cette année.
Des lignes rouges floues au niveau international
Actuellement, l'armée américaine n'achète pas d'armes totalement autonomes. Les États-Unis n'interdisent pas aux entreprises d'en fabriquer, ni même de les vendre à l'étranger. Des directives sur la sécurité de l'IA militaire ont été publiées l'an passé, mais elles restent volontaires.
Des groupes de défense des droits humains militent depuis longtemps pour des traités internationaux bannissant les armes autonomes létales, sans succès jusqu'ici, Washington s'y étant opposé. Mais la guerre en Ukraine pourrait changer la donne, en fournissant un terrain d'expérimentation grandeur nature.
L'implication croissante de l'IA sur les champs de bataille
De fait, l'IA est de plus en plus intégrée dans les systèmes d'armes, même si la décision finale de tirer revient encore à un opérateur humain. Les responsables ukrainiens poussent pour davantage d'automatisation, y voyant un avantage face à la Russie.
Nous avons besoin d'un maximum d'automatisation. Ces technologies sont fondamentales pour notre victoire.
Mykhailo Fedorov, ministre ukrainien du numérique
La question des limites à fixer dans l'autonomie des systèmes d'armes est donc plus que jamais d'actualité. C'est un dilemme moral et sécuritaire épineux, qui soulève de profondes interrogations :
- Peut-on laisser une IA décider de questions de vie ou de mort sur un champ de bataille ?
- Quelles seraient les conséquences d'une course effrénée aux armes autonomes ?
- Comment s'assurer que ces systèmes respectent le droit international humanitaire ?
Autant de questions cruciales qui appellent un large débat de société. Car c'est bien l'avenir de la guerre qui est en jeu, avec des implications majeures pour notre sécurité et nos valeurs. La Silicon Valley, en première ligne de ces développements technologiques, a un rôle clé à jouer pour éclairer les enjeux et guider les choix.
L'issue de ces réflexions façonnera le visage des conflits de demain. Il est urgent d'avoir une discussion franche et approfondie sur les limites éthiques à poser aux armes autonomes. Car une fois le génie sorti de sa lampe, il sera bien difficile de l'y faire rentrer.