L’IA décisionnelle dans l’armement : un débat crucial

Accueil - Technologies et Avenirs - Intelligence Artificielle - L’IA décisionnelle dans l’armement : un débat crucial
LIA décisionnelle dans larmement un débat crucial Innovationsfr
octobre 11, 2024

L’IA décisionnelle dans l’armement : un débat crucial

L'avènement de l'intelligence artificielle dans le domaine militaire soulève un débat de fond : les armes dotées d'IA doivent-elles avoir le pouvoir de décider d'ôter la vie humaine de manière autonome ? Cette question divise actuellement la Silicon Valley, berceau mondial des technologies de pointe.

Des positions contrastées chez les géants de la Tech

Fin septembre, Brandon Tseng, co-fondateur de Shield AI, affirmait avec conviction qu'aux États-Unis, les armes ne seraient jamais totalement autonomes dans la prise de décision létale. "Le Congrès ne veut pas ça, personne ne le souhaite", déclarait-il à TechCrunch.

Pourtant, quelques jours plus tard, Palmer Luckey, co-fondateur d'Anduril, exprimait une position plus nuancée. Lors d'une conférence à l'université Pepperdine, il s'interrogeait :

Nos adversaires disent qu'un robot ne devrait jamais décider de qui vit ou meurt. Mais où est la supériorité morale d'une mine qui ne fait pas la différence entre un bus scolaire et un tank russe ?

Palmer Luckey, co-fondateur d'Anduril

Le spectre d'une course à l'armement autonome

La crainte principale des acteurs de la Silicon Valley et de Washington est de voir la Chine ou la Russie déployer en premier des armes entièrement autonomes, forçant les États-Unis à s'aligner. Lors d'un débat à l'ONU l'an dernier sur les armes à IA, un diplomate russe s'était montré évasif, laissant planer le doute sur les intentions de Moscou.

Joe Lonsdale, co-fondateur de Palantir et investisseur d'Anduril, estime que le secteur technologique doit "éduquer la Marine, le Pentagone et le Congrès" sur le potentiel de l'IA pour "devancer la Chine". Anduril et Palantir ont d'ailleurs dépensé plus de 4 millions de dollars en lobbying cette année.

Des lignes rouges floues au niveau international

Actuellement, l'armée américaine n'achète pas d'armes totalement autonomes. Les États-Unis n'interdisent pas aux entreprises d'en fabriquer, ni même de les vendre à l'étranger. Des directives sur la sécurité de l'IA militaire ont été publiées l'an passé, mais elles restent volontaires.

Des groupes de défense des droits humains militent depuis longtemps pour des traités internationaux bannissant les armes autonomes létales, sans succès jusqu'ici, Washington s'y étant opposé. Mais la guerre en Ukraine pourrait changer la donne, en fournissant un terrain d'expérimentation grandeur nature.

L'implication croissante de l'IA sur les champs de bataille

De fait, l'IA est de plus en plus intégrée dans les systèmes d'armes, même si la décision finale de tirer revient encore à un opérateur humain. Les responsables ukrainiens poussent pour davantage d'automatisation, y voyant un avantage face à la Russie.

Nous avons besoin d'un maximum d'automatisation. Ces technologies sont fondamentales pour notre victoire.

Mykhailo Fedorov, ministre ukrainien du numérique

La question des limites à fixer dans l'autonomie des systèmes d'armes est donc plus que jamais d'actualité. C'est un dilemme moral et sécuritaire épineux, qui soulève de profondes interrogations :

  • Peut-on laisser une IA décider de questions de vie ou de mort sur un champ de bataille ?
  • Quelles seraient les conséquences d'une course effrénée aux armes autonomes ?
  • Comment s'assurer que ces systèmes respectent le droit international humanitaire ?

Autant de questions cruciales qui appellent un large débat de société. Car c'est bien l'avenir de la guerre qui est en jeu, avec des implications majeures pour notre sécurité et nos valeurs. La Silicon Valley, en première ligne de ces développements technologiques, a un rôle clé à jouer pour éclairer les enjeux et guider les choix.

L'issue de ces réflexions façonnera le visage des conflits de demain. Il est urgent d'avoir une discussion franche et approfondie sur les limites éthiques à poser aux armes autonomes. Car une fois le génie sorti de sa lampe, il sera bien difficile de l'y faire rentrer.

Partager:

Ajouter Un Commentaire

Chercher

Beauty and lifestyle influencer

Follow my journey on all Social Media channels

Alienum phaedrum torquatos nec eu, vis detraxit periculis ex, nihilmei. Mei an pericula euripidis, hinc partem ei est.
facebook
5M+
Facebook followers
Follow Me
youtube
4.6M+
Youtube Subscribers
Subscribe Me
tiktok
7M+
Tiktok Followers
Follow Me
instagram
3.4M+
Instagram Followers
Follow Me