Google Retire Son Engagement à Ne Pas Utiliser l’IA pour les Armes
Cette semaine, une modification discrète du site web de Google a été repérée et soulève des interrogations sur les orientations éthiques du géant de la technologie en matière d'intelligence artificielle. En effet, la firme a supprimé de sa page de principes publics sur l'IA une section intitulée "Applications que nous ne poursuivrons pas", dans laquelle elle s'engageait à ne pas développer d'IA à des fins d'armement ou de surveillance.
Ce changement, d'abord repéré par Bloomberg, marque un tournant par rapport à la position éthique affichée jusqu'ici par Google. Interrogée, l'entreprise a renvoyé vers un nouveau billet de blog sur "l'IA responsable", qui souligne notamment que "les entreprises, gouvernements et organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les gens, favorise la croissance mondiale et soutient la sécurité nationale."
Des principes éthiques assouplies
Dans la nouvelle version de ses principes sur l'IA, Google indique vouloir œuvrer à "atténuer les résultats involontaires ou préjudiciables et éviter les biais injustes", ainsi qu'à aligner l'entreprise sur "les principes largement acceptés du droit international et des droits de l'homme". Une formulation moins explicite et contraignante que l'engagement précédent à ne pas poursuivre certaines applications sensibles comme les armes.
Des contrats militaires controversés
Ces dernières années, les contrats de Google visant à fournir des services cloud aux armées américaine et israélienne ont suscité des protestations internes de la part des employés. Si l'entreprise a toujours affirmé que son IA n'était pas utilisée pour nuire, le chef de l'IA du Pentagone a récemment déclaré à TechCrunch que les modèles de certaines sociétés accéléraient la chaîne de mise à mort de l'armée américaine.
Quelles priorités pour Google ?
En retirant cet engagement de son site, Google envoie un signal ambigu sur ses priorités en matière d'éthique de l'IA. Faut-il y voir un assouplissement de ses principes pour permettre plus de souplesse dans les partenariats, notamment avec le secteur de la défense ? Ou une volonté de se donner plus de latitude dans un domaine hautement stratégique et compétitif ?
Si les nouvelles formulations restent attachées à des notions de responsabilité et de respect des droits, elles paraissent moins catégoriques que les "lignes rouges" précédemment affichées. Un changement subtil mais lourd de sens, qui ne manquera pas d'alimenter le débat sur les enjeux éthiques de l'IA et la responsabilité des géants de la tech dans ce domaine en pleine expansion.
Les entreprises, gouvernements et organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les gens, favorise la croissance mondiale et soutient la sécurité nationale.
Extrait du nouveau blog de Google sur "l'IA responsable"
Au delà du cas de Google, cette évolution illustre les défis croissants posés par le développement rapide de l'IA et son application à des domaines sensibles comme la défense ou la sécurité. Entre course à l'innovation, intérêts économiques et impératifs éthiques, l'équilibre est de plus en plus difficile à trouver pour les acteurs technologiques.
Vers plus de transparence et de régulation ?
Face à ces enjeux, de nombreuses voix s'élèvent pour réclamer plus de transparence et un encadrement renforcé du secteur. Car au-delà des engagements volontaires des entreprises, largement dépendants de leurs stratégies et de leurs intérêts, c'est bien un cadre régulateur clair et contraignant qui semble nécessaire pour garantir une IA éthique et responsable.
Les pouvoirs publics, mais aussi la société civile et le monde académique, ont un rôle essentiel à jouer pour définir des standards, des contrôles et des garde-fous. Car il en va de notre responsabilité collective de nous assurer que les progrès spectaculaires de l'IA servent le bien commun et ne dérivrent pas vers des usages préjudiciables.
Le changement de position de Google doit nous alerter sur l'urgence de ce chantier. Plus que jamais, nous avons besoin d'un débat ouvert, éclairé et exigeant pour donner un cap clair au développement de l'IA. Un défi majeur et pressant pour construire le monde de demain.