DeepMind : La rébellion des employés face aux contrats militaires de Google
Peut-on développer une IA éthique tout en travaillant avec des organisations militaires ? C'est la question épineuse que soulèvent plus de 200 employés de DeepMind, la célèbre division IA de Google. Dans une lettre ouverte adressée à leur maison-mère, ils dénoncent les contrats passés avec des armées, en particulier le projet Nimbus signé avec Israël.
DeepMind et Google : un mariage de raison sous tension
Depuis son rachat par Google en 2014, DeepMind a toujours affiché sa volonté de développer une IA bénéfique pour l'humanité. Mais pour certains employés, les valeurs affichées ne sont pas compatibles avec la réalité des contrats signés par Google, notamment dans le domaine militaire.
Dans leur lettre, ils pointent du doigt la dissonance croissante entre les équipes IA de DeepMind, focalisées sur la recherche et les avancées technologiques, et la branche cloud de Google, qui cherche à commercialiser ces innovations auprès d'un maximum de clients, y compris des armées.
Projet Nimbus : la goutte d'eau qui fait déborder le vase
Parmi les contrats épinglés, le fameux projet Nimbus cristallise les tensions. Signé en 2021 par Google et Amazon avec le gouvernement et l'armée israéliens, il vise à transférer l'ensemble de leurs opérations sur le cloud. D'une valeur de 1,2 milliard de dollars, il inclut la fourniture d'outils avancés d'IA, de machine learning et d'analyse de données.
Pour les employés, c'est la porte ouverte à une surveillance de masse des Palestiniens, via la reconnaissance faciale, le traitement automatisé des images ou encore l'analyse des sentiments sur les réseaux. Des technologies qui pourraient aussi faciliter l'expansion des colonies israéliennes en territoire palestinien.
Nous ne pouvons pas fermer les yeux car les produits que nous fabriquons sont utilisés pour priver les Palestiniens de leurs droits fondamentaux.
– Extrait de la lettre des employés d'Amazon et Google
Google reste sourd aux appels des employés
Malgré la mobilisation, DeepMind et Google n'ont pas infléchi leur position. Pire, des employés protestataires ont été licenciés en avril dernier pour avoir perturbé le travail dans certains bureaux. La direction martèle que les clients sont tenus de respecter les conditions d'utilisation des services cloud, sans plus de précisions.
Pourtant, les employés ne sont pas les seuls à s'inquiéter. De nombreux experts mettent en garde contre les dangers de laisser les géants de la tech fournir leurs technologies les plus pointues à des armées, sans réel contrôle. Le risque de dérive vers une surveillance généralisée et des atteintes aux droits humains est réel.
Vers une prise de conscience des enjeux éthiques de l'IA ?
Au delà du cas DeepMind, cette affaire révèle les profondes interrogations qui traversent le secteur de l'IA. Avec des modèles de plus en plus puissants, les questions de responsabilité et d'éthique deviennent centrales. Les entreprises ne peuvent plus se contenter de valoriser le potentiel de leurs technologies, sans penser aux conséquences concrètes de leur utilisation.
L'appel des employés de DeepMind est un signal fort. Il montre qu'au sein même des équipes, la prise de conscience est réelle. Reste à voir si Google et les autres géants du secteur sauront entendre ce message. L'avenir de l'IA en dépend, pour qu'elle reste au service du bien commun, et non d'intérêts militaires ou de surveillance.