La Militarisation Discrète de l’IA Canadienne
Imaginez un pays qui s'est longtemps présenté comme le champion mondial d'une intelligence artificielle responsable et éthique, porté par des figures emblématiques comme Yoshua Bengio et l'écosystème montréalais. Et si, aujourd'hui, ce même pays glissait doucement mais sûrement vers une intégration profonde de l'IA dans le domaine militaire ? C'est précisément ce phénomène discret, presque silencieux, qui se dessine au Canada en 2026, alors que les annonces gouvernementales et les repositionnements d'acteurs clés interrogent profondément les engagements moraux affichés.
Ce basculement ne s'accompagne pas de déclarations tonitruantes ni de grands débats publics. Il s'opère par petites touches : budgets fédéraux, nouveaux organismes dédiés, partenariats stratégiques et appels à plus d'investissements dans des technologies à double usage. Derrière les discours sur la souveraineté numérique et la compétitivité, une question lancinante émerge : l'IA canadienne reste-t-elle fidèle à ses principes éthiques, ou devient-elle un outil au service d'intérêts militaires ?
Un virage stratégique sous couvert de souveraineté
Depuis quelques années, le gouvernement canadien insiste sur la nécessité de renforcer la souveraineté technologique du pays face aux géants étrangers. Cette rhétorique, légitime en soi, sert aujourd'hui de justification à une réorientation majeure de l'écosystème IA vers des applications duales – civiles et militaires. Le budget fédéral de 2025 a introduit explicitement le concept de dual-use, marquant un tournant officiel.
Dans ce contexte, la création du Bureau de Recherche, d'Ingénierie et de Leadership Avancé en Innovation et Science (BOREALIS) au sein du ministère de la Défense nationale représente un signal fort. Cet organisme vise à accélérer le transfert des innovations de pointe – notamment en IA, quantique et systèmes non habités – vers des capacités opérationnelles pour les Forces armées canadiennes. Des appels à propositions ont déjà été lancés, avec des enveloppes substantielles pour créer des hubs d'innovation sécurisés.
Parallèlement, le ministre de l'Intelligence Artificielle et de l'Innovation Numérique, Evan Solomon, multiplie les annonces : investissements régionaux dans l'aérospatiale, subventions pour des projets IA dans les provinces atlantiques, partenariats internationaux. Ces initiatives, souvent présentées comme des leviers de croissance économique, facilitent en réalité l'alignement entre startups civiles et besoins de défense.
La consultation nationale : démocratie ou illusion ?
Fin 2025, Innovation, Sciences et Développement économique Canada (ISED) a organisé un sprint national de 30 jours pour renouveler la stratégie IA du pays. Plus de 11 000 réponses en ligne et des contributions d'un groupe de 28 consultants ont alimenté un rapport publié début 2026. Sur le papier, une belle démonstration de participation citoyenne.
Pourtant, plusieurs observateurs pointent du doigt des failles méthodologiques sérieuses. L'analyse des données a été largement confiée à des modèles de langage massifs, produisant un document parfois contradictoire : appels à plus de régulation côtoient des demandes de dérégulation, sans véritable arbitrage. Le choix des consultants, majoritairement issus de l'industrie, renforce le soupçon d'un exercice biaisé en faveur des intérêts économiques.
Nous devons agressivement contrer le sentiment négatif du public envers l'IA.
– Joëlle Pineau, directrice IA chez Cohere
Cette citation illustre bien l'ambiguïté ambiante : la priorité semble accordée à restaurer la confiance des investisseurs plutôt qu'à répondre aux inquiétudes sociétales sur les usages militaires ou les risques éthiques.
Les acteurs historiques face au dilemme militaire
L'un des aspects les plus troublants réside dans le repositionnement de figures et d'organisations autrefois garantes de l'éthique. Yoshua Bengio, pionnier de l'IA profonde et fervent défenseur des régulations strictes contre les risques existentiels, a fondé LawZero, un organisme à but non lucratif dédié à des solutions techniques pour une IA sûre et éthique.
Or, des voix critiques soulignent que LawZero appelle désormais à davantage d'investissements via BOREALIS pour rapprocher les startups canadiennes des besoins de défense. Ce virage surprend, surtout de la part d'un chercheur qui participait activement à la campagne contre les robots tueurs et alertait sur les dangers des armes autonomes.
Cohere, autre fleuron canadien soutenu massivement par des fonds publics, tisse également des liens avec l'industrie de la défense. Ces évolutions traduisent une normalisation progressive des collaborations civilo-militaires, autrefois taboues dans un écosystème qui se voulait exemplaire.
Un vide réglementaire préoccupant
Le plus inquiétant reste l'absence totale de cadre législatif spécifique. Le Canada ne dispose toujours pas de loi sur l'IA ni de réglementation sur les armes autonomes létales. Dans ce vide juridique, les initiatives se multiplient sans garde-fous démocratiques solides.
Les promoteurs de cette approche arguent que la souveraineté exige d'investir dans des technologies duales pour ne pas dépendre de fournisseurs étrangers. Mais cette justification masque-t-elle une opportunité pour les entreprises de capter de nouveaux marchés, soutenus par des fonds publics ?
- Absence de législation sur l'IA et les systèmes autonomes
- Multiplication des financements dual-use via BOREALIS
- Repositionnement d'acteurs éthiques vers des priorités militaires
- Consultations publiques critiquées pour leur manque de transparence
- Risque d'un découplage entre discours éthique et réalité opérationnelle
Ces éléments cumulés dessinent le portrait d'une militarisation tranquille : pas de rupture brutale, mais une intégration progressive, facilitée par le contexte géopolitique et les impératifs économiques.
Quelles conséquences pour l'avenir ?
Si cette trajectoire se confirme, le Canada risque de perdre ce qui faisait sa singularité : une IA perçue comme humaine, inclusive et prudente. Les retombées économiques potentielles – emplois, innovation, exportations – sont réelles, mais à quel prix éthique ?
Les citoyens, les chercheurs indépendants et la société civile doivent désormais exiger plus de transparence. Une stratégie IA renouvelée qui ignore ces dérives risque de transformer un atout moral en simple argument marketing. Le silence actuel de l'écosystème, jadis si vocal sur les risques, interroge profondément.
En définitive, la question n'est pas de rejeter toute collaboration avec la défense – la sécurité nationale compte – mais de s'assurer que les principes éthiques ne soient pas sacrifiés sur l'autel de la compétitivité. Le Canada peut-il concilier souveraineté technologique et responsabilité morale ? L'avenir de son leadership en IA en dépend largement.
Ce glissement discret mérite une vigilance accrue. Car derrière les annonces techniques et les enveloppes budgétaires se joue rien de moins que l'identité même de l'innovation canadienne.