Stratégie IA du Canada : Un Début Catastrophique
Et si la première étape pour regagner la confiance des Canadiens envers l’intelligence artificielle était… de ne pas leur cacher comment on les consulte ? C’est pourtant exactement ce qui semble se passer avec la toute nouvelle stratégie nationale en IA lancée fin 2025. Entre une consultation express, une analyse automatisée par des modèles américains et un rapport final rempli de zones d’ombre, le gouvernement donne l’impression de vouloir faire vite plutôt que de faire bien.
Un lancement sous le signe de la défiance
En octobre 2025, le ministre de l’IA et de l’Innovation Numérique, Evan Solomon, annonçait en grande pompe une grande consultation publique censée dessiner les contours de la prochaine stratégie IA du pays. Le délai ? 30 jours. Le format ? Principalement un questionnaire en ligne assez technique. L’objectif affiché ? Entendre la population et bâtir une IA « responsable » et « centrée sur le Canada ».
Problème : dès les premières heures, le processus a suscité de vives critiques. Des universitaires, des juristes, des défenseurs des droits numériques et plusieurs organisations ont rapidement pointé du doigt le manque de temps, l’angle trop orienté « business » et l’absence quasi totale de mécanismes de dialogue délibératif avec les citoyens.
« On a l’impression d’une course effrénée vers une conclusion déjà écrite d’avance. »
– Teresa Scassa, juriste spécialisée en droit des technologies
Face à la grogne, plus de 150 personnes et organisations ont signé une lettre ouverte demandant un délai supplémentaire, une refonte de la composition du groupe d’experts et une réécriture complète du questionnaire. Sans grand succès. Le gouvernement a maintenu le cap… et publié un résumé des contributions fin janvier 2026.
11 000 réponses… analysées par quatre LLMs américains
Le point qui choque le plus aujourd’hui n’est pas tant le délai court – on sait que les gouvernements adorent les consultations express – mais la méthode utilisée pour traiter les 11 000+ réponses du public et les 32 rapports du groupe d’experts.
Innovation, Sciences et Développement économique Canada (ISED) a eu recours à une « pipeline interne de classification » reposant sur quatre grands modèles de langage : Cohere Command A (le seul canadien), OpenAI GPT-5 nano, Anthropic Claude Haiku et Google Gemini Flash.
Ces modèles ont servi à extraire automatiquement les thèmes principaux et les sentiments exprimés dans les textes. Des humains sont ensuite intervenus pour « valider et affiner » les résultats. Une partie du texte final du rapport aurait même été directement générée ou fortement paraphrasée à partir des sorties de cette chaîne d’IA.
Sur le papier, l’automatisation semble logique. Mais quand on gratte un peu, plusieurs questions très sérieuses restent sans réponse.
- Quels prompts exactement ont été utilisés ?
- Quels étaient les critères de classification et les seuils de confiance ?
- Comment les humains ont-ils réellement validé les sorties ?
- Les données personnelles ou sensibles ont-elles été correctement filtrées avant d’entrer dans les modèles ?
- Des données canadiennes ont-elles transité par des serveurs aux États-Unis ?
Aucune de ces questions n’obtient de réponse claire dans le document publié. On reste dans le flou le plus total.
Bâtir la confiance… avec une boîte noire ?
Le paradoxe est saisissant. L’un des piliers affichés de la nouvelle stratégie est justement de renforcer la confiance du public envers l’intelligence artificielle. Or, utiliser une chaîne opaque de modèles américains pour analyser les opinions des Canadiens sur… l’intelligence artificielle est probablement la pire façon d’y parvenir.
Les Canadiens affichent déjà l’un des taux de confiance les plus bas au monde envers les technologies d’IA. Leur dire « faites-nous confiance, on a utilisé quatre LLMs étrangers dans un pipeline dont on ne vous dira presque rien » ne risque pas d’arranger les choses.
« Sacrifier la transparence sur l’autel de l’agilité n’est pas une stratégie gagnante pour créer de la confiance. »
– Blair Attard-Frost, professeur et chercheur en éthique de l’IA
Et pourtant, c’est exactement ce qui a été fait.
Des recommandations qui tirent dans tous les sens
Le résumé publié contient des centaines de pistes d’action, mais aucune priorisation claire. On y trouve pêle-mêle :
- la nécessité de réglementations fortes pour protéger la vie privée, la sécurité et la démocratie
- l’urgence de simplifier les cadres réglementaires pour accélérer le déploiement des infrastructures IA
- la reconnaissance de la souveraineté autochtone
- l’appel à une croissance économique rapide grâce à l’adoption massive de l’IA
- des préoccupations environnementales liées à la consommation énergétique des data centers
Ces objectifs sont souvent contradictoires. Le rapport ne dit presque rien sur la manière dont le gouvernement compte arbitrer entre ces visions très différentes de l’avenir. On donne l’illusion d’un consensus là où il n’y en a pas.
Et maintenant ?
Face à ce fiasco de communication et de méthode, plusieurs voix s’élèvent pour demander une véritable refonte. Certains participants ont d’ailleurs lancé une contre-consultation citoyenne, surnommée « The People’s Consultation on AI », avec des méthodes beaucoup plus ouvertes et inclusives.
Pour que la stratégie nationale en IA ait une chance de réussir, plusieurs chantiers paraissent incontournables :
- Rendre publics les prompts, les critères et les seuils de confiance des analyses automatisées
- Publier une méthodologie détaillée et vérifiable de l’analyse des contributions
- Clarifier le parcours exact des données (localisation des serveurs, transferts transfrontaliers)
- Indiquer clairement quelles parties du rapport final proviennent directement de génération automatique
- Organiser de véritables espaces de délibération publique, pas seulement des questionnaires
- Montrer que les choix réglementaires futurs seront guidés par une réelle pondération des différentes visions exprimées
Sans ces gages de transparence et de sérieux, il sera très difficile de convaincre la population que le Canada prend réellement au sérieux la construction d’une IA éthique, inclusive et souveraine.
Le chemin est encore long. Et il commence par un mea culpa et une vraie volonté de dialogue. Pas par une nouvelle couche de flou technologique.
Dans un pays qui veut se positionner comme leader mondial en intelligence artificielle responsable, la première des responsabilités est d’expliquer clairement ce que l’on fait… et surtout comment on le fait. Pour l’instant, Ottawa rate clairement cette première marche.
À suivre… de très près.