Transparence IA : Montrer les Prompts du Gouvernement
Imaginez que votre gouvernement utilise une intelligence artificielle ultra-puissante pour synthétiser des milliers d’opinions citoyennes sur l’avenir de l’IA… mais refuse catégoriquement de vous montrer les instructions exactes qu’il a données à cette machine. Curieux, non ? Voire inquiétant. C’est pourtant la situation actuelle au Canada après la publication très attendue des résultats de la grande consultation nationale sur l’intelligence artificielle.
Quand l’opacité rencontre l’IA : un cocktail explosif pour la confiance
En février 2026, Innovation, Sciences et Développement économique Canada (ISED) a dévoilé les grandes lignes de ce qui devrait nourrir la prochaine stratégie nationale en matière d’IA. Près de 350 pages de recommandations, issues à la fois d’un groupe de travail ministériel et d’une vaste consultation publique. Jusque-là, tout semble classique. Sauf qu’une partie importante du travail de synthèse a été réalisée… par des outils d’intelligence artificielle.
Le ministère a été suffisamment transparent pour indiquer quels modèles et plateformes ont été utilisés. Mais quand on lui demande quels prompts exactement ont guidé ces IA dans le tri, la catégorisation et la pondération des milliers de contributions citoyennes, c’est le silence radio. Ou presque.
« Les détails méthodologiques de cette analyse sont si minces que, si le gouvernement veut vraiment gagner la confiance du public avec sa nouvelle stratégie IA, c’est un très mauvais départ. »
– Blair Attard-Frost, chercheur à Amii et professeur adjoint à l’Université de l’Alberta
Cette remarque, postée sur les réseaux sociaux juste après la publication du rapport, résume parfaitement le malaise grandissant.
Pourquoi les prompts sont-ils si importants ?
Dans le monde de l’IA générative, le prompt est bien plus qu’une simple question. C’est une véritable instruction de travail qui oriente fortement le raisonnement, les priorités et parfois même les biais de la réponse finale. Changer quelques mots dans un prompt peut faire passer une synthèse de « plutôt optimiste » à « très critique », ou faire remonter en priorité certains thèmes au détriment d’autres.
Quand une administration publique utilise l’IA pour analyser des contributions citoyennes sur un sujet aussi stratégique et sensible que l’encadrement de l’intelligence artificielle, la publication des prompts devient une question de démocratie numérique. Sans eux, impossible pour un citoyen, un chercheur ou un journaliste de comprendre réellement comment les idées ont été triées, pondérées et finalement traduites en recommandations officielles.
52 % des Canadiens ne font pas confiance à Ottawa sur l’IA
Selon un sondage Abacus Data réalisé l’année précédente, plus d’un Canadien sur deux déclare déjà ne pas faire confiance au gouvernement fédéral pour encadrer l’IA de manière à protéger l’intérêt public. Dans ce contexte de défiance préexistante, refuser de publier les prompts qui ont servi à analyser les contributions citoyennes apparaît comme une décision particulièrement contre-productive.
Il ne s’agit pas ici de soupçonner une manipulation grossière. Mais simplement de reconnaître que l’opacité, même involontaire, nourrit les théories du complot et renforce le sentiment que « ceux d’en haut » décident sans vraiment écouter.
- Transparence des prompts = possibilité de reproduire et vérifier l’analyse
- Transparence des prompts = possibilité d’identifier d’éventuels biais systématiques
- Transparence des prompts = signal fort que le gouvernement se soumet lui-même aux principes qu’il veut imposer au secteur privé
Le paradoxe canadien : leader en recherche, discret en gouvernance ouverte
Le Canada aime se présenter comme l’un des pays les plus avancés au monde en matière de recherche fondamentale en IA. Toronto, Montréal et Edmonton forment un triangle mondialement reconnu. Mais quand il s’agit d’appliquer les principes de transparence et d’explicabilité qu’il demande aux entreprises, le gouvernement semble soudain beaucoup plus timide.
Montrer ses prompts ne serait pas un aveu de faiblesse. Au contraire : ce serait une démonstration de maturité et de cohérence. Cela prouverait que les autorités appliquent à elles-mêmes les standards qu’elles souhaitent imposer aux géants technologiques et aux startups.
Et si c’était une opportunité plutôt qu’un risque ?
Publier les prompts utilisés (éventuellement légèrement caviardés pour des questions de sécurité nationale) pourrait au contraire devenir un puissant outil de communication. Cela permettrait :
- De montrer concrètement comment l’administration intègre l’IA de manière responsable
- D’ouvrir un débat technique et citoyen sur la qualité des instructions données aux modèles
- De créer un précédent positif pour l’ensemble des administrations publiques canadiennes
- De renforcer la crédibilité internationale du Canada en matière d’IA éthique et transparente
Plusieurs experts estiment d’ailleurs que nous sommes encore dans une fenêtre d’opportunité. Les pratiques de « gouvernement ouvert appliqué à l’IA » ne sont pas encore solidement établies nulle part dans le monde. Le Canada pourrait se positionner en leader.
Retour vers le futur : que se passerait-il sans transparence ?
Si le gouvernement persiste dans cette opacité, plusieurs scénarios négatifs se dessinent :
- Perte accrue de confiance publique envers les futures politiques IA
- Difficulté accrue à faire accepter d’éventuelles futures régulations strictes
- Critiques renforcées de la part de la société civile et du milieu académique
- Risque de voir émerger des initiatives citoyennes parallèles moins structurées mais plus transparentes
À l’inverse, un geste fort de transparence pourrait transformer une critique en opportunité de leadership.
Conclusion : la transparence n’est pas un luxe, c’est une nécessité
À l’heure où l’intelligence artificielle s’immisce dans toutes les sphères de la société, la confiance ne se décrète pas. Elle se construit, pas à pas, par des gestes concrets et parfois inconfortables. Publier les prompts utilisés par le gouvernement pour analyser les contributions citoyennes sur l’avenir de l’IA serait l’un de ces gestes forts.
Ce n’est pas seulement une question technique. C’est une question de contrat social à l’ère numérique. Montrer ses prompts, c’est montrer qu’on n’a rien à cacher. Et dans le domaine de l’IA, ne rien avoir à cacher est peut-être le signal le plus puissant que puisse envoyer une démocratie.
Alors, Ottawa, quand est-ce qu’on voit ces prompts ?