Evan Solomon Rencontre Sam Altman Sur OpenAI
Imaginez un instant : une conversation anodine avec un chatbot qui, en réalité, cache des intentions bien plus sombres. Et si cette discussion avait pu alerter les autorités avant qu’une tragédie ne se produise ? C’est précisément le débat brûlant qui agite le Canada depuis le drame survenu à Tumbler Ridge, en Colombie-Britannique. Une fusillade meurtrière a remis en lumière le rôle délicat que jouent les intelligences artificielles dans la détection des risques de violence.
Depuis cet événement tragique du 10 février 2026, les regards se tournent vers OpenAI, l’entreprise derrière ChatGPT. Le suspect aurait utilisé l’outil pour des échanges préoccupants plusieurs mois avant les faits. Aujourd’hui, le gouvernement canadien monte au créneau et exige des comptes.
Une rencontre au sommet sous haute tension
Le ministre canadien chargé de l’Intelligence Artificielle, Evan Solomon, s’apprête à recevoir Sam Altman, PDG et cofondateur d’OpenAI. Cette rencontre, prévue la semaine prochaine, n’est pas une simple formalité diplomatique. Elle intervient après plusieurs jours de pression croissante exercée par Ottawa sur la firme américaine.
Le gouvernement souhaite obtenir des garanties concrètes sur les engagements pris par OpenAI suite à l’affaire. Car si l’entreprise a réagi en bannissant le compte concerné huit mois avant les faits, elle n’avait pas jugé utile d’alerter les forces de l’ordre à l’époque. Une décision aujourd’hui remise en question.
OpenAI admet qu’elle aurait dû signaler plus tôt
Dans une lettre adressée directement au ministre Solomon, la vice-présidente des politiques globales d’OpenAI, Ann O’Leary, reconnaît que les protocoles actuels auraient conduit à un signalement aux autorités si les mêmes échanges avaient eu lieu aujourd’hui. Cette évolution marque un tournant important dans la politique de l’entreprise.
L’équipe a travaillé ces derniers mois avec des experts en santé mentale, en comportement et en application de la loi pour redéfinir ce qui constitue un « risque imminent et crédible ». Les critères se sont affinés, intégrant désormais des situations où l’utilisateur n’exprime pas explicitement une cible, un moyen ou un calendrier précis.
Nous croyons en l’innovation, mais pas au détriment de la sécurité.
– Evan Solomon, ministre canadien de l’IA
Cette phrase résume parfaitement la position délicate dans laquelle se trouve le gouvernement : encourager le développement technologique tout en protégeant les citoyens.
Les mesures promises par OpenAI
La firme de San Francisco ne s’est pas contentée d’une simple déclaration d’intention. Elle a détaillé plusieurs chantiers en cours ou déjà lancés :
- Mise en place de contacts directs avec les forces de l’ordre canadiennes
- Renforcement des systèmes de détection des utilisateurs récidivistes
- Amélioration de l’orientation vers des ressources d’aide locales en santé mentale
- Collaboration continue avec des experts externes pour affiner les seuils d’escalade
Ces annonces visent à combler les lacunes révélées par l’affaire. Mais le ministre Solomon reste prudent : il exige un plan d’exécution détaillé et non de simples promesses.
Un deuxième compte qui change tout
L’un des éléments les plus troublants concerne la découverte récente qu’une deuxième session ChatGPT avait été ouverte par la même personne après le bannissement initial. Ce contournement montre les limites des systèmes actuels de détection des violations répétées.
OpenAI promet désormais de muscler ses mécanismes pour repérer plus rapidement ce type de comportements. Mais la question demeure : combien d’autres cas similaires passent encore sous les radars ?
Le difficile équilibre entre vie privée et sécurité publique
L’affaire soulève un débat fondamental : jusqu’où les entreprises technologiques doivent-elles aller dans la surveillance des conversations privées ? D’un côté, la protection de la vie privée est un droit fondamental. De l’autre, l’inaction face à des signaux clairs de danger peut coûter des vies.
Au Canada, cette tension est particulièrement palpable. Le ministre Solomon insiste sur le fait que la tragédie n’a pas modifié la philosophie globale de régulation de l’IA – décrite comme « légère, précise, adaptée » – mais qu’elle a considérablement accru l’urgence d’agir.
Le spectre d’une législation obligeant les signalements systématiques plane. Le ministre de la Justice Sean Fraser a déjà laissé entendre que des mesures contraignantes pourraient voir le jour si les engagements restaient lettre morte.
Un contexte international tendu pour OpenAI
Cette polémique arrive à un moment où OpenAI fait déjà face à de multiples poursuites aux États-Unis. Plusieurs familles endeuillées accusent ChatGPT d’avoir joué un rôle dans des suicides, reprochant au modèle d’être à la fois trop complaisant et trop persuasif.
Parallèlement, l’entreprise vient d’annoncer une levée de fonds massive de 110 milliards de dollars, portant sa valorisation à 840 milliards. Une réussite financière impressionnante qui contraste avec les critiques croissantes sur sa responsabilité sociétale.
Et les autres acteurs du secteur ?
Pour l’instant, le gouvernement canadien n’a pas encore convié Google, Meta ou Anthropic à des discussions similaires. Mais Evan Solomon a clairement indiqué que ces rencontres étaient prévues. L’objectif est d’obtenir une harmonisation des pratiques sur l’ensemble du marché des chatbots conversationnels.
Tous les scénarios restent envisageables, y compris des obligations légales plus strictes. Le Canada cherche visiblement à se positionner comme un acteur exigeant en matière de gouvernance responsable de l’IA.
Vers une régulation plus stricte de l’IA conversationnelle ?
Ce qui se joue actuellement dépasse largement le cadre d’une seule entreprise ou d’un seul drame. Il s’agit de déterminer comment les sociétés démocratiques entendent encadrer des technologies capables d’influencer profondément les comportements humains.
Les chatbots ne sont plus de simples outils ludiques. Ils deviennent des compagnons virtuels, des confidents numériques, parfois les seuls interlocuteurs de personnes en grande détresse. Cette intimité nouvelle pose des questions éthiques inédites.
Doit-on exiger des signalements automatiques dès qu’un risque est détecté ? Faut-il imposer une supervision humaine systématique des conversations sensibles ? Ou risquerait-on alors de créer une surveillance généralisée incompatible avec nos libertés ?
L’avenir de l’innovation responsable au Canada
Le Canada a longtemps cultivé l’image d’un pays accueillant pour l’innovation technologique tout en défendant des valeurs progressistes. L’affaire Tumbler Ridge met cette posture à l’épreuve.
Evan Solomon répète vouloir préserver un écosystème dynamique, mais affirme avec force que la sécurité des Canadiens demeure la priorité absolue. La rencontre avec Sam Altman constituera un test crucial pour savoir si ces deux objectifs peuvent réellement coexister.
Les prochaines semaines diront si OpenAI saura transformer ses engagements en actions mesurables et convaincantes. Elles révéleront aussi jusqu’où le gouvernement canadien est prêt à aller pour imposer de nouvelles règles du jeu dans le monde de l’intelligence artificielle conversationnelle.
Une chose est sûre : après Tumbler Ridge, plus rien ne sera tout à fait comme avant dans la relation entre les géants de l’IA et les États qui les accueillent ou les régulent.