Pourquoi OpenAI garde son outil de détection de textes IA secret
Alors que l'engouement autour de ChatGPT ne faiblit pas, son créateur OpenAI vient de faire une révélation surprenante. L'entreprise dispose d'un outil capable de détecter avec une précision redoutable les textes générés par son célèbre agent conversationnel. Mais plutôt que de le partager au grand public, elle préfère le garder secret. Pourquoi un tel choix ? Plongeons dans les dessous de cette décision aussi inattendue qu'intrigante.
Un filigrane numérique indétectable à l'œil nu
La technique mise au point par OpenAI s'apparente à une forme de watermarking ou de tatouage numérique. Elle consiste à insérer subtilement des informations dans les textes produits par GPT, créant ainsi une signature invisible. Seul un outil dédié et entraîné peut repérer ce marquage, là où l'œil humain n'y verrait que du feu. Cette approche se démarque des précédents détecteurs de textes IA, jugés peu fiables.
D'après le Wall Street Journal qui a révélé l'existence de cet outil le 4 août dernier, il serait opérationnel depuis près d'un an. Une information rapidement confirmée par OpenAI, non sans une certaine réticence. Car si l'entreprise assure que son système est "très précis et efficace contre les modifications localisées", elle concède aussi qu'il est "moins solide face à une modification globale du texte". En clair, il suffirait d'opérations basiques comme une traduction ou une reformulation par un autre modèle pour le mettre en échec.
L'ombre d'une potentielle discrimination
Au-delà de cette faille, OpenAI avance un argument plus surprenant pour justifier sa frilosité : la crainte qu'un tel outil n'alimente une forme de discrimination envers les utilisateurs de ChatGPT. L'exemple cité est celui de personnes utilisant le chatbot pour compenser leur faible niveau d'anglais. Marqués du sceau de l'IA, leurs écrits pourraient leur porter préjudice, que ce soit dans un cadre scolaire ou professionnel.
Si cet argument paraît un brin spécieux, on peut aussi y voir le signe qu'OpenAI redoute qu'un outil anti-IA ne réduise l'usage de ChatGPT dans certains domaines. L'éducation ou le recrutement, friands du chatbot, pourraient se montrer plus méfiants s'ils disposaient d'un détecteur fiable. Face à ces enjeux complexes qui dépassent le seul cadre technologique, la prudence semble donc de mise.
Un avenir encore flou
Pour autant, OpenAI ne ferme pas complètement la porte à un partage futur de son fameux outil. L'entreprise assure continuer à plancher sur le sujet en explorant d'autres approches d'identification des textes IA. Mais aucun calendrier ni engagement ferme n'a été communiqué à ce stade. Le mystère reste donc entier sur le devenir de cette technologie qui fait tant parler d'elle... sans jamais se montrer !
Une chose est sûre : la détection des contenus générés par IA est un enjeu majeur pour l'avenir. Bien que les outils actuels soient imparfaits, il ne fait guère de doute que des progrès notables seront réalisés en la matière. L'opacité actuelle d'OpenAI sur le sujet ressemble fort à un baroud d'honneur des IA génératives, désireuses de préserver leur capacité à tromper leur monde. Mais ce n'est sans doute qu'une question de temps avant que le voile ne se lève. Place your bets!