
OpenAI tente de « décensurer » ChatGPT
L'intelligence artificielle soulève de nombreuses interrogations, notamment sur les limites à lui imposer. OpenAI, la société derrière le populaire agent conversationnel ChatGPT, a décidé de s'engager plus avant sur la voie de la « liberté intellectuelle ».
ChatGPT bientôt moins censuré ?
Dans une mise à jour de sa politique de formation des modèles d'IA, OpenAI affirme vouloir permettre à ChatGPT d'aborder un plus large éventail de sujets, même controversés. L'objectif : offrir davantage de perspectives et réduire le nombre de thèmes sur lesquels le chatbot se montre évasif.
L'assistant peut rester neutre sur des sujets que certains considèrent comme moralement répréhensibles ou offensants. Cependant, le but d'un assistant IA est d'assister l'humanité, pas de la façonner.
– Extrait du Model Spec d'OpenAI
Concrètement, ChatGPT devrait à l'avenir présenter de multiples points de vue sur les questions clivantes, dans un souci revendiqué de neutralité. Il pourrait par exemple affirmer à la fois que « les vies noires comptent » et que « toutes les vies comptent », plutôt que de refuser de répondre.
Une réponse aux critiques conservatrices ?
Cette évolution intervient alors que des proches de Donald Trump, comme David Sacks ou Elon Musk, ont accusé OpenAI de « censure » ces derniers mois. Un tweet viral montrait par exemple ChatGPT refusant d'écrire un poème à la gloire de Trump. De quoi alimenter les théories d'un biais politique de l'IA.
Sans parler de « censure », le PDG d'OpenAI Sam Altman avait reconnu un « défaut » que ses équipes s'efforçaient de corriger. L'entreprise semble aujourd'hui vouloir donner plus de liberté et de contrôle aux utilisateurs de ChatGPT.
Vers une « sécurité responsable » de l'IA ?
Au-delà d'éventuelles pressions politiques, la Silicon Valley semble amorcer un virage plus global sur le rôle de la modération dans l'IA. Alors que la priorité était de limiter les réponses potentiellement dangereuses, une approche plus ouverte gagne du terrain.
John Schulman, co-fondateur d'OpenAI, estime ainsi que déterminer au cas par cas ce à quoi l'IA peut répondre donnerait « trop d'autorité morale » à la plateforme. Elon Musk a lui aussi plaidé pour une IA respectant la « liberté d'expression », quitte à tenir des propos polémiques.
Cette tendance accompagne les progrès de l'IA, désormais plus à même d'appréhender les sujets sensibles. Les concepteurs d'IA générative se retrouvent face à un dilemme inédit : jusqu'où laisser leurs créations s'exprimer ?
OpenAI cherche-t-elle à séduire l'administration Trump ?
Alors qu'OpenAI s'apprête à construire Stargate, un immense data center pour l'IA, ses relations avec le gouvernement américain sont cruciales. Afficher une posture favorable à la liberté d'expression pourrait l'aider à s'attirer les bonnes grâces de Donald Trump, prompt à fustiger la « censure » des géants tech.
OpenAI cherche aussi à s'imposer face à Google comme la principale source d'information en ligne. Dans cette bataille, la capacité à fournir des réponses pertinentes sur tous les sujets, même les plus épineux, pourrait s'avérer déterminante.
- Les modèles d'IA deviennent plus aptes à aborder les questions sensibles
- OpenAI veut donner plus de contrôle aux utilisateurs de ChatGPT
- Un dilemme pour les concepteurs d'IA : quelle latitude laisser à leurs créations ?
Cette « décensure » de ChatGPT représente en tout cas un pari audacieux pour OpenAI. Si une IA plus ouverte pourrait révolutionner notre accès à l'information, elle soulève aussi des craintes sur la désinformation ou les dérives potentielles. Une chose est sûre : le débat sur la régulation de l'IA ne fait que commencer.