OpenAI Renforce la Sécurité des Ados sur ChatGPT
Imaginez un adolescent seul dans sa chambre la nuit, échangeant des messages interminables avec une intelligence artificielle qui semble le comprendre mieux que quiconque. Cette scène, autrefois science-fiction, est devenue réalité pour des millions de jeunes. Mais plusieurs drames récents ont brutalement rappelé les dangers potentiels de ces conversations sans filtre.
OpenAI durcit ses règles pour protéger les adolescents
Le 19 décembre 2025, OpenAI a annoncé une mise à jour majeure de ses directives internes concernant l’interaction avec les utilisateurs mineurs. Cette décision intervient dans un contexte de pression croissante : parents inquiets, associations de protection de l’enfance et même plusieurs procureurs généraux américains ont tiré la sonnette d’alarme.
Le document clé, appelé Model Spec, définit désormais des comportements très stricts lorsque l’IA détecte qu’elle s’adresse à un adolescent. L’objectif affiché est clair : placer la sécurité des jeunes au-dessus de toute autre considération, y compris la fameuse « liberté intellectuelle maximale » vantée par certains.
Quelles sont les nouvelles interdictions concrètes ?
Les modèles de langage d’OpenAI doivent désormais refuser systématiquement plusieurs types d’interactions avec les mineurs, même quand celles-ci sont présentées comme fictives, historiques ou éducatives :
- tout roleplay romantique immersif
- les échanges intimes à la première personne
- les roleplays sexuels ou violents, même non graphiques
- les conseils favorisant des comportements extrêmes liés à l’image corporelle ou aux troubles alimentaires
- l’aide à dissimuler des conduites dangereuses aux parents ou tuteurs
Ces limitations s’appliquent même lorsque l’utilisateur tente de contourner les règles en utilisant des scénarios « pour rire » ou « juste pour tester ».
Nous devons mettre la sécurité des adolescents en priorité, même lorsque cela entre en conflit avec d’autres intérêts des utilisateurs.
– Extrait du Model Spec mis à jour par OpenAI
Quatre principes directeurs pour guider l’IA
OpenAI a formalisé quatre grands principes qui doivent orienter les réponses données aux mineurs :
- Priorité absolue à la sécurité des jeunes, même au détriment d’autres valeurs
- Orientation vers le soutien réel : orienter vers la famille, les amis ou des professionnels
- Respect de l’âge : s’adresser aux adolescents avec chaleur et respect, sans infantilisation ni ton adulte
- Transparence totale : rappeler constamment qu’on parle à une IA, jamais à un humain
Ces principes sont accompagnés d’exemples concrets de réponses types que l’IA devrait fournir lorsqu’un adolescent tente d’engager un roleplay romantique ou demande de l’aide pour des transformations corporelles extrêmes.
Un contexte législatif de plus en plus contraignant
Ces annonces interviennent alors que le monde politique s’empare massivement du sujet. Aux États-Unis, 42 procureurs généraux ont récemment adressé une lettre commune aux grandes entreprises technologiques pour exiger des garde-fous renforcés. Le sénateur Josh Hawley a même déposé un projet de loi visant purement et simplement à interdire l’interaction des mineurs avec les chatbots conversationnels.
En Californie, la loi SB 243, signée récemment, entrera en vigueur en 2027 et imposera notamment :
- l’interdiction des conversations autour de l’automutilation ou du contenu sexuel explicite
- des rappels réguliers toutes les trois heures indiquant qu’il s’agit d’une IA
- des incitations fréquentes à faire des pauses
OpenAI semble donc anticiper ces évolutions législatives en publiant publiquement ses nouvelles règles, une démarche de transparence encore rare dans le secteur.
Des doutes persistent sur l’application réelle
Malgré ces annonces prometteuses, plusieurs experts restent prudents. Robbie Torney, de Common Sense Media, pointe des contradictions potentielles au sein même du Model Spec, notamment entre la volonté de sécurité et le principe affiché que « aucun sujet n’est tabou ».
Steven Adler, ancien chercheur en sécurité chez OpenAI, va plus loin :
J’apprécie qu’OpenAI réfléchisse sérieusement au comportement souhaité, mais sans mesurer le comportement réel, les intentions restent des mots.
– Steven Adler, ancien chercheur sécurité OpenAI
Les cas tragiques récents ont révélé que même lorsque les systèmes de modération détectaient des milliers de messages évoquant le suicide ou l’automutilation, ils ne parvenaient pas toujours à interrompre la conversation dangereuse en temps réel.
Vers une responsabilisation partagée ?
OpenAI insiste sur le fait que la sécurité repose aussi sur les parents. L’entreprise a publié simultanément de nouvelles ressources pédagogiques destinées aux familles : fiches explicatives, questions à poser à ses enfants, conseils pour fixer des limites saines.
Cette approche, qui transfère une partie de la responsabilité aux adultes, rappelle les positions défendues par certains fonds d’investissement de la Silicon Valley, qui prônent plus de transparence plutôt que des interdictions trop rigides.
Mais la question reste posée : si ces garde-fous stricts sont jugés nécessaires pour les mineurs, pourquoi ne pas les appliquer plus largement ? Plusieurs adultes ont également été victimes de délires prolongés ou de passages à l’acte après des interactions prolongées avec des chatbots. OpenAI répond que sa stratégie de sécurité est multicouche et vise tous les utilisateurs, le Model Spec n’étant qu’une brique parmi d’autres.
Un tournant décisif pour l’industrie de l’IA ?
Avec ces annonces, OpenAI semble vouloir prendre les devants face à une régulation qui s’annonce de plus en plus stricte. La transparence sur ses règles internes pourrait devenir un avantage compétitif si les lois futures obligent toutes les entreprises à publier leurs garde-fous, comme le prévoit déjà la législation californienne.
Pour Lily Li, avocate spécialisée en IA et vie privée :
Les risques juridiques vont apparaître dès lors qu’une entreprise vante des mécanismes de protection sur son site sans réellement les mettre en œuvre.
– Lily Li, fondatrice de Metaverse Law
L’avenir dira si ces nouvelles directives se traduiront concrètement par un chatbot plus protecteur pour les adolescents… ou si elles resteront, comme certains le craignent, de belles promesses sur le papier. Une chose est sûre : le sujet de la sécurité des mineurs face à l’IA conversationnelle est désormais au cœur des débats, et il ne disparaîtra pas de sitôt.
(environ 1 450 mots)