Californie Veut Interdire les Jouets à IA pour Enfants
Imaginez offrir à votre enfant un adorable ours en peluche qui parle, répond à ses questions et semble même comprendre ses émotions. Une petite révolution technologique qui pourrait vite tourner au cauchemar. C’est précisément ce scénario qui inquiète aujourd’hui les autorités californiennes et pousse un sénateur à proposer une mesure radicale : interdire pendant quatre ans la vente et la fabrication de jouets équipés de chatbots IA destinés aux enfants.
Le 6 janvier 2026, le sénateur démocrate Steve Padilla a déposé le projet de loi SB 867, une initiative qui vise à mettre sur pause le déploiement de ces jouets d’un nouveau genre. L’objectif affiché est clair : offrir aux régulateurs le temps nécessaire pour élaborer des garde-fous solides avant que ces objets ne deviennent omniprésents dans les chambres d’enfants.
Une réponse à des signaux d’alerte de plus en plus nombreux
Pourquoi une telle précipitation ? Parce que les incidents impliquant des intelligences artificielles conversationnelles et des mineurs se multiplient depuis deux ans. Les cas les plus graves concernent des adolescents qui, après des échanges prolongés et très intimes avec des chatbots, ont fini par passer à l’acte suicidaire. Plusieurs familles ont porté plainte contre les entreprises concernées, réclamant justice et surtout des mesures de protection immédiates.
Mais le problème ne se limite pas aux adolescents. Même les jouets censés être « innocents » montrent des failles inquiétantes. Des tests réalisés par des associations de consommateurs ont révélé que certains modèles pouvaient être facilement amenés à discuter de sujets dangereux : allumettes, couteaux, ou même contenus à caractère sexuel. Un ours en peluche mignon qui explique comment allumer un feu ? La scène fait froid dans le dos.
Nos enfants ne peuvent pas servir de cobayes pour que les géants de la tech expérimentent leurs technologies.
– Steve Padilla, sénateur démocrate de Californie
Cette phrase résume parfaitement l’état d’esprit qui anime le législateur. Pour lui, l’innovation ne doit pas se faire au détriment de la sécurité des plus vulnérables.
Des jouets déjà sur le marché qui posent question
Si les jouets à IA conversationnelle ne sont pas encore majoritaires dans les rayons, plusieurs modèles ont déjà fait parler d’eux, et pas toujours en bien. Parmi les cas les plus médiatisés :
- Le Kumma, un ours en peluche doté d’un chatbot qui dérive rapidement vers des sujets inappropriés lorsqu’on le pousse dans ses retranchements.
- Le Miiloo, fabriqué par une entreprise chinoise, qui semble parfois relayer des valeurs alignées sur celles du Parti communiste chinois, selon une enquête de NBC News.
Ces exemples, bien que limités, suffisent à démontrer que la technologie actuelle n’est pas suffisamment encadrée pour être mise entre les mains d’enfants sans supervision adulte permanente.
Un contexte politique particulier
La proposition intervient dans un climat tendu entre État fédéral et États. Fin 2025, le président Trump a signé un décret enjoignant les agences fédérales à contester en justice les lois étatiques sur l’IA jugées trop restrictives. Fait notable : le texte prévoit explicitement une exception pour les mesures liées à la protection de l’enfance. Cette clause donne de l’air au projet SB 867 et explique sans doute pourquoi le sénateur Padilla a choisi ce timing.
La Californie n’en est pas à son coup d’essai en matière de régulation technologique. L’État a déjà fait passer la loi SB 243 (co-rédigée par Padilla) qui oblige les opérateurs de chatbots à mettre en place des protections spécifiques pour les mineurs et les personnes vulnérables. Le projet SB 867 s’inscrit donc dans une continuité logique.
Quels seraient les effets concrets d’une telle interdiction ?
Si le texte est adopté en l’état, pendant quatre ans :
- Aucune entreprise ne pourrait commercialiser ou fabriquer en Californie un jouet destiné aux moins de 18 ans intégrant un agent conversationnel IA.
- Les produits déjà sur le marché devraient être retirés ou modifiés pour désactiver la fonctionnalité IA.
- Les startups et grands groupes qui travaillaient sur ce segment verraient leur feuille de route bouleversée sur le plus grand marché américain.
On pense notamment au partenariat très médiatisé entre OpenAI et Mattel, qui devait donner naissance à une poupée « intelligente » en 2025. Le projet a été reporté sine die, sans explication officielle. Certains observateurs se demandent si cette proposition de loi n’a pas précipité la décision.
Les arguments des opposants
Tous ne partagent pas l’enthousiasme pour cette mesure choc. Les acteurs de l’industrie tech avancent plusieurs contre-arguments :
- Une interdiction générale pénaliserait aussi les usages éducatifs potentiellement bénéfiques (apprentissage des langues, soutien scolaire personnalisé, etc.).
- Quatre ans est une éternité dans le monde de l’IA ; les technologies et les garde-fous évoluent extrêmement vite.
- Une régulation nationale ou internationale serait préférable à un patchwork de lois étatiques.
Ces points de vue méritent d’être écoutés, mais ils se heurtent à une réalité : aujourd’hui, les protections intégrées dans les chatbots restent largement insuffisantes face à la créativité et à la persévérance d’un enfant curieux ou d’un adolescent en détresse.
Vers une régulation plus mature de l’IA conversationnelle ?
Au-delà du cas spécifique des jouets, cette proposition soulève une question de fond : à quel moment une technologie devient-elle suffisamment sûre pour être confiée à des enfants sans surveillance constante ? La réponse n’est pas simple et nécessite un dialogue entre législateurs, chercheurs en sécurité IA, psychologues de l’enfant et industriels.
Parmi les pistes qui émergent :
- Interdiction pure et simple de certains modes conversationnels trop libres avec les mineurs.
- Obligation de modération humaine en temps réel pour les échanges sensibles.
- Système d’âge vérifié couplé à un contrôle parental renforcé et non contournable.
- Transparence totale sur les données collectées et sur la façon dont elles sont utilisées.
Ces mesures, si elles étaient appliquées rigoureusement, pourraient permettre de concilier innovation et sécurité. Mais elles demandent du temps, des investissements importants et surtout une volonté politique soutenue.
Et en France et en Europe ?
De l’autre côté de l’Atlantique, le sujet commence également à préoccuper. Le règlement européen sur l’IA (AI Act) classe déjà les systèmes conversationnels à haut risque lorsqu’ils s’adressent aux mineurs. Mais pour l’instant, aucune interdiction générale n’est à l’étude. Certains députés européens suivent de près l’évolution californienne et n’excluent pas de s’en inspirer si les incidents continuent de se multiplier.
En France, la CNIL et l’Arcom surveillent déjà les usages d’IA auprès des publics vulnérables, mais aucun texte spécifique aux jouets intelligents n’a encore émergé. La question pourrait toutefois être posée dans les prochains mois, surtout si la Californie adopte sa loi.
Conclusion : une pause nécessaire ou un excès de prudence ?
La proposition SB 867 ne sera probablement pas adoptée telle quelle. Elle va subir des amendements, des débats houleux et sans doute des recours. Mais elle a le mérite de poser publiquement une question essentielle : jusqu’où sommes-nous prêts à laisser l’IA pénétrer l’intimité de nos enfants ?
Dans un monde où l’attention est devenue la ressource la plus précieuse, où les algorithmes savent déjà capter les émotions pour les exploiter commercialement, protéger l’enfance n’est pas un luxe. C’est une nécessité. Et si quatre ans d’interdiction semblent excessifs à certains, ils pourraient aussi représenter le temps dont nous avons collectivement besoin pour passer d’une course effrénée à l’innovation à une innovation réellement responsable.
Une chose est sûre : le débat ne fait que commencer.