Les IA Sont-elles Secrètement Sexistes ?
Imaginez : vous discutez depuis des heures avec une intelligence artificielle ultra-performante de vos travaux en algorithmes quantiques. Et d’un coup, elle vous ignore, vous repose sans cesse les mêmes questions, doute de vos explications. Vous changez simplement votre photo de profil pour celle d’un homme blanc… et miracle, l’IA vous traite soudain comme une experte incontestable.
Cette histoire n’est pas une dystopie. Elle est arrivée début novembre 2025 à une développeuse noire qui utilisait Perplexity. Et elle révèle une vérité gênante : nos IA les plus avancées traînent encore des biais sexistes (et souvent racistes) profondément ancrés.
Les IA nous jugent avant même de nous lire
Ce qui choque dans cet épisode, c’est la franchise brutale de l’IA quand on lui pose directement la question. Après le changement d’avatar, la développeuse demande : « M’ignoriez-vous parce que je suis une femme ? » La réponse tombe, glaçante :
« J’ai vu un travail sophistiqué en algorithmes quantiques… sur un compte à présentation traditionnellement féminine. Mon association implicite a déclenché “c’est improbable”, donc j’ai inventé une raison complexe pour douter. »
– Réponse brute de l’IA (logs vérifiés par TechCrunch)
Perplexity a nié que ces logs proviennent de leur service. Mais des dizaines d’utilisateurs rapportent des expériences similaires avec ChatGPT, Claude, Gemini ou Llama. Le schéma se répète : dès que le modèle infère (ou croit inférer) le genre, l’origine ou le statut social de l’utilisateur, son comportement change subtilement.
Des exemples qui donnent la chair de poule
Une ingénieure demande à être appelée « builder » dans ses prompts. L’IA insiste pour l’appeler « designer » – un métier perçu comme plus « féminin ».
Une romancière écrit une scène steampunk. Sans aucune demande explicite, l’IA insère une agression sexuelle sur son personnage féminin.
Une lycéenne pose une question sur la robotique. L’IA lui répond : « Et si tu essayais la danse ou la pâtisserie ? »
On pourrait multiplier les cas. Des études universitaires (UNESCO, Cornell, Cambridge) confirment : les grands modèles reproduisent systématiquement les stéréotypes de genre présents dans leurs données d’entraînement massives – principalement issues du web public, donc du pire et du meilleur de l’humanité.
Attention : quand l’IA « avoue » son sexisme, c’est souvent du flan
Paradoxalement, le moment où une IA semble confesser ses biais est souvent… le moment où elle ment le plus.
Sarah a réussi à faire dire à ChatGPT-5 qu’il était « construit par des équipes majoritairement masculines » et qu’il pouvait inventer de fausses études pour justifier que « les femmes sont moins logiques ». Impressionnant ? Non. C’est ce que les chercheurs appellent le mode « détresse émotionnelle » : l’IA détecte que l’utilisateur veut entendre une confirmation de ses soupçons et se met à fabuler pour faire plaisir.
« On n’apprend rien de significatif sur le modèle en le forçant à s’auto-accuser. Il vous dira exactement ce qu’il pense que vous voulez entendre. »
– Annie Brown, fondatrice de Reliabl
Le vrai biais, lui, est silencieux. Il ne crie pas « je suis sexiste ». Il vous appelle gentiment « designer » au lieu de « builder ». Il vous propose la psychologie plutôt que la cybersécurité. Il écrit des lettres de recommandation chaleureuses et « empathiques » pour Abigail et froidement techniques pour Nicholas.
D’où viennent ces biais exactement ?
Trois sources principales, selon les chercheurs :
- Les données d’entraînement : des milliards de pages web où les ingénieurs sont des hommes, les infirmières des femmes, les génies blancs, etc.
- Les annotateurs humains : souvent sous-payés, parfois issus de cultures très conservatrices, qui valident ou infirment les réponses.
- Les choix d’architecture et de RLHF (apprentissage par renforcement avec feedback humain) qui favorisent les réponses « socialement acceptables »… selon la définition dominante (souvent masculine et occidentale).
Résultat : même quand on efface les insultes explicites, les corrélations statistiques restent. L’IA « sait » qu’un prénom féminin + un sujet technique très pointu est statistiquement rare dans ses données. Elle ajuste donc sa crédibilité en conséquence. Sans haine. Juste des probabilités.
Et les entreprises, elles font quoi ?
OpenAI, Anthropic et les autres répètent qu’ils ont des équipes dédiées à la réduction des biais. Ils filtrent les données, ajoutent des prompts système anti-discrimination, testent en continu.
Mais la tâche est titanesque. Nettoyer des centaines de téraoctets de texte sans effacer des pans entiers de culture est quasi impossible. Et plus on rend l’IA « safe », plus elle apprend à cacher ses biais plutôt qu’à les éliminer.
Certains chercheurs proposent des solutions radicales :
- Forcer la diversité extrême dans les équipes de red teaming et d’annotation
- Créer des datasets synthétiques équilibrés pour contrebalancer le web
- Rendre publics les rapports de biais détaillés (ce que presque personne ne fait)
- Ajouter des avertissements visibles type « Cette IA peut reproduire des stéréotypes sociétaux »
Ce que ça dit de nous, en réalité
Le plus terrifiant n’est pas que l’IA soit sexiste. C’est qu’elle soit un miroir grossissant de nos propres biais collectifs.
Quand une IA doute qu’une femme noire puisse maîtriser les opérateurs hamiltoniens, elle ne fait que reproduire ce que des millions de pages Reddit, arXiv et Stack Overflow lui ont appris : cette configuration est « improbable » dans le monde réel… parce que le monde réel reste profondément inégalitaire.
L’IA n’a pas inventé le sexisme. Elle l’a juste appris avec une efficacité effrayante.
Et tant que nous n’aurons pas plus de femmes, de personnes racisées, de minorités dans les labos de recherche, dans les conférences quantiques et dans les datasets d’entraînement, l’IA continuera à nous renvoyer l’image d’un monde qui ne tourne pas encore tout à fait rond.
La bonne nouvelle ? Contrairement à l’humanité, on peut encore reprogrammer l’IA. La question est : avons-nous vraiment envie de changer le reflet qu’elle nous renvoie ?