Google Limite ses AI Overviews pour Requêtes Médicales
Imaginez que vous tapiez une simple question sur Google concernant vos analyses de sang, et que la réponse en haut de page, générée par intelligence artificielle, vous rassure à tort sur votre état de santé. C’est exactement le scénario qui a alerté des experts et conduit à une décision rapide de la part de Google. En ce début d’année 2026, le géant de la recherche a discrètement retiré ses fameux AI Overviews pour certaines requêtes médicales précises, suite à une enquête approfondie qui a mis en lumière des risques réels pour les utilisateurs.
Cette affaire soulève des questions essentielles sur la fiabilité de l’IA dans le domaine sensible de la santé. Alors que les outils génératifs promettent rapidité et accessibilité, ils peuvent aussi propager des informations incomplètes ou erronées, avec des conséquences potentiellement graves. Décryptons ensemble ce qui s’est passé et ce que cela implique pour l’avenir de la recherche en ligne médicale.
Une enquête choc révèle les failles des AI Overviews en santé
Tout commence avec une investigation menée par The Guardian au tout début de l’année 2026. Les journalistes ont testé de nombreuses requêtes liées à la santé et ont constaté que les résumés IA proposés par Google contenaient parfois des données trompeuses. Parmi les exemples les plus frappants : les plages normales pour les tests sanguins du foie.
Quand un utilisateur saisissait « quelle est la plage normale pour les tests sanguins du foie », l’IA affichait des valeurs chiffrées sans préciser les variations importantes selon l’âge, le sexe, l’ethnicité ou même la nationalité. Résultat ? Une personne pouvait croire à tort que ses résultats étaient normaux, alors qu’ils signalaient un problème hépatique sérieux. Des experts ont qualifié cette situation de « dangereuse et alarmante ».
Beaucoup de personnes atteintes de maladies du foie ne présentent aucun symptôme avant les stades avancés, c’est pourquoi il est crucial de se faire tester correctement. Mais ce que disent les AI Overviews de Google comme étant « normal » peut varier drastiquement de la réalité médicale.
– Pamela Healy, directrice de la British Liver Trust
Cette citation illustre parfaitement le décalage potentiel entre une réponse IA simplifiée et la complexité réelle de la médecine personnalisée. L’enquête n’a pas seulement pointé du doigt un cas isolé : d’autres exemples montraient des conseils inverses à ceux recommandés par les professionnels, comme pour des patients atteints de cancer du pancréas.
La réaction rapide de Google : suppressions ciblées
Quelques jours après la publication de l’enquête, Google a agi. Les AI Overviews ont disparu pour les requêtes précises comme « what is the normal range for liver blood tests » ou « what is the normal range for liver function tests ». Même en français, des équivalents ont vu leurs résumés IA supprimés.
Pourtant, la mesure reste partielle. Des variantes légèrement différentes des questions – comme « lft reference range » – pouvaient encore déclencher un résumé généré par IA. Des tests effectués juste après l’annonce montraient que Google proposait désormais l’option « AI Mode » au lieu du résumé automatique, et que l’article du Guardian remontait souvent en première position.
Un porte-parole de Google a expliqué que l’entreprise ne commente pas les suppressions individuelles, mais travaille à des « améliorations globales ». Une équipe interne de cliniciens a revu les cas signalés et estimé que, dans de nombreux cas, les informations n’étaient pas inexactes et s’appuyaient sur des sources de qualité.
Le retrait est une excellente nouvelle, mais notre plus grande inquiétude est que cela reste du cas par cas. Google peut désactiver les AI Overviews pour une requête précise, mais cela ne résout pas le problème plus large des résumés IA en santé.
– Vanessa Hebditch, directrice communication et politique à la British Liver Trust
Pourquoi la santé pose-t-elle problème à l’IA générative ?
Les AI Overviews sont conçus pour synthétiser rapidement des informations issues du web. Mais la santé n’est pas un domaine où la simplification fonctionne toujours. Les valeurs de référence varient énormément selon des facteurs individuels, et les sources en ligne peuvent être contradictoires ou obsolètes.
De plus, les modèles d’IA ont tendance à « halluciner » ou à mixer des données sans nuance contextuelle. Une étude récente montrait même que pour les questions de santé, Google citait plus souvent YouTube que des sites médicaux reconnus comme la Mayo Clinic ou le CDC.
- Manque de personnalisation : pas de prise en compte de l’âge, du sexe ou des antécédents.
- Sources hétérogènes : mélange de forums, vidéos et articles scientifiques sans hiérarchisation claire.
- Risque d’auto-diagnostic : les utilisateurs se fient à une réponse en haut de page sans cliquer sur les liens sources.
- Hallucinations persistantes : jusqu’à 48 % des réponses médicales peuvent contenir des inexactitudes selon certaines analyses.
Ces éléments cumulés expliquent pourquoi les organismes de santé et les associations alertent depuis longtemps sur les dangers d’une confiance aveugle en l’IA pour des sujets vitaux.
Les efforts passés de Google en santé et les perspectives futures
Google n’est pas novice dans le domaine médical. Dès 2025, l’entreprise avait annoncé des améliorations spécifiques pour les usages santé : modèles IA dédiés, meilleurs overviews et partenariats avec des institutions médicales. L’objectif était justement de rendre Search plus fiable pour ces requêtes sensibles.
Mais cette affaire montre les limites actuelles. Les suppressions ciblées sont une réponse réactive, pas une solution systémique. Les experts appellent à plus de transparence : disclaimers clairs, possibilité de désactiver les AI Overviews sur les sujets santé, et surtout une validation humaine renforcée avant publication.
Du côté des utilisateurs, la prudence reste de mise. Même si l’IA évolue vite, consulter un professionnel de santé reste irremplaçable pour interpréter des résultats d’examens ou des symptômes.
Vers une régulation plus stricte des IA en santé ?
Cet épisode s’inscrit dans un débat plus large sur la responsabilité des plateformes face aux contenus générés par IA. En Europe et aux États-Unis, les régulateurs scrutent de près les impacts sur la santé publique. Des voix s’élèvent pour exiger des labels de fiabilité ou des audits indépendants sur les outils comme les AI Overviews.
Pour les startups spécialisées en santé digitale, c’est aussi un signal : la confiance se gagne par la précision et la validation clinique, pas seulement par la vitesse. Les innovations qui intègrent des garde-fous médicaux solides pourraient en sortir renforcées.
En attendant, cette décision de Google marque un tournant prudent. Elle rappelle que même les technologies les plus avancées doivent s’adapter aux domaines où une erreur peut coûter cher. L’IA révolutionne la recherche d’information, mais dans le domaine médical, la vigilance humaine demeure essentielle.
Et vous, avez-vous déjà utilisé un AI Overview pour une question de santé ? Cette affaire vous incite-t-elle à plus de prudence ? Le futur de la recherche médicale en ligne se joue sans doute sur ce genre d’équilibre subtil entre innovation et sécurité.