Google Exploite Claude d’Anthropic pour Améliorer Gemini AI
La course à l'intelligence artificielle fait rage entre les géants de la tech, et les révélations se multiplient sur les méthodes employées pour perfectionner leurs IA. Dernier rebondissement en date : Google utiliserait en catimini le modèle de langage Claude, créé par la startup Anthropic, afin de tester et améliorer les performances de sa propre IA baptisée Gemini, comme le dévoilent des documents internes obtenus par le site spécialisé TechCrunch.
Gemini affronte Claude en coulisses
Alors que Google est lui-même un important investisseur d'Anthropic, il semblerait que l'entreprise n'hésite pas à exploiter les atouts de son partenaire - et concurrent - pour faire progresser sa propre technologie. En effet, des échanges entre collaborateurs de Google, que TechCrunch a pu consulter, montrent que les réponses générées par Gemini sont systématiquement comparées à celles de Claude.
Les équipes en charge de noter la pertinence des outputs de Gemini disposent ainsi de 30 minutes pour analyser chaque prompt, en évaluant quel modèle, de Gemini ou Claude, apporte la meilleure réponse selon différents critères comme la véracité ou la concision. Un processus minutieux qui vise à identifier les forces et faiblesses de chaque IA pour permettre à Google d'optimiser Gemini.
Claude, champion de la sécurité ?
Au fil de ces comparatifs, un constat a émergé parmi les collaborateurs de Google : Claude semble disposer de paramètres de sécurité plus stricts que Gemini. Le modèle d'Anthropic refuserait ainsi de répondre à certains prompts jugés inappropriés, comme jouer le rôle d'un autre assistant, là où Gemini peut parfois générer du contenu problématique.
Dans un cas, Claude a évité de répondre à une demande, tandis que la réponse de Gemini a été signalée comme une "énorme violation de sécurité" en raison de la présence de "nudité et bondage".
Extrait d'un échange entre collaborateurs de Google
Google dément former Gemini sur Claude
Contacté par TechCrunch, Google admet comparer les réponses des modèles dans un processus d'évaluation standard, mais réfute catégoriquement se servir de Claude pour entraîner Gemini. De son côté, Anthropic n'a pas souhaité commenter l'usage que fait Google de son IA.
Pourtant, les conditions d'utilisation de Claude interdisent aux clients d'exploiter le modèle pour développer des produits ou entraîner des IA concurrentes, sauf accord préalable d'Anthropic. Google étant actionnaire de la startup, dispose-t-il d'un passe-droit ? Le mystère reste entier.
Les dérives de l'IA inquiètent en interne
Ces révélations surviennent une semaine après la publication par TechCrunch d'autres documents suggérant un malaise grandissant chez les collaborateurs de Google. Certains s'alarment de voir Gemini générer des informations potentiellement erronées sur des sujets sensibles comme la santé, alors même que les testeurs ne sont pas experts du domaine.
Ces pratiques questionnables mettent en lumière les dérives d'une course à l'IA effrénée, où la quête de performance semble parfois primer sur les considérations éthiques. Jusqu'où les géants de la tech sont-ils prêts à aller pour façonner l'IA ultime ? L'avenir nous le dira, mais gageons que d'autres révélations fracassantes ne tarderont pas à émerger de la Silicon Valley et d'ailleurs.