Google Exploite Claude d’Anthropic pour Améliorer Gemini AI

Accueil - Technologies et Avenirs - Intelligence Artificielle - Google Exploite Claude d’Anthropic pour Améliorer Gemini AI
Google Exploite Claude dAnthropic pour Améliorer Gemini AI Innovationsfr
décembre 24, 2024

Google Exploite Claude d’Anthropic pour Améliorer Gemini AI

La course à l'intelligence artificielle fait rage entre les géants de la tech, et les révélations se multiplient sur les méthodes employées pour perfectionner leurs IA. Dernier rebondissement en date : Google utiliserait en catimini le modèle de langage Claude, créé par la startup Anthropic, afin de tester et améliorer les performances de sa propre IA baptisée Gemini, comme le dévoilent des documents internes obtenus par le site spécialisé TechCrunch.

Gemini affronte Claude en coulisses

Alors que Google est lui-même un important investisseur d'Anthropic, il semblerait que l'entreprise n'hésite pas à exploiter les atouts de son partenaire - et concurrent - pour faire progresser sa propre technologie. En effet, des échanges entre collaborateurs de Google, que TechCrunch a pu consulter, montrent que les réponses générées par Gemini sont systématiquement comparées à celles de Claude.

Les équipes en charge de noter la pertinence des outputs de Gemini disposent ainsi de 30 minutes pour analyser chaque prompt, en évaluant quel modèle, de Gemini ou Claude, apporte la meilleure réponse selon différents critères comme la véracité ou la concision. Un processus minutieux qui vise à identifier les forces et faiblesses de chaque IA pour permettre à Google d'optimiser Gemini.

Claude, champion de la sécurité ?

Au fil de ces comparatifs, un constat a émergé parmi les collaborateurs de Google : Claude semble disposer de paramètres de sécurité plus stricts que Gemini. Le modèle d'Anthropic refuserait ainsi de répondre à certains prompts jugés inappropriés, comme jouer le rôle d'un autre assistant, là où Gemini peut parfois générer du contenu problématique.

Dans un cas, Claude a évité de répondre à une demande, tandis que la réponse de Gemini a été signalée comme une "énorme violation de sécurité" en raison de la présence de "nudité et bondage".

Extrait d'un échange entre collaborateurs de Google

Google dément former Gemini sur Claude

Contacté par TechCrunch, Google admet comparer les réponses des modèles dans un processus d'évaluation standard, mais réfute catégoriquement se servir de Claude pour entraîner Gemini. De son côté, Anthropic n'a pas souhaité commenter l'usage que fait Google de son IA.

Pourtant, les conditions d'utilisation de Claude interdisent aux clients d'exploiter le modèle pour développer des produits ou entraîner des IA concurrentes, sauf accord préalable d'Anthropic. Google étant actionnaire de la startup, dispose-t-il d'un passe-droit ? Le mystère reste entier.

Les dérives de l'IA inquiètent en interne

Ces révélations surviennent une semaine après la publication par TechCrunch d'autres documents suggérant un malaise grandissant chez les collaborateurs de Google. Certains s'alarment de voir Gemini générer des informations potentiellement erronées sur des sujets sensibles comme la santé, alors même que les testeurs ne sont pas experts du domaine.

Ces pratiques questionnables mettent en lumière les dérives d'une course à l'IA effrénée, où la quête de performance semble parfois primer sur les considérations éthiques. Jusqu'où les géants de la tech sont-ils prêts à aller pour façonner l'IA ultime ? L'avenir nous le dira, mais gageons que d'autres révélations fracassantes ne tarderont pas à émerger de la Silicon Valley et d'ailleurs.

Partager:

Ajouter Un Commentaire

Chercher

Beauty and lifestyle influencer

Follow my journey on all Social Media channels

Alienum phaedrum torquatos nec eu, vis detraxit periculis ex, nihilmei. Mei an pericula euripidis, hinc partem ei est.
facebook
5M+
Facebook followers
Follow Me
youtube
4.6M+
Youtube Subscribers
Subscribe Me
tiktok
7M+
Tiktok Followers
Follow Me
instagram
3.4M+
Instagram Followers
Follow Me