Google enrichit sa famille de LLM Gemma 2 axée sur la sécurité
Dans la course effrénée vers l'IA générative, Google ne compte pas se laisser distancer. Le géant de Mountain View vient de dévoiler plusieurs avancées majeures visant à proposer des modèles de langage plus compacts, sécurisés et transparents. Une philosophie résumée par le slogan "plus petite, plus sûre, plus transparente" qui guide le développement de la famille Gemma 2.
Gemma 2 2B, le petit modèle qui voit grand
La star de cette annonce est sans conteste Gemma 2 2B, un modèle de langage de seulement 2 milliards de paramètres. Malgré sa taille réduite, ce LLM s'avère redoutablement efficace. Élaboré par distillation des connaissances de ses grands frères Gemma 2 9B et 27B, il a été entraîné sur pas moins de 2000 milliards de tokens provenant de sources variées (web, code, textes mathématiques...). Résultat : il surclasse des ténors comme GPT-3.5 ou Llama 2 70B sur l'épreuve de référence Chatbot Arena.
Outre ses performances, Gemma 2 2B se distingue par sa polyvalence. Pouvant être déployé aussi bien dans le cloud qu'en local, y compris sur des ordinateurs portables, il ouvre la voie à une démocratisation des applications IA. Google recommande toutefois l'usage de GPU NVIDIA comme les RTX pour en tirer la quintessence. Une version optimisée avec Nvidia TensorRT-LLM est également proposée sous forme de microservice NIM.
ShieldGemma, le bouclier anti-contenus toxiques
Mais la puissance ne suffit pas sans garde-fous. C'est pourquoi Google lance en parallèle ShieldGemma, une suite de modèles de classification destinés à détecter et filtrer les contenus problématiques, qu'ils soient ingérés en entrée ou générés en sortie par les IA. Quatre domaines sensibles sont particulièrement ciblés :
- Les discours haineux
- Le harcèlement
- Les contenus sexuellement explicites
- Les contenus dangereux
Ces classificateurs viennent compléter la panoplie déjà fournie dans le Responsible AI Toolkit de Google Cloud. Afin de s'adapter à toutes les situations, ShieldGemma est décliné en plusieurs versions, chacune optimisée pour une taille de modèle : 2B pour la classification en ligne, 9B et 27B pour un traitement hors-ligne plus poussé.
Gemma Scope, la loupe d'interprétabilité
Enfin, pour mieux comprendre le fonctionnement interne de ses IA, Google propose Gemma Scope. Tel un microscope zoomant sur les mécanismes de Gemma 2, cet outil s'appuie sur des autoencodeurs épars (SAE) pour rendre le traitement de l'information plus intelligible. En analysant comment le réseau repère des patterns et prend ses décisions, les chercheurs espèrent pouvoir auditer et améliorer les modèles.
Avec cette nouvelle fournée d'outils, Google affirme son ambition de proposer une IA générative à la fois performante, éthique et compréhensible. De quoi rassurer les utilisateurs et les régulateurs, tout en maintenant la firme dans la course face à des rivaux comme Anthropic ou OpenAI. Reste à voir si ce positionnement suffira face aux prochaines avancées du secteur, qui s'annoncent tout aussi spectaculaires.