Démystifier l’IA : LLM, tokens et autres termes expliqués
L'intelligence artificielle (IA) est sur toutes les lèvres ces derniers temps, propulsée sous les projecteurs par des prouesses comme celles de ChatGPT. Mais derrière ces avancées se cache tout un vocabulaire technique qui peut laisser perplexe le néophyte. LLM, tokens, hallucinations... Pas de panique, notre guide express vous aide à y voir plus clair en décryptant les principaux termes du moment.
Coup de projecteur sur l'IA générative
L'IA générative est le segment de l'IA qui a le vent en poupe actuellement. Elle désigne les réseaux de neurones capables de générer du contenu : texte, image, vidéo, code, son, molécule... ChatGPT et Midjourney en sont des exemples emblématiques. Leur "carburant" ? De vastes modèles de langage, les fameux LLM.
Les LLM, les moteurs de l'IA générative
Un grand modèle de langage (Large Language Model ou LLM en anglais) est un réseau de neurones entraîné sur d'immenses volumes de données textuelles. Cet apprentissage non supervisé ou semi-supervisé leur permet de modéliser le langage naturel. GPT-4 d'OpenAI, Llama de Meta ou encore notre Mistral 8x7B national en sont des exemples.
Tokens, l'unité de base des LLM
Pour "ingérer" et générer du texte, les LLM le découpent en tokens. Un token peut être un mot, une partie de mot, une syllabe ou un simple caractère. C'est l'unité de base utilisée par l'algorithme pour apprendre et prédire le langage.
Prompt, l'art de questionner l'IA
Le prompt, c'est la requête que vous soumettez au modèle, exprimée en langage naturel. Bien "promter" est tout un art pour obtenir les meilleurs résultats possibles. Des outils comme PromptBase proposent des prompts optimisés.
Hallucinations, quand l'IA déraille
Il arrive que les LLM génèrent des réponses incorrectes ou inventées de toutes pièces. C'est ce qu'on appelle des hallucinations. Un modèle peut ainsi donner un chiffre d'affaires erroné pour une entreprise ou définir un concept qui n'existe pas. Détecter et prévenir ces hallucinations est un enjeu important.
Open source, la transparence des modèles
Un modèle open source rend public tout ou partie de son architecture, ses paramètres et les informations sur ses données d'entraînement. Cela apporte de la transparence et permet aux entreprises de les adapter à leurs besoins. Le débat est encore vif sur le périmètre exact d'un modèle open source.
RAG et fine-tuning, pour doper les LLM
Pour étendre les capacités d'un LLM, deux techniques sont couramment utilisées. La génération augmentée de récupération (RAG) consiste à le connecter à une base de données pour lui donner accès à un vocabulaire spécifique. Le fine-tuning va plus loin en spécialisant le modèle sur une tâche précise via un nouvel entraînement, mais il est plus coûteux.
Vous voilà parés pour décoder les principales notions derrière les IA génératives qui font l'actualité. De quoi briller en société ou mieux appréhender les enjeux de cette technologie fascinante et en plein essor. L'IA n'aura bientôt plus de secrets pour vous !