
L’industrie face au défi persistant de l’hallucination de l’IA générative
Deux ans après le lancement révolutionnaire du chatbot ChatGPT d'OpenAI, propulsé par des modèles de langage de grande taille, l'industrie de l'intelligence artificielle générative continue de se débattre avec un défi de taille : les hallucinations des modèles, ces générations incorrectes, trompeuses ou fantaisistes qui limitent encore l'adoption de l'IA générative à grande échelle.
Les hallucinations, frein à l'adoption de l'IA générative en entreprise
Lors de la conférence re:Invent d'Amazon Web Services à Las Vegas, les discussions ont tourné autour de l'évolution et des problèmes de croissance de l'IA générative. Matt Garman, CEO d'AWS, a souligné le potentiel transformateur de cette technologie pour tous les secteurs et workflows, mais a reconnu que les hallucinations restent un obstacle majeur à son déploiement en production.
En réalité, aussi bons que soient les modèles aujourd'hui, ils se trompent parfois. Lors des preuves de concept, 90% de réussite était acceptable. Mais pour une application en production, ce n'est plus le cas.
– Matt Garman, CEO d'Amazon Web Services
AWS présente un outil contre les hallucinations
Pour tenter de résoudre ce problème, AWS a présenté lors de la conférence un nouvel outil appelé "Automated Reasoning Checks". Son but est de vérifier l'exactitude des réponses générées par les modèles fondateurs disponibles sur la plateforme Amazon Bedrock, en les comparant aux informations fournies par le client. En cas d'hallucination potentielle, l'outil présenterait sa propre réponse à côté de l'erreur.
Les hallucinations, une caractéristique inhérente des grands modèles de langage
Pradeep Prabhakaran, de la startup canadienne Cohere, a quant à lui souligné que les hallucinations sont "une caractéristique inhérente des grands modèles de langage". Il préconise la mise en place de boucles de feedback constantes entre les modèles et les humains pour valider les résultats lors du passage en production.
La banque Koho prudente sur les applications grand public
David Kormushoff, vice-président technologie et IA chez la banque mobile canadienne Koho, a indiqué explorer des cas d'usage liés à l'éducation financière des clients. Mais l'exactitude des réponses générées reste cruciale. "Nous ne voulons pas donner de mauvaises informations, c'est l'opposé de nos valeurs", a-t-il déclaré, tout en se disant confiant d'y parvenir à terme.
Choisir le bon modèle pour chaque application
Si les géants de la tech ont misé sur toujours plus de puissance et de données pour améliorer les capacités des IA, certains remettent en question cette course à la taille. Pour les applications en entreprise notamment, un modèle plus petit et spécialisé peut s'avérer plus pertinent en termes de latence, précision et coût, selon Pradeep Prabhakaran de Cohere.
Vers des modèles plus petits et privés ?
Cohere mise ainsi sur des outils plus compacts et personnalisés pour chaque client, pouvant être déployés en privé. Une approche qui permettrait aussi de renforcer la sécurité et la confidentialité des données, un enjeu clé pour l'adoption de l'IA par les entreprises régulées, d'après Patricia Nielsen d'AWS.
Les dangers de l'IA générative, une "distraction" ?
Si certaines figures de l'IA comme Geoffrey Hinton et Yoshua Bengio tirent la sonnette d'alarme sur les dangers futurs de l'IA générative pour l'humanité, Andrew Ng, pionnier de l'apprentissage profond chez Google et désormais au conseil d'administration d'Amazon, balaie ces inquiétudes. Il reconnaît un risque de "pollution de l'écosystème informationnel" par l'IA, mais juge que la plupart des menaces sont spécifiques à chaque application.
Le chemin est donc encore long pour apprivoiser les modèles génératifs et leurs hallucinations capricieuses. Mais entre avancées et mises en garde, l'industrie continue d'explorer le potentiel et les limites de cette technologie fascinante. L'avenir nous dira si elle parviendra à dompter l'imagination débordante de ses créations.