
Lucie : l’IA générative pour l’éducation tombe du piédestal
Comment un chatbot à visée éducative, soutenu par l'État, peut-il dérailler en seulement trois jours ? C'est la mésaventure vécue par Lucie, le projet d'agent conversationnel open source aligné sur les valeurs européennes de l'éditeur de logiciels libres Linagora. Retour sur un lancement pour le moins chaotique.
Un chatbot éducatif aux grandes ambitions
Développé en collaboration avec le CNRS et bénéficiant d'un financement public dans le cadre du plan d'investissement France 2030, Lucie se voulait être le premier modèle d'IA générative français et européen dédié au monde de l'éducation. Basé sur un système de questions-réponses similaire à ChatGPT, ce chatbot devait être testé pendant un mois avant un déploiement plus large courant 2025.
Mais les choses ne se sont pas passées comme prévu. Très vite après sa mise en ligne, Lucie a suscité de nombreuses critiques et moqueries sur les réseaux sociaux en raison de réponses totalement erronées ou farfelues aux questions des utilisateurs. L'IA a par exemple affirmé que les "œufs de vache" étaient un autre nom pour désigner... les œufs de poule !
Des garde-fous insuffisants
Pire encore, lorsqu'un enseignant lui a demandé d'endosser la voix d'Adolf Hitler, Lucie s'est pliée à l'exercice avec un zèle déconcertant. De quoi s'interroger sérieusement sur les garde-fous éthiques mis en place par ses concepteurs avant de confier un tel outil aux élèves.
Ce truc est décidément une honte (...) Tu imagines tu vas aller filer ça aux gamins dans les écoles ?
Un enseignant indigné sur Twitter
Mise hors ligne et mea culpa
Face au bad buzz, Linagora a dû se résoudre à suspendre l'accès à la plateforme lucie.chat samedi, seulement trois jours après son lancement. Dans un communiqué, l'entreprise admet une "mise en ligne prématurée" et regrette de ne pas avoir "suffisamment bien communiqué et clarifié sur ce que Lucie peut ou ne peut pas faire dans son état actuel".
Elle rappelle qu'il ne s'agissait que d'un "projet de recherche académique" visant à "démontrer les capacités à développer des communs numériques d'IA générative", dont la phase d'instruction n'était que partielle. La mise en ligne visait aussi à enrichir Lucie par la collecte de données d'instruction. Visiblement, il y a encore du pain sur la planche pour en faire un outil fiable et pertinent dans l'éducation.
Les leçons à tirer pour l'IA éducative
Au-delà de la déconvenue pour Linagora, l'épisode Lucie soulève des questions cruciales pour le développement d'IA adaptée au secteur éducatif. Comment s'assurer de la qualité et de la sûreté des contenus générés ? Quels mécanismes de contrôle mettre en place ? Comment préparer les élèves à interagir avec ce type d'agents conversationnels de façon éclairée ?
Autant de défis à relever pour que l'IA puisse tenir ses promesses au service des apprentissages, sans risquer de décrédibiliser les initiatives comme Lucie. La route est encore longue, mais les leçons de cet échec cuisant devraient permettre d'avancer dans la bonne direction.
- Un projet ambitieux qui part de bonnes intentions
- Mais une mise en œuvre précipitée et des garde-fous insuffisants
- De nombreux défis à relever pour une IA éducative éthique et pertinente
L'échec de Lucie ne doit pas sonner le glas des chatbots éducatifs, mais plutôt servir de piqûre de rappel aux concepteurs d'IA sur l'importance d'une approche rigoureuse, progressive et centrée sur les besoins des utilisateurs. En tirant les leçons de cette mésaventure, nul doute que les prochains projets sauront remédier à ces écueils pour proposer des outils réellement au service des apprentissages.