Les défis de l’IA : les recherches de l’équipe Thoth de l’Inria
Alors que l'intelligence artificielle (IA) est sur toutes les lèvres, les fondements théoriques du machine learning restent encore à explorer en profondeur. C'est justement la mission que s'est donnée l'équipe Thoth de l'Inria, à Grenoble. Loin de la course au développement des modèles géants comme GPT, ces chercheurs tentent de percer les mystères des réseaux neuronaux pour rendre l'IA plus robuste, plus compréhensible et plus efficiente en ressources.
Comprendre les boîtes noires de l'IA
Le machine learning a connu un essor fulgurant ces dernières années, porté par des avancées empiriques plus que théoriques. Résultat, les algorithmes d'apprentissage profond fonctionnent encore largement comme des boîtes noires. Difficile dans ces conditions d'expliquer leurs décisions ou de garantir leur fiabilité, un enjeu pourtant crucial pour déployer l'IA à grande échelle et dans des domaines critiques comme la santé ou les transports.
Nous voulons construire des modèles avec des garanties théoriques, dont la sortie reste stable avec une entrée légèrement transformée.
– Julien Mairal, responsable de l'équipe Thoth
Pour créer des modèles d'IA dignes de confiance, les chercheurs de Thoth s'attaquent donc à la compréhension fine des réseaux de neurones. Leur but : élucider les mécanismes d'apprentissage de ces architectures complexes et dégager des principes théoriques permettant d'assurer leur robustesse et leur stabilité.
Vers une IA plus frugale en calculs et en données
Un autre défi de taille est la consommation en ressources des IA actuelles, dont l'entraînement nécessite des volumes colossaux de données et d'énergie. Pour y répondre, Julien Mairal a lancé le projet Apheleia, qui vise à créer des modèles plus frugaux en y incorporant des connaissances a priori. L'idée : se concentrer sur ce qui est difficile à modéliser plutôt que de tout réapprendre à chaque fois.
Encoder des lois physiques dans un réseau apprenant à générer des matériaux permettrait par exemple de guider la recherche vers des solutions viables. Des modèles inspirés par la physique (PINN) pourraient ainsi se montrer bien plus efficaces et économes.
Distribuer l'apprentissage de manière décentralisée
La représentation et la distribution des données d'entraînement est une autre problématique explorée par l'équipe. Hadrien Hendrikx travaille notamment sur des méthodes d'apprentissage décentralisé, où les unités de calculs communiquent entre voisines plutôt qu'avec un serveur central. Une approche prometteuse pour optimiser vitesse et confidentialité selon les cas d'usage.
En étudiant ces questions variées mais interconnectées, les chercheurs de Thoth espèrent lever une part du mystère entourant le fonctionnement de l'IA et poser les bases d'une nouvelle génération de modèles, à la fois plus transparents, plus robustes et moins énergivores. Des avancées théoriques déterminantes pour démocratiser l'usage de l'IA en toute confiance.