Groq lève 640 millions de dollars pour révolutionner l’IA
Dans la course effrénée à l'intelligence artificielle, une startup relativement discrète vient de frapper un grand coup. Groq, fondée en 2016 par d'anciens ingénieurs de Google, a levé pas moins de 640 millions de dollars pour développer des puces révolutionnaires destinées à accélérer les algorithmes d'IA, en particulier les fameux modèles génératifs comme GPT-4 d'OpenAI.
Des performances 10 fois supérieures pour l'IA générative
Selon Groq, ses puces baptisées LPU (Language Processing Unit) seraient capables de faire tourner les modèles génératifs à une vitesse 10 fois supérieure à celle des processeurs classiques, tout en consommant 10 fois moins d'énergie. Des performances remarquables qui ont attiré l'attention des géants de la tech et des investisseurs.
Ce tour de table record de 640 millions de dollars a été mené par BlackRock, avec la participation de Samsung, Cisco et d'autres fonds. Il valorise Groq à 2,8 milliards de dollars, plus du double de sa précédente valorisation en 2021. De quoi donner des moyens colossaux à la startup pour accélérer le développement de ses puces et tenter de s'imposer face à un mastodonte comme Nvidia.
Yann LeCun, pointure de l'IA, devient conseiller de Groq
Autre événement notable : Yann LeCun, chef scientifique de l'IA chez Meta, a annoncé qu'il devenait conseiller technique pour Groq. Un soutien de poids de la part de ce pionnier du deep learning, même si cela peut paraître surprenant au vu des propres investissements de Meta dans les puces IA. Cela prouve en tout cas tout l'intérêt que suscite la technologie de Groq.
Les modèles génératifs, prochain champ de bataille
Depuis l'engouement mondial autour de ChatGPT, les modèles de langage génératifs sont devenus le Graal de l'IA. Mais entraîner et exécuter ces modèles aux milliards de paramètres nécessite une puissance de calcul colossale, que les puces classiques peinent à fournir de manière efficiente. D'où la nécessité de concevoir des architectures dédiées comme les LPU de Groq.
Les modèles génératifs d'IA sont extrêmement exigeants en termes de calcul. Nous sommes ravis d'aider les développeurs et les entreprises à tirer le meilleur parti de ces modèles révolutionnaires grâce à notre technologie.
Jonathan Ross, CEO de Groq
Un écosystème logiciel pour démocratiser l'IA
Au-delà du hardware, Groq mise aussi sur le software avec sa plateforme GroqCloud qui propose des modèles prêts à l'emploi et des API pour utiliser facilement ses puces. La startup revendique déjà plus de 350 000 développeurs inscrits, dont une majorité au sein de grandes entreprises. L'objectif est clair : démocratiser l'accès à l'IA générative auprès d'un large public.
Des partenariats stratégiques à l'international
Pour déployer massivement ses puces, Groq multiplie les partenariats : intégration dans des datacenters en Norvège, au Moyen-Orient, ventes aux acteurs publics via des intégrateurs comme Carahsoft... La startup se positionne auprès des gouvernements et des entreprises soucieuses de garder la main sur leurs données et leurs modèles d'IA.
Nvidia et les géants de la tech en embuscade
Malgré ces atouts, Groq va devoir affronter une concurrence féroce sur le marché des puces IA, estimé à 400 milliards de dollars. Nvidia règne en maître avec 80% de parts de marché et multiplie les innovations. Des poids lourds comme Google, Amazon, Microsoft ou Intel développent aussi leurs propres puces. Sans compter une armée de startups bien financées.
Mais dans ce monde en plein bouleversement, les cartes peuvent être rapidement rebattues. Avec son focus unique, son avance technologique et ses soutiens de prestige, Groq a de sérieux arguments pour devenir un acteur majeur. Les 640 millions levés sont un carburant précieux pour tenir la distance dans cette course à l'IA où l'enjeu n'est rien de moins que notre futur.