
Où En Est l’Ordinateur Quantique Utile ?
Imaginez un monde où les calculs les plus complexes, aujourd'hui hors de portée, sont résolus en un clin d'œil. Cette promesse, portée par l'informatique quantique, fascine chercheurs et industriels. Mais où en sommes-nous vraiment ? Un récent rapport de l’Académie des technologies, publié en juin 2025, dresse un état des lieux précis du développement des ordinateurs quantiques en France, révélant à la fois des avancées prometteuses et des obstacles encore majeurs.
Un Ordinateur Quantique Utile : Réalité ou Horizon Lointain ?
Le rêve d’un ordinateur quantique capable de surpasser les supercalculateurs classiques n’est pas nouveau. Depuis des décennies, les scientifiques explorent le potentiel des qubits, ces unités fondamentales du calcul quantique, capables de traiter des données à une vitesse inégalée grâce à des propriétés comme la superposition et l’intrication. Pourtant, le chemin vers un ordinateur quantique véritablement utile, ou calcul quantique tolérant aux fautes (CQTF), reste semé d’embûches. Selon l’Académie des technologies, nous sommes encore loin d’une application industrielle concrète.
Les Limites Actuelles : l’Ère des Calculateurs Bruités
À ce jour, les ordinateurs quantiques existants appartiennent à l’ère dite NISQ (Noisy Intermediate-Scale Quantum). Ces machines, bien que fascinantes, souffrent d’un taux d’erreur élevé. Chaque qubit physique est sujet à des perturbations, rendant les calculs instables au-delà d’un certain nombre d’opérations. « Les calculateurs NISQ permettent des expérimentations, mais leurs applications restent limitées », explique Catherine Lambert, co-autrice du rapport et présidente du Cerfacs.
Aujourd’hui, il n’existe pas de CQTF utilisable pour des applications industrielles.
– Catherine Lambert, présidente du Cerfacs
Les espoirs initiaux portés sur les calculateurs NISQ, notamment pour des algorithmes d’optimisation, se sont heurtés à cette réalité. Les erreurs inhérentes aux qubits actuels empêchent d’atteindre l’avantage quantique, ce moment où un ordinateur quantique surpasse définitivement les technologies classiques. Le rapport souligne que les progrès dans la réduction des erreurs sont cruciaux pour franchir ce cap.
La Correction d’Erreurs : Le Cœur du Défi
Le principal obstacle à l’émergence d’un CQTF réside dans la correction d’erreurs quantiques. Les qubits physiques, sensibles aux interférences, génèrent des erreurs à un rythme qui compromet les calculs complexes. Pour obtenir des qubits logiques – des unités fiables capables de supporter des calculs sans faute – il faut un nombre colossal de qubits physiques. Le rapport estime que les technologies actuelles nécessitent encore une réduction des erreurs de plusieurs ordres de grandeur.
Les progrès récents sont encourageants. Par exemple, des avancées dans les codes de correction d’erreurs ont permis de réduire le surcoût de ces mécanismes d’un ordre de grandeur par rapport aux anciens codes de surface. Cependant, ces améliorations ne suffisent pas encore. « Atteindre un avantage quantique nécessite un nombre de qubits logiques bien supérieur à ce que nous pouvons produire aujourd’hui », notent les experts.
Une Nouvelle Approche : l’Interconnexion Modulaire
Face à ces défis, une stratégie novatrice émerge : l’approche modulaire. Plutôt que de chercher à intégrer des milliers de qubits dans un seul système monolithique, les chercheurs explorent l’interconnexion de plusieurs calculateurs quantiques de petite taille. Cette méthode, qui repose sur des technologies habilitantes comme les liens de communication quantique basés sur des photons micro-ondes ou optiques, pourrait simplifier la construction de machines puissantes.
Voici les avantages potentiels de cette approche :
- Scalabilité accrue en combinant plusieurs systèmes.
- Réduction des contraintes sur la fabrication de grands calculateurs.
- Flexibilité pour optimiser chaque module indépendamment.
Cette approche n’est pas sans défis. Les technologies de communication quantique, essentielles pour interconnecter les modules, sont encore en développement. De plus, la synchronisation des calculateurs nécessite des avancées significatives dans les infrastructures matérielles et logicielles.
Le Quantique Face au Calcul Haute Performance
L’ordinateur quantique ne doit pas être vu comme un concurrent direct des supercalculateurs classiques, mais comme une brique complémentaire. Le calcul haute performance (HPC) a lui-même évolué, boosté par l’intelligence artificielle et des technologies comme le calcul neuromorphique. Ces avancées soulèvent une question cruciale : l’avantage quantique restera-t-il pertinent face à des technologies classiques en constante amélioration ?
Y aura-t-il toujours un avantage quantique face à des technologies qui évoluent elles aussi ?
– Catherine Lambert, co-autrice du rapport
Pour répondre à cette question, l’Académie des technologies prévoit un nouveau rapport en 2026, qui examinera les interactions entre le quantique et les autres formes de calcul. Ce travail inclura une analyse des algorithmes quantiques, des besoins en compétences et des financements nécessaires pour maintenir la compétitivité de la France dans ce domaine.
Les Enjeux Humains et Financiers
Le développement de l’informatique quantique ne repose pas uniquement sur des avancées techniques. Les compétences humaines et les financements jouent un rôle clé. La France, avec des acteurs comme le Cerfacs et des start-ups spécialisées, dispose d’un écosystème dynamique. Cependant, la concurrence internationale est féroce, portée par des géants comme IBM ou Google, qui investissent massivement dans le domaine.
Pour rester dans la course, il faudra :
- Former une nouvelle génération d’experts en quantique.
- Renforcer les partenariats entre recherche publique et privée.
- Sécuriser des financements à long terme pour les projets innovants.
Le rapport insiste sur l’importance de ces facteurs pour transformer les promesses du quantique en réalités concrètes. Sans un effort concerté, la France risque de perdre du terrain face à ses concurrents.
Vers un Écosystème Quantique Intégré
L’avenir de l’informatique quantique réside dans son intégration au sein d’un écosystème plus large. Plutôt que de fonctionner en silo, les ordinateurs quantiques devront s’interfacer avec les infrastructures HPC et les technologies émergentes comme l’IA. Cette vision, défendue par l’Académie, place le quantique comme une pièce d’un puzzle technologique global.
Pour illustrer cette complémentarité, prenons l’exemple des applications potentielles :
- Optimisation des réseaux énergétiques grâce à des algorithmes quantiques.
- Simulation de molécules pour accélérer la découverte de médicaments.
- Renforcement de la cybersécurité via la cryptographie quantique.
Ces applications, bien que prometteuses, restent hors de portée sans des avancées significatives dans la correction d’erreurs et l’interconnexion modulaire. Le rapport de l’Académie des technologies se veut donc un appel à l’action, incitant les acteurs du secteur à redoubler d’efforts.
Perspectives pour 2030 et Au-Delà
Quand pourrons-nous enfin utiliser un ordinateur quantique utile ? La date de 2030, souvent avancée, reste incertaine. « Tout dépendra des progrès des start-ups et des financements disponibles », précise Catherine Lambert. Les avancées dans les technologies habilitantes, comme les systèmes de communication quantique, seront déterminantes.
En attendant, la France doit capitaliser sur ses atouts : un écosystème de recherche dynamique, des start-ups innovantes et une volonté politique de soutenir l’innovation. Le rapport de 2026 promet d’apporter de nouvelles réponses, notamment sur la manière dont le quantique s’intégrera aux autres technologies.
L’informatique quantique, bien qu’encore immature, est à l’aube d’une révolution. En combinant approches modulaires, correction d’erreurs et investissements stratégiques, la France pourrait jouer un rôle de premier plan dans cette course mondiale. Mais pour cela, il faudra surmonter les défis techniques et humains qui se dressent sur la route.