
La plus grande idée fausse du marché concernant « l’informatique quantique » : il est encore « trop tôt ».
TechFlow SélectionTechFlow Sélection

La plus grande idée fausse du marché concernant « l’informatique quantique » : il est encore « trop tôt ».
Le marché considère à tort que l’informatique quantique est une affaire « du prochain dix ans », mais Barclays prévient qu’en 2026/2027, le secteur connaîtra un moment décisif de « suprématie quantique ».
Rédaction : Long Yue
Source : WallStreetCN
Les investisseurs considèrent généralement que l’informatique quantique reste encore au stade de la science-fiction. Toutefois, un récent rapport de Barclays affirme que cette perception erronée selon laquelle « c’est encore trop tôt » pourrait vous faire rater la tendance la plus cruciale des 12 prochains mois.
Selon les informations de Funging Trading Desk, l’équipe d’analystes de Barclays vient de publier un rapport intitulé « Informatique quantique : rectifier la plus grande erreur de perception des investisseurs ».
Le raisonnement central du rapport est on ne peut plus clair : Wall Street sous-estime la vitesse de déclenchement technologique et se trompe totalement sur la relation entre l’informatique quantique et l’informatique classique (par exemple, les GPU NVIDIA). Selon Barclays, nous sommes à la veille d’une transition décisive, passant d’un « jouet de laboratoire » à un « outil commercial puissant ».
Erreur de perception n°1 : « L’informatique quantique est encore trop prématurée »
La première correction apportée par Barclays est la suivante : ne traitez pas l’informatique quantique comme un thème purement à long terme, dont les résultats ne seraient attendus qu’après dix ans.
Il est vrai que la communauté scientifique estime généralement que l’« informatique quantique tolérante aux erreurs » (FTQC), pleinement fonctionnelle, ne sera disponible qu’après 2030. Cela est exact, mais Barclays met en garde les investisseurs contre le risque de négliger ce qu’il appelle le « point décisif intermédiaire ».
Barclays souligne que les années 2026–2027 constitueront un tournant majeur pour le secteur, marquant l’apparition de l’« avantage quantique » (Quantum Advantage).
Plus important encore, il faut bien définir ce qu’est cet « avantage ». Barclays estime que « l’avantage sera effectivement démontré dès lors qu’un système atteindra 100 qubits logiques ». Le rapport précise également que toute « revendication d’avantage » devra être étayée par des « données techniques solides », faute de quoi elle ressemblera davantage à une opération marketing qu’à un véritable point de basculement.
« Nous prévoyons des annonces majeures au cours des 12 prochains mois… L’avantage quantique sera démontré dès qu’un système parviendra à faire fonctionner de façon stable 100 qubits logiques. »
Cela rappelle le premier vol des frères Wright : certes, cet avion ne pouvait pas encore transporter des passagers (commercialisation), mais il prouvait déjà que l’avion surpassait la voiture à cheval (avantage quantique). Dès qu’un tel signal émergera, la logique d’évaluation des marchés financiers se transformera instantanément.
Erreur de perception n°2 : « Avec l’arrivée de l’informatique quantique, les ordinateurs classiques disparaîtront, et NVIDIA est condamnée ? »
Il s’agit là de la plus grande distorsion cognitive du marché. Le rapport indique que beaucoup pensent que les ordinateurs quantiques, dotés d’une puissance phénoménale, remplaceront les processeurs centraux (CPU) et graphiques (GPU) actuels. Barclays réfute fermement cette idée : il ne s’agit pas d’un remplacement, mais d’un rôle de « meilleur allié ».
« L’ordinateur quantique ne remplacera pas l’ordinateur classique en tant que machine universelle, mais le complétera. »
Ce raisonnement repose sur un point fondamental : la « correction d’erreurs ». En effet, les qubits sont extrêmement fragiles et instables (ils sont sujets aux erreurs). Pour assurer leur bon fonctionnement, un système informatique classique extrêmement puissant doit surveiller en temps réel le système quantique et corriger ses erreurs.
L’étude menée par Barclays révèle une relation de données étonnante :
« Chaque qubit logique pourrait nécessiter un GPU dédié à la correction d’erreurs et au contrôle. »
Que signifie cela concrètement ? Si vous construisez un ordinateur quantique disposant de 1 000 qubits logiques, vous devrez acquérir entre 500 et 2 000 GPU pour le piloter.
Ce n’est donc plus une relation concurrentielle, mais une symbiose. Plus l’ordinateur quantique gagne en puissance, plus la demande de puces NVIDIA et AMD explose. Barclays estime que, dans le scénario le plus optimiste (« ciel bleu »), cette « demande associée » générera, d’ici 2040, plus de 100 milliards de dollars de revenus supplémentaires pour le marché de l’informatique classique.
Erreur de perception n°3 : « Tout le matériel quantique se vaut, c’est comme jouer au loto ? »
La réalité est tout autre : le secteur s’est déjà différencié, et les avantages et inconvénients sont très clairs.
Il n’existe pas une seule voie technologique pour les qubits physiques. Barclays classe les principales approches selon leur support physique : électronique (supraconducteurs, spin électronique), atomique (piège à ions, atomes neutres) et photonique. Chaque approche présente des compromis spécifiques entre vitesse, précision, temps de cohérence, exigences en infrastructure externe (cryogénie, lasers, vide) et capacité d’extension.
À l’aide d’un « modèle de benchmark quantique », Barclays apporte de la clarté dans ce paysage matériel encore chaotique :
- Le « roi de la précision » actuel — les pièges à ions (Trapped Ions) : représentés notamment par Quantinuum et IonQ. Leur atout principal réside dans leur haute fidélité (faible taux d’erreurs) et leur maturité technologique relative.
- Le « champion caché de la production de masse » de demain — le spin dans le silicium (Silicon Spin) : c’est précisément la voie explorée par Intel. Bien que ses performances soient aujourd’hui modestes, cette approche peut tirer parti des usines semi-conductrices existantes ; une fois les verrous levés, elle permettrait la production à très grande échelle la plus aisée.
- La stratégie du « volume » — les atomes neutres (Neutral Atoms) : ils possèdent un avantage naturel pour l’empilement massif de qubits.
Barclays conclut ainsi :
« Nos tests montrent que les pièges à ions occupent actuellement la première place… Toutefois, la capacité d’extension du spin dans le silicium mérite une attention soutenue à long terme. »
Erreur de perception n°4 : « Les codes cryptographiques vont bientôt être craqués ? »
Face à la panique selon laquelle « les ordinateurs quantiques vont déchiffrer demain les mots de passe bancaires », Barclays verse directement de l’eau froide : cette crainte est exagérée, la puissance de calcul requise n’existe pas encore.
Pour casser le chiffrement RSA actuel, des milliers de qubits logiques parfaits seraient nécessaires, alors que les dispositifs les plus avancés actuellement disponibles ne comptent que quelques dizaines de qubits. Barclays affirme sans détour :
« Les ordinateurs quantiques ne sont pas encore assez puissants… Les normes cryptographiques actuelles ne sont pas encore menacées. »
Erreur de perception n°5 : « Le thème quantique ne propose que deux ou trois sociétés investissables »
Le marché considère souvent que les opportunités d’investissement dans ce domaine sont extrêmement limitées, restreintes à quelques entreprises connues. Or, Barclays a cartographié l’ensemble de la chaîne de valeur et identifié 45 sociétés cotées et plus de 80 entreprises privées, réparties principalement dans quatre grands domaines :
1) Processeurs quantiques (vente de systèmes ou accès cloud QCaaS)
2) Chaîne d’approvisionnement quantique (cryogénie, lasers/optique, électronique de contrôle, matériaux, etc.)
3) Conception et fabrication de puces quantiques (recouvrements significatifs avec la fabrication semi-conductrice traditionnelle)
4) Acteurs de l’écosystème (cloud, infrastructures de centres de données, simulateurs quantiques, intégration quantique-classique : GPU/CPU/serveurs, etc.)
Le cadre d’analyse proposé par le rapport s’oriente davantage vers une « tarification du risque » : à court terme, un « exposition plus forte aux revenus » coïncide généralement avec un « risque technologique plus élevé ». Le rapport classe grossièrement le risque technologique selon que le modèle économique dépend d’une seule voie (risque élevé), de quelques voies (risque modéré) ou est indépendant de toute voie spécifique (risque faible).
Cela explique pourquoi la narration autour de la thématique quantique se concentre si facilement sur les « actions pures de matériel quantique » : leur exposition aux revenus est la plus directe, mais l’incertitude liée à leur trajectoire technologique est aussi la plus élevée ; tandis que les fournisseurs de la chaîne d’approvisionnement, les équipementiers semi-conducteurs et les éditeurs d’outils EDA, les acteurs du cloud et des centres de données, ainsi que les spécialistes de l’intégration hybride, sont probablement mieux placés pour capter la transmission de la dynamique « progrès quantiques → dépenses en capital et besoins en équipements complémentaires ».
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News











