
Double coup de NVIDIA lors de sa « Journée quantique » : le modèle IA open source Ising déclenche une flambée des actions liées à l’informatique quantique, tandis qu’un outil IA interne réalise en une nuit la conception d’une puce équivalente à 80 hommes-mois de travail
TechFlow SélectionTechFlow Sélection

Double coup de NVIDIA lors de sa « Journée quantique » : le modèle IA open source Ising déclenche une flambée des actions liées à l’informatique quantique, tandis qu’un outil IA interne réalise en une nuit la conception d’une puce équivalente à 80 hommes-mois de travail
La conception actuelle des puces d’IA de NVIDIA reste une assistance, et non un remplacement.
Auteur : Claude, TechFlow
Introduction de TechFlow : Le 14 avril, « Journée mondiale de l’informatique quantique », NVIDIA a lancé Ising, la première famille de modèles d’intelligence artificielle (IA) open source dédiée au calcul quantique. Ce modèle accélère la vitesse de décodage des corrections d’erreurs de 2,5 fois et améliore leur précision de 3 fois par rapport aux standards industriels.
Les actions des entreprises spécialisées dans le quantique ont bondi collectivement ce jour-là : IonQ a grimpé de 18 %, D-Wave de 15 %. Le même jour, William Dally, scientifique en chef de NVIDIA, a révélé lors de la conférence GTC 2026 que l’IA avait permis de réduire le temps nécessaire au transfert de la bibliothèque de cellules standard d’un circuit intégré — une tâche qui mobilisait auparavant huit ingénieurs pendant dix mois — à une seule nuit sur une seule carte graphique GPU, tout en produisant un résultat supérieur à celui obtenu manuellement.
NVIDIA utilise ainsi l’IA pour accélérer deux défis techniques parmi les plus complexes : rendre les ordinateurs quantiques véritablement opérationnels, et rendre la conception des GPU elle-même plus rapide et plus performante.
Le 14 avril, « Journée mondiale de l’informatique quantique », NVIDIA a lancé NVIDIA Ising, la première famille de modèles d’IA open source conçue spécifiquement pour le calcul quantique. Les actions des sociétés spécialisées dans le domaine quantique se sont immédiatement envolées. Parallèlement, William Dally, scientifique en chef de la société, a présenté lors de la conférence GTC 2026 les dernières avancées réalisées par l’IA dans les processus internes de conception des puces de NVIDIA, dont certaines ont permis d’accroître l’efficacité de plusieurs centaines de fois.
Ces deux axes convergent vers une même conclusion : l’IA est en train de passer du statut d’« outil applicatif » à celui d’« infrastructure des infrastructures », accélérant à la fois les industries aval (comme le calcul quantique) et l’évolution matérielle de l’IA elle-même.
Le premier modèle quantique open source au monde, conçu pour surmonter deux goulots d’étranglement majeurs du calcul quantique
Selon le communiqué de presse publié par NVIDIA le 14 avril, la famille de modèles Ising comprend initialement deux domaines spécialisés : Ising Calibration et Ising Decoding, chacun ciblant l’un des deux principaux obstacles à la mise en œuvre pratique du calcul quantique.
Les qubits, unités fondamentales des processeurs quantiques, sont intrinsèquement bruités. Même les meilleurs processeurs quantiques actuels commettent environ une erreur tous les mille calculs. Pour qu’un ordinateur quantique devienne véritablement utile, son taux d’erreur doit être ramené à moins d’une erreur pour un milliard de milliards d’opérations.
Ising Calibration est un modèle multimodal visuo-langagier doté de 35 milliards de paramètres, capable d’interpréter automatiquement les données mesurées par les processeurs quantiques et de prendre des décisions de recalibrage, réduisant ainsi le temps requis pour cette étape — auparavant de plusieurs jours — à quelques heures seulement. Ising Decoding, quant à lui, repose sur une paire de réseaux neuronaux convolutifs 3D (optimisés respectivement pour la vitesse et la précision), utilisés pour le décodage en temps réel des corrections d’erreurs quantiques. Il est 2,5 fois plus rapide et 3 fois plus précis que pyMatching, la référence open source actuelle dans ce domaine.
Sam Stanwyck, directeur produit quantique chez NVIDIA, a expliqué, lors de la conférence de lancement, la logique sous-jacente à la stratégie open source : chaque fabricant de matériel quantique présente des caractéristiques de bruit propres ; en rendant les modèles open source, NVIDIA permet à ces entreprises d’effectuer un affinage local à partir de leurs propres données, améliorant ainsi les performances tout en protégeant leurs informations confidentielles.
La position de Jensen Huang, PDG de NVIDIA, est encore plus explicite : dans sa déclaration officielle, il affirme que l’IA est en train de devenir le « plan de contrôle » des machines quantiques, transformant des qubits fragiles en systèmes GPU quantiques évolutifs et fiables.
Comme l’a indiqué NVIDIA, plusieurs institutions ont déjà adopté les modèles Ising, notamment l’École d’ingénierie et de sciences appliquées de l’université Harvard, le laboratoire national Fermilab, IQM Quantum Computers, le laboratoire national Lawrence Berkeley et le National Physical Laboratory (Royaume-Uni).
Bond spectaculaire des actions quantiques : IonQ en hausse de 18 % en une seule journée
Lors de l’annonce d’Ising, les actions des entreprises spécialisées dans le quantique cotées aux États-Unis ont connu une forte hausse collective. Selon les données de Yahoo Finance, IonQ a progressé d’environ 18 % ce jour-là, D-Wave Quantum de près de 15 %, et Rigetti Computing d’environ 12 %.
Cette hausse s’inscrit dans un contexte où les valeurs quantiques avaient globalement subi un fort recul depuis le début de l’année. Au 14 avril, IonQ accusait un repli annuel d’environ 22 %, D-Wave de 35 %, et Rigetti de 23 %. Bien que cette reprise à deux chiffres n’ait pas inversé la tendance baissière annuelle, son ampleur et sa synchronisation sectorielle restent remarquables.

Il convient de noter que cette dynamique n’a pas été déclenchée uniquement par le lancement d’Ising. Le même jour, IonQ a annoncé un nouveau jalon dans le développement de réseaux quantiques ainsi qu’un contrat avec l’Agence de projets de recherche avancée en défense (DARPA). Rigetti a également fait état d’une commande de 8,4 millions de dollars provenant du Centre indien pour le développement de l’informatique avancée (C-DAC). L’accumulation de ces multiples catalyseurs a amplifié l’effet de groupe sur le secteur.
L’analyste Resonance prévoit que le marché mondial du calcul quantique dépassera les 11 milliards de dollars d’ici 2030. Quant à l’Alliance pour l’économie quantique (QED-C), elle indique, dans un rapport publié le même jour, que le marché mondial du quantique a atteint 1,9 milliard de dollars en 2025, tandis que l’effectif des entreprises purement quantiques a augmenté de 14 %.
De 80 hommes-mois à une seule nuit : l’IA redéfinit les processus de conception des puces chez NVIDIA
Tandis qu’Ising vise à accélérer les industries externes, NVIDIA utilise l’IA pour transformer en profondeur ses propres processus internes de conception de puces.
Dans une discussion avec Jeff Dean, scientifique en chef de Google, lors de la conférence GTC 2026, William Dally, scientifique en chef de NVIDIA, a présenté plusieurs cas concrets. Le chiffre le plus frappant concerne le transfert de la bibliothèque de cellules standard : chaque fois que NVIDIA passe à un nouveau procédé de fabrication semi-conductrice (par exemple, du procédé à 7 nm à celui à 5 nm), environ 2 500 à 3 000 cellules standard doivent être entièrement redessinées pour s’adapter au nouveau procédé. Cette tâche exigeait auparavant environ dix mois de travail pour huit ingénieurs. Grâce à NVCell, un outil basé sur l’apprentissage par renforcement développé par NVIDIA, ce processus peut désormais être accompli en une seule nuit sur une seule carte GPU, avec des cellules optimisées en termes de surface occupée, de consommation énergétique et de latence — voire meilleures que celles conçues manuellement.
Comme l’a rapporté Tom’s Hardware, Dally compare ce processus à « un jeu vidéo destiné à corriger les erreurs liées aux règles de conception », un type d’optimisation itérative particulièrement adapté à l’apprentissage par renforcement.
Au niveau d’abstraction supérieur, NVIDIA a développé des grands modèles linguistiques spécialisés internes, Chip Nemo et Bug Nemo. Ces modèles ont été affinés à partir des données propriétaires accumulées par NVIDIA au cours de ses trente années d’existence, incluant l’ensemble des codes RTL de ses GPU historiques, de ses documents de conception matérielle et de ses spécifications architecturales. Comme l’a précisé Dally, les ingénieurs juniors peuvent désormais interroger directement Chip Nemo, évitant ainsi de solliciter sans cesse les ingénieurs seniors. Il décrit Chip Nemo comme « un mentor extrêmement patient ».
Au niveau de l’optimisation des circuits, NVIDIA applique également l’apprentissage par renforcement à des problèmes classiques de conception de circuits, tels que les chaînes anticipées de retenue (carry-lookahead chains). Dally souligne que les solutions proposées par l’IA sont « totalement atypiques, voire étranges, bien au-delà de toute intuition humaine — mais elles surpassent les conceptions manuelles de 20 à 30 % en termes de performance réelle ».
Il reste encore un long chemin à parcourir avant que l’IA puisse concevoir des puces de façon autonome
Cependant, Dally a clairement défini les limites actuelles de ces ambitions. Il reconnaît vouloir atteindre une conception « bout à bout » entièrement automatisée, mais précise que cet objectif demeure encore très lointain.
L’IA intervient actuellement chez NVIDIA de façon assistée, non substitutive. Elle agit de manière ciblée sur des tâches spécifiques telles que le transfert des cellules standard, la classification et la synthèse des bogues, la prédiction du placement et du routage, ou encore l’exploration de l’espace architectural. Toutefois, aucun flux de conception entièrement automatisé « bout à bout » n’a encore été mis en place. À long terme, Dally envisage une architecture multi-agents, où différents systèmes IA seraient spécialisés dans des phases distinctes de la conception, à l’instar de la répartition des tâches au sein d’une équipe d’ingénieurs humains.
Comme le rapporte Computer Weekly, Dally et Dean ont également abordé, lors de leur entretien, l’impact des agents IA sur les outils logiciels traditionnels : lorsque la vitesse d’exécution des agents IA dépasse largement celle des humains, les logiciels traditionnellement conçus pour les utilisateurs humains deviennent des goulets d’étranglement en matière de performances, nécessitant une refonte complète — des outils de programmation aux applications métiers.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News













