
엔비디아 ‘퀀텀 데이’ 이중 타격: 오픈소스 AI 모델 ‘이징(Ising)’이 양자 컴퓨팅 관련 주가를 폭등시켰고, 내부 AI는 하룻밤 만에 80명월 분량의 칩 설계 작업을 완료했다.
저자: 클로드, TechFlow
TechFlow 편집장의 추천: 엔비디아는 4월 14일 ‘세계 양자 일’에 전 세계 최초의 오픈소스 양자 AI 모델 패밀리인 Ising을 발표했다. 이 모델은 오류 정정 디코딩 속도를 업계 표준 대비 2.5배 향상시키고 정확도는 3배 높였다.
이날 양자 기술 관련 주식은 일제히 급등했으며, IonQ는 18%, D-Wave는 15% 상승했다. 같은 날, 엔비디아 최고과학책임자(CSO) 윌리엄 댈리(William Dally)는 GTC 2026에서 AI가 칩 표준 셀 라이브러리 이식 작업을 기존 8명의 엔지니어가 10개월 걸리던 것을 단 한 개의 GPU로 하룻밤 만에 완료하게 만들었으며, 설계 결과 역시 수작업보다 우수하다고 밝혔다.
엔비디아는 현재 두 가지 가장 어려운 공학 문제를 AI로 가속화하고 있다: 양자 컴퓨터를 실제로 실용화하는 것과, GPU 자체의 설계를 더욱 빠르고 우수하게 만드는 것.
4월 14일 ‘세계 양자 일’에 엔비디아는 양자 컴퓨팅을 위한 전 세계 최초의 오픈소스 AI 모델 패밀리 NVIDIA Ising을 발표했다. 이에 따라 양자 기술 관련 주식은 즉각적으로 일제히 급등했다. 동시에, 회사 최고과학책임자 윌리엄 댈리는 GTC 2026에서 AI가 엔비디아 내부 칩 설계 프로세스에 적용된 최신 성과를 공개했는데, 그 중 하나의 과제 수행 효율이 수백 배 수준으로 향상됐다.
이 두 가지 흐름은 동일한 결론을 시사한다: AI는 이제 더 이상 단순한 ‘응용 계층 도구’를 넘어, ‘기반 인프라의 기반 인프라’로 진화하고 있으며, 이는 하류 산업(예: 양자 컴퓨팅)뿐 아니라 AI 자체의 하드웨어 반복 개발까지 가속화하고 있다.
전 세계 최초의 오픈소스 양자 AI 모델: 양자 컴퓨팅의 두 가지 핵심 병목 현상 해결
엔비디아의 4월 14일 보도자료에 따르면, Ising 모델 패밀리의 첫 번째 버전에는 두 가지 모델 영역이 포함되어 있다: Ising Calibration과 Ising Decoding. 이들은 양자 컴퓨팅 실용화를 가로막는 두 가지 핵심 병목 현상을 각각 타깃으로 한다.
양자 프로세서의 큐비트(qubit)는 본래 잡음이 많으며, 현재 최고 수준의 양자 프로세서조차 약 천 번의 연산마다 한 차례 오류를 발생시킨다. 양자 컴퓨터를 실용화하려면 오류율을 1조 분의 1 이하로 낮춰야 한다.
Ising Calibration은 파라미터 수가 350억 개에 달하는 비전-언어 모델로, 양자 프로세서의 측정 데이터를 자동으로 해석해 교정 결정을 내린다. 이를 통해 기존에 며칠이 걸리던 교정 절차를 몇 시간으로 단축시켰다. Ising Decoding은 속도와 정확도를 각각 최적화한 3D 컨볼루션 신경망 모델 쌍으로 구성되어 양자 오류 정정의 실시간 디코딩을 수행하며, 현재 오픈소스 업계 표준인 pyMatching 대비 2.5배 빠르고 정확도는 3배 높다.
엔비디아 양자 제품 총괄 사무국장 샘 스탠윅(Sam Stanwyck)은 발표회에서 오픈소스 전략의 논리를 설명했다: 양자 하드웨어 제조사별로 잡음 특성이 다르기 때문에, 오픈소스 모델을 통해 각사는 자체 데이터로 로컬에서 미세 조정(fine-tuning)할 수 있어 성능 향상과 동시에 고유 데이터 보호가 가능하다는 것이다.
엔비디아 CEO 젠슨 황(Jensen Huang)의 입장은 더욱 직접적이다. 그는 성명서에서 “AI가 양자 머신의 제어 평면(control plane)이 되고 있으며, 취약한 큐비트를 확장 가능하고 신뢰성 있는 양자 GPU 시스템으로 전환시키고 있다”고 밝혔다.
엔비디아에 따르면, 하버드 대학교 공학 및 응용 과학부, 페르미 국립 가속기 연구소(Fermilab), IQM Quantum Computers, 로렌스 버클리 국립 연구소(LBNL), 영국 국립물리연구소(NPL) 등 여러 기관이 이미 Ising 모델을 선도적으로 도입했다.
양자 기술 관련 주식 일제히 급등… IonQ는 당일 18% 급등
Ising 발표 당일, 미국 증시의 양자 기술 관련 주식은 일제히 급등했다. 야후 파이낸스(Yahoo Finance) 데이터에 따르면, IonQ는 약 18%, D-Wave Quantum은 약 15%, Rigetti Computing은 약 12% 상승했다.
이번 급등의 배경은 양자 기술 관련 주식이 올해 초부터 지속적으로 큰 폭의 조정을 겪고 있었다는 점이다. 4월 14일 이전까지 IonQ는 올해 들어 약 22% 하락했고, D-Wave는 약 35%, Rigetti는 약 23% 하락했다. 따라서 당일의 두 자릿수 급등은 연초 대비 하락 추세를 근본적으로 바꾸진 못했으나, 전체 섹터가 동시다발적으로 강세를 보인 폭은 여전히 주목할 만하다.

단, 이번 시장 움직임의 원인은 Ising 발표만이 아니다. IonQ는 동일한 날 양자 네트워크 분야에서 이정표적 진전을 이루었다고 발표했으며, 국방고등연구계획국(DARPA)과의 계약도 공개했다. Rigetti 역시 인도 고급컴퓨팅개발센터(C-DAC)로부터 840만 달러 규모의 주문을 수주했다는 소식을 발표했다. 이러한 다중 촉매 요인이 복합적으로 작용하면서 섹터 전체의 효과가 증폭된 것이다.
분석 기관 레조넌스(Resonance)는 글로벌 양자 컴퓨팅 시장 규모가 2030년까지 110억 달러를 넘을 것으로 예측했다. 양자경제발전연합(QED-C)이 동일한 날 발표한 보고서에 따르면, 2025년 글로벌 양자 시장 규모는 이미 19억 달러에 달했으며, 순수 양자 기업의 고용 인원은 14% 증가했다.
80인월 → 하룻밤: AI가 재정의하는 엔비디아 칩 설계 프로세스
Ising은 외부 산업의 가속화를 지향한다면, 엔비디아 내부에서는 AI가 자사 칩 설계 프로세스를 재정의하고 있다.
엔비디아 최고과학책임자 윌리엄 댈리는 GTC 2026에서 구글 최고과학책임자 제프 딘(Jeff Dean)과의 대담에서 여러 구체적인 사례를 공개했다. 그중 가장 충격적인 데이터는 ‘표준 셀 라이브러리 이식’ 작업에서 나왔다: 엔비디아가 새로운 반도체 공정(예: 7nm에서 5nm로 전환)으로 이행할 때마다 약 2,500~3,000개의 표준 셀을 새 공정에 맞게 다시 설계해야 하는데, 기존에는 8명의 엔지니어가 약 10개월이 걸렸다. 그러나 엔비디아는 강화학습 기반의 내부 도구 NVCell을 개발해 이를 단 한 개의 GPU로 하룻밤 만에 완료할 수 있게 했으며, 결과물은 면적, 전력 소비, 지연 시간 등 모든 지표에서 수작업 설계와 동등하거나 오히려 더 우수하다.
톰스 하드웨어(Tom's Hardware) 보도에 따르면, 댈리는 이 과정을 “설계 규칙 오류를 고치는 전자 게임과 같다”고 묘사하며, 강화학습이 특히 이런 시행착오 기반의 최적화 작업에 강하다고 설명했다.
더 높은 추상화 수준에서는 엔비디아가 자체 전용 대규모 언어모델 Chip Nemo과 Bug Nemo을 개발했다. 이 모델들은 엔비디아가 30년간 축적해온 전용 데이터로 미세 조정되었으며, 역사상 모든 GPU의 RTL 코드, 하드웨어 설계 문서, 아키텍처 사양 등을 포괄한다. 댈리에 따르면, 초보 엔지니어는 바로 Chip Nemo에 질문할 수 있어, 경험 많은 선임 설계자에게 반복적으로 문의하는 시간을 절약할 수 있다. 그는 Chip Nemo을 “매우 인내심 있는 멘토”라고 표현했다.
회로 최적화 측면에서는 엔비디아가 캐리 룩어헤드 체인(carry lookahead chain) 등 고전적인 회로 설계 문제에도 강화학습을 적용했다. 댈리는 AI가 도출한 설계 방안이 “완전히 인간이 생각하지 못할 정도로 이례적인 방안이지만, 실제 성능은 인간 설계보다 20~30% 더 우수하다”고 말했다.
AI가 독자적으로 칩을 설계하기까지는 아직 갈 길이 멀다
그러나 댈리는 기대 수준의 경계선을 명확히 그었다. 그는 “엔드투엔드(end-to-end) 자동화를 실현하고 싶지만, 현재는 그 목표와는 여전히 매우 멀리 떨어져 있다”고 밝혔다.
현재 엔비디아의 AI 기반 칩 설계는 보조 수단일 뿐, 인간을 대체하는 수준은 아니다. AI는 표준 셀 이식, 버그 분류 및 요약, 배치 및 라우팅 예측, 아키텍처 공간 탐색 등 특정 단계에서 각각 역량을 발휘하지만, 아직 완전한 엔드투엔드 자동화 프로세스는 구축되지 않았다. 댈리는 장기적인 방향으로 다양한 AI 에이전트가 설계의 서로 다른 단계를 전담하는 다중 에이전트(multi-agent) 모델을 구상하고 있으며, 이는 인간 엔지니어링 팀의 분업 방식과 유사하다고 설명했다.
컴퓨터 위클리(Computer Weekly) 보도에 따르면, 댈리와 딘은 대담에서 AI 에이전트가 기존 소프트웨어 도구에 미치는 영향에 대해서도 논의했다: AI 에이전트의 실행 속도가 인간보다 훨씬 빠를 경우, 인간 사용자를 위해 설계된 기존 소프트웨어 도구는 성능 병목 현상이 될 수 있으며, 프로그래밍 도구에서 비즈니스 애플리케이션에 이르기까지 모든 영역에서 재설계가 필요하다는 것이다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News













