
황런쉰 최신 인터뷰 전문: “중국 시장 포기는 ‘패배자 정신’이며, 컴퓨팅 파워 봉쇄는 중국 AI를 결코 막을 수 없다”
정리 & 번역: TechFlow

게스트: 제ン슨 황(Jensen Huang), NVIDIA 창립자이자 CEO
진행자: 드와르케시 패텔(Dwarkesh Patel)
팟캐스트 출처: Dwarkesh Patel
원제: 제인슨 황 – NVIDIA의 경쟁 우위는 지속될 것인가?
방송일: 2026년 4월 16일
핵심 요약
본 기사는 NVIDIA CEO 제인슨 황과의 대화를 통해 TPU(텐서 처리 유닛)가 AI 컴퓨팅 분야에서 NVIDIA의 주도적 지위에 미칠 잠재적 영향, 선진 반도체 공급망에 대한 회사의 통제력, 중국에 AI 칩을 판매해야 하는지 여부, 왜 NVIDIA가 직접 초대규모 클라우드 서비스 제공업체(hyperscaler)가 되지 않는지, 그리고 칩 아키텍처 및 투자 전략 선택 등에 대해 논의한다.

주요 인사이트 요약
NVIDIA의 본질과 경쟁 우위에 관해
- “궁극적으로, 전자를 토큰으로 전환하는 어떤 장치가 반드시 존재해야 하며, 이 전환 과정과 토큰이 시간이 지남에 따라 점점 더 가치 있게 되는 과정은 쉽게 상품화될 수 없습니다. 우리의 일은 바로 이 전환을 실현하기 위해 반드시 필요한 일을 최대한 많이 하고, 불필요한 일은 최소한으로 줄이는 것입니다.”
- “왜 그들(공급망 파트너)은 다른 기업보다 우리에게 투자하려고 할까요? 그들은 NVIDIA가 그들의 공급량을 소화할 능력이 있으며, 이를 통해 하류에서 판매할 수 있다는 것을 알고 있기 때문입니다. NVIDIA의 하류 공급망과 수요 규모가 너무나 거대하기 때문에, 그들은 상류에서 베팅하려는 것입니다.”
- “모든 병목 현상은 2~3년 이상 지속되지 않습니다. 하나도 예외가 없습니다. 제가 걱정하는 건 오히려 하류—예컨대 에너지 발전을 저해하는 정책—입니다. 에너지가 없으면 산업을 건설할 수 없고, 재산업화도 추진할 수 없습니다.”
CUDA와 전용 칩(ASIC) 간의 경쟁에 관해
- “NVIDIA는 텐서 처리 유닛이 아니라 가속 컴퓨팅을 수행합니다. 가속 컴퓨팅은 훨씬 더 광범위한 분야를 아우릅니다… 우리는 다양한 응용 프로그램을 가속화하는 유일한 기업이며, 방대한 생태계를 보유하고 있습니다.”
- “NVIDIA의 GPU는 가속기이며, F1 레이싱카와 유사합니다. 일반인이 시속 100km로 운전하는 것은 전혀 문제가 없지만, 극한 성능까지 끌어내기 위해서는 상당한 숙련도가 필요합니다. 우리는 AI를 대량 활용해 자체 커널(kernel)을 생성합니다.”
- “NVIDIA의 컴퓨팅 스택은 세계에서 가장 뛰어난 성능 대비 총 소유 비용(TCO)을 제공합니다. 단 하나의 예외도 없습니다. 오늘날 어떤 플랫폼도 성능 대비 TCO 측면에서 우리보다 나은 것을 입증하지 못했습니다.”
기업 철학과 투자에 관해
- “우리는 반드시 필요한 일을 최대한 많이 하고, 불필요한 일은 최소한으로 줄여야 합니다. 즉, 우리가 구축하는 컴퓨팅 플랫폼에서 우리가 하지 않으면 정말로 아무도 하지 않을 작업만 수행한다는 의미입니다. 그러나 세상에는 부족하지 않은 클라우드 서비스가 있습니다. 우리가 하지 않더라도 누군가 대신 해줄 것입니다.”
- “저의 실수는, 그들이 사실상 다른 선택지가 없다는 점을 깊이 인식하지 못했다는 데 있습니다. 벤처 캐피탈이 AI 연구실에 50억~100억 달러를 투자할 리는 결코 없습니다. 이것이 제 시야의 맹점이었습니다. 만약 시간을 되돌릴 수 있고, 당시 NVIDIA가 지금 같은 규모였다면, 저는 기꺼이 그렇게 했을 것입니다.”
중국 시장과 지정학(가장 주목받는 부분)
- “안전한 세계를 만드는 최선의 방법은 무엇입니까? 그들을 피해자로 만들고 적으로 전환시키는 것은 아마도 최선의 답이 아닐 것입니다. 그들은 경쟁자이며, 우리는 미국의 승리를 원합니다. 하지만 대화와 연구 교류를 유지하는 것이 가장 안전한 접근법일 수 있습니다.”
- “패배자 정신, 패배자 전제—그것은 저에게 전혀 의미가 없습니다. 당신이 제시한 전제에 따라 시장을 포기하려 한다면, 저는 그런 생각을 받아들일 수 없습니다. 그것은 무의미합니다. 왜냐하면 저는 미국이 패배자가 아니라고 믿으며, 우리 산업 역시 패배자가 아니라고 믿기 때문입니다.”
- “충분한 에너지가 있다면, 그 에너지는 칩의 부족함을 보완할 수 있습니다. 만약 와트 수가 완전히 풍부하고 거의 무료라면, 와트당 성능을 신경 쓸 이유가 있겠습니까? 그냥 오래된 칩을 쌓아 올리기만 하면 됩니다. 7nm 칩은 본질적으로 호퍼(Hopper) 세대와 동등하며, 충분히 사용 가능합니다.”
- “딥시크(DeepSeek)가 화웨이 칩 위에서 첫날 발표된 날은 우리 국가에 매우 부정적인 결과였습니다… 만약 모든 AI 모델이 타사 기술 스택에서 가장 잘 실행된다면, 그것이 미국에 좋다고 진정으로 주장할 수 있겠습니까?”
소프트웨어, 에이전트(Agent), 그리고 미래에 관해
- “오늘날 우리는 엔지니어 수에 제약을 받고 있지만, 내일엔 이 엔지니어들을 수많은 에이전트가 지원하게 될 것입니다. 우리는 이전에 없던 방식으로 설계 공간을 탐색하게 될 것입니다… 도구 사용은 소프트웨어 기업의 규모를 급격히 확장시킬 것이며, 아직 그러지 못하는 이유는 에이전트가 도구를 사용하는 데 아직 충분히 능숙하지 않기 때문입니다.”
- “당신이 NVIDIA를 믿을 수 있는 한 가지는, 올해 베라 루빈(Vera Rubin)이 탁월할 것이며, 내년엔 베라 루빈 울트라(Vera Rubin Ultra)가 출시되고, 그다음 해엔 파인만(Feynman)이 출시될 것이라는 점입니다. 매년 우리는 시계처럼 믿을 수 있습니다.”
아키텍처와 워크로드에 관해
- “우리는 이렇게(여러 아키텍처를 개발하는 것) 할 수 있지만, 단지 더 나은 아이디어가 없을 뿐입니다. 우리는 시뮬레이터에서 모두 테스트해 보았고, 결과는 더 나빴습니다. 그래서 우리는 그렇게 하지 않을 것입니다.”
- “과거에는 고처리량이 항상 더 좋았습니다. 그러나 우리는 높은 단가의 토큰이 존재하는 세상이 올 수 있다고 생각합니다. 공장 처리량이 낮더라도 높은 단가가 이 격차를 메울 수 있습니다. 이것이 우리가 파레토 경계(Pareto frontier)를 확장하기로 결정한 이유입니다.”
NVIDIA의 공급망 우위가 가장 큰 경쟁 우위인가?
진행자 드와르케시: 소프트웨어 기업들의 주가가 폭락하고 있는데, 그 이유는 시장이 AI가 소프트웨어를 상품화시킬 것이라고 예상하기 때문입니다. 표면적으로 간단해 보이는 논리는 이렇습니다. NVIDIA는 GDS2 파일을 TSMC에 보내고, TSMC는 로직 칩과 스위치를 생산하며, 이를 SK하이닉스, 마이크론, 삼성의 HBM과 함께 패키징한 후, 대만의 ODM 업체에 넘겨 완제품 조립을 맡깁니다. 이런 관점에서 보면 NVIDIA는 본질적으로 소프트웨어 기업이며, 단지 다른 기업이 대신 제조해주는 것뿐입니다. 만약 소프트웨어가 상품화된다면, NVIDIA도 상품화될 수 있을까요?
제인슨 황:
궁극적으로,전자를 토큰으로 전환하는 어떤 장치가 반드시 존재해야 하며, 이 전환 과정과 토큰이 시간이 지남에 따라 점점 더 가치 있게 되는 과정은 쉽게 상품화될 수 없습니다. 한 토큰이 다른 토큰보다 더 가치 있게 만드는 것은, 한 분자가 다른 분자보다 더 가치 있게 만드는 것과 같습니다—그 속에는 예술, 공학, 과학, 그리고 발명이 얽혀 있습니다. 우리는 지금 바로 이러한 일이 벌어지는 것을 목격하고 있습니다. 토큰을 생성하는 데 필요한 전환, 가공, 그리고 그 이면의 과학은 아직도 심층적으로 이해되지 않았으며, 이 여정도 아직 끝나지 않았습니다.저는 그것이 상품화될 것이라고 믿지 않습니다. 당신이 묘사한 프레임워크는 바로 제가 스스로 회사를 바라보는 마음의 모델입니다: 입력은 전자이고, 출력은 토큰이며, 그 사이에 NVIDIA가 있습니다. 우리의 일은 바로 이 전환을 실현하기 위해 반드시 필요한 일을 최대한 많이 하고, 불필요한 일은 최소한으로 줄이는 것입니다. “최소한”이라는 말은, 제가 직접 하지 않아도 되는 일은 파트너를 끌어들여 우리 생태계의 일부가 되게 한다는 의미입니다. 오늘날 NVIDIA를 보면, 우리는 전 세계에서 가장 방대한 파트너 생태계를 보유하고 있습니다. 상류 공급망, 하류 컴퓨터 제조사, 애플리케이션 개발자, 모델 제조사 등이 모두 포함되어 있습니다.
AI는 다섯 층의 케이크(응용, 모델, 인프라, 칩, 에너지)이며, 우리는 각 층마다 생태계를 구축하고 있습니다. 우리는 가능한 한 적게 일하되, 반드시 해야 할 일은 극도로 어려운 일입니다.저는 그것이 상품화될 것이라고 믿지 않으며, 실제로 기업용 소프트웨어 기업이나 도구 제조사도 상품화될 것이라고 믿지 않습니다. 오늘날 대부분의 소프트웨어 기업은 본질적으로 도구 제조사입니다. 그러나 저는 대부분의 사람들이 보는 것과 정반대의 것을 봅니다: AI 에이전트의 수는 지수적으로 증가할 것이며, 도구 사용자 수도 지수적으로 증가할 것입니다. Synopsys Design Compiler의 인스턴스 수는 급증할 가능성이 높으며, 배치 도구나 디자인 규칙 검사기(DRC)를 사용하는 에이전트 수 역시 급증할 것입니다. 오늘날 우리는 엔지니어의 수에 제약을 받고 있지만, 내일이면 이 엔지니어들을 수많은 에이전트가 지원하게 될 것이며, 우리는 이전에 없던 방식으로 설계 공간을 탐색하게 될 것입니다. 그리고 우리는 오늘날 이미 존재하는 도구를 그대로 사용할 것입니다. 도구 사용은 소프트웨어 기업의 규모를 급격히 확장시킬 것이며, 아직 그렇게 되지 않은 이유는 에이전트가 도구를 사용하는 데 아직 충분히 능숙하지 않기 때문입니다. 이 기업들은 직접 에이전트를 구축하거나, 에이전트가 도구를 사용하는 데 충분히 강력해질 때까지 기다려야 합니다. 저는 두 경우 모두 발생할 것이라고 생각합니다.
진행자 드와르케시: 귀사의 최근 실적 발표에서 약 1,000억 달러 규모의 구매 약정이 언급되었는데, 이는 파운드리, 메모리, 패키징을 포함합니다. SemiAnalysis 보고서는 이 금액이 최대 2,500억 달러에 달할 수 있다고 추정합니다. 이에 대한 해석 중 하나는, NVIDIA의 진정한 경쟁 우위는 향후 수년간 희소한 생산 능력을 확보한 데 있다는 것입니다—다른 기업들도 가속기를 보유하고 있지만, 그들은 메모리를 확보할 수 있을까요? 로직 칩을 확보할 수 있을까요? 이것이 향후 몇 년간 NVIDIA의 가장 큰 경쟁 우위가 될 수 있을까요?
제인슨 황:
이는 우리가 할 수 있으나 다른 기업은 어렵게 수행할 수 있는 일 중 하나입니다. 우리는 상류에 막대한 약정을 했습니다. 여기에는 당신이 언급한 명시적 약정도 있지만, 암묵적인 약정도 있습니다. 예를 들어, 상류의 많은 투자는 우리 공급망 파트너의 CEO들이 자발적으로 결정한 것입니다. 왜냐하면 제가 그들의 CEO에게 이렇게 말했기 때문입니다: “이 산업이 얼마나 커질지 알려드리겠습니다. 그 이유를 설명해드리고, 함께 전망을 모의해드리며, 제가 보고 있는 것을 보여드리겠습니다.” 이처럼 계속해서 정보를 제공하고, 영감을 주며, 협력하면서 CEO들을 설득하는 과정을 통해 그들은 투자하기로 결정한 것입니다. 왜 그들은 다른 기업보다 우리에게 투자하려고 할까요? 그들은 NVIDIA가 그들의 공급량을 소화할 능력이 있으며, 이를 통해 하류에서 판매할 수 있다는 것을 알고 있기 때문입니다. NVIDIA의 하류 공급망과 수요 규모가 너무나 거대하기 때문에, 그들은 상류에서 베팅하려는 것입니다. GTC를 보십시오. 사람들은 그 규모와 참가자의 수준에 감탄합니다—전체 AI 우주가 거기에 모여 있으며, 360도 전방위적으로 커버됩니다. 그들은 서로 만나야 하기 때문입니다.저는 그들을 한자리에 모아 하류가 상류를 보게 하고, 상류가 하류를 보게 하며, 모두가 AI의 최신 진전을 확인하게 합니다. 중요한 것은, 그들이 AI 네이티브 기업과 AI 스타트업이 실제로 무엇을 하고 있는지 직접 보고, 제가 계속해서 말해온 내용을 검증할 수 있다는 점입니다. 저는 공급망, 파트너, 생태계가 우리 앞에 놓인 기회를 이해하도록 직접 또는 간접적으로 많은 시간을 투자했습니다.
저희의 기조 연설에는 항상 약간 무거운, 마치 수업을 듣는 듯한 부분이 포함되어 있습니다—그렇습니다, 바로 제 의도입니다. 저는 상류와 하류 전체 공급망이 무엇이 다가올지, 왜 그렇게 될지, 언제 다가올지, 어느 정도 규모일지를 이해하도록 해야 합니다. 그리고 제가 하는 것처럼 체계적으로 전망할 수 있도록 해야 합니다. 당신이 언급한 경쟁 우위에 대해 말하자면, 우리는 미래를 위해 건설할 수 있습니다. 만약 향후 몇 년간 산업 규모가 수조 달러에 달한다면, 우리는 이를 수용할 수 있는 공급망을 갖추고 있습니다. 우리의 커버리지 없이는, 우리의 사업 속도—현금 흐름처럼, 공급망에도 흐름과 회전율이 있습니다—누군가 회전율이 낮은 아키텍처를 위해 공급망을 구축하려 하지 않을 것입니다. 우리는 이러한 규모를 유지할 수 있는 이유는 하류 수요가 너무나 강력하기 때문이며, 그들은 그것을 보고, 듣고, 눈앞에서 확인하고 있습니다.
진행자 드와르케시: 저는 상류 생산 능력이 충분한지 좀 더 구체적으로 알고 싶습니다. 수년간 귀사는 매년 두 배씩 성장해왔고, 연간 연산 능력 공급은 3배 이상 증가했습니다. 이 규모에서 두 배로 성장하는 것은 정말 놀라운 일입니다. 귀사는 TSMC N3 노드의 최대 고객이며, N2의 주요 고객 중 하나이기도 합니다. 올해 AI는 N3의 60%를 차지할 것이며, 내년에는 SemiAnalysis의 예측에 따르면 86%에 달할 것입니다. 이미 대부분을 차지하고 있는 상태에서 어떻게 두 배로 성장할 수 있습니까? 게다가 매년 반복해서 성장해야 한다면 말입니다.
제인슨 황:
어느 정도까지는, 전 세계의 순간적 수요가 상류 및 하류 공급보다 큽니다. 당신이 원하는 산업은 바로 이런 산업입니다.순시 수요가 전 산업의 총 공급보다 크다는 점입니다. 반대로, 만약 공급이 수요를 크게 초과한다면, 특정 단계에서 공급이 극도로 부족해져 전체 산업이 이를 해결하려고 몰려들게 됩니다. 예를 들어, 현재 CoWoS에 대한 논의는 훨씬 줄어들었는데, 그 이유는 지난 2년간 우리가 이 병목 현상을 집중적으로 공략해 여러 배로 늘렸기 때문입니다. 이제 TSMC는 CoWoS 생산 능력이 로직과 메모리 수요의 속도를 따라가야 한다는 점을 이해했으며, 로직과 동일한 속도로 CoWoS 및 향후 패키징 기술을 확장하고 있습니다. 오랫동안 CoWoS와 HBM은 특수 제품으로 간주되었지만, 이제는 더 이상 특수 제품이 아닙니다—사람들은 이것이 주류 컴퓨팅 기술임을 인식하게 되었고, 당연히 우리는 더 광범위한 공급망에 영향을 미칠 수 있게 되었습니다. AI 혁명 초기, 제가 오늘 말하는 이 모든 것을 5년 전부터 말해왔습니다. 일부는 믿고 투자했습니다. 예를 들어, 산자이(Sanjay)와 마이크론 팀—저는 그 회의를 지금도 생생히 기억합니다. 저는 무슨 일이 일어날지, 왜 그렇게 될지, 그리고 제 예측을 명확히 설명했고, 그들은 실제로 베팅했습니다. 우리는 LPDDR 및 HBM 메모리에서 긴밀히 협력했고, 그들은 대규모 투자를 했으며, 그 결과는 그들에게 매우 긍정적이었습니다. 일부는 늦게 합류했지만, 지금은 모두 준비되었습니다. 모든 병목 현상은 관심을 많이 받고 있으며, 우리는 이제 몇 년 앞서 병목 현상을 예측하고 있습니다. 예를 들어, 지난 몇 년간 우리는 루멘텀(Lumentum), 코히런트(Coherent), 그리고 전체 실리콘 포토닉스 생태계와의 협력을 통해 공급망을 완전히 재구성했습니다. 우리는 TSMC 주변에 전체 공급망을 구축했고, COUPE에서 그들과 협력하여 일련의 기술을 발명하고, 특허를 공급망에 라이선스하여 생태계를 열어두었습니다. 우리는 새로운 기술, 새로운 워크플로우, 양면 프로브 등 새로운 테스트 장비, 기업 투자를 통해 그들이 생산 능력을 확장할 수 있도록 돕고 있습니다.
만약 우리가 소프트웨어 엔지니어가 되는 것을 막는다면, 우리는 소프트웨어 엔지니어 부족 문제에 직면하게 될 것입니다. 같은 예언은 10년 전에도 있었고, 일부 종말론자들은 당시 이렇게 말했습니다: “어떤 경우라도 방사선과 의사가 되지 마십시오.”당신은 지금도 인터넷에서 그 비디오를 찾을 수 있습니다. 방사선과는 사라질 첫 번째 직업이 될 것이며, 세상은 더 이상 방사선과 의사가 필요하지 않을 것이라고 말했습니다. 그런데 지금 우리가 부족한 것은 무엇입니까? 바로 방사선과 의사입니다.
진행자 드와르케시: 귀사는 논리 반도체 제조량을 매년 2배로 늘리는 것을 어떻게 달성했습니까? 결국 메모리와 논리는 모두 EUV에 의해 제한됩니다.
제인슨 황:
이것들은 단기간에 빠르게 확장할 수 없는 것들이 아닙니다. 2~3년 내에 해결할 수 있으며, 단지 수요 신호만 있으면 이러한 것들은 복제하기 어렵지 않습니다. 제가 공급망에 얼마나 깊이 관여해야 할지—어떤 것은 직접 협상해야 하고, 어떤 것은 간접적으로 해야 하며, 어떤 것은 단지 TSMC를 설득하기만 하면 ASML도 자연스럽게 따라옵니다. 우리는 핵심 노드를 고려해야 하지만, TSMC가 설득된다면, 몇 년 내에 충분한 EUV 장비를 확보하게 될 것입니다. 핵심은: 모든 병목 현상은 2~3년 이상 지속되지 않으며, 하나도 예외가 없습니다. 동시에, 우리는 세대별 계산 효율을 10~20배 향상시키고 있으며, 호퍼에서 블랙웰(Blackwell)까지는 30~50배 향상시켰습니다. 우리는 CUDA의 유연성을 활용해 끊임없이 새로운 알고리즘을 발명하고, 효율을 향상시키며, 생산 능력을 확장합니다. 이것들에 대해서는 걱정하지 않습니다. 제가 걱정하는 것은 하류—예컨대 에너지 발전을 저해하는 정책—입니다.에너지가 없으면 산업을 건설할 수 없고, 재산업화를 추진할 수 없으며, 칩 제조, 컴퓨터 제조, 패키징을 미국으로 되돌릴 수 없고, 전기차(EV)와 로봇을 만들 수 없으며, AI 공장을 건설할 수 없습니다. 더 많은 칩 생산 능력은 2~3년의 문제이며, 더 많은 CoWoS 생산 능력도 2~3년의 문제입니다.
TPU가 NVIDIA의 AI 컴퓨팅 분야 주도권을 무너뜨릴 수 있을까?
진행자 드와르케시: TPU를 살펴보면, 전 세계 상위 3개 모델 중 2개—클로드(Claude)와 제미니(Gemini)—가 TPU에서 훈련되었다는 관점이 있습니다. 이는 NVIDIA에게 어떤 의미입니까?
제인슨 황:
우리는 완전히 다른 일을 하고 있습니다.NVIDIA는 텐서 처리 유닛이 아니라 가속 컴퓨팅을 수행합니다. 가속 컴퓨팅은 분자 역학, 양자 색역학, 데이터 처리, 데이터 프레임, 구조화된 데이터, 비구조화된 데이터, 유체 역학, 입자 물리학 등 다양한 분야에 사용되며, AI에도 사용됩니다. 가속 컴퓨팅은 훨씬 더 광범위한 분야를 아우르며, 오늘날 사람들은 주로 AI에 대해 이야기하고, AI도 분명히 매우 중요하지만, 컴퓨팅의 범위는 AI를 훨씬 넘어서 있습니다. NVIDIA는 일반 컴퓨팅에서 가속 컴퓨팅으로 계산 방식을 재정의했습니다. 우리의 시장 커버리지는 어떤 TPU나 ASIC도 도달할 수 없는 수준입니다. 우리의 시장 지위를 보십시오—우리는 다양한 응용 프로그램을 가속화하는 유일한 기업이며, 방대한 생태계를 보유하고 있습니다. 모든 프레임워크와 알고리즘이 NVIDIA에서 실행됩니다. 우리의 컴퓨터는 외부 운영자들을 위해 설계되었기 때문에, 누구나 우리 시스템을 구매할 수 있습니다. 대부분의 자체 개발 시스템은 자체 운영을 위해 설계되었기 때문에, 다른 사람이 운영하기에 충분히 유연하지 않습니다. 따라서 누구나 우리 시스템을 운영할 수 있기 때문에, 우리는 Google, Amazon, Azure, OCI를 포함한 모든 클라우드에 존재합니다. 만약 당신이 임대를 통해 수익을 창출하려 한다면, 다양한 산업에서 대량의 고객 생태계를 확보하는 것이 가장 좋습니다. 만약 당신이 자체적으로 사용하려 한다면, 우리는 xAI의 일론 머스크(Elon Musk)를 도운 것처럼 당신을 도울 수 있습니다. 또한, 우리는 어떤 기업, 어떤 산업의 운영자라도 배포할 수 있게 하므로, 당신은 릴리(Lilly)의 과학 연구 및 신약 개발을 위한 슈퍼컴퓨터를 구축하고, 전신의 신약 개발 및 생명과학 분야의 다양한 요구를 위해 자체 슈퍼컴퓨터를 운영할 수 있습니다. TPU가 커버할 수 없는 응용 프로그램 시나리오가 너무 많습니다. NVIDIA는 CUDA를 훌륭한 텐서 처리 유닛으로 만들었을 뿐만 아니라, 데이터 라이프사이클의 모든 단계—처리, 계산, AI—를 처리할 수 있습니다. 우리의 시장 기회는 더 크고, 커버리지는 더 넓습니다. 우리는 전 세계의 모든 응용 프로그램을 지원하기 때문에, 어디서든 NVIDIA 시스템을 구축하면 반드시 고객이 사용할 것임을 알 수 있습니다. 이것은 완전히 다른 차원의 문제입니다.
진행자 드와르케시: 이것은 긴 질문입니다. 귀사는 놀라운 매출을 기록하고 있으며, 분기당 600억 달러입니다. 그러나 이 매출은 의약품이나 양자 컴퓨팅에서 나오는 것이 아니라, AI라는 전례 없는 기술이 전례 없는 속도로 성장함에 따른 것입니다. 문제는, AI 자체에 대해, 무엇이 최적입니까?
저는 제 AI 연구원 친구들과 대화를 나누었는데, 그들은 TPU를 사용할 때, 행렬 곱셈을 위해 최적화된 거대한 펄스 어레이(pulsed array)라고 말했습니다. 반면 GPU는 유연하며, 많은 분기나 불규칙한 메모리 액세스가 필요한 시나리오에 적합합니다. 그렇다면 AI란 무엇입니까? 그것은 반복되는 예측 가능한 행렬 곱셈입니다. TPU는 워프 스케줄러나 스레드와 메모리 뱅크 간 전환을 위해 칩 면적을 희생하지 않으며, 현재 연산 능력 증가의 주요 사용 사례에 깊이 최적화되어 있습니다. 어떻게 생각하십니까?
제인슨 황:
행렬 곱셈은 AI의 중요한 구성 요소이지만, 전부는 아닙니다. 새로운 어텐션(attention) 메커니즘을 발명하거나, 분할(sharding)을 다르게 수행하거나, 하이브리드 SSM과 같은 완전히 새로운 아키텍처를 처음부터 설계하려면, 일반적으로 프로그래밍 가능한 아키텍처가 필요합니다. 확산(diffusion) 기술과 오토리그레시브(autoregressive) 기술을 융합한 모델을 만들려면, 역시 일반적으로 프로그래밍 가능한 아키텍처가 필요합니다. 우리는 당신이 생각할 수 있는 모든 것을 실행할 수 있으며, 이것이 우리의 강점입니다. 프로그래머블성은 새로운 알고리즘의 발명을 훨씬 쉽게 만들며, 이것이 바로 AI가 이렇게 빠르게 진전되는 근본적인 이유입니다. TPU와 다른 모든 것들은 무어의 법칙(Moore’s Law)의 영향을 받습니다—무어의 법칙은 매년 약 25% 향상됩니다. 진정한 10배, 100배의 도약을 이루려면, 매년 근본적으로 알고리즘과 계산 방식을 변화시켜야 합니다. 이것이 바로 NVIDIA의 핵심 강점입니다.제가 처음 블랙웰의 에너지 효율이 호퍼보다 35배 높을 것이라고 발표했을 때, 아무도 믿지 않았습니다. 이후 드일런(Dylan)이 글을 써서 제가 낮게 보고했다고 했고, 실제는 50배이며, 순수한 무어의 법칙만으로는 이를 달성할 수 없다고 했습니다. 우리의 해결책은 새로운 모델 설계—예컨대 MoE, 계산 시스템 간 병렬화, 분할, 분산 배포—입니다. CUDA 없이 새 커널을 생성하는 방법을 저는 전혀 모릅니다. 이것은 프로그래머블 아키텍처와 NVIDIA의 극도로 긴밀한 공동 설계 능력의 결합입니다. 우리는 일부 계산을 NVLink 패브릭(fabric)으로 오프로드하거나, 스펙트럼-X(Spectrum-X) 네트워크 계층으로 오프로드할 수 있습니다. 우리는 프로세서, 시스템, 패브릭, 라이브러리, 알고리즘 등 여러 수준에서 동시에 혁신을 이끌 수 있습니다. CUDA 없이는, 어디서부터 시작해야 할지 모르겠습니다.
진행자 드와르케시: 귀사 매출의 60%는 5대 초대규모 클라우드 제공업체에서 나옵니다. 실험을 수행하는 교수와 같은 다양한 고객 시대에서는, 그들은 CUDA가 필요하며, 다른 가속기로는 대체할 수 없고, 반드시 PyTorch와 CUDA를 사용해야 합니다. 그러나 이 초대규모 제공업체들은 자체 커널을 작성할 자원을 보유하고 있으며, 실제로 그렇게 해야만 특정 아키텍처에서 마지막 5%의 성능을 끌어낼 수 있습니다. Anthropic과 Google은 대부분 자체 가속기 또는 TPU와 트레이니엄(Trainium)을 사용하고, OpenAI는 GPU를 사용하더라도 트라이톤(Triton)을 사용합니다. 그들은 자체 커널이 필요하기 때문에, cuBLAS와 NCCL을 우회하여 CUDA C++까지 내려가 자체 스택을 구축했으며, 다른 가속기로도 컴파일할 수 있습니다.
만약 귀사의 대부분 고객이 어느 정도 CUDA를 대체할 수 있다면, CUDA는 여전히 최첨단 AI가 NVIDIA에서 이루어지도록 하는 결정적 요소입니까?
제인슨 황:
CUDA는 극도로 풍부한 생태계입니다. 어떤 아키텍처에서든 먼저 구축하려면, CUDA에서 먼저 구축하는 것이 매우 현명합니다. 왜냐하면 생태계가 매우 풍부하고, 우리는 모든 프레임워크를 지원하기 때문입니다. 맞춤형 커널을 만들고 싶다면, 우리는 트라이톤에 막대한 기여를 했습니다—트라이톤의 백엔드에는 NVIDIA 기술이 대량 포함되어 있습니다. 우리는 모든 프레임워크가 최대한 훌륭해지도록 돕는 것을 기꺼이 합니다. 트라이톤, vLLM, SGLang과 같은 다양한 프레임워크가 있으며, 현재 폭발적으로 성장하고 있는 사후 훈련(post-training) 및 강화 학습(RL) 프레임워크—예컨대 verl과 NeMo RL—도 있습니다. 사후 훈련 및 강화 학습 전체 분야는 지금 폭발적으로 확장되고 있습니다.따라서 어떤 아키텍처에서든 구축하려면, CUDA를 선택하는 것이 가장 현명합니다. 왜냐하면 생태계가 풍부하다는 점을 알고 있고, 문제가 발생할 경우, 더 큰 확률로 당신의 코드에 문제가 있는 것이지, 하위에 깔린 방대한 코드 산에 문제가 있는 것이기 때문입니다. 문제가 발생했을 때, 그것은 당신의 문제입니까, 아니면 기계의 문제입니까? 당신은 항상 그것이 당신의 문제라고 희망하며, 그 기계를 믿고 싶어 합니다. 물론 우리 자신도 여전히 많은 버그를 가지고 있지만, 우리의 시스템은 충분히 정교하게 다듬어졌기 때문에, 적어도 그 위에 구축할 수 있습니다. 둘째, 어디서나 소프트웨어를 구축하는 개발자로서 가장 중요한 일은 다음과 같습니다: 당신이 작성한 소프트웨어가 수많은 다른 기계에서 실행될 수 있도록, 방대한 설치 기반을 확보해야 합니다. 당신은 자신을 위해 소프트웨어를 작성하는 것이 아니라, 자신의 전체 기계 군집 또는 다른 사람들의 기계 군집을 위해 소프트웨어를 작성합니다. 왜냐하면 당신은 프레임워크 구축자이기 때문이며, NVIDIA CUDA 생태계는 진정한 핵심 자산입니다. 현재 우리는 A10, A100, H100, H200, L 시리즈, P 시리즈 등 다양한 크기와 형태의 수억 개 GPU를 전 세계에 배포하고 있습니다. 만약 당신이 로봇 기업이라면, 바로 그 로봇 자체에 CUDA 기술 스택을 바로 실행하고 싶을 것이며, 우리는 어디에나 존재합니다. 방대한 설치 기반은, 일단 당신이 소프트웨어나 모델을 개발하면, 어디서든 사용할 수 있음을 의미합니다. 이 가치는 대체할 수 없습니다. 마지막으로, 우리가 모든 클라우드에 존재한다는 사실은 우리를 진정으로 독특하게 만듭니다. 만약 당신이 AI 기업이거나 개발자라면, 어느 클라우드 제공업체를 선택할지, 혹은 어디에서 실행할지 확신할 수 없습니다. 우리는 어디서든 실행할 수 있으며, 당신의 자체 사설 배포에서도 실행할 수 있습니다. 생태계의 풍부함, 설치 기반의 광범위함, 그리고 우리의 다양성 있는 적용—이 세 가지가 결합되어 CUDA에 엄청난 가치를 부여합니다.
진행자 드와르케시: 그러나 저는 이러한 이점이 귀사의 주요 고객에게도 동일하게 중요한지 궁금합니다. 주요 고객 중에는 소프트웨어 스택을 직접 구축할 수 있는 기업이 많습니다. 특히 AI가 엄격한 검증 폐쇄 루프가 필요한 분야에서 점점 더 강력해짐에 따라, 이 문제는—모든 초대규모 제공업체가 자체 커널을 작성할 수 있을까요? NVIDIA는 여전히 성능 대비 비용 측면에서 훌륭하지만, 그들은 여전히 NVIDIA를 선호할 수 있습니다. 그러나 문제는, 이것이 단순히 사양이 가장 좋은지, 1달러당 얼마나 많은 연산 능력과 메모리 대역폭을 살 수 있는지에 대한 경쟁으로 전락할 것인지 여부입니다. 역사적으로 NVIDIA의 매출총이익률은 70%를 넘었습니다. 이는 바로 CUDA의 경쟁 우위 덕분이었습니다. 만약 대부분의 고객이 실제로 CUDA를 대체할 수 있다면, 이 매출총이익률은 유지될 수 있을까요?
제인슨 황:
우리는 이러한 AI 연구실에 엄청난 수의 엔지니어를 할당하여, 그들과 협력하고 그들의 기술 스택을 최적화합니다. 이유는 간단합니다: 우리보다 우리 아키텍처를 더 잘 아는 사람은 없습니다. 이 아키텍처는 CPU처럼 일반적이지 않습니다—CPU는 캐딜락과 같아서, 안정적이고 고급스러운 세단이며, 속도는 빠르지 않지만, 누구나 운전할 수 있고, 크루즈 컨트롤이 있고, 모든 것이 부드럽습니다. NVIDIA의 GPU는 가속기이며, F1 레이싱카와 유사합니다. 일반인이 시속 100km로 운전하는 것은 전혀 문제가 없지만, 극한 성능까지 끌어내기 위해서는 상당한 숙련도가 필요합니다. 우리는 AI를 대량 활용해 자체 커널을 생성합니다. 저는 상당한 기간 동안, 우리는 여전히 필수불가결할 것이라고 확신합니다. 우리의 전문 지식은 AI 연구실 파트너가 그들의 기술 스택에서 추가로 2배의 효율을 끌어내도록 돕습니다—그리고 종종 매우 쉽게 말입니다. 우리가 특정 커널을 최적화하거나 전체 스택을 최적화하면, 그들의 모델이 2배, 3배, 또는 50%만큼 가속화되는 것은 매우 일반적인 일입니다. 이것은 엄청난 수치입니다. 특히 그들이 이미 보유한 방대한 호퍼 및 블랙웰 설치 기반을 고려할 때—효율이 2배가 된다면, 바로 수익이 2배가 되는 것입니다. NVIDIA의 컴퓨팅 스택은 세계에서 가장 뛰어난 성능 대비 총 소유 비용을 제공합니다. 단 하나의 예외도 없습니다. 오늘날 어떤 플랫폼도 성능 대비 TCO 측면에서 우리보다 나은 것을 입증하지 못했습니다. 하나도 없습니다. InferenceMAX 벤치마크는 그곳에 있습니다. 누구나 실행할 수 있습니다. TPU는 오지 않고, Trainium도 오지 않습니다. 저는 그들이 InferenceMAX를 통해 주장하는 40%의 비용 우위를 입증하길 환영합니다. 그러나 아무도 오지 않습니다. 둘째, 당신은 매출의 60%가 상위 5개 고객에서 나온다고 말했지만, 그 중 대부분은 외부 비즈니스입니다—AWS에서의 대량 NVIDIA는 AWS 자체가 사용하는 것이 아니라 외부 고객을 위해 사용됩니다. Azure의 고객은 전부 외부 고객이며, OCI도 마찬가지입니다. 그들이 우리를 선호하는 이유는, 우리의 커버리지가 매우 광범위하고, 우리는 다양한 산업의 최고 고객을 끌어모을 수 있기 때문입니다. 이 고객들은 모두 NVIDIA 위에 구축되어 있습니다. 왜냐하면 우리의 커버리지와 유연성은 비교할 수 없기 때문입니다. 피드백 루프는 다음과 같습니다: 설치 기반, 아키텍처의 프로그래머블성, 생태계의 풍부함, 그리고 전 세계 수만 개의 AI 기업. 만약 당신이 그 중 하나의 AI 스타트업이라면, 어떤 아키텍처를 선택할 것입니까? 가장 풍부한 것, 가장 방대한 설치 기반을 가진 것, 가장 풍부한 생태계를 가진 것을 선택할 것입니다. 이것이 피드백 루프가 작동하는 방식이며, 최고의 단위 연산 능력 수익과 최고의 와트당 성능을 더해줍니다—만약 당신의 파트너가 GW 규모의 데이터센터를 건설했다면, 그 데이터센터는 최대한 많은 토큰과 최대 수익을 창출해야 하며, 우리는 전 세계에서 가장 높은 토큰/와트 아키텍처입니다. 만약 당신의 목표가 인프라를 임대하는 것이라면, 우리는 전 세계에서 가장 많은 고객을 보유하고 있습니다. 이것이 피드백 루프가 작동하는 이유입니다.
진행자 드와르케시: Anthropic은 최근 브로드컴(Broadcom) 및 Google과 협력한 다수 GW 규모의 TPU 대규모 계약을 발표했습니다. 그리고 그들의 대부분 연산 능력은 TPU에서 나옵니다. 만약 제가 이러한 대형 AI 기업들을 보면, 상당한 양의 연산 능력이 NVIDIA에서 이탈하고 있는 것으로 보입니다. 이 현상을 어떻게 설명할 수 있습니까?
제인슨 황:
Anthropic은 예외이며, 추세가 아닙니다. Anthropic이 없었다면, TPU 성장은 어디서 왔을까요? 그것은 100% Anthropic에서 비롯된 것입니다. Anthropic이 없었다면, Trainium 성장은 어디서 왔을까요? 역시 100% Anthropic에서 비롯된 것입니다. 이것은 상당히 널리 알려진 사실이며, 대부분의 사람들이 기본적으로 이해하고 있습니다. 이것은 ASIC 기회가 쏟아지고 있는 것이 아니라, 단지 Anthropic 하나만 존재한다는 것을 의미합니다.
다른 사람이 다른 것을 사용하거나 새로운 방향을 시도한다고 해서, 저는 기분이 상하지 않습니다. 만약 그들이 다른 것을 시도하지 않는다면, 우리가 얼마나 훌륭한지 어떻게 알 수 있을까요? 때때로 우리는 스스로를 상기시키기 위해 기준점을 필요로 합니다. 우리는 우리의 시장 지위를 계속해서 이뤄내야 합니다. 항상 다양한 과장된 주장이 있지만, 취소된 ASIC 프로젝트가 얼마나 많은지 보십시오. NVIDIA보다 더 나은 것을 만들어내는 것은 결코 쉬운 일이 아닙니다. NVIDIA가 어디서 잘못되었기에, 사람들이 그것이 타당하다고 느낄 수 있을까요? 바로 우리의 규모, 우리의 반복 속도, 그리고 우리는 전 세계에서 유일하게 매년 획기적으로 전진하는 기업이기 때문입니다.
ASIC의 이윤률은 상당히 높습니다. NVIDIA는 70%, ASIC는 65%입니다. 제가 볼 수 있는 한, ASIC의 매출총이익률은 매우 훌륭하며, 그들 스스로도 그렇게 생각하고, 자신들의 훌륭한 ASIC 매출총이익률을 자랑스럽게 생각합니다. 그렇다면, 왜 그렇게 될까요? 오래 전, 우리는 그런 일을 할 능력이 전혀 없었습니다. 당시 저는 OpenAI 및 Anthropic과 같은 기초 AI 연구실을 설립하는 것이 얼마나 어려운지, 그리고 그들이 공급업체 자체로부터 막대한 투자를 필요로 한다는 점을 깊이 이해하지 못했습니다. 우리는 당시 Anthropic에 수십억 달러를 투자해 그들이 우리의 연산 능력을 사용하도록 하는 능력이 없었습니다. Google과 AWS는 그 능력을 갖고 있었고, 초기에 Anthropic에 대규모 투자를 했으며, Anthropic은 그 결과로 그들의 연산 능력을 사용했습니다. 당시 저는 그런 조건을 갖추지 못했습니다. 제 실수는, 그들이 사실상 다른 선택지가 없다는 점을 깊이 인식하지 못했다는 데 있습니다. 벤처 캐피탈이 AI 연구실에 50억~100억 달러를 투자해 오늘날의 Anthropic이 되도록 기대하는 것은 결코 없습니다. 이것이 제 시야의 맹점이었습니다. 그러나 당시 제가 그것을 인식했더라도, 우리는 그 조건을 갖추지 못했을 수도 있지만, 저는 다시는 같은 실수를 저지르지 않을 것입니다.저는 OpenAI에 투자한 것을 기쁘게 생각하며, 그들의 규모 확장을 돕는 것을 기쁘게 생각합니다. 이것은 반드시 해야 할 일입니다. 우리가 그럴 능력을 갖추었을 때, Anthropic이 우리를 찾아왔을 때, 나는 투자자로서, 그들의 규모 확장을 돕는 것에 기쁘게 생각했습니다. 다만 당시에는 그렇게 하지 못했습니다. 만약 시간을 되돌릴 수 있고, 당시 NVIDIA가 지금 같은 규모였다면, 저는 기꺼이 그렇게 했을 것입니다.
왜 NVIDIA는 직접 초대규모 클라우드 서비스 제공업체가 되지 않을까?
진행자 드와르케시: 수년간 NVIDIA는 AI 분야에서 돈을 벌었던 기업이며, 엄청난 수익을 올렸습니다. 이제 여러분은 투자를 시작했고, 보도에 따르면 OpenAI에 300억 달러, Anthropic에 100억 달러를 투자했습니다. 그들의 기업 가치는 급등했으며, 앞으로도 계속 상승할 것입니다. 수년간, 당신은 그들에게 연산 능력을 제공해왔고, 방향을 보았으며, 그들의 가치는 1년 전에는 지금의 10분의 1에 불과했고, 그때 이미 귀사는 막대한 현금을 보유하고 있었습니다.
한 가지 가설은 다음과 같습니다: NVIDIA가 직접 기초 모델 연구실을 설립하거나, 지금과 같은 투자를 훨씬 낮은 기업 가치로 진행했어야 한다는 것입니다. 귀사는 그 현금을 보유하고 있으므로, 왜 더 일찍 그렇게 하지 않았습니까?
제인슨 황:
우리는 할 수 있을 때 했습니다. 만약 제가 더 일찍 할 수 있었다면, 그렇게 했을 것입니다. Anthropic이 우리 행동을 필요로 했던 그 순간, 우리는 실제로 그 조건을 갖추지 못했고, 그런 인식과 사고방식도 없었습니다.
투자 규모의 문제가 있습니다. 우리는 그때까지 회사 외부에 투자한 적이 없었고, 그렇게 큰 금액을 투자한 적도 없었습니다. 우리는 그런 투자가 필요하다는 점을 인식하지 못했습니다. 저는 항상 그들이 다른 모든 기업처럼 벤처 캐피탈에서 자금을 조달할 수 있다고 생각했습니다. 그러나 그들이 하려는 일은 벤처 캐피탈로는 절대 완수할 수 없습니다. OpenAI가 하려는 일도 벤처 캐피탈로는 절대 완수할 수 없습니다. 이것이 바로 그들의 뛰어난 점이며, 그들의 영리함입니다—그들은 이미 그때부터 다른 길을 가야 한다는 점을 깨달았습니다. 저는 그들이 그렇게 했던 것을 기쁘게 생각합니다. 비록 우리가 빠져 있었기 때문에 Anthropic이 다른 곳으로 향해야 했지만, 저는 이것이 일어났다는 점을 기쁘게 생각합니다. Anthropic의 존재는 세상에 좋은 일이며, 저는 그것에 대해 기쁩니다.
진행자 드와르케시: 당신은 여전히 막대한 수익을 올리고 있으며, 분기마다 더 많이 올리고 있습니다. 이제 문제는, NVIDIA가 이 돈을 지금 무엇에 사용해야 할지입니다. 한 가지 답변은 다음과 같습니다: 현재 연산 능력을 임대해주는 중간 상인 생태계가 존재하며, CapEx를 OpEx로 전환합니다—왜냐하면 칩은 비싸지만, AI 모델이 점점 더 좋아짐에 따라, 수명 주기 내에서 창출할 수 있는 가치는 점점 더 커지기 때문입니다. NVIDIA는 CapEx를 수행할 자금을 보유하고 있으며, 보도에 따르면 CoreWeave에 최대 63억 달러를 보증하고 20억 달러를 투자했습니다. 왜 NVIDIA는 직접 클라우드 서비스를 제공하고, 직접 초대규모 제공업체가 되어, 이 연산 능력을 임대하지 않을까요? 당신은 충분한 현금을 보유하고 있습니다.
제인슨 황:
이는 기업의 철학적 문제이며, 저는 이것이 현명하다고 생각합니다. 우리는 반드시 필요한 일을 최대한 많이 하고, 불필요한 일은 최소한으로 줄여야 합니다. 이는 다음과 같은 의미입니다:우리가 구축하는 컴퓨팅 플랫폼에서 우리가 하지 않으면 정말로 아무도 하지 않을 작업만 수행한다는 의미입니다. 우리가 우리가 감수한 위험을 감수하지 않았다면—만약 우리가 NVLink를 우리가 한 방식으로 구축하지 않았고, 전체 기술 스택을 구축하지 않았으며, CUDA를 20년간 집중적으로 육성하지 않았고, 대부분의 시간 동안 적자를 감수하지 않았다면—만약 우리가 하지 않았다면, 아무도 하지 않았을 것입니다. 우리가 CUDA-X 분야별 라이브러리—광선 추적, 이미지 생성, 초기 AI 작업, 데이터 처리, 구조화된 데이터 처리, 벡터 데이터 처리 등—를 모두 만들지 않았다면, 아무도 만들지 않았을 것입니다. 예를 들어, 우리가 계산 리소그래피를 위해 cuLitho를 만들지 않았다면, 아무도 만들지 않았을 것입니다.
따라서, 우리가 하지 않았다면, 가속 컴퓨팅은 오늘날의 방식으로 발전하지 못했을 것입니다. 그러므로 우리는 그것을 해야 합니다. 우리는 그것을 하기 위해 모든 힘을 집중해야 합니다. 그러나 세상에는 부족하지 않은 클라우드 서비스가 있습니다—우리가 하지 않더라도 누군가 대신 해줄 것입니다. “반드시 필요한 일을 최대한 많이 하고, 불필요한 일은 최소한으로 줄인다”는 철학에 따라, CoreWeave가 존재하지 못하게 한다면, 이러한 신생 AI 클라우드는 등장하지 못했을 것입니다. CoreWeave를 돕지 않았다면, 그들은 존재하지 못했을 것입니다. Nscale를 돕지 않았다면, 그들은 오늘날의 모습을 갖지 못했을 것입니다. Nebius를 돕지 않았다면, 그들은 오늘날의 모습을 갖지 못했을 것입니다. 지금 그들은 모두 잘 성장하고 있습니다. 이것이 바로 우리가 생태계에 투자하는 이유입니다. 왜냐하면 저는 우리의 생태계가 번창하기를 원하기 때문입니다.저는 이 아키텍처와 AI가 가능한 한 많은 산업, 가능한 한 많은 국가와 연결되기를 원합니다. 전 세계가 AI 위에, 미국 기술 스택 위에 구축되기를 원합니다. 이것이 우리가 추구하는 비전입니다.
NVIDIA가 처음 설립되었을 때, 60개의 3D 그래픽 기업이 있었고, 우리는 살아남을 가능성이 가장 낮은 기업이었습니다. 당시 NVIDIA의 그래픽 아키텍처는 완전히 잘못된 방향이었고, 단지 약간이 아니라 근본적으로 반대 방향이었으며, 개발자는 그것을 지원할 수 없었습니다. 훌륭한 첫 번째 원리에서
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News













