
Phỏng vấn toàn văn mới nhất của Jensen Huang: “Từ bỏ thị trường Trung Quốc là tư duy của kẻ thất bại”, việc phong tỏa năng lực tính toán hoàn toàn không thể ngăn cản được AI Trung Quốc
Tuyển chọn TechFlowTuyển chọn TechFlow

Phỏng vấn toàn văn mới nhất của Jensen Huang: “Từ bỏ thị trường Trung Quốc là tư duy của kẻ thất bại”, việc phong tỏa năng lực tính toán hoàn toàn không thể ngăn cản được AI Trung Quốc
“Công việc chúng tôi đang thực hiện để xây dựng nền tảng tính toán — nếu chúng tôi không làm, tôi thực sự tin rằng sẽ chẳng ai làm cả.”
Tổng hợp & Dịch thuật: TechFlow

Khách mời: Jensen Huang, Nhà sáng lập kiêm CEO của NVIDIA
Dẫn chương trình: Dwarkesh Patel
Nguồn podcast: Dwarkesh Patel
Tựa đề gốc: Jensen Huang – Rãnh phòng thủ của NVIDIA sẽ còn tồn tại mãi?
Ngày phát sóng: 16 tháng 4 năm 2026
Tóm tắt các điểm chính
Bài viết này thông qua cuộc đối thoại với CEO của NVIDIA – ông Jensen Huang – để thảo luận về những vấn đề như tác động tiềm tàng của TPU (Đơn vị xử lý tensor) đối với vị thế thống trị của NVIDIA trong lĩnh vực tính toán AI, khả năng kiểm soát chuỗi cung ứng chip tiên tiến của công ty, việc có nên bán chip AI cho Trung Quốc hay không, lý do NVIDIA không trực tiếp trở thành nhà cung cấp dịch vụ điện toán đám mây quy mô lớn (hyperscaler), cũng như các lựa chọn về kiến trúc chip và chiến lược đầu tư của công ty.

Tóm tắt những quan điểm nổi bật
Về bản chất và rãnh phòng thủ của NVIDIA
- “Về cơ bản, luôn phải có một thứ gì đó chuyển đổi electron thành token, và quá trình chuyển đổi này cùng với việc làm cho token ngày càng có giá trị hơn theo thời gian, không dễ bị hàng hóa hóa. Công việc của chúng tôi là thực hiện càng nhiều việc cần thiết càng tốt và càng ít việc không cần thiết càng tốt để đạt được sự chuyển đổi này.”
- “Tại sao họ (chuỗi cung ứng) sẵn sàng đầu tư vào tôi mà không vào người khác? Bởi vì họ biết NVIDIA có khả năng tiêu thụ toàn bộ sản lượng cung ứng của họ và phân phối ra thị trường thông qua kênh bán hàng phía dưới. Quy mô khổng lồ của chuỗi cung ứng và nhu cầu phía dưới của NVIDIA khiến họ sẵn sàng đặt cược ở phía trên.”
- “Mọi điểm nghẽn đều không kéo dài quá hai hoặc ba năm — không ngoại lệ nào cả. Điều khiến tôi lo lắng là những vấn đề phía dưới chuỗi cung ứng của chúng tôi — ví dụ như các chính sách cản trở phát triển năng lượng. Không có năng lượng, bạn không thể xây dựng một ngành công nghiệp; không có năng lượng, bạn không thể thúc đẩy tái công nghiệp hóa.”
Về cuộc cạnh tranh giữa CUDA và chip chuyên dụng (ASIC)
- “NVIDIA làm việc về tính toán tăng tốc, chứ không phải đơn vị xử lý tensor. Phạm vi của tính toán tăng tốc rộng hơn nhiều… Chúng tôi là công ty duy nhất tăng tốc mọi loại ứng dụng, với hệ sinh thái đồ sộ.”
- “GPU của NVIDIA là bộ tăng tốc, giống như một chiếc xe đua F1. Người bình thường lái nó với vận tốc 100 km/h thì không vấn đề gì, nhưng để khai thác tối đa tiềm năng, bạn cần kỹ năng rất cao. Chúng tôi sử dụng AI một cách mạnh mẽ để tự tạo ra các kernel riêng.”
- “Chuỗi tính toán của NVIDIA là chuỗi có hiệu quả chi phí tốt nhất thế giới — không ngoại lệ nào. Không nền tảng nào có thể chứng minh với tôi rằng nó hiện nay có tỷ lệ hiệu năng/trị giá sở hữu tổng thể (TCO) tốt hơn.”
Về triết lý kinh doanh và chiến lược đầu tư
- “Chúng ta nên làm càng nhiều việc cần thiết càng tốt và càng ít việc không cần thiết càng tốt. Điều này nghĩa là: công việc chúng ta đang làm để xây dựng nền tảng tính toán — nếu chúng ta không làm, tôi thực sự tin rằng sẽ chẳng ai làm. Nhưng trên thế giới không thiếu dịch vụ điện toán đám mây — nếu không phải chúng ta làm, thì người khác sẽ làm.”
- “Sai lầm của tôi nằm ở chỗ tôi chưa nhận thức sâu sắc rằng họ thực sự không còn lựa chọn nào khác — các quỹ đầu tư mạo hiểm sẽ không bao giờ rót từ 5 đến 10 tỷ USD vào một phòng thí nghiệm AI. Đây là điểm mù của tôi. Nếu có thể quay ngược thời gian, và nếu lúc ấy NVIDIA đã có quy mô như ngày nay, tôi rất sẵn lòng hành động như vậy.”
Về thị trường Trung Quốc và địa chính trị (phần được quan tâm nhất)
- “Cách tốt nhất để tạo ra một thế giới an toàn là gì? Việc biến họ thành nạn nhân và kẻ thù gần như chắc chắn không phải là câu trả lời tối ưu. Họ là đối thủ, và chúng ta hy vọng Mỹ giành chiến thắng, nhưng tôi cho rằng duy trì đối thoại và trao đổi nghiên cứu có thể là cách an toàn nhất.”
- “Tâm lý thất bại này, giả định thất bại này — hoàn toàn vô nghĩa đối với tôi. Việc từ bỏ một thị trường chỉ dựa trên tiền đề bạn vừa nêu, tôi không thể chấp nhận. Điều đó phi lý, bởi tôi không cho rằng Mỹ là kẻ thất bại, và ngành công nghiệp của chúng ta cũng không thất bại.”
- “Khi bạn có nguồn năng lượng dồi dào, điều đó có thể bù đắp cho sự thiếu hụt chip. Nếu công suất điện của bạn dồi dào tuyệt đối và gần như miễn phí, thì bạn cần quan tâm gì đến hiệu năng mỗi watt? Bạn cứ việc tích lũy những chip cũ. Chip 7nm về cơ bản tương đương thế hệ Hopper, hoàn toàn đủ dùng.”
- “Ngày DeepSeek ra mắt lần đầu tiên trên chip Huawei là một kết quả tồi tệ đối với đất nước chúng ta… Nếu tất cả các mô hình AI chạy tốt nhất trên nền tảng công nghệ của người khác, thì bạn hãy giải thích xem liệu điều đó thực sự có lợi cho Mỹ hay không?”
Về phần mềm, Agent và tương lai
- “Hiện nay chúng ta bị giới hạn bởi số lượng kỹ sư, nhưng ngày mai những kỹ sư này sẽ được hỗ trợ bởi một đội quân agent khổng lồ, và chúng ta sẽ khám phá không gian thiết kế theo cách chưa từng có… Việc sử dụng công cụ sẽ giúp quy mô các công ty phần mềm tăng vọt; điều này chưa xảy ra chỉ vì các agent hiện vẫn chưa đủ giỏi trong việc sử dụng công cụ.”
- “Một điều bạn có thể tin tưởng ở NVIDIA là: năm nay Vera Rubin sẽ rất xuất sắc, năm sau Vera Rubin Ultra sẽ ra đời, và năm sau nữa Feynman sẽ xuất hiện. Mỗi năm bạn đều có thể tin tưởng chúng tôi như tin vào đồng hồ.”
Về kiến trúc và khối lượng công việc
- “Chúng tôi có thể làm như vậy (nghiên cứu nhiều kiến trúc), chỉ là chúng tôi chưa có ý tưởng tốt hơn. Chúng tôi đã chạy thử tất cả trong bộ mô phỏng, và kết quả đều tệ hơn, nên chúng tôi sẽ không làm như vậy.”
- “Trước đây, thông lượng cao luôn là tốt nhất. Nhưng chúng tôi cho rằng có thể tồn tại một thế giới nơi token có giá trị cao bất thường — ngay cả khi công suất nhà máy thấp hơn, mức giá cao cũng đủ để bù đắp khoảng chênh lệch này. Đây là lý do chúng tôi quyết định mở rộng biên giới Pareto.”
Lợi thế chuỗi cung ứng của NVIDIA có phải là rãnh phòng thủ lớn nhất của công ty?
Dẫn chương trình Dwarkesh: Chúng ta thấy giá trị định giá của hàng loạt công ty phần mềm sụt giảm mạnh, nguyên nhân là kỳ vọng thị trường rằng AI sẽ khiến phần mềm trở thành hàng hóa. Có một lập luận dường như đơn giản như sau: NVIDIA gửi file GDS2 cho TSMC, TSMC sản xuất chip logic và switch, sau đó gắn kết với HBM của SK Hynix, Micron và Samsung, rồi giao cho các nhà sản xuất thiết bị gốc (ODM) ở Đài Loan lắp ráp thành hệ thống hoàn chỉnh. Từ góc nhìn này, NVIDIA về bản chất là một công ty phần mềm, chỉ là người khác đang sản xuất hộ — nếu phần mềm bị hàng hóa hóa, thì NVIDIA có bị hàng hóa hóa không?
Jensen Huang:
Về cơ bản, luôn phải có một thứ gì đó chuyển đổi electron thành token, và quá trình chuyển đổi này cùng với việc làm cho token ngày càng có giá trị hơn theo thời gian, không dễ bị hàng hóa hóa. Việc khiến một token có giá trị hơn token khác, giống như khiến một phân tử có giá trị hơn phân tử khác — điều này liên quan đến nghệ thuật, kỹ thuật, khoa học và sáng chế, và chúng ta đang chứng kiến toàn bộ quá trình này diễn ra trước mắt. Sự chuyển đổi, xử lý và khoa học đứng sau việc tạo ra một token vẫn chưa được hiểu thấu đáo, và hành trình này còn rất dài. Tôi không cho rằng nó sẽ bị hàng hóa hóa. Khung suy luận bạn vừa mô tả chính là mô hình tư duy nội tâm của tôi về công ty: đầu vào là electron, đầu ra là token, và ở giữa là NVIDIA. Công việc của chúng tôi là thực hiện càng nhiều việc cần thiết càng tốt và càng ít việc không cần thiết càng tốt để đạt được sự chuyển đổi này. “Càng ít” nghĩa là bất cứ việc gì tôi không cần tự mình làm, tôi sẽ đưa một đối tác vào, biến họ thành một phần trong hệ sinh thái của tôi. Nếu bạn nhìn vào NVIDIA ngày nay, chúng tôi sở hữu hệ sinh thái đối tác lớn nhất toàn cầu — bao gồm chuỗi cung ứng đầu vào, tất cả các nhà sản xuất máy tính đầu ra, nhà phát triển ứng dụng, và nhà phát triển mô hình.
AI là một chiếc bánh năm tầng (ứng dụng, mô hình, hạ tầng, chip, năng lượng), và chúng tôi có hệ sinh thái ở mọi tầng. Chúng tôi cố gắng làm ít việc nhất có thể, nhưng phần việc bắt buộc chúng tôi phải làm lại cực kỳ khó khăn. Tôi không cho rằng điều này sẽ bị hàng hóa hóa, và thực tế tôi cũng không nghĩ các công ty phần mềm doanh nghiệp và nhà cung cấp công cụ sẽ bị hàng hóa hóa. Hiện nay, phần lớn các công ty phần mềm về bản chất là nhà sản xuất công cụ, nhưng tôi lại thấy điều ngược lại với đại đa số: số lượng agent AI sẽ tăng theo cấp số mũ, và số lượng người dùng công cụ cũng sẽ tăng theo cấp số mũ. Số lượng phiên bản Synopsys Design Compiler có thể tăng vọt, và số lượng agent sử dụng công cụ bố trí và công cụ kiểm tra quy tắc thiết kế cũng sẽ tăng vọt. Ngày nay chúng ta bị giới hạn bởi số lượng kỹ sư, nhưng ngày mai những kỹ sư này sẽ được hỗ trợ bởi một đội quân agent khổng lồ, và chúng ta sẽ khám phá không gian thiết kế theo cách chưa từng có — bằng chính những công cụ ngày nay. Việc sử dụng công cụ sẽ giúp quy mô các công ty phần mềm tăng vọt; điều này chưa xảy ra chỉ vì các agent hiện vẫn chưa đủ giỏi trong việc sử dụng công cụ. Hoặc những công ty này tự xây dựng agent, hoặc các agent trở nên đủ mạnh để sử dụng các công cụ — tôi tin rằng cả hai khả năng đều sẽ xảy ra.
Dẫn chương trình Dwarkesh: Trong báo cáo tài chính mới nhất của bạn, cam kết mua hàng lên tới gần 100 tỷ USD, bao gồm các nhà máy gia công, bộ nhớ và đóng gói. Báo cáo của SemiAnalysis cho biết con số này có thể lên tới 250 tỷ USD. Một cách diễn giải là: rãnh phòng thủ thực sự của NVIDIA chính là khóa chặt công suất khan hiếm trong nhiều năm — người khác có thể cũng có bộ tăng tốc, nhưng họ có thể mua được bộ nhớ không? Họ có thể mua được chip logic không? Đây có phải là rãnh phòng thủ lớn nhất của NVIDIA trong vài năm tới?
Jensen Huang:
Đây là một trong những việc chúng tôi có thể làm còn người khác rất khó làm. Chúng tôi đã đưa ra những cam kết khổng lồ ở đầu chuỗi cung ứng — một số là cam kết rõ ràng như bạn vừa nhắc đến, một số khác là cam kết ngầm. Ví dụ, rất nhiều khoản đầu tư ở đầu chuỗi cung ứng do các đối tác chuỗi cung ứng chủ động thực hiện, bởi vì tôi nói với CEO của họ: “Hãy để tôi cho bạn biết quy mô ngành công nghiệp này sẽ lớn đến mức nào, để tôi giải thích lý do vì sao, để tôi cùng bạn mô phỏng từng bước, và để tôi cho bạn thấy những gì tôi đang thấy.” Chính nhờ quá trình liên tục thông tin, truyền cảm hứng và cộng tác với các CEO này, họ mới sẵn sàng đầu tư. Tại sao họ sẵn sàng đầu tư vào tôi mà không vào người khác? Bởi vì họ biết NVIDIA có khả năng tiêu thụ toàn bộ sản lượng cung ứng của họ và phân phối ra thị trường thông qua kênh bán hàng phía dưới. Quy mô khổng lồ của chuỗi cung ứng và nhu cầu phía dưới của NVIDIA khiến họ sẵn sàng đặt cược ở phía trên. Bạn hãy xem hội nghị GTC — mọi người đều kinh ngạc trước quy mô và trình độ của những người tham dự — toàn bộ vũ trụ AI hiện diện ở đó, bao phủ toàn diện 360 độ, bởi vì họ cần gặp nhau. Tôi tập hợp họ lại, để phía dưới thấy được phía trên, phía trên thấy được phía dưới, và tất cả đều thấy được những tiến bộ mới nhất của AI. Điều quan trọng là họ đều có thể tận mắt chứng kiến những gì các công ty AI-native và các startup AI đang làm, để xác minh những điều tôi luôn nói với họ. Tôi dành rất nhiều thời gian — trực tiếp hoặc gián tiếp — để giúp chuỗi cung ứng, đối tác và hệ sinh thái hiểu rõ cơ hội đang chờ đợi chúng tôi.
Phần bài phát biểu chính của chúng tôi luôn có một phần khiến người nghe cảm thấy hơi nặng nề, giống như đang đi học — đúng vậy, đó chính là ý định của tôi. Tôi cần đảm bảo toàn bộ chuỗi cung ứng phía trên và phía dưới đều hiểu rõ điều gì sắp tới, vì sao điều đó sẽ tới, khi nào sẽ tới và quy mô sẽ lớn đến mức nào, và có thể mô phỏng hệ thống như tôi. Về rãnh phòng thủ bạn vừa nhắc đến, chúng tôi có thể xây dựng cho tương lai. Nếu quy mô ngành công nghiệp trong vài năm tới đạt mức nghìn tỷ USD, chúng tôi có chuỗi cung ứng đủ sức đáp ứng. Không có phạm vi bao phủ của chúng tôi, tốc độ kinh doanh của chúng tôi — giống như dòng tiền mặt — chuỗi cung ứng cũng có lưu lượng và vòng quay — sẽ chẳng ai xây dựng chuỗi cung ứng cho một kiến trúc có tốc độ vòng quay thấp. Chúng tôi có thể duy trì quy mô này chỉ vì nhu cầu phía dưới của chúng tôi quá mạnh, họ đã thấy, đã nghe, và tất cả đều hiện hữu trước mắt.
Dẫn chương trình Dwarkesh: Tôi muốn tìm hiểu sâu hơn về khả năng cung ứng đầu chuỗi. Trong nhiều năm qua, bạn tăng gấp đôi mỗi năm, và nguồn cung công suất tính toán tăng hơn ba lần mỗi năm — việc tăng gấp đôi ở quy mô này thực sự đáng kinh ngạc. Bạn là khách hàng lớn nhất của TSMC ở nút N3 và cũng là một trong những khách hàng lớn của nút N2. Năm nay, AI chiếm tới 60% tổng sản lượng N3, và theo dự báo của SemiAnalysis, con số này sẽ tăng lên 86% vào năm sau. Khi bạn đã chiếm đa số, làm sao bạn có thể tăng gấp đôi? Và làm sao bạn có thể duy trì điều này mỗi năm?
Jensen Huang:
Ở một mức độ nào đó, nhu cầu tức thời toàn cầu vượt quá tổng cung của cả chuỗi cung ứng phía trên và phía dưới. Đó chính là ngành công nghiệp bạn mong muốn — nhu cầu tức thời vượt quá tổng cung toàn ngành, và điều ngược lại rõ ràng là không tốt; nếu khoảng chênh lệch quá lớn, một khâu cụ thể nào đó sẽ thiếu hụt trầm trọng, và toàn ngành sẽ đổ xô giải quyết vấn đề đó. Ví dụ, hiện nay bạn nghe thấy ít hơn nhiều về các cuộc thảo luận liên quan đến CoWoS, bởi vì trong hai năm qua chúng tôi đã tấn công mạnh mẽ vào điểm nghẽn này và tăng sản lượng lên nhiều lần. Giờ đây TSMC đã hiểu rõ: năng lực sản xuất CoWoS phải đi cùng nhịp với nhu cầu về chip logic và bộ nhớ, và họ đang mở rộng CoWoS và các công nghệ đóng gói tương lai với tốc độ tương đương với chip logic. Trong một thời gian dài, CoWoS và HBM được coi là sản phẩm đặc chủng, nhưng giờ đây chúng không còn là sản phẩm đặc chủng nữa — mọi người đã nhận ra đây là công nghệ tính toán chủ đạo, và hiện nay chúng tôi có thể ảnh hưởng đến phạm vi rộng hơn của chuỗi cung ứng. Ngay từ đầu cuộc cách mạng AI, tôi đã nói những điều này hôm nay. Một số người tin tưởng và đầu tư, ví dụ như Sanjay và nhóm Micron — tôi vẫn nhớ rõ cuộc họp đó, tôi đã trình bày rõ ràng điều gì sẽ xảy ra, vì sao điều đó sẽ xảy ra và dự báo của tôi, và họ thực sự đã đặt cược, chúng tôi hợp tác sâu rộng trong lĩnh vực bộ nhớ LPDDR và HBM, họ đầu tư mạnh mẽ, và kết quả rất tốt cho họ. Một số người đến muộn hơn, nhưng giờ đây họ đều đã có mặt đầy đủ. Mọi điểm nghẽn đều được chú ý rất nhiều, và hiện nay chúng tôi đang dự báo các điểm nghẽn trước nhiều năm. Ví dụ, trong vài năm qua, sự hợp tác của chúng tôi với Lumentum, Coherent và toàn bộ hệ sinh thái quang tử silicon đã hoàn toàn tái cấu trúc chuỗi cung ứng. Chúng tôi đã xây dựng toàn bộ chuỗi cung ứng xung quanh TSMC, hợp tác với họ trên nền tảng COUPE, phát minh ra toàn bộ công nghệ và cấp phép bằng sáng chế cho chuỗi cung ứng, giữ cho toàn bộ hệ sinh thái luôn mở. Chúng tôi hỗ trợ chuỗi cung ứng chuẩn bị cho các thách thức về quy mô thông qua việc phát minh công nghệ mới, quy trình làm việc mới, thiết bị kiểm tra mới như đầu dò hai mặt, và đầu tư vào các công ty để giúp họ mở rộng năng lực sản xuất.
Nếu chúng ta ngăn cản mọi người trở thành kỹ sư phần mềm, chúng ta sẽ đối mặt với tình trạng thiếu hụt kỹ sư phần mềm. Cùng một lời tiên tri đã xảy ra cách đây mười năm. Một số nhà tiên tri tận thế lúc đó nói: “Dù thế nào đi nữa, đừng trở thành bác sĩ chẩn đoán hình ảnh.” Bạn thậm chí có thể tìm thấy những video đó trên mạng ngày nay, nói rằng bác sĩ chẩn đoán hình ảnh sẽ là nghề đầu tiên biến mất, và thế giới sẽ không còn cần bác sĩ chẩn đoán hình ảnh nữa. Hãy đoán xem hiện nay chúng ta đang thiếu gì? Bác sĩ chẩn đoán hình ảnh.
Dẫn chương trình Dwarkesh: Làm thế nào bạn đạt được mức tăng gấp đôi về sản lượng sản xuất chip logic mỗi năm? Cuối cùng thì cả bộ nhớ và chip logic đều phụ thuộc vào EUV.
Jensen Huang:
Tất cả những yếu tố này đều không khó mở rộng trong ngắn hạn. Tất cả đều có thể được giải quyết trong vòng hai hoặc ba năm, chỉ cần có tín hiệu nhu cầu, những điều này không khó sao chép. Còn về việc tôi cần thâm nhập sâu bao nhiêu vào chuỗi cung ứng — một số việc tôi phải thương lượng trực tiếp, một số việc gián tiếp, và một số việc thì: chỉ cần tôi thuyết phục được TSMC, ASML sẽ tự nhiên theo sau. Chúng ta cần cân nhắc các nút then chốt, nhưng nếu TSMC đã được thuyết phục, thì trong vài năm bạn sẽ có đủ máy EUV. Điểm mấu chốt là: mọi điểm nghẽn đều không kéo dài quá hai hoặc ba năm — không ngoại lệ nào cả. Đồng thời, hiệu suất tính toán của mỗi thế hệ chúng tôi tăng từ 10 đến 20 lần, và từ Hopper sang Blackwell là từ 30 đến 50 lần. Chúng tôi liên tục phát minh các thuật toán mới thông qua tính linh hoạt của CUDA để nâng cao hiệu suất, đồng thời mở rộng năng lực sản xuất. Những điều này tôi đều không lo lắng. Tôi lo lắng về những vấn đề phía dưới chuỗi cung ứng của chúng tôi — ví dụ như các chính sách cản trở phát triển năng lượng. Không có năng lượng, bạn không thể xây dựng một ngành công nghiệp; không có năng lượng, bạn không thể thúc đẩy tái công nghiệp hóa, không thể đưa lại sản xuất chip, sản xuất máy tính và đóng gói về Mỹ, không thể sản xuất xe điện và robot, và không thể xây dựng nhà máy AI. Việc mở rộng năng lực sản xuất chip là vấn đề của hai hoặc ba năm; việc mở rộng năng lực sản xuất CoWoS cũng là vấn đề của hai hoặc ba năm.
TPU có phá vỡ vị thế thống trị của NVIDIA trong lĩnh vực tính toán AI?
Dẫn chương trình Dwarkesh: Nếu nhìn vào TPU, có một quan điểm cho rằng hai trong số ba mô hình hàng đầu toàn cầu — Claude và Gemini — được huấn luyện trên TPU. Điều này có ý nghĩa gì đối với NVIDIA?
Jensen Huang:
Chúng tôi làm những việc hoàn toàn khác biệt. NVIDIA làm việc về tính toán tăng tốc, chứ không phải đơn vị xử lý tensor. Tính toán tăng tốc được sử dụng trong nhiều lĩnh vực: động lực học phân tử, động lực học lượng tử, xử lý dữ liệu, xử lý khung dữ liệu, dữ liệu có cấu trúc, dữ liệu phi cấu trúc, động lực học chất lỏng và vật lý hạt, ngoài ra còn dùng trong AI. Phạm vi của tính toán tăng tốc rộng hơn nhiều, mặc dù hiện nay mọi người đều nói về AI, và AI thực sự rất quan trọng, nhưng phạm vi tính toán vượt xa AI. NVIDIA đã định nghĩa lại cách thức tính toán — từ tính toán chung sang tính toán tăng tốc. Thị phần của chúng tôi vượt xa mọi khả năng của TPU hoặc ASIC. Hãy nhìn vào vị thế thị trường của chúng tôi — chúng tôi là công ty duy nhất tăng tốc mọi loại ứng dụng, với hệ sinh thái đồ sộ, mọi framework và thuật toán đều chạy trên nền tảng NVIDIA. Vì máy tính của chúng tôi được thiết kế để sử dụng bởi các nhà vận hành bên ngoài, bất kỳ nhà vận hành nào cũng có thể mua hệ thống của chúng tôi. Hầu hết các hệ thống tự phát triển đều phải tự vận hành, bởi vì chúng chưa bao giờ được thiết kế đủ linh hoạt để người khác vận hành. Chính vì bất kỳ ai cũng có thể vận hành hệ thống của chúng tôi, nên chúng tôi hiện diện trên mọi đám mây, bao gồm Google, Amazon, Azure và OCI. Nếu bạn muốn kiếm tiền từ việc cho thuê, bạn nên có một hệ sinh thái khách hàng đa ngành khổng lồ. Nếu bạn muốn tự dùng, chúng tôi cũng có khả năng hỗ trợ bạn, giống như cách chúng tôi hỗ trợ xAI của Elon. Và vì chúng tôi có thể giúp bất kỳ công ty nào, bất kỳ ngành nào vận hành, bạn có thể sử dụng nó để xây dựng siêu máy tính cho nghiên cứu khoa học và khám phá thuốc của Lilly, hỗ trợ họ vận hành siêu máy tính riêng cho toàn bộ nhu cầu đa dạng trong khám phá thuốc và khoa học sinh học. Còn quá nhiều ứng dụng mà TPU không thể bao phủ. NVIDIA đã biến CUDA thành một đơn vị xử lý tensor tuyệt vời, đồng thời nó cũng xử lý mọi khâu trong vòng đời dữ liệu — xử lý, tính toán, AI, tất cả đều có. Cơ hội thị trường của chúng tôi lớn hơn, phạm vi bao phủ rộng hơn. Bởi vì chúng tôi hỗ trợ mọi ứng dụng trên thế giới, nên bạn biết rằng bất cứ nơi nào bạn triển khai hệ thống NVIDIA, đều sẽ có khách hàng sử dụng nó — đây là một điều hoàn toàn khác biệt.
Dẫn chương trình Dwarkesh: Đây là một câu hỏi khá dài. Bạn có doanh thu đáng kinh ngạc, 60 tỷ USD mỗi quý, nhưng điều này không đến từ dược phẩm hay tính toán lượng tử, mà là do AI là một công nghệ chưa từng có, tăng trưởng với tốc độ chưa từng có. Câu hỏi là: đối với chính AI, đâu là lựa chọn tối ưu?
Tôi trò chuyện với các nhà nghiên cứu AI của mình, và họ nói rằng khi họ sử dụng TPU, đó là một mảng mạch đập khổng lồ được tối ưu hóa đặc biệt cho phép nhân ma trận; còn GPU rất linh hoạt, phù hợp với các tình huống có nhiều nhánh hoặc truy cập bộ nhớ không đều. Nhưng AI là gì? Đó chính là phép nhân ma trận cực kỳ có thể dự đoán được, lặp đi lặp lại. TPU không cần dành diện tích chip cho bộ lập lịch warp hay chuyển đổi giữa luồng và ngân hàng bộ nhớ, mà được tối ưu hóa sâu sắc cho trường hợp sử dụng chủ đạo hiện nay — tăng công suất tính toán. Bạn nghĩ sao về điều này?
Jensen Huang:
Phép nhân ma trận là một phần quan trọng của AI, nhưng không phải là tất cả. Nếu bạn muốn phát minh cơ chế attention mới, thực hiện phân mảnh theo cách khác, hoặc thiết kế hoàn toàn một kiến trúc mới — ví dụ như SSM lai — bạn cần một kiến trúc lập trình chung. Nếu bạn muốn tạo ra một mô hình kết hợp cả kỹ thuật khuếch tán và tự hồi quy, bạn cũng cần kiến trúc lập trình chung. Chúng tôi có thể chạy mọi thứ bạn nghĩ ra, đây là lợi thế của chúng tôi. Khả năng lập trình giúp việc phát minh thuật toán mới dễ dàng hơn nhiều, và việc phát minh thuật toán mới chính là lý do cốt lõi khiến AI tiến bộ nhanh đến vậy. TPU và mọi thứ khác đều chịu ảnh hưởng của định luật Moore — định luật Moore tăng khoảng 25% mỗi năm. Để thực sự đạt được bước nhảy vọt 10 lần, 100 lần, cách duy nhất là thay đổi cơ bản thuật toán và cách tính toán mỗi năm. Đây chính là lợi thế cốt lõi của NVIDIA. Khi tôi lần đầu tiên công bố hiệu năng năng lượng của Blackwell sẽ cao hơn Hopper 35 lần, không ai tin. Sau đó Dylan viết một bài báo nói rằng tôi đã đánh giá thấp, thực tế là 50 lần, điều này không thể đạt được chỉ bằng định luật Moore. Giải pháp của chúng tôi là thiết kế mô hình mới — ví dụ như MoE, song song hóa trên hệ thống tính toán, phân mảnh và triển khai phân tán. Không có CUDA để tạo ra các kernel mới, tôi hoàn toàn không biết bắt đầu từ đâu. Đây là sự kết hợp giữa kiến trúc lập trình được và khả năng thiết kế đồng bộ cực kỳ mạnh mẽ của NVIDIA. Chúng tôi có thể dời một phần tính toán sang fabric NVLink, hoặc dời sang lớp mạng Spectrum-X. Chúng tôi có thể thúc đẩy cải tiến đồng thời trên nhiều cấp độ: bộ xử lý, hệ thống, fabric, thư viện và thuật toán. Không có CUDA, tôi không biết bắt đầu từ đâu.
Dẫn chương trình Dwarkesh: 60% doanh thu của bạn đến từ năm nhà cung cấp dịch vụ điện toán đám mây quy mô lớn hàng đầu, và trong các thời kỳ khách hàng khác nhau — ví dụ như các giáo sư chạy thử nghiệm — họ cần CUDA, không thể dùng bộ tăng tốc khác, phải dùng PyTorch và CUDA. Nhưng các nhà cung cấp dịch vụ điện toán đám mây quy mô lớn này có nguồn lực để viết kernel riêng, thực tế họ cũng phải làm như vậy để khai thác 5% hiệu năng cuối cùng trên kiến trúc cụ thể. Phần lớn Anthropic và Google chạy trên bộ tăng tốc hoặc TPU và Trainium tự phát triển, còn OpenAI dù dùng GPU cũng sử dụng Triton, bởi vì họ cần kernel riêng, đi sâu xuống tận CUDA C++, bỏ qua cuBLAS và NCCL để xây dựng toàn bộ stack riêng, và thậm chí còn có thể biên dịch sang các bộ tăng tốc khác.
Nếu phần lớn khách hàng của bạn đều có thể thay thế CUDA ở một mức độ nào đó, thì CUDA thực sự còn là yếu tố quyết định khiến AI tiên tiến diễn ra trên nền tảng NVIDIA không?
Jensen Huang:
CUDA là một hệ sinh thái cực kỳ phong phú. Nếu bạn muốn xây dựng trên bất kỳ kiến trúc nào trước tiên, việc xây dựng trên CUDA là lựa chọn khôn ngoan nhất, bởi vì hệ sinh thái rất phong phú và chúng tôi hỗ trợ mọi framework. Nếu bạn muốn tạo kernel tùy chỉnh, chúng tôi đã đóng góp rất lớn cho Triton — backend của Triton chứa rất nhiều công nghệ của NVIDIA. Chúng tôi rất sẵn lòng giúp mọi framework trở nên xuất sắc nhất có thể. Có rất nhiều framework: Triton, vLLM, SGLang, và hiện nay các framework hậu huấn luyện và học tăng cường đang bùng nổ, ví dụ như verl và NeMo RL. Toàn bộ lĩnh vực hậu huấn luyện và học tăng cường đang bùng nổ. Vì vậy, nếu bạn muốn xây dựng trên một kiến trúc nào đó, chọn CUDA là lựa chọn khôn ngoan nhất, bởi vì bạn biết hệ sinh thái rất phong phú, và khi có vấn đề xảy ra, khả năng cao là do lỗi trong mã của bạn chứ không phải do “núi mã” ở tầng dưới. Khi có vấn đề xảy ra, là lỗi của bạn hay lỗi của máy? Bạn luôn hy vọng đó là lỗi của bạn, và bạn luôn muốn tin tưởng vào chiếc máy đó. Dĩ nhiên, chúng tôi cũng còn rất nhiều lỗi, nhưng hệ thống của chúng tôi đã được mài giũa đủ tốt để bạn ít nhất có thể xây dựng trên nền tảng này. Thứ hai, với tư cách là một nhà phát triển phần mềm trên bất kỳ nền tảng nào, điều quan trọng nhất là: bạn cần có một cơ sở cài đặt khổng lồ để phần mềm bạn viết có thể chạy trên rất nhiều máy khác nhau. Bạn không viết phần mềm cho chính mình, mà viết cho toàn bộ cụm máy của bạn, hoặc cho toàn bộ cụm máy của người khác, bởi vì bạn là người xây dựng framework, và hệ sinh thái CUDA của NVIDIA là kho báu cốt lõi thực sự. Hiện nay chúng tôi có hàng trăm triệu GPU được triển khai bên ngoài, từ A10, A100, H100, H200, đến các dòng L, P, với mọi kích thước và hình dạng. Nếu bạn là một công ty robot, bạn muốn stack công nghệ CUDA chạy trực tiếp trên chính robot, và chúng tôi hiện diện ở khắp mọi nơi. Cơ sở cài đặt khổng lồ có nghĩa là, một khi bạn phát triển phần mềm hoặc mô hình, nó sẽ hữu ích ở mọi nơi. Giá trị này là không thể thay thế. Cuối cùng, thực tế chúng tôi hiện diện trên mọi đám mây khiến chúng tôi thực sự độc nhất vô nhị. Nếu bạn là một công ty AI hoặc nhà phát triển, bạn chưa chắc chắn sẽ chọn nhà cung cấp dịch vụ đám mây nào, hoặc muốn chạy ở đâu. Chúng tôi có thể chạy ở mọi nơi, kể cả triển khai riêng tư của bạn. Sự phong phú của hệ sinh thái, phạm vi rộng lớn của cơ sở cài đặt và sự đa dạng trong việc triển khai của chúng tôi — ba yếu tố này kết hợp lại khiến CUDA trở nên vô cùng có giá trị.
Dẫn chương trình Dwarkesh: Nhưng tôi tò mò không biết những lợi thế này có quan trọng tương tự đối với khách hàng chính của bạn không? Trong số những khách hàng lớn, có rất nhiều người có thể tự xây dựng stack phần mềm. Đặc biệt khi AI ngày càng mạnh mẽ trong các lĩnh vực có vòng kiểm tra nghiêm ngặt, câu hỏi đặt ra là — tất cả các nhà cung cấp dịch vụ điện toán đám mây quy mô lớn đều có thể tự viết kernel không? NVIDIA vẫn rất tốt về hiệu quả chi phí, họ có thể vẫn thiên về NVIDIA, nhưng vấn đề là: điều này có trở thành một cuộc cạnh tranh thuần túy dựa trên thông số kỹ thuật tốt nhất, và mỗi đô la mua được bao nhiêu công suất tính toán và băng thông bộ nhớ không? Trong lịch sử, biên lợi nhuận gộp của NVIDIA vượt quá 70%, chính nhờ rãnh phòng thủ CUDA. Nếu phần lớn khách hàng thực tế có thể thay thế CUDA, biên lợi nhuận này còn duy trì được không?
Jensen Huang:
Số lượng kỹ sư mà chúng tôi phân bổ cho các phòng thí nghiệm AI này là vô cùng lớn, nhằm hợp tác và tối ưu hóa stack công nghệ của họ. Lý do rất đơn giản: không ai hiểu kiến trúc của chúng tôi sâu hơn chính chúng tôi. Những kiến trúc này không phổ quát như CPU — CPU giống như một chiếc Cadillac, một chiếc xe sang trọng êm ái, tốc độ không nhanh, nhưng ai cũng có thể lái, có cruise control, mọi thứ đều rất thuận tiện. GPU của NVIDIA là bộ tăng tốc, giống như một chiếc xe đua F1. Người bình thường lái nó với vận tốc 100 km/h thì không vấn đề gì, nhưng để khai thác tối đa tiềm năng, bạn cần kỹ năng rất cao. Chúng tôi sử dụng AI một cách mạnh mẽ để tự tạo ra các kernel riêng. Tôi khá chắc chắn rằng, trong một thời gian dài, chúng tôi vẫn sẽ là yếu tố không thể thiếu. Chuyên môn của chúng tôi giúp các đối tác phòng thí nghiệm AI của chúng tôi khai thác thêm 2 lần hiệu năng từ stack công nghệ của họ — và thường là rất dễ dàng. Khi chúng tôi tối ưu hóa một kernel cụ thể, hoặc toàn bộ stack của họ, việc mô hình của họ tăng tốc 2 lần, 3 lần hoặc 50% là điều rất bình thường. Đây là một con số khổng lồ, đặc biệt khi nói đến cơ sở cài đặt Hopper và Blackwell đã rất lớn của họ — nếu hiệu năng tăng gấp đôi, điều đó trực tiếp tương ứng với doanh thu tăng gấp đôi. Chuỗi tính toán của NVIDIA là chuỗi có hiệu quả chi phí tốt nhất thế giới — không ngoại lệ nào. Không nền tảng nào có thể chứng minh với tôi rằng nó hiện nay có tỷ lệ hiệu năng/trị giá sở hữu tổng thể (TCO) tốt hơn. Không có nền tảng nào cả. Benchmark InferenceMAX vẫn đang tồn tại ở đó, chào mừng tất cả mọi người chạy thử, nhưng TPU không đến, Trainium cũng không đến. Tôi hoan nghênh họ sử dụng InferenceMAX để chứng minh lợi thế chi phí 40% mà họ tuyên bố, nhưng không ai muốn đến. Thứ hai, bạn nói 60% khách hàng là năm nhà cung cấp dịch vụ điện toán đám mây quy mô lớn hàng đầu, nhưng trong số đó phần lớn là nghiệp vụ bên ngoài — rất nhiều NVIDIA trên AWS là dành cho khách hàng bên ngoài, không phải tự dùng của AWS; khách hàng trên Azure đều là khách hàng bên ngoài; OCI cũng vậy. Họ ưa chuộng chúng tôi vì phạm vi bao phủ của chúng tôi rất rộng, và chúng tôi có thể mang đến những khách hàng hàng đầu từ mọi ngành. Những khách hàng này đều xây dựng trên nền tảng NVIDIA, bởi vì phạm vi bao phủ và tính linh hoạt của chúng tôi là vô song. Vòng xoáy là: cơ sở cài đặt, khả năng lập trình kiến trúc, sự phong phú của hệ sinh thái, cộng với hàng chục nghìn công ty AI trên toàn cầu. Nếu bạn là một trong những startup AI, bạn sẽ chọn kiến trúc nào? Kiến trúc phong phú nhất. Kiến trúc có cơ sở cài đặt lớn nhất. Kiến trúc có hệ sinh thái phong phú nhất. Đó là cách vòng xoáy vận hành, cộng với lợi nhuận tính toán trên mỗi đơn vị cao nhất và hiệu năng trên mỗi watt cao nhất — nếu đối tác của bạn xây dựng một trung tâm dữ liệu 1 GW, trung tâm dữ liệu đó phải tạo ra nhiều token nhất và doanh thu lớn nhất, và chúng tôi là kiến trúc có hiệu suất token trên mỗi watt cao nhất toàn cầu. Nếu mục tiêu của bạn là cho thuê hạ tầng, chúng tôi có khách hàng nhiều nhất toàn cầu. Đó là lý do vòng xoáy có thể vận hành.
Dẫn chương trình Dwarkesh: Anthropic vừa công bố một đơn hàng TPU quy mô nhiều GW, hợp tác với Broadcom và Google, và phần lớn công suất tính toán của họ đến từ TPU. Nếu tôi nhìn vào các công ty AI lớn, dường như một lượng lớn công suất tính toán đang chuyển từ NVIDIA sang. Làm thế nào để giải thích hiện tượng này?
Jensen Huang:
Anthropic là một trường hợp đặc biệt, không phải là một xu hướng. Không có Anthropic, tăng trưởng TPU sẽ đến từ đâu? Đó là 100% đến từ Anthropic. Không có Anthropic, tăng trưởng Trainium sẽ đến từ đâu? Cũng là 100% đến từ Anthropic. Điều này khá phổ biến và hầu như ai cũng hiểu. Đây không phải là việc có một loạt cơ hội ASIC bùng nổ, mà chỉ có một Anthropic.
Tôi sẽ không cảm thấy khó chịu khi người khác dùng thứ khác hoặc thử hướng mới. Nếu họ không thử thứ khác, làm sao họ biết chúng tôi tuyệt vời đến mức nào? Đôi khi cần một điểm tham chiếu để nhắc nhở chính mình. Chúng ta phải liên tục giành lại vị thế thị trường của mình. Luôn có đủ những lời nói khoác lác, hãy xem bao nhiêu dự án ASIC đã bị hủy bỏ. Việc xây dựng thứ gì đó tốt hơn NVIDIA không dễ dàng chút nào. NVIDIA sai ở đâu, khiến mọi người cảm thấy điều này hợp lý? Bởi vì quy mô của chúng tôi, tốc độ lặp lại của chúng tôi, và chúng tôi là công ty duy nhất trên toàn cầu tiến bộ từng bước lớn mỗi năm.
Biên lợi nhuận của ASIC khá cao, của NVIDIA là 70%, của ASIC là 65%. Biên lợi nhuận gộp của ASIC, theo những gì tôi thấy, là rất tốt, và họ cũng nghĩ như vậy, tự hào về biên lợi nhuận gộp ASIC tốt của mình. Vậy, tại sao lại như vậy? Từ rất lâu trước đây, chúng tôi hoàn toàn không có khả năng làm điều này. Lúc đó tôi chưa hiểu sâu sắc việc xây dựng các phòng thí nghiệm AI nền tảng như OpenAI và Anthropic khó khăn đến mức nào, và họ cần khoản đầu tư khổng lồ từ chính nhà cung cấp. Lúc đó chúng tôi không có khả năng đầu tư hàng tỷ USD vào Anthropic để đổi lấy việc họ dùng công suất tính toán của chúng tôi. Google và AWS có khả năng này, họ đã đầu tư mạnh vào Anthropic từ giai đoạn đầu, nên Anthropic sử dụng công suất tính toán của họ. Lúc đó tôi không có điều kiện đó. Sai lầm của tôi nằm ở chỗ tôi chưa nhận thức sâu sắc rằng họ thực sự không còn lựa chọn nào khác — các quỹ đầu tư mạo hiểm sẽ không bao giờ rót từ 5 đến 10 tỷ USD vào một phòng thí nghiệm AI và kỳ vọng nó trở thành Anthropic ngày nay. Đây là điểm mù của tôi. Nhưng ngay cả khi tôi hiểu rõ điều đó, chúng tôi cũng chưa chắc có điều kiện đó, nhưng tôi sẽ không mắc lại sai lầm tương tự. Tôi rất vui khi đầu tư vào OpenAI, rất vui khi giúp họ mở rộng quy mô, và tôi cho rằng đây là việc bắt buộc phải làm. Khi chúng tôi có khả năng, và khi Anthropic đến tìm chúng tôi, tôi rất vui khi trở thành nhà đầu tư, rất vui khi giúp họ mở rộng quy mô. Chỉ là lúc đó chưa thể làm được. Nếu có thể quay ngược thời gian, và nếu lúc ấy NVIDIA đã có quy mô như ngày nay, tôi rất sẵn lòng hành động như vậy.
Tại sao NVIDIA không trực tiếp trở thành nhà cung cấp dịch vụ điện toán đám mây quy mô lớn?
Dẫn chương trình Dwarkesh: Trong nhiều năm qua, NVIDIA luôn là công ty kiếm tiền trong lĩnh vực AI, và kiếm được rất nhiều tiền. Giờ đây các bạn bắt đầu đầu tư, theo báo cáo bạn đã đầu tư 30 tỷ USD vào OpenAI và 10 tỷ USD vào Anthropic. Giá trị định giá của họ đã tăng mạnh và chắc chắn sẽ tiếp tục tăng. Trong suốt thời gian dài, bạn luôn cung cấp công suất tính toán cho họ, bạn thấy được hướng đi, và giá trị của họ cách đây một năm chỉ bằng một phần mười giá trị ngày nay — trong khi lúc đó bạn đã có rất nhiều tiền mặt.
Một giả định là: hoặc NVIDIA tự thành lập một phòng thí nghiệm mô hình nền tảng, hoặc thực hiện các khoản đầu tư như hiện nay với mức định giá thấp hơn nhiều. Bạn có tiền mặt, tại sao không làm sớm hơn?
Jensen Huang:
Chúng tôi đã làm khi có thể. Nếu tôi có thể làm sớm hơn, tôi sẽ làm. Khi Anthropic cần chúng tôi hành động, chúng tôi thực sự không có điều kiện đó, và cũng chưa có nhận thức và tư duy như vậy.
Đó là vấn đề quy mô đầu tư. Lúc đó chúng tôi chưa từng đầu tư bên ngoài công ty, và chưa từng đầu tư số tiền lớn như vậy. Chúng tôi chưa nhận ra cần phải làm như vậy. Tôi luôn nghĩ họ có thể đi tìm vốn đầu tư mạo hiểm như mọi công ty khác. Nhưng điều họ muốn làm là điều mà VC không thể hoàn thành. Điều OpenAI muốn làm cũng là điều mà VC không thể hoàn thành. Đây chính là điểm cao minh của họ, và cũng là sự thông minh của họ — họ đã nhận ra từ đầu rằng phải đi một con đường khác. Tôi rất vui khi họ làm như vậy. Ngay cả khi vì sự vắng mặt của chúng tôi, Anthropic buộc phải chuyển sang người khác, tôi vẫn rất vui vì điều này đã xảy ra. Sự tồn tại của Anthropic là điều tốt cho thế giới, và tôi rất vui vì điều đó.
Dẫn chương trình Dwarkesh: Bạn vẫn đang kiếm rất nhiều tiền, và mỗi quý lại kiếm được nhiều hơn. Bây giờ câu hỏi là: NVIDIA nên dùng số tiền này để làm gì? Một câu trả lời là: hiện nay có cả một hệ sinh thái trung gian, chuyển đổi chi phí đầu tư (CapEx) thành chi phí vận hành (OpEx), cung cấp cho các phòng thí nghiệm này để cho thuê công suất tính toán — bởi vì chip rất đắt, nhưng khi các mô hình AI ngày càng tốt hơn, giá trị mà chúng tạo ra trong suốt vòng đời ngày càng lớn. NVIDIA có đủ tiền để thực hiện CapEx, theo báo cáo bạn đã bảo lãnh tới 6,3 tỷ USD và đầu tư 2 tỷ USD vào CoreWeave. Tại sao NVIDIA không tự làm dịch vụ điện toán đám mây, tự trở thành nhà cung cấp dịch vụ điện toán đám mây quy mô lớn và cho thuê công suất tính toán này? Bạn có đủ tiền mặt.
Jensen Huang:
Đây là vấn đề triết lý kinh doanh, và tôi cho rằng đó là một triết lý khôn ngoan. Chúng ta nên làm càng nhiều việc cần thiết càng tốt và càng ít việc không cần thiết càng tốt. Điều này nghĩa là: công việc chúng ta đang làm để xây dựng nền tảng tính toán — nếu chúng ta không làm, tôi thực sự tin rằng sẽ chẳng ai làm. Nếu chúng ta không đảm nhận những rủi ro mà chúng ta đang đảm nhận — nếu chúng ta không xây dựng NVLink theo cách của mình, không xây dựng toàn bộ stack công nghệ, không nuôi dưỡng hệ sinh thái theo cách của mình, không tập trung vào CUDA trong 20 năm và phần lớn thời gian đều lỗ — nếu không phải chúng ta làm, sẽ chẳng ai làm. Nếu chúng ta không tạo ra tất cả những thư viện chuyên biệt CUDA-X, dù là cho việc tạo bóng, tạo hình ảnh, hay các công việc AI sơ khai, dù là xử lý dữ liệu, xử lý dữ liệu có cấu trúc hay xử lý dữ liệu vector, nếu không phải chúng ta làm, sẽ chẳng ai làm. Ví dụ, chúng ta đã tạo ra cuLitho cho quang khắc tính toán — nếu không phải chúng ta làm, sẽ chẳng ai làm.
Vì vậy, tính toán tăng tốc sẽ không phát triển như ngày nay nếu không phải chúng ta làm việc này. Vì vậy, chúng ta nên làm. Chúng ta nên dồn toàn lực để làm việc này. Nhưng trên thế giới không thiếu dịch vụ điện toán đám mây — nếu không phải chúng ta làm, người khác sẽ làm. Theo triết lý “làm càng nhiều việc cần thiết càng tốt và càng ít việc không cần thiết càng tốt”, nếu không hỗ trợ sự tồn tại của CoreWeave, những đám mây AI mới nổi này sẽ không xuất hiện. Nếu không hỗ trợ CoreWeave, họ sẽ không tồn tại. Nếu không hỗ trợ Nscale, họ sẽ không có ngày hôm nay. Nếu không hỗ trợ Nebius, họ sẽ không có ngày hôm nay. Giờ đây họ đều phát triển rất tốt. Đây có phải là một mô hình kinh doanh không — chúng ta nên làm càng nhiều việc cần thiết càng tốt và càng ít việc không cần thiết càng tốt. Vì vậy, chúng ta đầu tư vào hệ sinh thái, bởi vì tôi muốn hệ sinh thái của chúng ta phát triển mạnh mẽ. Tôi muốn kiến trúc và AI này kết nối với càng nhiều ngành công nghiệp, càng nhiều quốc gia càng tốt, để toàn cầu có thể xây dựng trên nền tảng AI, và xây dựng trên nền tảng công nghệ Mỹ — đây là tầm nhìn chúng ta đang theo đuổi.
Khi NVIDIA được thành lập, có 60 công ty đồ họa 3D, và chúng tôi là công ty ít có khả năng sống sót nhất. Kiến trúc đồ họa của NVIDIA lúc đó chính xác là sai, không phải sai một chút, mà là hoàn toàn ngược hướng, khiến các nhà phát triển hoàn toàn không thể hỗ trợ. Từ những nguyên lý đầu tiên tốt đẹp, chúng tôi suy luận ra một đáp án sai, và bất kỳ ai cũng sẽ loại bỏ chúng tôi. Nhưng hiện nay chúng tôi đang ở đây, vì vậy tôi đủ khiêm tốn để nhận ra điều này: đừng đặt cược vào người chiến thắng. Hoặc để họ tự quyết định, hoặc cho tất cả mọi người cơ hội.
Dẫn chương trình Dwarkesh: Nhưng bạn liệt kê một loạt đám mây mới nổi sẽ không tồn tại nếu không có NVIDIA, điều này mâu thuẫn thế nào với “không chọn người chiến thắng”?
Jensen Huang:
Thứ nhất, họ phải chủ động tìm đến để được giúp đỡ. Khi họ muốn tồn tại, có kế hoạch kinh doanh, có năng lực chuyên môn và nhiệt huyết — đương nhiên, họ cũng phải có một số năng lực nhất định. Nhưng nếu cuối cùng họ cần một khoản đầu tư để khởi động, chúng tôi sẽ ở đó để hỗ trợ họ. Một khi vòng xoáy của họ bắt đầu quay, chúng tôi hy vọng họ sẽ sớm độc lập. Câu hỏi của bạn là “chúng ta có muốn làm kinh doanh tài chính không” — câu trả lời là không. Có những công ty chuyên làm tài chính, chúng tôi thích hợp tác với tất cả những công ty tài chính này hơn là tự làm nhà tài chính. Mục tiêu của chúng tôi là tập trung vào việc chúng tôi làm, giữ mô hình kinh doanh càng đơn giản càng tốt, và hỗ trợ hệ sinh thái của chúng tôi. Khi một công ty như OpenAI, trước IPO, cần khoản đầu tư quy mô 30 tỷ USD, và chúng tôi tin chắc rằng họ sẽ trở thành một công ty tuyệt vời — họ ngày nay đã là như vậy, họ sẽ là một công ty tuyệt vời chưa từng có trong tương lai, thế giới cần họ tồn tại, thế giới muốn họ tồn tại, tôi muốn họ tồn tại, và gió đang thổi mạnh về phía họ — hỗ trợ họ, giúp họ phát triển. Những khoản đầu tư như vậy chúng tôi sẽ làm, bởi vì họ cần chúng tôi làm điều đó. Nhưng chúng tôi không làm càng nhiều càng tốt, mà là làm càng ít càng tốt.
Dẫn chương trình Dwarkesh: Chủ đề phân bổ GPU — chúng ta luôn trong tình trạng thiếu GPU. NVIDIA được cho là phân bổ công suất khan hiếm theo một cách không chỉ dựa trên đấu giá, ví dụ như đảm bảo các đám mây mới nổi như CoreWeave, Crusoe, Lambda có thể nhận được một phần. Tại sao điều này lại tốt cho NVIDIA? Trước tiên, bạn có đồng ý với mô tả “phân chia thị phần” này không?
Jensen Huang:
Không, tiền đề của bạn sai, chúng tôi cân nhắc những vấn đề này rất kỹ lưỡng. Thứ nhất, nếu bạn không đặt đơn hàng mua (PO), thì nói gì cũng vô ích. Trước khi có PO, chúng tôi có thể làm gì? Vì vậy, việc đầu tiên, chúng tôi rất nỗ lực làm việc dự báo cùng tất cả mọi người, bởi vì những thứ này cần rất nhiều thời gian để xây dựng, và trung tâm dữ liệu cũng cần rất nhiều thời gian để xây dựng. Chúng tôi điều phối cung cầu thông qua dự báo — đây là nhiệm vụ ưu tiên hàng đầu. Thứ hai, chúng tôi cố gắng làm dự báo cùng càng nhiều người càng tốt, nhưng cuối cùng vẫn phải đặt đơn hàng.
Có thể vì một số lý do nào đó, bạn chưa đặt đơn hàng kịp thời, vậy tôi có thể làm gì? Ưu tiên theo thứ tự đến trước — nếu bạn chưa sẵn sàng — trung tâm dữ liệu chưa sẵn sàng, hoặc một số linh kiện chưa到位 khiến bạn không thể đưa vào hoạt động — chúng tôi có thể quyết định phục vụ khách hàng khác trước, chỉ để tối đa hóa hiệu suất sản xuất của nhà máy chúng tôi, và sẽ có một số điều chỉnh như vậy. Ngoài ra, nguyên tắc ưu tiên là đến trước được phục vụ trước, và phải đặt PO mới được tính. Những câu chuyện về Larry và Elon ăn tối với tôi và van nài GPU hoàn toàn không tồn tại. Chúng tôi thực sự đã ăn tối, đó là một bữa tối tuyệt vời, nhưng họ chưa bao giờ van nài GPU, họ chỉ cần đi đặt đơn hàng. Một khi đặt đơn hàng, chúng tôi sẽ nỗ lực hết sức để giành công suất. Chúng tôi không phức tạp.
Dẫn chương trình Dwarkesh: Vì vậy có một hàng đợi, được xác định bởi việc trung tâm dữ liệu của bạn đã sẵn sàng chưa và bạn đặt đơn hàng mua khi nào. Nhưng nghe có vẻ không hoàn toàn dựa trên người trả giá cao nhất. Tại sao không làm như vậy?
Jensen Huang:
Chúng tôi chưa bao giờ làm như vậy, và sẽ không bao giờ làm. Đây là một thực tiễn kinh doanh xấu; bạn đặt giá, và mọi người quyết định mua hay không. Tôi biết trong ngành chip có những công ty khác sẽ tăng giá khi nhu cầu tăng cao, nhưng chúng tôi không làm như vậy. Đây chưa bao giờ là cách làm của chúng tôi. Bạn có thể tin tưởng chúng tôi. Tôi thích trở thành một cơ sở hạ tầng công nghiệp đáng tin cậy. Không cần đoán — tôi báo cho bạn một giá, thì đó chính là giá đó, dù nhu cầu có mạnh đến đâu cũng vẫn là giá đó. Mối quan hệ giữa NVIDIA và TSMC cũng như vậy, hai bên không có hợp đồng pháp lý, đôi khi tôi được lợi, đôi khi tôi thiệt, nhưng nhìn chung mối quan hệ này rất tốt, tôi hoàn toàn tin tưởng họ, hoàn toàn phụ thuộc vào họ. Một điều bạn có thể tin tưởng ở NVIDIA là: năm nay Vera Rubin sẽ rất xuất sắc, năm sau Vera Rubin Ultra sẽ ra đời, và năm sau nữa Feynman sẽ xuất hiện. Mỗi năm bạn đều có thể tin tưởng chúng tôi. Bạn hãy đi khắp thế giới tìm bất kỳ đội ngũ ASIC nào, xem liệu bạn có thể nói “Tôi có thể đặt toàn bộ doanh nghiệp của mình vào tay bạn, đảm bảo bạn sẽ luôn ở đây bên tôi mỗi năm, chi phí token mỗi năm giảm một bậc, tôi có thể tin tưởng bạn như tin vào đồng hồ” — với bất kỳ nhà máy nào khác, bạn hoàn toàn không thể nói điều này. Nhưng với NVIDIA, bạn có thể nói điều này ngay hôm nay. Nếu bạn muốn mua công suất tính toán cho nhà máy AI trị giá 1 tỷ USD, không vấn đề gì; 100 triệu USD, không vấn đề gì; 10 triệu USD, một tủ rack, một chiếc card đồ họa, đều không vấn đề gì; đơn hàng 100 tỷ USD, cũng không vấn đề gì — chúng tôi là công ty duy nhất trên toàn cầu cho phép bạn nói như vậy. Chúng tôi cũng như vậy với TSMC: mua một chiếc hay mua 1 tỷ chiếc, đều không vấn đề gì, chỉ cần hoàn tất quy trình kế hoạch và làm tốt mọi việc đã chín muồi. Vị thế của NVIDIA như một cơ sở hạ tầng toàn cầu cho ngành AI đã mất vài thập kỷ để đạt được, đòi hỏi cam kết và cống hiến khổng lồ, cũng như sự ổn định và nhất quán của công ty.
Chúng ta có nên bán chip AI cho Trung Quốc?
Dẫn chương trình Dwarkesh: Anthropic vừa ra mắt phiên bản xem trước của Claude Mythos cách đây vài ngày, mô hình này thậm chí họ còn không công bố công khai, bởi vì họ nói rằng nó có khả năng tấn công mạng mạnh đến mức, trước khi vá xong các lỗ hổng zero-day, thế giới vẫn chưa sẵn sàng. Họ nói rằng nó đã phát hiện hàng ngàn lỗ hổng nghiêm trọng trong mọi hệ điều hành chính và mọi trình duyệt, thậm chí phát hiện một lỗ hổng trong OpenBSD — hệ điều hành được thiết kế đặc biệt để không có lỗ hổng zero-day — và tìm ra một lỗ hổng đã tồn tại 27 năm.
Nếu các công ty, phòng thí nghiệm và chính phủ Trung Quốc có chip AI để huấn luyện các mô hình như Claude Mythos có khả năng tấn công mạng, và chạy hàng triệu phiên bản, thì đây có phải là mối đe dọa đối với các công ty Mỹ và an ninh quốc gia không?
Jensen Huang:
Thứ nhất, Mythos được huấn luyện trên công suất tính toán khá bình thường và với quy mô khá bình thường, từ một công ty phi thường. Khả năng tính toán và nguồn lực tính toán cần thiết để huấn luyện của
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News













