
“Ngày Lượng tử” của NVIDIA bắn hai phát đạn: Mô hình AI mã nguồn mở Ising làm “nóng” cổ phiếu lĩnh vực lượng tử, AI nội bộ hoàn thành thiết kế chip trong một đêm – khối lượng công việc tương đương 80 người/tháng
Tuyển chọn TechFlowTuyển chọn TechFlow

“Ngày Lượng tử” của NVIDIA bắn hai phát đạn: Mô hình AI mã nguồn mở Ising làm “nóng” cổ phiếu lĩnh vực lượng tử, AI nội bộ hoàn thành thiết kế chip trong một đêm – khối lượng công việc tương đương 80 người/tháng
Thiết kế chip AI hiện tại của NVIDIA vẫn mang tính hỗ trợ chứ chưa thể thay thế.
Tác giả: Claude, TechFlow
Giới thiệu của TechFlow: Vào ngày 14 tháng 4 – Ngày Lượng tử Thế giới, NVIDIA đã ra mắt gia đình mô hình AI lượng tử mã nguồn mở đầu tiên trên toàn cầu mang tên Ising, với tốc độ giải mã sửa lỗi nhanh hơn 2,5 lần và độ chính xác cao hơn 3 lần so với tiêu chuẩn ngành.
Các cổ phiếu liên quan đến công nghệ lượng tử tăng mạnh đồng loạt trong ngày công bố: IonQ tăng 18%, D-Wave tăng 15%. Cùng ngày, nhà khoa học trưởng William Dally của NVIDIA tại hội nghị GTC 2026 tiết lộ rằng AI đã rút ngắn thời gian chuyển đổi thư viện ô chuẩn (standard cell library) cho chip từ 8 kỹ sư làm việc trong 10 tháng xuống còn chỉ một đêm sử dụng một GPU duy nhất — đồng thời kết quả thiết kế còn vượt trội hơn cả thiết kế thủ công.
NVIDIA đang dùng AI để đẩy nhanh hai bài toán kỹ thuật khó nhất: biến máy tính lượng tử thực sự khả dụng, và làm cho quá trình thiết kế GPU trở nên nhanh hơn, tốt hơn.
Vào “Ngày Lượng tử Thế giới” 14 tháng 4, NVIDIA đã ra mắt gia đình mô hình AI lượng tử mã nguồn mở đầu tiên trên toàn cầu – NVIDIA Ising – nhằm vào lĩnh vực tính toán lượng tử. Ngay sau đó, các cổ phiếu công nghệ lượng tử đồng loạt tăng mạnh. Cùng lúc đó, nhà khoa học trưởng William Dally của công ty cũng tiết lộ tại hội nghị GTC 2026 những tiến triển mới nhất của AI trong quy trình thiết kế chip nội bộ NVIDIA, trong đó hiệu suất của một nhiệm vụ cụ thể được cải thiện tới hàng trăm lần.
Hai dòng thông tin này cùng dẫn tới một kết luận: AI đang chuyển mình từ một “công cụ ở tầng ứng dụng” thành “cơ sở hạ tầng của cơ sở hạ tầng”, vừa thúc đẩy các ngành công nghiệp phía dưới (tính toán lượng tử), vừa đẩy nhanh chu kỳ đổi mới phần cứng của chính AI.
Gia đình mô hình AI lượng tử mã nguồn mở đầu tiên trên thế giới, nhắm vào hai điểm nghẽn then chốt của tính toán lượng tử
Theo thông cáo báo chí của NVIDIA ngày 14 tháng 4, gia đình mô hình Ising bao gồm hai mô hình đầu tiên thuộc hai lĩnh vực: Ising Calibration và Ising Decoding, lần lượt giải quyết hai điểm nghẽn cốt lõi trong việc thương mại hóa tính toán lượng tử.
Các qubit (bit lượng tử) trong bộ xử lý lượng tử vốn dĩ dễ bị nhiễu; hiện nay bộ xử lý lượng tử tốt nhất vẫn mắc khoảng một lỗi sau mỗi nghìn phép tính. Để máy tính lượng tử đạt được giá trị thực tiễn, tỷ lệ lỗi cần giảm xuống dưới mức một phần một nghìn tỷ.
Ising Calibration là một mô hình ngôn ngữ – thị giác có 35 tỷ tham số, tự động diễn giải dữ liệu đo lường từ bộ xử lý lượng tử và đưa ra quyết định hiệu chuẩn, giúp rút ngắn quy trình hiệu chuẩn trước đây kéo dài vài ngày xuống còn chỉ vài giờ. Còn Ising Decoding là một cặp mô hình mạng nơ-ron tích chập 3D (một tối ưu về tốc độ, một tối ưu về độ chính xác), dùng để giải mã thời gian thực trong sửa lỗi lượng tử — nhanh hơn 2,5 lần và chính xác hơn 3 lần so với pyMatching, tiêu chuẩn mã nguồn mở hiện hành trong ngành.
Sam Stanwyck, Giám đốc sản phẩm lượng tử của NVIDIA, giải thích lý do chọn chiến lược mã nguồn mở tại buổi ra mắt: đặc điểm nhiễu của từng nhà sản xuất phần cứng lượng tử là khác nhau; việc mã nguồn mở cho phép họ tinh chỉnh mô hình cục bộ bằng dữ liệu riêng, vừa nâng cao hiệu năng vừa bảo vệ dữ liệu chuyên biệt.
Phát biểu của Giám đốc điều hành NVIDIA – ông Jen-Hsun Huang – còn trực diện hơn. Trong tuyên bố của mình, ông khẳng định AI đang trở thành mặt phẳng điều khiển (control plane) cho các hệ thống máy tính lượng tử, biến các qubit mong manh thành các hệ thống GPU lượng tử có khả năng mở rộng và đáng tin cậy.
Theo tiết lộ của NVIDIA, nhiều tổ chức hàng đầu đã sớm áp dụng các mô hình Ising, bao gồm Trường Kỹ thuật và Khoa học Ứng dụng thuộc Đại học Harvard, Phòng thí nghiệm Gia tốc Quốc gia Fermilab, IQM Quantum Computers, Phòng thí nghiệm Quốc gia Lawrence Berkeley và Phòng thí nghiệm Vật lý Quốc gia Anh.
Các cổ phiếu công nghệ lượng tử đồng loạt tăng mạnh: IonQ tăng vọt 18% trong một ngày
Ngày ra mắt Ising, các cổ phiếu công nghệ lượng tử trên thị trường chứng khoán Mỹ đồng loạt tăng mạnh. Theo dữ liệu từ Yahoo Finance, IonQ tăng khoảng 18%, D-Wave Quantum tăng khoảng 15%, Rigetti Computing tăng khoảng 12%.
Đợt tăng này diễn ra trong bối cảnh các cổ phiếu công nghệ lượng tử nói chung đều đang trong đà điều chỉnh sâu kể từ đầu năm. Tính đến trước ngày 14 tháng 4, IonQ giảm khoảng 22%, D-Wave giảm khoảng 35%, Rigetti giảm khoảng 23% so với đầu năm. Đợt phục hồi hai chữ số trong ngày không làm thay đổi xu hướng giảm chung của năm, nhưng mức độ đồng loạt và mạnh mẽ vẫn rất đáng chú ý.

Cần lưu ý rằng động lực thúc đẩy đợt tăng này không chỉ đến từ việc ra mắt Ising. Cùng ngày, IonQ cũng công bố bước tiến mang tính mốc trong lĩnh vực mạng lượng tử và một hợp đồng với Cơ quan Nghiên cứu Dự án Quốc phòng Tiên tiến Mỹ (DARPA); Rigetti cũng thông báo nhận được đơn đặt hàng trị giá 8,4 triệu USD từ Trung tâm Phát triển Tính toán Cao cấp Ấn Độ (C-DAC). Việc nhiều yếu tố kích thích cộng hưởng đã khuếch đại hiệu ứng lan tỏa trên toàn ngành.
Cơ quan phân tích Resonance dự báo quy mô thị trường tính toán lượng tử toàn cầu sẽ vượt 11 tỷ USD vào năm 2030. Liên minh Kinh tế Lượng tử (QED-C), trong báo cáo phát hành cùng ngày, cho biết thị trường lượng tử toàn cầu đã đạt 1,9 tỷ USD vào năm 2025, đồng thời số nhân sự tại các doanh nghiệp thuần lượng tử tăng 14%.
Từ 80 người-tháng xuống còn một đêm: AI tái cấu trúc quy trình thiết kế chip của NVIDIA
Trong khi Ising tập trung vào việc đẩy nhanh các ngành bên ngoài, NVIDIA lại dùng AI để tái cấu trúc chính quy trình thiết kế chip nội bộ.
Tại cuộc đối thoại giữa nhà khoa học trưởng William Dally của NVIDIA và nhà khoa học trưởng Jeff Dean của Google trong khuôn khổ GTC 2026, ông Dally đã tiết lộ nhiều ví dụ cụ thể. Dữ kiện gây ấn tượng mạnh nhất đến từ khâu chuyển đổi thư viện ô chuẩn: mỗi khi NVIDIA chuyển sang một quy trình bán dẫn mới (ví dụ từ 7nm sang 5nm), cần thiết kế lại khoảng 2.500–3.000 ô chuẩn cho phù hợp với quy trình mới — công việc trước đây đòi hỏi 8 kỹ sư làm việc trong khoảng 10 tháng. Hiện nay, NVIDIA đã phát triển một công cụ học tăng cường mang tên NVCell, cho phép hoàn tất toàn bộ quá trình này chỉ trong một đêm trên một GPU duy nhất, đồng thời kết quả đầu ra đạt hoặc thậm chí vượt trội hơn thiết kế thủ công về các chỉ số như diện tích chiếm chỗ, mức tiêu thụ điện năng và độ trễ.
Theo báo cáo của Tom’s Hardware, ông Dally ví quy trình này giống như một “trò chơi điện tử sửa lỗi quy tắc thiết kế”, trong khi học tăng cường vốn đặc biệt giỏi ở dạng tối ưu hóa thử-sai như vậy.
Ở cấp độ trừu tượng cao hơn, NVIDIA đã phát triển các mô hình ngôn ngữ lớn chuyên biệt nội bộ mang tên Chip Nemo và Bug Nemo. Các mô hình này được tinh chỉnh dựa trên dữ liệu chuyên biệt tích lũy trong 30 năm của NVIDIA, bao gồm toàn bộ mã RTL, tài liệu thiết kế phần cứng và đặc tả kiến trúc của mọi GPU từng được công ty phát triển. Theo ông Dally, các kỹ sư cấp thấp có thể trực tiếp đặt câu hỏi cho Chip Nemo, qua đó tránh phải làm phiền các kỹ sư giàu kinh nghiệm nhiều lần. Ông mô tả Chip Nemo như “một người thầy vô cùng kiên nhẫn”.
Ở cấp độ tối ưu mạch, NVIDIA cũng áp dụng học tăng cường vào các bài toán thiết kế mạch kinh điển như chuỗi tiến vị (carry-lookahead chain). Ông Dally cho biết các phương án thiết kế do AI đề xuất “hoàn toàn kỳ lạ, khác xa cách suy nghĩ của con người — nhưng hiệu năng thực tế lại tốt hơn thiết kế thủ công từ 20% đến 30%”.
Khoảng cách tới việc AI tự thiết kế chip vẫn còn rất xa
Tuy nhiên, ông Dally cũng rõ ràng xác định ranh giới kỳ vọng. Ông thừa nhận: “Tôi rất muốn đạt được trạng thái thiết kế từ đầu tới cuối (end-to-end), nhưng hiện nay chúng ta còn rất xa mục tiêu ấy.”
Quá trình thiết kế chip của NVIDIA hiện nay vẫn là hỗ trợ chứ chưa phải thay thế. AI đang phát huy tác dụng riêng biệt ở các khâu như chuyển đổi ô chuẩn, phân loại và tóm tắt lỗi, dự báo bố trí – đi dây (place-and-route), khám phá không gian kiến trúc… nhưng chưa hình thành quy trình tự động hóa hoàn chỉnh từ đầu tới cuối. Ông Dally hình dung hướng phát triển dài hạn là các mô hình đa tác nhân (multi-agent), trong đó các hệ thống AI khác nhau đảm nhận từng khâu thiết kế riêng biệt — tương tự cách phân công trong một đội ngũ kỹ sư con người.
Theo báo cáo của Computer Weekly, trong cuộc đối thoại với ông Dean, ông Dally cũng thảo luận về tác động của các tác nhân AI (AI agents) lên các công cụ phần mềm truyền thống: khi tốc độ vận hành của các tác nhân AI vượt xa con người, thì các công cụ phần mềm được thiết kế dành riêng cho người dùng sẽ trở thành điểm nghẽn hiệu năng — từ các công cụ lập trình cho tới các ứng dụng nghiệp vụ đều cần được thiết kế lại.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News













