
Bittensor là tia hy vọng của toàn bộ làng tiền mã hóa
Tuyển chọn TechFlowTuyển chọn TechFlow

Bittensor là tia hy vọng của toàn bộ làng tiền mã hóa
Trong cuộc tranh luận tổng thể mang tên “Tiền mã hóa còn ý nghĩa tồn tại hay không?”, Bittensor đang đưa ra câu trả lời mạnh mẽ nhất cho toàn ngành.
Tác giả: 0xai
Xin chân thành cảm ơn @DistStateAndMe cùng đội ngũ của họ vì những đóng góp trong lĩnh vực mô hình AI mã nguồn mở, cũng như những góp ý và hỗ trợ quý báu dành cho bài viết này.
Tại sao bạn nên quan tâm đến báo cáo này
Nếu “huấn luyện AI phi tập trung” đã chuyển từ điều bất khả thi thành hiện thực, thì Bittensor đang bị định giá thấp bao nhiêu?
Đầu năm 2026, toàn bộ cộng đồng Crypto chìm trong một bầu không khí mệt mỏi.
Nhiệt độ còn sót lại từ đợt tăng giá trước đó đã hoàn toàn tan biến, nhân tài đang đổ dồn mạnh mẽ sang ngành AI. Những người từng bàn luận về “cơ hội tăng trưởng 100 lần tiếp theo” giờ đây đang nói về Claude CodeOpenclaw. Câu nói “Crypto chỉ là lãng phí thời gian” — có lẽ bạn đã nghe không chỉ một lần.
Nhưng vào ngày 10 tháng 3 năm 2026, một subnet Bittensor mang tên Templar đã lặng lẽ công bố một sự kiện.
Hơn 70 cá nhân độc lập đến từ khắp nơi trên thế giới, không có máy chủ trung tâm, không có sự điều phối bởi công ty lớn nào, chỉ dựa vào cơ chế khuyến khích bằng tiền mã hóa, đã cùng nhau huấn luyện thành công một mô hình AI ngôn ngữ lớn với 72 tỷ tham số.
Mô hình và bài báo liên quan đã được công bố trên HuggingFace và arXiv, dữ liệu hoàn toàn minh bạch và có thể xác minh công khai.
Quan trọng hơn cả: Trong nhiều bài kiểm tra then chốt, hiệu năng của mô hình này vượt qua cả mô hình cùng cấp do Meta đầu tư nặng nề để huấn luyện.
Sau khi thông báo được đưa ra, giá TAO im lặng gần 2 ngày. Đến ngày thứ ba mới bắt đầu tăng mạnh, và sau 6 ngày vẫn chưa ngừng lại, tổng mức tăng khoảng +40%. Vì sao lại có sự chậm trễ 2 ngày này?

Lập luận cốt lõi của báo cáo này là: Các nhà đầu tư mã hóa nhìn thấy đây chỉ là “một mô hình mã nguồn mở khác”, cho rằng nó không thể sánh bằng GPT hay Claude mà họ sử dụng hàng ngày; các nhà nghiên cứu AI lại không quan tâm đến crypto. Khoảng cách nhận thức giữa hai cộng đồng này đang tạo ra một cửa sổ “chênh lệch nhận thức” (cognitive arbitrage).
Khung đọc hiểu
Báo cáo này được chia làm hai phần logic:
Phần I — Đột phá kỹ thuật: Giải thích SN3 Templar thực tế đã đạt được điều gì, và tại sao sự kiện này mang ý nghĩa lịch sử đối với cả ngành AI và Crypto.
Phần II — Ý nghĩa ngành: Giải thích vì sao sự kiện này cho thấy hệ sinh thái Bittensor đang bị định giá thấp một cách hệ thống, và vì sao Bittensor chính là “hy vọng của cả làng Crypto”.
Phần I: Đột phá trong huấn luyện AI phi tập trung
1. SN3 làm gì?
Để huấn luyện một mô hình ngôn ngữ lớn cần những gì?
Câu trả lời truyền thống: Xây dựng một trung tâm dữ liệu khổng lồ, mua hàng vạn card GPU cao cấp, chi hàng trăm triệu USD, và để đội ngũ kỹ sư của một công ty duy nhất điều phối toàn bộ quá trình. Đó chính là cách làm của Meta, Google và OpenAI.
Cách làm của SN3 Templar: Để những người ở khắp nơi trên thế giới, mỗi người tự đóng góp một hoặc vài máy chủ GPU, giống như ghép các mảnh ghép để hợp nhất sức mạnh tính toán, cùng nhau huấn luyện một mô hình ngôn ngữ lớn hoàn chỉnh.
Nhưng ở đây tồn tại một vấn đề nền tảng: Nếu những người tham gia đến từ khắp nơi, không tin tưởng lẫn nhau, độ trễ mạng không ổn định, thì làm sao đảm bảo kết quả huấn luyện là hiệu lực? Làm sao ngăn chặn việc ai đó lười biếng hoặc gian lận? Làm sao khuyến khích mọi người tiếp tục đóng góp?
Bittensor đã đưa ra câu trả lời: Dùng token TAO làm động lực khuyến khích. Ai có gradient (có thể hiểu là “đóng góp vào việc cải thiện mô hình”) hiệu quả hơn, người đó sẽ nhận được nhiều TAO hơn. Hệ thống tự động chấm điểm và thanh toán, không cần bất kỳ tổ chức tập trung nào can thiệp.
Đó chính là SN3 (subnet số 3) của Bittensor, biệt danh Templar.
Nếu Bitcoin chứng minh rằng “tiền phi tập trung” là khả thi, thì SN3 đang chứng minh rằng “huấn luyện AI phi tập trung” cũng là khả thi.
2. SN3 đạt được những thành quả gì?
Vào ngày 10 tháng 3 năm 2026, SN3 Templar tuyên bố hoàn tất việc huấn luyện mô hình ngôn ngữ lớn mang tên Covenant-72B.
“72B” nghĩa là gì?: 72 tỷ tham số. Tham số là “đơn vị lưu trữ tri thức” của mô hình AI; số lượng càng lớn, mô hình thường càng thông minh. GPT-3 có 175 tỷ tham số, LLaMA-2 (mô hình mã nguồn mở tiêu biểu của Meta) có 70 tỷ. Covenant-72B thuộc cùng cấp độ với LLaMA-2.
Quy mô huấn luyện lớn đến đâu?: Khoảng 1,1 nghìn tỷ token (từ) ≈ 5,5 triệu cuốn sách (giả sử mỗi cuốn 200.000 chữ).
Ai tham gia huấn luyện?: Hơn 70 cá nhân độc lập (miner) lần lượt đóng góp sức mạnh tính toán (số nút đồng bộ tối đa mỗi vòng khoảng 20), quá trình huấn luyện bắt đầu từ ngày 12 tháng 9 năm 2025 và kéo dài khoảng 6 tháng. Không có máy chủ trung tâm, không có tổ chức thống nhất nào điều phối.
Mô hình hoạt động thế nào?: So sánh với các kỳ thi AI phổ biến:

Nguồn dữ liệu: Thẻ mô hình HuggingFace 1Covenant/Covenant-72B-Chat
- MMLU (kiến thức tổng hợp trên 57 lĩnh vực): Covenant-72B đạt 67,35% so với 63,08% của LLaMA-2 của Meta
- GSM8K (suy luận toán học): Covenant-72B đạt 63,91% so với 52,16% của LLaMA-2 của Meta
- IFEval (khả năng tuân thủ chỉ thị): Covenant-72B đạt 64,70% so với 40,67% của LLaMA-2 của Meta
Mã nguồn hoàn toàn mở: Giấy phép Apache 2.0. Bất kỳ ai đều có thể tải miễn phí, sử dụng và thương mại hóa mà không bị ràng buộc.
Có sự hậu thuẫn học thuật: Bài báo đã được gửi tới [arXiv 2603.08163], các công nghệ cốt lõi (bộ tối ưu hóa SparseLoCo và cơ chế chống gian lận Gauntlet) đã được công bố tại Hội thảo Tối ưu hóa NeurIPS.
3. Thành quả này mang ý nghĩa gì?
Với cộng đồng AI mã nguồn mở: Trước đây, do rào cản về vốn và sức mạnh tính toán, việc huấn luyện mô hình ngôn ngữ lớn cấp độ 70B là đặc quyền của một vài công ty lớn. Covenant-72B lần đầu tiên chứng minh rằng: cộng đồng, mà không cần bất kỳ sự hỗ trợ tài chính tập trung nào, cũng có thể huấn luyện mô hình cùng quy mô. Điều này làm thay đổi ranh giới về “ai đủ tư cách tham gia phát triển mô hình nền tảng AI”.
Với cấu trúc quyền lực trong ngành AI: Hiện trạng mô hình nền tảng AI đang cực kỳ tập trung — một vài công ty như OpenAI, Google, Meta và Anthropic nắm giữ những mô hình nền tảng mạnh nhất. Việc huấn luyện phi tập trung trở thành hiện thực cho thấy “hào thành” này không phải là bất khả xâm phạm. Giả định “chỉ các công ty lớn mới có thể xây dựng mô hình nền tảng” lần đầu tiên bị lung lay.
Với ngành Crypto: Đây là lần đầu tiên một dự án crypto tạo ra đóng góp kỹ thuật thực chất trong lĩnh vực AI, chứ không chỉ “bám theo xu hướng”. Covenant-72B có mô hình trên HuggingFace, bài báo trên arXiv và dữ liệu benchmark công khai. Sự kiện này thiết lập một tiền lệ: cơ chế khuyến khích crypto có thể trở thành hạ tầng cho nghiên cứu AI nghiêm túc.
Với bản thân Bittensor: Thành công của SN3 đã nâng Bittensor từ một “giao thức AI phi tập trung chỉ khả thi trên lý thuyết” lên thành “hạ tầng AI phi tập trung đã được kiểm chứng thực tiễn”. Đây là bước nhảy vọt mang tính chất từ 0 đến 1.
4. Địa vị lịch sử của SN3
Con đường huấn luyện AI phi tập trung không phải do SN3 khởi xướng đầu tiên. Nhưng SN3 đã đi xa hơn những người đi trước.
Lịch sử tiến hóa của huấn luyện phi tập trung:

- Năm 2022 — Together GPT-JT (6B): Khám phá ban đầu, chứng minh tính khả thi của cộng tác đa máy
- Năm 2023 — SWARM Intelligence (~1B): Đề xuất khuôn khổ huấn luyện cộng tác giữa các nút dị cấu trúc
- Năm 2024 — INTELLECT-1 (10B): Huấn luyện phi tập trung xuyên tổ chức
- Năm 2026 — Covenant-72B / SN3 (72B): Mô hình ngôn ngữ lớn 72B đầu tiên vượt qua mô hình huấn luyện tập trung trên các benchmark phổ biến
Chỉ trong 4 năm, dung lượng tham số tăng từ 6B lên 72B — tức tăng 12 lần. Nhưng quan trọng hơn không phải là con số tham số, mà là chất lượng — các thế hệ trước chủ yếu chỉ chứng minh “có thể chạy được”, còn Covenant-72B là mô hình phi tập trung đầu tiên vượt qua mô hình huấn luyện tập trung trên các benchmark phổ biến.
Các đột phá kỹ thuật then chốt:

- Độ nén >99% (>146x): Mỗi lần người tham gia tải lên kết quả huấn luyện (gradient), dữ liệu vốn cần truyền ở mức GB, nhưng SparseLoCo nén toàn bộ quy trình vượt 146 lần. Tương đương nén cả một mùa phim truyền hình thành một tấm ảnh, với tổn thất thông tin cực kỳ nhỏ.
- Chi phí truyền thông chỉ 6%: Khi 100 người cộng tác, chỉ 6% thời gian dùng để “trao đổi, phối hợp”, còn 94% dành trọn cho huấn luyện thực tế. Điều này giải quyết một trong những nút thắt lớn nhất của huấn luyện phi tập trung.
5. Liệu huấn luyện phi tập trung đang bị định giá thấp?
Hãy xem dữ liệu trước khi đưa ra đánh giá.
Bằng chứng cho việc bị định giá thấp


- MMLU: Covenant-72B đạt 67,35% so với 63,08% của LLaMA-2
- MMLU-Pro: Covenant-72B đạt 40,91% so với 35,20% của LLaMA-2
- IFEval: Covenant-72B đạt 64,70% so với 40,67% của LLaMA-2
Mô hình huấn luyện phi tập trung đã vượt qua LLaMA-2-70B do Meta đầu tư rất lớn để huấn luyện.
Khoảng cách với các mô hình mã nguồn mở hàng đầu hiện nay (cần nhìn nhận một cách trung thực):

- MMLU: Covenant-72B đạt 67,35% so với 86,8% của Qwen2.5-72B và 83,6% của LLaMA-3.1-70B
- GSM8K: Covenant-72B đạt 63,91% so với 95,8% của Qwen2.5-72B và 95,1% của LLaMA-3.1-70B
Khoảng cách khoảng 20–30 điểm phần trăm.
Nhưng khung so sánh rất quan trọng: Ý nghĩa của Covenant-72B không nằm ở việc đánh bại mô hình SOTA, mà ở chỗ chứng minh tính khả thi của huấn luyện phi tập trung. Qwen2.5 / LLaMA-3.1 được xây dựng dựa trên khoản đầu tư hàng tỷ USD, hàng vạn GPU và đội ngũ kỹ sư chuyên nghiệp; còn Covenant-72B được tạo nên bởi hơn 70 miner độc lập, không có sự điều phối tập trung.
Xu hướng quan trọng hơn “ảnh chụp nhanh”:
- Năm 2022: Mô hình phi tập trung tốt nhất chỉ có 6B tham số, thậm chí chưa được kiểm tra riêng trên MMLU.
- Năm 2026: Mô hình 72B, đạt MMLU 67,35%, vượt qua mô hình cùng cấp của Meta.
Chỉ trong 4 năm, huấn luyện phi tập trung đã tiến từ “thí nghiệm khái niệm” đến “hiệu năng ngang tầm huấn luyện tập trung”. Độ dốc của đường cong này đáng chú ý hơn bất kỳ con số benchmark đơn lẻ nào.
Hơn nữa, khoảng cách của Covenant-72B trong suy luận sâu đã có giải pháp được lên kế hoạch — SN81 Grail chịu trách nhiệm hậu huấn luyện bằng học tăng cường (RLHF), nhằm căn chỉnh và nâng cao năng lực mô hình. Đây chính là bước cải tiến then chốt giúp GPT-4 vượt trội hơn GPT-3.
Heterogeneous SparseLoCo là cột mốc tiếp theo: Hiện tại SN3 yêu cầu tất cả miner phải sử dụng GPU cùng loại. Đột phá kỹ thuật lớn tiếp theo là Heterogeneous SparseLoCo, cho phép phần cứng dị cấu trúc (B200 + A100 + GPU tiêu dùng) cùng tham gia một nhiệm vụ huấn luyện. Một khi được triển khai, “bể” sức mạnh tính toán cho đợt huấn luyện tiếp theo sẽ mở rộng đáng kể.
Huấn luyện phi tập trung đã vượt qua ngưỡng khả thi. Khoảng cách hiệu năng hiện tại trên các benchmark chỉ là vấn đề kỹ thuật cần tiếp tục tối ưu, chứ không phải rào cản lý thuyết nền tảng.
Phần II: Thị trường vẫn chưa hiểu được sự kiện này
Đường biểu diễn giá TAO theo thời gian
Diễn biến giá $TAO sau thông báo SN3 phản ánh rõ sự chậm trễ trong nhận thức này:


Lưu ý khoảng lặng 2 ngày này (10/3 → 12/3): Thông báo được đưa ra, nhưng giá gần như không phản ứng.
Tại sao lại có sự chậm trễ?
Các nhà đầu tư mã hóa tiếp nhận thông tin là “Bittensor SN3 đã hoàn tất huấn luyện một mô hình AI” — nhưng họ chưa chắc đã hiểu được ý nghĩa kỹ thuật đằng sau cụm từ “huấn luyện phi tập trung 72B vượt qua Meta trên MMLU”.
Các nhà nghiên cứu AI thì hiểu rõ ý nghĩa kỹ thuật này, nhưng họ lại không quan tâm đến crypto.
Sự chênh lệch nhận thức giữa hai cộng đồng này đã tạo ra một “cửa sổ chậm trễ giá” kéo dài khoảng 2–3 ngày.

Hơn nữa, phần lớn nhà đầu tư Crypto vẫn giữ nhận thức về Bittensor từ chu kỳ trước. Hiện nay, số subnet hoạt động trên Bittensor đã vượt quá 79, bao phủ các lĩnh vực hoàn toàn khác biệt như Agent AI, sức mạnh tính toán, huấn luyện AI, giao dịch AI và robot. Khi thị trường tái định giá độ rộng của hệ sinh thái Bittensor, sự chênh lệch nhận thức này sẽ được điều chỉnh — và quá trình điều chỉnh ấy thường thể hiện dưới dạng tăng giá mạnh.
Sai lệch định giá của Bittensor
Hãy đặt Bittensor vào bối cảnh ngành công nghiệp rộng hơn:

SN3 đã chứng minh: Bittensor có khả năng thực hiện huấn luyện mô hình nền tảng quy mô lớn một cách phi tập trung.
Nếu trong tương lai AI cần một mạng lưới huấn luyện mở và không cần cấp phép, thì hiện tại, hạ tầng duy nhất đã được kiểm chứng thực tiễn chính là Bittensor.
Thị trường đang định giá một mạng lưới hạ tầng AI theo logic định giá các dự án tầng ứng dụng.
Ngay cả khi so sánh nội bộ trong Crypto: Thị phần của Bitcoin luôn duy trì ở mức 50–60% trên toàn thị trường Crypto, trong khi Bittensor chỉ chiếm khoảng 11,5% trong phân khúc AI của Crypto.
Khi thị trường tái nhận thức vị trí của Bittensor trong hạ tầng AI, sự sai lệch này chắc chắn sẽ được điều chỉnh.
Kết luận: Bittensor là hy vọng của cả làng Crypto
Nếu Covenant-72B của SN3 Templar chứng minh được điều gì, thì đó là:
Mạng lưới phi tập trung không chỉ có thể điều phối vốn, mà còn có thể điều phối cả sức mạnh tính toán và nghiên cứu AI tiên tiến.
Những năm qua, Crypto trong câu chuyện AI thường chỉ đóng vai trò ngoại biên. Hàng loạt dự án phụ thuộc vào包裝 khái niệm, thổi phồng cảm xúc hoặc câu chuyện vốn, nhưng thiếu sản phẩm kỹ thuật có thể kiểm chứng. SN3 là một trường hợp hoàn toàn khác biệt.
Nó không tung ra một câu chuyện token mới, cũng không đóng gói một sản phẩm tầng ứng dụng “AI + Web3”, mà hoàn thành một việc nền tảng và khó khăn hơn nhiều:
Trong điều kiện không có sự điều phối tập trung, huấn luyện thành công một mô hình ngôn ngữ lớn cấp độ 72B.
Các bên tham gia đến từ khắp nơi trên thế giới, không cần tin tưởng lẫn nhau; hệ thống tự động điều phối việc đóng góp huấn luyện và phân bổ lợi ích dựa trên cơ chế khuyến khích và xác minh trên chuỗi.
Lần đầu tiên, cơ chế crypto đã tổ chức thành công năng suất thực chất trong lĩnh vực AI.
Nhiều người vẫn chưa nhận ra ý nghĩa lịch sử của SN3. Cũng như ngày xưa, nhiều người không nhận ra Bitcoin chứng minh không phải “phương thức thanh toán tốt hơn”, mà là “sự đồng thuận về giá trị không cần niềm tin trung tâm”.
Ngày nay, nhiều người vẫn chỉ nhìn thấy các chỉ số benchmark, việc công bố mô hình hay một đợt tăng giá.
Nhưng sự thay đổi thực sự đang diễn ra là Bittensor đang chứng minh:
- Crypto không chỉ có thể phát hành tài sản, mà còn có thể tổ chức sản xuất
- Crypto không chỉ có thể giao dịch sự chú ý, mà còn có thể sản xuất trí tuệ
Cộng đồng mã nguồn mở có thể đóng góp mã, giới học thuật có thể đóng góp bài báo, nhưng khi vấn đề chạm đến quy mô huấn luyện siêu lớn, hợp tác dài hạn, điều phối xuyên quốc gia, chống gian lận và phân bổ lợi ích, thì thiện chí và hệ thống uy tín là chưa đủ:
- Không có động lực kinh tế, sẽ không có nguồn cung ổn định
- Không có hình phạt và phần thưởng có thể xác minh, sẽ không có hợp tác lâu dài
- Không có cơ chế điều phối mã hóa, sẽ không thể hình thành một mạng lưới sản xuất AI thực sự toàn cầu và không cần cấp phép
Vì vậy, Bittensor có đang bị định giá thấp không? Câu trả lời không phải là “có thể”, mà là “đang bị định giá thấp một cách rõ rệt và hệ thống”.
Trong cuộc tranh luận tổng thể về “Crypto còn tồn tại ý nghĩa nào không?”, Bittensor đang đưa ra câu trả lời mạnh mẽ nhất cho toàn ngành.
Chính vì lẽ đó: Bittensor là hy vọng của cả làng Crypto.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News














