
Cộng sự Hack VC: 8 lợi thế thực sự của AI + Crypto
Tuyển chọn TechFlowTuyển chọn TechFlow

Cộng sự Hack VC: 8 lợi thế thực sự của AI + Crypto
Phân tích viễn cảnh kết hợp mã hóa và AI, thảo luận về những thách thức và cơ hội thực sự, đâu là những lời hứa suông, đâu là điều khả thi?
Tác giả: Ed Roman, Đối tác Quản lý tại Hack VC
Biên dịch: 1912212.eth, Foresight News
AI + Crypto là một trong những lĩnh vực tiên phong được chú ý nhiều nhất gần đây trên thị trường tiền mã hóa, ví dụ như huấn luyện AI phi tập trung, GPU DePIN và các mô hình AI chống kiểm duyệt.
Đằng sau những tiến triển hào nhoáng này, chúng ta không thể không đặt câu hỏi: Đây thực sự là bước đột phá công nghệ hay chỉ là chạy theo xu hướng? Bài viết này sẽ giúp bạn gỡ bỏ lớp sương mù, phân tích các viễn cảnh và thảo luận về những thách thức cũng như cơ hội thực sự của sự kết hợp giữa tiền mã hóa và AI, đồng thời vạch rõ đâu là lời hứa suông, đâu là điều khả thi?
Viễn cảnh #1: Huấn luyện AI phi tập trung
Vấn đề với việc huấn luyện AI trên chuỗi là cần sự liên lạc tốc độ cao và phối hợp giữa các GPU, vì mạng nơ-ron trong quá trình huấn luyện cần lan truyền ngược (backpropagation). Nvidia đã có hai sáng tạo cho vấn đề này (NVLink và InfiniBand). Những công nghệ này giúp giao tiếp giữa các GPU cực kỳ nhanh chóng, nhưng chúng chỉ giới hạn ở môi trường cục bộ, áp dụng cho các cụm GPU nằm trong cùng một trung tâm dữ liệu (tốc độ lên tới hơn 50 gigabit).
Nếu đưa vào mạng lưới phi tập trung, do độ trễ mạng và băng thông tăng lên, tốc độ sẽ giảm mạnh vài bậc độ lớn. So với thông lượng mà các kết nối tốc độ cao của Nvidia trong trung tâm dữ liệu cung cấp, tốc độ này là không thể chấp nhận được đối với các trường hợp sử dụng huấn luyện AI.
Lưu ý rằng, vẫn có những đổi mới tiềm năng mang lại hy vọng cho tương lai:
-
InfiniBand hiện đang được thử nghiệm cho huấn luyện phân tán quy mô lớn, vì chính NVIDIA đang hỗ trợ huấn luyện phân tán không cục bộ trên InfiniBand thông qua NVIDIA Collective Communications Library. Tuy nhiên, nó vẫn còn ở giai đoạn sơ khai, nên các chỉ số áp dụng vẫn chưa rõ ràng. Vẫn tồn tại giới hạn vật lý do khoảng cách, do đó huấn luyện cục bộ trên InfiniBand vẫn nhanh hơn rất nhiều.
-
Một số nghiên cứu mới về huấn luyện phi tập trung đã được công bố, nhằm giảm thời gian đồng bộ hóa truyền thông, có thể khiến việc huấn luyện phi tập trung trở nên khả thi hơn trong tương lai.
-
Phân mảnh thông minh và lập lịch mô hình huấn luyện có thể cải thiện hiệu suất. Tương tự, các kiến trúc mô hình mới có thể được thiết kế riêng cho hạ tầng phân tán trong tương lai (Gensyn đang nghiên cứu trong các lĩnh vực này).
Phần dữ liệu trong huấn luyện cũng đầy thách thức. Mọi quá trình huấn luyện AI đều liên quan đến xử lý khối lượng dữ liệu khổng lồ. Thông thường, mô hình được huấn luyện trên các hệ thống lưu trữ dữ liệu an toàn, tập trung, có khả năng mở rộng và hiệu suất cao. Điều này đòi hỏi truyền tải và xử lý hàng terabyte dữ liệu, và không phải chỉ một lần duy nhất. Dữ liệu thường chứa nhiễu và lỗi, do đó phải được làm sạch và chuyển đổi sang định dạng có thể dùng được trước khi huấn luyện mô hình. Giai đoạn này bao gồm các nhiệm vụ lặp đi lặp lại như chuẩn hóa, lọc và xử lý giá trị thiếu. Tất cả những điều này đều gặp khó khăn nghiêm trọng trong môi trường phi tập trung.
Phần dữ liệu trong huấn luyện cũng là một quá trình lặp lại, điều này không tương thích với Web3. OpenAI đã trải qua hàng ngàn lần lặp để đạt được thành quả của mình. Trong các đội ngũ AI, kịch bản cơ bản nhất của nhà khoa học dữ liệu bao gồm xác định mục tiêu, chuẩn bị dữ liệu, phân tích và tổ chức dữ liệu để rút ra các hiểu biết quan trọng, và làm cho dữ liệu phù hợp để xây dựng mô hình. Sau đó, phát triển mô hình học máy để giải quyết vấn đề đã xác định và kiểm tra hiệu suất bằng bộ dữ liệu thử nghiệm. Quá trình này là lặp lại: nếu mô hình hiện tại hoạt động không như mong đợi, chuyên gia sẽ quay lại giai đoạn thu thập dữ liệu hoặc huấn luyện mô hình để cải thiện kết quả. Hãy tưởng tượng, nếu quá trình này diễn ra trong môi trường phi tập trung, thì việc thích nghi các khung làm việc và công cụ tiên tiến hiện có vào Web3 sẽ trở nên vô cùng khó khăn.
Một vấn đề khác với việc huấn luyện mô hình AI trên chuỗi là so với suy luận (inference), thị trường này kém hấp dẫn hơn nhiều. Hiện tại, việc huấn luyện các mô hình ngôn ngữ lớn (LLM) cần rất nhiều tài nguyên tính toán GPU. Về lâu dài, suy luận sẽ trở thành ứng dụng chính của GPU. Hãy nghĩ xem, để đáp ứng nhu cầu toàn cầu, cần huấn luyện bao nhiêu mô hình LLM, so với số lượng khách hàng sử dụng các mô hình này, bên nào nhiều hơn?
Viễn cảnh #2: Sử dụng tính toán suy luận AI dư thừa để đạt được sự đồng thuận
Một thách thức khác trong mối liên hệ giữa tiền mã hóa và AI là xác minh độ chính xác của suy luận AI, vì bạn không thể hoàn toàn tin tưởng vào một bên tập trung duy nhất để thực hiện các thao tác suy luận — các nút có nguy cơ hành xử sai lệch. Thách thức này không tồn tại trong AI Web2, vì không có hệ thống đồng thuận phi tập trung.
Giải pháp là tính toán dư thừa: yêu cầu nhiều nút lặp lại cùng một thao tác suy luận AI, từ đó vận hành trong môi trường không cần tin cậy, tránh điểm lỗi đơn lẻ.
Tuy nhiên, phương pháp này có vấn đề: chip AI cao cấp đang cực kỳ khan hiếm. Thời gian chờ đợi chip NVIDIA cao cấp kéo dài hàng năm, khiến giá cả tăng vọt. Nếu bạn yêu cầu suy luận AI được thực hiện lại nhiều lần trên nhiều nút, chi phí sẽ tăng gấp bội, điều này khiến nó không khả thi đối với nhiều dự án.
Viễn cảnh #3: Các trường hợp sử dụng AI đặc thù Web3 trong ngắn hạn
Có người đề xuất rằng Web3 nên có những trường hợp sử dụng AI độc đáo, chuyên biệt dành riêng cho khách hàng Web3. Ví dụ như giao thức Web3 sử dụng AI để đánh giá rủi ro các nhóm thanh khoản DeFi, ví Web3 gợi ý các giao thức mới cho người dùng dựa trên lịch sử ví, hoặc trò chơi Web3 sử dụng AI điều khiển các nhân vật không người chơi (NPC).
Hiện tại, đây là một thị trường khởi nghiệp (trong ngắn hạn), nơi các trường hợp sử dụng vẫn đang trong giai đoạn khám phá. Một số thách thức bao gồm:
-
Do nhu cầu thị trường vẫn ở giai đoạn đầu, số lượng giao dịch AI tiềm năng cần thiết cho các trường hợp sử dụng bản địa Web3 còn ít.
-
Khách hàng ít hơn, so với khách hàng Web2, số lượng khách hàng Web3 ít hơn vài bậc độ lớn, do đó mức độ phi tập trung của thị trường thấp hơn.
-
Bản thân khách hàng cũng không ổn định, vì họ là các startup có ít vốn, và một số startup có thể biến mất theo thời gian. Nhà cung cấp dịch vụ AI Web3 phục vụ khách hàng Web3 có thể cần tìm kiếm lại một phần cơ sở khách hàng để thay thế những khách hàng đã biến mất, điều này khiến việc mở rộng quy mô trở nên cực kỳ thách thức.
Dài hạn, chúng tôi rất lạc quan về các trường hợp sử dụng AI bản địa Web3, đặc biệt khi các tác nhân AI (AI agents) trở nên phổ biến hơn. Chúng tôi hình dung trong tương lai, mỗi người dùng Web3 sẽ có hàng loạt các tác nhân AI hỗ trợ thực hiện nhiệm vụ.
Viễn cảnh #4: GPU DePIN dùng cho thiết bị tiêu dùng
Có nhiều mạng tính toán AI phi tập trung phụ thuộc vào GPU tiêu dùng thay vì trung tâm dữ liệu. GPU tiêu dùng rất phù hợp với các tác vụ suy luận AI cấp thấp hoặc các trường hợp sử dụng tiêu dùng có độ trễ, thông lượng và độ tin cậy linh hoạt. Nhưng đối với các trường hợp sử dụng doanh nghiệp nghiêm túc (chiếm đa số thị trường quan trọng), so với máy gia đình, khách hàng cần mạng lưới đáng tin cậy hơn, và nếu họ có các tác vụ suy luận phức tạp hơn, thường cần GPU cao cấp hơn. Trung tâm dữ liệu phù hợp hơn với các trường hợp sử dụng khách hàng có giá trị cao này.
Lưu ý rằng, chúng tôi cho rằng GPU tiêu dùng phù hợp cho trình diễn, cũng như cá nhân và startup có thể chấp nhận độ tin cậy thấp hơn. Nhưng những khách hàng này có giá trị thấp, do đó chúng tôi cho rằng các DePIN được tùy chỉnh cho doanh nghiệp Web2 sẽ có giá trị lớn hơn về dài hạn. Vì vậy, các dự án GPU DePIN đã phát triển từ giai đoạn ban đầu chủ yếu dùng phần cứng tiêu dùng sang tình trạng có A100/H100 và khả năng sẵn sàng ở cấp cụm.
Thực tế – Các trường hợp sử dụng thực tế của tiền mã hóa x AI
Bây giờ chúng ta hãy nói về các trường hợp sử dụng thực sự mang lại lợi ích. Đây mới là những chiến thắng thực sự, nơi tiền mã hóa x AI có thể tạo ra giá trị rõ rệt.
Lợi ích thực sự #1: Phục vụ khách hàng Web2
McKinsey ước tính, trong 63 trường hợp sử dụng được phân tích, AI sinh học có thể tạo thêm doanh thu hàng năm tương đương 2,6 nghìn tỷ đến 4,4 nghìn tỷ USD — so sánh, GDP năm 2021 của Anh là 3,1 nghìn tỷ USD. Điều này có nghĩa ảnh hưởng của AI sẽ tăng thêm 15% đến 40%. Nếu tính cả ảnh hưởng khi nhúng AI sinh học vào các phần mềm phục vụ các nhiệm vụ ngoài các trường hợp sử dụng hiện tại, ước tính sức ảnh hưởng có thể tăng gấp đôi.
Nếu bạn tính toán dựa trên ước tính trên, điều đó có nghĩa tổng giá trị thị trường toàn cầu của AI (vượt xa AI sinh học) có thể đạt hàng chục nghìn tỷ USD. So sánh, tổng giá trị hiện tại của tất cả tiền mã hóa (bao gồm Bitcoin và mọi altcoin) chỉ khoảng 2,7 nghìn tỷ USD. Vì vậy, hãy đối mặt với thực tế: trong ngắn hạn, phần lớn khách hàng cần AI sẽ là khách hàng Web2, bởi vì những khách hàng Web3 thực sự cần AI sẽ chỉ chiếm một phần nhỏ trong con số 2,7 nghìn tỷ USD này (xét rằng BTC là thị trường này, bản thân Bitcoin không cần / sử dụng AI).
Các trường hợp sử dụng AI Web3 mới chỉ bắt đầu, và hiện chưa rõ quy mô thị trường này lớn đến đâu. Nhưng một điều chắc chắn — trong tương lai gần, nó chỉ chiếm một phần nhỏ của thị trường Web2. Chúng tôi tin rằng AI Web3 vẫn có tương lai tươi sáng, nhưng điều đó chỉ có nghĩa ứng dụng mạnh mẽ nhất hiện tại của AI Web3 là phục vụ khách hàng Web2.
Giả sử các ví dụ khách hàng Web2 có thể hưởng lợi từ AI Web3 bao gồm:
-
Các công ty phần mềm chuyên biệt theo chiều dọc, xây dựng từ đầu lấy AI làm trung tâm (ví dụ: Cedar.ai hoặc Observe.ai)
-
Các doanh nghiệp lớn tinh chỉnh mô hình cho mục đích riêng (ví dụ: Netflix)
-
Nhà cung cấp AI tăng trưởng nhanh (ví dụ: Anthropic)
-
Các công ty phần mềm tích hợp AI vào sản phẩm hiện có (ví dụ: Canva)
Đây là các vai trò khách hàng tương đối ổn định, vì khách hàng thường lớn và có giá trị. Họ ít có khả năng sụp đổ nhanh chóng, và đại diện cho một cơ sở khách hàng tiềm năng khổng lồ cho các dịch vụ AI. Các dịch vụ AI Web3 phục vụ khách hàng Web2 sẽ được hưởng lợi từ cơ sở khách hàng ổn định này.
Nhưng tại sao khách hàng Web2 lại muốn sử dụng stack Web3? Phần tiếp theo của bài viết này sẽ làm rõ lý do.
Lợi ích thực sự #2: Giảm chi phí sử dụng GPU thông qua GPU DePIN
GPU DePIN tập hợp năng lực tính toán GPU chưa được sử dụng tối ưu (đáng tin cậy nhất đến từ trung tâm dữ liệu) và làm cho chúng khả dụng cho suy luận AI. Cách đơn giản để hình dung vấn đề này là "Airbnb dành cho GPU".
Lý do chúng tôi hào hứng với GPU DePIN là, như đã nêu, chip NVIDIA đang khan hiếm, và hiện có các chu kỳ GPU bị lãng phí có thể dùng cho suy luận AI. Những chủ sở hữu phần cứng này đã chịu chi phí chìm (sunk cost) và hiện chưa tận dụng thiết bị tối đa, do đó có thể cung cấp phần GPU này với chi phí thấp hơn nhiều so với hiện trạng, vì thực tế điều này "kiếm được tiền" cho họ.
Ví dụ bao gồm:
-
Máy AWS. Nếu hôm nay bạn thuê H100 từ AWS, bạn phải cam kết thuê trong 1 năm do nguồn cung hạn chế. Điều này gây lãng phí, vì bạn có thể không dùng GPU suốt 365 ngày/năm, 7 ngày/tuần.
-
Phần cứng khai thác Filecoin. Filecoin có lượng cung cấp trợ cấp lớn nhưng không có nhu cầu thực tế lớn. Filecoin chưa bao giờ tìm thấy điểm hòa hợp sản phẩm-thị trường thật sự, do đó thợ đào Filecoin đối mặt nguy cơ sụp đổ. Những máy này có GPU, có thể được tái sử dụng cho các tác vụ suy luận AI cấp thấp.
-
Phần cứng khai thác ETH. Khi Ethereum chuyển từ PoW sang PoS, một lượng lớn phần cứng được giải phóng nhanh chóng, có thể được tái sử dụng cho suy luận AI.
Lưu ý, không phải mọi phần cứng GPU đều phù hợp với suy luận AI. Một lý do rõ ràng là GPU cũ hơn không có đủ bộ nhớ GPU cần thiết cho các mô hình ngôn ngữ lớn (LLMs), mặc dù đã có một số đổi mới thú vị có thể hỗ trợ. Ví dụ, công nghệ của Exabits có thể tải các nơ-ron hoạt động vào bộ nhớ GPU, và các nơ-ron không hoạt động vào bộ nhớ CPU. Họ dự đoán nơ-ron nào cần hoạt động/không hoạt động. Điều này giúp GPU cấp thấp xử lý được khối lượng công việc AI, ngay cả khi bộ nhớ GPU hạn chế. Nó hiệu quả làm cho GPU cấp thấp hữu ích hơn cho suy luận AI.
Các DePIN AI Web3 cần phát triển sản phẩm theo thời gian và cung cấp dịch vụ cấp doanh nghiệp như đăng nhập một điểm (SSO), tuân thủ SOC 2, thỏa thuận mức dịch vụ (SLA), v.v. Điều này tương tự như các nhà cung cấp dịch vụ đám mây hiện tại phục vụ khách hàng Web2.
Lợi ích thực sự #3: Mô hình chống kiểm duyệt để tránh tự kiểm duyệt của OpenAI
Có nhiều cuộc thảo luận về kiểm duyệt AI. Ví dụ, Thổ Nhĩ Kỳ từng tạm cấm OpenAI (sau đó OpenAI nâng cao tuân thủ, họ đã thay đổi cách làm). Chúng tôi cho rằng kiểm duyệt cấp quốc gia là không hấp dẫn, vì các quốc gia cần áp dụng AI để giữ tính cạnh tranh.
OpenAI cũng tự kiểm duyệt. Ví dụ, OpenAI không xử lý nội dung NSFW. OpenAI cũng không dự đoán cuộc bầu cử tổng thống tiếp theo. Chúng tôi cho rằng các trường hợp sử dụng AI này không chỉ thú vị mà còn có thị trường khổng lồ, nhưng OpenAI vì lý do chính trị sẽ không chạm đến thị trường này.
Mã nguồn mở là một giải pháp tốt, vì kho lưu trữ Github không chịu ảnh hưởng từ cổ đông hay ban giám đốc. Venice.ai là một ví dụ, cam kết bảo vệ quyền riêng tư và vận hành theo cách chống kiểm duyệt. AI Web3 có thể nâng tầm hiệu quả, tức là hỗ trợ các mô hình phần mềm mã nguồn mở (OSS) này trên các cụm GPU có chi phí thấp hơn để thực hiện suy luận. Chính vì những lý do này, chúng tôi tin rằng OSS + Web3 là tổ hợp lý tưởng để mở đường cho AI chống kiểm duyệt.
Lợi ích thực sự #4: Tránh gửi thông tin nhận dạng cá nhân đến OpenAI
Các doanh nghiệp lớn lo ngại về quyền riêng tư dữ liệu nội bộ của họ. Với những khách hàng này, việc tin tưởng bên thứ ba như OpenAI sở hữu dữ liệu của họ có thể rất khó.
Trong Web3, dữ liệu nội bộ của họ đột nhiên xuất hiện trên mạng lưới phi tập trung, có vẻ còn đáng lo ngại hơn (trên bề mặt). Tuy nhiên, có những đổi mới trong công nghệ tăng cường quyền riêng tư dành cho AI:
Môi trường thực thi đáng tin cậy (TEE), ví dụ Super Protocol
Mã hóa đồng hình toàn phần (FHE), ví dụ Fhenix.io (công ty trong danh mục đầu tư của quỹ do Hack VC quản lý) hoặc Inco Network (đều được hỗ trợ bởi Zama.ai), và PPML của Bagel
Các công nghệ này vẫn đang phát triển và hiệu suất tiếp tục cải thiện nhờ các ASIC sắp ra mắt sử dụng ZK và FHE. Nhưng mục tiêu dài hạn là bảo vệ dữ liệu doanh nghiệp trong quá trình tinh chỉnh mô hình. Khi các giao thức này xuất hiện, Web3 có thể trở thành nơi hấp dẫn hơn cho tính toán AI bảo vệ quyền riêng tư.
Lợi ích thực sự #5: Tận dụng các đổi mới mới nhất từ các mô hình mã nguồn mở
Trong vài thập kỷ qua, phần mềm mã nguồn mở (OSS) đã và đang từng bước chiếm lĩnh thị phần phần mềm độc quyền. Chúng tôi coi các mô hình ngôn ngữ lớn (LLM) là một dạng phần mềm độc quyền có thể bị thay thế bởi OSS. Các đối thủ đáng chú ý bao gồm Llama, RWKV và Mistral.ai. Theo thời gian, danh sách này chắc chắn sẽ tiếp tục mở rộng (danh sách đầy đủ hơn có thể tìm thấy tại Openrouter.ai). Bằng cách tận dụng AI Web3 (được hỗ trợ bởi các mô hình OSS), người ta có thể tận dụng các đổi mới mới này để sáng tạo.
Chúng tôi tin tưởng điều này vì trong quá khứ, theo thời gian, phần lớn các đổi mới "phần mềm dành cho nhà phát triển" dần bị OSS vượt mặt. Microsoft từng là công ty phần mềm độc quyền, giờ đây họ là công ty đóng góp nhiều nhất cho Github. Có lý do cho điều này; nếu bạn nhìn cách Databricks, PostGresSQL, MongoDB và các công ty khác đã làm sụp đổ các cơ sở dữ liệu độc quyền, đó là một ví dụ điển hình về OSS làm đảo lộn toàn ngành, vì vậy tiền lệ ở đây rất thuyết phục.
Tuy nhiên, vẫn có một vấn đề. Một điểm khó khăn với các mô hình ngôn ngữ lớn mã nguồn mở (OSS LLMs) là OpenAI đã bắt đầu ký các thỏa thuận cấp phép dữ liệu có trả phí với một số tổ chức (như Reddit và New York Times). Nếu xu hướng này tiếp tục, các mô hình ngôn ngữ lớn mã nguồn mở có thể khó cạnh tranh hơn do rào cản tài chính trong việc tiếp cận dữ liệu. Nvidia có thể tiếp tục tăng đầu tư vào tính toán bảo mật để hỗ trợ chia sẻ dữ liệu an toàn. Thời gian sẽ tiết lộ tất cả.
Lợi ích thực sự #6: Đạt được sự đồng thuận thông qua lấy mẫu ngẫu nhiên cắt giảm chi phí cao hoặc bằng chứng ZK
Một thách thức của suy luận AI Web3 là xác minh. Giả sử người xác minh có cơ hội gian lận kết quả để kiếm phí, do đó việc xác minh suy luận là biện pháp quan trọng. Lưu ý rằng hành vi gian lận này thực tế chưa xảy ra, vì suy luận AI vẫn còn ở giai đoạn đầu, nhưng trừ khi có biện pháp ngăn chặn, điều này là không thể tránh khỏi.
Phương pháp Web3 tiêu chuẩn là yêu cầu nhiều bộ xác minh lặp lại cùng một thao tác và so sánh kết quả. Như đã nêu, thách thức nổi bật là chi phí suy luận AI rất đắt đỏ do khan hiếm chip Nvidia cao cấp hiện nay. Xét rằng Web3 có thể cung cấp suy luận với chi phí thấp hơn thông qua GPU DePIN chưa được sử dụng tối đa, việc tính toán dư thừa sẽ làm suy yếu nghiêm trọng lập luận giá trị của Web3.
Giải pháp hứa hẹn hơn là thực hiện bằng chứng ZK cho tính toán suy luận AI ngoài chuỗi. Trong trường hợp này, bằng chứng ZK ngắn gọn có thể được xác minh để đảm bảo mô hình đã được huấn luyện đúng cách, hoặc suy luận đã được thực hiện chính xác (gọi là zkML). Ví dụ bao gồm Modulus Labs và ZKonduit. Vì thao tác ZK rất tốn tài nguyên tính toán, hiệu suất các giải pháp này vẫn ở giai đoạn sơ khai. Tuy nhiên, chúng tôi dự đoán tình hình sẽ cải thiện khi ASIC phần cứng ZK ra mắt trong tương lai gần.
Một viễn cảnh hứa hẹn hơn nữa là phương pháp suy luận AI "lạc quan" (Optimistic) dựa trên lấy mẫu. Trong mô hình này, chỉ cần xác minh một phần nhỏ kết quả do người xác minh tạo ra, nhưng đặt mức phạt kinh tế cắt giảm rất cao, đủ để tạo rào cản kinh tế mạnh mẽ nếu bị phát hiện gian lận. Bằng cách này, bạn tiết kiệm được chi phí tính toán dư thừa.
Một viễn cảnh hứa hẹn khác là các giải pháp dấu nước (watermark) và vân tay (fingerprint), ví dụ như giải pháp do Bagel Network đề xuất. Điều này tương tự cơ chế Amazon Alexa dùng để đảm bảo chất lượng mô hình AI bên trong hàng triệu thiết bị của họ.
Lợi ích thực sự #7: Tiết kiệm chi phí thông qua OSS (lợi nhuận của OpenAI)
Cơ hội tiếp theo mà Web3 mang lại cho AI là dân chủ hóa chi phí. Cho đến nay, chúng ta đã thảo luận về việc tiết kiệm chi phí GPU thông qua DePIN. Nhưng Web3 còn tạo cơ hội tiết kiệm biên lợi nhuận của các dịch vụ AI Web2 tập trung (ví dụ: OpenAI, tính đến thời điểm viết bài này, doanh thu hàng năm vượt 1 tỷ USD). Những khoản tiết kiệm này đến từ thực tế là sử dụng các mô hình OSS thay vì mô hình độc quyền để tiết kiệm thêm, vì người tạo mô hình không cố gắng sinh lời.
Nhiều mô hình OSS sẽ vẫn hoàn toàn miễn phí, mang lại lợi ích kinh tế tốt nhất cho khách hàng. Nhưng có thể một số mô hình OSS cũng sẽ thử nghiệm các phương pháp thương mại hóa. Cân nhắc rằng chỉ 4% các mô hình trên Hugging Face được đào tạo bởi các công ty có ngân sách trợ cấp. 96% còn lại do cộng đồng đào tạo. Nhóm này (96% Hugging Face) có chi phí thực tế cơ bản (bao gồm chi phí tính toán và dữ liệu). Do đó, các mô hình này sẽ cần được thương mại hóa theo một cách nào đó.
Có một số đề xuất để thương mại hóa các mô hình phần mềm mã nguồn mở. Một trong những ý tưởng thú vị nhất là khái niệm "phát hành mô hình ban đầu" (initial model offering), tức là token hóa chính mô hình, giữ lại một phần token cho nhóm, và định tuyến một phần doanh thu tương lai của mô hình đến người nắm giữ token, mặc dù chắc chắn sẽ có một số rào cản pháp lý và quản lý ở đây.
Các mô hình OSS khác sẽ thử nghiệm thương mại hóa theo lượt sử dụng. Lưu ý rằng, nếu điều này trở thành hiện thực, các mô hình OSS có thể bắt đầu giống ngày càng nhiều với mô hình sinh lời Web2. Trên thực tế, thị trường sẽ chia làm hai phần, một số mô hình vẫn hoàn toàn miễn phí.
Lợi ích thực sự #8: Nguồn dữ liệu phi tập trung
Một trong những thách thức lớn nhất của AI là tìm dữ liệu phù hợp để huấn luyện mô hình. Trước đây chúng tôi đã đề cập đến các thách thức của việc huấn luyện AI phi tập trung. Nhưng còn việc sử dụng mạng lưới phi tập trung để thu thập dữ liệu thì sao (sau đó có thể dùng để huấn luyện ở nơi khác, thậm chí tại các địa điểm Web2 truyền thống)?
Đó chính xác là điều mà các startup như Grass đang làm. Grass là một mạng lưới phi tập trung gồm các "bộ thu thập dữ liệu", những người đóng góp năng lực xử lý dư thừa của máy móc để thu thập dữ liệu, cung cấp thông tin cho việc huấn luyện mô hình AI. Giả sử, xét về quy mô, nhờ sức mạnh của mạng lưới các nút có động lực lớn, nguồn dữ liệu này có thể vượt trội hơn bất kỳ nguồn nội bộ nào của một công ty. Không chỉ bao gồm việc thu thập nhiều dữ liệu hơn, mà còn thu thập thường xuyên hơn để dữ liệu luôn liên quan và cập nhật. Thực tế, việc ngăn chặn một đội quân thu thập dữ liệu phi tập trung là không thể, vì chúng về bản chất là phi tập trung và không nằm trong một địa chỉ IP duy nhất. Họ còn có mạng lưới để làm sạch và chuẩn hóa dữ liệu, giúp dữ liệu hữu ích sau khi được thu thập.
Sau khi có dữ liệu, bạn cũng cần nơi để lưu trữ dữ liệu đó trên chuỗi, cũng như các mô hình LLM được tạo ra từ dữ liệu đó.
Lưu ý rằng, vai trò của dữ liệu trong AI Web3 có thể thay đổi trong tương lai. Hiện nay, trạng thái của các mô hình LLM là dùng dữ liệu để huấn luyện trước mô hình, và dần dần hoàn thiện mô hình bằng nhiều dữ liệu hơn theo thời gian. Tuy nhiên, do dữ liệu trên internet thay đổi theo thời gian thực, các mô hình này luôn hơi lỗi thời. Do đó, phản hồi từ suy luận LLM hơi kém chính xác.
Hướng phát triển trong tương lai có thể là một mô hình mới — dữ liệu "thời gian thực". Ý tưởng là khi một mô hình ngôn ngữ lớn (LLM) được hỏi một câu hỏi suy luận, LLM có thể truyền và tiêm dữ liệu được thu thập lại từ internet theo thời gian thực. Như vậy, LLM có thể sử dụng dữ liệu mới nhất. Grass đang nghiên cứu phần này.
Xin chân thành cảm ơn những cá nhân sau đã góp ý và hỗ trợ cho bài viết này: Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng, JW Wang.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News











