
AI x DePIN: Sự va chạm của các lĩnh vực nóng sẽ tạo ra những cơ hội mới nào?
Tuyển chọn TechFlowTuyển chọn TechFlow

AI x DePIN: Sự va chạm của các lĩnh vực nóng sẽ tạo ra những cơ hội mới nào?
Bằng sức mạnh của thuật toán, năng lực tính toán và dữ liệu, sự tiến bộ của công nghệ AI đang tái định nghĩa ranh giới xử lý dữ liệu và ra quyết định thông minh.
Tác giả: Cynic, Shigeru
Bài viết này là tập thứ hai trong chuỗi báo cáo nghiên cứu Web3 x AI. Phần mở đầu vui lòng xem tại: Từ song song đến giao thoa: Khám phá làn sóng kinh tế số mới do sự kết hợp Web3 và AI dẫn dắt
Khi thế giới đang ngày càng đẩy mạnh quá trình chuyển đổi số, AI và DePIN (Cơ sở hạ tầng vật lý phi tập trung) đã trở thành những công nghệ nền tảng thúc đẩy sự biến đổi trong mọi lĩnh vực. Sự kết hợp giữa AI và DePIN không chỉ thúc đẩy việc nhanh chóng cập nhật công nghệ và mở rộng ứng dụng, mà còn mở ra các mô hình dịch vụ an toàn hơn, minh bạch hơn và hiệu quả cao hơn, mang lại những thay đổi sâu sắc cho nền kinh tế toàn cầu.
DePIN: Phi tập trung hóa từ ảo sang thực, trụ cột của nền kinh tế số
DePIN là từ viết tắt của "Decentralized Physical Infrastructure" - Cơ sở hạ tầng vật lý phi tập trung. Theo nghĩa hẹp, DePIN chủ yếu chỉ mạng lưới phân tán các cơ sở hạ tầng vật lý truyền thống được hỗ trợ bởi công nghệ sổ cái phân tán, ví dụ như mạng điện, mạng viễn thông, mạng định vị,... Theo nghĩa rộng, tất cả các mạng phân tán được hỗ trợ bởi thiết bị vật lý đều có thể gọi là DePIN, ví dụ như mạng lưu trữ, mạng tính toán.

từ: Messari
Nếu nói rằng Crypto đã mang lại cuộc cách mạng phi tập trung trong lĩnh vực tài chính, thì DePIN chính là giải pháp phi tập trung cho nền kinh tế thực. Có thể nói, máy đào PoW chính là một dạng DePIN. Ngay từ ngày đầu tiên, DePIN đã là trụ cột cốt lõi của Web3.
Ba yếu tố của AI —— thuật toán, năng lực tính toán, dữ liệu; DePIN nắm giữ tới hai trong số đó
Sự phát triển của trí tuệ nhân tạo thường được cho là phụ thuộc vào ba yếu tố then chốt: thuật toán, năng lực tính toán và dữ liệu. Thuật toán là các mô hình toán học và logic chương trình điều khiển hệ thống AI; năng lực tính toán là tài nguyên cần thiết để thực thi các thuật toán này; dữ liệu là nền tảng để huấn luyện và tối ưu hóa các mô hình AI.

Trong ba yếu tố trên, yếu tố nào quan trọng nhất? Trước khi chatGPT xuất hiện, người ta thường cho rằng đó là thuật toán, nếu không thì các hội nghị học thuật, tạp chí khoa học đã không bị chiếm lĩnh bởi hàng loạt bài viết về tinh chỉnh thuật toán. Tuy nhiên, sau khi chatGPT và mô hình ngôn ngữ lớn (LLM) hỗ trợ trí tuệ của nó ra mắt, con người bắt đầu nhận thức rõ tầm quan trọng của hai yếu tố còn lại. Năng lực tính toán khổng lồ là điều kiện tiên quyết để mô hình ra đời, chất lượng và tính đa dạng của dữ liệu cực kỳ quan trọng đối với việc xây dựng hệ thống AI mạnh mẽ và hiệu quả, so với đó, yêu cầu đối với thuật toán không còn phải tỉ mỉ như trước nữa.
Trong thời đại mô hình lớn, AI chuyển từ “điêu khắc tinh xảo” sang “sức mạnh áp đảo”, nhu cầu về năng lực tính toán và dữ liệu ngày càng tăng, và DePIN vừa vặn có thể đáp ứng điều này. Cơ chế khuyến khích bằng token khai thác thị trường đuôi dài, vô số năng lực tính toán và lưu trữ cấp tiêu dùng sẽ trở thành nguồn dinh dưỡng tốt nhất cho các mô hình lớn.
Phi tập trung hóa AI không phải là lựa chọn, mà là điều bắt buộc
Dĩ nhiên, có người sẽ hỏi: năng lực tính toán và dữ liệu đều có sẵn trong các trung tâm dữ liệu của AWS, và về độ ổn định, trải nghiệm sử dụng còn vượt trội hơn DePIN, vậy tại sao lại chọn DePIN thay vì các dịch vụ tập trung?
Lập luận này tự nhiên có lý do riêng, bởi nhìn vào thực tế hiện nay, gần như tất cả các mô hình lớn đều do các doanh nghiệp Internet lớn trực tiếp hoặc gián tiếp phát triển: đằng sau chatGPT là Microsoft, đằng sau Gemini là Google, các “ông lớn” Internet Trung Quốc gần như ai cũng có một mô hình lớn. Vì sao? Bởi chỉ có các doanh nghiệp Internet lớn mới sở hữu đủ dữ liệu chất lượng cao và năng lực tính toán được hậu thuẫn bởi tiềm lực tài chính hùng mạnh. Nhưng điều này là sai, con người đã không muốn bị các tập đoàn Internet kiểm soát mọi thứ nữa.
Một mặt, AI tập trung tiềm ẩn rủi ro về quyền riêng tư và an ninh dữ liệu, có thể bị kiểm duyệt và kiểm soát; mặt khác, AI do các tập đoàn Internet tạo ra sẽ khiến con người ngày càng lệ thuộc hơn, đồng thời dẫn đến tập trung thị trường và gia tăng rào cản đổi mới sáng tạo.

từ: https://www.gensyn.ai/
Con người không nên cần một Martin Luther cho kỷ nguyên AI nữa, con người nên có quyền đối thoại trực tiếp với thần thánh.
Nhìn từ góc độ thương mại: DePIN hướng tới giảm chi phí và nâng cao hiệu quả
Ngay cả khi bỏ qua tranh luận về giá trị giữa phi tập trung và tập trung, xét từ góc độ thương mại, việc sử dụng DePIN cho AI vẫn có nhiều điểm khả thi.
Thứ nhất, chúng ta cần nhận thức rõ ràng rằng, mặc dù các tập đoàn Internet lớn nắm giữ lượng lớn card đồ họa cao cấp, nhưng khi tập hợp lại, các card đồ họa cấp tiêu dùng nằm rải rác trong dân chúng cũng có thể tạo thành một mạng lưới tính toán đáng kể, hay còn gọi là hiệu ứng đuôi dài về năng lực tính toán. Những card đồ họa cấp tiêu dùng này thực tế có tỷ lệ nhàn rỗi rất cao. Miễn là phần thưởng mà DePIN cung cấp vượt quá tiền điện, người dùng sẽ có động lực đóng góp năng lực tính toán cho mạng. Đồng thời, tất cả cơ sở vật chất được người dùng tự quản lý, mạng DePIN không cần gánh chịu chi phí vận hành mà nhà cung cấp tập trung không thể tránh khỏi, chỉ cần tập trung vào thiết kế giao thức.
Về dữ liệu, mạng DePIN thông qua các phương pháp như điện toán biên (edge computing), có thể giải phóng khả năng sử dụng của dữ liệu tiềm năng, giảm chi phí truyền tải. Đồng thời, hầu hết các mạng lưu trữ phân tán có chức năng loại bỏ trùng lặp tự động, giảm công đoạn làm sạch dữ liệu huấn luyện AI.
Cuối cùng, kinh tế học mã hóa (Crypto Economics) mà DePIN mang lại mở rộng khả năng chịu lỗi của hệ thống, hứa hẹn đạt được tình thế "ba bên cùng thắng": nhà cung cấp, người tiêu dùng và nền tảng.

từ: UCLA
Để bạn tin tưởng hơn, nghiên cứu mới nhất của UCLA cho thấy, với cùng chi phí, việc sử dụng điện toán phi tập trung so với cụm GPU truyền thống đạt hiệu suất cao gấp 2,75 lần, cụ thể là nhanh hơn 1,22 lần và rẻ hơn 4,83 lần.
Khó khăn chồng chất: AIxDePIN sẽ gặp phải những thử thách gì?
Chúng ta chọn lên Mặt Trăng trong thập kỷ này và làm những việc khác, không phải vì chúng dễ dàng, mà vì chúng khó khăn. —— John Fitzgerald Kennedy
Việc sử dụng lưu trữ phân tán và tính toán phân tán của DePIN để xây dựng mô hình trí tuệ nhân tạo một cách không tin cậy vẫn còn nhiều thách thức.
Xác minh công việc
Về bản chất, việc tính toán mô hình học sâu và đào PoW đều là tính toán phổ thông, ở mức thấp nhất đều là sự thay đổi tín hiệu giữa các cổng logic. Trên phương diện vĩ mô, đào PoW là "tính toán vô ích", cố gắng tìm ra giá trị băm có n số 0 ở đầu bằng cách sinh ngẫu nhiên vô số số và tính toán hàm băm; trong khi tính toán học sâu là "tính toán hữu ích", tính toán giá trị tham số từng lớp trong học sâu thông qua suy diễn tiến và phản hồi, từ đó xây dựng một mô hình AI hiệu quả.
Sự thật là, loại "tính toán vô ích" như đào PoW sử dụng hàm băm, việc tính ảnh từ gốc rất dễ, nhưng tính ngược lại thì rất khó, do đó bất kỳ ai cũng có thể dễ dàng và nhanh chóng xác minh tính hợp lệ của phép tính; trong khi đó, với việc tính toán mô hình học sâu, do cấu trúc phân tầng, đầu ra của mỗi lớp đều là đầu vào của lớp tiếp theo, do đó việc xác minh tính hợp lệ của phép tính cần thực hiện lại tất cả các bước trước đó, không thể xác minh một cách đơn giản và hiệu quả.

từ: AWS
Xác minh công việc cực kỳ quan trọng, nếu không, người cung cấp tính toán hoàn toàn có thể không thực hiện tính toán mà chỉ gửi kết quả ngẫu nhiên.
Một ý tưởng là yêu cầu các máy chủ khác nhau thực hiện cùng một nhiệm vụ tính toán, rồi kiểm tra xem kết quả có giống nhau hay không để xác minh tính hợp lệ. Tuy nhiên, phần lớn các phép tính mô hình là phi xác định, ngay cả trong môi trường tính toán hoàn toàn giống nhau cũng không thể tái tạo kết quả giống hệt, chỉ có thể tương tự về mặt thống kê. Ngoài ra, việc tính toán lặp lại sẽ khiến chi phí tăng nhanh chóng, điều này trái ngược với mục tiêu giảm chi phí và nâng cao hiệu quả của DePIN.
Một ý tưởng khác là cơ chế Optimistic: ban đầu tin tưởng một cách lạc quan rằng kết quả đã được tính toán hợp lệ, đồng thời cho phép bất kỳ ai kiểm tra kết quả tính toán, nếu phát hiện sai sót, có thể nộp "bằng chứng gian lận" (Fraud Proof), giao thức sẽ tịch thu token của kẻ gian lận và thưởng cho người tố cáo.
Tính toán song song
Như đã đề cập trước đó, DePIN khai thác chủ yếu là thị trường năng lực tính toán cấp tiêu dùng ở đuôi dài, điều này đồng nghĩa rằng năng lực tính toán mà một thiết bị đơn lẻ cung cấp khá hạn chế. Đối với các mô hình AI lớn, thời gian huấn luyện trên một thiết bị đơn lẻ sẽ rất lâu, do đó phải sử dụng phương pháp song song để rút ngắn thời gian huấn luyện.
Khó khăn chính của việc song song hóa huấn luyện học sâu nằm ở sự phụ thuộc giữa các tác vụ liên tiếp, mối quan hệ phụ thuộc này khiến việc song song hóa trở nên khó khăn.
Hiện nay, song song hóa huấn luyện học sâu chủ yếu được chia thành song song dữ liệu và song song mô hình.
Song song dữ liệu là phân phối dữ liệu trên nhiều máy, mỗi máy lưu trữ toàn bộ tham số mô hình, sử dụng dữ liệu cục bộ để huấn luyện, cuối cùng tổng hợp tham số từ các máy. Song song dữ liệu hiệu quả khi khối lượng dữ liệu rất lớn, nhưng cần giao tiếp đồng bộ để tổng hợp tham số.
Song song mô hình là khi mô hình quá lớn không thể chứa trong một máy đơn lẻ, có thể chia nhỏ mô hình đặt trên nhiều máy, mỗi máy lưu trữ một phần tham số mô hình. Khi lan truyền tiến và lan truyền ngược cần giao tiếp giữa các máy khác nhau. Song song mô hình có lợi thế khi mô hình rất lớn, nhưng chi phí giao tiếp trong quá trình lan truyền tiến và ngược rất cao.
Đối với thông tin gradient giữa các lớp, lại có thể chia thành cập nhật đồng bộ và cập nhật bất đồng bộ. Cập nhật đồng bộ đơn giản trực tiếp, nhưng làm tăng thời gian chờ đợi; cập nhật bất đồng bộ giảm thời gian chờ đợi, nhưng gây ra vấn đề về độ ổn định.

từ: Đại học Stanford, Deep Learning Song song và Phân tán
Bảo mật
Toàn cầu đang trỗi dậy xu hướng bảo vệ quyền riêng tư cá nhân, các chính phủ trên thế giới đều đang tăng cường bảo vệ an ninh dữ liệu cá nhân. Mặc dù AI sử dụng rất nhiều bộ dữ liệu công khai, nhưng điều thực sự phân biệt các mô hình AI khác nhau vẫn là dữ liệu người dùng độc quyền của từng doanh nghiệp.
Làm thế nào để hưởng lợi từ dữ liệu độc quyền trong quá trình huấn luyện mà không tiết lộ thông tin riêng tư? Làm thế nào để đảm bảo tham số mô hình AI xây dựng không bị rò rỉ?
Đây là hai khía cạnh về quyền riêng tư: quyền riêng tư dữ liệu và quyền riêng tư mô hình. Quyền riêng tư dữ liệu bảo vệ người dùng, còn quyền riêng tư mô hình bảo vệ tổ chức xây dựng mô hình. Trong tình hình hiện tại, quyền riêng tư dữ liệu quan trọng hơn nhiều so với quyền riêng tư mô hình.
Nhiều giải pháp đang được thử nghiệm để giải quyết vấn đề bảo mật. Học liên bang (Federated Learning) thực hiện huấn luyện tại nơi dữ liệu tồn tại, giữ dữ liệu tại chỗ và chỉ truyền tham số mô hình, nhằm bảo vệ quyền riêng tư dữ liệu; trong khi bằng chứng không kiến thức (zero-knowledge proof) có thể trở thành một nhân tố nổi bật.
Phân tích điển hình: Thị trường hiện có những dự án chất lượng nào?
Gensyn
Gensyn là một mạng tính toán phân tán, dùng để huấn luyện mô hình AI. Mạng này sử dụng blockchain lớp một dựa trên Polkadot để xác minh xem nhiệm vụ học sâu đã được thực hiện đúng chưa, và kích hoạt thanh toán thông qua lệnh. Được thành lập năm 2020, tháng 6 năm 2023 công bố khoản gọi vốn vòng A 43 triệu USD, do a16z dẫn đầu.
Gensyn sử dụng siêu dữ liệu từ quá trình tối ưu hóa dựa trên gradient để xây dựng chứng chỉ công việc đã thực hiện, và nhờ giao thức chính xác đa mức độ, dựa trên đồ thị và đánh giá chéo thực hiện nhất quán, cho phép chạy lại xác minh công việc và so sánh tính nhất quán, cuối cùng được xác nhận bởi chính chuỗi, nhằm đảm bảo tính hợp lệ của phép tính. Để tăng cường thêm độ tin cậy của việc xác minh công việc, Gensyn đưa vào cơ chế ký quỹ để tạo động lực.
Hệ thống có bốn loại người tham gia: Người gửi, Người giải, Người xác minh và Người tố cáo.
-
Người gửi là người dùng cuối hệ thống, cung cấp nhiệm vụ cần tính toán và trả tiền cho các đơn vị công việc đã hoàn thành.
-
Người giải là người thực hiện công việc chính trong hệ thống, thực hiện huấn luyện mô hình và tạo ra bằng chứng để người xác minh kiểm tra.
-
Người xác minh là chìa khóa nối quá trình huấn luyện phi xác định với phép tính tuyến tính xác định, sao chép một phần bằng chứng của người giải và so sánh khoảng cách với ngưỡng dự kiến.
-
Người tố cáo là hàng rào cuối cùng, kiểm tra công việc của người xác minh và đưa ra thách thức, nếu thách thức thành công sẽ nhận được phần thưởng.
Người giải cần ký quỹ, người tố cáo kiểm tra công việc của người giải, nếu phát hiện gian lận, đưa ra thách thức, nếu thách thức thành công, token ký quỹ của người giải sẽ bị tịch thu, người tố cáo nhận được phần thưởng.
Theo dự đoán của Gensyn, giải pháp này có tiềm năng giảm chi phí huấn luyện xuống còn 1/5 so với nhà cung cấp tập trung.

từ: Gensyn
FedML
FedML là một nền tảng học máy hợp tác phi tập trung, dùng để thực hiện AI hợp tác và phi tập trung ở mọi quy mô và mọi nơi. Cụ thể hơn, FedML cung cấp một hệ sinh thái MLOps, có thể huấn luyện, triển khai, giám sát và cải thiện liên tục các mô hình học máy, đồng thời hợp tác trên các nguồn dữ liệu, mô hình và tài nguyên tính toán theo cách bảo vệ quyền riêng tư. Được thành lập năm 2022, FedML công bố gọi vốn hạt giống 6 triệu USD vào tháng 3 năm 2023.
FedML gồm hai thành phần chính: FedML-API và FedML-core, đại diện cho API cấp cao và API cấp thấp.
FedML-core bao gồm hai module độc lập: giao tiếp phân tán và huấn luyện mô hình. Module giao tiếp chịu trách nhiệm giao tiếp cấp thấp giữa các người làm việc/khách hàng, dựa trên MPI; module huấn luyện mô hình dựa trên PyTorch.
FedML-API được xây dựng trên FedML-core. Nhờ FedML-core, có thể dễ dàng triển khai các thuật toán phân tán mới thông qua việc áp dụng giao diện lập trình hướng khách hàng.
Trong nghiên cứu mới nhất, đội ngũ FedML chứng minh rằng, sử dụng FedML Nexus AI trên card đồ họa cấp tiêu dùng RTX 4090 để suy luận mô hình AI, rẻ hơn 20 lần và nhanh hơn 1,88 lần so với A100.

từ: FedML
Triển vọng tương lai: DePIN mang lại sự dân chủ hóa AI
Một ngày nào đó, khi AI phát triển thêm thành AGI, lúc đó năng lực tính toán sẽ trở thành loại tiền tệ phổ quát trên thực tế, và DePIN khiến quá trình này xảy ra sớm hơn.
Sự kết hợp giữa AI và DePIN mở ra một điểm tăng trưởng công nghệ hoàn toàn mới, mang lại cơ hội to lớn cho sự phát triển trí tuệ nhân tạo. DePIN cung cấp cho AI lượng lớn năng lực tính toán và dữ liệu phân tán, giúp huấn luyện các mô hình quy mô lớn hơn, đạt được trí tuệ mạnh mẽ hơn. Đồng thời, DePIN cũng giúp AI phát triển theo hướng mở hơn, an toàn hơn, đáng tin cậy hơn, giảm sự phụ thuộc vào một cơ sở hạ tầng tập trung duy nhất.
Nhìn về tương lai, AI và DePIN sẽ liên tục phát triển hài hòa. Mạng phân tán sẽ cung cấp nền tảng mạnh mẽ để huấn luyện các mô hình siêu lớn, những mô hình này lại sẽ đóng vai trò quan trọng trong các ứng dụng DePIN. Trong khi bảo vệ quyền riêng tư và an toàn, AI cũng sẽ hỗ trợ tối ưu hóa giao thức và thuật toán mạng DePIN. Chúng tôi mong đợi AI và DePIN sẽ mang lại một thế giới kỹ thuật số hiệu quả hơn, công bằng hơn và đáng tin cậy hơn.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












