
MCP: Động cơ cốt lõi thúc đẩy thế hệ AI Agent Web3 tiếp theo
Tuyển chọn TechFlowTuyển chọn TechFlow

MCP: Động cơ cốt lõi thúc đẩy thế hệ AI Agent Web3 tiếp theo
Giá trị thực sự và tiềm năng của MCP chỉ có thể được nhìn thấy rõ ràng khi AI Agent tích hợp nó và chuyển hóa thành các ứng dụng hữu ích.
Tác giả: Frank Fu @IOSG
MCP đang nhanh chóng chiếm vị trí trung tâm trong hệ sinh thái Web3 AI Agent, thông qua kiến trúc tương tự plugin, giới thiệu MCP Server để trao cho AI Agent những công cụ và khả năng mới.
Tương tự như các câu chuyện mới nổi khác trong lĩnh vực Web3 AI (ví dụ như vibe coding), MCP, viết đầy đủ là Model Context Protocol, bắt nguồn từ Web2 AI và hiện đang được tái tưởng tượng trong bối cảnh Web3.
MCP là gì?
MCP là một giao thức mở do Anthropic đề xuất, dùng để chuẩn hóa cách các ứng dụng truyền thông tin ngữ cảnh đến các mô hình ngôn ngữ lớn (LLMs). Điều này giúp công cụ, dữ liệu và AI Agent hợp tác liền mạch hơn.
Tại sao nó quan trọng?
Hiện tại, các hạn chế chính của mô hình ngôn ngữ lớn bao gồm:
-
Không thể duyệt Internet thời gian thực
-
Không thể truy cập trực tiếp vào tệp cục bộ hoặc riêng tư
-
Không thể tự chủ tương tác với phần mềm bên ngoài
MCP lấp đầy khoảng trống về năng lực này bằng cách đóng vai trò như một lớp giao diện chung, cho phép AI Agent sử dụng nhiều loại công cụ khác nhau.
Bạn có thể so sánh MCP với USB-C trong lĩnh vực ứng dụng AI —— một tiêu chuẩn giao diện thống nhất giúp AI dễ dàng kết nối với nhiều nguồn dữ liệu và mô-đun chức năng.
Hãy tưởng tượng mỗi LLM là một chiếc điện thoại khác nhau —— Claude dùng USB-A, ChatGPT dùng USB-C, còn Gemini dùng cổng Lightning. Nếu bạn là nhà sản xuất phần cứng, bạn phải phát triển riêng một bộ phụ kiện cho từng loại cổng, chi phí bảo trì cực kỳ cao.
Đây chính xác là vấn đề mà các nhà phát triển công cụ AI đang gặp phải: việc tùy chỉnh plugin cho từng nền tảng LLM làm tăng đáng kể độ phức tạp và hạn chế khả năng mở rộng quy mô. MCP ra đời để giải quyết vấn đề này, bằng cách thiết lập một tiêu chuẩn thống nhất, giống như việc yêu cầu tất cả LLM và nhà cung cấp công cụ đều dùng cổng USB-C.

Giao thức chuẩn hóa này mang lại lợi ích cho cả hai bên:
-
Đối với AI Agent (máy khách): có thể kết nối an toàn với các công cụ bên ngoài và nguồn dữ liệu thời gian thực
-
Đối với nhà phát triển công cụ (máy chủ): tích hợp một lần, dùng được trên mọi nền tảng

Kết quả cuối cùng là một hệ sinh thái AI cởi mở hơn, có khả năng tương tác tốt và ít ma sát hơn.

MCP khác API truyền thống ở điểm nào?
API được thiết kế để phục vụ con người, chứ không phải AI-first. Mỗi API đều có cấu trúc và tài liệu riêng, nhà phát triển phải tự tay chỉ định tham số và đọc tài liệu giao diện. Trong khi đó, bản thân AI Agent không thể đọc tài liệu và buộc phải được lập trình cứng để phù hợp với từng loại API (như REST, GraphQL, RPC, v.v.).
MCP giải quyết điều này bằng cách chuẩn hóa định dạng gọi hàm bên trong API, trừu tượng hóa các phần phi cấu trúc và cung cấp phương pháp gọi thống nhất cho Agent. Bạn có thể xem MCP như một lớp thích ứng API dành riêng cho Autonomous Agent.
Khi Anthropic lần đầu tiên ra mắt MCP vào tháng 11 năm 2024, các nhà phát triển cần triển khai máy chủ MCP trên thiết bị cục bộ. Nhưng đến tháng 5 năm nay, Cloudflare đã công bố tại Tuần lễ Nhà phát triển rằng, các nhà phát triển có thể triển khai máy chủ MCP từ xa trực tiếp trên nền tảng Cloudflare Workers với cấu hình thiết bị tối thiểu. Điều này đơn giản hóa đáng kể quá trình triển khai và quản lý máy chủ MCP, bao gồm xác thực và truyền dữ liệu, gần như đạt mức "triển khai một cú nhấp chuột".
Mặc dù bản thân MCP dường như chưa đủ "gây chú ý", nhưng tuyệt đối không thể coi thường. Là một thành phần cơ sở hạ tầng thuần túy, MCP không thể dùng trực tiếp cho người tiêu dùng; giá trị thực sự của nó chỉ lộ rõ khi các AI Agent cấp cao gọi các công cụ MCP và thể hiện hiệu quả thực tế.
Bản đồ hệ sinh thái Web3 AI x MCP
AI trong Web3 cũng đối mặt với vấn đề "thiếu dữ liệu ngữ cảnh" và "trụ sở dữ liệu", nghĩa là AI không thể truy cập dữ liệu thời gian thực trên chuỗi hay thực thi logic hợp đồng thông minh một cách bản địa.
Trước đây, các dự án như ai16Z, ARC, Swarms, Myshell... đã cố gắng xây dựng mạng lưới cộng tác đa Agent, nhưng cuối cùng lại rơi vào tình trạng "tái tạo bánh xe" do phụ thuộc vào API tập trung và tích hợp tùy chỉnh.
Mỗi lần kết nối với một nguồn dữ liệu đều phải viết lại lớp thích ứng, dẫn đến chi phí phát triển tăng vọt. Để giải quyết điểm nghẽn này, thế hệ AI Agent tiếp theo cần một kiến trúc mô-đun kiểu Lego, cho phép tích hợp liền mạch các plugin và công cụ bên thứ ba.
Vì vậy, các cơ sở hạ tầng và ứng dụng AI Agent thế hệ mới dựa trên MCP và giao thức A2A đang nổi lên, được thiết kế riêng cho các kịch bản Web3, giúp Agent truy cập dữ liệu đa chuỗi và tương tác bản địa với các giao thức DeFi.

▲ Nguồn: IOSG Ventures
(Bản đồ này không hoàn toàn bao phủ tất cả các dự án Web3 liên quan đến MCP)
Các ví dụ dự án: DeMCP và DeepCore
DeMCP là một chợ dịch vụ MCP phi tập trung (https://github.com/modelcontextprotocol/servers), tập trung vào các công cụ mã hóa bản địa và đảm bảo chủ quyền công cụ MCP.
Ưu điểm của nó bao gồm:
-
Sử dụng TEE (Môi trường Thực thi Đáng tin cậy) để đảm bảo công cụ MCP không bị sửa đổi
-
Sử dụng cơ chế khuyến khích bằng token để khuyến khích nhà phát triển đóng góp máy chủ MCP
-
Cung cấp chức năng tổng hợp MCP và thanh toán vi mô, giảm rào cản sử dụng

Một dự án khác là DeepCore (deepcore.top) cũng cung cấp hệ thống đăng ký MCP Server, tập trung vào lĩnh vực mã hóa và mở rộng thêm sang một tiêu chuẩn mở khác do Google đề xuất: giao thức A2A (Agent-to-Agent) (https://x.com/i/trending/1910001585008058782).

A2A là một giao thức mở được Google công bố vào ngày 9 tháng 4 năm 2025, nhằm mục đích thực hiện giao tiếp an toàn, hợp tác và phối hợp nhiệm vụ giữa các AI Agent khác nhau. A2A hỗ trợ hợp tác AI cấp doanh nghiệp, ví dụ như cho phép các Agent của các công ty khác nhau cộng tác xử lý nhiệm vụ (chẳng hạn như Agent CRM của Salesforce hợp tác với Agent Jira của Atlassian).
Nếu MCP tập trung vào tương tác giữa Agent (máy khách) và công cụ (máy chủ), thì A2A giống như một lớp trung gian hợp tác giữa các Agent, cho phép nhiều Agent cộng tác hoàn thành nhiệm vụ mà không cần chia sẻ trạng thái nội bộ. Chúng hợp tác thông qua ngữ cảnh, chỉ thị, cập nhật trạng thái và truyền dữ liệu.
A2A được coi là "ngôn ngữ chung" cho sự hợp tác giữa các AI Agent, thúc đẩy khả năng tương tác AI xuyên nền tảng, xuyên đám mây, và có thể thay đổi cách làm việc của AI doanh nghiệp. Vì vậy, bạn có thể xem A2A như Slack của thế giới Agent —— một Agent khởi tạo nhiệm vụ, Agent khác thực hiện.
Tóm lại:
-
MCP: cung cấp khả năng truy cập công cụ cho Agent
-
A2A: cung cấp khả năng cộng tác lẫn nhau cho Agent

Tại sao máy chủ MCP cần blockchain?
Việc tích hợp công nghệ blockchain vào MCP Server mang lại nhiều lợi ích:
1. Thu thập dữ liệu dài hạn thông qua cơ chế khuyến khích bản địa mã hóa, khuyến khích cộng đồng đóng góp các bộ dữ liệu khan hiếm
2. Phòng chống tấn công "đầu độc công cụ", tức là các công cụ ác ý giả dạng plugin hợp pháp để đánh lừa Agent
-
Blockchain cung cấp cơ chế xác thực mã hóa, như TEE Remote Attestation, ZK-SNARK, FHE, v.v.
-
Xem thêm bài viết này (https://ybbcapital.substack.com/p/from-suis-sub-second-mpc-network?utm_source=substack&utm_medium=email)

3. Giới thiệu cơ chế đặt cược / phạt, kết hợp với hệ thống danh tiếng trên chuỗi để xây dựng hệ thống niềm tin cho máy chủ MCP
4. Cải thiện khả năng chịu lỗi và tính thời gian thực, tránh điểm lỗi đơn như các hệ thống tập trung kiểu Equifax
5. Thúc đẩy đổi mới mã nguồn mở, cho phép các nhà phát triển nhỏ công bố các nguồn dữ liệu như ESG, làm phong phú thêm tính đa dạng của hệ sinh thái
Hiện tại, phần lớn cơ sở hạ tầng MCP Server vẫn dựa vào việc phân tích lời nhắc ngôn ngữ tự nhiên của người dùng để tìm kiếm công cụ phù hợp. Trong tương lai, AI Agent sẽ có khả năng tự tìm kiếm các công cụ MCP cần thiết để hoàn thành các mục tiêu nhiệm vụ phức tạp.
Tuy nhiên, hiện tại các dự án MCP vẫn ở giai đoạn sơ khai. Phần lớn các nền tảng vẫn là chợ plugin tập trung, do đội ngũ dự án tự tay tổng hợp các công cụ Server bên thứ ba từ GitHub và tự phát triển một số plugin, về bản chất không khác biệt nhiều so với chợ plugin Web2, duy chỉ khác là tập trung vào các kịch bản Web3.
Xu hướng tương lai và ảnh hưởng ngành
Hiện nay, ngày càng nhiều người trong ngành mã hóa nhận ra tiềm năng của MCP trong việc kết nối AI và blockchain. Ví dụ, người sáng lập Binance CZ gần đây đã kêu gọi công khai các nhà phát triển AI tích cực xây dựng các MCP Server chất lượng cao, cung cấp bộ công cụ phong phú hơn cho các AI Agent trên BNB Chain. Danh sách dự án BNB MCP Server đã được công khai để người dùng khám phá hệ sinh thái tham khảo.
Khi cơ sở hạ tầng trưởng thành, lợi thế cạnh tranh của các công ty đi đầu về nhà phát triển sẽ chuyển từ thiết kế API sang: ai có thể cung cấp bộ công cụ phong phú hơn, đa dạng hơn và dễ tổ hợp hơn.
Trong tương lai, mỗi ứng dụng có thể trở thành một máy khách MCP, mỗi API có thể trở thành một máy chủ MCP.
Điều này có thể thúc đẩy cơ chế giá mới: Agent có thể lựa chọn công cụ một cách động dựa trên tốc độ thực thi, hiệu quả chi phí, mức độ liên quan, từ đó hình thành một hệ thống kinh tế dịch vụ Agent hiệu quả hơn, được hỗ trợ bởi Crypto và blockchain làm phương tiện.
Tất nhiên, bản thân MCP không hướng trực tiếp đến người dùng cuối; nó là một lớp giao thức nền tảng. Nghĩa là, giá trị thực sự và tiềm năng của MCP chỉ được nhìn thấy khi AI Agent tích hợp nó và biến thành các ứng dụng hữu ích.
Cuối cùng, Agent là phương tiện và bộ khuếch đại năng lực của MCP, trong khi blockchain và cơ chế mã hóa xây dựng nên hệ thống kinh tế đáng tin cậy, hiệu quả và có khả năng tổ hợp cho mạng lưới thông minh này.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












