
Đa mô hình đồng thuận + xác minh phi tập trung: Mira Network xây dựng lớp tin cậy AI chống ảo giác và thiên kiến như thế nào?
Tuyển chọn TechFlowTuyển chọn TechFlow

Đa mô hình đồng thuận + xác minh phi tập trung: Mira Network xây dựng lớp tin cậy AI chống ảo giác và thiên kiến như thế nào?
Mạng Mira cố gắng xây dựng một tầng tin cậy cho AI. Vậy tại sao AI lại cần được tin tưởng? Và Mira giải quyết vấn đề này như thế nào?
Đã thấy mạng Mira ra mắt mạng thử nghiệm công khai vào hôm qua. Dự án này đang cố gắng xây dựng một tầng tin cậy cho AI. Nhưng tại sao AI lại cần được tin cậy? Và Mira sẽ giải quyết vấn đề này như thế nào?
Khi mọi người thảo luận về AI, họ thường tập trung nhiều hơn vào khả năng mạnh mẽ của nó. Tuy nhiên điều thú vị là AI tồn tại hiện tượng “ảo giác” hoặc định kiến. Vấn đề này chưa nhận được nhiều sự quan tâm. "Ảo giác" ở đây nghĩa là gì? Đơn giản mà nói, đó là việc AI thỉnh thoảng sẽ "bịa đặt", nói nhảm một cách nghiêm túc. Ví dụ, nếu bạn hỏi AI vì sao mặt trăng có màu hồng, nó có thể đưa ra hàng loạt lời giải thích nghe có vẻ hợp lý.
Hiện tượng "ảo giác" hay định kiến trong AI có liên hệ nhất định đến một số hướng phát triển công nghệ AI hiện nay. Chẳng hạn, AI sinh nội dung (generative AI) tạo ra kết quả bằng cách dự đoán những gì "có khả năng cao nhất" để đảm bảo tính mạch lạc và hợp lý, nhưng đôi khi không thể xác minh đúng sai. Ngoài ra, dữ liệu huấn luyện cũng chứa lỗi, định kiến hoặc thậm chí cả nội dung hư cấu, điều này ảnh hưởng trực tiếp đến đầu ra của AI. Nói cách khác, bản thân AI học theo các mẫu ngôn ngữ của con người chứ không phải học theo sự thật khách quan.
Tóm lại, mô hình hiện tại dựa trên cơ chế xác suất và dữ liệu gần như chắc chắn dẫn đến khả năng xảy ra ảo giác AI.
Nếu những nội dung có định kiến hay ảo giác này chỉ dùng trong lĩnh vực kiến thức thông thường hoặc giải trí, tạm thời chưa gây hậu quả trực tiếp. Nhưng nếu xảy ra trong các lĩnh vực nghiêm ngặt như y tế, pháp lý, hàng không, tài chính… thì sẽ dẫn đến hậu quả nghiêm trọng. Do đó, cách khắc phục ảo giác và định kiến trong AI là một trong những vấn đề cốt lõi trong quá trình phát triển AI. Một số giải pháp hiện có bao gồm: công nghệ tăng cường truy xuất (RAG - kết hợp với cơ sở dữ liệu thời gian thực, ưu tiên xuất ra các sự thật đã được kiểm chứng), hoặc đưa phản hồi từ con người vào, dùng việc gắn nhãn và giám sát nhân sự để hiệu chỉnh lỗi mô hình.
Dự án Mira cũng đang cố gắng giải quyết vấn đề định kiến và ảo giác trong AI – cụ thể là xây dựng một “tầng tin cậy” cho AI, giảm thiểu ảo giác và định kiến, từ đó nâng cao độ tin cậy của AI. Vậy về tổng thể, Mira làm thế nào để giảm thiểu định kiến và ảo giác trong AI, và cuối cùng đạt được AI đáng tin cậy?
Chìa khóa để Mira đạt được điều này nằm ở việc sử dụng sự đồng thuận giữa nhiều mô hình AI để xác minh đầu ra. Nói cách khác, bản thân Mira là một mạng lưới xác minh, kiểm tra độ tin cậy của đầu ra AI bằng cách tận dụng sự đồng thuận từ nhiều mô hình AI. Một điểm quan trọng khác là việc xác minh theo cơ chế đồng thuận phi tập trung.
Do đó, yếu tố then chốt của mạng Mira là xác minh đồng thuận phi tập trung. Cơ chế này vốn là thế mạnh của lĩnh vực mã hóa, đồng thời cũng tận dụng lợi thế của việc phối hợp nhiều mô hình AI, sử dụng mô hình xác minh tập thể để giảm thiểu định kiến và ảo giác.
Về kiến trúc xác minh, hệ thống cần có những tuyên bố có thể được xác minh độc lập. Giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố có thể xác minh độc lập. Những tuyên bố này cần các nhà vận hành nút tham gia xác minh. Để đảm bảo sự trung thực của các nhà vận hành nút, hệ thống sử dụng cơ chế khuyến khích/kỷ luật kinh tế mã hóa. Việc kết hợp nhiều mô hình AI với các nhà vận hành nút phân tán giúp đảm bảo độ tin cậy của kết quả xác minh.
Kiến trúc mạng Mira bao gồm ba thành phần: chuyển đổi nội dung, xác minh phân tán và cơ chế đồng thuận – nhằm đảm bảo độ tin cậy trong quá trình xác minh. Trong đó, chuyển đổi nội dung là một bước quan trọng. Mạng Mira trước tiên sẽ phân tách nội dung ứng viên (thường do khách hàng gửi) thành các tuyên bố riêng biệt có thể xác minh (để đảm bảo các mô hình hiểu theo cùng một bối cảnh). Các tuyên bố này được hệ thống phân phối đến các nút để xác minh tính hợp lệ, sau đó tổng hợp kết quả để đạt được sự đồng thuận. Kết quả và sự đồng thuận này sẽ được trả lại cho khách hàng. Ngoài ra, để bảo vệ quyền riêng tư của khách hàng, nội dung ứng viên được phân tách thành các cặp tuyên bố và gửi ngẫu nhiên theo từng mảnh nhỏ tới các nút khác nhau, nhằm ngăn rò rỉ thông tin trong quá trình xác minh.
Các nhà vận hành nút chịu trách nhiệm chạy các mô hình xác minh, xử lý các tuyên bố và nộp kết quả xác minh. Tại sao họ sẵn sàng tham gia? Vì họ có thể kiếm được lợi nhuận. Lợi nhuận đến từ đâu? Từ giá trị tạo ra cho khách hàng. Mục tiêu của mạng Mira là giảm tỷ lệ lỗi của AI (ảo giác và định kiến). Khi mục tiêu này đạt được, giá trị sẽ được tạo ra – ví dụ như giảm sai sót trong các lĩnh vực y tế, pháp lý, hàng không, tài chính… mang lại giá trị khổng lồ. Do đó, khách hàng sẵn lòng chi trả. Tất nhiên, tính bền vững và quy mô thanh toán phụ thuộc vào việc mạng Mira có thực sự liên tục tạo ra giá trị (giảm tỷ lệ lỗi AI) hay không. Hơn nữa, để ngăn hành vi投机取巧 ngẫu nhiên từ các nút, những nút liên tục lệch khỏi đồng thuận sẽ bị phạt giảm token thế chấp. Tóm lại, hệ thống sử dụng cơ chế kinh tế để đảm bảo các nhà vận hành nút tham gia xác minh một cách trung thực.
Nhìn chung, Mira cung cấp một hướng giải quyết mới nhằm nâng cao độ tin cậy của AI: xây dựng một mạng xác minh đồng thuận phi tập trung dựa trên nền tảng nhiều mô hình AI, mang lại dịch vụ AI đáng tin cậy hơn cho khách hàng, giảm thiểu định kiến và ảo giác, đáp ứng nhu cầu ngày càng cao về độ chính xác và độ tin cậy. Đồng thời, dựa trên giá trị tạo ra cho khách hàng, mạng Mira cũng mang lại lợi ích cho các bên tham gia. Nếu tóm gọn trong một câu: Mira đang cố gắng xây dựng một tầng tin cậy cho AI. Điều này thúc đẩy việc ứng dụng sâu rộng hơn của AI.
Hiện tại, các framework AI agent hợp tác với Mira bao gồm ai16z, ARC... Mạng thử nghiệm công khai của Mira đã ra mắt hôm qua. Người dùng có thể tham gia trải nghiệm thông qua ứng dụng Klok – một ứng dụng trò chuyện LLM dựa trên Mira. Dùng Klok, người dùng có thể trải nghiệm đầu ra AI đã qua xác minh (so sánh sự khác biệt với đầu ra AI chưa qua xác minh), đồng thời kiếm điểm tích lũy Mira. Về mục đích sử dụng điểm tích lũy trong tương lai, hiện chưa được tiết lộ.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News













