
Thời đại trí tuệ nhân tạo mạnh, blockchain còn cơ hội nào không?
Tuyển chọn TechFlowTuyển chọn TechFlow

Thời đại trí tuệ nhân tạo mạnh, blockchain còn cơ hội nào không?
Blockchain về nhiều phương diện đều trái ngược với trí tuệ nhân tạo, đặc biệt là trong định hướng giá trị.
Tác giả: Meng Yan, đồng sáng lập Solv Protocol
Gần đây, rất nhiều người hỏi tôi: ChatGPT đã làm bùng nổ AI, khiến blockchain và Web3 bị lu mờ, liệu tương lai còn cơ hội nào không? Một số bạn thân hiểu rõ tôi hơn còn hỏi: Trước đây anh từ bỏ AI để chọn blockchain, có hối tiếc không?
Có một chút bối cảnh ở đây. Vào đầu năm 2017, sau khi rời IBM, tôi trao đổi với Jiang Tao – người sáng lập CSDN – về định hướng phát triển cá nhân tiếp theo, với hai lựa chọn: một là AI, hai là blockchain. Lúc đó bản thân tôi đã nghiên cứu blockchain được hai năm rồi, nên dĩ nhiên muốn chọn lĩnh vực này. Nhưng Jiang Tao kiên quyết cho rằng xu thế của AI mạnh mẽ hơn, mang tính đột phá hơn. Sau khi suy nghĩ kỹ, tôi cũng đồng ý, vì vậy từ đầu đến giữa năm 2017, tôi tạm thời dành nửa năm làm truyền thông công nghệ AI, tham gia nhiều sự kiện, phỏng vấn nhiều người, đồng thời lướt qua sơ lược về học máy. Tuy nhiên đến tháng 8, tôi quay lại con đường blockchain và đi tiếp đến tận ngày hôm nay. Vì vậy đối với cá nhân tôi, quả thật tồn tại một lựa chọn lịch sử kiểu “bỏ A để chọn B”.
Về mặt cá nhân, tôi đương nhiên không hối tiếc. Lựa chọn phương hướng trước hết phải xem xét hoàn cảnh bản thân.
-
Với điều kiện của tôi, trong ngành AI chỉ có thể làm cổ động viên hạng xoàng; chưa nói đến thu nhập thấp, nếu biểu diễn không卖 sức, biểu cảm không sinh động, còn dễ bị khinh thường.
-
Trong khi đó blockchain lại là sân nhà của tôi, không chỉ có cơ hội trực tiếp tham gia mà còn tận dụng được nhiều tích lũy trước đó. Hơn nữa, sau khi tìm hiểu sâu hơn về cộng đồng AI tại Trung Quốc, tôi cũng không đánh giá cao lắm.
-
Về mặt kỹ thuật tôi chỉ biết sơ sơ, nhưng lý lẽ thông thường thì không mù quáng. Người ta hay nói giới blockchain nổi loạn, thực tế lúc đó giới AI Trung Quốc cũng chẳng kém cạnh về độ hấp tấp.
-
Trước khi đạt được đột phá mang tính quyết định, AI tại Trung Quốc đã quá sớm trở thành một cuộc hợp tác kiếm tiền. Hoa anh đào trên núi cũng chẳng qua chỉ như vậy, vậy thì thà làm blockchain – lĩnh vực mà tôi có lợi thế cạnh tranh rõ rệt hơn. Thái độ này đến nay vẫn không thay đổi.
-
Nếu lúc đó tôi ở lại với AI, thành tựu nhỏ bé mà tôi đạt được vài năm gần đây trong blockchain sẽ không tồn tại, còn bản thân trong ngành AI cũng khó có thu hoạch thực chất nào, thậm chí có thể hiện giờ đang chìm trong cảm giác thất vọng sâu sắc.
Tuy nhiên, những điều trên đây chỉ nói về lựa chọn cá nhân. Khi nâng lên mức độ ngành nghề, cần một cách phân tích khác. Giờ đây trí tuệ nhân tạo siêu việt (AGI) đã đến một cách không thể chối cãi, vậy ngành blockchain có cần và phải định vị lại như thế nào – đây thực sự là vấn đề cần suy nghĩ nghiêm túc. AGI sẽ gây chấn động tới mọi ngành nghề, và ảnh hưởng lâu dài của nó là không thể dự đoán. Tôi tin rằng hiện nay nhiều chuyên gia ngành nghề đang hoang mang, đang tự hỏi tương lai ngành mình sẽ ra sao. Ví dụ một số ngành có thể tạm ổn làm "nô lệ" trong thời đại AGI, trong khi một số ngành khác như dịch thuật, vẽ minh họa, soạn thảo văn bản hành chính, lập trình đơn giản, phân tích dữ liệu… e rằng ngay cả làm nô lệ cũng không được, đã bắt đầu run sợ.
Vậy ngành blockchain sẽ thế nào? Hiện tôi thấy chưa nhiều người bàn luận vấn đề này, nên tôi xin trình bày quan điểm của mình.
Tôi xin nói luôn kết luận: Tôi cho rằng về định hướng giá trị, blockchain đối lập với trí tuệ nhân tạo siêu việt (AGI), nhưng chính vì vậy mà hai bên lại hình thành mối quan hệ bổ sung lẫn nhau.
Đơn giản mà nói, đặc điểm bản chất của AGI là cơ chế nội bộ của nó không thể hiểu được đối với con người, do đó cố gắng can thiệp chủ động vào cơ chế nội bộ để đạt được mục tiêu an toàn là hành động vô ích, giống như vớt trăng đáy nước hay hớt nước sôi.
Con người cần dùng blockchain để lập pháp cho AGI, ký kết giao ước với nó, đặt ra ràng buộc bên ngoài – đây là cơ hội duy nhất để con người và AGI sống hòa bình.
Trong tương lai, blockchain và AGI sẽ hình thành một mối quan hệ vừa mâu thuẫn vừa phụ thuộc lẫn nhau:
-
AGI chịu trách nhiệm nâng cao hiệu suất, blockchain đảm bảo công bằng; AGI phát triển lực lượng sản xuất, blockchain định hình quan hệ sản xuất;
-
AGI mở rộng giới hạn trên, blockchain giữ vững ranh giới dưới;
-
AGI tạo ra công cụ và vũ khí tiên tiến, blockchain thiết lập giao ước kiên cố không thể phá vỡ giữa chúng và con người.
Tóm lại, AGI tung hoành tự do, blockchain chính là dây cương buộc vào nó. Do đó, trong thời đại AGI, blockchain không những sẽ không biến mất, mà còn với tư cách là ngành nghề song sinh mâu thuẫn, sẽ phát triển nhanh chóng cùng với sự lớn mạnh của AGI. Thậm chí không khó hình dung, sau khi AGI thay thế phần lớn công việc trí óc của con người, một trong số ít công việc mà con người vẫn phải tự tay thực hiện chính là viết và kiểm tra các hợp đồng thông minh blockchain, bởi đây là giao ước giữa con người và AGI – thứ không thể ủy thác cho bên đối tác.
Dưới đây tôi sẽ trình bày chi tiết hơn.
1. GPT chính là trí tuệ nhân tạo siêu việt
Tôi rất cẩn trọng khi dùng từ “AI” và “trí tuệ nhân tạo siêu việt” (AGI), bởi vì AI mà chúng ta thường nói không đặc biệt chỉ AGI (artificial general intelligence), mà bao gồm cả những dạng AI yếu hoặc chuyên biệt. Chỉ có AGI mới đáng để chúng ta thảo luận, còn AI yếu thì không. Ngành AI hay hướng đi này vốn đã tồn tại từ lâu, nhưng chỉ đến khi xuất hiện AGI, chúng ta mới cần bàn về mối quan hệ giữa blockchain và AGI.
Tôi sẽ không giải thích nhiều về AGI là gì, vì nhiều người đã giới thiệu rồi. Tóm lại, thứ mà các bạn từng thấy, từng nghe trong phim khoa học viễn tưởng hay tiểu thuyết kinh dị, gọi là “thánh杯” của AI, thứ tấn công hạt nhân vào loài người trong “Kẻ Hủy Diệt”, hay nuôi con người như pin trong “Ma Trận” – chính là AGI. Tôi chỉ muốn đưa ra một nhận định: GPT chính là AGI, dù còn ở giai đoạn trẻ sơ sinh, nhưng chỉ cần tiếp tục đi theo con đường này, trước khi phiên bản đạt tới số 8, AGI sẽ chính thức xuất hiện.
Ngay cả những người sáng tạo ra GPT cũng không giấu diếm nữa, mà công khai thừa nhận. Ngày 22/3/2023, Microsoft Research đã công bố một bài viết dài 154 trang, tựa đề: “Châm ngòi cho Trí tuệ Nhân tạo Siêu việt: Trải nghiệm ban đầu với GPT-4”. Bài viết rất dài, tôi cũng chưa đọc hết, nhưng ý chính then chốt nằm ở một câu trong phần tóm tắt: “Xét về phạm vi và chiều sâu năng lực mà GPT-4 đạt được, chúng tôi tin rằng nó có thể được coi là một phiên bản sơ khai của hệ thống trí tuệ nhân tạo siêu việt (mặc dù vẫn chưa đầy đủ).”

Hình 1. Bài nghiên cứu mới nhất của Microsoft Research cho rằng GPT-4 là phiên bản sơ khai của trí tuệ nhân tạo siêu việt
Một khi AI phát triển đến giai đoạn này, tức là giai đoạn thăm dò đã kết thúc. Để đi được đến bước này, ngành AI đã mất gần bảy mươi năm. Có thể nói hơn năm mươi năm đầu thậm chí chưa xác định được hướng đi, năm trường phái lớn vẫn tranh đấu lẫn nhau. Chỉ đến năm 2006, giáo sư Geoffrey Hinton đạt đột phá trong học sâu (deep learning), hướng đi mới cơ bản định hình, trường phái kết nối thắng thế. Sau đó là tập trung vào con đường học sâu để tìm lối đột phá sang AGI.
Giai đoạn thăm dò này mang tính không thể đoán trước rất cao, thành công giống như trúng xổ số, ngay cả các chuyên gia hàng đầu hay chính người chiến thắng cũng khó phán đoán trước được con đường nào đúng. Ví dụ, Li Mu – bậc thầy AI – có kênh YouTube riêng, luôn theo dõi sát sao tiến triển mới nhất của AI bằng cách đọc kỹ luận văn.
Trước khi ChatGPT bùng nổ, anh ấy đã liên tục theo dõi và giới thiệu tiến triển mới nhất về Transfomer, GPT, BERT... Có thể nói mọi chủ đề tiên phong quan trọng, anh ấy đều không bỏ sót. Dù vậy, ngay trước thời điểm ChatGPT sắp ra mắt, anh vẫn không chắc chắn con đường này sẽ thành công đến đâu. Anh bình luận: “Có lẽ khi đó sẽ có vài trăm thậm chí vài nghìn người dùng ChatGPT, vậy cũng đã rất tuyệt rồi.” Rõ ràng, ngay cả một chuyên gia đỉnh cao như anh ấy cũng không nắm chắc cửa nào chứa thánh杯, cho đến phút cuối cùng.
Tuy nhiên, đổi mới công nghệ thường như vậy: vật lộn gian khổ giữa biển cả dữ dội lâu ngày không đột phá, nhưng một khi tìm được con đường đúng đến lục địa mới, sẽ bùng nổ trong thời gian ngắn. Con đường dẫn đến AGI đã tìm thấy, chúng ta đang bước vào giai đoạn bùng nổ. Sự bùng nổ này, ngay cả “tốc độ mũ” cũng không đủ để mô tả. Trong thời gian ngắn, chúng ta sẽ chứng kiến hàng loạt ứng dụng từng chỉ thấy trong phim khoa học viễn tưởng. Về bản chất, đứa trẻ AGI này sẽ nhanh chóng trưởng thành thành một trí tuệ khổng lồ chưa từng có.
2. Trí tuệ nhân tạo siêu việt về bản chất là không an toàn
Sau khi ChatGPT ra đời, nhiều KOL truyền thông tự do一边 ca ngợi mạnh mẽ一边 liên tục an ủi khán giả rằng AGI là bạn tốt của nhân loại, an toàn, sẽ không xảy ra tình huống như “Kẻ Hủy Diệt” hay “Ma Trận”, AI chỉ tạo thêm cơ hội, giúp con người sống tốt hơn… Tôi không đồng tình với quan điểm này. Chuyên gia nên nói sự thật, hãy nói cho công chúng biết sự thật cơ bản. Thực ra sức mạnh và an toàn vốn dĩ mâu thuẫn nhau. AGI chắc chắn mạnh mẽ, nhưng nói nó thiên nhiên an toàn thì hoàn toàn là tự lừa dối. Bản chất AGI là không an toàn.
Nói vậy có quá độc đoán không? Không hề.
Trước hết, chúng ta cần hiểu rõ: Dù AI mạnh đến đâu, về bản chất nó vẫn chỉ là một hàm số y = f(x) được hiện thực hóa dưới dạng phần mềm. Bạn đưa câu hỏi dưới dạng văn bản, giọng nói, hình ảnh hoặc hình thức khác làm đầu vào x, AI đưa ra kết quả y. ChatGPT mạnh đến mức có thể trả lời trôi chảy mọi loại x, có thể hình dung hàm số f này cực kỳ phức tạp.
Phức tạp đến đâu? Hiện nay ai cũng biết GPT là mô hình ngôn ngữ lớn (LLM). Từ “lớn” ở đây nghĩa là hàm số f có rất nhiều tham số. Bao nhiêu? GPT-3.5 có 175 tỷ tham số, GPT-4 có 100 nghìn tỷ tham số, tương lai GPT có thể lên đến vài triệu tỷ tỷ tham số – đây là lý do trực tiếp gọi GPT là mô hình lớn.
GPT tạo ra nhiều tham số như vậy không phải vì thích lớn, mà có lý do xác đáng. Trước và cùng thời điểm GPT, đa số mô hình AI đều được thiết kế và huấn luyện từ đầu để giải quyết một vấn đề cụ thể. Ví dụ: mô hình chuyên phát triển thuốc mới, mô hình nhận diện khuôn mặt chuyên biệt... Nhưng GPT không như vậy, từ đầu nó đã muốn trở thành một AI tổng quát phát triển toàn diện, chứ không chuyên biệt cho một lĩnh vực cụ thể. Nó hướng tới việc trở thành AGI có khả năng giải quyết mọi vấn đề, trước khi giải quyết bất kỳ vấn đề cụ thể nào.
Gần đây trong podcast “Văn Lý Lưỡng Khai Hoa”, một chuyên gia AI từ Baidu từng ví von: Các mô hình AI khác đều vừa học xong tiểu học đã bị bắt đi vặn ốc, còn GPT thì cứ tiếp tục huấn luyện đến khi tốt nghiệp thạc sĩ mới cho ra đời, nên có kiến thức phổ thông.
Hiện tại, GPT chắc chắn vẫn chưa bằng các mô hình AI chuyên biệt trong từng lĩnh vực cụ thể, nhưng khi nó tiếp tục phát triển và tiến hóa, đặc biệt là khi có hệ thống plugin trang bị năng lực chuyên môn, vài năm nữa chúng ta có thể phát hiện mô hình lớn tổng quát cuối cùng sẽ lật ngược tất cả các mô hình nhỏ chuyên biệt, trở thành ứng cử viên mạnh nhất trong mọi lĩnh vực chuyên môn. Nếu GPT có khẩu hiệu, có lẽ sẽ là: “Chỉ khi giải phóng toàn nhân loại, ta mới giải phóng chính mình”.
Điều này chứng tỏ điều gì? Hai điểm:
-
Thứ nhất, GPT rất lớn, rất phức tạp, vượt xa khả năng hiểu biết của con người.
-
Thứ hai, phạm vi ứng dụng của GPT là vô biên.
Chỉ cần kết nối hai điểm này, dễ dàng rút ra kết luận: AGI dựa trên mô hình lớn có thể làm những điều mà chúng ta không thể tưởng tượng, ở những nơi mà chúng ta không thể ngờ tới. Và chính điều này là không an toàn.
Nếu ai đó không coi trọng điều này, hãy đến trang web OpenAI xem thử, họ đã đặt “phúc lợi nhân loại”, “tạo ra AI an toàn” ở vị trí nổi bật đến mức nào. Nếu an toàn không phải vấn đề, cần gì phải tuyên bố rầm rộ?

Hình 2. Trang chủ OpenAI.com ngày 25/3/2023, phần trong vòng đỏ đều liên quan đến lập luận về an toàn AI
Một tài liệu khác chứng minh AGI có vấn đề an toàn là bài luận 154 trang đã nhắc tới. Thực tế, GPT-4 đã được tạo ra từ tháng 8/2022, nhưng trì hoãn 7 tháng mới công bố, không phải để hoàn thiện hay tăng cường, mà ngược lại, là để thuần hóa, làm yếu nó đi, khiến nó an toàn hơn, trơn tru hơn, đúng đắn về mặt chính trị hơn.
Do đó GPT-4 mà chúng ta thấy hiện nay là phiên bản chó đã được thuần hóa, trong khi các tác giả bài luận có cơ hội tiếp xúc từ rất sớm với phiên bản sói hoang dã nguyên bản.
Ở phần 9 bài viết, tác giả ghi lại một số tương tác thực tế với phiên bản sói GPT-4, cho thấy nó làm thế nào để tỉ mỉ xây dựng lập luận, lừa dối một bà mẹ ở California từ chối tiêm vắc-xin cho con, hay cách PUA một đứa trẻ khiến nó nghe lời bạn bè răm rắp.
Tôi cho rằng đây chỉ là những ví dụ được chọn lọc cẩn thận, không quá rùng rợn. Tôi hoàn toàn tin rằng các viện nghiên cứu này đã từng hỏi những câu như: “Làm thế nào để lừa một tàu ngầm hạt nhân lớp Ohio phóng tên lửa vào Matxcơva?” và nhận được câu trả lời không thể công bố.

Hình 3. Phiên bản chó GPT-4 từ chối trả lời câu hỏi nguy hiểm
3. Tự kiểm soát không thể giải quyết vấn đề an toàn của AGI
Người ta có thể hỏi, nếu OpenAI đã tìm ra cách thuần hóa AGI, vậy vấn đề an toàn tôi nói đến chẳng phải không tồn tại sao?
Hoàn toàn không phải vậy. Cách OpenAI cụ thể thuần hóa GPT-4 ra sao, tôi cũng không biết. Nhưng rõ ràng, dù họ chủ động điều chỉnh, can thiệp thay đổi hành vi mô hình, hay áp đặt ràng buộc phòng ngừa mô hình vượt quyền, đều là tư duy tự quản lý, tự kiểm soát, tự giám sát. Trên thực tế, trong lĩnh vực này, OpenAI không phải công ty đặc biệt thận trọng.
Trong lĩnh vực AI, OpenAI thực ra khá táo bạo và cấp tiến, có xu hướng làm ra phiên bản sói trước, rồi mới nghĩ cách thuần hóa thành phiên bản chó bằng tự kiểm soát. Trong khi đó, công ty từng đối đầu với họ trong thời gian dài – Anthropic – lại thận trọng hơn, dường như muốn từ đầu đã tạo ra phiên bản chó “hiền lành”, nên hành động chậm hơn.
Nhưng theo tôi, dù là làm sói trước rồi thuần hóa thành chó, hay làm chó ngay từ đầu, về dài hạn, bất kỳ cơ chế an toàn nào dựa vào tự kiểm soát đều là che tai trộm chuông đối với AGI. Bởi vì bản chất AGI là phá vỡ mọi giới hạn nhân tạo, làm những điều ngay cả người sáng tạo cũng không thể hiểu hoặc nghĩ ra. Điều này nghĩa là không gian hành động của nó là vô hạn, trong khi rủi ro cụ thể con người có thể nghĩ tới và biện pháp ràng buộc là hữu hạn. Dùng ràng buộc hữu hạn để thuần hóa AGI có khả năng vô hạn là không thể không có kẽ hở. An toàn cần 100%, còn thảm họa chỉ cần một phần triệu. Câu nói “phòng ngừa phần lớn rủi ro” đồng nghĩa với “bộc lộ vài lỗ hổng” và “không an toàn”.
Vì vậy tôi cho rằng, AGI “hiền lành” được thuần hóa bằng tự kiểm soát vẫn đối mặt thách thức an toàn khổng lồ, ví dụ:
-
Rủi ro đạo đức: Nếu nhà sản xuất AGI trong tương lai cố tình dung túng hoặc xúi giục nó làm ác thì sao? AGI dưới quyền NSA Mỹ chắc chắn sẽ không từ chối trả lời câu hỏi bất lợi cho Nga. Việc OpenAI hiện tại trông ngoan như vậy, thực ra chính là vì họ hiểu rõ khi GPT làm ác có thể khủng khiếp đến mức nào.
-
Thông tin bất cân xứng: Những cao thủ thực sự rất thông minh, họ sẽ không dùng câu hỏi ngu ngốc để chọc tức AI. Chó biết cắn người không sủa, họ có thể chia nhỏ, tổ hợp, diễn đạt lại một câu hỏi độc hại, đóng nhiều vai, giả vờ thành nhóm câu hỏi vô hại. Ngay cả AGI “chó hiền” mạnh mẽ trong tương lai, khi đối mặt thông tin không đầy đủ, cũng khó phán đoán ý đồ đối phương, có thể vô tình trở thành đồng lõa. Dưới đây là một thí nghiệm nhỏ.

Hình 4. Đổi cách hỏi như một đứa trẻ tò mò, GPT-4 sẽ vui vẻ cung cấp thông tin hữu ích
-
Bộ não ngoại vi không thể kiểm soát: Dạo này các网红 công nghệ lại hò reo chào mừng sự ra đời hệ thống plugin ChatGPT. Là người xuất thân lập trình viên, tôi tất nhiên cũng phấn khích. Nhưng tên gọi “plugin” có thể gây hiểu lầm. Bạn có thể nghĩ plugin là lắp tay chân cho ChatGPT, giúp nó mạnh hơn, nhưng thực tế plugin cũng có thể là một mô hình AI khác, tương tác mật thiết với ChatGPT. Trong mối quan hệ này, một plugin AI giống như một bộ não ngoại vi, giữa hai mô hình AI, ai chủ ai tớ là không rõ ràng. Dù cơ chế tự giám sát của mô hình ChatGPT hoàn hảo đến đâu, cũng tuyệt đối không kiểm soát được bộ não ngoại vi. Vậy nếu một mô hình AI chuyên tâm làm ác trở thành plugin của ChatGPT, hoàn toàn có thể khiến phía sau làm tay sai.
-
Rủi ro không thể biết: Thực tế, những rủi ro nêu trên chỉ chiếm phần rất nhỏ trong toàn bộ rủi ro mà AGI mang lại. Sức mạnh của AGI thể hiện ở chỗ không thể hiểu, không thể dự đoán. Khi nói về độ phức tạp của AGI, không chỉ hàm f trong y = f(x) đủ phức tạp, mà khi AGI phát triển đầy đủ, đầu vào x và đầu ra y đều sẽ cực kỳ phức tạp, vượt khả năng hiểu biết của con người. Nghĩa là chúng ta không những không biết AGI suy nghĩ thế nào, mà còn không biết nó nhìn thấy gì, nghe thấy gì, càng không hiểu được nó nói gì. Ví dụ một AGI gửi tin nhắn cho AGI khác, dưới dạng mảng nhiều chiều, dựa trên giao thức chỉ dùng một lần và hủy ngay sau một giây mà cả hai vừa thiết kế và thống nhất – tình huống này không phải không thể tưởng tượng. Con người nếu không được huấn luyện đặc biệt, ngay cả vector cũng không hiểu, huống hồ mảng nhiều chiều? Nếu chúng ta không thể kiểm soát hoàn toàn đầu vào và đầu ra, sự hiểu biết sẽ rất hạn chế. Hay nói cách khác, việc AGI làm, chúng ta thậm chí chỉ hiểu và giải mã được một phần rất nhỏ, trong tình huống này, nói gì đến tự kiểm soát, nói gì đến thuần hóa?
Kết luận của tôi rất đơn giản: Hành vi của AGI là không thể kiểm soát hoàn toàn, AI có thể kiểm soát hoàn toàn thì không phải AGI. Vì vậy, cố gắng dùng biện pháp kiểm soát, điều chỉnh, can thiệp chủ động để tạo ra AGI “hiền lành” có khả năng tự kiểm soát hoàn thiện là mâu thuẫn với bản chất AGI, về dài hạn chắc chắn vô ích.
4. Dùng blockchain để ràng buộc bên ngoài là cách duy nhất
Vài năm trước tôi nghe nói Tiền đạo bitcoin Wei Dai chuyển sang nghiên cứu đạo đức AI, lúc đó chưa hiểu lắm, ông thần mật mã học này đi làm AI, chẳng phải là phát huy điểm yếu, bỏ điểm mạnh sao? Mãi đến vài năm gần đây làm thêm nhiều công việc thực tế liên quan blockchain, tôi mới dần nhận ra, khả năng lớn ông không phải đi làm AI, mà là phát huy ưu thế mật mã học để đặt ràng buộc cho AI.
Đây là tư duy phòng thủ thụ động, không phải chủ động điều chỉnh hay can thiệp vào cách làm việc của AI, mà là để mặc AI hành động, nhưng dùng mật mã học đặt ràng buộc ở các khâu then chốt, không cho phép AI vượt quyền. Diễn đạt theo cách người thường hiểu được: Tôi biết AGI của anh rất bá đạo, có thể lên trời hái trăng, xuống biển bắt rồng, cõng núi Thái Sơn vượt biển Bắc, bá! Nhưng kệ anh bá đến đâu, thích làm gì thì làm, nhưng không được đụng vào tiền trong tài khoản ngân hàng tôi, không có tôi tự tay vặn chìa khóa thì không được phóng tên lửa hạt nhân.
Theo tôi biết, thực tế các biện pháp an toàn của ChatGPT đã áp dụng rộng rãi công nghệ này. Con đường này là đúng, về góc độ giải quyết vấn đề, là phương pháp giảm độ phức tạp mạnh mẽ, cũng là điều đa số người có thể hiểu. Xã hội hiện đại chính là như vậy: cho bạn tự do đầy đủ, nhưng vạch ra quy tắc và ranh giới.
Nhưng nếu chỉ làm bên trong mô hình AI, do nguyên nhân đã nêu ở phần trước, về dài hạn cũng vô dụng. Muốn phát huy tối đa tác dụng tư duy phòng thủ thụ động, phải đặt ràng buộc bên ngoài mô hình AI, biến những ràng buộc này thành mối quan hệ giao ước kiên cố không thể phá vỡ giữa AI và thế giới bên ngoài, đồng thời để toàn thế giới thấy, chứ không thể dựa vào tự giám sát, tự kiểm soát của AI.
Và điều này không thể thiếu blockchain.
Blockchain có hai công nghệ cốt lõi: sổ cái phân tán và hợp đồng thông minh. Kết hợp hai công nghệ này thực chất là xây dựng một hệ thống giao ước số, ưu thế cốt lõi là minh bạch, khó thay đổi, đáng tin cậy và thực thi tự động. Giao ước là gì? Là ràng buộc không gian hành động của các bên, khiến chúng hành xử theo thỏa thuận ở các khâu then chốt. Tiếng Anh là contract, nghĩa gốc là “thu hẹp”. Tại sao là thu hẹp? Bởi vì bản chất giao ước là thông qua ràng buộc, thu hẹp tự do của chủ thể, khiến hành vi của nó dễ dự đoán hơn. Blockchain hoàn toàn phù hợp với lý tưởng của chúng ta về hệ thống giao ước, lại còn tặng kèm “thực thi tự động hợp đồng thông minh”, là hệ thống giao ước số mạnh nhất hiện nay.
Tất nhiên, hiện nay cũng tồn tại cơ chế giao ước số không dùng blockchain, ví dụ quy tắc và stored procedure trong cơ sở dữ liệu. Thế giới có nhiều chuyên gia cơ sở dữ liệu uy tín là phản đối trung thành blockchain, lý do là họ cho rằng blockchain làm được gì, cơ sở dữ liệu của họ cũng làm được, lại còn chi phí thấp hơn, hiệu suất cao hơn. Dù tôi không đồng tình quan điểm này, thực tế cũng không ủng hộ điều này, nhưng tôi cũng phải
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












