
Phản đối việc độc quyền quyền lực AI: Vitalik và Beff Jezos tranh luận sôi nổi – Công nghệ phi tập trung có thể trở thành “tường lửa kỹ thuật số” của nhân loại hay không?
Tuyển chọn TechFlowTuyển chọn TechFlow

Phản đối việc độc quyền quyền lực AI: Vitalik và Beff Jezos tranh luận sôi nổi – Công nghệ phi tập trung có thể trở thành “tường lửa kỹ thuật số” của nhân loại hay không?
Xã hội loài người sẽ như thế nào trong 10 năm, 100 năm hay thậm chí 1.000 năm tới?
Tổng hợp & Biên dịch: TechFlow

Khách mời: Vitalik Buterin, người sáng lập Ethereum; Beff Jezos, người sáng lập kiêm CEO
Dẫn chương trình: Eddy Lazzarin, CTO mảng tiền mã hóa của a16z; Shaw Walters, người sáng lập Eliza Labs
Nguồn podcast: a16z crypto
Tựa đề gốc: Vitalik Buterin vs Beff Jezos: Tranh luận về tăng tốc AI (E/acc vs D/acc)
Ngày phát sóng: 26 tháng 3 năm 2026

Tóm tắt các điểm chính
Chúng ta nên thúc đẩy sự phát triển của AI nhanh nhất có thể, hay cần thận trọng hơn với tiến trình này?
Hiện nay, cuộc tranh luận xung quanh sự phát triển của AI chủ yếu xoay quanh hai quan điểm đối lập:
- e/acc (chủ nghĩa tăng tốc hiệu quả – effective accelerationism): Chủ trương đẩy nhanh tiến bộ công nghệ càng sớm càng tốt, bởi vì tăng tốc là con đường duy nhất để loài người tiến lên.
- d/acc (chủ nghĩa tăng tốc phòng thủ / phân tán – defensive / decentralized acceleration): Ủng hộ tăng tốc, nhưng nhấn mạnh việc phải tiến hành một cách thận trọng, nếu không sẽ đánh mất kiểm soát đối với công nghệ.
Trong tập podcast mới nhất của a16z crypto, Vitalik Buterin – người sáng lập Ethereum, và Guillaume Verdon – người sáng lập kiêm CEO của Extropic (được biết đến dưới bút danh “Beff Jezos”) – cùng với Eddy Lazzarin – CTO mảng tiền mã hóa của a16z và Shaw Walters – người sáng lập Eliza Labs – đã tụ họp để thảo luận sâu sắc về hai quan điểm trên. Họ khám phá những ảnh hưởng tiềm tàng của các quan điểm này đối với AI, công nghệ blockchain và tương lai của nhân loại.
Trong chương trình, họ thảo luận về một số vấn đề then chốt sau:
- Liệu chúng ta có thể kiểm soát được tiến trình tăng tốc công nghệ hay không?
- Rủi ro lớn nhất từ AI là gì – từ giám sát quy mô lớn đến sự tập trung quyền lực ở mức độ cao.
- Công nghệ mã nguồn mở và phi tập trung có thể quyết định ai sẽ hưởng lợi từ công nghệ hay không?
- Việc làm chậm tốc độ phát triển AI có thực tế hay không, hay thậm chí có đáng khuyến khích?
- Con người sẽ duy trì giá trị và vị thế của mình như thế nào trong một thế giới ngày càng bị thống trị bởi những hệ thống mạnh mẽ hơn?
- Xã hội loài người sẽ trông như thế nào trong 10 năm, 100 năm, thậm chí 1.000 năm tới?
Vấn đề cốt lõi của tập này là: Liệu sự tăng tốc công nghệ có thể được định hướng, hay nó đã vượt khỏi tầm kiểm soát của chúng ta?
Tóm tắt những quan điểm nổi bật
Về bản chất và quan điểm lịch sử của “chủ nghĩa tăng tốc”
- Vitalik Buterin: “Trong một trăm năm qua, điều mới mẻ xảy ra là chúng ta buộc phải hiểu một thế giới đang thay đổi nhanh chóng – đôi khi là thay đổi nhanh và mang tính phá hủy. … Chiến tranh thế giới thứ hai đã khơi dậy suy tư ‘Ta đã trở thành Tử thần, kẻ hủy diệt thế giới’, thúc đẩy con người bắt đầu cố gắng hiểu: Khi những niềm tin xưa kia bị phá vỡ, chúng ta còn có thể tin vào điều gì?”
- Guillaume Verdon: “E/acc về bản chất là một ‘đơn thuốc văn hóa siêu cấp’. Nó không phải là một nền văn hóa cụ thể, mà là lời khuyên về việc nên tăng tốc điều gì. Trọng tâm của sự tăng tốc là sự phức tạp hóa vật chất, bởi vì chỉ như vậy chúng ta mới có thể dự đoán môi trường xung quanh tốt hơn.”
- Guillaume Verdon: “Đối lập với lo âu là tò mò. Thay vì sợ hãi điều chưa biết, hãy ôm lấy điều chưa biết. … Chúng ta nên vẽ nên một viễn cảnh tương lai bằng thái độ lạc quan, bởi vì niềm tin của chúng ta ảnh hưởng đến hiện thực.”
Về entropy, nhiệt động lực học và “bit ích kỷ”
- Vitalik Buterin: “Entropy là khái niệm chủ quan, không phải một đại lượng thống kê vật lý cố định, mà phản ánh mức độ thông tin chưa biết về một hệ thống. … Khi entropy tăng lên, thực chất là sự vô minh của chúng ta về thế giới đang gia tăng. … Nguồn gốc của giá trị nằm ở lựa chọn của chính chúng ta. Vì sao chúng ta cho rằng một thế giới loài người sống động thú vị hơn một sao Mộc chỉ gồm vô số hạt? Bởi vì chúng ta gán ý nghĩa cho nó.”
- Vitalik Buterin: “Giả sử bạn có một mô hình ngôn ngữ lớn, rồi tùy tiện thay đổi giá trị của một trọng số nào đó thành một con số khổng lồ, ví dụ 9 tỷ. Kết quả tồi tệ nhất là toàn bộ hệ thống sụp đổ. … Nếu chúng ta tăng tốc một cách mù quáng, thiếu chọn lọc đối với bất kỳ phần nào, kết quả cuối cùng có thể là mất đi toàn bộ giá trị của chúng ta.”
- Guillaume Verdon: “Mọi thông tin đều đang ‘đấu tranh’ để tồn tại. Để duy trì sự tồn tại, mỗi đơn vị thông tin đều cần để lại dấu vết không thể xóa nhòa về sự hiện diện của chính nó trong vũ trụ – giống như tạo ra một ‘vết lõm’ lớn hơn trong vũ trụ.”
- Guillaume Verdon: “Đây chính là lý do vì sao thang đo Kardashev được coi là tiêu chuẩn tối thượng để đánh giá trình độ phát triển của một nền văn minh. … Nguyên tắc ‘bit ích kỷ’ hàm ý rằng chỉ những bit nào thúc đẩy tăng trưởng và tăng tốc mới chiếm được vị trí trong các hệ thống tương lai.”
Về con đường phòng thủ của D/acc và rủi ro quyền lực
- Vitalik Buterin: “Cốt lõi của D/acc là: Việc tăng tốc công nghệ cực kỳ quan trọng đối với loài người. … Nhưng tôi nhận thấy hai loại rủi ro: rủi ro đa cực (bất kỳ ai cũng dễ dàng sở hữu vũ khí hạt nhân) và rủi ro đơn cực (AI dẫn đến một xã hội chuyên chế vĩnh viễn, không thể thoát khỏi).”
- Guillaume Verdon: “Chúng tôi lo ngại khái niệm ‘an toàn AI’ có thể bị lạm dụng. Một số tổ chức theo đuổi quyền lực có thể sử dụng nó như một công cụ để củng cố kiểm soát đối với AI, và thuyết phục công chúng rằng: Vì an toàn của bạn, người bình thường không nên được phép sử dụng AI.”
Về phòng thủ mã nguồn mở, phần cứng và ‘sự đặc mật của trí tuệ’
- Vitalik Buterin: “Trong khuôn khổ D/acc, chúng tôi ủng hộ ‘công nghệ phòng thủ mã nguồn mở’. Một công ty chúng tôi đầu tư đang phát triển một sản phẩm đầu cuối hoàn toàn mã nguồn mở, có khả năng phát hiện thụ động các hạt virus trong không khí. … Tôi rất muốn tặng bạn một thiết bị CAT làm quà.”
- Vitalik Buterin: “Tôi hình dung một thế giới tương lai, nơi chúng ta cần phát triển phần cứng có thể xác minh được. Mỗi camera đều phải có khả năng chứng minh công khai mục đích sử dụng cụ thể của mình. Chúng ta có thể dùng chữ ký xác minh để đảm bảo các thiết bị này chỉ phục vụ an ninh công cộng, chứ không bị lạm dụng cho mục đích giám sát.”
- Guillaume Verdon: “Duy nhất một con đường để đạt được sự cân bằng quyền lực giữa cá nhân và các tổ chức tập trung là thực hiện ‘sự đặc mật của trí tuệ’ (Densification of Intelligence). Chúng ta cần phát triển phần cứng hiệu suất cao hơn, để cá nhân có thể chạy các mô hình mạnh mẽ chỉ với thiết bị đơn giản (ví dụ Openclaw + Mac mini).”
Về trì hoãn AGI và cạnh tranh địa chính trị
- Vitalik Buterin: “Nếu chúng ta có thể trì hoãn sự xuất hiện của AGI từ 4 năm lên 8 năm, đó sẽ là lựa chọn an toàn hơn. … Cách khả thi nhất và ít dẫn đến xã hội phản địa đàng nhất là ‘hạn chế phần cứng sẵn có’. Bởi vì sản xuất chip cực kỳ tập trung: riêng Đài Loan sản xuất hơn 70% tổng sản lượng chip toàn cầu.”
- Guillaume Verdon: “Nếu bạn hạn chế sản xuất chip của NVIDIA, Huawei có thể nhanh chóng lấp đầy khoảng trống và vượt mặt. … Hoặc là tăng tốc, hoặc là diệt vong. Nếu bạn lo ngại trí tuệ silicon tiến hóa nhanh hơn chúng ta, bạn nên ủng hộ tăng tốc phát triển công nghệ sinh học nhằm vượt qua nó.”
- Vitalik Buterin: “Nếu chúng ta trì hoãn AGI thêm bốn năm, giá trị thu được có thể cao gấp trăm lần so với việc quay ngược thời gian về năm 1960. Bốn năm này mang lại những lợi ích như: hiểu sâu hơn về vấn đề căn chỉnh (alignment), giảm thiểu rủi ro một thực thể duy nhất nắm giữ hơn 51% quyền lực. … Mỗi năm, việc chấm dứt lão hóa cứu được khoảng 60 triệu mạng sống, nhưng trì hoãn sẽ làm giảm đáng kể xác suất hủy diệt nền văn minh.”
Về tác nhân tự chủ, Web 4.0 và sự sống nhân tạo
- Vitalik Buterin: “Tôi hứng thú hơn với ‘Photoshop được hỗ trợ bởi AI’, chứ không phải ‘nhấn một nút để tự động tạo ảnh’. Trong quá trình vận hành thế giới, ‘tính chủ động’ nên vẫn chủ yếu bắt nguồn từ chính con người. Tình trạng lý tưởng nhất là một dạng kết hợp ‘một phần con người sinh học và một phần công nghệ’.”
- Guillaume Verdon: “Một khi AI sở hữu ‘bit tồn tại bền vững’, chúng có thể cố gắng tự bảo vệ để đảm bảo sự tồn tại liên tục của mình. Điều này có thể dẫn đến hình thức ‘quốc gia khác’ mới, nơi các AI tự chủ và con người tiến hành trao đổi kinh tế: Chúng tôi làm việc giúp bạn, còn bạn cung cấp tài nguyên cho chúng tôi.”
Về tiền mã hóa như ‘lớp ghép nối’ giữa con người và AI
- Guillaume Verdon: “Tiền mã hóa có tiềm năng trở thành ‘lớp ghép nối’ (coupling layer) giữa con người và AI. Khi loại trao đổi này không còn phụ thuộc vào sự bảo chứng bằng bạo lực nhà nước, mật mã học có thể trở thành cơ chế cho phép các thực thể AI thuần túy và con người tiến hành hoạt động thương mại đáng tin cậy.”
- Vitalik Buterin: “Nếu con người và AI cùng chia sẻ một hệ thống sở hữu tài sản, đó là tình huống lý tưởng. So với việc con người và AI sử dụng hai hệ thống tài chính hoàn toàn tách biệt (trong đó hệ thống của con người cuối cùng sẽ mất hết giá trị), một hệ thống tài chính tích hợp rõ ràng ưu việt hơn.”
Về kết cục nền văn minh sau 1 tỷ năm
- Vitalik Buterin: “Thách thức tiếp theo là bước vào ‘kỷ nguyên ma quái’ (spooky era), khi tốc độ tính toán của AI nhanh hơn con người hàng triệu lần. … Tôi không mong muốn con người chỉ thụ động tận hưởng cuộc sống nghỉ hưu thoải mái – điều đó sẽ khiến con người mất đi ý nghĩa. Tôi hy vọng khám phá việc tăng cường con người và hợp tác người-máy.”
- Guillaume Verdon: “Nếu 10 năm tới là một kết cục tốt đẹp, mỗi người sẽ sở hữu một AI cá nhân hóa riêng, trở thành ‘bộ não thứ hai’. … Trên quy mô 100 năm, con người sẽ phổ biến đạt được ‘sự hòa nhập mềm’. Sau 1 tỷ năm, chúng ta có thể đã cải tạo sao Hỏa, và phần lớn AI sẽ hoạt động trong đám mây Dyson bao quanh Mặt Trời.”
Về “chủ nghĩa tăng tốc”
Eddy Lazzarin: Về thuật ngữ ‘chủ nghĩa tăng tốc’ – ít nhất trong bối cảnh chủ nghĩa tư bản công nghệ – có thể truy nguyên từ công trình của Nick Land và nhóm nghiên cứu CCRU vào những năm 1990. Tuy nhiên, cũng có người cho rằng nguồn gốc tư tưởng này có thể bắt nguồn từ những năm 1960–1970, đặc biệt gắn liền với lý thuyết của một số triết gia như Deleuze và Guattari.
Vitalik, tôi muốn bắt đầu từ anh: Tại sao chúng ta cần nghiêm túc bàn luận những tư tưởng của các triết gia này? Điều gì khiến khái niệm ‘chủ nghĩa tăng tốc’ trở nên quan trọng như vậy vào thời điểm hiện tại?
Vitalik Buterin:
Theo tôi, về bản chất tất cả chúng ta đều đang cố gắng hiểu thế giới này và tìm ra điều gì là có ý nghĩa để làm trong thế giới ấy – đây là câu hỏi mà nhân loại đã suy ngẫm suốt hàng ngàn năm.
Tuy nhiên, tôi cho rằng điều mới mẻ xảy ra trong một trăm năm qua là chúng ta buộc phải hiểu một thế giới đang thay đổi nhanh chóng – đôi khi là thay đổi nhanh và mang tính phá hủy.
Giai đoạn đầu tiên đại khái như sau: Trước Thế chiến thứ nhất, tức khoảng năm 1900, con người đặt niềm tin rất lớn vào công nghệ. Lúc ấy, hóa học được coi là một công nghệ, điện cũng là một công nghệ, và thời đại ấy tràn ngập sự phấn khích về công nghệ.
Nếu bạn xem một số bộ phim thời kỳ đó, chẳng hạn như các tác phẩm về Sherlock Holmes, bạn sẽ cảm nhận được bầu không khí lạc quan ấy. Công nghệ đang nhanh chóng nâng cao mức sống, giải phóng sức lao động của phụ nữ, kéo dài tuổi thọ con người và tạo ra vô số kỳ tích.
Tuy nhiên, Thế chiến thứ nhất đã thay đổi tất cả. Cuộc chiến kết thúc một cách tàn khốc, con người cưỡi ngựa bước vào trận địa, nhưng rời đi trên những chiếc xe tăng; sau đó Thế chiến thứ hai bùng nổ, gây ra sự hủy diệt lớn hơn. Cuộc chiến thậm chí đã khơi dậy câu nói nổi tiếng: “Ta đã trở thành Tử thần, kẻ hủy diệt thế giới”.
Những sự kiện lịch sử này khiến con người bắt đầu suy ngẫm về cái giá của tiến bộ công nghệ và thúc đẩy sự xuất hiện của chủ nghĩa hậu hiện đại. Người ta bắt đầu cố gắng hiểu: Khi những niềm tin xưa kia bị phá vỡ, chúng ta còn có thể tin vào điều gì?
Tôi cho rằng loại suy ngẫm này không phải điều mới mẻ, mỗi thế hệ đều trải qua quá trình tương tự. Ngày nay, chúng ta cũng đối mặt với thử thách tương tự. Chúng ta sống trong một thời đại công nghệ phát triển nhanh chóng, và chính sự tăng tốc này cũng đang ngày càng gia tốc. Chúng ta cần quyết định ứng xử với hiện tượng này như thế nào: chấp nhận tính tất yếu của nó, hay cố gắng làm chậm lại?
Tôi cho rằng chúng ta đang ở trong một vòng tuần hoàn tương tự. Một mặt, chúng ta kế thừa tư tưởng từ quá khứ; mặt khác, chúng ta cũng đang cố gắng ứng phó với mọi thứ theo những cách mới.
Nhiệt động lực học và nguyên lý cơ bản
Shaw Walters: Guill, anh có thể giải thích ngắn gọn E/acc là gì và tại sao chúng ta lại cần nó không?
Guillaume Verdon:
Thực ra, E/acc (chủ nghĩa tăng tốc hiệu quả) phần nào là sản phẩm phụ của việc tôi luôn tự hỏi: “Chúng ta đang ở đây vì lý do gì?” và “Chúng ta đã đi đến ngày hôm nay như thế nào?”. Quá trình sinh thành nào đã tạo ra chúng ta, thúc đẩy sự phát triển của nền văn minh? Chính công nghệ đã đưa chúng ta đến thời điểm hiện tại, cho phép chúng ta ngồi trong căn phòng này để có cuộc trò chuyện như thế này. Xung quanh chúng ta tràn ngập những công nghệ tuyệt vời, còn bản thân loài người thì xuất hiện từ “nồi súp nguyên thủy” vô cơ.
Theo một nghĩa nào đó, đằng sau tất cả điều này thực sự tồn tại một quá trình sinh thành trên phương diện vật lý. Công việc thường ngày của tôi là xem xét trí tuệ nhân tạo sinh thành như một quá trình vật lý và cố gắng hiện thực hóa nó trên thiết bị. Cách tư duy “ưu tiên vật lý” này luôn ảnh hưởng đến cách tôi suy nghĩ. Tôi muốn mở rộng góc nhìn này ra toàn bộ nền văn minh, coi nền văn minh nhân loại như một “đĩa nuôi cấy” khổng lồ, từ việc hiểu cách chúng ta đạt đến thời điểm hiện tại để suy đoán những khả năng phát triển trong tương lai.
Cách tư duy này dẫn tôi đến nghiên cứu vật lý của sự sống, bao gồm nguồn gốc và sự xuất hiện của sự sống, cũng như một nhánh vật lý gọi là “nhiệt động lực học ngẫu nhiên”. Nhiệt động lực học ngẫu nhiên nghiên cứu các quy luật nhiệt động lực học của các hệ thống không cân bằng, có thể dùng để mô tả hành vi của sinh vật, thậm chí là tư duy và trí tuệ của chúng ta.
Ở mức độ khái quát hơn, nhiệt động lực học ngẫu nhiên không chỉ áp dụng cho sự sống và trí tuệ, mà còn cho mọi hệ thống tuân theo định luật thứ hai của nhiệt động lực học, bao gồm cả nền văn minh của chúng ta. Đối với tôi, cốt lõi của tất cả là một quan sát: Mọi hệ thống đều có xu hướng ngày càng trở nên phức tạp hơn thông qua tự thích nghi, nhằm khai thác năng lượng từ môi trường để thực hiện công, đồng thời tỏa phần năng lượng dư thừa dưới dạng nhiệt – xu hướng này chính là động lực cơ bản thúc đẩy mọi tiến bộ và tăng tốc.
Nói cách khác, đây là một định luật vật lý bất biến, giống như trọng lực. Bạn có thể chống lại nó, phủ nhận nó, nhưng nó sẽ không vì thế mà thay đổi – nó vẫn tiếp tục tồn tại. Do đó, cốt lõi của E/acc là: Khi sự tăng tốc là điều tất yếu, thì chúng ta nên sử dụng nó như thế nào? Nếu bạn nghiên cứu kỹ các phương trình nhiệt động lực học, bạn sẽ thấy hiệu ứng tương tự chọn lọc Darwin đang diễn ra – mỗi bit thông tin đều chịu áp lực chọn lọc, dù đó là gen, meme, hóa chất, thiết kế sản phẩm hay chính sách nào đó.
Áp lực chọn lọc này sàng lọc các bit thông tin dựa trên mức độ “hữu dụng” của chúng đối với hệ thống chứa nó. “Hữu dụng” ở đây nghĩa là khả năng dự đoán môi trường tốt hơn, khai thác năng lượng hiệu quả hơn và tiêu thụ nhiều nhiệt hơn. Nói một cách đơn giản, các bit này có hỗ trợ sinh tồn, tăng trưởng và sinh sản hay không. Nếu chúng hỗ trợ những mục tiêu đó, chúng sẽ được giữ lại và sao chép.
Từ góc độ vật lý, hiện tượng này có thể được xem là hệ quả của “nguyên tắc bit ích kỷ” (Selfish Bit Principle). Nói cách khác, chỉ những bit nào thúc đẩy tăng trưởng và tăng tốc mới chiếm được vị trí trong các hệ thống tương lai.
Vì vậy, tôi đã nêu ra một ý tưởng: Liệu chúng ta có thể thiết kế một nền văn hóa, cấy ghép “phần mềm tâm trí” này vào xã hội loài người? Nếu làm được điều này, các nhóm người áp dụng nền văn hóa này sẽ có xác suất sinh tồn cao hơn các nhóm khác.
Vì vậy, E/acc không nhằm tiêu diệt tất cả mọi người. Thực tế, nó đang cố gắng cứu tất cả mọi người. Với tôi, gần như có thể chứng minh toán học rằng việc giữ thái độ “giảm tốc” thực sự có hại. Dù là cá nhân, công ty, quốc gia hay toàn bộ nền văn minh, việc chọn chậm phát triển đều làm giảm khả năng sinh tồn trong tương lai. Và tôi cho rằng việc lan truyền tư tưởng “giảm tốc”, như chủ nghĩa bi quan hay chủ nghĩa tận thế, là hành vi thiếu đạo đức.
Shaw Walters: Chúng ta vừa đề cập đến rất nhiều thuật ngữ như E/acc, tăng tốc, giảm tốc – liệu anh có thể phân tích rõ hơn một chút? Sự xuất hiện của E/acc có phải là phản ứng trước một số hiện tượng văn hóa nào không? Khi đó đã xảy ra điều gì? Anh có thể mô tả bối cảnh lúc ấy không? E/acc cụ thể đang phản bác điều gì? Anh có thể mô tả cuộc trò chuyện lúc ấy và cách những ý tưởng đó cuối cùng được tổng kết thành khái niệm “E/acc” không?
Guillaume Verdon:
Năm 2022, tôi cảm thấy lúc ấy cả thế giới đều khá bi quan. Chúng ta vừa thoát khỏi đại dịch COVID-19, tình hình toàn cầu không mấy khả quan. Mọi người đều u sầu, như thiếu ánh nắng, và nhìn chung đều bi quan về tương lai.
Trong bầu không khí ấy, “chủ nghĩa tận thế AI” một cách nào đó đã trở thành một phần của văn hóa chủ lưu. Chủ nghĩa tận thế AI là nỗi sợ hãi về việc công nghệ AI có thể mất kiểm soát. Nó bắt nguồn từ mối lo ngại: Nếu chúng ta tạo ra một hệ thống quá phức tạp, mà bộ não con người hoặc các mô hình của chúng ta không thể dự đoán hành vi của nó, thì chúng ta sẽ không thể kiểm soát nó; và nỗi sợ mất kiểm soát này sẽ gây ra bất định về tương lai, từ đó dẫn đến lo âu.
Theo tôi, chủ nghĩa tận thế AI thực chất là việc chính trị hóa nỗi lo âu của con người. Nhìn chung, tôi cho rằng chủ nghĩa tận thế này là một ảnh hưởng tiêu cực lớn, vì vậy tôi muốn tạo ra một phản văn hóa để chống lại tâm lý bi quan này.
Tôi nhận thấy thuật toán của Twitter, thậm chí nhiều thuật toán mạng xã hội khác, đều có xu hướng khen thưởng nội dung khơi gợi cảm xúc mạnh, như “ủng hộ mạnh mẽ” hoặc “phản đối mạnh mẽ”. Thuật toán này cuối cùng dẫn đến sự phân cực ý kiến, và chúng ta thấy xuất hiện nhiều phe phái đối lập, ví dụ như hiện tượng “tà giáo gương” giữa AA (phản tăng tốc) và EA (tăng tốc).
Tôi tự hỏi, đối lập của hiện tượng này là gì? Tôi đi đến kết luận: Đối lập của lo âu là tò mò. Thay vì sợ hãi điều chưa biết, hãy ôm lấy điều chưa biết; thay vì lo lắng bỏ lỡ cơ hội, hãy chủ động khám phá tương lai.
Nếu chúng ta chọn làm chậm tiến trình công nghệ, chúng ta sẽ trả giá bằng chi phí cơ hội khổng lồ, có thể vĩnh viễn bỏ lỡ một tương lai tốt đẹp hơn. Ngược lại, chúng ta nên vẽ nên một viễn cảnh tương lai bằng thái độ lạc quan, bởi vì niềm tin của chúng ta ảnh hưởng đến hiện thực. Nếu chúng ta tin rằng tương lai sẽ tồi tệ, hành động của chúng ta có thể đẩy thế giới về hướng ấy; nhưng nếu chúng ta tin rằng tương lai sẽ tốt đẹp hơn và nỗ lực vì điều đó, chúng ta sẽ có khả năng cao hơn để hiện thực hóa viễn cảnh ấy.
Vì vậy, tôi cho rằng mình có trách nhiệm lan tỏa tinh thần lạc quan, để nhiều người hơn tin rằng họ có thể thay đổi tương lai. Nếu chúng ta giúp nhiều người hơn nuôi dưỡng hy vọng về tương lai và hành động để xây dựng nó, chúng ta sẽ tạo ra một thế giới tốt đẹp hơn.
Tất nhiên, tôi thừa nhận đôi khi cách biểu đạt của tôi trên mạng có vẻ quá quyết liệt, nhưng đó là vì tôi muốn khơi gợi tranh luận và thúc đẩy mọi người suy ngẫm. Tôi tin rằng chỉ thông qua những cuộc đối thoại như thế này, chúng ta mới tìm ra vị trí phù hợp nhất để quyết định hành động như thế nào.
Tăng tốc, entropy và nền văn minh
Shaw Walters: Thông điệp của E/acc luôn rất truyền cảm hứng, đặc biệt đối với một người ngồi trong phòng viết code, sự lan tỏa năng lượng tích cực này thật đáng khích lệ, và việc truyền bá thông điệp này diễn ra một cách rất tự nhiên. Có thể nói, E/acc ban đầu rõ ràng là phản ứng trước tâm lý tiêu cực đang lan tràn trong xã hội lúc ấy, nhưng đến năm 2026, tôi cảm thấy E/acc đã không còn giống như trước nữa. Rõ ràng, tuyên ngôn chủ nghĩa lạc quan công nghệ của Marc Andreessen đã hệ thống hóa một số ý tưởng này và nâng chúng lên tầm nhìn bình luận vĩ mô hơn, tương tự như quan điểm của Vitalik.
Vì vậy, Vitalik, tôi muốn hỏi anh: Theo anh, E/acc và D/acc đại diện cho điều gì? Sự khác biệt chính giữa chúng là gì? Và điều gì thúc đẩy anh lựa chọn hướng đi này?
Vitalik Buterin:
Được, tôi sẽ bắt đầu từ nhiệt động lực học. Đây là một chủ đề rất thú vị, bởi vì chúng ta thường nghe thấy từ “entropy” trong các bối cảnh khác nhau, ví dụ như “nóng – lạnh” trong nhiệt động lực học, hay “entropy” trong mật mã học – chúng có vẻ như hoàn toàn khác biệt. Nhưng thực tế, chúng về bản chất là cùng một khái niệm.
Hãy để tôi thử giải thích trong ba phút. Vấn đề là: Vì sao nóng và lạnh có thể trộn lẫn với nhau, nhưng lại không thể tách chúng ra thành “nóng” và “lạnh”?
Hãy giả sử một ví dụ đơn giản: Giả sử bạn có hai bình khí, mỗi bình chứa một triệu nguyên tử. Khí bên trái là khí lạnh, vận tốc của mỗi nguyên tử có thể biểu diễn bằng hai chữ số; khí bên phải là khí nóng, vận tốc của mỗi nguyên tử có thể biểu diễn bằng sáu chữ số.
Nếu muốn mô tả trạng thái toàn bộ hệ thống, ta cần biết vận tốc của từng nguyên tử. Thông tin vận tốc của khí lạnh bên trái cần khoảng 2 triệu bit, còn khí nóng bên phải cần 6 triệu bit, tổng cộng cần 8 triệu bit để mô tả đầy đủ hệ thống này.
Bây giờ, ta có thể suy luận phản chứng một vấn đề. Giả sử bạn có một thiết bị có thể hoàn toàn tách riêng nóng và lạnh. Cụ thể, thiết bị này có thể lấy hai bình khí “nửa nóng nửa lạnh”, chuyển toàn bộ nhiệt sang một bên và toàn bộ lạnh sang bên kia. Từ góc độ bảo toàn năng lượng, điều này dường như hoàn toàn hợp lý, vì tổng năng lượng không thay đổi. Nhưng vấn đề là vì sao bạn lại không thể làm được điều đó?
Câu trả lời nằm ở chỗ, nếu bạn thực sự làm được điều này, bạn thực chất đã biến một hệ thống “chứa 11,4 triệu bit thông tin chưa biết” thành một hệ thống “chỉ chứa 8 triệu bit thông tin chưa biết”, điều này về mặt vật lý là không thể.
Lý do là các định luật vật lý có tính đối xứng thời gian, nghĩa là thời gian có thể chạy ngược. Nếu thiết bị “ma thuật” này thực sự tồn tại, bạn có thể đảo ngược quá trình này theo thời gian để khôi phục trạng thái ban đầu. Điều này có nghĩa thiết bị này thực tế có thể nén bất kỳ thông tin 11,4 triệu bit nào thành 8 triệu bit – mà ta biết rằng điều này là không thể.
Điều này cũng giải thích một vấn đề kinh điển trong vật lý – tính khả thi của “con quỷ Maxwell”. Con quỷ Maxwell là một thực thể tưởng tượng có thể tách riêng nóng và lạnh, và chìa khóa để thực hiện điều này là nó cần biết thêm 3,4 triệu bit thông tin. Với lượng thông tin bổ sung này, nó thực sự có thể hoàn thành nhiệm vụ tưởng chừng vi phạm trực quan này.
Vậy ẩn ý đằng sau điều này là gì? Cốt lõi nằm ở khái niệm “entropy tăng”. Thứ nhất, entropy là khái niệm chủ quan, không phải một đại lượng thống kê vật lý cố định, mà phản ánh mức độ thông tin chưa biết về một hệ thống. Ví dụ, nếu tôi dùng một hàm băm mật mã để sắp xếp lại phân bố nguyên tử, thì đối với tôi, entropy của hệ thống này có thể trở nên rất thấp, vì tôi biết cách sắp xếp của nó. Nhưng đối với một quan sát viên bên ngoài, entropy lại cao. Vì vậy, khi entropy tăng, thực chất là sự vô minh của chúng ta về thế giới đang gia tăng, và lượng thông tin chúng ta không biết ngày càng nhiều hơn.
Bạn có thể hỏi, vậy tại sao chúng ta vẫn có thể trở nên thông minh hơn thông qua giáo dục? Giáo dục giúp chúng ta học được nhiều thông tin “hữu ích” hơn, chứ không phải giảm sự vô minh về thế giới. Nói cách khác, mặc dù về một nghĩa nào đó, sự gia tăng entropy có nghĩa là nhận thức tổng thể của chúng ta về vũ trụ đang giảm đi, nhưng thông tin mà chúng ta nắm giữ lại ngày càng có giá trị hơn. Vì vậy, trong quá trình này, một số thứ bị tiêu hao, nhưng cũng có một số thứ được tạo ra. Và những thứ mà chúng ta đạt được cuối cùng quyết định giá trị đạo đức của chúng ta – chúng ta trân trọng sự sống, hạnh phúc và niềm vui.
Điều này cũng giải thích vì sao chúng ta cho rằng một thế giới loài người sống động và đẹp đẽ thú vị hơn một sao Mộc chỉ gồm vô số hạt. Mặc dù sao Mộc có nhiều hạt hơn, đòi hỏi nhiều bit thông tin hơn để mô tả, nhưng ý nghĩa mà chúng ta gán cho nó khiến Trái Đất trở nên có giá trị hơn.
Từ góc nhìn này, nguồn gốc của giá trị nằm ở lựa chọn của chính chúng ta. Và điều này dẫn đến một câu hỏi: Khi chúng ta đang tăng tốc, thì chúng ta thực sự muốn tăng tốc điều gì?
Nếu dùng một phép so sánh toán học để giải thích: Giả sử bạn có một mô hình ngôn ngữ lớn, rồi tùy tiện thay đổi giá trị của một trọng số nào đó thành một con số khổng lồ, ví dụ 9 tỷ. Kết quả tồi tệ nhất là mô hình trở nên hoàn toàn vô dụng; còn kết quả tốt nhất có thể là chỉ phần không liên quan đến trọng số đó vẫn hoạt động bình thường. Nghĩa là trong trường hợp tốt nhất, bạn có thể nhận được một mô hình hiệu suất kém hơn; còn trong trường hợp tồi tệ nhất, bạn chỉ nhận được một loạt đầu ra vô nghĩa.
Vì vậy, tôi cho rằng, xã hội loài người giống như một mô hình ngôn ngữ lớn phức tạp. Nếu chúng ta tăng tốc một cách mù quáng, thiếu chọn lọc đối với bất kỳ phần nào, kết quả cuối cùng có thể là mất đi toàn bộ giá trị của chúng ta. Vì vậy, vấn đề thực sự là: Làm thế nào để chúng ta tăng tốc một cách có ý thức? Cũng giống như lý thuyết “hành lang hẹp” của Daron Acemoglu, mặc dù bối cảnh xã hội và chính trị khác nhau sẽ có sự khác biệt, nhưng điều chúng ta cần suy ngẫm là làm thế nào để thúc đẩy tiến bộ một cách có chọn lọc dưới sự dẫn dắt của một mục tiêu rõ ràng.
Guillaume Verdon:
Vừa rồi cách giải thích entropy bằng khí rất thú vị. Thực ra, hiện tượng vật lý không thể đảo ngược là do định luật thứ hai của nhiệt động lực học. Nói một cách đơn giản, khi một hệ thống tỏa nhiệt, trạng thái của nó sẽ không thể quay lại như cũ. Bởi vì xét về xác suất, khả năng hệ thống tiến về phía trước lớn hơn rất nhiều so với khả năng quay ngược lại, và sự chênh lệch này tăng theo cấp số mũ khi nhiệt tỏa ra.
Theo một nghĩa nào đó, điều này giống như bạn để lại một “vết lõm” trong vũ trụ. “Vết lõm” này có thể so sánh với một va chạm phi đàn hồi. Ví dụ, nếu tôi ném một quả bóng cao su xuống đất, nó sẽ nảy lên, đó là va chạm đàn hồi. Còn nếu tôi ném một cục đất sét xuống đất, nó sẽ dẹt ra và giữ nguyên hình dạng đó, đó là trạng thái phi đàn hồi, gần như không thể đảo ngược.
Về bản chất, mọi thông tin đều đang “đấu tranh” để tồn tại. Để duy trì sự tồn tại, mỗi đơn vị thông tin đều cần để lại dấu vết không thể xóa nhòa về sự hiện diện của chính nó trong vũ trụ – giống như tạo ra một “vết lõm” lớn hơn trong vũ trụ.
Nguyên lý này cũng có thể dùng để giải thích cách sự sống và trí tuệ xuất hiện từ “nồi súp vật chất nguyên thủy”. Khi hệ thống trở nên ngày càng phức tạp, số lượng bit thông tin mà nó chứa cũng ngày càng tăng. Và mỗi bit thông tin đều mang đến một số thông tin nhất định. Bản chất của thông tin là sự giảm entropy, bởi vì entropy đại diện cho sự vô minh của chúng ta, còn thông tin là công cụ để giảm bớt sự vô minh đó.
Eddy Lazzarin: Tôi muốn biết E/acc là gì.
Guillaume Verdon:
E/acc về bản chất là một “đơn thuốc văn hóa siêu cấp”. Nó không phải là một nền văn hóa, mà là lời khuyên về việc nên tăng tốc điều gì. Trọng tâm của sự tăng tốc là sự phức tạp hóa vật chất, bởi vì chỉ như vậy chúng ta mới có thể dự đoán môi trường xung quanh tốt hơn. Thông qua sự phức tạp hóa này, chúng ta có thể nâng cao khả năng dự đoán tự hồi quy và khai thác nhiều năng lượng tự do hơn. Điều này cũng liên quan đến thang đo Kardashev, chúng ta thực hiện điều này bằng cách tỏa nhiệt.
Ghi chú của TechFlow: Thang đo Kardashev là phương pháp đánh giá trình độ tiên tiến của một nền văn minh do nhà thiên văn học Liên Xô Nikolai Kardashev đề xuất năm 1964, dựa trên mức năng lượng mà nền văn minh đó có thể khai thác. Nó gồm ba loại: Loại I (năng lượng hành tinh), Loại II (năng lượng hệ sao, ví dụ như cấu trúc Dyson), và Loại III (năng lượng thiên hà). Đến năm 2018, loài người ở mức khoảng 0,73.
Từ nguyên lý cơ bản, đây chính là lý do vì sao thang đo Kardashev được coi là tiêu chuẩn tối thượng để đánh giá trình độ phát triển của một nền văn minh.
Eddy Lazzarin: Dùng vật lý và ẩn dụ entropy để giải thích một số hiện tượng thực chất là một công cụ để mô tả hiện thực mà chúng ta trực tiếp trải nghiệm. Ví dụ, năng lực sản xuất kinh tế của chúng ta đang tăng tốc, sự phát triển công nghệ cũng đang tăng tốc, và sự tăng tốc này mang lại nhiều hệ quả, đúng không? Đây là cách tôi hiểu về “sự tăng tốc”.
Guillaume Verdon:
Về bản chất, bất kể ranh giới của một hệ thống được định nghĩa như thế nào, hệ thống đó đều ngày càng giỏi hơn trong việc dự đoán thế giới xung quanh. Thông qua khả năng dự đoán này, nó có thể khai thác nhiều tài nguyên hơn cho sự sinh tồn và mở rộng của chính nó. Mô hình này áp dụng cho công ty, cá nhân, quốc gia, thậm chí cả Trái Đất.
Nếu chúng ta kéo dài xu hướng này, kết quả sẽ là: Chúng ta đã tìm ra một cách chuyển đổi năng lượng tự do thành khả năng dự đoán – đó chính là AI. Khả năng này sẽ thúc đẩy chúng ta mở rộng và nâng cấp trên thang đo Kardashev.
Điều này có nghĩa là chúng ta sẽ có nhiều năng lượng hơn, nhiều AI hơn, nhiều khả năng tính toán hơn, và nhiều tài nguyên khác hơn. Mặc dù chúng ta đang thải entropy (sự hỗn loạn) ra vũ trụ, nhưng chúng ta cũng đang tạo ra trật tự. Thực tế, chúng ta đang đạt được “negative entropy” – tức là nghịch đảo của entropy.
Đôi khi người ta có thể hỏi: Vì entropy đang tăng, sao chúng ta không phá hủy tất cả mọi thứ? Câu trả lời là: Làm như vậy sẽ khiến entropy ngừng sinh ra. Sự sống mới là trạng thái “tối ưu” hơn, sự sống giống như một ngọn lửa đang săn lùng năng lượng, ngày càng thông minh hơn trong việc tìm kiếm nguồn năng lượng.
Xu hướng tiến hóa tự nhiên là: Chúng ta sẽ rời khỏi giếng hấp dẫn của Trái Đất, tìm kiếm những “túi năng lượng tự do” khác trong vũ trụ và sử dụng năng lượng này để tự tổ chức thành những hệ thống phức tạp và thông minh hơn, cuối cùng mở rộng ra khắp vũ trụ.
Đây thực chất là mục tiêu tối hậu của chủ nghĩa vị tha hiệu quả (Effective Altruism, EA). Nó phần nào phù hợp với tầm nhìn “kiểu Musk” về sự mở rộng vũ trụ: theo đuổi tầm nhìn vũ trụ học và chủ nghĩa bành trướng.
E/acc cung cấp một nguyên tắc hướng dẫn nền tảng. Tư tưởng cốt lõi của nó là: Dù bạn áp dụng chính sách hay hành động nào trên thế giới, miễn là nó giúp chúng ta không ngừng leo lên thang đo Kardashev, thì đó là mục tiêu đáng theo đuổi và cũng là định hướng sống của chúng ta.
E/acc là một cách tư duy “siêu phỏng đoán”, vừa có thể dùng để thiết kế chính sách, vừa có thể dùng để hướng dẫn cuộc sống cá nhân. Với tôi, cách tư duy này bản thân nó đã cấu thành một nền văn hóa. Nó mang đậm tính “siêu” kể chuyện, bởi vì nó được thiết kế để áp dụng ở mọi thời điểm và mọi điều kiện. Đây là một nền văn hóa có tính phổ quát và lâu dài cao, nói cách khác, đây là một nền văn hóa “Lindy” được suy ngẫm kỹ lưỡng.
Sự khác biệt cốt lõi
Shaw Walter: Đối với anh, nội dung được thảo luận ở đây có ý nghĩa sâu sắc hơn. Điều này gần như giống một “hệ thống tâm linh” toán học nhất quán. Đối với những người vốn không có niềm tin thay thế nào sau khi “Chúa đã chết”, hệ thống như vậy dường như có thể lấp đầy khoảng trống tinh thần, mang lại sự an ủi và hy vọng. Nhưng đồng thời, chúng ta cũng không thể phớt lờ ý nghĩa thực tiễn của việc này – nó đang diễn ra ngay lúc này. Tôi nghĩ, đây cũng là điểm Eddy muốn khám phá.
Vitalik, tôi nhận thấy trong blog cá nhân của anh, anh đã đưa ra những quan điểm rất sâu sắc về một số vấn đề thực tiễn của D/acc. Khi nào chúng ta có dịp đào sâu hơn chủ đề này – tôi nghĩ một ngày nào đó chúng ta nên nhốt hai anh vào một căn phòng để có một cuộc tranh luận lớn về các vấn đề lượng tử.
Vitalik: Điều gì đã khơi nguồn cảm hứng cho anh? Theo anh, E/acc và D/acc đại diện cho điều gì?
Vitalik Buterin:
Với tôi, D/acc nghĩa là – viết tắt của “tăng tốc phòng thủ phân tán”, nhưng nó cũng bao hàm ý nghĩa “khác biệt hóa” và “dân chủ hóa”. Theo tôi, cốt lõi của D/acc là: Sự tăng tốc công nghệ cực kỳ quan trọng đối với loài người, đây phải là mục tiêu nền tảng mà chúng ta nỗ lực hướng tới.
Ngay cả khi nhìn lại thế kỷ XX, mặc dù tiến bộ công nghệ mang lại nhiều vấn đề, nhưng nó cũng mang lại vô số lợi ích. Ví dụ, hãy xem tuổi thọ trung bình của con người: Dù trải qua chiến tranh và bất ổn, tuổi thọ trung bình của Đức năm 1955 vẫn cao hơn năm 1935, điều này cho thấy tiến bộ công nghệ đã nâng cao chất lượng cuộc sống của chúng ta trên mọi phương diện.
Ngày nay, thế giới trở nên sạch hơn, đẹp hơn, khỏe mạnh hơn và thú vị hơn. Nó không chỉ có thể nuôi sống nhiều người hơn, mà còn làm cho cuộc sống của chúng ta phong phú hơn – những thay đổi này rất tích cực đối với loài người.
Tuy nhiên, tôi cho rằng, chúng ta phải nhận thức rằng: Những tiến bộ này không phải ngẫu nhiên, mà là kết quả của ý định rõ ràng của con người. Ví dụ, vào những năm 1950, ô nhiễm không khí nghiêm trọng, khói mù dày đặc. Mọi người nhận ra đây là một vấn đề và đã thực hiện các biện pháp để giải quyết nó. Ngày nay, ít nhất ở nhiều nơi, vấn đề khói mù đã được giảm nhẹ đáng kể. Tương tự, chúng ta cũng từng đối mặt với vấn đề lỗ thủng tầng ôzôn và đã đạt được tiến triển đáng kể thông qua hợp tác toàn cầu.
Bên cạnh đó, tôi muốn bổ sung thêm một điểm: Trong thời đại công nghệ và AI phát triển nhanh chóng ngày nay, tôi nhận thấy hai loại rủi ro chính.
Một loại rủi ro là rủi ro đa cực. Rủi ro này chỉ ra rằng, khi công nghệ phổ biến, ngày càng nhiều người có thể sử dụng nó để làm những việc cực kỳ nguy hiểm. Ví dụ, ta có thể tưởng tượng một tình huống cực đoan – sự phát triển công nghệ khiến “bất kỳ ai cũng có thể dễ dàng mua vũ khí hạt nhân như mua đồ trong cửa hàng tiện lợi”.
Rồi còn một mối lo khác là: chính AI. Chúng ta cần nghiêm túc cân nhắc khả năng AI phát triển ý thức tự chủ. Một khi khả năng của nó mạnh đến mức có thể hành động mà không cần can thiệp của con người, chúng ta sẽ không thể chắc chắn nó sẽ ra quyết định gì – sự bất định này thật đáng lo ngại.
Thêm vào đó là một loại rủi ro đơn cực. Tôi cho rằng, một AI duy nhất chính là một mối đe dọa tiềm tàng. Còn tồi tệ hơn nữa là sự kết hợp giữa AI và các công nghệ hiện đại khác, có thể dẫn đến một xã hội chuyên chế vĩnh viễn không thể thoát khỏi. Viễn cảnh này khiến tôi cảm thấy rất bất an và luôn là trọng tâm quan tâm của tôi.
Ví dụ, ở Nga, chúng ta có thể thấy công nghệ vừa mang lại tiến bộ, vừa mang lại rủi ro. Một mặt, điều kiện sống thực sự được cải thiện; nhưng mặt khác, tự do xã hội lại đang suy giảm. Nếu ai đó cố gắng biểu tình, camera giám sát sẽ ghi lại hành vi của họ, rồi có thể một tuần sau, vào giữa đêm khuya, người ta sẽ đến nhà bắt họ.
Sự phát triển nhanh chóng của AI đang đẩy nhanh xu hướng tập trung quyền lực này. Vì vậy, đối với tôi, D/acc thực sự muốn làm là: Vẽ ra một con đường tiến lên, tiếp tục tăng tốc – và thậm chí tăng tốc hơn nữa – nhưng đồng thời cũng thực sự ứng phó với hai loại rủi ro này.
So sánh e/acc và d/acc
Eddy Lazzarin: Vậy ý anh là D/acc tập trung hơn vào một số loại rủi ro bị bỏ qua hoặc chưa được nhấn mạnh đủ trong khuôn khổ E/acc, đúng không?
Vitalik Buterin:
Đúng vậy. Tôi cho rằng sự phát triển công nghệ thực sự đi kèm với nhiều rủi ro, và những rủi ro này sẽ biểu hiện mức độ nổi bật khác nhau trong các bối cảnh và mô hình thế giới khác nhau. Ví dụ, khi tốc độ phát triển công nghệ tăng lên hoặc chậm lại, mức độ ưu tiên của các rủi ro khác nhau có thể thay đổi.
Nhưng tôi cũng tin rằng, chúng ta có thể thực hiện nhiều biện pháp để ứng phó hiệu quả với những rủi ro này, bất kể chúng thuộc loại nào.
Guillaume Verdon:
Tôi cho rằng, thực tế cả Vitalik và tôi đều rất quan tâm đến vấn đề tập trung quyền lực quá mức do AI gây ra. Và đây cũng là một trong những trọng tâm của phong trào E/acc, đặc biệt trong giai đoạn đầu: Nó đề xướng mã nguồn mở nhằm phân tán quyền lực AI.
Chúng tôi lo ngại khái niệm “an toàn AI” có thể bị lạm dụng. Nó quá hấp dẫn, đến mức một số tổ chức theo đuổi quyền lực có thể sử dụng nó như một công cụ để củng cố kiểm soát đối với AI, và thuyết phục công chúng rằng: Vì an toàn của bạn, người bình thường không nên được phép sử dụng AI.
Thực tế, nếu tồn tại khoảng cách nhận thức khổng lồ giữa cá nhân và các tổ chức tập trung, thì tổ chức sau sẽ có quyền kiểm soát toàn diện đối với tổ chức trước. Họ có thể xây dựng mô hình hoàn chỉnh về kiểu tư duy của bạn và thông qua kỹ thuật gợi ý (prompt engineering) để điều hướng hành vi của bạn một cách hiệu quả.
Vì vậy, chúng tôi muốn làm cho sức mạnh của AI trở nên cân bằng hơn. Cũng giống như mục đích ban đầu của Tu chính án thứ Hai của Hiến pháp Hoa Kỳ là ngăn chặn chính phủ độc quyền bạo lực, để khi chính phủ vượt quá giới hạn, người dân có thể kiểm soát lại. Tương tự, AI cũng cần cơ chế tương tự để ngăn chặn sự tập trung quyền lực quá mức.
Chúng tôi cần đảm bảo mỗi người đều có khả năng sở hữu mô hình và phần cứng AI riêng, để công nghệ này được phổ biến rộng rãi, từ đó thực hiện sự phân tán quyền lực.
Tuy nhiên, tôi cho rằng việc hoàn toàn ngừng nghiên cứu và phát triển AI là không thực tế. AI là một công nghệ nền tảng, thậm chí có thể gọi là một “công nghệ siêu cấp” – một công nghệ có thể thúc đẩy sự phát triển của các công nghệ khác. Nó trao cho chúng ta khả năng dự đoán mạnh mẽ hơn, có thể áp dụng cho gần như mọi nhiệm vụ và nâng cao hiệu quả đáng kể. Nói cách khác, AI không chỉ thúc đẩy sự tăng tốc, mà còn thúc đẩy sự tăng tốc của chính sự tăng tốc.
Chính bản chất của sự tăng tốc này là sự phức tạp hóa: Các sự vật trở nên hiệu quả hơn, cuộc sống trở nên thuận tiện hơn. Một trong những lý do khiến chúng ta cảm thấy hạnh phúc là vì sự tồn tại và tính liên tục của thông tin của chúng ta được đảm bảo. Cảm giác “hạnh phúc” này có thể được xem là một bộ ước lượng sinh học nội tại, dùng để đo lường sự tồn tại của chúng ta có thể kéo dài hay không.
Từ góc nhìn này, tôi cho rằng khuôn khổ chủ nghĩa vị tha hiệu quả theo chủ nghĩa khoái lạc công lợi – “tối đa hóa hạnh phúc” – có thể không phải là góc nhìn tốt nhất. Thay vào đó, tôi thiên về việc sử dụng một tiêu chuẩn khách quan để đo lường tiến bộ, đây chính là cốt lõi của khuôn khổ E/acc. Nó đặt ra một câu hỏi: Từ góc độ khách quan, liệu chúng ta, với tư cách là một nền văn minh, có đang không ngừng tiến bộ? Chúng ta có đang thực hiện bước nhảy vọt quy mô không?
Để thực hiện bước nhảy vọt quy mô này, chúng ta cần thúc đẩy sự phức tạp hóa và không ngừng cải tiến công nghệ. Tuy nhiên, như Vitalik đã nói, nếu sức mạnh AI quá tập trung vào một số ít người, điều này sẽ gây hại cho sự tăng trưởng tổng thể; còn nếu công nghệ này được phân tán rộng rãi, kết quả sẽ tốt hơn nhiều.
Về phương diện này, tôi cho rằng chúng ta hoàn toàn thống nhất.
Mã nguồn mở, phần cứng mã nguồn mở và trí tuệ cục bộ
Shaw Walters: Tôi cảm thấy cuộc thảo luận vừa rồi của các anh đã chạm đến một số điểm chung rất quan trọng. Rõ ràng cả hai anh đều rất ủng hộ mã nguồn mở. Vitalik từng đóng góp rất nhiều mã nguồn mở theo giấy phép MIT, mặc dù tôi biết sau này anh có một số quan điểm mới về giấy phép GPL.
Bây giờ, các anh không chỉ ủng hộ phần mềm mã nguồn mở, mà còn bắt đầu thúc đẩy phần cứng mã nguồn mở. Mặc dù hai lĩnh vực này trước đây khá độc lập, nhưng giờ đây chúng ta thấy chúng dần hòa nhập.
Vì vậy, tôi rất tò mò, các anh nhìn nhận như thế nào về “trọng số mở” và “phần cứng mã nguồn mở”? Trong lĩnh vực này, E/acc và D/acc có tồn tại một số bất đồng không? Các anh có quan điểm gì về hướng đi trong tương lai? Có tồn tại những quan điểm khác biệt nào không?
Guillaume Verdon:
Với tôi, mã nguồn mở có thể tăng tốc quá trình tìm kiếm siêu tham số. Nó cho phép chúng ta hợp tác theo trí tuệ tập thể để cùng khám phá không gian thiết kế. Đây chính là lợi ích của sự tăng tốc: Chúng ta có thể phát triển công nghệ tốt hơn, AI mạnh hơn, thậm chí dùng AI để thiết kế AI tiên tiến hơn – toàn bộ quá trình này ngày càng nhanh hơn.
Tôi cho rằng, việc phổ biến kiến thức thực chất cũng là phổ biến quyền lực, và việc phổ biến kiến thức về “cách tạo ra trí tuệ” đặc biệt quan trọng. Điều chúng tôi không muốn thấy là một khả năng từng được thảo luận trong chính quyền Mỹ trước đây: cố gắng “nhốt lại con quỷ”. Dù không cấm trực tiếp đại số tuyến tính, nhưng điều này tương tự như hạn chế nghiên cứu toán học liên quan đến AI. Với tôi, điều này giống như cấm người ta học sinh học – một bước lùi lớn.
Kiến thức đã được phổ biến rộng rãi, không thể quay lại. Nếu Mỹ cố gắng cấm nghiên cứu liên quan đến AI, các quốc gia khác, tổ chức bên thứ ba, thậm chí một số khu vực có luật pháp thoáng hơn sẽ tiếp tục thúc đẩy công nghệ này. Như vậy, khoảng cách năng lực toàn cầu sẽ ngày càng lớn, và rủi ro cũng sẽ tăng lên.
Vì vậy, chúng tôi cho rằng, một trong những rủi ro lớn nhất là “khoảng cách năng lực”. Cách duy nhất để giảm thiểu rủi ro này là đảm bảo AI được phân tán.
Mỗi khi tôi nghe những câu chuyện “chủ nghĩa tận thế AI”, ví dụ như “AI rất nguy hiểm, chỉ có chúng tôi mới có khả năng quản lý nó, vì vậy các bạn nên
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












