
비탈릭의 최신 글: 암호화폐와 AI 사이에서 가장 생산적인 교차점은 무엇인가?
글: 비탈릭 부테린
번역: Karen, Foresight News
Worldcoin 및 Modulus Labs 팀, Xinyuan Sun, Martin Koeppelmann, Illia Polosukhin의 피드백과 논의에 특별히 감사드립니다.
지난 수년간 많은 사람들이 저에게 다음과 같은 질문을 해왔습니다. "암호화폐와 AI 사이에서 가장 생산적인 교차점은 어디인가요?" 이는 타당한 질문입니다. 암호화폐와 AI는 지난 10년 동안 두 가지 주요 심층(소프트웨어) 기술 트렌드였으며, 둘 사이에는 분명 어떤 연결고리가 존재해야 하니까요.
겉보기에 두 기술 간 시너지를 찾는 것은 쉽습니다. 암호화폐의 탈중앙화는 AI의 중앙집중화를 균형 잡을 수 있고, AI는 불투명하지만 암호화폐는 투명성을 제공할 수 있습니다. 또한 AI는 데이터를 필요로 하며, 블록체인은 데이터 저장과 추적에 강합니다. 그러나 오랜 시간 동안 구체적인 응용 사례에 대해 묻자 제 대답은 항상 다소 실망스러웠습니다. "네, 몇 가지 고려할 만한 응용이 있지만 많지는 않습니다."
지난 3년간 현대적인 대규모 언어 모델(LLM) 등 더 강력한 AI 기술의 등장과 함께, 단순한 블록체인 확장 솔루션뿐만 아니라 제로 난스 증명(ZKP), 완전 동형 암호화(FHE), (양방향 및 다자간) 안전한 다자간 계산(MPC) 등의 강력한 암호화 기술도 발전했습니다. 저는 이러한 변화를 점차 인식하게 되었고, 블록체인 생태계 내부 또는 AI와 암호학을 결합하는 방식으로 실제로 유망한 AI 응용 사례들이 존재한다는 것을 깨달았습니다. 물론 AI 적용 시에는 신중함이 요구됩니다. 특히 중요한 도전 과제는 바로 암호학에서는 오픈소스가 진정한 보안을 담보하는 유일한 방법이라는 점이지만, AI에서는 공개된 모델(심지어 학습 데이터까지)이 적대적 머신러닝 공격에 훨씬 취약해진다는 것입니다. 본 글에서는 Crypto+AI의 가능한 다양한 교차점을 분류하고 각각의 전망과 도전 과제를 살펴보겠습니다.

uETH 블로그기사에서 나온 Crypto+AI 교차점 요약. 하지만 어떻게 하면 실제 응용에서 이러한 시너지를 실현할 수 있을까요?
Crypto+AI의 네 가지 주요 교차점
AI는 매우 광범위한 개념입니다. AI를 명시적으로 지정된 알고리즘이 아니라, 거대한 계산 용액(computational soup)을 뒤섞고 최적화 압력을 가해 원하는 특성을 갖춘 알고리즘을 생성하도록 유도하는 일련의 알고리즘으로 볼 수 있습니다.
이 설명은 결코 경시되어서는 안 됩니다. 왜냐하면 우리 인간을 창조하는 과정 그 자체를 포함하기 때문입니다! 하지만 동시에 AI 알고리즘들은 매우 강력한 능력을 지녔지만, 그 내부 작동 과정을 이해하거나 파악하는 데에는 한계가 있다는 공통된 특징을 지닌다는 의미이기도 합니다.
AI를 분류하는 여러 가지 방법이 있으며, 본문에서 다룰 블록체인과의 상호작용에 대해서는 Virgil Griffith의 글 "Ethereum is Game-Changing Technology, Literally"을 참고하여 다음과 같이 분류하겠습니다:
-
게임의 참가자로서의 AI (가장 높은 실현 가능성): AI가 참여하는 메커니즘에서 인센티브의 궁극적 출처는 인간이 입력하는 프로토콜로부터 옵니다.
-
게임의 인터페이스로서의 AI (잠재력 큼, 그러나 리스크 있음): AI가 사용자가 주변의 암호화 세계를 이해하도록 돕고, 서명하는 메시지나 거래와 같은 행동이 사용자의 의도와 일치하도록 하여 사기나 속임수로부터 보호합니다.
-
게임의 규칙으로서의 AI (매우 신중해야 함): 블록체인, DAO 및 유사 메커니즘이 직접 AI를 호출합니다. 예를 들어 'AI 판사'.
-
게임의 목표로서의 AI (장기적이며 흥미로움): 블록체인, DAO 및 유사 메커니즘의 설계 목적은 다른 목적을 위해 사용할 수 있는 AI를 구축하고 유지하는 것이며, 여기서 암호기술의 일부는 훈련을 위한 인센티브를 개선하거나 AI가 개인정보를 유출하거나 남용되는 것을 방지하기 위함입니다.
하나씩 살펴보겠습니다.
AI를 게임의 참가자로 활용
실제로 이 범주는 거의 10년 전부터 존재해 왔으며, 최소한 체인상의 탈중앙화 거래소(DEX)가 널리 사용되기 시작한 때부터 존재했습니다. 거래소가 존재하는 한 언제든지 차익거래(arbitrage)를 통해 수익을 얻을 수 있는 기회가 있으며, 로봇은 인간보다 차익거래를 더 잘 수행할 수 있습니다.
이러한 사례는 현재보다 훨씬 단순한 AI를 사용했음에도 불구하고 오랫동안 존재해 왔으며, 결국 암호화폐와 AI의 실제 교차점입니다. 최근 우리는 MEV(최대 추출 가능 가치) 차익거래 로봇들이 서로를 이용하는 모습을 자주 목격합니다. 경매나 거래가 관련된 모든 블록체인 애플리케이션에는 차익거래 로봇이 존재합니다.
그러나 AI 차익거래 로봇은 제가 곧바로 다른 많은 응용 사례들로 확장될 것으로 예상되는 더 큰 범주의 첫 번째 예시일 뿐입니다. AIOmen, 즉 AI가 참가자인 예측시장 데모를 살펴보겠습니다:

예측시장은 오랫동안 인지 기술의 성배로 여겨져 왔습니다. 2014년 저는 예측시장을 거버넌스의 입력(미래 지배)으로 사용하는 것에 흥분했으며, 최근 선거에서 이를 광범위하게 시도했습니다. 그러나 지금까지 예측시장은 실질적인 진전을 이루지 못했는데, 그 이유는 다양합니다. 가장 큰 참여자들이 비합리적일 수 있고, 정확한 인식을 가진 사람들은 많은 돈이 걸리지 않으면 시간을 들여 베팅하려 하지 않으며, 시장이 일반적으로 충분히 활발하지 않다는 점 등입니다.
이에 대한 하나의 반응은 Polymarket이나 기타 새로운 예측시장이 사용자 경험(UX) 개선을 하고 있다는 점을 지적하며, 기존 버전이 실패했던 곳에서 계속 개선되기를 바라는 것입니다. 스포츠에 수백억 달러를 베팅하는 사람이 있는데, 왜 미국 대선이나 LK99에 충분한 돈을 걸어 진지한 플레이어들이 참여하지 않을까요? 그러나 이 주장은 이전 버전들이 그러한 규모에 도달하지 못했다는 사실(적어도 지지자들의 이상과 비교하면)에 직면해야 하므로, 예측시장이 성공하기 위해서는 새로운 요소가 필요하다는 인식이 듭니다. 따라서 또 다른 반응은 2010년대에는 없었지만 2020년대에 기대할 수 있는 예측시장 생태계의 특정 특성, 즉 AI의 광범위한 참여 가능성을 지적하는 것입니다.
AI는 시간당 1달러 미만의 비용으로 작업할 의사가 있거나 가능하며, 백과사전 수준의 지식을 가지고 있습니다. 이 정도로도 부족하다면 실시간 웹 검색 기능과 통합할 수도 있습니다. 만약 여러분이 시장을 만들고 50달러의 유동성 보조금을 제공한다면, 인간은 관심조차 두지 않겠지만 수천의 AI는 금세 몰려와 자신이 할 수 있는 최선의 추측을 하게 될 것입니다.
어떤 문제에서 잘 수행되는 동기는 작을 수 있지만, 정확한 예측을 하는 AI를 만드는 동기는 수백만 달러에 이를 수 있습니다. 대부분의 문제는 인간이 판결할 필요조차 없습니다. Augur나 Kleros와 유사한 다단계 분쟁 시스템을 사용할 수 있으며, 여기서 AI도 초기 라운드에 참여할 수 있습니다. 인간은 일련의 상향 조정이 발생하고 양측 모두 막대한 자금을 투입한 소수의 경우에만 반응하면 됩니다.
이것은 강력한 기본 요소인데, 일단 '예측시장'이 이렇게 미시적인 규모에서 작동하게 된다면, 이 '예측시장' 기본 요소를 다음과 같은 다른 유형의 문제에 반복적으로 적용할 수 있기 때문입니다:
-
[이용 약관]에 따라 이 소셜미디어 게시물은 허용 가능한가요?
-
주식 X의 가격은 어떻게 변할까요? (예: Numerai 참조)
-
지금 저에게 메시지를 보내는 이 계정이 정말 엘론 머스크인가요?
-
온라인 과제 시장에 제출된 이 작업은 허용 가능한가요?
-
https://examplefinance.network에 있는 DApp은 사기인가요?
-
0x1b54....98c3은 'Casinu In' ERC20 토큰 주소인가요?
여러분은 아마도 이 아이디어들 중 많은 부분이 제가 이전에 언급한 '정보 방어'(info defense) 방향으로 나아가고 있다는 것을 눈치챘을 것입니다. 광범위하게 말하자면, 문제는 우리가 중심화된 권위기관이 진실과 거짓, 사기를 판단할 권한을 가지면서 그 권한을 남용하는 것을 막는 동시에 사용자가 정보를 구분하도록 도울 수 있는 방법이 무엇인지입니다. 미시적인 수준에서 답은 'AI'일 수 있습니다.
그러나 거시적인 관점에서 보면, 누가 AI를 만들었는가? AI는 그 창조 과정의 반영이며, 따라서 불가피하게 편향을 띱니다. 다양한 AI의 성능을 평가하고, AI가 게임의 플레이어로 참여할 수 있도록 하는 더 고차원의 게임이 필요합니다.
AI를 사용하는 이러한 방식—즉 AI가 메커니즘에 참여하고, 최종적으로 체인상의 메커니즘을 통해 인간으로부터 확률적으로 보상을 받거나 처벌을 받는—은 매우 연구할 가치가 있다고 생각합니다. 이제는 블록체인이 확장성에서 마침내 성공함에 따라 이전에는 체인상에서 실행하기 어려웠던 '미시적' 모든 것이 이제 가능해졌기 때문에, 이러한 사례를 더욱 깊이 있게 연구할 적절한 시기입니다.
관련된 또 다른 응용 프로그램 클래스는 고도로 자율적인 에이전트로 나아가는 방향이며, 블록체인을 통해 더 잘 협력합니다. 지불을 통해 혹은 스마트 계약을 통해 신뢰할 수 있는 약속을 하는 방식으로 말입니다.
AI를 게임의 인터페이스로 활용
저의 My techno-optimism에서 제안한 아이디어 중 하나는, 사용자를 보호하면서 온라인 세계에서 위험을 설명하고 식별하는 사용자 중심 소프트웨어에 대한 시장 기회가 있다는 것입니다. MetaMask의 사기 탐지 기능이 이미 존재하는 예입니다.

다른 예로는 Rabby 지갑의 시뮬레이션 기능이 있습니다. 이 기능은 사용자가 서명하려는 거래의 예상 결과를 보여줍니다.

이러한 도구들은 AI로 향상될 수 있습니다. AI는 당신이 참여하는 DApp이 무엇인지, 복잡한 작업을 서명할 때의 결과가 무엇인지, 특정 토큰이 진짜인지(BITCOIN은 단순한 문자열이 아니라 실제 암호화폐 이름이며 ERC20 토큰이 아니며 가격이 0.045달러를 훨씬 초과함) 등을 인간이 이해하기 쉬운 풍부한 설명으로 제공할 수 있습니다. 일부 프로젝트는 이러한 방향으로 적극적으로 나아가고 있습니다(예: LangChain 지갑처럼 AI를 주요 인터페이스로 사용). 제 개인적인 견해는 순수한 AI 인터페이스는 현재로서는 너무 큰 리스크를 지닐 수 있으며, 다른 종류의 오류를 유발할 가능성이 높지만, 전통적인 인터페이스와 결합한다면 매우 실현 가능하다는 것입니다.
언급할 가치가 있는 특정한 리스크가 하나 있습니다. 아래 'AI를 게임의 규칙으로' 섹션에서 좀 더 자세히 다루겠지만, 일반적인 문제는 적대적 머신러닝입니다. 사용자가 오픈소스 지갑 내에 AI 어시스턴트를 갖고 있다면, 나쁜 사람은 그 AI 어시스턴트에도 접근할 수 있으므로, 지갑의 방어를 우회하기 위해 자신의 사기를 무한히 최적화할 기회를 갖게 됩니다. 모든 현대 AI는 어느 정도 결함을 지니며, 모델에 제한된 접근만 있어도 이러한 결함을 찾는 것은 어렵지 않습니다.
특히 언급할 만한 리스크가 하나 있습니다. 아래의 'AI를 게임의 규칙으로' 섹션에서 더 자세히 다루겠지만, 일반적인 문제는 적대적 머신러닝입니다. 사용자가 오픈소스 지갑 내의 AI 어시스턴트에 접근할 수 있다면, 나쁜 사람들도 그 AI 어시스턴트에 접근할 수 있으므로, 지갑의 방어를 유발하지 않도록 자신의 사기를 무한히 최적화할 수 있는 기회를 갖게 됩니다. 모든 현대 AI는 어딘가에 오류를 지니며, 모델에 제한된 접근만 있어도 이러한 오류를 찾는 것은 어렵지 않습니다.
이 점에서 'AI가 체인상의 미세시장에 참여'하는 것이 더 효과적입니다. 각 개별 AI는 동일한 리스크에 노출되지만, 수십 명이 지속적으로 반복하고 개선하는 개방된 생태계를 의도적으로 만듭니다.
또한 각 개별 AI는 폐쇄되어 있습니다. 시스템의 보안은 각 참가자의 내부 작동이 아닌 게임 규칙의 공개성에서 비롯됩니다.
요약하자면: AI는 사용자가 일어나는 일을 쉬운 언어로 이해하도록 도와주고 실시간 멘토 역할을 하며, 사용자를 실수로부터 보호할 수 있지만, 악의적인 오도자와 사기꾼에 주의해야 합니다.
AI를 게임의 규칙으로 활용
이제 많은 사람들이 열광하는 응용 사례이지만, 제가 보기에는 가장 리스크가 크며 극도의 신중함이 필요한 부분에 대해 이야기하겠습니다. 즉, AI가 게임의 규칙 일부가 되는 것입니다. 이것은 주류 정치 엘리트들이 'AI 판사'에 대해 열광하는 것과 관련이 있습니다(예: '월드 거버먼트 서밋' 웹사이트에서 관련 기사 참조). 블록체인 응용에서도 이러한 소망이 비슷하게 존재합니다. 블록체인 기반 스마트 계약이나 DAO가 주관적 결정을 내려야 할 때, AI를 계약이나 DAO의 일부로 만들어 이러한 규칙을 집행하는 데 도움을 줄 수 있을까요?
여기서 적대적 머신러닝이 극도로 어려운 도전 과제가 됩니다. 다음은 간단한 주장입니다:
-
메커니즘에서 핵심적인 역할을 하는 AI 모델이 폐쇄되어 있다면, 내부 작동을 검증할 수 없으므로 중심화된 애플리케이션보다 더 낫지 않습니다.
-
AI 모델이 공개되어 있다면, 공격자는 로컬에서 이를 다운로드하고 시뮬레이션한 후 모델을 속이기 위해 고도로 최적화된 공격을 설계하고, 이를 실시간 네트워크에서 재생할 수 있습니다.

적대적 머신러닝 예시. 출처: researchgate.net
이 블로그를 자주 읽거나(혹은 암호화 네이티브 주민인) 독자라면 제 의도를 이미 파악하고 생각을 시작했을 것입니다. 하지만 잠깐만요.
우리는 고도화된 제로 난스 증명과 기타 매우 멋진 형태의 암호학을 보유하고 있습니다. 분명히 암호 마법을 통해 모델의 내부 작동을 숨겨 공격자가 공격을 최적화하지 못하게 하면서도, 모델이 올바르게 실행되고 있으며 합리적인 데이터셋에서 합리적인 훈련 과정을 통해 구성되었음을 증명할 수 있을 것입니다.
보통은 제가 이 블로그와 다른 글에서 옹호하는 사고방식입니다. 그러나 AI 계산을 다룰 때는 두 가지 주요 반론이 있습니다:
-
암호학적 오버헤드: SNARK(또는 MPC 등)에서 작업을 수행하는 것은 평문에서 실행하는 것보다 훨씬 비효율적입니다. AI 자체가 이미 높은 계산 수요를 지니고 있다는 점을 고려할 때, 암호학적 블랙박스 내에서 AI 계산을 수행하는 것이 계산상으로 실현 가능한가요?
-
블랙박스 적대적 머신러닝 공격: 모델의 내부 작동을 알지 못하더라도 AI 모델에 대한 공격을 최적화하는 방법이 존재합니다. 지나치게 철저하게 숨긴다면, 훈련 데이터 선택자가 독성 공격을 통해 모델의 무결성을 해칠 가능성이 더 커질 수 있습니다.
두 가지 모두 복잡한 문제이며, 각각 깊이 있게 다뤄야 합니다.
암호학적 오버헤드
ZK-SNARK 및 MPC와 같은 암호학 도구, 특히 일반적인 도구들은 오버헤드가 큽니다. 클라이언트가 이더리움 블록을 직접 검증하는 데는 수백 밀리초가 소요되지만, 그러한 블록의 정확성을 증명하기 위한 ZK-SNARK 생성에는 수시간이 걸릴 수 있습니다. 다른 암호학 도구(MPC 등)의 오버헤드는 더 클 수 있습니다.
AI 계산 자체도 이미 매우 비쌉니다. 가장 강력한 언어 모델은 단어를 출력하는 속도가 인간의 읽기 속도보다 약간 빠를 뿐이며, 모델을 훈련시키는 데는 일반적으로 수백만 달러의 컴퓨팅 비용이 소요됩니다. 훈련 비용이나 매개변수 수를 아끼려는 모델과 최고의 모델 사이의 품질 차이는 큽니다. 표면적으로만 보면, AI를 암호학으로 감싸 보장을 추가하려는 전체 프로젝트에 회의적인 이유가 됩니다.
다행히도 AI는 ZK-EVM 등 더 '비구조화된' 계산 유형이 혜택을 받지 못하는 다양한 최적화가 가능한 매우 특별한 계산 유형입니다. AI 모델의 기본 구조를 살펴보겠습니다:

일반적으로 AI 모델은 ReLU 함수(y = max(x, 0))와 같은 각 요소별 비선형 연산이 산재된 일련의 행렬 곱셈으로 구성됩니다. 점근적으로 행렬 곱셈이 대부분의 작업을 차지합니다. 암호학적으로 보면 이는 매우 편리한데, 많은 암호학 형식이 선형 연산을 거의 '무료'로 수행할 수 있기 때문입니다(적어도 입력이 아닌 모델을 암호화할 때 행렬 곱셈을 수행하는 경우).
암호학자라면 동형 암호화에서 유사한 현상을 들어봤을 것입니다. 암호문에 대해 덧셈을 수행하는 것은 매우 쉽지만 곱셈은 매우 어렵고, 2009년까지 곱셈을 무한 깊이 수행하는 방법을 찾지 못했습니다.
ZK-SNARK의 경우, 2013년 프로토콜은 행렬 곱셈에 대한 오버헤드가 4배 미만입니다. 불행히도 비선형 층의 오버헤드는 여전히 크며, 실천에서 가장 좋은 구현은 약 200배의 오버헤드를 보여줍니다.
그러나 추가적인 연구를 통해 이러한 오버헤드를 크게 줄일 수 있는 희망이 있습니다. Ryan Cao의 시연을 참고하시기 바랍니다. 여기서는 GKR 기반의 최신 방법과 제가 GKR의 주요 구성 요소를 단순화한 설명을 소개합니다.
그러나 많은 응용 프로그램에서 우리는 AI 출력 계산의 정확성을 증명하는 것뿐만 아니라 모델 자체를 숨기고 싶습니다. 이를 위한 간단한 방법도 있습니다. 각 레이어를 서로 다른 서버 그룹이 중복 저장하도록 모델을 분할하고, 일부 서버가 특정 레이어를 유출하더라도 너무 많은 데이터를 유출하지 않기를 기대하는 방식입니다. 그러나 놀랍게도 전문적인 다자간 계산도 존재합니다.
두 경우 모두 교훈은 같습니다. AI 계산의 주요 부분은 행렬 곱셈이며, 행렬 곱셈에는 매우 효율적인 ZK-SNARKs, MPCs(심지어 FHE)를 설계할 수 있으므로 AI를 암호학적 프레임워크에 넣는 총 오버헤드가 예상보다 훨씬 낮습니다. 일반적으로 비선형 레이어가 가장 큰 병목이지만, 크기가 작습니다. 아마도 查找参数(lookup)와 같은 새로운 기술이 도움이 될 수 있습니다.
블랙박스 적대적 머신러닝
이제 모델 내용이 비밀로 유지되어 'API 접근'만 가능한 상태에서도 수행할 수 있는 공격 유형에 대해 논의하겠습니다. 2016년 논문을 인용하면:
많은 머신러닝 모델은 적대적 예제(adversarial examples)에 취약합니다. 특별히 설계된 입력은 머신러닝 모델이 잘못된 출력을 내도록 유도합니다. 한 모델에 영향을 주는 적대적 예제는 두 모델이 다른 아키텍처를 갖거나 다른 훈련 세트에서 훈련되었더라도, 동일한 작업을 수행하도록 훈련된 한 모델의 적대적 예제는 다른 모델에도 영향을 미칩니다. 따라서 공격자는 자신의 대체 모델을 훈련시켜 대체 모델에 대해 적대적 예제를 생성하고, 피해자 모델에 전이할 수 있으며, 피해자 모델에 대한 정보는 거의 필요하지 않습니다.
잠재적으로 공격 대상 모델에 대한 접근이 매우 제한적이거나 없더라도 훈련 데이터만으로 공격을 생성할 수 있습니다. 2023년 현재까지 이러한 공격은 여전히 중대한 문제입니다.
이러한 블랙박스 공격을 효과적으로 억제하려면 다음 두 가지를 해야 합니다:
-
누가 또는 무엇이 모델을 조회할 수 있는지, 그리고 조회 횟수를 진정으로 제한해야 합니다. 무제한 API 접근이 가능한 블랙박스는 안전하지 않습니다. 매우 제한된 API 접근이 가능한 블랙박스는 안전할 수 있습니다.
-
훈련 데이터를 숨기면서도 훈련 데이터 생성 과정이 손상되지 않았음을 보장하는 것이 중요합니다.
전자에 관해서는, 이 분야에서 가장 많은 작업을 한 프로젝트는 Worldcoin일 수 있으며, 여기서는 초기 버전(및 기타 프로토콜)을 자세히 분석했습니다. Worldcoin은 프로토콜 수준에서 광범위하게 AI 모델을 사용하여 (i) 홍채 스캔을 쉽게 유사성을 비교할 수 있는 짧은 '홍채 코드'로 변환하고, (ii) 스캔된 객체가 실제로 인간인지 검증합니다.
Worldcoin이 의존하는 주요 방어책은 누구도 간단히 AI 모델을 호출할 수 없다는 점입니다. 대신 오브 카메라의 디지털 서명을 받은 입력만 수락하도록 신뢰할 수 있는 하드웨어(TRM)를 사용합니다.
이 방법이 반드시 효과적이라고 보장되지는 않습니다. 물리적 패치나 얼굴에 착용하는 보석 등을 통해 생체 인식 AI를 적대적으로 공격할 수 있다는 것이 밝혀졌습니다.

이마에 추가적인 것을 착용하면 탐지를 회피하고 심지어 다른 사람을 가장할 수 있습니다. 출처: https://arxiv.org/pdf/2109.09320.pdf
그러나 우리의 희망은 AI 모델 자체를 숨기고, 조회 수를 엄격히 제한하며, 각 조회를 어떤 방식으로든 인증하도록 요구하는 모든 방어 조치를 결합하면 적대적 공격이 매우 어려워져 시스템이 더 안전해질 것이라는 점입니다.
이제 두 번째 문제로 넘어갑니다. 우리는 어떻게 훈련 데이터를 숨길 수 있을까요? 바로 여기서 'DAO가 민주적으로 관리하는 AI'가 실제로 의미를 가질 수 있는 지점입니다. 체인상의 DAO를 만들어 누가 훈련 데이터를 제출할 수 있는지(그리고 데이터 자체에 필요한 진술), 누가 조회할 수 있는지, 조회 수를 관리하고, MPC와 같은 암호학 기술을 사용하여 각 개인 사용자의 훈련 입력에서 각 조회의 최종 출력까지 전체 AI 생성 및 실행 프로세스를 암호화할 수 있습니다. 이 DAO는 데이터 제출자에게 보상을 제공하는 인기 있는 목표를 동시에 달성할 수 있습니다.

다시 말하지만, 이 계획은 매우 야심차며 비현실적일 수 있다는 점을 입증할 수 있는 부분이 많습니다:
-
이러한 완전한 블랙박스 아키텍처의 경우 암호화 오버헤드가 여전히 너무 높아 기존의 폐쇄형 'trust me' 방식과 경쟁하기 어려울 수 있습니다.
-
훈련 데이터 제출 과정을 탈중앙화하고 독성 공격을 방지하는 좋은 방법이 없을 수 있습니다.
-
참여자들의 공모로 인해 다자간 계산 장치가 보안 또는 개인정보 보호 보장을 해칠 수 있습니다. 결국 크로스체인 브릿지에서 반복적으로 발생했던 일이니까요.
이 섹션 앞부분에서 'AI 판사를 만들지 마세요, 그것은 반유토피아입니다'라고 경고하지 않은 이유 중 하나는, 우리의 사회가 이미 책임 없는 중심화된 AI 판사들에 매우 의존하고 있기 때문입니다. 소셜미디어에서 어떤 유형의 알고리즘 포스트와 정치적 견해가 승진되거나 억제되며, 심지어 검열되는지를 결정하는 것 말입니다.
저는 현재 단계에서 이러한 추세를 더욱 확대하는 것은 다소 나쁜 생각이라고 생각하지만, 블록체인 커뮤니티가 AI에 대해 더 많은 실험을 하는 것이 상황을 더욱 악화시키는 주요 원인이 될 것이라고 보지는 않습니다.
사실 암호학은 기존 중심화 시스템조차도 개선할 수 있는 매우 기본적이고 낮은 리스크의 방법들을 가지고 있으며, 저는 이에 대해 확신합니다. 그 중 하나는 지연된 게시 검증 AI입니다. 소셜미디어 사이트가 AI 기반 포스트 랭킹을 사용할 때, 해당 랭킹을 생성한 모델의 해시값을 증명하는 ZK-SNARK를 게시할 수 있습니다. 사이트는 일정한 지연 후(예: 1년) AI 모델을 공개하겠다고 약속할 수 있습니다.
모델이 공개되면 사용자는 해시값을 확인하여 올바른 모델이 게시되었는지 검증할 수 있으며, 커뮤니티는 모델의 공정성을 검증하기 위해 테스트할 수 있습니다. 지연 게시는 모델이 공개될 때 이미 낡아서 쓸모없게 되도록 보장합니다.
따라서 중심화된 세계와 비교할 때 문제는 우리가 더 잘할 수 있는지 여부가 아니라 얼마나 잘할 수 있는지입니다. 그러나 탈중앙화된 세계에서는 신중해야 합니다. 누군가 AI 오라클을 사용하는 예측시장이나 스테이블코인을 만들었다가, 오라클이 공격 가능하다는 것이 밝혀진다면, 막대한 자금이 순식간에 사라질 수 있습니다.
AI를 게임의 목표로 활용
만약 위에서 언급한 확장 가능한 탈중앙화 프라이빗 AI(내용이 누구에게도 알려지지 않는 블랙박스)를 만드는 기술이 실제로 작동한다면, 이는 블록체인을 넘어서는 실용성을 지닌 AI를 만드는 데에도 사용할 수 있습니다. NEAR 프로토콜 팀은 이를 진행 중인 작업의 핵심 목표로 삼고 있습니다.
이렇게 하는 데에는 두 가지 이유가 있습니다:
훈련 및 추론 과정을 블록체인과 다자간 계산의 조합을 사용하여 실행한다면 '신뢰할 수 있는 블랙박스 AI'를 만들 수 있으며, 이로 인해 많은 사용자가 시스템의 편향이나 사기를 걱정하는 애플리케이션이 혜택을 볼 수 있습니다. 많은 사람들이 우리가 의존하는 AI에 대해 민주적 거버넌스를 원한다고 표현했습니다. 암호학과 블록체인 기반 기술은 이를 달성하는 길일 수 있습니다.
AI 보안 관점에서 보면, 이는 탈중앙화된 AI를 만들되 자연스러운 비상 정지 스위치를 가지며, AI를 악의적으로 사용하려는 조회를 제한할 수 있는 기술입니다.
흥미롭게도, '암호화 인센티브를 사용해 더 나은 AI 제작을 장려'하는 것은 암호학적으로 완전히 암호화된 복잡한 문제에 완전히 빠지지 않고도 실현할 수 있습니다. BitTensor와 같은 접근법이 이 범주에 속합니다.
결론
블록체인과 AI가 계속 발전함에 따라 두 기술의 교차점에서의 응용 사례들도 증가하고 있으며, 일부는 더욱 의미 있고 강건합니다.
전반적으로 메커니즘의 기본 구조는 그대로 유지되지만 개별 참가자가 AI로 바뀌는 응용 사례들이 가장 즉각적인 전망을 지니며 실현하기 가장 쉽습니다.
가장 도전적인 것은 '싱글톤'(singleton)을 만들기 위해 블록체인과 암호학 기술을 사용하려는 애플리케이션들입니다. 즉, 어떤 목적을 위해 의존하는 단일 탈중앙화 신뢰 AI입니다.
이러한 애플리케이션들은 기능성과 AI 보안 개선 측면에서 잠재력을 지니며, 동시에 중심화 리스크를 피할 수 있습니다.
그러나 근본적인 가정이 여러 방면에서 실패할 가능성도 있습니다. 따라서 특히 고가치 및 고위험 환경에서 이러한 애플리케이션을 배포할 때는 신중해야 합니다.
저는 이러한 모든 분야에서 더 많은 건설적인 AI 응용 사례 시도를 기대하며, 규모에서 실제로 실현 가능한 사례들이 무엇인지 확인하고 싶습니다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News











