
NEAR 공동 창시자 일리아: 왜 AI는 Web3가 필요한가?

최근 NEAR 공동창립자 일리아(Illia)가 '2024 홍콩 Web3 페스티벌'에 참석해 AI와 Web3 관련 주제로 중요한 연설을 발표했다. 본문은 그의 연설 내용을 정리한 것으로, 일부 생략이 있다.
안녕하세요, 저는 NEAR의 공동창립자 일리아입니다. 오늘은 왜 AI가 Web3를 필요로 하는지에 대해 이야기하려 합니다. 사실 NEAR는 AI에서 비롯되었습니다. 창업 여정을 시작하기 전, 저는 Google Research에서 자연어 이해 분야를 담당하며 구글의 딥러닝 프레임워크인 TensorFlow의 주요 기여자 중 한 명이었습니다. 여러 동료들과 함께 개발한 최초의 '트랜스포머(Transformer)' 모델은 현재 우리가 목격하는 AI 혁신의 기반을 마련했으며, 이는 GPT의 'T'에서도 확인할 수 있습니다.
그 후 저는 구글을 떠나 NEAR를 창업했습니다. AI 스타트업으로서, 우리는 기계에게 프로그래밍을 가르치는 일을 했고, 그 과정에서 많은 데이터 라벨링 작업을 수행해야 했습니다. 전 세계 각지에서 온 학생들이 데이터를 생성해주었지만, 이들에게 임금을 지급하는 것이 큰 문제였습니다. 일부는 은행 계좌조차 없었기 때문입니다. 이 문제를 해결하기 위해 블록체인을 연구하게 되었고, 확장성과 저비용, 사용 편의성 및 접근성을 갖춘 솔루션이 부족하다는 것을 알게 되었습니다. 바로 그때 NEAR 프로토콜을 만들게 된 것입니다.

익숙하지 않은 분들을 위해 설명하자면, 언어 모델은 새로운 개념이 아닙니다. 1950년대부터 존재해 왔으며, 일반적인 통계 모델을 통해 언어를 모델링하고 다양한 애플리케이션에 활용되어 왔습니다. 제게 진정한 혁신은 2013년 '단어 임베딩(word embedding)'이 도입되면서 시작되었습니다. 이 아이디어는 '뉴욕' 같은 단어를 다차원 벡터로 변환하여 수학적 형태로 표현할 수 있게 해주었고, 이는 행렬 곱셈과 활성화 함수로 구성된 딥러닝 모델과 잘 맞았습니다.
2013년 이후 저는 구글에 합류했습니다. 2014년 초, 주로 사용된 모델은 RNN이었습니다. 이는 인간이 단어 하나씩 읽는 방식과 유사하지만, 한 가지 큰 제약이 있습니다. 예를 들어 여러 문서를 읽고 질문에 답해야 할 경우 상당한 지연이 발생하며, 이는 구글의 실제 서비스 환경에서는 실현 가능하지 않았습니다.

트랜스포머는 이러한 RNN의 한계를 극복하기 위해 탄생했습니다. 하드웨어, 특히 GPU에 존재하는 병렬 처리 능력을 활용해 전체 문서를 거의 동시에 처리하고 이해할 수 있도록 설계되었습니다. 이를 통해 단계별 처리의 병목 현상을 없앨 수 있었고, OpenAI 팀은 이를 바탕으로 대규모 말뭉치(corpus)에서 사전 훈련된 거대한 모델을 확장할 수 있었습니다. 이것이 오늘날의 ChatGPT, Gemini 등 혁신적인 모델들의 출현을 가능하게 했습니다.
현재 우리는 AI 분야에서 중대한 혁신을 목격하고 있으며, 이러한 혁신은 더욱 가속화되고 있습니다. 이 모델들은 기본적인 추론 능력과 상식을 갖추고 있으며, 사람들은 계속해서 이들의 한계를 시험하고 있습니다. 중요한 점은 머신러닝과 데이터 과학 분야에서 누군가 결과를 해석해야 했다는 것입니다. 그러나 지금은 대규모 언어 모델(LLM)이 직접 사람과 소통하거나 다른 애플리케이션 및 도구와 상호작용할 수 있게 되었기에, 결과 해석의 중개자가 필요 없어졌다는 점입니다.
혹시 모르시는 분들을 위해 말씀드리면, 이런 모델들이 GPU로 훈련되거나 사용된다고 할 때, 일반 게임기용이나 암호화폐 채굴용 GPU가 아닙니다. 이들은 전문 슈퍼컴퓨터로, 하나의 장비에 보통 8개의 GPU가 장착되어 있으며, 엄청난 컴퓨팅 성능을 자랑합니다. 이러한 장비들은 랙(rack)에 쌓여 데이터센터에 배치됩니다. Groq처럼 상당히 큰 모델을 훈련시키는 데는 3개월간 1만 개의 H100 GPU를 동원해야 하며, 장비를 임대하는 비용만 해도 6,400만 달러에 달합니다. 더 중요한 것은 컴퓨팅 자체뿐 아니라 연결성입니다.
여기서 중요한 부분은 A100, 특히 H100이 초당 900기가바이트의 연결 속도로 상호 연결된다는 점입니다. 참고로 CPU와 RAM 간 연결 속도는 초당 9기가바이트입니다. 즉, 데이터센터의 랙 안에서 두 개의 노드 혹은 두 개의 GPU 사이에서 데이터를 이동하는 속도가, GPU에서 CPU로 데이터를 이동하는 것보다 빠릅니다. 현재 개발 중인 Blackwell은 이 속도를 두 배인 초당 1,800기가바이트로 끌어올릴 예정이며, 이러한 하드웨어 연결 속도는 어마어마합니다. 이 덕분에 개발자는 이들을 독립된 장치가 아닌, 하나의 통합된 시스템처럼 인식할 수 있습니다. 물론 대규모 시스템을 구축할 때는 고려할 점이 많지만, 이들 장치는 매우 밀접하게 연결되어 있으며, 일반 로컬 네트워크의 평균 연결 속도(초당 100메가바이트)보다 약 만 배 이상 빠릅니다.

현재 이러한 훈련 요구 조건 때문에, 폐쇄형 AI 모델이 부상하고 있습니다. 모델 가중치가 오픈소스라 하더라도, 실제로 모델 내부에 어떤 편향이 포함되었는지는 여전히 불투명합니다. 일부는 농담 삼아 모델은 오직 '가중치와 편향'일 뿐이라고 말합니다. 실제로 많은 엔지니어 외 팀들이 데이터셋을 수정함으로써 모델에 포함될 내용을 결정하며, 특정 이유로 몇몇 정보를 데이터에서 제외하기도 합니다. 그리고 모델 생성 후에는 포스트프로세싱을 통해 시스템 프롬프트를 변경함으로써 모델의 추론 방식을 조절합니다. 가장 위험한 점은 이러한 과정이 공개되지 않는다는 것입니다.
또한 AI에 대한 대규모 항의와 소송도 증가하고 있습니다. 데이터 사용 방식부터 모델의 결과 생성 방식, 기업이 유통 플랫폼에 미치는 영향력까지 논란의 여지가 많기 때문입니다. 모델 자체가 유통 플랫폼이 되면서 우리는 큰 위험에 직면해 있습니다. 당연히 규제 기관은 불량행위자들의 접근을 제한하려 노력하고 있으며, 이는 오픈소스 모델과 탈중앙화 접근 방식의 생존을 어렵게 만들고 있습니다. 오픈소스에는 충분한 경제적 동기가 없어, 기업들이 처음엔 오픈소스로 시작하더라도 수익을 내기 위해 결국 모델을 폐쇄화하고, 더 많은 자본을 확보해 컴퓨팅 파워를 구매하고 더 큰 모델을 훈련하게 됩니다.
생성형 AI는 대규모로 사람들을 조작하는 도구로 전락할 위험이 있습니다. 대기업의 경제 구조는 본질적으로 인센티브를 왜곡시키기 마련입니다. 목표 시장 점유율을 달성한 후에도 수익 성장을 지속해야 하므로, 사용자당 평균 수익(ARPU)을 늘려야 하고, 이는 곧 사용자로부터 더 많은 가치를 추출해야 한다는 의미입니다. 이것이 바로 오픈소스 AI가 직면한 현실입니다. Web3는 사람들을 유인하는 인센티브 도구로서, 사람들이 참여할 기회를 만들고, 충분한 컴퓨팅 및 데이터 자원을 제공함으로써 경쟁력 있는 모델을 개발할 수 있도록 도울 수 있습니다.

Web3 생태계 내에서 많은 AI 도구가 작동할 수 있도록 해야 통합이 가능합니다. 저는 데이터, 인프라, 애플리케이션의 세 가지 차원에서 이를 설명하겠습니다. 우선 언어 모델이 사회와 직접 상호작용할 수 있게 되었기 때문에, 광범위한 범위에서 정보 조작과 허위정보 생성이 가능해졌습니다. 그러나 여기서 AI 자체가 문제라기보다는, 이런 일은 이전에도 존재했었다는 점을 짚고 넘어가야 합니다. 중요한 것은 암호학과 체인 상의 평판(reputation) 시스템을 활용해 해결하는 것입니다. 누가 무엇을 생성했는지, 그 출처는 어디인지, 커뮤니티의 평가는 무엇인지가 핵심입니다.
다른 한편으로는 '에이전트(agent)'가 있습니다. 우리는 모든 것을 에이전트라고 부르는 경향이 있지만, 실제로는 다양성이 큽니다. 도구로서의 에이전트도 있고, 자율적인 에이전트도 있으며, 중심화 또는 탈중앙화 형태로 존재할 수 있습니다. 예를 들어 ChatGPT는 중심화된 도구이고, Llama 모델은 오픈소스입니다. 따라서 이들 모델은 중심화되거나 탈중앙화된 방식으로 사용될 수 있으며, 탈중앙화된 모델은 블록체인 없이도 사용자의 기기에서만 실행될 수 있습니다. 자신의 기기에서 모델을 실행하면, 모델이 자신의 의도에 완전히 부합한다는 것을 보장할 수 있기 때문입니다. 또한 자금 배분이나 중요한 결정을 내릴 때 검증이 필요한 완전한 자율적 탈중앙화 AI 거버넌스도 가능합니다.

또한 다양한 전문화 방식이 있습니다. 프롬프트(prompt)를 이용해 Llama가 특정 방식으로 반응하도록 교육할 수 있고(zero-shot), 특정 데이터셋으로 파인튜닝(fine-tuning)하여 모델에 지식을 추가할 수 있습니다. 또는 사용자 요청 시 맥락 정보를 제공하는 검색 강화(Retrieval-Augmented) 방법도 있습니다. 출력 역시 텍스트에 국한되지 않으며, 풍부한 UI 컴포넌트가 될 수도 있고, 블록체인에서 무언가를 수행하는 직접적인 행동이 될 수도 있습니다.
다음은 자율성입니다. 원하는 일을 수행하는 도구일 수 있고, 스스로 계획을 세우고 실행하는 것도 가능합니다. 연속적인 작업을 지정해 목표만 알려주는 것도 되며, 강화학습 최적화 방식으로 특정 지표와 기준, 제약조건만 설정하면 모델이 지속적으로 탐색하며 성장 방법을 찾아낼 수 있습니다.

마지막으로 인프라입니다. OpenAI나 Groq와 같은 중심화된 인프라를 사용할 수 있고, 분산된 로컬 모델을 선택할 수도 있으며, 확률 기반의 탈중앙화 추론도 가능합니다. 매우 흥미로운 사용 사례로는 '프로그래머블 머니'에서 '스마트 자산'으로의 전환이 있습니다. 자연어로 정의된 자산 행동이 실제 세계 또는 다른 사용자와 상호작용할 수 있는 것입니다. 예를 들어 뉴스를 읽는 자연어 오라클(natural language oracle)을 사용해 상황에 따라 자동으로 전략을 최적화할 수 있습니다. 다만 현재 언어 모델은 적대적 행위에 취약해 다양한 공격에 쉽게 속을 수 있다는 점이 가장 큰 우려입니다.
우리는 지금 갈림길에 서 있습니다. 한쪽 길은 폐쇄된 AI 세계로, 이는 더 많은 조작을 낳을 것입니다. 규제 정책은 종종 이런 방향으로 흐릅니다. 규제 기관은 감독, KYC, 기타 요구사항을 점점 더 강화하게 되고, 이를 충족할 수 있는 곳은 대기업뿐입니다. 스타트업, 특히 오픈소스를 시도하는 스타트업은 경쟁할 리소스가 부족해 결국 문을 닫거나 대기업에 인수되는 운명을 맞이하게 됩니다. 우리는 이미 그런 사례들을 목격하고 있습니다.
다른 길은 열린 모델입니다. 우리는 비영리적이며 오픈소스 정신으로 이를 수행할 수 있는 약속과 역량을 가지고 있으며, 암호경제 인센티브를 통해 기회와 자원을 창출하고, 경쟁력 있는 오픈소스 AI 모델을 만들어낼 수 있습니다. NEAR는 생태계 전반에서 이를 실현하기 위해 노력하고 있습니다. AI is NEAR. 앞으로 몇 주 안에 더 많은 업데이트가 있을 예정이니, 제 트위터와 NEAR의 소셜 미디어를 팔로우하시면 최신 정보를 받아보실 수 있습니다. 감사합니다!
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News










