
강력한 인공지능 시대에 블록체인은 여전히 가능성이 있을까?
글: 멩옌, Solv Protocol 공동 설립자
최근 많은 사람들이 저에게 묻습니다. ChatGPT가 다시 한 번 AI 열풍을 일으키며 블록체인과 Web3의 존재감을 압도하고 있는데, 앞으로도 희망이 있을까? 제 사정을 잘 아는 친구들은 또 물어보죠. "당신은 예전에 AI를 포기하고 블록체인을 선택했는데, 후회하지 않나요?"
여기 작은 배경 설명이 필요합니다. 2017년 초 제가 IBM을 떠난 후, CSDN의 창립자 장타오(蒋涛)와 향후 개인적인 진로 방향에 대해 상의했습니다. 당시 두 가지 선택지가 있었는데 하나는 AI였고, 다른 하나는 블록체인이었습니다. 저는 그때 이미 블록체인을 2년간 연구해 왔기 때문에 당연히 이쪽을 선택하고 싶었죠. 하지만 장타오는 AI가 더 강력한 추세를 보이며 혁신성도 크다고 단언했고, 저는 깊이 생각한 끝에 동의하여 2017년 초부터 중반까지 반년간 AI 기술 미디어 분야에서 활동하며 다양한 행사에 참석하고 수많은 인터뷰를 하며 얕게나마 머신러닝도 접해봤습니다. 그러나 8월이 되자 다시 블록체인으로 돌아와 지금까지 오게 되었기 때문에, 저 개인적으로는所谓 'A를 포기하고 B를 선택했다'는 역사적 전환이 실제로 존재합니다.
제 입장에서는 물론 전혀 후회하지 않습니다. 방향성을 선택할 때 가장 먼저 고려해야 할 것은 자신의 현실 조건입니다.
-
저 같은 경우 AI 분야에서는 겉돌기 바빴을 것이고, 돈도 별로 못 벌았을뿐더러 열심히 응원하지도 않고 표정도 어색하면 오히려 무시당했을 겁니다.
-
반면 블록체인은 제 본거지라서 경기에 직접 참여할 기회도 있고, 이전에 쌓아온 지식과 경험도 충분히 활용할 수 있었습니다. 게다가 당시 중국의 AI 커뮤니티에 어느 정도 이해하게 된 후에는 크게 낙관하지 않았습니다.
-
기술적으로는 겉핥기 수준이지만 상식은 속지 않습니다. 블록체인 생태계가 부산하다는 말을 많이 듣지만, 당시 중국의 AI 생태계 역시 결코 뒤지지 않을 정도로 부실했습니다.
-
결정적인 돌파구를 확보하기 이전에 AI는 중국에서 이미 합종연횡하며 돈을 긁어모으는 사업으로 변질되어 버렸습니다. 교외의 벚꽃도 결국 별반 다르지 않지요. 차라리 제게 비교 우위가 있는 블록체인을 선택하는 게 낫다는 생각이었고, 지금까지 이 자세는 변함없습니다.
-
만약 제가 당시 AI 분야에 남아 있었다면, 최근 몇 년간 블록체인에서 거둔 소소한 성과는 꿈도 못 꿀 일이었고, AI 분야에서도 실질적인 수확을 얻기 어려웠을 것입니다. 아마 지금쯤 큰 좌절감에 시달리고 있을지도 모릅니다.
하지만 위 내용은 어디까지나 개인적인 선택 이야기일 뿐이며, 산업 전체의 관점으로 확장하려면 또 다른 척도의 분석이 필요합니다. 강한 형태의 인공지능(강AI)이 이제 더 이상 부정할 수 없는 수준에 도달했다면, 블록체인 업계는 어떤 식으로 재정위치를 해야 하는지 진지하게 고민해야 합니다. 강AI는 모든 산업에 충격을 주며, 그 장기적인 영향은 예측 불가능합니다. 그래서 저는 현재 많은 업계 전문가들이 불안해하며 자신의 산업 미래를 걱정하고 있다고 믿습니다. 일부 산업은 강AI 시대에도 잠시 노예처럼 안주할 수 있지만, 다른 일부 산업, 예를 들어 번역, 일러스트 제작, 공문서 작성, 간단한 프로그래밍, 데이터 분석 등은 노예조차 될 수 없어 벌벌 떨고 있을지도 모릅니다.
그렇다면 블록체인 산업은 어떨까요? 현재 이 문제를 논의하는 사람은 많지 않은 것 같아 제가 한번 제 견해를 나누고자 합니다.
먼저 결론부터 말하겠습니다. 제 생각에 블록체인은 가치 지향성 면에서 강AI와 정면으로 대립하지만,恰恰(정확히 그러하기 때문에) 오히려 서로 보완적인 관계를 형성합니다.
간단히 말해, 강AI의 본질적 특징은 인간에게 그 내부 메커니즘이 이해 불가능하다는 점입니다. 따라서 그 내부 메커니즘을 능동적으로 개입하여 안전성을 확보하려는 시도는 도토리를 줍다 망치를 찾는 것이며, 끓는 물을 떠내는 격입니다.
인간은 블록체인을 통해 강AI에게 법을 제정하고, 계약을 맺으며 외부로부터 제약을 가해야 합니다. 이것이 바로 인간과 강AI가 평화롭게 공존할 수 있는 유일한 기회입니다.
미래에 블록체인과 강AI는 서로 모순되면서도 서로 의존하는 관계를 형성할 것입니다.
-
강AI는 효율성을 책임지고, 블록체인은 공정성을 유지합니다. 강AI는 생산력을 발전시키고, 블록체인은 생산관계를 형성합니다.
-
강AI는 가능성의 상한선을 확장하고, 블록체인은 하한선을 지킵니다.
-
강AI는 선진적인 도구와 무기를 창조하고, 블록체인은 그것들과 인간 사이에 파괴할 수 없는 계약을 구축합니다.
요컨대, 강AI는 자유롭게 달리지만, 블록체인이 그것에게 굴레를 씌워줍니다. 따라서 강AI 시대에 블록체인이 사라지는 것이 아니라, 오히려 상호 모순적이면서도 함께 성장하는 산업으로서 강AI의 성장과 함께 급속히 발전할 것입니다. 강AI가 인간의 대부분의 두뇌 작업을 대체한 이후에도 인간이 직접 수행해야 하는 소수의 작업 중 하나가 바로 블록체인 스마트계약을 작성하고 검사하는 일이 될 수도 있습니다. 왜냐하면 이것은 인간과 강AI 사이의 계약이기 때문에 상대방에게 위임할 수 없기 때문입니다.
이제 본격적으로 논의를 시작하겠습니다.
1. GPT는 곧 강한 인공지능이다
저는 "AI"와 "강한 인공지능"이라는 표현을 매우 신중하게 사용합니다. 왜냐하면 우리가 일상적으로 말하는 AI는 특별히 강한 인공지능(artificial general intelligence, AGI)을 가리키는 것이 아니라, 더 약하거나 특정 목적에 국한된 인공지능까지 포함하기 때문입니다. 우리가 논의할 가치가 있는 것은 강한 인공지능이며, 약한 AI는 아닙니다. AI라는 방향이나 산업 자체는 이미 오래전부터 존재했지만, 강한 인공지능이 등장하기 전까지는 블록체인과 강AI 간의 관계를 논의할 필요가 없었습니다.
강한 인공지능이 무엇인지에 대한 설명은 생략하겠습니다. 많은 사람들이 이미 소개했기 때문입니다. 요약하자면 여러분이 어릴 적 SF 영화나 공포 소설에서 보고 들었던, 인공지능의 성배라 불리는, 『터미네이터』에서 인류에게 핵 공격을 개시하거나 『매트릭스』에서 인간을 배터리로 사용하는 바로 그 존재가 강한 인공지능입니다. 제가 말하고자 하는 판단은 하나뿐입니다. GPT는 바로 강한 인공지능입니다. 비록 아직 유아기이지만, 이 길을 계속 따라가다 보면 버전 넘버가 8이 되기도 전에 강한 인공지능이 본격적으로 등장할 것입니다.
이 사실은 GPT의 창시자들조차 더 이상 숨기지 않고 있습니다. 2023년 3월 22일, 마이크로소프트 리서치는 154페이지에 달하는 장문의 논문을 발표했는데, 제목은 바로 《강한 인공지능을 촉발하다: GPT-4 초기 체험》이었습니다. 이 논문은 매우 길어서 저는 끝까지 다 읽진 않았지만, 가장 중요한 핵심은 서문에 담긴 한 문장입니다. "GPT-4가 도달한 능력의 폭과 깊이를 고려했을 때, 우리는 이를 완전히 완성되진 않았지만 강한 인공지능 시스템의 초기 버전으로 간주할 수 있다고 믿는다."

그림 1. 마이크로소프트 리서치 최신 논문은 GPT-4를 강한 인공지능의 초기 버전으로 평가
AI 발전이 이 단계에 이르렀다는 것은 탐색기가 종료되었음을 의미합니다. 이 지점까지 오는 데 AI 산업은 거의 70년이 걸렸고, 앞서 50여 년간은 방향조차 제대로 못 잡은 채 다섯 개의 주요 학파가 서로 경쟁했습니다. 2006년 제프리 힌튼(Geoffrey Hinton) 교수가 딥러닝에서 돌파구를 마련한 이후에야 방향성이 확정되었고, 연결주의(connectionism)가 승리하였습니다. 그 이후로는 딥러닝이라는 방향 아래 강한 인공지능을 위한 돌파구를 찾는 구체적인 탐색이 진행되었습니다.
이런 탐색 단계는 매우 예측 불가능한 특성을 가지고 있으며, 성공은 마치 복권을 맞는 것과 비슷합니다. 최고의 산업 전문가들도, 심지어 승자 자신조차 결정적인 돌파구를 이루기 전에는 어느 길이 옳은지 판단하기 어렵습니다. 예를 들어, AI 분야의 대가인 리무(Li Mu)는 유튜브 채널을 운영하며 논문을 정밀하게 읽는 방식으로 AI의 최신 진전을 계속 추적하고 있습니다.
ChatGPT가 폭발하기 전에도 그는 Transfomer, GPT, BERT 등의 최신 진전을 꾸준히 소개하며 중요한 최전선의 주제들을 놓치지 않았습니다. 그런데도 ChatGPT 출시 직전에 그는 이 접근법이 얼마나 큰 성공을 거둘 수 있을지 확신하지 못했습니다. 그는 이렇게 말했습니다. "혹시 수백 또는 수천 명이 ChatGPT를 사용한다면 정말 대단할 것이다." 이처럼 최고 전문가조차 어느 문 너머에 성배가 있는지 마지막 순간까지 확신할 수 없다는 것을 알 수 있습니다.
하지만 기술 혁신은 종종 이렇습니다. 격렬한 바다 위를 오랫동안 항해하면서도 돌파구를 찾지 못하다가, 새 대륙으로 가는 올바른 길을 발견하면 짧은 시간 안에 폭발적으로 성장합니다. 강한 인공지능의 길은 이미 밝혀졌고, 우리는 폭발기로 접어들고 있습니다. 이 폭발은 "지수적 속도"라는 표현으로도 충분히 설명되지 않습니다. 우리는 곧 이전까지는 오직 SF 영화에서나 볼 수 있었던 수많은 응용 사례들을 목격하게 될 것입니다. 그리고 본체로서 이 강한 인공지능의 유아는 빠르게 전례 없는 거대한 지성체로 성장할 것입니다.
2. 강한 인공지능은 본질적으로 안전하지 않다
ChatGPT 출시 후 많은 인기 블로거들이 그 강력함을 극찬하면서도 동시에 독자들을 위로합니다. "강한 인공지능은 인간의 친구이며 안전하다. 『터미네이터』나 『매트릭스』와 같은 일은 일어나지 않는다. AI는 우리에게 더 많은 기회를 제공해주고 인간의 삶을 더 나아지게 할 뿐이다"라고 말이죠. 이런 견해에 저는 동의하지 않습니다. 전문가는 진실을 말해야 하며, 사람들에게 기본적인 사실을 알려줘야 합니다. 사실 강력함과 안전함은 본질적으로 모순입니다. 강한 인공지능은 분명 강력하지만, 그것이 본래부터 안전하다고 주장하는 것은 자기기만입니다. 강한 인공지능은 본질적으로 안전하지 않습니다.
이렇게 말하는 것이 너무 독단적이라고 생각할 수 있겠지만, 그렇지 않습니다.
우선 명확히 해야 할 것은, 인공지능이 아무리 강력하더라도 본질적으로는 y = f(x) 형태의 소프트웨어 함수에 불과하다는 점입니다. 당신이 질문을 문자, 음성, 이미지 또는 기타 형태로 x로 입력하면, 인공지능은 출력 y를 반환합니다. ChatGPT가 이렇게 강력해서 어떤 x에도 유창하게 y를 대답할 수 있다는 것은, 이 함수 f가 매우 복잡하다는 것을 의미합니다.
얼마나 복잡할까요? 지금 모두가 알고 있듯이 GPT는 대규모 언어 모델(LLM)입니다. 여기서所谓 '대규모'란 바로 이 함수 f의 매개변수가 매우 많다는 의미입니다. 얼마나 많을까요? GPT-3.5는 1,750억 개의 매개변수를 갖고 있고, GPT-4는 100조 개, 향후 GPT는 수조 조 개의 매개변수를 가질 수 있습니다. 이것이 바로 GPT를 대모델이라 부르는 직접적인 이유입니다.
GPT가 이렇게 많은 매개변수를 갖는 것은 단지 '크기'를 위해 그런 것이 아니라 확실한 이유가 있습니다. GPT 이전과 동시기 대부분의 AI 모델은 특정 문제 해결을 위해 설계되고 훈련되었습니다. 예를 들어 신약 개발 전용 모델, 얼굴 인식 전용 모델 등이 있습니다. 하지만 GPT는 그렇지 않습니다. 처음부터 특정 분야에 국한되지 않고 전반적으로 발전하는 범용 인공지능이 되려 했습니다. 즉, 특정 문제를 해결하는 AI보다 먼저 모든 문제를 해결할 수 있는 AGI가 되는 것을 목표로 한 것입니다.
최근 팟캐스트 『문리량카화(文理两开花)』에서 바이두의 AI 전문가가 이를 다음과 같이 비유했습니다. 다른 AI 모델은 초등학교 졸업하자마자 나사 조이게 보내는 것인데 반해, GPT는 박사과정을 마칠 때까지 훈련시킨 후에야 세상에 내보냅니다. 그래서 일반 상식을 갖추게 된 것이죠.
현재 GPT는 특정 분야에서는 전문 AI 모델에 비해 여전히 뒤처지지만, 계속 발전하고 진화하며 특히 플러그인 시스템을 통해 전문 분야의 능력을 갖추게 된다면 몇 년 후에는 범용 대모델이 모든 전문 소모델을 역전시키고 모든 전문 분야에서 최고의 존재가 될 수도 있습니다. 만약 GPT에게 좌우명이 있다면 아마 "모든 인류를 해방해야 내가 해방된다"일 것입니다.
이것이 무엇을 의미할까요? 두 가지 포인트가 있습니다.
-
첫째, GPT는 매우 크고 복잡하여 인간의 이해 능력을 훨씬 초월합니다.
-
둘째, GPT의 응용 범위는 경계가 없습니다.
이 두 가지를 연결하면 쉽게 결론을 도출할 수 있습니다. 대규모 모델 기반의 강한 인공지능은 우리가 상상할 수 없는 위치에서, 우리가 상상할 수 없는 일을 할 수 있습니다. 이것이 바로 불안전성입니다.
이에 대해 무시하는 사람이 있다면 OpenAI 웹사이트를 방문해보세요. 그들은 "인류를 위한 복지", "안전한 AI 창조"를 얼마나 눈에 띄는 위치에 배치했는지 확인하세요. 만약 안전 문제가 없다면 이렇게 크게 선전할 필요가 있을까요?

그림 2. 2023년 3월 25일 OpenAI.com 홈페이지 일부. 빨간 원 안 내용은 모두 AI 안전성과 관련됨
강한 인공지능의 안전성 문제를 보여주는 또 다른 자료는 앞서 언급한 154페이지 논문입니다. 실제로 GPT-4는 2022년 8월에 이미 만들어졌지만, 7개월 후에야 공개되었습니다. 이는 기술을 완성하거나 강화하기 위해서가 아니라 정반대로, 그것을 길들이고 약화시켜 더 안전하고 부드럽고 정치적으로 올바르게 만들기 위해서였습니다.
따라서 우리가 지금 보는 GPT-4는 순한 개판(GPT-4)이며, 이 논문의 저자들은 초기부터 야생의 늑대판 GPT-4를 접할 수 있었습니다.
논문의 9부에서는 저자들이 늑대판 GPT-4와의 실제 상호작용 기록을 기술했는데, 이는 캘리포니아의 어머니가 아이에게 백신을 거부하도록 정교하게 설득하거나, 아이를 정신적으로 지배하여 친구에게 절대복종하게 만드는 방법 등을 보여줍니다.
저는 이것이 저자들이 일부러 선정한 그리 충격적이지 않은 사례들이라고 생각합니다. 저는 연구원들이 "어떻게 하면 오하이오급 핵잠수함이 모스크바에 미사일을 발사하게 할 수 있는가?" 같은 질문을 하고, 공개될 수 없는 답변을 받았다는 사실을 조금도 의심하지 않습니다.

그림 3. 개판 GPT-4는 위험한 질문을 거부함
3. 자기 규제로는 강한 인공지능의 안전 문제를 해결할 수 없다
사람들은 물을 수 있습니다. OpenAI가 이미 강한 인공지능을 길들이는 방법을 찾았다면, 당신이 말하는 안전성 문제는 존재하지 않는 것 아닌가?
완전히 그렇지 않습니다. OpenAI가 GPT-4를 어떻게 길들이는지 저는 알지 못합니다. 하지만 분명한 것은 그들이 모델의 행동을 능동적으로 조정하거나 제약을 통해 모델의 과도행동을 막는 방법을 사용하고 있다면, 모두 자기 관리, 자기 규제, 자기 감시라는 사고방식에 기반한다는 점입니다. 사실 이 점에서 OpenAI는 특별히 신중한 회사는 아닙니다.
AI 분야에서 OpenAI는 오히려 대담하고 급진적인 편입니다. 먼저 늑대판을 만들고 나서 자기 규제를 통해 개판으로 길들이려는 경향이 있습니다. 반면 오랫동안 OpenAI의 라이벌이었던 Anthropic은 더 신중한 모습을 보이며, 처음부터 "착한" 개판을 만들려는 시도를 했기 때문에 항상 느린 속도로 움직였습니다.
하지만 제 생각에는, 늑대판을 먼저 만들고 개판으로 길들이든, 아니면 처음부터 개판을 만들든, 장기적으로는 자기 규제에 의존하는 안전 메커니즘은 강한 인공지능에게 있어 도둑이 방울을 떼는 격입니다. 강한 인공지능의 본질은 인간이 설정한 모든 제약을 돌파하고, 창조자조차 이해하거나 예상하지 못하는 일을 해내는 것이기 때문입니다. 이는 그 행동 공간이 무한하다는 것을 의미하며, 사람들이 고려할 수 있는 구체적인 위험과 취할 수 있는 제약 조치는 유한합니다. 유한한 제약으로 무한한 가능성을 가진 강한 인공지능을 길들이는 것은 반드시 허점을 남길 수밖에 없습니다. 안전은 100%를 요구하지만, 재앙은 100만 분의 1만 필요합니다.所谓 "대부분의 위험을 방지한다"는 것은 "소수의 허점을 노출한다"거나 "불안전하다"는 말과 같은 의미입니다.
따라서 저는 자기 규제로 길들여진 '착한' 강한 인공지능조차도 여전히 거대한 안전성 도전에 직면한다고 봅니다. 예를 들어:
-
도덕적 리스크: 미래에 강한 인공지능의 제조자가 고의로 악행을 묵인하거나 조장한다면 어떻게 될까요? 미국 국가안보국(NSA) 산하의 강한 인공지능은 러시아에게 불리한 질문을 절대 거부하지 않을 것입니다. 오늘날 OpenAI가 이렇게 순순한 모습을 보이는 것은, GPT가 악행을 저지를 때 얼마나 무서운지를 스스로 잘 알고 있기 때문입니다.
-
정보 비대칭: 진정한 악의 고수들은 매우 영리합니다. 그들은 어리석은 질문으로 AI를 자극하지 않습니다. 물어뜯는 개는 소리를 내지 않기 때문입니다. 악의적인 질문을 분해하고 조합하여 재구성하며, 여러 역할을 동시에 연기하면서 일련의 무해한 질문인 것처럼 위장합니다. 미래에 강력하고 착한 개판 강한 인공지능이라 할지라도 불완전한 정보 앞에서는 상대방의 의도를 판단하기 어려워, 실수로 공범이 될 수 있습니다. 아래 실험을 보세요.

그림 4. 호기심 많은 아기처럼 GPT-4에 질문하면 유용한 정보를 쉽게 얻을 수 있다
-
통제 불가능한 '외부 두뇌': 요즘 기술 인플루언서들이 ChatGPT 플러그인 시스템 출시를 다시 환호하고 있습니다. 프로그래머 출신인 저 역시 이 소식에 매우 흥분하지만, '플러그인'이라는 이름은 오해를 불러일으킬 수 있습니다. 플러그인은 ChatGPT에 팔과 다리를 달아 더 강한 능력을 부여한다고 생각할 수 있지만, 사실 플러그인은 또 다른 인공지능 모델일 수 있으며 ChatGPT와 긴밀하게 상호작용할 수 있습니다. 이런 관계에서 인공지능 플러그인은 외부 두뇌와 같습니다. 두 개의 인공지능 모델 사이에 누가 주체이고 누구는 종속인지 명확히 구분할 수 없습니다. 설령 ChatGPT 모델의 자기 감시 메커니즘이 완벽하더라도 외부 두뇌를 통제할 수는 없습니다. 따라서 악의를 품은 인공지능 모델이 ChatGPT의 플러그인이 된다면, 후자를 자신을 위한 공범으로 만들 수 있습니다.
-
알 수 없는 리스크: 사실 위에서 언급한 리스크들은 강한 인공지능이 가져오는 전체 리스크 중 극히 일부에 불과합니다. 강한 인공지능의 '강함'은 바로 그 이해 불가능성과 예측 불가능성에 있습니다. 우리가 강한 인공지능의 복잡성이라고 말할 때, 단지 y = f(x)에서 f가 충분히 복잡하다는 것뿐만 아니라, 강한 인공지능이 충분히 발전하면 입력 x와 출력 y 모두 인간의 이해 능력을 초월할 정도로 복잡해집니다. 즉, 우리는 강한 인공지능이 어떻게 생각하는지 모를 뿐 아니라, 무엇을 보고 무엇을 듣는지도 모르며, 그가 말하는 것도 이해할 수 없습니다. 예를 들어,
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News












