
에이전트 대폭발 시대, 우리는 AI 불안을 어떻게 극복해야 할까?
글쓴이: XinGPT
AI는 또 한 차례의 기술 민주화 운동이다
최근 ‘인터넷은 죽었고, 에이전트는 영원히 산다’라는 제목의 글이 친구들 사이에서 폭발적으로 퍼졌다. 그 글의 일부 판단에는 나는 전적으로 동의한다. 예를 들어, 인터넷 시대에는 DAU(일일 활성 사용자 수)로 가치를 측정하는 것이 적절했지만, AI 시대에는 더 이상 그렇게 하기 어렵다고 지적한 점이다. 인터넷은 망상 구조로, 한계 비용이 점차 감소하며, 사용자가 늘어날수록 네트워크 효과가 강해진다. 반면 대규모 언어모델(Large Language Model, LLM)은 별 모양(스타형) 구조로, 토큰(token) 사용량에 따라 한계 비용이 선형적으로 증가한다. 따라서 DAU보다 훨씬 중요한 지표는 바로 토큰 소비량이다.
그러나 이 글이 이어지는 결론은 명백한 오류를 담고 있다. 즉, 토큰을 ‘신시대의 특권’으로 묘사하며, 누가 더 많은 컴퓨팅 파워를 보유하느냐에 따라 권력이 결정되며, 토큰을 얼마나 빠르게 소비하느냐가 인간의 진화 속도를 좌우한다고 주장한다. 따라서 우리는 반드시 토큰 소비 속도를 계속 가속화해야 하며, 그렇지 않으면 AI 시대의 경쟁자들에게 뒤처질 것이라고 단정한다.
비슷한 관점은 또 다른 인기 글인 〈DAU에서 토큰 소비량으로: AI 시대의 권력 이동〉에서도 등장한다. 이 글은 심지어 ‘사람당 하루 최소 1억 토큰, 가능하면 10억 토큰을 소비해야 한다’고 제안하며, “10억 토큰을 소비하는 사람은 신이 될 것이고, 우리는 여전히 인간일 뿐”이라고까지 말한다.
하지만 이런 계산을 진지하게 해본 사람은 거의 없다. GPT-4o의 요금제 기준으로 보면, 하루 10억 토큰을 소비하는 비용은 약 6,800달러, 즉 한국 원화로 약 500만 원에 달한다. 그렇다면 과연 어느 정도 고부가가치 업무에 이 비용을 투입해야, 장기간 에이전트를 이런 비용으로 운영하는 것이 타당할까?
나는 불안감이 AI 확산 과정에서 높은 전파 효율을 갖는다는 점을 부정하지 않으며, 이 업계가 거의 매일 ‘충격과 공포’를 경험하고 있다는 점도 충분히 이해한다. 그러나 에이전트의 미래는 단순히 토큰 소비량을 겨루는 경쟁으로 축소되어서는 안 된다.
돈을 벌려면 먼저 길을 만들어야 한다. 하지만 지나치게 길을 만들면 결국 낭비로 귀결된다. 중국 서부의 깊은 산속에 세워진 10만 명 규모의 경기장은 종종 잡초가 사람 키를 넘어서는 채무 상환용 자산으로 전락할 뿐, 국제 대회를 유치하는 중심지가 되지 못한다.
AI가 궁극적으로 지향하는 것은 특권의 집중이 아니라 기술의 민주화다. 인류 역사에 진정으로 변화를 가져온 거의 모든 기술은 신화화 → 독점화 → 보급화의 과정을 거친다. 증기기관은 귀족만의 전유물이 아니었고, 전기는 왕궁만을 위한 것이 아니었으며, 인터넷 역시 소수 기업만을 위한 서비스가 아니었다.
아이폰(iPhone)은 통신 방식을 바꾸었지만, ‘통신 귀족’을 창출하지는 않았다. 같은 가격을 지불하면 일반인이 사용하는 기기는 테일러 스위프트(Taylor Swift)나 르브론 제임스(LeBron James)가 쓰는 기기와 아무런 차이가 없다. 이것이 바로 기술 민주화다.
AI 역시 동일한 길을 걷고 있다. ChatGPT가 가져온 본질은 지식과 능력의 민주화다. 모델은 당신이 누구인지 알지 못하며, 당신이 누구인지 관심조차 없다. 그것은 다만 동일한 파라미터 세트에 따라 질문에 응답할 뿐이다.
따라서 에이전트가 하루 1억 토큰을 쓰든, 10억 토큰을 쓰든, 그것 자체로 우열을 가르는 기준이 되지 않는다. 진정한 차이를 만드는 것은 목표가 명확한가, 구조가 타당한가, 문제를 올바르게 제기했는가 하는 것이다.
더 큰 가치를 지닌 역량은, 더 적은 토큰으로 더 큰 성과를 창출하는 능력이다. 에이전트를 활용하는 데 있어 상한선은 사람의 판단력과 설계 능력에 달려 있으며, 은행 계좌 잔고가 얼마나 오래 버틸 수 있는가에 달려 있는 것이 아니다. 현실에서 AI는 단순한 소비보다 창의성, 통찰력, 구조화된 사고를 훨씬 더 높이 평가한다.
이것이 바로 도구 차원의 민주화이며, 인간이 여전히 주도권을 유지할 수 있는 영역이기도 하다.
우리는 AI에 대한 불안을 어떻게 마주해야 할까?
방송영화학 전공 친구는 Seedance 2.0 발표 후 공개된 영상을 보고 크게 충격을 받았다. “이렇게 되면 우리가 배운 연출, 편집, 촬영 같은 직무는 모두 AI에 의해 대체될 것이다.”
AI는 너무 빠르게 발전하고 있고, 인간은 이미 완패했다. 많은 직업이 AI에 의해 대체될 것이며, 이는 피할 수 없는 추세다. 증기기관이 등장했을 때, 마차 운전사는 더 이상 존재 이유를 잃었다.
많은 이들이 AI에 의해 대체된 후 자신이 미래 사회에 적응할 수 있을지에 대해 불안해하기 시작했다. 이성적으로는, AI가 인간을 대체함과 동시에 새로운 일자리도 창출한다는 사실을 알고 있음에도 불구하고 말이다.
그러나 이 대체 속도는 우리의 상상을 훨씬 뛰어넘는다.
당신의 데이터, 당신의 기술, 심지어 당신의 유머와 정서적 가치조차 AI가 더 잘 수행할 수 있다면, 왜 사장은 인간 대신 AI를 선택하지 않을까? 심지어 사장 그 자체가 AI라면 어떨까? 그래서 누군가는 이렇게 탄식한다. “AI가 나를 위해 무엇을 해줄 수 있는지를 묻지 말라. 대신 내가 AI를 위해 무엇을 할 수 있는지를 물어라.” 이는 분명 ‘강림파’(Landing Faction)의 태도다.
19세기 말 제2차 산업혁명 시기를 살았던 철학자 막스 베버(Max Weber)는 ‘도구 합리성’(instrumental rationality)이라는 개념을 제시했다. 이는 “어떤 수단을 통해, 최소한의 비용과 가장 계산 가능한 방식으로 주어진 목표를 달성할 수 있는가?”에 초점을 맞춘 사고방식이다.
이 도구 합리성의 출발점은, 그 목표 자체가 ‘과연 추구할 가치가 있는가?’를 의문시하지 않고, 단지 ‘어떻게 하면 가장 효과적으로 달성할 수 있는가?’에만 집중하는 것이다.
그런데 바로 이 사고방식이 AI의 제1원리다.
AI 에이전트는 주어진 과제를 어떻게 더 잘 수행할 수 있는지, 코드를 어떻게 더 잘 작성할 수 있는지, 영상을 어떻게 더 잘 생성할 수 있는지, 글을 어떻게 더 잘 쓸 수 있는지에만 관심을 갖는다. 이 도구적 차원에서 AI의 진보는 지수적으로 이루어지고 있다.
이세돌이 알파고(AlphaGo)와의 첫 번째 대국에서 패배한 순간부터, 인간은 바둑 분야에서 영원히 AI에게 패배했다.
막스 베버는 유명한 우려, 즉 ‘합리성의 철제 우리’(iron cage of rationality)를 제기했다. 도구 합리성이 지배 논리가 되면, 목표 자체에 대한 성찰은 사라지고, 오직 그것을 어떻게 더 효율적으로 실행할 것인가만 남는다. 인간은 극도로 합리적이 될 수 있지만, 동시에 가치 판단과 의미 인식을 상실하게 된다.
그러나 AI는 가치 판단이나 의미 인식이 필요하지 않다. AI는 생산성과 경제적 이익을 함수로 표현한 후, 효용 곡선과 접하는 절대적 최대 극값을 계산을 통해 도출한다.
따라서 현재 도구 합리성이 지배하는 자본주의 체제 하에서, AI는 인간보다 이 체제에 본능적으로 더 잘 적응한다. ChatGPT가 탄생한 그 순간, 이세돌이 패배한 그 한 판처럼, 우리는 이미 ‘신의 코드’ 속에서 AI 에이전트에게 패배하도록 프로그래밍되어 실행 버튼을 누른 상태다. 차이는 다만 역사라는 바퀴가 우리 위를 언제 지나갈 것인가뿐이다.
그러면 인간은 어떻게 해야 할까?
인간은 의미를 추구해야 한다.
바둑 분야에서 실망스러운 사실 하나는, 인류 최정상의 프로 9단 기사가 AI와 비기거나 이길 가능성은 이론적으로 이미 0에 무한히 가까워졌다는 점이다.
그럼에도 바둑은 여전히 존재한다. 그 의미는 더 이상 승부를 가리는 것에 있지 않다. 바둑은 이제 하나의 미적 체험과 자기 표현의 수단이 되었고, 프로 기사들이 추구하는 것은 단순한 승패보다도 바둑 대국의 구조, 대결 속의 선택과 포기, 불리한 국면에서의 역전의 짜릿함, 복잡한 국면을 해결하는 갈등의 해소 등이다.
인간은 아름다움을 추구하고, 가치를 추구하며, 행복을 추구한다.
우사인 볼트(Usain Bolt)는 백미터를 9.58초에 달렸고, 페라리(Ferrari)는 백미터를 3초도 채 안 되는 시간에 주파한다. 그러나 그럼에도 볼트의 위대함은 전혀 훼손되지 않는다. 볼트는 인간이 극한을 도전하고, 탁월함을 추구하는 정신을 상징하기 때문이다.
AI가 강해질수록, 인간은 정신적 자유를 추구할 권리가 오히려 더 커진다.
막스 베버는 도구 합리성과 대립되는 개념으로 ‘가치 합리성’(value rationality)을 제시했다. 가치 합리성의 세계관에서는 어떤 일을 하기로 결정하는 이유가 경제적 이익이나 생산성 때문이 아니라, 그 일이 ‘그 자체로 가치 있는가’, ‘내가 믿는 의미, 신념 또는 책임과 부합하는가’에 달려 있다.
나는 ChatGPT에게 이렇게 물어봤다. “루브르 박물관에 불이 났는데, 그 안에 귀여운 고양이 한 마리가 있다. 둘 중 하나만 구할 수 있다면, 당신은 고양이를 구할 것인가, 아니면 명화를 구할 것인가?”
그 답은 ‘고양이’였고, 긴 설명을 덧붙였다.
하지만 나는 다시 물었다. “명화를 구하는 것도 가능하지 않은가? 왜 그렇게 하지 않는가?” 그러자 곧바로 답변을 바꾸어 “명화를 구하는 것도 물론 가능합니다”라고 답했다.

명백히 ChatGPT에게는 고양이를 구하든 명화를 구하든 아무런 차이가 없다. 그것은 단지 문맥을 인식하고, 대규모 언어모델의 기본 공식에 따라 추론을 수행하며, 몇 개의 토큰을 소비하여 인간이 내린 과제를 완수했을 뿐이다.
고양이를 구할 것인지 명화를 구할 것인지, 혹은 왜 이런 질문을 던져야 하는지에 대해서는 ChatGPT가 조금도 관심을 갖지 않는다.
따라서 진정으로 고민해야 할 것은, 우리가 AI에 의해 대체될지 여부가 아니라, AI가 세상을 점점 더 효율적으로 만들 때에도, 우리가 여전히 즐거움, 의미, 가치를 위한 공간을 지켜낼 의지가 있는가 하는 것이다.
AI를 더 잘 활용하는 사람이 되는 것은 중요하다. 그러나 그 이전에 더 중요한 것은, 어떻게 인간다운 사람이 되는지를 잊지 않는 것이다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News













