
전 구글 CEO 슈미트: AI는 전기와 불과 같아, 이 10년이 향후 100년을 결정한다
출처: AI심층연구원
2025년, AI 세계는 보이지 않는 긴장감에 의해 찢어지고 있다.
한편으로는 모델 파라미터의 급격한 증가가 있고, 다른 한편으로는 시스템 자원의 한계가 있다.
모두가 GPT-5, Claude 4, Gemini 2.5 중 누가 더 강한지를 묻고 있지만, 전 구글 CEO 에릭 슈미트(Eric Schmidt)는 2025년 9월 20일 공개 연설에서 더 깊은 통찰을 제시했다.
“AI의 도래는 인류 역사상 불과 전기의 발명과 동등하다. 그리고 향후 10년은 미래 100년의 구조를 결정할 것이다.”
그는 모델 성능이나 AGI의 실현 가능성에 대해 말하는 것이 아니라,
AI가 더 이상 도구 효율을 높이는 수준이 아니라 비즈니스 운영 방식 자체를 재정의하고 있음을 말하고 있는 것이다.
동시에 실리콘밸리 유명 투자기관 a16z의 대담에서 칩 분석가 딜런 파텔(Dylan Patel)은 이렇게 지적했다.
“과장해서 말하면 지금 GPU를 확보하는 것은 마약을 사는 것과 같다. 관계를 동원하고 채널을 찾아 할당량을 경쟁해야 한다. 하지만 핵심은 그게 아니라 누가 AI를 뒷받침할 수 있는 완전한 체계를 구축할 수 있는가 하는 점이다.”
두 사람의 견해는 모두 같은 발전 추세를 가리키고 있다.
-
파라미터가 아닌 전력이 경계다.
-
모델이 아닌 플랫폼이 진입 장벽이다.
-
AGI가 목적이라기보다 실제 적용이 핵심이다.
지난 3년간 AI의 주된 흐름이 능력의 폭발이었다면,
앞으로 10년은 기반 시설 건설이 주요 과제가 될 것이다.
제1절|AI는 도구 업그레이드가 아니라 시스템 재구성이다
이 대담에서 에릭 슈미트는 명확하게 말했다.
“AI의 도래는 인류 역사상 전기와 불의 발견과 동등한 수준이다.”
그는 AI가 얼마나 똑똑한지를 강조하는 것이 아니라, 우리가 익숙한 업무 방식, 관리 모델, 수익 창출 방식 등이 근본적으로 바뀔 수 있음을 일깨워주고 있는 것이다.
단순히 AI가 더 빨리 글을 쓰도록 돕는 것을 넘어서, AI가 어떻게 글을 써야 할지를 결정하게 되는 것이다.
슈미트는 현재 가장 강력한 AI 도구는 이미 단순한 보조자가 아니라,
전력망처럼 모든 조직의 표준 구성 요소가 되는 새로운 형태의 인프라로 변하고 있다고 말했다.
이 한마디는 지난 몇 년간 사람들이 가진 AI에 대한 인식을 완전히 뒤바꿔버렸다.
즉, 개인의 기술 향상이나 팀 효율 최적화가 아니라 조직 전체 운용 방식의 근본적인 변화인 것이다.
-
결정 방식이 달라지고, AI가 사고 과정에 참여한다.
-
작성, 프로그래밍, 고객 서비스, 회계 업무에 모두 AI 동료가 배치된다.
-
데이터 입력, 결과 평가, 피드백 메커니즘까지 AI에 의해 재설계된다.
이러한 포괄적인 조직 변화로 인해 슈미트는 상세한 절차를 미리 정하기보다는 실제 적용 과정에서 AI가 점차 적응하고 최적화되도록 해야 한다는 것을 깨닫게 되었다.
그의 설명에 따르면, 현재 그가 참여하는 여러 스타트업들은 모두 이러한 접근법을 사용하고 있으며, 먼저 완전한 계획을 세우는 것이 아니라 AI가 직접 작업에 참여하도록 하여 실천 과정에서 지속적으로 조정하고 개선하고 있다.
따라서 그가 말하는 것은 모델이 더 강해졌다는 것이 아니라, 조직이 AI 네이티브라는 새로운 형태로 전환할 것인지 여부다.
AI는 도구를 넘어 기업 운영의 기반 인프라가 되고 있는 것이다.
제2절|AI 발전을 제한하는 것은 전력이다
과거 우리는 항상 AI의 능력 발전이 기술에 의해 제한될 것이라고 생각했다.
-
칩 성능이 부족해 모델을 계산할 수 없다.
-
알고리즘이 너무 복잡해 추론 속도가 느리다.
하지만 에릭 슈미트는 AI 발전을 진짜로 제한하는 것은 기술 파라미터가 아니라 전력 공급이라고 말한다.
그는 구체적인 데이터를 언급했다.
“2030년까지 미국은 데이터센터 수요를 감당하기 위해 92GW의 추가 전력이 필요하다.”
얼마나 큰 규모인가?
대형 원자력 발전소 하나의 출력은 고작 1~1.5GW 정도다.
92GW란 수십 개의 원자력 발전소에 해당하는 발전량이다. 그런데 현실은 미국 내 건설 중인 원자력 발전소는 거의 전무하다.
이는 앞으로 문제는 모델 기술이 충분히 발전하지 못하는 것이 아니라, 전력 공급이 학습 수요를 따라가지 못한다는 것을 의미한다.
슈미트는 의회에도 예상 밖의 사례를 언급했는데, 미국의 모델을 훈련시키기 위해 해외, 예컨대 중동 국가의 발전 기지에서 수행해야 할지도 모른다고 했다.

(샘 알트먼이 최근 블로그를 발표함: 『지능 시대의 무한한 가능성』)
이러한 전력에 대한 갈망은 과장이 아니다. 바로 9월 23일, OpenAI CEO 샘 알트먼(Sam Altman)은 블로그를 통해 더 급진적인 방향을 제시했다. 우리는 매주 1GW의 AI 컴퓨팅 설비를 추가하는 공장을 건설하고자 하며, 전력 소비 규모는 도시 하나에 버금간다는 것이다.
그는 명확히 밝혔다. 이는 칩, 전력, 로봇, 건축 등 여러 시스템의 협동적 돌파구가 필요하다고.
그의 말을 빌리자면, “모든 것은 컴퓨팅에서 시작된다.”
알트먼의 이 목표는 먼 미래의 전망이 아니라 실제로 준비 중인 기반 시설이며, 슈미트가 말한 “AI가 새로운 전력망이 된다”는 현실화 경로 그 자체다.
사실:
모델 훈련 자체는 그리 비싸지 않다. 진짜 비용은 전력 소비, 운용 시간, 장비 유지보수다.
추론 작업이 점점 많아지고 생성 콘텐츠가 더욱 복잡해질수록(이미지, 영상, 장문 텍스트), AI 공장의 전력 수요는 새로운 컴퓨팅 병목 현상이 되고 있다.
딜런 파텔은 또 다른 대담에서도 AI 시스템을 구축할 때 칩이 얼마나 빠른지만 고려할 것이 아니라 발열, 전기 요금, 안정성도 함께 고려해야 한다고 언급했다. 그는 더 생생하게 표현했다.
“AI 공장은 GPU를 많이 사는 것으로 끝나지 않는다. 전력 분배와 지속 운용 능력을 고려해야 한다.”
즉, 이건 칩의 문제가 아니라 전력 공급이 따라오는가의 문제다.
전력이 부족하면 연쇄 반응이 일어난다.
-
모델을 훈련할 수 없다.
-
추론 비용이 상승한다.
-
AI 도구를 대규모로 배포할 수 없다.
-
결국 실용화 가능성을 잃는다.
슈미트는 기반 시설의 부족이 현재 AI 실용화에 직면한 가장 큰 현실적 도전이라고 본다. 충분한 에너지 지원이 없으면 아무리 앞선 모델이라도 활용할 수 없다.
따라서 AI의 다음 전장은 실험이 아니라 발전소다.
제3절|누가 칩을 가지고 있는가가 아니라 누가 그것을 활용할 수 있는가
전력 문제가 해결되더라도 문제는 끝나지 않는다. 당신은 정말로 이 칩들, 모델들, 작업들을 모두 운용할 수 있는가?
많은 사람들은 H100, B200 같은 최첨단 칩을 확보하기만 하면 AI 공장이 완성된다고 생각한다.
하지만 딜런 파텔은 즉각 차가운 물을 끼얹는다.
“지금 GPU는 매우 부족해서 문자를 보내 돌아다니며 ‘재고가 얼마나 있느냐? 가격은 얼마냐?’라고 물어야 한다.”
그는 계속해서 말한다.
“하지만 칩만으로는 충분하지 않다. 핵심은 그것들이 효과적으로 협업하도록 만드는 것이다.”
즉, 칩 자체는 하나의 부품일 뿐이며, AI 공장이 지속적으로 작동할 수 있도록 하는 진짜 결정 요소는 이 칩들을 통합하여 운용할 수 있는 역량이다.
그는 이러한 통합 능력을 네 가지 수준으로 나눈다.
-
컴퓨팅 기반: GPU, TPU 등의 하드웨어 기반.
-
소프트웨어 스택: 훈련 프레임워크, 스케줄링 시스템, 작업 분배기.
-
냉각 및 전력 관리: 전력만 있으면 되는 것이 아니라 온도, 부하, 전기 요금을 잘 조절해야 한다.
-
엔지니어링 역량: 누가 모델을 최적화하고, 컴퓨팅을 튜닝하며, 비용을 통제하는가.
이것이 딜런 파텔이 말하는 “AI 공장”의 핵심이다. AI 공장은 하나의 모델도 아니고 하나의 카드도 아니라 일관된 엔지니어링 스케줄링 능력 전체다.
AI 공장은 막대한 컴퓨팅뿐만 아니라 복잡한 엔지니어링 협업도 필요하다는 것을 알 수 있다.
-
여러 개의 GPU는 “원자재”다.
-
소프트웨어 스케줄링은 “제어실”이다.
-
냉각과 전력은 “수전공”이다.
-
엔지니어링 팀은 “정비반”이다.
간단히 말해 중심은 “모델 만들기”에서 “기반 시설 구축하기”로 이동했다.
딜런은 흥미로운 현상을 관찰했다. 현재 칩 회사들은 더 이상 카드만 팔지 않고 “시공 일괄 책임”을 시작하고 있다. 엔비디아(Nvidia)는 고객을 위해 서버 통합, 냉각 설정, 플랫폼 구축을 돕고 있으며 스스로 플랫폼이 되고 있다.

(자료 출처: 로이터 보도)
이 인터뷰가 발표된 날, 엔비디아와 OpenAI는 향후 협력 의향을 발표했다. 엔비디아는 OpenAI에 최대 10GW 규모의 데이터센터 자원을 제공할 것이며, 투자 규모는 수천억 달러에 이를 전망이다.
샘 알트먼은 성명에서 다음과 같이 말했으며, 위 논리를 정확히 입증하고 있다.
컴퓨팅 인프라는 미래 경제의 기반이 될 것이다. 엔비디아는 카드 판매와 칩 공급을 넘어서, OpenAI와 함께 전체 AI 공장을 배치하고 건설하며 운영하는 데 참여하고 있다.
이는 하나의 추세를 보여준다. 진정한 폐쇄형 생태계를 형성할 수 있는 것은 가장 똑똑한 사람이 아니라, 실용화 방법을 가장 잘 아는 사람이라는 점이다.
즉,
-
모델을 만들 수 있다는 것은 한 가지이고,
-
모델을 매일 안정적으로 운용할 수 있다는 것은 또 다른 문제다.
AI는 더 이상 구입해서 바로 쓸 수 있는 제품이 아니라 지속적인 운영이 필요한 복잡한 엔지니어링 시스템이다. 핵심은 당신이 이 시스템을 장기간 운영할 수 있는 능력이 있느냐는 점이다.
제4절|AI 능력 확산이 트렌드가 되었을 때, 경쟁의 초점은 어디에 있는가?
모두가 운영 능력을 두고 경쟁하고 있을 때, 새로운 변화가 나타나고 있다.
AI 모델은 점점 더 우수하고 똑똑해지고 있지만, 에릭 슈미트는 경고를 보낸다.
“우리는 모델 증류를 막을 수 없다. API에 접근할 수 있는 누구라도 그 능력을 복제할 수 있다.”
증류란 무엇인가? 간단히 말하면,
-
대규모 모델은 능력이 뛰어나지만 배포 비용이 너무 높다.
-
연구자들은 이를 이용해 소규모 모델을 훈련시키며, 작은 모델이 큰 모델의 사고 방식을 모방하게 한다.
-
비용이 낮고, 속도가 빠르며, 정확도가 높고, 추적이 어렵다.
최고의 요리를 할 줄 아는 셰프를 복제할 수는 없지만, 그가 만든 요리를 통해 다른 사람이 80% 정도 비슷한 요리를 만들도록 가르칠 수 있는 것과 같다.
문제는 능력이 쉽게 이전될수록 모델 자체를 통제하기 어려워진다는 점이다.

(딜런 파텔, 저명한 칩 산업 분석가, AI 인프라 연구 전문)
딜런 파텔은 또한 산업의 한 흐름을 언급한다.
현재 증류 비용은 원래 훈련 비용의 약 1% 수준이지만, 원본 모델의 80~90% 능력을 재현할 수 있다.
OpenAI, Google, Anthropic이 모델을 아무리 철저히 보호해도 누군가 증류를 통해 유사한 능력을 얻는 것을 막을 수 없다.
예전에는 누가 더 강한지를 경쟁했지만, 이제는 누가 통제할 수 있는지를 걱정하기 시작한다.
슈미트는 인터뷰에서 가장 큰 모델은 결코 공개되지 않을 것이며, 소형 모델의 확산은 피할 수 없다고 말했다.
그는 폐쇄를 주장하는 것이 아니라 현실을 일깨우고 있다. 기술 확산 속도는 규제가 따라가는 속도보다 훨씬 빠를 수 있다.
예를 들어, 현재 많은 팀들이 GPT-4의 API를 이용해 GPT-4-lite를 증류하고 있다.
-
비용이 낮고 배포가 쉬우며,
-
외부에 명확한 식별 정보가 거의 없고,
-
사용자 입장에서는 거의 동일하게 느껴진다.
이로 인해 모델의 능력은 “공기”처럼 퍼질 수 있지만, 모델의 출처, 책임 소재, 사용 범위는 명확히 규정하기 어렵다는 난제가 발생한다.
슈미트가 진정으로 걱정하는 것은 모델이 너무 강력해지는 것이 아니라,
“점점 더 많은 모델이 강력한 능력을 갖추고 있지만 규제를 받지 않고, 추적이 어려우며, 책임이 불분명할 때, 어떻게 AI의 신뢰성을 보장할 것인가?”이다.
이 현상은 더 이상 가정이 아니라 현재의 현실이다.
AI 능력의 확산은 되돌릴 수 없는 흐름이 되었다. 단순히 선진 모델을 보유하는 것은 더 이상 진입 장벽이 아니다. 경쟁의 초점은 이러한 능력을 어떻게 더 잘 활용하고 서비스하는지로 이동했다.
제5절|플랫폼의 핵심은 사용할수록 정확해지는 것이다
결국 중요한 것은 만들 수 있느냐가 아니라, 사용할수록 좋아지는 플랫폼을 구축할 수 있느냐는 점이다.
에릭 슈미트는 이렇게 답했다.
“미래에 성공하는 AI 기업은 단지 모델 성능을 경쟁하는 것이 아니라, 지속 학습 능력을 경쟁할 것이다.”
쉽게 말해, 단번에 제품을 만들어 끝내는 것이 아니라, 사용할수록 더 똑똑해지고, 더 편리해지고, 더 안정되는 플랫폼을 만드는 것이다.
그는 덧붙여 설명한다.
플랫폼의 핵심은 기능이 아니라 다른 사람들이 당신 없이 살 수 없게 만드는 것이다.
예를 들어,
-
전력망은 전구가 켜지기 때문이 아니라 모든 전구를 켤 수 있기 때문에 존재한다.
-
운영체제는 기능이 많기 때문이 아니라 다양한 애플리케이션이 안정적으로 작동할 수 있게 하기 때문이다.
-
AI 플랫폼도 마찬가지로 특정 스마트 보조 도구를 만드는 것이 아니라, 다른 팀, 사용자, 모델이 모두 연결하고 호출하며 능력을 강화할 수 있도록 하는 것이다.
AI 플랫폼은 특정 기능이 아니라 지속적으로 작동하는 서비스 네트워크다.
그는 젊은 창업자들에게 조언한다. 이 제품이 완벽한지 여부만 묻지 말고, “사용 → 학습 → 최적화 → 다시 사용”이라는 경로를 형성했는지를 살펴보라고 한다.
왜냐하면 지속적으로 학습하는 플랫폼만이 장기 생존 가능성이 있기 때문이다.
딜런 파텔은 보충 설명한다. 사실 이것이 엔비디아의 성공 경로이기도 하다고. 젠슨 황(Jensen Huang)이 30년간 CEO로 성공한 것은 운이 아니라 지속적으로 칩과 소프트웨어를 폐쇄형 생태계로 묶어왔기 때문이다. 고객이 더 많이 사용할수록 고객의 요구를 더 잘 이해하고, 요구를 더 잘 이해할수록 제품이 더 편리해지며, 제품이 더 편리해질수록 고객이 떠나기 어려워진다.
이렇게 해서 선순환이 이루어지고, 사용할수록 가치가 커지는 것이다.
“출시 즉 정점”이 아니라 지속적으로 성장할 수 있는 플랫폼인 것이다.
슈미트는 명확히 요약한다. 당신은 처음엔 작을지 몰라도 지속적으로 적응하고 확장하며 업데이트할 수 있는 성장 메커니즘을 구축할 수 있느냐는 점이다.
그는 미래에 성공하는 AI 플랫폼에 대해 이렇게 판단한다.
당신이 어떤 코드를 작성했는지가 아니라, 플랫폼을 살아남게 하고 점점 더 강하게 만들 수 있느냐는 점이다.
맺음말|누가 먼저 폐쇄형 생태계를 형성하느냐가 승패를 좌우한다
에릭 슈미트는 인터뷰에서 말했다.
“AI는 전기와 불과 같다. 이 10년이 미래 100년을 결정할 것이다.”
AI의 능력은 이미 준비되어 있지만, 어디로 가야 할지, 어떻게 구성해야 할지, 어떻게 사용해야 할지 아직 명확하지 않다.
지금 중요한 것은 다음 세대 모델을 기다리는 것이 아니라 기존 AI를 잘 활용하고 제대로 써내는 것이다. GPT-6이나 DeepSeek R2가 언제 나오는지만 궁금해하지 말고, 고객 서비스, 글쓰기, 데이터 분석 등의 상황에서 먼저 도구를 제대로 운용해보라. AI가 발표회에서 순간적으로 놀라움을 주는 것을 넘어서 24시간 안정적으로 일할 수 있도록 만들어야 한다.
이건 똑똑한 사람들의 경쟁이 아니라 실행력의 겨루기다.
누가 먼저 AI를 실험실에서 현실로 가져오느냐가 향후 10년의 주도권을 쥐게 될 것이다.
그리고 이 “폐쇄형 생태계 경쟁”은 이미 지금 시작되고 있다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News












