
구글이 전기를 생산하기 위해 하늘까지 날아올랐지만, 정말로 AI가 전기를 부족해할까?
저자: 직면AI
AI의 끝은 에너지라는 말이 많다. 최근 인터뷰에서 마이크로소프트 CEO 나델라는 이 견해를 우회적으로 뒷받침했다. "전력 부족으로 인해 많은 마이크로소프트의 GPU가 창고에 쌓여 작동하지 못하고 있다"고 나델라는 말했다.
구글은 최근 TPU를 우주로 보내 태양광으로 기계에 전력을 공급하는 기발한 방법을 시도했는데, 이는 마치 나델라의 발언에 대한 "메아리"처럼 보인다.
그러나 이상하게도 나델라의 이 발언은 에너지 업계에 긍정적인 신호로 보이지만, 중국 A주 시장이나 나스닥 모두 그의 말로 인해 에너지 섹터 주가가 상승하지 않았다. 11월 초부터 기사 작성 시점까지 중국 A주는 0% 상승했으며, 나스닥 에너지 부문 최대 기업의 상승률은 0.77%에 불과하다.
한편 실리콘밸리 거물 기업들이 연일 전력 부족을 외치며 심지어 "우주로 올라가는" 해결책까지 제시하고 있지만, 반면 이렇게 명확한 신호임에도 불구하고 시장은 무관심한 듯 보이며 여전히 반응이 없다.
이러한 상황은 자연스럽게 의문을 갖게 한다. 정말로 AI 산업이 전력 부족 문제에 직면해 있는가?
OpenAI CEO 샘 알트먼의 견해는 이렇다. 그렇기도 하고, 그렇지 않기도 하다.
맞는 이유는 현재 실제로 전력 부족 현상이 존재하기 때문이며, 틀린 이유는 문제의 본질이 사실 AI 과잉에 있기 때문이다. 정확한 시기는 모르겠지만, 최대 6년 이내에 AI가 사람들의 수요를 초과하게 되며, 그 결과 AI의 전력 수요도 감소할 것이라고 그는 말한다.
즉 단기적으로는 AI 산업이 전력 부족에 시달리지만 장기적으로는 AI의 에너지 소비가 줄어들면서 전력 부족 문제가 해결될 것이라는 의미이다.
01
구글은 2025년 11월 초 "썬캐처 프로젝트(Project Suncatcher)"라 불리는 프로젝트를 발표했다. 이 계획은 TPU 칩을 우주로 보내 태양광으로 전력을 생산하는 방식으로 운영된다.

태양이 1초 동안 방출하는 에너지는 약 3.86×10²⁶와트이며, 이 수치는 현재 인류 사회의 전 세계 발전량 총합보다 백조 배 이상 크다. 해돋이·해넘이 태양동기궤도에 배치된 위성은 태양광 패널이 거의 끊김 없이 빛을 받을 수 있으며, 1년간 수신하는 에너지는 지구 중위도 지역의 동일 면적 태양광 패널이 받는 에너지의 8배에 달한다.
썬캐처 프로젝트는 위성기업 Planet Labs와 협력하여 지표면에서 650km 떨어진 저궤도에 81개의 위성으로 구성된 AI 컴퓨팅 클러스터를 배치할 예정이다. 설계에 따르면 이 위성들은 반경 1km의 공간에서 협력하며 서로 간의 거리를 100~200미터로 유지한다. 이 프로젝트는 2027년 초 첫 번째 시험 위성 두 대를 발사해 기술 타당성을 검증할 계획이다.
구글은 일 년 만에 자사의 Gemini 모델의 단일 조회당 에너지 소비를 33배 절감했다고 밝혔지만, 분명히 구글은 여전히 전력이 필요하다.
우주에서 태양광을 이용해 전기를 생산하는 것은 새로운 개념은 아니지만 오랫동안 핵심 난제에 직면해 왔다. 바로 생성된 전력을 지면으로 효율적이고 안전하게 전송하는 방법이다. 마이크로파 빔이든 레이저 빔이든, 전송 과정에서의 에너지 손실과 지면 환경에 미칠 수 있는 잠재적 영향 때문에 대규모 실현이 어렵다.
"썬캐처 프로젝트"는 이러한 단계를 회피하는 접근법을 선택했다. 데이터를 지구로 다시 전송하려는 것이 아니라, 우주에서 직접 전력을 이용해 계산을 수행하고 계산 결과만 지면으로 송신하는 것이다.
지상의 TPU 슈퍼컴퓨터 클러스터는 맞춤형 저지연 광학 칩 상호 연결 기술을 사용하며, 각 칩의 처리량은 초당 수백기가비트(Gbps)에 달한다.
반면 현재 상용화된 위성 간 광통신 링크의 데이터 전송률은 일반적으로 1~100Gbps 범위에 머무르며, 이는 AI 컴퓨팅 클러스터 내부의 대규모 데이터 교환 요구를 충족시키기에 턱없이 부족하다. 구글이 제안한 해결책은 고밀도 파장분할 다중화(DWDM) 기술을 적용해 이론상 각 위성 간 링크의 총 대역폭을 초당 약 10테라비트(Tbps)까지 끌어올리는 것이다.
구글은 "썬캐처 프로젝트"의 여러 난제와 해결책에 대해 설명했다. 예를 들어 클러스터 편대를 어떻게 제어할 것인지, 복사선에 어떻게 저항할 것인지 등이다.
그러나 구글은 열을 어떻게 방출할 것인지에 대해서는 설명하지 않았다.
이것은 매우 골치 아픈 물리적 문제인데, 진공 상태에서는 공기 대류가 없으므로 열은 복사 방식으로만 방출될 수 있다. 구글은 한 논문에서 고성능 열 인터페이스 재료와 열 전달 메커니즘을 사용해야 하며, 가능하면 수동식으로 해 신뢰성을 확보함으로써 칩에서 발생한 열을 전용 라디에이터 표면으로 효율적으로 전달해 복사시켜야 한다고 언급했다. 그러나 논문은 이 부분의 기술 세부사항을 많이 제공하지 않았다.
사실상 데이터센터를 우주로 보내자는 아이디어는 구글만의 것이 아니다. 구글이 계획을 발표하기 몇 일 전, 스타클라우드(Starcloud)라는 스타트업이 이미 엔비디아 H100 칩을 탑재한 위성을 발사하고 5기가와트의 출력을 가진 천체 기반 데이터센터 건설을 선언했다. 일론 머스크 역시 SpaceX가 "우주 데이터센터를 할 것"이라고 밝힌 바 있다.
2025년 5월 중국 저장 실험실과 국성우항이 공동 개발한 '삼체 컴퓨팅 성좌'의 첫 번째 12기의 컴퓨팅 위성이 성공적으로 발사되어 네트워크를 형성했다.
따라서 AI를 우주로 보내는 문제는 듣기엔 참신해 보이지만, 모두 같은 목적을 가지고 있다. 전력이 필요하면 그곳으로 가서 얻으면 된다. 지상의 전력은 너희가 쓰기에 부족하니까.
02
AI가 전력에 목마른 상황을 초래한 주범은 엔비디아다. 이 회사의 GPU 제품은 앰퍼(Ampere) 아키텍처에서 블랙웰(Blackwell) 아키텍처로 단 4년 만에 소비전력이 수 배 증가했다.
Hopper 아키텍처 GPU를 사용하는 서버 랙의 정격 전력은 약 10킬로와트(kW) 정도이며, Blackwell 아키텍처는 GPU 수량 증가로 인해 랙 전력이 약 120킬로와트에 근접한다.
또한 현재 GPU 단위는 만 단위다. 수만 개의 GPU가 상호 통신할 때는 효율을 높이기 위해 엔비디아의 NvLink 기술을 활용하는데, 각 NvLink 링크의 소비전력은 4~6와트다. 두 개의 GPU 사이에는 18개의 링크가 있으며, 이 NvLink들은 비차단 연결을 위해 NvSwitch에 집결되는데, 하나의 NvSwitch 소비전력은 50~70와트다.
GPU 클러스터가 1만 개의 H100을 보유한다면 157개의 NvSwitch와 9만 개의 NvLink 링크가 필요하다. 이 경우 소비전력은 약 730~1100킬로와트 사이가 된다.

여기서 끝이 아니다. GPU의 냉각 또한 전력 소비의 큰 부분을 차지한다. 가장 일반적인 8카드 H100 서버는 풍랭 시스템을 사용할 경우 소비전력이 150와트에 달하며, 따라서 만 카드 규모의 클러스터는 냉각만으로도 187킬로와트가 필요하다.
현재 대형 기술 기업 간 경쟁의 기준은 전통적인 컴퓨팅 능력 단위에서 에너지 소비 단위인 '기가와트(GW)'로 옮겨갔다. OpenAI와 메타(Meta)와 같은 기업들은 향후 몇 년 내 10기가와트 이상의 컴퓨팅 능력을 추가할 계획이다.
참고로 AI 산업이 1기가와트의 전력을 소비한다는 것은 약 100만 개의 미국 가정이 일상적으로 사용하는 전력량에 해당한다. 국제에너지기구(IEA)는 2025년 보고서에서 2030년까지 인공지능 분야의 에너지 소비가 두 배로 증가할 것으로 추정하며, 그 성장 속도는 전력망 자체 성장 속도의 거의 4배에 달한다고 밝혔다.
골드만삭스는 2027년까지 글로벌 데이터센터의 전력 수요가 50% 증가해 92기가와트에 이를 것으로 예측했다. 미국 데이터센터의 전력 수요가 전체 전력 수요에서 차지하는 비중은 2023년의 4%에서 2030년에는 10%로 증가할 전망이다. 또한 골드만삭스는 일부 대형 데이터센터 단지의 전력 연결 요청이 단일 프로젝트 기준 300메가와트에서 수기가와트 수준에 달한다고 지적했다.
그러나 흥미로운 점이 있다.
넥스트이라 에너지(NextEra Energy)는 북미 최대의 재생 가능 에너지 기업이며, 미국 공공 유틸리티 부문의 성과를 추적하는 대표적 산업 ETF는 XLU이다. 지난 52주 동안 넥스트이라의 주가 상승률은 11.62%, ETF XLU는 14.82%였지만, 동기간 S&P 500 지수는 19.89% 상승했다.
만약 인공지능 산업이 진정으로 심각한 전력 부족에 직면해 있다면 전력 공급자인 에너지 기업들과 공공 유틸리티 부문은 오히려 시장 평균을 웃도는 초과 수익을 거둬야 하는데, 현실은 오히려 지수보다 낮은 실적을 기록하고 있다.
이에 대해 나델라는 중요한 실마리를 제공했다. 그는 "전력망 연결 승인에 5년이 걸리며, 송전선 건설은 10~17년이 필요하다"고 말했다.
반면 GPU 조달 주기는 분기 단위로 측정되며, 데이터센터 건설 주기는 일반적으로 1~2년이며, 인공지능 수요의 폭발 속도는 분기 단위로 변화한다.
이러한 시간 척도 사이에는 수량 차이가 존재하며, 시간적 불일치가 바로 나델라가 말하는 AI 전력 부족의 본질이다.
게다가 나델라에게는 당장 해결할 수 없는 또 다른 골칫거리가 있다. 2020년 마이크로소프트는 생태계 보호를 동시에 실현하면서 "탄소 순배출 감소, 물 순이용 증가 및 제로 폐기물"을 달성하겠다고 발표한 바 있다.
그러나 현실은 마이크로소프트 데이터센터가 사용하는 전력 중 약 60%가 여전히 천연가스를 포함한 화석연료에서 나오고 있다는 점이다. 이로 인한 연간 이산화탄소 배출량은 약 5만 4천 가구의 일반적인 미국 가정 배출량 총합과 맞먹는다.
반면 국제에너지기구(IEA)는 2025년 10월 발간한 '재생 가능 에너지 보고서'에서 글로벌 발전 능력의 성장 속도가 인공지능을 포함한 신규 전력 수요 증가 속도를 초과할 수 있다고 지적했다.
보고서는 2025년부터 2030년까지 5년간 전 세계 재생 가능 에너지 설치 용량이 4600기가와트 증가할 것으로 전망하며, 이 증가량은 중국, 유럽연합(EU), 일본의 현재 설치 용량 총합에 해당한다고 밝혔다. 더 나아가 이 5년간의 신규 설치 용량은 이전 5년간 증가량의 2배에 달할 것으로 예측했다.
여기서 특히 주목할 점은 원자력이다. 원자력은 안정적이고 대규모이며 저탄소 전력을 공급할 수 있는 유일한 선택지다. 기존 대형 원자력 발전소의 문제는 건설 기간이 길고, 비용이 높으며, 리스크가 크다는 점이다. 하지만 소형 모듈형 원자로(SMR)가 이러한 상황을 바꾸고 있다. SMR은 비행기나 자동차를 제조하듯 공장에서 표준화된 모듈을 대량 생산한 후 철도나 도로를 통해 현장으로 운반해 조립할 수 있다. 이는 마치 "레고 블록" 방식의 건설과 같다.
SMR의 단일 기기 용량은 50~300메가와트로, 기존 원자력 발전소의 1000~1600메가와트보다 훨씬 작지만, 이것이 오히려 장점이다. 더 작은 규모는 더 짧은 건설 기간, 낮은 초기 투자, 유연한 입지 선택을 가능하게 한다. SMR은 공장에서 대량 생산 후 현장에서 조립할 수 있어 비용과 리스크를 크게 줄일 수 있다.
SMR은 현재 가장 뜨겁고 최신 트렌드의 발전 방식이다. 구글은 카이로스 파워(Kairos Power)와 계약을 맺고 500메가와트의 SMR 원전을 구매했는데, 이는 기술 기업이 처음으로 SMR 기술에 직접 투자한 사례다. 마이크로소프트는 2024년 1월 초 Ultra Safe Nuclear Corporation(USNC)의 핵전략 및 프로젝트 총괄을 역임했던 인물을 마이크로소프트의 핵기술 총괄로 영입했다. 그 목적은 SMR뿐 아니라 더 작은 마이크로 모듈형 원자로(MMR) 개발을 추진하는 것이다.
즉, 마이크로소프트가 부족한 것은 전력이 아니라 시간이다.
03
에너지 측면보다도 AI 자체의 소비전력을 줄이는 것도 중요한 발전 방향이다.
알트먼은 매년 지능 단위당 비용이 40배씩 감소하고 있으며, 몇 년 후에는 더 이상 그렇게 많은 인프라가 필요하지 않을 수 있다고 말한다. 그리고 이러한 돌파구가 계속된다면 개인용 일반 인공지능이 노트북에서 실행될 수도 있어, 발전 수요를 더욱 줄일 수 있다.

알트먼은 자신의 제품을 예로 들어 이 문제를 설명한 적이 있다. 그는 2023년 초 GPT-4 모델에서 2024년 중반 GPT-4o 모델로 불과 1년 만에 토큰당 비용이 약 150배 감소했다고 썼다. 컴퓨팅 파워가 동일한 조건에서 동일한 업무라도 AI의 다른 발전 단계에서는 소비 전력이 줄어든다.
그는 이러한 수준의 가격 하락은 하드웨어 비용의 선형적 감소만으로는 달성할 수 없으며, 알고리즘 최적화, 모델 아키텍처 개선, 추론 엔진 효율 향상 등 다양한 요인이 복합적으로 작용했기 때문이라고 말한다.
스탠포드대학교가 2025년에 발표한 인공지능 지수 보고서(HAI)는 이 주장의 타당성을 확인했다. 보고서에 따르면 18개월 만에 GPT-3.5 수준(MMLU 정확도 64.8%)의 AI 모델 호출 비용은 2022년 11월의 20달러/백만 토큰에서 2024년 10월의 0.07달러/백만 토큰으로 급감했으며, 비용은 280배 감소했다.
하드웨어 측면에서 GPU는 이제 두 가지 새로운 에너지 효율 지표를 추가했다: TOPS/W(와트당 조(兆) 연산) 및 FLOPS per Watt(와트당 부동소수점 연산 횟수). 이러한 지표는 에너지 효율 측면의 돌파구를 더 직관적으로 보기 위한 것이다.
예를 들어 메타가 발표한 다섯 번째 AI 훈련 칩 아테나 X1은 저정밀 조건에서 에너지 효율이 32TOPS/W에 달해 전 세대 대비 200% 향상되었으며, 유휴 전력 소비는 87% 감소했다. 엔비디아 H100의 경우 FP8과 같은 저정밀 범위에서도 에너지 효율은 5.7TFLOPS/W에 불과하다.
하지만 일부 고정밀 훈련 작업은 여전히 H100이 필요하며, 이것이 메타가 수십만 개의 엔비디아 GPU를 대규모로 조달하는 이유이기도 하다.
Epoch AI의 연구 데이터에 따르면 머신러닝 하드웨어의 에너지 효율은 매년 40%씩 향상되고 있으며, 2년마다 두 배로 증가하고 있다. 차세대 AI 칩의 에너지 효율 향상은 두드러진다.
엔비디아의 H200 GPU는 전 세대 H100 대비 에너지 효율이 1.4배 향상되었다. 아직도 큰 개선 여지가 있다.
거시적 관점에서 보면 데이터센터 자체의 에너지 효율이 가장 주목해야 할 수치다. 일반적으로 PUE(에너지 사용 효율)로 데이터센터의 에너지 소비를 측정한다.
PUE의 이상값은 1.0이며, 모든 전력이 냉각 및 기타 보조 시스템에 낭비되지 않고 계산에만 사용됨을 의미한다. 10년 전 데이터센터의 평균 PUE는 2.5였으나 지금은 1.5로 떨어졌으며, 구글의 최신 데이터센터는 이미 1.1까지 하락했다. 이는 동일한 컴퓨팅 작업을 수행하는 데 지금은 과거의 절반 전력만 필요함을 의미한다. 액체 냉각 기술, 자유 냉각, AI 기반 에너지 관리 시스템이 이 수치를 계속 낮추고 있다.
어떤 결과가 나오든, 에너지 업계는 AI로 인해 재편성되었으며, 미래에 AI 수요가 감소하더라도 에너지 업계의 호황은 다른 산업의 발전을 촉진할 것이다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News












