
Google đã đưa phát điện lên tận trời, nhưng AI thực sự thiếu điện hay không?
Tuyển chọn TechFlowTuyển chọn TechFlow

Google đã đưa phát điện lên tận trời, nhưng AI thực sự thiếu điện hay không?
AI thiếu không phải là điện, mà là thời gian.
Tác giả: Đối diện AI
Người ta đều nói điểm cuối của AI là năng lượng, CEO Microsoft Nadella trong cuộc phỏng vấn gần đây đã gián tiếp xác nhận quan điểm này. "Do thiếu điện, rất nhiều GPU của Microsoft đang nằm im trong kho không hoạt động," Nadella nói như vậy.
Google gần đây đã đưa TPU lên không gian, dùng ánh sáng mặt trời để phát điện cho máy móc – một chiêu thức kỳ lạ dường như là tiếng vang cho lời nói của Nadella.
Nhưng điều kỳ lạ là, dù câu nói của Nadella dường như có lợi cho ngành năng lượng, nhưng cả thị trường Đại A lẫn Nasdaq đều không tăng giá nhờ phát biểu này. Từ đầu tháng 11 đến thời điểm viết bài, chỉ số Đại A tăng 0%, công ty lớn nhất trong lĩnh vực năng lượng trên Nasdaq chỉ tăng tối đa 0,77%.
Một mặt, các gã khổng lồ Thung lũng Silicon liên tục kêu thiếu điện, thậm chí nghĩ ra giải pháp "lên trời", nhưng mặt khác, tín hiệu rõ ràng như vậy mà thị trường lại làm ngơ, chậm trễ phản ứng.
Điều này khiến người ta không khỏi đặt câu hỏi: liệu ngành công nghiệp AI thực sự thiếu điện?
Quan điểm của CEO OpenAI Sam Altman là: Có, và cũng không phải.
Là "có" vì hiện tại確實 tồn tại hiện tượng thiếu điện; là "không" vì bản chất vấn đề thật ra là dư thừa AI, dù ông ấy không rõ chính xác sẽ là bao nhiêu năm, nhưng tối đa không quá 6 năm, AI sẽ vượt quá nhu cầu của con người, dẫn đến nhu cầu điện cho AI giảm xuống.
Nói cách khác, ngành công nghiệp AI ngắn hạn bị mất điện, nhưng về dài hạn, khi tiêu thụ điện năng của AI giảm, vấn đề thiếu điện sẽ được giải quyết.
01
Google công bố vào đầu tháng 11 năm 2025 một dự án mang tên “Dự án Săn Mặt Trời” (Project Suncatcher), vận hành bằng cách đưa chip TPU lên không gian và dùng năng lượng mặt trời để cung cấp điện.

Mặt Trời bức xạ năng lượng mỗi giây khoảng 3,86 nhân 10 mũ 26 watt, con số này lớn hơn một trăm nghìn tỷ lần tổng sản lượng điện toàn cầu hiện nay của xã hội loài người. Những vệ tinh được triển khai trên quỹ đạo đồng bộ bình minh-hoàng hôn gần như có thể tiếp nhận ánh sáng liên tục, lượng năng lượng chúng thu được trong một năm gấp 8 lần so với tấm pin mặt trời cùng diện tích ở vùng vĩ độ trung bình trên Trái Đất.
Dự án Săn Mặt Trời hợp tác với công ty vệ tinh Planet Labs, triển khai một cụm tính toán AI gồm 81 vệ tinh trên quỹ đạo thấp cách mặt đất 650km. Theo thiết kế, những vệ tinh này sẽ phối hợp làm việc trong vùng không gian bán kính 1km, duy trì khoảng cách giữa chúng từ 100 đến 200 mét. Dự kiến sẽ phóng hai vệ tinh thử nghiệm đầu tiên vào đầu năm 2027 để kiểm chứng khả thi của phương án.
Dù Google từng tuyên bố đã giảm 33 lần mức tiêu thụ năng lượng cho mỗi truy vấn của mô hình Gemini trong vòng một năm, nhưng rõ ràng Google vẫn cần điện.
Việc sử dụng năng lượng mặt trời để phát điện trong không gian không phải là khái niệm mới, nhưng lâu nay bị mắc kẹt bởi một vấn đề then chốt, đó là làm sao truyền hiệu quả và an toàn lượng điện tạo ra trở về mặt đất. Dù dùng chùm vi ba hay chùm laser, hao hụt năng lượng trong quá trình truyền và ảnh hưởng tiềm tàng đến môi trường mặt đất đều khiến việc triển khai quy mô lớn trở nên khó khăn.
Tư duy của "Dự án Săn Mặt Trời" chọn cách bỏ qua khâu này. Nó không định truyền dữ liệu về Trái Đất, mà trực tiếp dùng lượng điện này để tính toán trong không gian, chỉ truyền kết quả tính toán hoàn tất về mặt đất.
Cụm siêu máy tính TPU trên mặt đất sử dụng công nghệ liên kết quang học tùy chỉnh độ trễ thấp, thông lượng mỗi chip đạt hàng trăm gigabit/giây (Gbps).
Trong khi đó, liên kết truyền thông quang giữa các vệ tinh thương mại hiện nay thường chỉ có tốc độ dữ liệu từ 1 đến 100 Gbps, điều này xa mới đủ đáp ứng nhu cầu trao đổi dữ liệu quy mô lớn bên trong cụm tính toán AI. Giải pháp do Google đề xuất là sử dụng công nghệ ghép kênh phân chia bước sóng mật độ cao, lý thuyết có thể đạt tổng băng thông khoảng 10 terabit/giây (Tbps) cho mỗi liên kết giữa các vệ tinh.
Google đã giải thích rất nhiều về các khó khăn và cách giải quyết của "Dự án Săn Mặt Trời", ví dụ như kiểm soát đội hình cụm vệ tinh, chống bức xạ, v.v.
Nhưng Google không giải thích làm thế nào để tản nhiệt.
Đây là một vấn đề vật lý rất nan giải, trong chân không không có đối lưu không khí, nhiệt lượng chỉ có thể phát tán bằng bức xạ. Google từng đề cập trong một bài báo cáo rằng cần sử dụng vật liệu giao diện nhiệt tiên tiến và cơ chế truyền nhiệt, tốt nhất là dạng thụ động để đảm bảo độ tin cậy, nhằm truyền hiệu quả nhiệt lượng do chip sinh ra đến bề mặt tản nhiệt chuyên dụng để bức xạ ra ngoài. Về chi tiết kỹ thuật phần này, bài báo cáo không cung cấp nhiều thông tin.
Thực tế, ý tưởng đưa trung tâm dữ liệu lên không gian không chỉ riêng Google. Ngay trước khi Google công bố kế hoạch, một công ty khởi nghiệp tên Starcloud đã phóng vệ tinh chứa chip NVIDIA H100, tuyên bố xây dựng trung tâm dữ liệu trên không gian với công suất 5 gigawatt. Elon Musk cũng từng nói SpaceX “sẽ làm” trung tâm dữ liệu không gian.
Tháng 5 năm 2025, 12 vệ tinh tính toán đầu tiên thuộc “Chòm sao Tính toán Tam Thể” hợp tác giữa Phòng thí nghiệm Zhijiang Trung Quốc và Guoxing Aerospace đã phóng thành công và kết nối mạng.
Vì vậy, về việc đưa AI lên không gian, dù nghe có vẻ mới mẻ, nhưng mục đích của mọi người đều giống nhau: muốn dùng điện thì hãy đi lấy ở nơi đó, mặt đất không đủ điện cho các bạn dùng.
02
Nguyên nhân chính gây ra tình trạng thèm điện dữ dội của AI chủ yếu phải đổ lỗi cho NVIDIA. Sản phẩm GPU của công ty này, từ kiến trúc Ampere đến kiến trúc Blackwell, chỉ trong 4 năm, mức tiêu thụ điện đã tăng vài lần.
Một giá máy chủ sử dụng GPU kiến trúc Hopper có công suất định mức khoảng 10 kilowatt; đến kiến trúc Blackwell, do số lượng GPU tăng lên, công suất giá máy chủ gần đạt 120 kilowatt.
Hơn nữa, hiện nay đơn vị GPU đều tính theo vạn. Khi hàng vạn GPU giao tiếp với nhau còn phải dùng công nghệ liên kết NvLink của NVIDIA để nâng cao hiệu quả giao tiếp. Mỗi đường liên kết NvLink tiêu thụ 4-6 watt, giữa hai GPU có 18 đường liên kết, những NvLink này lại phải tập trung vào NvSwitch để đạt kết nối không tắc nghẽn, trong khi mỗi NvSwitch tiêu thụ 50-70 watt.
Nếu một cụm GPU có 10.000 H100, sẽ cần 157 NvSwitch và 90.000 đường liên kết NvLink. Tổng công suất tiêu thụ rơi vào khoảng 730-1100 kilowatt.

Chưa hết, làm mát GPU cũng là hạng mục tiêu thụ điện lớn. Máy chủ H100 8 card phổ biến nhất nếu dùng hệ thống làm mát bằng gió, công suất tiêu thụ đã đạt 150 watt, vậy nên một cụm 10.000 card, riêng phần tản nhiệt đã cần 187 kilowatt.
Hiện nay, tiêu chuẩn đánh giá cạnh tranh giữa các công ty công nghệ lớn đã chuyển từ đơn vị tính toán truyền thống sang đơn vị tiêu thụ năng lượng “gigawatt” (GW). Các công ty như OpenAI và Meta đều dự kiến tăng thêm hơn 10 gigawatt năng lực tính toán trong vài năm tới.
Lấy một ví dụ so sánh, ngành AI tiêu thụ 1 gigawatt điện đủ để cung cấp điện cho khoảng 1 triệu hộ gia đình Mỹ. Một báo cáo năm 2025 của Cơ quan Năng lượng Quốc tế ước tính đến năm 2030, mức tiêu thụ năng lượng trong lĩnh vực trí tuệ nhân tạo sẽ tăng gấp đôi, tốc độ tăng trưởng gần gấp bốn lần tốc độ tăng trưởng của lưới điện.
Goldman Sachs dự đoán đến năm 2027 nhu cầu điện toàn cầu cho trung tâm dữ liệu sẽ tăng 50%, đạt 92 gigawatt. Tỷ lệ nhu cầu điện cho trung tâm dữ liệu tại Mỹ trong tổng nhu cầu điện sẽ tăng từ 4% năm 2023 lên 10% vào năm 2030. Ngoài ra, Goldman Sachs cũng chỉ ra rằng một số yêu cầu đấu nối điện cho các khu trung tâm dữ liệu lớn đơn lẻ thực sự có thể đạt mức 300 megawatt đến vài gigawatt.
Nhưng điều thú vị bắt đầu ở đây.
NextEra Energy là công ty năng lượng tái tạo lớn nhất Bắc Mỹ, còn ETF ngành đại diện theo dõi hiệu suất cổ phiếu tiện ích Mỹ gọi là XLU. Trong 52 tuần qua, cổ phiếu NextEra tăng 11,62%, ETF XLU tăng 14,82%, nhưng cùng kỳ chỉ số S&P 500 lại tăng tới 19,89%.
Nếu ngành công nghiệp AI thực sự đối mặt với tình trạng thiếu điện nghiêm trọng, thì các công ty cung cấp điện và ngành tiện ích lẽ ra phải thu được lợi nhuận thị trường vượt trội, chứ không phải thua cả chỉ số chung.
Về vấn đề này, Nadella đã hé lộ một manh mối quan trọng. Ông nói "phê duyệt đấu nối lưới điện cần 5 năm", và "xây dựng đường dây truyền tải cần 10-17 năm".
Trong khi đó, chu kỳ mua GPU được tính theo quý, chu kỳ xây dựng trung tâm dữ liệu thường là 1-2 năm, tốc độ bùng nổ nhu cầu AI thay đổi theo từng quý.
Sự khác biệt về quy mô thời gian này tạo ra sự lệch pha về thời gian, chính là bản chất đằng sau lời nói của Nadella rằng AI thiếu điện.
Thêm vào đó, Nadella còn có một nỗi lo hiện tại không thể giải quyết. Năm 2020 Microsoft từng tuyên bố "đạt được phát thải carbon âm, tăng nước sạch và đạt rác thải bằng không" đồng thời bảo vệ hệ sinh thái.
Tuy nhiên thực tế hiện nay, gần 60% lượng điện sử dụng tại các trung tâm dữ liệu Microsoft vẫn đến từ nhiên liệu hóa thạch, bao gồm cả khí đốt tự nhiên. Lượng phát thải CO2 hàng năm tương đương tổng phát thải của khoảng 54.000 hộ gia đình Mỹ bình thường.
Mặt khác, Báo cáo Năng lượng Tái tạo tháng 10 năm 2025 của Cơ quan Năng lượng Quốc tế chỉ ra rằng tốc độ tăng trưởng năng lực phát điện toàn cầu có thể vượt quá nhu cầu điện tăng thêm bao gồm cả AI.
Báo cáo nêu rằng trong giai đoạn 5 năm từ 2025 đến 2030, công suất lắp đặt năng lượng tái tạo toàn cầu sẽ tăng 4600 gigawatt, quy mô tăng thêm này tương đương tổng công suất lắp đặt hiện tại của Trung Quốc, Liên minh châu Âu và Nhật Bản. Hơn nữa, báo cáo dự kiến công suất lắp đặt mới trong 5 năm này sẽ gấp đôi mức tăng của 5 năm trước đó.
Ở đây cần đặc biệt nhắc đến năng lượng hạt nhân. Năng lượng hạt nhân là lựa chọn duy nhất có thể cung cấp điện ổn định, quy mô lớn và ít carbon. Vấn đề của nhà máy hạt nhân truyền thống là chu kỳ xây dựng dài, chi phí cao, rủi ro lớn nhưng lò phản ứng nhỏ dạng mô-đun (SMR) đang thay đổi tình thế này. SMR có thể sản xuất hàng loạt các mô-đun tiêu chuẩn trong nhà máy giống như sản xuất máy bay hoặc ô tô, sau đó vận chuyển bằng đường sắt hoặc đường bộ đến hiện trường để lắp ráp, giống như xây dựng kiểu "khối xếp hình Lego".
Công suất đơn chiếc của SMR chỉ 50-300 megawatt, nhỏ hơn nhiều so với 1000-1600 megawatt của nhà máy hạt nhân truyền thống, nhưng chính điều này lại là ưu thế. Quy mô nhỏ hơn nghĩa là chu kỳ xây dựng ngắn hơn, vốn đầu tư ban đầu thấp hơn, chọn vị trí linh hoạt hơn. SMR có thể sản xuất hàng loạt trong nhà máy rồi vận chuyển đến hiện trường lắp ráp, giảm đáng kể chi phí và rủi ro.
SMR là phương thức phát điện nóng nhất, hiện đại nhất hiện nay. Google từng ký thỏa thuận với Kairos Power, mua 500 megawatt điện hạt nhân SMR, đây là lần đầu tiên một công ty công nghệ trực tiếp đầu tư vào công nghệ SMR. Microsoft thì vào tháng 1 năm 2024 đã thuê giám đốc chiến lược và dự án hạt nhân từng làm việc tại Ultra Safe Nuclear Corporation (USNC) giữ chức Giám đốc Công nghệ Hạt nhân của Microsoft. Mục đích là phát triển SMR và các lò phản ứng mô-đun siêu nhỏ hơn (MMR).
Nói cách khác, điều Microsoft thiếu không phải là điện, mà là thời gian.
03
So với lĩnh vực năng lượng, giảm tiêu thụ điện của chính AI cũng là một hướng phát triển quan trọng.
Quan điểm của Altman là chi phí cho mỗi đơn vị trí tuệ giảm 40 lần mỗi năm, rất có thể vài năm nữa chúng ta sẽ không cần nhiều hạ tầng như vậy nữa. Và nếu đột phá tiếp tục, trí tuệ nhân tạo phổ quát cấp cá nhân có thể chạy trên laptop, từ đó giảm thêm nhu cầu phát điện.

Altman từng viết một bài báo, lấy sản phẩm của mình làm ví dụ để giải thích vấn đề này. Bài viết nêu rằng từ mô hình GPT-4 đầu năm 2023 đến GPT-4o giữa năm 2024, chỉ trong một năm, chi phí mỗi token đã giảm khoảng 150 lần. Với năng lực tính toán không đổi, cùng một nghiệp vụ, lượng điện tiêu thụ sẽ giảm theo các giai đoạn phát triển khác nhau của AI.
Ông nói mức giảm giá mạnh như vậy nếu chỉ dựa vào việc giảm tuyến tính chi phí phần cứng là không thể đạt được, chắc chắn đằng sau đó là sự kết hợp tổng thể từ tối ưu thuật toán, cải tiến kiến trúc mô hình và nâng cao hiệu quả của bộ xử lý suy luận.
Báo cáo Chỉ số Trí tuệ Nhân tạo 2025 của Đại học Stanford (HAI) xác nhận phát biểu này, trong báo cáo viết: trong 18 tháng, chi phí gọi mô hình AI đạt trình độ GPT-3.5 (độ chính xác MMLU 64,8%) giảm mạnh từ 20 USD/mỗi triệu token vào tháng 11 năm 2022 xuống còn 0,07 USD/mỗi triệu token vào tháng 10 năm 2024, tức giảm 280 lần.
Về phần cứng, GPU hiện nay đã bổ sung hai đơn vị đo hiệu suất năng lượng mới: TOPS/W (nghìn tỷ phép toán mỗi watt) và FLOPS per Watt (phép toán dấu phẩy động mỗi watt), nhằm trực quan hóa các đột phá về hiệu suất năng lượng.
Ví dụ như chip đào tạo AI thế hệ thứ năm Athena X1 do Meta công bố, dưới điều kiện độ chính xác thấp, hiệu suất năng lượng đạt 32TOPS/W, tăng 200% so với thế hệ trước, công suất chờ giảm 87%. Dù là trong phạm vi độ chính xác thấp FP8, hiệu suất năng lượng của H100 của NVIDIA cũng chỉ đạt 5,7TFLOPS/W.
Tuy nhiên với một số nhiệm vụ đào tạo độ chính xác cao, vẫn cần dùng H100, đây cũng là lý do Meta phải mua số lượng lớn hàng chục ngàn GPU của NVIDIA.
Dữ liệu nghiên cứu của Epoch AI cho thấy hiệu suất năng lượng phần cứng học máy đang tăng 40% mỗi năm, cứ 2 năm lại tăng gấp đôi. Hiệu suất năng lượng của chip AI thế hệ mới tăng mạnh.
GPU H200 của NVIDIA so với H100 thế hệ trước, hiệu suất năng lượng tăng 1,4 lần. Dường như vẫn còn không gian nâng cao lớn.
Xét về góc độ vĩ mô, hiệu suất năng lượng thực sự của trung tâm dữ liệu mới là con số đáng chú ý nhất. Thông thường dùng PUE (hiệu quả sử dụng năng lượng) để đo mức tiêu thụ năng lượng của trung tâm dữ liệu.
Giá trị lý tưởng của PUE là 1,0, nghĩa là tất cả điện đều dùng cho tính toán, không lãng phí vào làm mát và các hệ thống phụ trợ khác. Cách đây mười năm, PUE trung bình của trung tâm dữ liệu là 2,5, hiện nay là 1,5, trung tâm dữ liệu mới nhất của Google đã giảm xuống còn 1,1. Điều này có nghĩa là cùng một nhiệm vụ tính toán, hiện nay chỉ cần một nửa lượng điện so với trước đây. Công nghệ làm mát bằng chất lỏng, làm mát miễn phí, hệ thống quản lý năng lượng điều khiển bằng AI đang tiếp tục kéo con số này xuống thấp hơn.
Nhưng dù kết cục nào, ngành năng lượng cũng đã được tái cấu trúc nhờ AI, ngay cả khi nhu cầu AI trong tương lai giảm, sự thịnh vượng của ngành năng lượng cũng sẽ thúc đẩy sự phát triển của các ngành khác.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












