
Cựu CEO Google Schmidt: AI giống như điện và lửa, 10 năm này quyết định 100 năm tới
Tuyển chọn TechFlowTuyển chọn TechFlow

Cựu CEO Google Schmidt: AI giống như điện và lửa, 10 năm này quyết định 100 năm tới
Ai khép kín vòng lặp trước, người đó sẽ thắng trong tương lai.
Nguồn: Viện Nghiên cứu Sâu về AI
Năm 2025, thế giới AI đang bị xé nát bởi một sức ép vô hình:
Một bên là sự gia tăng đột biến về thông số mô hình, bên kia là giới hạn tài nguyên hệ thống.
Mọi người đều đang hỏi: GPT-5, Claude 4, Gemini 2.5 cái nào mạnh hơn? Nhưng cựu CEO Google Eric Schmidt đã đưa ra nhận định sâu sắc hơn trong bài phát biểu công khai ngày 20 tháng 9 năm 2025:
"Sự xuất hiện của AI trong lịch sử nhân loại tương đương với việc phát minh ra lửa, điện. Và 10 năm tới sẽ quyết định cục diện 100 năm sau."
Ông không nói về hiệu suất mô hình hay AGI gần hay xa, mà đang nói rằng:
AI không còn đơn thuần nâng cao hiệu quả công cụ, mà đang tái định nghĩa cách vận hành kinh doanh.
Đồng thời, trong một buổi trao đổi tại tổ chức đầu tư nổi tiếng Thung lũng Silicon a16z, nhà phân tích chip Dylan Patel chỉ ra:
"Nói một cách phóng đại, giờ tranh GPU giống như tranh ma túy vậy, bạn phải nhờ vả quan hệ, tìm kênh, giành hạn ngạch. Nhưng vấn đề không nằm ở đó, cuộc cạnh tranh thực sự là xem ai xây dựng được hệ thống hoàn chỉnh hỗ trợ AI."
Quan điểm của hai người cùng chỉ về một xu hướng phát triển:
-
Thông số không phải ranh giới, điện mới là ranh giới;
-
Mô hình không phải hào thành, nền tảng mới là hào thành;
-
AGI không phải mục đích, ứng dụng thực tế mới là then chốt
Nếu ba năm qua, chủ đạo của AI là bùng nổ năng lực;
Thì mười năm tới, chủ đạo sẽ là xây dựng cơ sở hạ tầng.
Phần I|AI không còn là nâng cấp công cụ, mà là tái cấu trúc hệ thống
Trong buổi trao đổi này, Eric Schmidt mở đầu thẳng thắn:
"Sự xuất hiện của AI trong lịch sử nhân loại có tầm quan trọng ngang hàng với việc phát minh ra điện, lửa."
Ông không nhấn mạnh AI thông minh đến đâu, mà đang nhắc nhở mọi người: Cách làm việc, phương thức quản lý, cách kiếm tiền mà chúng ta quen thuộc có thể phải thay đổi hoàn toàn.
Không phải để AI giúp bạn viết nhanh hơn, mà để AI quyết định cách viết.
Schmidt nói, những công cụ AI mạnh nhất hiện nay đã không còn là trợ thủ, mà đang trở thành:
Một cơ sở hạ tầng hoàn toàn mới, giống như mạng điện, trở thành trang bị tiêu chuẩn cho mọi tổ chức.
Câu nói này trực tiếp đảo lộn quan điểm của con người về AI trong vài năm qua.
Nói cách khác, đây không phải là nâng cao kỹ năng cá nhân hay tối ưu hiệu suất nhóm, mà là sự thay đổi căn bản toàn bộ cách vận hành tổ chức:
-
Cách ra quyết định thay đổi, AI tham gia vào suy nghĩ;
-
Viết lách, lập trình, chăm sóc khách hàng, tài chính đều có cộng sự AI;
-
Việc nhập dữ liệu, đánh giá kết quả, cơ chế phản hồi đều được thiết kế lại bởi AI.
Sự thay đổi tổ chức toàn diện này khiến Schmidt nhận ra, không nên vạch sẵn quy trình chi tiết, mà cần để AI thích nghi và tối ưu dần trong ứng dụng thực tế.
Theo ông, hiện các công ty khởi nghiệp mà ông tham gia đều áp dụng phương pháp này, không lên kế hoạch hoàn chỉnh trước, mà để AI tham gia trực tiếp vào công việc, điều chỉnh và hoàn thiện liên tục trong thực tiễn.
Vì vậy, điều ông nói không phải mô hình mạnh hơn, mà là tổ chức có chuyển mình sang hình thái mới gốc AI hay không.
AI đang từ công cụ trở thành cơ sở hạ tầng vận hành doanh nghiệp.
Phần II|Cái kìm hãm sự phát triển của AI, là điện
Trước đây chúng ta luôn cho rằng, sự phát triển năng lực AI sẽ bị kẹt bởi công nghệ:
-
Hiệu năng chip không đủ, mô hình không tính toán nổi;
-
Thuật toán quá phức tạp, tốc độ suy luận quá chậm.
Nhưng Eric Schmidt nói, cái thực sự kìm hãm sự phát triển của AI không phải thông số kỹ thuật, mà là nguồn cung điện.
Ông đưa ra một con số cụ thể:
"Đến năm 2030, Mỹ cần thêm 92GW điện mới để đáp ứng nhu cầu trung tâm dữ liệu."
Đây là mức độ gì?
Một nhà máy điện hạt nhân lớn, công suất cũng chỉ khoảng 1-1.5GW.
92GW tương đương sản lượng điện của hàng chục nhà máy điện hạt nhân. Thực tế là: Hiện tại Mỹ hầu như không có nhà máy điện hạt nhân nào đang xây dựng.
Điều này có nghĩa, vấn đề trong tương lai không phải công nghệ mô hình chưa tiên tiến, mà là nguồn điện không theo kịp nhu cầu huấn luyện.
Schmidt thậm chí từng đưa ra ví dụ gây bất ngờ với Quốc hội: Có thể họ cần huấn luyện mô hình riêng của Mỹ ở nước ngoài, ví dụ tại các cơ sở phát điện ở Trung Đông.

(Sam Altman vừa đăng blog: "Những khả năng vô hạn trong thời đại trí tuệ")
Nhu cầu điện này không phải chuyện khoa trương. Ngay ngày 23 tháng 9, CEO OpenAI Sam Altman vừa đăng blog, đề xuất hướng đi táo bạo hơn: Chúng tôi hy vọng xây dựng một nhà máy, mỗi tuần bổ sung thêm 1GW cơ sở tính toán AI, mức tiêu thụ điện tương đương một thành phố.
Ông chỉ rõ, điều này đòi hỏi đột phá đồng bộ trên nhiều hệ thống: chip, điện, robot, xây dựng.
Theo lời ông: "Mọi thứ bắt đầu từ tính toán."
Mục tiêu này của Altman không phải trưng bày viễn cảnh, mà là cơ sở hạ tầng đang được bố trí. Đây chính là con đường hiện thực hóa câu nói của Schmidt "AI sẽ trở thành mạng điện mới".
Thực tế:
Việc huấn luyện mô hình bản thân không tốn kém, chi phí thực sự nằm ở tiêu thụ điện, thời gian vận hành và bảo trì thiết bị.
Khi nhiệm vụ suy luận ngày càng nhiều, nội dung tạo ra ngày càng phức tạp (hình ảnh, video, văn bản dài), nhu cầu điện của nhà máy AI đang trở thành nút thắt cổ chai tính toán mới.
Dylan Patel trong một buổi trao đổi khác cũng nói, khi xây dựng hệ thống AI, không chỉ cần cân nhắc chip nhanh đến đâu, mà còn phải xem xét tản nhiệt, tiền điện, độ ổn định. Ông nói hình tượng hơn:
"Nhà máy AI không phải cứ mua一堆 GPU là xong, mà còn phải tính đến điều phối năng lượng và khả năng vận hành liên tục."
Vì vậy, đây không phải vấn đề chip, mà là vấn đề điện có theo kịp hay không.
Khi điện không đáp ứng được, chuỗi phản ứng dây chuyền xảy ra:
-
Mô hình không thể huấn luyện;
-
Chi phí suy luận tăng cao;
-
Công cụ AI không thể triển khai quy mô lớn;
-
Cuối cùng mất khả năng ứng dụng thực tế.
Schmidt cho rằng, hạ tầng không theo kịp là thách thức thực tế lớn nhất hiện nay đối với việc ứng dụng AI. Không có đủ năng lượng hỗ trợ, dù mô hình tiên tiến đến đâu cũng không dùng được.
Vì vậy, chiến trường AI tiếp theo không nằm trong phòng thí nghiệm, mà ở các nhà máy điện.
Phần III|Không phải ai có chip, mà là ai biết sử dụng chúng
Và ngay cả khi giải quyết được điện, vấn đề vẫn chưa xong. Bạn thực sự có thể vận hành tất cả những chip, mô hình, nhiệm vụ này không?
Nhiều người nghĩ, chỉ cần có những chip tiên tiến nhất như H100, B200 là đã xây xong nhà máy AI.
Nhưng Dylan Patel ngay lập tức dội gáo nước lạnh:
"GPU hiện rất khan hiếm, phải nhắn tin khắp nơi hỏi 'bạn có bao nhiêu hàng? Giá bao nhiêu?'"
Ông tiếp tục:
"Nhưng chỉ có chip thôi thì chưa đủ. Cốt lõi là làm sao để chúng hợp tác hiệu quả."
Nói cách khác, chip bản thân chỉ là một bộ phận, cái thực sự quyết định nhà máy AI có thể vận hành liên tục hay không là khả năng tích hợp và vận hành các chip này.
Ông chia năng lực tích hợp này thành bốn cấp độ:
-
Cơ sở tính toán: phần cứng như GPU, TPU;
-
Chồng phần mềm: khung huấn luyện, hệ thống điều phối, bộ phân bổ nhiệm vụ;
-
Quản lý làm mát và điện: không chỉ là có điện, mà còn phải kiểm soát tốt nhiệt độ, tải, tiền điện;
-
Năng lực kỹ thuật: ai sẽ tối ưu mô hình, điều chỉnh tính toán, kiểm soát chi phí.
Đây là cốt lõi mà Dylan gọi là "nhà máy AI": Nhà máy AI không phải một mô hình, cũng không phải một chiếc card, mà là toàn bộ năng lực điều phối kỹ thuật liên tục.
Bạn sẽ thấy, nhà máy AI không chỉ cần lượng lớn tính toán, mà còn cần phối hợp kỹ thuật phức tạp:
-
Một đống GPU là "nguyên liệu thô";
-
Điều phối phần mềm là "phòng điều khiển";
-
Làm mát và điện là "thợ điện nước";
-
Đội kỹ thuật là "tổ sửa chữa".
Nói đơn giản, trọng tâm đã chuyển từ "tạo mô hình" sang "xây hạ tầng".
Dylan nhận thấy một hiện tượng thú vị: Xem các công ty chip hiện nay, không chỉ bán card nữa, mà bắt đầu "bao thi công". Nvidia bắt đầu giúp khách hàng tích hợp máy chủ, cấu hình làm mát, xây dựng nền tảng, tự mình trở thành nền tảng.

(Nguồn ảnh: báo cáo Reuters)
Cùng ngày buổi phỏng vấn này được công bố, Nvidia và OpenAI công bố ý định hợp tác trong tương lai: Nvidia sẽ cung cấp cho OpenAI tài nguyên trung tâm dữ liệu cấp tối đa 10GW, quy mô đầu tư có thể đạt hàng trăm tỷ USD.
Sam Altman trong tuyên bố nói một câu, đúng lúc chứng minh logic trên:
Cơ sở hạ tầng tính toán sẽ là nền tảng của nền kinh tế tương lai. Nvidia không chỉ bán card, cung cấp chip, mà còn cùng họ triển khai, xây dựng, vận hành toàn bộ nhà máy AI.
Điều này cho thấy một xu hướng: Người thật sự có khả năng tạo vòng khép kín không phải người thông minh nhất, mà là người hiểu rõ nhất cách triển khai thực tế.
Tức là:
-
Có thể tạo ra mô hình là một chuyện;
-
Có thể để mô hình vận hành ổn định hàng ngày là chuyện khác.
AI không còn là sản phẩm mua về dùng được ngay, mà là hệ thống kỹ thuật phức tạp cần vận hành liên tục. Chìa khóa là bạn có năng lực vận hành lâu dài hệ thống này hay không.
Phần IV|Năng lực AI khuếch tán thành xu hướng, trọng tâm cạnh tranh ở đâu?
Khi mọi người còn đang tranh giành năng lực vận hành, thay đổi mới đã xuất hiện.
Mô hình AI ngày càng tốt hơn, thông minh hơn, nhưng Eric Schmidt đưa ra cảnh báo:
"Chúng ta không thể ngăn cản việc chưng cất mô hình. Gần như bất kỳ ai truy cập được API đều có thể sao chép năng lực của nó."
Chưng cất là gì? Đơn giản là:
-
Mô hình lớn tuy năng lực mạnh nhưng chi phí triển khai quá cao;
-
Nhà nghiên cứu dùng nó để huấn luyện mô hình nhỏ hơn, bắt mô hình nhỏ học cách suy nghĩ của nó;
-
Chi phí thấp, tốc độ nhanh, độ chính xác cao, khó truy vết.
Giống như bạn không thể sao chép một đầu bếp hàng đầu, nhưng có thể thông qua món ăn anh ta làm ra, dạy người khác nấu được 80% hương vị tương tự.
Vấn đề đặt ra: Năng lực càng dễ chuyển giao, mô hình bản thân càng khó bị kiểm soát.

(Dylan Patel, nhà phân tích ngành chip nổi tiếng, chuyên nghiên cứu hạ tầng AI)
Dylan Patel cũng đề cập đến một xu hướng trong ngành:
Chi phí chưng cất hiện nay chỉ chiếm khoảng 1% chi phí huấn luyện ban đầu, nhưng có thể tái hiện 80-90% năng lực mô hình gốc.
Dù OpenAI, Google, Anthropic có bảo vệ mô hình chặt chẽ đến đâu, cũng không ngăn được người khác chưng cất để có được năng lực tương tự.
Trước đây mọi người so sánh ai mạnh hơn; giờ bắt đầu lo lắng ai còn kiểm soát được?
Schmidt trong buổi phỏng vấn nói: Mô hình lớn nhất sẽ không bao giờ mở. Còn sự lan tỏa của mô hình nhỏ là điều không thể tránh khỏi.
Ông không cổ súy đóng cửa, mà đang nhắc đến một thực tế: Tốc độ khuếch tán công nghệ có thể nhanh hơn nhiều so với tốc độ quản lý theo kịp.
Ví dụ, hiện đã có nhiều nhóm dùng API GPT-4 để chưng cất ra một GPT-4-lite:
-
Chi phí thấp, dễ triển khai;
-
Gần như không có dấu hiệu rõ ràng bên ngoài;
-
Người dùng cảm giác gần như giống hệt.
Điều này tạo ra một vấn đề nan giải: Năng lực mô hình có thể khuếch tán như "không khí"; nhưng nguồn gốc mô hình, trách nhiệm, ranh giới sử dụng đều khó xác định rõ ràng.
Điều Schmidt thực sự lo ngại không phải mô hình quá mạnh, mà là:
"Khi ngày càng nhiều mô hình có năng lực mạnh, nhưng không chịu sự giám sát, khó truy nguồn, trách nhiệm mập mờ, chúng ta làm sao đảm bảo độ tin cậy của AI?"
Hiện tượng này không còn là giả thiết, mà là thực tế hiện tại.
Khi năng lực AI khuếch tán đã trở thành xu hướng không thể đảo ngược. Việc đơn thuần sở hữu mô hình tiên tiến không còn là hào thành. Trọng tâm cạnh tranh đã chuyển sang cách vận dụng và phục vụ năng lực này tốt hơn.
Phần V|Chìa khóa nền tảng là càng dùng càng chuẩn
Vì vậy cuối cùng, quan trọng hơn việc có thể tạo ra hay không là: Bạn có thể xây dựng một nền tảng càng dùng càng tốt không?
Eric Schmidt đưa ra câu trả lời của mình:
"Các công ty AI thành công trong tương lai, không chỉ cạnh tranh hiệu suất mô hình, mà còn phải cạnh tranh khả năng học tập liên tục."
Nói通俗一点就是:你不是一次性做出一个产品就完事,而是建一个平台,让它用得越多越聪明、越用越好用、越用越稳定。
Ông giải thích thêm:
Hạt nhân nền tảng không phải chức năng, mà là khiến người khác không thể rời bỏ bạn.
Ví dụ:
-
Mạng điện không vì bóng đèn sáng, mà vì khiến mọi bóng đèn đều sáng;
-
Hệ điều hành không vì chức năng nhiều, mà vì khiến một loạt ứng dụng chạy ổn định;
-
Nền tảng AI cũng vậy, không phải tạo ra một trợ lý trí tuệ nào đó, mà là khiến các đội ngũ khác, người dùng, mô hình đều có thể kết nối, gọi dùng, tăng cường.
Nền tảng AI không phải một chức năng, mà là một mạng dịch vụ vận hành liên tục.
Ông cũng khuyên các nhà sáng lập trẻ: Đừng chỉ hỏi sản phẩm này làm có hoàn hảo không. Hãy xem nó có hình thành được con đường "dùng → học → tối ưu → dùng lại" hay không.
Bởi vì: Chỉ nền tảng có thể học tập liên tục mới có khả năng tồn tại lâu dài.
Dylan Patel bổ sung, thực ra đây cũng là con đường thành công của Nvidia. Huang Renxun làm CEO ba mươi năm, dựa không phải may mắn, mà là liên tục buộc chip và phần mềm thành vòng khép kín: Khách hàng dùng càng nhiều, ông càng hiểu rõ khách muốn gì; càng hiểu nhu cầu, sản phẩm càng dễ dùng; sản phẩm càng dễ dùng, khách càng khó từ bỏ.
Thế là tạo thành vòng lặp tích cực, càng dùng càng có giá trị.
Không phải "ra mắt là đỉnh cao", mà là nền tảng có thể phát triển liên tục.
Schmidt tổng kết rất rõ ràng: Bạn có thể xây dựng cơ chế tăng trưởng như vậy không? Ban đầu có thể rất nhỏ, nhưng nó có thể liên tục thích nghi, mở rộng, cập nhật?
Ông đánh giá người thành công với nền tảng AI tương lai:
Không phải bạn viết mã gì, mà là bạn có thể khiến một nền tảng sống sót, và càng sống càng mạnh hay không.
Kết luận|Ai tạo vòng khép kín trước, người đó thắng tương lai
Eric Schmidt trong buổi phỏng vấn nói:
"AI giống như điện và lửa, 10 năm này sẽ quyết định 100 năm sau."
Năng lực AI đã sẵn sàng, nhưng đi đâu, lắp thế nào, dùng ra sao vẫn chưa nghĩ rõ.
Trọng tâm hiện nay không phải chờ mô hình thế hệ tiếp theo, mà là dùng AI hiện có, dùng tốt. Đừng mãi nghĩ GPT-6/DeepSeek R2 khi nào ra, hãy trước tiên vận hành công cụ hiện có trong các tình huống chăm sóc khách hàng, viết lách, phân tích dữ liệu. Để AI có thể làm việc ổn định 24/7, chứ không chỉ gây ấn tượng trong buổi ra mắt.
Đây không phải cuộc đua của người thông minh, mà là cuộc so tài năng lực thực thi.
Ai dẫn trước đưa AI từ phòng thí nghiệm ra thực tế, người đó nắm quyền chủ động 10 năm tới.
Và cuộc "đua vòng khép kín" này, đã bắt đầu từ bây giờ.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












