
Về mô hình, Infra và ứng dụng, những vấn đề cốt lõi hiện vẫn chưa được giải quyết
Tuyển chọn TechFlowTuyển chọn TechFlow

Về mô hình, Infra và ứng dụng, những vấn đề cốt lõi hiện vẫn chưa được giải quyết
Liệu có tồn tại một "trần vốn" nào đó, tức là chỉ những công ty lớn mới có khả năng gánh chịu chi phí đắt đỏ của các mô hình tiên tiến nhất?
Tác giả: Elad
Trong hầu hết các lĩnh vực, thời gian trôi qua giúp chúng ta nhìn nhận mọi việc rõ ràng hơn. Nhưng trong lĩnh vực AI tạo sinh, tình hình có thể ngược lại. Chúng tôi cho rằng lĩnh vực này hiện vẫn ở giai đoạn rất sơ khai, với những biến số mới, mô hình và hệ thống thay đổi phức tạp. Trong giai đoạn khám phá sớm này, việc lọc thông tin từ lượng dữ liệu khổng lồ, mò mẫm trong sự mơ hồ, tìm ra các hướng đi khả thi và tích lũy suy nghĩ sâu sắc là điều chúng tôi luôn thực hiện.
Elad là một doanh nhân liên tiếp khởi nghiệp, đồng thời cũng là nhà đầu tư tiên phong vào các dự án nổi tiếng như Airbnb, Coinbase, Figma, Notion, Pinterest. Bài viết này mang đến những câu hỏi chưa được giải đáp gần đây của ông về LLMs, tầng cơ sở hạ tầng và tầng ứng dụng AI — nội dung sâu sắc và toàn diện, mời bạn cùng thảo luận và phản hồi.
Các công ty công nghệ lớn đã định hình thị trường LLM thông qua các khoản đầu tư khổng lồ, điều này đặt ra một câu hỏi then chốt: Trong môi trường thị trường như vậy, các công ty khởi nghiệp nhỏ và nhà phát triển độc lập sẽ tìm điểm đứng ở đâu? Có tồn tại một "ngưỡng trần vốn" nào không, tức là chỉ những công ty lớn mới đủ sức chi trả chi phí tốn kém của các mô hình tiên tiến?
Các mô hình mã nguồn mở như Llama và Mistral cũng đóng vai trò quan trọng trong lĩnh vực LLM, cung cấp một phương tiện đối trọng với các mô hình riêng tư, thúc đẩy phổ cập công nghệ và đổi mới sáng tạo. Tuy nhiên, hạn chế về sử dụng thương mại và tính bền vững vẫn là những vấn đề then chốt mà các mô hình mã nguồn mở lớn cần giải quyết.

01. Vấn đề LLM
Về cơ bản, LLM có hai loại: một là các mô hình tổng quát ở vị trí dẫn đầu công nghệ (ví dụ như GPT-4), còn lại là tất cả các mô hình khác. Năm 2021, Elad từng dự đoán rằng do yêu cầu vốn khổng lồ, thị trường mô hình tiên tiến sẽ dần trở thành một thị trường độc quyền với chỉ vài công ty. Đồng thời, các mô hình lớn không dẫn đầu sẽ chịu ảnh hưởng nhiều hơn bởi yếu tố giá cả, trong khi ảnh hưởng của các mô hình mã nguồn mở sẽ ngày càng tăng.
Hiện tại, tình hình dường như đang đi theo hướng đó. Thị trường LLM tiên tiến có thể sẽ trở thành thị trường độc quyền, với các đối thủ cạnh tranh hiện tại bao gồm các mô hình khép kín như OpenAI, Google, Anthropic, và các mô hình mã nguồn mở như Llama (Meta) hay Mistral. Dù danh sách này có thể thay đổi trong vòng một đến hai năm tới, nhưng chi phí huấn luyện mô hình tiên tiến tiếp tục tăng, trong khi chi phí của các mô hình tổng quát khác giảm hàng năm dù hiệu năng lại cải thiện. Ví dụ, hiện nay chi phí huấn luyện GPT-3.5 có thể chỉ bằng một phần năm so với hai năm trước.
Khi quy mô mô hình mở rộng, nguồn vốn ngày càng đến từ các nhà cung cấp dịch vụ đám mây và các công ty công nghệ lớn. Ví dụ, Microsoft đã đầu tư hơn 10 tỷ USD vào OpenAI, trong khi Anthropic nhận được 7 tỷ USD từ Amazon và Google. NVIDIA cũng đầu tư mạnh vào lĩnh vực này. So sánh với số tiền huy động từ các nhà đầu tư mạo hiểm, những con số trên thật sự nhỏ bé. Khi chi phí huấn luyện mô hình tiên tiến tăng vọt, các nguồn vốn mới chủ yếu tập trung vào các công ty công nghệ lớn hoặc các chính phủ quốc gia như Các Tiểu vương quốc Ả Rập Thống nhất hỗ trợ doanh nghiệp địa phương. Xu hướng này đang ảnh hưởng đến thị trường và có thể xác định trước những người chiến thắng tiềm năng.
So với lợi ích thu được, các khoản đầu tư của các nhà cung cấp dịch vụ đám mây vào lĩnh vực này chỉ là phần nổi của tảng băng trôi. Ví dụ, Azure của Microsoft mang về doanh thu 25 tỷ USD mỗi quý, khoản đầu tư khoảng 10 tỷ USD dành cho OpenAI chỉ tương đương doanh thu của Azure trong sáu tuần. Nhưng tác động của AI đến doanh thu của Azure là rất lớn. Doanh thu Azure gần đây tăng thêm 6 điểm phần trăm nhờ AI, tương đương tăng thêm 5–6 tỷ USD mỗi năm. Dù doanh thu này chưa phải lợi nhuận ròng, nhưng vẫn rất ấn tượng, chứng tỏ các nhà cung cấp dịch vụ đám mây lớn có động lực mạnh mẽ để tài trợ cho nhiều mô hình lớn hơn. Đồng thời, Meta cũng thể hiện vai trò đáng kể với mô hình Llama, họ gần đây tuyên bố ngân sách 20 tỷ USD để tài trợ huấn luyện các mô hình quy mô lớn.
Một số câu hỏi cốt lõi về LLM
Liệu các nhà cung cấp dịch vụ đám mây có đang dùng khả năng tính toán/quy mô vốn khổng lồ để tạo ra một nhóm nhỏ các đối thủ dẫn đầu, từ đó khóa chặt thị trường độc quyền? Điều gì xảy ra nếu các nhà cung cấp dịch vụ đám mây ngừng tài trợ cho các công ty LLM mới và chuyển sang duy trì tài trợ liên tục cho các công ty hiện có? Nhà cung cấp dịch vụ đám mây là nhà tài trợ lớn nhất cho các mô hình nền tảng, chứ không phải các nhà đầu tư mạo hiểm. Việc này hợp lý vì họ bị giới hạn trong sáp nhập & mua lại, đồng thời việc sử dụng dịch vụ đám mây mang lại doanh thu. Nhưng điều này có thể gây méo mó một số động lực thị trường. Nó sẽ ảnh hưởng thế nào đến kinh tế dài hạn và cấu trúc thị trường của LLM? Liệu điều này có nghĩa là trong thời gian tới, các công ty LLM mới sẽ liên tục thất bại do thiếu vốn và nhân tài?
Mô hình mã nguồn mở (OSS) có làm thay đổi cấu trúc kinh tế của AI, chuyển từ mô hình nền tảng sang điện toán đám mây? Meta có tiếp tục tài trợ cho các mô hình mã nguồn mở? Nếu có, liệu Llama-N có thể đuổi kịp các mô hình lớn dẫn đầu? Một mô hình mã nguồn mở xuất sắc trong lĩnh vực AI tiên tiến có tiềm năng thay đổi kiến trúc một phần cơ sở hạ tầng AI, chuyển từ LLM sang các nhà cung cấp dịch vụ điện toán đám mây và suy luận, đồng thời làm giảm doanh thu của các công ty mô hình nền tảng LLM khác.
Điều khoản sử dụng Llama2 quy định rằng nếu người dùng có ít hơn 700 triệu người dùng thì được phép sử dụng thương mại. Điều này ngăn một số đối thủ lớn sử dụng mô hình này. Một nhà cung cấp dịch vụ đám mây lớn sẽ phải trả phí bản quyền cho Meta để dùng Llama. Điều này tạo ra cách thức Meta kiểm soát lâu dài và kiếm lợi từ Llama.

Chúng ta nên đánh giá mối quan hệ giữa giá cả và hiệu năng của mô hình như thế nào? So với tốc độ hoàn thành nhiệm vụ của con người bình thường, một mô hình chậm nhưng hiệu năng vượt trội có thể cực kỳ có giá trị. Mô hình Gemini mới nhất dường như đang đi theo hướng này, với cửa sổ ngữ cảnh hơn 1 triệu token. Việc mở rộng cửa sổ ngữ cảnh và chiều sâu hiểu biết có thể thay đổi cách người dùng nghĩ về ứng dụng AI. Ở đầu kia của phổ, Mistral cho thấy giá trị của các mô hình nhỏ gọn, nhanh chóng, suy luận rẻ nhưng hiệu năng cao. Bảng dưới đây phân tích chi tiết vấn đề này.

Kiến trúc của các mô hình nền tảng sẽ tiến hóa ra sao? Những mô hình đại lý với kiến trúc khác biệt có thể thay thế tiềm năng tương lai của LLM ở mức độ nào? Khi nào nên đưa vào các dạng bộ nhớ và suy luận khác?

Chính phủ có ưu tiên hoặc định hướng mua sắm cho các doanh nghiệp đầu ngành AI trong khu vực mình? Chính phủ có muốn hỗ trợ các mô hình phản ánh giá trị, ngôn ngữ và nhu cầu văn hóa địa phương khác biệt? Ngoài các nhà cung cấp dịch vụ đám mây và các công ty công nghệ lớn toàn cầu, một nguồn vốn tiềm năng khác là các quốc gia. Hiện nay ở châu Âu, Nhật Bản, Ấn Độ, Các Tiểu vương quốc Ả Rập Thống nhất, Trung Quốc và các quốc gia khác đều có những công ty mô hình lớn xuất sắc. Chỉ riêng doanh thu từ chính phủ cũng có thể tạo ra vài công ty mô hình nền tảng AI địa phương trị giá hàng tỷ đô la.
02. Vấn đề Cơ sở hạ tầng
Có nhiều loại công ty cơ sở hạ tầng với mục đích sử dụng khác nhau. Ví dụ, Braintrust cung cấp đánh giá, gợi ý, ghi log và đại lý, giúp các công ty chuyển từ phân tích AI "theo cảm tính" sang định hướng dữ liệu. Scale.ai và các công ty khác đóng vai trò then chốt trong gắn nhãn dữ liệu, tinh chỉnh và các lĩnh vực khác.

Vấn đề bất định lớn nhất trong cơ sở hạ tầng AI liên quan đến sự tiến hóa của chồng dịch vụ đám mây AI. Nhu cầu về dịch vụ đám mây AI của các công ty khởi nghiệp và doanh nghiệp lớn rất khác nhau. Đối với các công ty khởi nghiệp, các nhà cung cấp và công cụ đám mây mới (ví dụ Anyscale, Baseten, Modal, Replicate, Together...) đang đi đúng hướng, thu hút khách hàng và tăng trưởng doanh thu.
Đối với các doanh nghiệp lớn có nhu cầu đặc biệt, vẫn còn một số câu hỏi chưa được giải đáp. Ví dụ: Các công ty đám mây AI hiện tại có cần xây dựng phiên bản cục bộ/BYOC/VPN dành riêng cho doanh nghiệp lớn? Các doanh nghiệp lớn có thể tối ưu hóa:
(a) Sử dụng tín dụng thị trường đám mây hiện có đã được ngân sách hóa để mua dịch vụ;
(b) Do các vấn đề về độ trễ và hiệu năng, họ sẽ cân nhắc việc thực hiện toàn bộ vòng lặp từ ứng dụng mạng/nơi lưu trữ dữ liệu (như AWS, Azure, GCP);
(c) Quan tâm đến bảo mật, tuân thủ (như FedRAMP, HIPAA...).
Thị trường khởi nghiệp ngắn hạn của đám mây AI có thể khác với nhu cầu dài hạn của doanh nghiệp.
Việc áp dụng dịch vụ đám mây AI đến đâu là do thiếu tài nguyên GPU/khả năng định giá GPU? Trong bối cảnh các nhà cung cấp đám mây chính thiếu GPU, các công ty đang chạy đua tìm đủ GPU để đáp ứng nhu cầu, điều này thúc đẩy việc áp dụng các công ty khởi nghiệp mới sở hữu đám mây GPU riêng. Một chiến lược tiềm năng của NVIDIA có thể là ưu tiên phân bổ GPU cho các nhà cung cấp mới này nhằm giảm khả năng mặc cả của các nhà cung cấp đám mây siêu lớn, phân chia thị trường và thúc đẩy ngành công nghiệp qua các công ty khởi nghiệp. Khi nào sẽ kết thúc tình trạng nghẽn GPU, và điều đó ảnh hưởng thế nào đến các nhà cung cấp dịch vụ đám mây AI mới? Dường như việc kết thúc tình trạng thiếu GPU trên các nền tảng đám mây chính có thể tiêu cực đối với các công ty có hoạt động kinh doanh duy nhất là đám mây GPU, trong khi các công ty có thêm nhiều công cụ và dịch vụ khác sẽ dễ dàng chuyển đổi hơn nếu điều này xảy ra.
Trong dịch vụ đám mây AI, những dịch vụ nào đang được tích hợp? Họ có bán chéo các mô hình nhúng và RAG (đại lý tạo sinh có thể tái sử dụng) không? Có cung cấp cập nhật liên tục, tinh chỉnh chi tiết hoặc các dịch vụ khác không? Điều này ảnh hưởng thế nào đến những người gắn nhãn dữ liệu hoặc các công ty cung cấp dịch vụ trùng lặp? Dịch vụ nào được tích hợp trực tiếp vào nhà cung cấp mô hình, và dịch vụ nào được cung cấp qua đám mây?
Trong thị trường đám mây AI, các công ty khác nhau sẽ theo đuổi mô hình kinh doanh nào?
Thế giới đám mây AI thực sự có hai phân khúc thị trường: khởi nghiệp và doanh nghiệp vừa – lớn. Mô hình kinh doanh "chỉ GPU" mặc định phù hợp với phân khúc khởi nghiệp, nơi nhu cầu về dịch vụ đám mây thấp hơn. Với doanh nghiệp lớn, họ có thể bị giới hạn nhiều hơn bởi các ràng buộc GPU đám mây trên các nền tảng chính. Vậy, các công ty cung cấp công cụ phát triển, điểm cuối API, phần cứng chuyên dụng hoặc các lĩnh vực khác, có phát triển thành hai mô hình tương tự không — (a) mô hình "Snowflake/Databricks dành cho AI" hoặc (b) mô hình "Cloudflare dành cho AI"? Nếu có, công ty nào đang theo mô hình nào?
Quy mô của đám mây AI mới nổi lớn đến đâu? Có thể đạt quy mô Heroku, Digital Ocean, Snowflake hay AWS không?
Trong bối cảnh các mô hình có cửa sổ ngữ cảnh rất dài, chồng công nghệ AI tiến hóa ra sao? Chúng ta nên suy nghĩ thế nào về sự tương tác giữa cửa sổ ngữ cảnh, kỹ thuật gợi ý, tinh chỉnh chi tiết, RAG và chi phí suy luận?
Chính sách ngăn chặn sáp nhập của cơ quan quản lý ảnh hưởng thế nào đến thị trường này? Ít nhất có hàng chục công ty đang xây dựng sản phẩm và dịch vụ liên quan đến đám mây AI. Dưới sự quản lý của một chính phủ tích cực phản đối sáp nhập trong ngành công nghệ, các nhà khởi nghiệp nên cân nhắc chiến lược thoái vốn như thế nào? Liệu các đám mây AI có nên tích hợp với nhau để mở rộng quy mô thị trường và tối ưu hóa dịch vụ cung cấp?
03. Vấn đề Ứng dụng AI

ChatGPT là điểm khởi đầu của nhiều nhà sáng lập AI. Trước ChatGPT, cũng như Midjourney và Stable Diffusion, đa số người dùng không chú ý sát sao đến cuộc cách mạng mô hình Transformer/Diffusion đang diễn ra. Những người gần nhất với mô hình và công nghệ — các nhà nghiên cứu AI và kỹ sư cơ sở hạ tầng — là những người đầu tiên bắt đầu thành lập công ty mới dựa trên công nghệ này. Còn các kỹ sư, nhà thiết kế và quản lý sản phẩm xa rời mô hình và công nghệ thì đến nay mới nhận ra tầm quan trọng của AI.

ChatGPT ra mắt cách đây khoảng 15 tháng. Nếu quyết định nghỉ việc mất 9–12 tháng, cùng cộng sự động não ý tưởng ban đầu mất vài tháng, rồi thêm vài tháng nữa để triển khai, theo chu kỳ thời gian này, thị trường nên sớm xuất hiện một làn sóng các ứng dụng liên quan đến AI.
Ứng dụng B2B: Trong làn sóng ứng dụng B2B mới nổi, những công ty và thị trường nào sẽ trở nên quan trọng? Trong lĩnh vực nào, doanh nghiệp hiện tại sẽ tạo ra giá trị, và các công ty khởi nghiệp sẽ tạo ra giá trị?
Người tiêu dùng: Những sản phẩm AI đầu tiên là các sản phẩm "người tiêu dùng chuyên nghiệp", tức là có thể dùng cả trong cá nhân lẫn mục đích thương mại. Các ứng dụng như ChatGPT, Midjourney, Perplexity và Pika là ví dụ. Vì sao lại quá ít sản phẩm dành cho người tiêu dùng phổ thông trong hệ sinh thái AI? Nhóm sản phẩm xã hội trước đây (2007–2012) dường như không còn là người dùng sản phẩm AI ngày nay. Việc sử dụng và xây dựng sản phẩm AI cần máu mới, thu hút những người dùng thông minh và sáng tạo hơn để cùng xây dựng làn sóng AI tiêu dùng tuyệt vời tiếp theo.
Agents: AI Agents có thể làm được rất nhiều việc. Đâu sẽ là các lĩnh vực sản phẩm chuyên biệt mạnh mẽ, và đâu là các công ty khởi nghiệp đang tìm kiếm trường hợp sử dụng?
Trên đây là danh sách đầy đủ các câu hỏi đáng suy ngẫm trong lĩnh vực AI. Sự phát triển của AI tạo sinh là khoảnh khắc cách mạng công nghệ thú vị mà tất cả chúng ta đang trải qua. Chúng ta sẽ chứng kiến nhiều sáng tạo hấp dẫn và thú vị hơn nữa. Việc suy nghĩ về các câu hỏi trên có thể giúp các nhà khởi nghiệp phục vụ tốt hơn nhu cầu thị trường và thúc đẩy sự phát triển của lĩnh vực này.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News










