
Bảy tín hiệu giúp bạn hiểu AI trong tuần này: Rò rỉ mô hình, công cụ tạo mã, kiểm soát nhân sự
Tuyển chọn TechFlowTuyển chọn TechFlow

Bảy tín hiệu giúp bạn hiểu AI trong tuần này: Rò rỉ mô hình, công cụ tạo mã, kiểm soát nhân sự
Doanh thu hàng năm ước tính của Anthropic đạt 14 tỷ USD, trong khi doanh thu hàng năm ước tính riêng của Claude Code vào khoảng 2,5 tỷ USD.
Tác giả: Tara Tan / StrangeVC
Biên dịch: TechFlow
Giới thiệu của TechFlow: Bản báo cáo tuần này có mật độ thông tin rất cao, bao gồm bảy tín hiệu độc lập phản ánh những xu hướng then chốt nhất trong ngành AI.
Đáng chú ý nhất: Anthropic vô tình tiết lộ chi tiết về mô hình mới mang mã nội bộ “Capybara”, nằm trên tầng Opus, do lỗi cấu hình hệ thống quản lý nội dung (CMS).
Toàn văn như sau:
Trong vài tháng qua, chúng ta chắc chắn đã vượt qua một ngưỡng quan trọng liên quan đến khả năng hành động tự chủ (agentic). Một tác vụ từng cần bốn đến sáu tuần để xây dựng cách đây năm năm, nay chỉ mất chưa đầy năm phút. Sáu tháng trước, cùng tác vụ đó vẫn cần một đến hai giờ cộng thêm lượng lớn thời gian gỡ lỗi.
Đây là một chuyển pha khá rõ rệt mà có thể chúng ta vẫn chưa hoàn toàn tiếp nhận hết. Khoảng cách giữa ý tưởng và sản phẩm chạy được đang sụp đổ, từ đó sẽ viết lại toàn bộ ngành công nghiệp. Đây là bước tiến nhảy vọt đối với các công cụ mà con người sử dụng để xây dựng, sáng tạo và giải quyết vấn đề.
Cùng với điều này, OpenClaw trở nên ổn định rõ rệt hơn kể từ khi OpenAI thực hiện việc mua lại. Dự án này đang có lộ trình rõ ràng để trở thành một trong những dự án mã nguồn mở quan trọng nhất trong lĩnh vực AI.
Bắt đầu vào nội dung tuần này.
Sự rò rỉ về Claude Mythos của Anthropic tiết lộ thêm một tầng mô hình mới
Anthropic đã vô tình tiết lộ thông tin chi tiết về một mô hình chưa phát hành mang tên Claude Mythos do lỗi cấu hình hệ thống quản lý nội dung (CMS). Bản nháp bị rò rỉ mô tả một tầng “Capybara” mới nằm trên tầng Opus, với những bước đột phá đáng kể về lập trình, suy luận và an ninh mạng. Anthropic xác nhận đang thử nghiệm mô hình này với một số khách hàng được tiếp cận sớm, gọi đây là “một bước tiến nhảy vọt” và “mô hình mạnh nhất từng được xây dựng cho đến nay”. (Fortune, The Decoder)
Tại sao điều này quan trọng: Ngoài bản thân mô hình, có hai điểm còn đáng chú ý hơn. Thứ nhất, bản nháp bị rò rỉ cảnh báo khả năng an ninh mạng của mô hình này “vượt xa mọi mô hình AI khác”, điều này đã thúc đẩy biến động giá cổ phiếu các công ty an ninh mạng chỉ trong một ngày giao dịch. Thứ hai, việc giới thiệu thêm tầng mô hình thứ tư (Capybara nằm trên Opus) cho thấy Anthropic đang xây dựng không gian định giá dành riêng cho khách hàng doanh nghiệp, chứ không chỉ đơn thuần mở rộng không gian hiệu năng nhằm phục vụ kiểm tra đánh giá.
Claude Code đang trở thành động lực tăng trưởng cốt lõi của Anthropic
Claude Code hiện chiếm khoảng 4% tổng số lần gửi mã (commit) công khai trên GitHub và dự kiến đạt trên 20% trước cuối năm nay. Doanh thu thường niên hóa ước tính của Anthropic đạt 14 tỷ USD, trong đó riêng Claude Code đóng góp khoảng 2,5 tỷ USD/năm. Người dùng công cụ này đã mở rộng từ các nhà phát triển sang cả những người không chuyên kỹ thuật, những người đang học các lệnh dòng lệnh (terminal) để xây dựng dự án bằng công cụ này. (SemiAnalysis, Uncover Alpha, VentureBeat)
Tại sao điều này quan trọng: Claude Code đã giảm chi phí tiếp cận khách hàng gần như về mức zero nhờ việc các nhà phát triển tự nguyện áp dụng. Việc mở rộng sang các vai trò phi kỹ thuật thông qua nền tảng Cowork giúp mở rộng thị trường tiềm năng ra ngoài nhóm 28 triệu nhà phát triển chuyên nghiệp toàn cầu.
Pretext của Cheng Lou: Bố cục văn bản không phụ thuộc vào CSS
Cheng Lou — một trong những kỹ sư giao diện người dùng (UI) có ảnh hưởng nhất trong thập kỷ qua (đóng góp cho React, ReasonML, Midjourney) — vừa ra mắt Pretext, một thuật toán đo lường văn bản thuần TypeScript, hoàn toàn bỏ qua CSS, đo lường DOM và việc sắp xếp lại (reflow) trình duyệt. Các minh họa bao gồm: hiển thị ảo hóa hàng chục nghìn ô văn bản với tốc độ 120 khung hình/giây; bong bóng trò chuyện chặt khít không lãng phí một pixel nào; bố cục tạp chí đa cột đáp ứng linh hoạt; và nghệ thuật ASCII có chiều rộng thay đổi được. (Bài đăng trên X)
Tại sao điều này quan trọng: Việc bố cục và đo lường văn bản luôn là một nút thắt ngầm cản trở sự ra đời của thế hệ giao diện người dùng mới. CSS được thiết kế cho tài liệu tĩnh, chứ không phải cho các giao diện chất lỏng, do AI tạo ra và thời gian thực — vốn hiện đã trở thành tiêu chuẩn phổ biến. Nếu Pretext thực hiện được đúng như những gì minh họa, nó sẽ loại bỏ một trong những ràng buộc nền tảng cuối cùng đối với giao diện người dùng gốc AI về mặt hình thức và trải nghiệm.
Lần đầu tiên trong 35 năm, Arm xuất xưởng chip tự phát triển
Arm vừa ra mắt AGI CPU — một bộ xử lý trung tâm (CPU) dành cho trung tâm dữ liệu, có 136 nhân, được sản xuất trên quy trình 3nm của TSMC và phát triển chung với Meta. Đây là lần đầu tiên trong lịch sử công ty bán chip thành phẩm thay vì chỉ cấp phép IP. OpenAI, Cerebras và Cloudflare là những đối tác đầu tiên; việc xuất xưởng hàng loạt dự kiến bắt đầu trước cuối năm nay. (Arm Newsroom, EE Times)
Tại sao điều này quan trọng: Hiện nay, trung tâm dữ liệu AI chủ yếu dựa vào GPU. GPU đảm nhiệm huấn luyện và chạy mô hình, trong khi CPU chủ yếu xử lý luồng dữ liệu và lập lịch. Nhưng tải công việc mang tính hành động (agentic) thì khác. Khi hàng nghìn tác nhân AI (AI agent) chạy đồng thời, mỗi tác nhân đều phối hợp nhiệm vụ, gọi API, quản lý bộ nhớ và định tuyến dữ liệu giữa các hệ thống, thì toàn bộ công việc điều phối này đặt lên vai CPU. Arm khẳng định điều này sẽ làm nhu cầu CPU trên mỗi gigawatt công suất trung tâm dữ liệu tăng gấp bốn lần. (HPCwire, Futurum Group)
NVIDIA và Emerald AI biến trung tâm dữ liệu thành tài sản lưới điện
NVIDIA và Emerald AI vừa công bố liên minh với AES, Constellation, Invenergy, NextEra và Vistra nhằm xây dựng “nhà máy AI linh hoạt”, tham gia các dịch vụ cân bằng lưới điện thông qua điều chỉnh tải tính toán. Cơ sở đầu tiên mang tên Aurora tại Manassas, Virginia, dự kiến đi vào hoạt động trong nửa đầu năm 2026. (NVIDIA Newsroom, Axios)
Tại sao điều này quan trọng: Rào cản lớn nhất đối với việc mở rộng cơ sở hạ tầng AI hiện nay không phải là chip, mà là thời gian kết nối với lưới điện — ở hầu hết các khu vực, thời gian này kéo dài từ ba đến năm năm. Các trung tâm dữ liệu có khả năng chứng minh tính linh hoạt đối với lưới điện sẽ được phê duyệt kết nối nhanh hơn và gặp ít cản trở pháp lý hơn. Điều này tái định nghĩa bài toán năng lượng đối với các nhà đầu tư cơ sở hạ tầng AI: luận điểm chiến thắng không còn là “nhiều điện hơn”, mà là “điện thông minh hơn”.
Trung Quốc hạn chế xuất cảnh đối với lãnh đạo điều hành của Manus AI
Giới chức Trung Quốc đã áp đặt hạn chế xuất cảnh đối với CEO Xiao Hong và Giám đốc Khoa học Ji Yichu của Manus sau khi Meta mua lại công ty khởi nghiệp AI có trụ sở tại Singapore này với giá 2 tỷ USD. Tháng này, Ủy ban Cải cách và Phát triển Quốc gia (NDRC) đã triệu tập hai lãnh đạo này tới Bắc Kinh và áp đặt hạn chế đi lại trong suốt quá trình thanh tra giám sát. (Reuters, Washington Post)
Tại sao điều này quan trọng: Đây không phải là biện pháp hạn chế thương mại, mà là hạn chế cá nhân. Trung Quốc có thể đang gửi tín hiệu rằng các nhân tài AI có gốc đại lục là tài sản chịu kiểm soát, bất kể công ty được đăng ký ở đâu.
Mô hình ngôn ngữ lớn 400 tỷ tham số chạy cục bộ trên iPhone 17 Pro
Một dự án mã nguồn mở mang tên Flash-MoE đã trình diễn việc chạy hoàn toàn cục bộ một mô hình chuyên gia hỗn hợp (MoE) có 400 tỷ tham số trên iPhone 17 Pro, sử dụng chip A19 Pro, với kỹ thuật truyền luồng trọng số từ SSD sang GPU. Mô hình này (Qwen 3.5-397B, lượng tử hóa 2 bit, 17 tỷ tham số hoạt động) đạt tốc độ xử lý 0,6 token/giây và còn dư 5,5 GB RAM. (WCCFTech, TweakTown, Hacker News)
Tại sao điều này quan trọng: Đây chỉ là một minh chứng nguyên lý (proof-of-concept), chưa phải sản phẩm thương mại. Việc một mô hình 400 tỷ tham số có thể chạy trên điện thoại chỉ có 12 GB RAM là nhờ chỉ một phần nhỏ mô hình ở trạng thái hoạt động tại bất kỳ thời điểm nào (do cơ chế MoE), còn phần còn lại được truyền luồng theo yêu cầu từ SSD tích hợp trong điện thoại thay vì lưu trú cố định trong RAM. Tuy nhiên, nếu áp dụng cùng kỹ thuật này lên các mô hình nhỏ hơn nhiều — ví dụ như mô hình 7 tỷ hoặc 14 tỷ tham số — trên các chip di động thế hệ tiếp theo với tốc độ lưu trữ cao hơn, bạn sẽ có được một mô hình AI thực sự hữu dụng, có tốc độ hội thoại mượt mà và hoàn toàn chạy cục bộ trên thiết bị, không cần kết nối đám mây.
Tác nhân AI tự chủ hoàn tất toàn bộ thí nghiệm vật lý hạt
Các nhà nghiên cứu MIT vừa công bố một khuôn khổ mang tên JFC (Just Furnish Context), cho thấy một tác nhân LLM được xây dựng dựa trên Claude Code có khả năng tự chủ thực hiện toàn bộ quy trình phân tích vật lý năng lượng cao: lọc sự kiện, ước lượng nền, lượng hóa bất định, suy luận thống kê và soạn thảo bài báo khoa học. Hệ thống này được chạy trên dữ liệu mở từ các máy dò ALEPH, DELPHI và CMS. (arXiv 2603.20179)
Tại sao điều này quan trọng: Đây là một trong những minh chứng rõ ràng nhất cho thấy AI hành động (agentic AI) có thể tự động hóa toàn bộ quy trình công việc khoa học đầu cuối trong một lĩnh vực đòi hỏi tính nghiêm ngặt về phương pháp luận rất cao. Hàm ý đầu tư trực tiếp là tái phân tích các tập dữ liệu cũ trong các lĩnh vực như vật lý, genomics và khoa học vật liệu — những kho dữ liệu lưu trữ hàng chục năm nay vẫn chưa được khai thác đầy đủ.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News














