
Bàn tròn với bảy nhà đồng sáng lập: Anthropic ra đời như thế nào?
Tuyển chọn TechFlowTuyển chọn TechFlow

Bàn tròn với bảy nhà đồng sáng lập: Anthropic ra đời như thế nào?
“Không ai muốn khởi nghiệp, nhưng lại cảm thấy mình buộc phải làm vậy.”
Tổng hợp & Biên dịch: TechFlow

Khách mời: Chris Olah, Jack Clark, Daniela Amodei, Sam McCandlish, Tom Brown, Dario Amodei và Jared Kaplan – đồng sáng lập Anthropic
Nguồn podcast: Anthropic
Tựa đề gốc: Xây dựng Anthropic | Một cuộc trò chuyện với các đồng sáng lập
Ngày phát hành: 20 tháng 12 năm 2024
Tóm tắt trọng tâm
Trong tuần qua, Anthropic đã liên tiếp gặp hai sự cố:
Đầu tiên là gần 3.000 tài liệu nội bộ bị truy cập công khai do cấu hình sai hệ thống quản lý nội dung (CMS); ngay sau đó, phiên bản Claude Code v2.1.88 được đăng tải lên npm kèm theo file source map nặng tới 59,8 MB, khiến 510.000 dòng mã nguồn phơi bày trần trụi.
Một công ty ghi “an toàn” vào gen của mình lại liên tục thất bại trong vận hành nội bộ — mỉa mai đến mức cực điểm.
Tuy nhiên, trước khi vội chế giễu, hãy quay lại lắng nghe một buổi trò chuyện nội bộ giữa bảy đồng sáng lập Anthropic cách đây hơn một năm. Tập podcast này được ghi âm vào tháng 12 năm 2024, trong đó bảy người cùng thảo luận về quá trình thành lập công ty, quá trình tôi luyện chính sách mở rộng có trách nhiệm (RSP – Responsible Scaling Policy), vì sao không thể dùng tùy tiện từ “an toàn”, cũng như câu nói nổi tiếng của CEO Dario Amodei:
“Nếu một tòa nhà reo chuông báo cháy mỗi tuần, thì thực tế đó là một tòa nhà cực kỳ bất an.”
Giờ nghe lại câu nói ấy, vị cay đắng quả thật khác hẳn.
Bảy đồng sáng lập – nhận diện nhanh
Dario Amodei|CEO, nguyên Phó Chủ tịch Nghiên cứu tại OpenAI, xuất thân từ thần kinh học, là người cuối cùng quyết định chiến lược và lộ trình an toàn của Anthropic. Trong cuộc đối thoại này, ông phát biểu nhiều nhất.
Daniela Amodei|Tổng giám đốc, chị gái của Dario. Trước đây làm việc tại Stripe trong 5 năm rưỡi, phụ trách đội ngũ tin cậy và an toàn; còn trước đó từng làm trong lĩnh vực phi lợi nhuận và phát triển quốc tế. Việc xây dựng tổ chức và giao tiếp bên ngoài của Anthropic chủ yếu do bà đảm nhiệm.
Jared Kaplan|Giáo sư vật lý chuyển sang nghiên cứu AI, là một trong những tác giả cốt lõi của “luật mở rộng” (scaling laws). Ông thường đưa ra đánh giá từ góc nhìn người ngoài, tự nhận ban đầu làm AI vì “làm vật lý chán rồi”.
Chris Olah|Nhân vật tiêu biểu trong nghiên cứu khả năng giải thích (interpretability), 19 tuổi đã gia nhập cộng đồng AI vùng Vịnh, từng làm việc tại Google Brain và OpenAI. Là người mang đậm màu sắc lý tưởng chủ nghĩa kỹ thuật nhất tại Anthropic.
Tom Brown|Tác giả đầu tiên của bài báo GPT-3, hiện phụ trách tài nguyên tính toán tại Anthropic. Góc nhìn thiên về kỹ thuật và hạ tầng; trong podcast, ông chia sẻ khá nhiều về hành trình từ “không tin AI sẽ phát triển nhanh đến thế” đến thay đổi quan điểm.
Jack Clark|Nguyên phóng viên công nghệ của Bloomberg, hiện là người đứng đầu chính sách và quan hệ công chúng tại Anthropic. Trong cuộc trò chuyện này, ông đóng vai người dẫn chương trình, điều phối và đặt câu hỏi.
Sam McCandlish|Đồng sáng lập nghiên cứu, người phát biểu ít nhất nhưng thường một câu chạm đúng trọng tâm — vai “đòn kết liễu”.
Tóm tắt những quan điểm nổi bật

Vì sao làm AI: Từ cảm giác nhàm chán trong vật lý đến “nhìn đủ rồi thì tin”
Jared Kaplan: “Tôi từng làm vật lý rất lâu, thấy hơi nhàm chán, cũng muốn làm việc cùng nhiều bạn bè hơn, nên chuyển sang làm AI.”
Dario Amodei: “Tôi không nghĩ mình từng thuyết phục rõ ràng bạn điều gì cả. Tôi chỉ đơn giản là liên tục cho bạn xem kết quả của các mô hình AI, để chứng minh chúng rất tổng quát, không chỉ áp dụng cho một vấn đề duy nhất. Đến một lúc nào đó, khi tôi đã cho bạn xem đủ nhiều, bạn liền nói: ‘Ừ, điều này xem ra đúng đấy.’”
Đặt cược ngược xu hướng: Phần lớn sự đồng thuận chỉ là hiệu ứng bầy đàn ngụy trang thành chín chắn
Jared Kaplan: “Nhiều nhà nghiên cứu AI từng bị tổn thương tâm lý sâu sắc bởi ‘mùa đông AI’, cứ như thể nuôi hoài bão là điều bị cấm.”
Dario Amodei: “Bài học sâu sắc nhất tôi rút ra trong mười năm qua là: Nhiều điều mà ‘mọi người đều biết’ thực chất chỉ là hiệu ứng bầy đàn ngụy trang thành sự chín chắn. Bạn chỉ cần chứng kiến vài lần sự đồng thuận bị lật đổ hoàn toàn trong một đêm, bạn sẽ nói: Không, chúng ta cứ đặt cược vào điều này. Dù xác suất đúng chỉ 50%, bạn vẫn đóng góp được rất nhiều điều mà người khác chưa từng đóng góp.”
An toàn và mở rộng quy mô là hai yếu tố đan xen chặt chẽ
Dario Amodei: “Một trong những động cơ thúc đẩy chúng tôi mở rộng mô hình hồi đó là: Mô hình phải đủ thông minh trước thì mới áp dụng được RLHF (học tăng cường dựa trên phản hồi con người). Đó cũng chính là niềm tin chúng tôi vẫn giữ vững đến ngày nay: An toàn và mở rộng quy mô là hai mặt đan xen không thể tách rời.”
RSP – Chính sách mở rộng có trách nhiệm là “hiến pháp” của Anthropic
Tom Brown: “Đối với Anthropic, RSP giống như hiến pháp của chúng tôi. Đây là một văn kiện nền tảng mang tính định hướng, vì vậy chúng tôi sẵn sàng đầu tư rất nhiều thời gian và công sức để mài giũa nó một cách cẩn trọng.”
Dario Amodei: “RSP sẽ ngăn chặn mọi kế hoạch không đáp ứng tiêu chuẩn an toàn tiếp tục tiến triển. Chúng tôi không chỉ hô hào suông, mà thực sự tích hợp an toàn vào từng khâu.”
Chuông báo cháy reo quá nhiều lần, khi thực sự cháy thì chẳng ai chạy
Daniela Amodei: “Chúng ta không thể tùy tiện dùng từ ‘an toàn’ để điều khiển tiến độ công việc. Mục tiêu thực sự của chúng ta là giúp mọi người hiểu rõ chúng ta đang nói đến loại an toàn nào.”
Dario Amodei: “Thứ thực sự gây tổn hại cho an toàn thường lại là những ‘luyện tập an toàn’ diễn ra quá thường xuyên. Nếu một tòa nhà mỗi tuần đều reo chuông báo cháy, thì thực tế đó là một tòa nhà cực kỳ bất an.”
‘Thất bại cao thượng’ là một cái bẫy
Chris Olah: “Có một quan niệm cho rằng hành vi đạo đức nhất là hy sinh các mục tiêu khác vì an toàn, nhằm thể hiện sự thuần khiết tuyệt đối đối với sự nghiệp. Nhưng cách làm này thực chất là tự làm hại mình, vì nó sẽ khiến quyền ra quyết định rơi vào tay những người không coi trọng an toàn.”
Các đồng sáng lập cam kết quyên góp 80% thu nhập
Tom Brown: “Chúng tôi cùng cam kết quyên góp 80% thu nhập cho các hoạt động thúc đẩy sự phát triển xã hội — đây là điều tất cả đều ủng hộ dứt khoát.”
Không ai muốn khởi nghiệp, nhưng đều cảm thấy bắt buộc phải làm
Sam McCandlish: “Thực tế, trong số chúng tôi không ai ban đầu có ý định thành lập công ty. Chúng tôi chỉ cảm thấy đây là trách nhiệm của mình, bởi đây là con đường duy nhất đảm bảo AI phát triển đúng hướng.”
Daniela Amodei: “Sứ mệnh của chúng ta vừa rõ ràng vừa thuần khiết — điều hiếm thấy trong ngành công nghệ.”
Khả năng giải thích: Trong mạng nơ-ron ẩn chứa cả một ‘sinh học nhân tạo’ đầy đủ
Chris Olah: “Mạng nơ-ron thật tuyệt vời, và còn rất nhiều vẻ đẹp mà chúng ta chưa từng thấy. Đôi khi tôi tưởng tượng, mười năm nữa bước vào một hiệu sách, mua một cuốn giáo trình về ‘sinh học mạng nơ-ron’, trong đó sẽ có vô vàn điều khiến người ta kinh ngạc.”
Dùng AI để tăng cường dân chủ, chứ không biến nó thành công cụ độc tài
Dario Amodei: “Chúng tôi lo ngại nếu AI bị phát triển sai cách, nó có thể trở thành công cụ của chủ nghĩa độc tài. Làm thế nào để biến AI thành công cụ thúc đẩy tự do và quyền tự quyết? Tầm quan trọng của lĩnh vực này không hề kém cạnh so với sinh học hay khả năng giải thích.”
Từ hội nghị Nhà Trắng đến giải Nobel: Ảnh hưởng của AI đã vượt xa giới kỹ thuật
Jared Kaplan: “Năm 2018, bạn sẽ không ngờ Tổng thống gọi bạn lên Nhà Trắng để nói rằng họ đang theo dõi các mô hình ngôn ngữ.”
Dario Amodei: “Chúng ta đã chứng kiến giải Nobel Hóa học được trao cho AlphaFold. Chúng ta cần nỗ lực phát triển những công cụ giúp tạo ra hàng trăm ‘AlphaFold’ như thế.”
Vì sao nghiên cứu AI?
Jack Clark: Vì sao ban đầu chúng ta lại chọn làm AI? Jared, vì sao anh làm AI?
Jared Kaplan:
Tôi từng làm vật lý rất lâu, thấy hơi nhàm chán, cũng muốn làm việc cùng nhiều bạn bè hơn, nên chuyển sang làm AI.
Tom Brown:
Tôi cứ tưởng là Dario thuyết phục anh ấy.
Dario Amodei:
Tôi không nghĩ mình từng “thuyết phục” rõ ràng anh ấy điều gì cả. Tôi chỉ đơn giản là liên tục cho anh ấy xem kết quả của các mô hình AI, để chứng minh chúng rất tổng quát, không chỉ áp dụng cho một vấn đề duy nhất. Đến một lúc nào đó, khi tôi đã cho anh ấy xem đủ nhiều, anh ấy liền nói: “Ừ, điều này xem ra đúng đấy.”
Jack Clark: Chris, lúc anh làm nghiên cứu khả năng giải thích, anh quen mọi người ở Google à?
Chris Olah:
Không. Thực ra tôi đã quen nhiều người trong số các bạn từ lần đầu tiên đến vùng Vịnh năm 19 tuổi. Lúc ấy tôi gặp Dario và Jared, hai người đang làm nghiên cứu sau tiến sĩ, và tôi thấy họ đặc biệt ngầu. Sau đó tôi làm việc tại Google Brain, Dario gia nhập và chúng tôi từng ngồi cạnh nhau một thời gian; tôi cũng từng làm việc cùng Tom, rồi sau đó đến OpenAI thì làm việc cùng tất cả các bạn.
Jack Clark:
Tôi nhớ năm 2015 từng gặp Dario tại một hội nghị để phỏng vấn anh ấy, PR của Google còn bảo tôi phải đọc hết tất cả bài báo của anh ấy trước đã.
Dario Amodei:
Lúc ấy tôi đang viết bài báo Concrete Problems in AI Safety tại Google.
Sam McCandlish:
Trước khi tôi bắt đầu cộng tác với anh, anh từng mời tôi đến văn phòng nói chuyện, như thể trình bày toàn bộ AI một cách tổng quan. Tôi nhớ sau buổi nói chuyện ấy, tôi nghĩ: “Hóa ra chuyện này nghiêm trọng hơn nhiều so với những gì tôi từng nhận thức.” Lúc ấy anh đã nói về “khối tính toán khổng lồ”, số lượng tham số, quy mô neuron não người, v.v.
Sự mở rộng mang tính đột phá
Jack Clark: Tôi nhớ khi làm luật mở rộng tại OpenAI, việc mở rộng mô hình bắt đầu thực sự hiệu quả, và điều kỳ lạ là nó liên tục phát huy hiệu lực trên rất nhiều dự án — từ GPT-2 đến luật mở rộng rồi đến GPT-3 — chúng ta cứ thế tiến gần hơn và gần hơn.
Dario Amodei: Chúng ta chính là “đám người làm được việc” ấy.
Jared Kaplan: Chúng tôi cũng đều rất hào hứng với an toàn. Hồi ấy có một ý tưởng: AI sẽ rất mạnh, nhưng có thể không hiểu giá trị con người, thậm chí không thể giao tiếp với chúng ta. Mô hình ngôn ngữ phần nào đảm bảo nó phải hiểu rất nhiều kiến thức ngầm.
Dario Amodei:
Còn có RLHF trên mô hình ngôn ngữ. Một trong những động cơ thúc đẩy chúng tôi mở rộng mô hình hồi đó là: Mô hình phải đủ thông minh trước thì mới áp dụng được RLHF. Đó cũng chính là niềm tin chúng tôi vẫn giữ vững đến ngày nay: An toàn và mở rộng quy mô là hai mặt đan xen không thể tách rời.
Chris Olah:
Đúng vậy, hồi ấy công việc mở rộng thực chất cũng là một phần của nhóm an toàn. Bởi chúng tôi cho rằng, muốn khiến mọi người nghiêm túc đối với an toàn, trước hết phải có khả năng dự báo xu hướng AI.
Jack Clark: Tôi nhớ mình từng ở một sân bay tại Anh, dùng GPT-2 tạo mẫu tin giả rồi gửi lên Slack cho Dario với lời nhắn: “Cái này thật sự dùng được, có thể gây ảnh hưởng chính sách khổng lồ.” Tôi nhớ Dario trả lời chỉ một chữ: “Ừ.”
Sau đó chúng tôi cũng làm rất nhiều công việc liên quan đến phát hành — thật điên rồ.
Daniela Amodei:
Tôi nhớ đoạn phát hành ấy — đó là lần đầu tiên chúng ta thực sự bắt đầu hợp tác, với việc phát hành GPT-2.
Jack Clark:
Tôi nghĩ điều đó rất hữu ích với chúng ta: trước tiên cùng làm một việc “có phần kỳ lạ nhưng định hướng an toàn”, rồi sau đó cùng làm Anthropic — một việc quy mô lớn hơn, cũng kỳ lạ nhưng vẫn định hướng an toàn.
Giai đoạn khởi đầu của AI
Tom Brown: Quay lại bài báo Concrete Problems. Tôi gia nhập OpenAI năm 2016, lúc ấy cả anh và tôi đều là những người đầu tiên, và tôi cảm thấy bài báo này giống như bài báo đầu tiên về an toàn AI trong giới mainstream. Nó ra đời thế nào?
Dario Amodei:
Chris biết chuyện này, anh ấy tham gia viết. Hồi ấy chúng tôi ở Google, tôi quên mất lúc ấy mình đang làm dự án chính nào rồi, bài báo này như thể là sản phẩm tôi viết để trì hoãn công việc chính.
Chúng tôi muốn liệt kê những vấn đề mở về an toàn AI. Hồi ấy an toàn AI luôn được nói một cách rất trừu tượng, nên chúng tôi muốn gắn nó với ML thực tế đương thời. Giờ đã sáu bảy năm trôi qua, nhưng hồi ấy đây là một ý tưởng kỳ lạ.
Chris Olah:
Tôi cho rằng nó, theo một nghĩa nào đó, gần như là một dự án chính trị. Hồi ấy nhiều người không coi trọng an toàn. Chúng tôi muốn biên soạn một danh sách các vấn đề được thừa nhận là hợp lý, nhiều vấn đề vốn đã tồn tại trong văn hiến, rồi tìm những người có uy tín liên tổ chức để cùng ký tên.
Tôi nhớ mình đã dành rất nhiều thời gian để trao đổi với hơn hai chục nhà nghiên cứu tại Brain nhằm giành được sự ủng hộ cho việc công bố. Nếu chỉ xét riêng các vấn đề, có thể ngày nay nhìn lại chúng không còn hoàn toàn đúng, hoặc không phải là những vấn đề then chốt nhất. Nhưng nếu nhìn dưới góc độ xây dựng đồng thuận — chứng minh “đây là những vấn đề thực sự tồn tại, đáng để đối xử nghiêm túc” — thì đây là một khoảnh khắc quan trọng.
Jack Clark:
Cuối cùng bạn sẽ bước vào một thế giới khoa học viễn tưởng kỳ lạ đến mức khó tin. Tôi nhớ hồi đầu Anthropic nói về Constitutional AI (AI Hiến pháp), Jared nói: ‘Chúng ta viết một bản hiến pháp cho mô hình ngôn ngữ, hành vi của nó sẽ thay đổi.’ Nghe lúc ấy thật điên rồ. Vì sao các bạn lại thấy điều đó khả thi?
Jared Kaplan:
Tôi thảo luận rất lâu với Dario. Tôi cho rằng trong AI, những phương pháp đơn giản thường hiệu quả cực kỳ cao. Phiên bản đầu tiên khá phức tạp, sau đó chúng tôi liên tục cắt giảm, cuối cùng chỉ còn lại: tận dụng ưu thế của mô hình trong việc lựa chọn đáp án, đưa ra lời nhắc rõ ràng để nó biết cần tìm kiếm điều gì là đủ, rồi chúng ta có thể trực tiếp viết ra các nguyên tắc.
Dario Amodei:
Điều này quay lại với “khối tính toán khổng lồ” (The Big Blob of Compute), “bài học cay đắng” (The Bitter Lesson), và “giả thuyết mở rộng” (Scaling Hypothesis): Miễn là bạn có thể đưa cho AI một mục tiêu rõ ràng và dữ liệu phù hợp, nó sẽ học được. Một tập lệnh, một tập nguyên tắc — mô hình ngôn ngữ có thể đọc chúng, cũng có thể đối chiếu chúng với hành vi của chính mình, và mục tiêu huấn luyện đã nằm sẵn ở đó. Vì vậy, quan điểm của tôi và Jared là: Có thể làm được, chỉ cần điều chỉnh chi tiết một cách cẩn trọng.
Jared Kaplan:
Với tôi, điều này hồi đầu rất kỳ lạ. Tôi chuyển từ vật lý sang, giờ mọi người đều hào hứng với AI, nên dễ quên đi bầu không khí hồi ấy. Tôi từng bàn bạc những điều này với Dario, và cảm thấy nhiều nhà nghiên cứu AI bị tổn thương tâm lý sâu sắc bởi “mùa đông AI”, cứ như thể “nuôi hoài bão” là điều bị cấm. Muốn bàn về an toàn, trước hết phải tin rằng AI có thể cực kỳ mạnh và hữu dụng, nhưng hồi ấy lại tồn tại một lệnh cấm chống hoài bão. Một ưu thế của các nhà vật lý là “sự kiêu ngạo”: họ thường làm những việc rất hoài bão, quen thuộc với việc bàn luận những viễn cảnh vĩ đại.
Dario Amodei:
Tôi nghĩ điều này đúng thật. Năm 2014, có rất nhiều điều không thể nói ra. Điều này cũng giống như vấn đề chung trong giới học thuật: ngoài một vài lĩnh vực, các tổ chức ngày càng ghét rủi ro, và AI trong công nghiệp cũng thừa hưởng tâm lý này. Tôi cho rằng đến khoảng năm 2022, tình trạng này mới dần thay đổi.
Chris Olah:
Còn có hai dạng “bảo thủ”: một là nghiêm túc xem xét rủi ro, hai là coi việc nghiêm túc xem xét và tin rằng ý tưởng có thể thành công là biểu hiện của sự kiêu ngạo. Hồi ấy, dạng thứ hai chiếm ưu thế. Trong lịch sử, cuộc thảo luận về vật lý hạt nhân năm 1939 cũng tương tự: Fermi phản đối, còn Szilard hay Teller lại nghiêm túc xem xét rủi ro hơn.
Dario Amodei:
Bài học sâu sắc nhất tôi rút ra trong mười năm qua là: Nhiều điều ‘mọi người đều biết’ thực chất chỉ là hiệu ứng bầy đàn ngụy trang thành sự chín chắn. Bạn chỉ cần chứng kiến vài lần sự đồng thuận bị lật đổ hoàn toàn trong một đêm, bạn sẽ nói: Không, chúng ta cứ đặt cược vào điều này. Có thể không chắc chắn đúng, nhưng bỏ qua tiếng ồn để đặt cược. Dù xác suất đúng chỉ 50%, bạn vẫn đóng góp được rất nhiều điều mà người khác chưa từng đóng góp.
Sự thay đổi thái độ của công chúng đối với trí tuệ nhân tạo
Jared Kaplan: Ngày nay, trong một số vấn đề an toàn cũng vậy: đồng thuận bên ngoài cho rằng nhiều vấn đề an toàn sẽ không tự nhiên nảy sinh từ công nghệ, nhưng tại Anthropic, qua nghiên cứu chúng tôi thấy chúng thực sự tự nhiên nảy sinh.
Daniela Amodei:
Nhưng trong 18 tháng qua, điều này đang thay đổi, đồng thời cảm xúc của thế giới đối với AI cũng rõ ràng thay đổi. Khi làm nghiên cứu người dùng, chúng tôi ngày càng thường xuyên nghe người dùng bình thường lo ngại về ảnh hưởng tổng thể của AI đối với thế giới.
Đôi khi là về công việc, thiên lệch, độc hại; đôi khi là “liệu nó có làm rối tung thế giới, thay đổi cách con người hợp tác”, điều này thực tế tôi cũng chưa hoàn toàn dự đoán được.
Sam McCandlish:
Không hiểu sao, giới nghiên cứu ML thường bi quan hơn công chúng về khả năng “AI trở nên cực kỳ mạnh”.
Jared Kaplan:
Năm 2023, tôi và Dario đến Nhà Trắng. Trong cuộc họp, bà Harris và ông Raimondo chủ yếu nói rằng: “Chúng tôi đang theo sát các anh, AI là việc lớn, chúng tôi đang theo dõi nghiêm túc.” Nhưng năm 2018, bạn sẽ không ngờ “Tổng thống gọi bạn lên Nhà Trắng để nói rằng họ đang theo dõi các mô hình ngôn ngữ”.
Tom Brown:
Điều thú vị là nhiều người trong chúng ta tham gia vào việc này khi mọi thứ vẫn còn chưa chắc chắn, giống như Fermi hoài nghi về bom nguyên tử. Có một số bằng chứng cho thấy bom nguyên tử có thể được chế tạo, nhưng cũng có rất nhiều bằng chứng cho thấy nó sẽ không thành công; thế nhưng cuối cùng ông ấy quyết định thử. Vì nếu điều đó là thật, ảnh hưởng sẽ rất lớn, nên việc thử là xứng đáng.
Từ năm 2015–2017, có một số bằng chứng, và ngày càng gia tăng, cho thấy AI có thể là một việc lớn. Năm 2016, tôi từng nói chuyện với giáo sư hướng dẫn: “Tôi từng khởi nghiệp, giờ muốn làm an toàn AI, nhưng toán học không đủ mạnh, không biết phải làm sao.” Lúc ấy có người nói tôi phải thành thạo lý thuyết ra quyết định; có người nói sẽ không xảy ra sự kiện AI điên cuồng nào cả, và những người thực sự ủng hộ rất ít.
Jack Clark:
Tôi từng bị coi là kẻ điên khi làm báo cáo về xu hướng ImageNet năm 2014. Năm 2015, tôi muốn viết về NVIDIA vì các bài báo đều nhắc đến GPU, cũng bị nói là điên; năm 2016 rời báo chí để chuyển sang AI, còn có email nói rằng “anh vừa phạm sai lầm lớn nhất đời”. Từ nhiều góc nhìn, việc đặt cược nghiêm túc vào “việc mở rộng sẽ thành công” thực sự giống như điên rồ.
Jared Kaplan: Anh quyết định thế nào? Có do dự không?
Jack Clark:
Tôi đặt cược ngược: yêu cầu làm phóng viên AI toàn thời gian với lương tăng gấp đôi, tôi biết họ sẽ không chấp nhận. Thế rồi ngủ dậy là nghỉ việc luôn. Bởi mỗi ngày tôi đều đọc hồ sơ lưu trữ,tôi luôn cảm thấy một chuyện điên rồ lớn đang diễn ra, và đến một thời điểm nào đó, bạn phải đặt cược với niềm tin cao.
Tom Brown:
Tôi không quyết đoán đến thế, tôi do dự suốt sáu tháng.
Daniela Amodei:
Hơn nữa, hồi ấy “kỹ sư cũng có thể thúc đẩy AI một cách đáng kể” chưa phải là quan điểm phổ biến. Hồi ấy là “chỉ nhà nghiên cứu mới làm được AI”, nên sự do dự của anh là điều dễ hiểu.
Tom Brown:
Sau đó OpenAI nói rằng “anh có thể hỗ trợ an toàn AI thông qua kỹ thuật”, điều đó mới khiến tôi gia nhập.Daniela, lúc anh làm ở OpenAI thì em là quản lý của anh, vì sao em gia nhập?
Daniela Amodei:
Tôi làm việc tại Stripe năm năm rưỡi, Greg từng là cấp trên của tôi. Tôi còn giới thiệu Greg với Dario. Lúc ấy ông ấy đang thành lập OpenAI, tôi nói với ông ấy: “Người thông minh nhất tôi từng biết là Dario. Nếu ông ấy gia nhập đội, đó thực sự là may mắn của ông.” Sau đó, Dario gia nhập OpenAI.
Có lẽ giống anh, tôi cũng đang cân nhắc sau khi rời Stripe sẽ làm gì. Tôi gia nhập Stripe vì trước đó làm trong lĩnh vực phi lợi nhuận và phát triển quốc tế, tôi cảm thấy mình cần thêm kỹ năng, thực tế lúc ấy tôi còn tưởng mình cuối cùng sẽ quay lại lĩnh vực đó.
Trước khi gia nhập Stripe, tôi cảm thấy mình chưa đủ năng lực để giúp đỡ những người kém may mắn hơn mình. Vì vậy tôi theo dõi các công ty công nghệ khác, hy vọng tìm ra một cách mới để tạo ra ảnh hưởng lớn hơn, và OpenAI lúc ấy khiến tôi cảm thấy đây là một lựa chọn tốt. Đó là một tổ chức phi lợi nhuận, theo đuổi một mục tiêu rất quan trọng và vĩ đại.
Tôi luôn tin vào tiềm năng của AI, vì tôi cũng biết một chút về Dario, và họ thực sự cần người giúp quản lý, nên tôi cảm thấy công việc này rất phù hợp với nền tảng của mình. Tôi lúc ấy nghĩ: “Đây là một tổ chức phi lợi nhuận, tập hợp một nhóm người rất xuất sắc, mang trong mình tầm nhìn đẹp đẽ, nhưng cách vận hành dường như còn lộn xộn.” Chính thách thức này khiến tôi cảm thấy phấn khích, vì tôi có thể gia nhập và thay đổi điều đó.
Lúc ấy tôi cảm thấy mình như một “siêu nhân đa năng”, vừa phụ trách quản lý thành viên nhóm, vừa dẫn dắt một số nhóm kỹ thuật, vừa phụ trách mở rộng tổ chức, tôi phụ trách công việc mở rộng tổ chức, cũng từng làm trong nhóm ngôn ngữ, sau đó còn đảm nhận thêm một số nhiệm vụ khác. Tôi cũng tham gia một số công việc liên quan đến chính sách, và từng cộng tác với Chris. Tôi cảm thấy công ty có rất nhiều nhân tài xuất sắc, điều này khiến tôi đặc biệt muốn gia nhập để giúp công ty vận hành hiệu quả và có trật tự hơn.
Jack Clark: Tôi nhớ sau khi làm xong GPT-3, em từng nói: ‘Các anh đã từng nghe đến trust and safety chưa?’
Daniela Amodei:
Tôi từng phụ trách đội trust and safety tại Stripe. Với công nghệ như thế này, các anh có thể cần cân nhắc vấn đề tin cậy và an toàn. Thực tế đây là cây cầu nối giữa nghiên cứu an toàn AI (AI Safety Research) và công việc thực tiễn hàng ngày — tức là làm thế nào để mô hình thực sự an toàn.
Việc đưa ra tuyên bố “công nghệ này trong tương lai sẽ gây ảnh hưởng lớn” là rất quan trọng. Đồng thời, chúng ta cũng cần thực hiện một số công việc thực tiễn hơn trong đời sống thường nhật, để chuẩn bị nền tảng cho các tình huống rủi ro cao hơn trong tương lai.
Chính sách mở rộng có trách nhiệm: Đảm bảo sự phát triển an toàn của AI
Jack Clark: Điều này vừa khéo dẫn đến việc nói về ‘Chiến lược mở rộng có trách nhiệm’ (RSP – Responsible Scaling Policy) — nó được đề xuất như thế nào, vì sao chúng ta lại nghĩ ra nó, và hiện nay chúng ta đang áp dụng nó ra sao, đặc biệt là trong bối cảnh công việc hiện tại về niềm tin và an toàn của mô hình. Vậy, RSP (Chiến lược mở rộng có trách nhiệm) do ai đề xuất đầu tiên?
Dario Amodei:
Ý tưởng ban đầu xuất phát từ tôi và Paul Christiano, vào cuối năm 2022. Ý tưởng khởi đầu là: Liệu chúng ta có nên tạm thời hạn chế mở rộng mô hình cho đến một kích thước nhất định, cho đến khi tìm ra giải pháp cho một số vấn đề an toàn?
Nhưng sau đó chúng tôi thấy việc chỉ hạn chế mở rộng tại một điểm rồi thả lỏng trở lại là điều khá kỳ lạ. Vì vậy, chúng tôi quyết định thiết lập một loạt ngưỡng: mỗi khi mô hình đạt đến một ngưỡng, cần tiến hành một loạt kiểm tra để đánh giá xem mô hình đã có đủ năng lực an toàn tương ứng hay chưa.
Mỗi khi đạt đến một ngưỡng, chúng ta đều cần áp dụng các biện pháp an toàn và bảo đảm nghiêm ngặt hơn. Tuy nhiên, ngay từ đầu chúng tôi đã có một ý tưởng: Nếu việc này do bên thứ ba thực hiện thì sẽ tốt hơn. Nghĩa là chiến lược này không nên do một công ty nào đó tự chịu trách nhiệm, vì các công ty khác có thể sẽ không sẵn sàng áp dụng chiến lược này. Do đó, Paul tự tay thiết kế chiến lược này. Tất nhiên, theo thời gian, rất nhiều chi tiết trong đó cũng đã thay đổi. Còn phía đội chúng tôi thì luôn nghiên cứu làm thế nào để chiến lược này vận hành hiệu quả hơn.
Khi Paul hoàn thiện khái niệm này, ông gần như vừa công bố khái niệm, chúng tôi đã phát hành phiên bản của mình trong vòng một hoặc hai tháng. Thực tế, rất nhiều thành viên trong đội chúng tôi đã tham gia sâu vào quá trình này. Tôi nhớ mình ít nhất đã viết một bản nháp đầu tiên, nhưng toàn bộ tài liệu đã trải qua nhiều lần sửa đổi.
Tom Brown:
RSP đối với Anthropic giống như “hiến pháp” của chúng tôi. Đây là một văn kiện nền tảng mang tính định hướng, vì vậy chúng tôi sẵn sàng đầu tư rất nhiều thời gian và công sức để mài giũa nó một cách cẩn trọng, đảm bảo tính chính xác và hoàn thiện của nó.
Daniela Amodei:
Tôi cho rằng RSP trong quá trình phát triển của Anthropic thực sự rất thú vị. Nó đã trải qua nhiều giai đoạn, đồng thời cũng cần nhiều kỹ năng khác nhau để thúc đẩy việc triển khai. Ví dụ, có một số ý tưởng vĩ mô, phần này chủ yếu do Dario, Paul, Sam và Jared đảm nhiệm, họ suy nghĩ: “Nguyên tắc cốt lõi của chúng ta là gì? Chúng ta muốn truyền tải thông điệp nào? Làm thế nào để xác định hướng đi của mình là đúng?”
Nhưng ngoài ra, còn có rất nhiều công việc thực tiễn ở cấp độ vận hành, ví dụ trong quá trình lặp lại liên tục, chúng ta sẽ đánh giá và điều chỉnh một số chi tiết. Chẳng hạn, chúng ta từng dự kiến sẽ đạt được một số mục tiêu nhất định ở một cấp độ an toàn nào đó, nhưng nếu không đạt được, chúng ta sẽ đánh giá lại và đảm bảo có thể chịu trách nhiệm về kết quả công việc của mình.
Ngoài ra, còn rất nhiều điều chỉnh liên quan đến cơ cấu tổ chức. Ví dụ, chúng ta quyết định thiết kế lại cơ cấu tổ chức của RSP để phân chia trách nhiệm rõ ràng hơn. Tôi rất thích dùng hiến pháp để so sánh tầm quan trọng của tài liệu này. Như Hoa Kỳ để đảm bảo việc thực thi hiến pháp, đã xây dựng cả một hệ thống và tổ chức gồm tòa án, tòa án tối cao, tổng thống, thượng viện và hạ viện. Mặc dù những tổ chức này còn đảm nhiệm nhiều nhiệm vụ khác, nhưng sự tồn tại của chúng phần lớn là để bảo vệ hiến pháp, và RSP của chúng tôi tại Anthropic cũng đang trải qua một quá trình tương tự.
Sam McCandlish:
Tôi cho rằng điều này thực chất phản ánh quan điểm cốt lõi của chúng ta về vấn đề an toàn: vấn đề an toàn là có thể giải quyết được. Đây là một nhiệm vụ rất phức tạp và khó khăn, đòi hỏi đầu tư rất nhiều thời gian và công sức.
Giống như lĩnh vực an toàn ô tô, các thể chế và tổ chức liên quan là kết quả của quá trình phát triển kéo dài nhiều năm. Nhưng vấn đề chúng ta đang đối mặt là: Chúng ta có đủ thời gian để hoàn thành những công việc này không? Vì vậy, chúng ta phải nhanh chóng xác định các thể chế then chốt cần thiết cho an toàn AI và tiên phong xây dựng chúng tại đây, đồng thời đảm bảo các thể chế này có thể được nơi khác học hỏi và phổ biến.
Dario Amodei:
Điều này cũng giúp thống nhất hợp tác nội bộ, bởi nếu bất kỳ bộ phận nào trong tổ chức hành xử trái với giá trị an toàn của chúng ta, RSP sẽ bằng cách nào đó phơi bày vấn đề, đúng không? RSP sẽ ngăn chặn họ tiếp tục triển khai các kế hoạch không đáp ứng tiêu chuẩn an toàn. Vì vậy, nó cũng trở thành một công cụ nhắc nhở liên tục với mọi người, đảm bảo an toàn trở thành yêu cầu cơ bản trong quá trình phát triển sản phẩm và lập kế hoạch.Chúng tôi không chỉ hô hào suông, mà thực sự tích hợp an toàn vào từng khâu. Nếu ai đó gia nhập đội mà không thể đồng thuận với những nguyên tắc này, họ sẽ nhận ra mình không thể hòa nhập. Hoặc là thích nghi với hướng đi này, hoặc sẽ thấy khó tiếp tục.
Jack Clark:
Theo thời gian, RSP ngày càng trở nên quan trọng. Chúng tôi đã đầu tư hàng nghìn giờ làm việc cho nó, và khi tôi giải thích RSP với các Thượng nghị sĩ, tôi nói: “Chúng tôi đã thiết lập một số biện pháp để đảm bảo công nghệ của mình vừa không dễ bị lạm dụng, vừa đảm bảo an toàn.” Phản ứng của họ thường là: “Nghe có vẻ bình thường. Chẳng phải công ty nào cũng làm như vậy sao?” Điều này khiến tôi vừa buồn cười vừa buồn bã, thực tế không phải công ty nào cũng làm như vậy.
Daniela Amodei:
Hơn nữa, tôi cho rằng ngoài việc thúc đẩy sự thống nhất về giá trị trong đội, RSP còn nâng cao tính minh bạch của công ty. Bởi vì nó ghi chép rõ ràng mục tiêu của chúng ta là gì, mọi người trong công ty đều có thể hiểu, đồng thời người bên ngoài cũng có thể rõ ràng biết được mục tiêu và hướng đi về an toàn của chúng ta. Dù nó chưa hoàn hảo, nhưng chúng ta luôn không ngừng tối ưu và cải tiến nó.
Tôi cho rằng việc chỉ rõ “vấn đề cốt lõi chúng ta quan tâm là gì”, chúng ta không thể tùy tiện dùng từ “an toàn” để điều khiển tiến độ công việc, ví dụ như “vì vấn đề an toàn, chúng ta không thể làm việc này” hoặc “vì vấn đề an toàn, chúng ta phải làm việc này.” Mục tiêu thực sự của chúng ta là giúp mọi người hiểu rõ chúng ta đang nói đến loại an toàn nào.
Dario Amodei:
Xét về dài hạn, thứ thực sự gây tổn hại cho an toàn thường lại là những “luyện tập an toàn” diễn ra quá thường xuyên. Tôi từng nói: “Nếu một tòa nhà mỗi tuần đều reo chuông báo cháy, thì thực tế đó là một tòa nhà cực kỳ bất an.” Bởi vì khi thực sự xảy ra cháy, có thể chẳng ai để ý nữa; chúng ta phải rất chú trọng độ chính xác và hiệu chuẩn của chuông báo.
Chris Olah:
Nhìn từ một góc độ khác, tôi cho rằng RSP tạo ra các cơ chế khuyến khích lành mạnh ở nhiều cấp độ. Ví dụ trong nội bộ công ty, RSP gắn kết cơ chế khuyến khích của mỗi đội với mục tiêu an toàn, nghĩa là nếu chúng ta không đạt được tiến triển đủ trong lĩnh vực an toàn, các công việc liên quan sẽ bị tạm dừng.
Còn ở bên ngoài, RSP cũng tạo ra cơ chế khuyến khích lành mạnh hơn các phương pháp khác. Ví dụ, nếu một ngày nào đó chúng ta phải thực hiện một hành động lớn, như thừa nhận “mô hình của chúng ta đã phát triển đến một giai đoạn nhất định, nhưng chúng ta vẫn chưa đảm bảo được độ an toàn của nó”, thì RSP cung cấp một khung rõ ràng và bằng chứng hỗ trợ cho quyết định này. Khung này đã tồn tại từ trước, và rõ ràng dễ hiểu. Nhớ lại khi chúng ta thảo luận về phiên bản đầu tiên của RSP, tôi chưa hoàn toàn nhận ra tiềm năng của nó, nhưng giờ tôi cho rằng nó thực sự hiệu quả hơn nhiều so với bất kỳ phương pháp nào tôi từng nghĩ ra.
Jared Kaplan:
Tôi đồng ý với những quan điểm này, nhưng tôi nghĩ điều này có thể đánh giá thấp thách thức mà chúng ta đối mặt khi xây dựng chính sách đúng, đánh giá tiêu chuẩn và vạch ranh giới. Chúng tôi đã thực hiện rất nhiều lần lặp lại trong các khía cạnh này, và vẫn đang tiếp tục tối ưu. Một vấn đề khó là với một số công nghệ mới nổi, đôi khi rất khó xác định rõ ràng nó nguy hiểm hay an toàn. Thường xuyên, chúng ta sẽ gặp phải một vùng xám khổng lồ. Những thách thức này khiến tôi rất hào hứng trong giai đoạn đầu phát triển RSP, và giờ vẫn vậy. Nhưng đồng thời, tôi cũng nhận ra việc triển khai rõ ràng chiến lược này và khiến nó thực sự phát huy tác dụng phức tạp và thách thức hơn nhiều so với những gì tôi tưởng tượng ban đầu.
Sam McCandlish:
Vùng xám là điều không thể dự đoán hoàn toàn, bởi vì nó tồn tại khắp nơi. Chỉ khi bạn thực sự bắt đầu triển khai, bạn mới phát hiện ra vấn đề nằm ở đâu. Vì vậy, mục tiêu của chúng ta là sớm triển khai mọi thứ, để có thể nhanh chóng phát hiện các vấn đề tiềm ẩn.
Dario Amodei:
Bạn phải thực hiện ba đến bốn lần lặp lại mới có thể thực sự hoàn hảo. Lặp lại là một công cụ rất mạnh mẽ; gần như bạn không thể làm đúng ngay từ lần đầu tiên, vì vậy nếu rủi ro ngày càng gia tăng, bạn cần hoàn thành các lần lặp này sớm, chứ không thể đợi đến phút cuối.
Jack Clark:
Đồng thời, bạn còn cần xây dựng các thể chế và quy trình nội bộ. Dù chi tiết cụ thể có thể thay đổi theo thời gian, nhưng việc rèn luyện năng lực thực thi của đội mới là điều quan trọng nhất.
Tom Brown:
Tôi phụ trách quản lý tài nguyên tính toán tại Anthropic. Đối với tôi, chúng ta cần giao tiếp với các bên liên quan bên ngoài, và những người bên ngoài khác nhau có quan điểm khác nhau về tốc độ phát triển công nghệ. Ban đầu tôi cũng nghĩ công nghệ sẽ không phát triển nhanh đến thế, nhưng sau đó quan điểm của tôi đã thay đổi, vì vậy tôi rất thấu hiểu điều này. Tôi cho rằng RSP đặc biệt hữu ích với tôi, nhất là khi giao tiếp với những người cho rằng công nghệ sẽ phát triển chậm. Chúng ta có thể nói với họ: “Trước khi công nghệ phát triển đến mức khẩn cấp, chúng ta không cần áp dụng các biện pháp an toàn cực đoan.” Nếu họ nói: “Tôi cho rằng chuyện này sẽ không trở nên khẩn cấp trong một thời gian dài,” tôi có thể đáp lại: “Được, vậy chúng ta tạm thời không cần áp dụng các biện pháp an toàn cực đoan.” Điều này khiến việc giao tiếp với bên ngoài trở nên thuận lợi hơn.
Jack Clark:
Vậy RSP còn ảnh hưởng đến mọi người ở những khía cạnh nào nữa?
Sam McCandlish:
Mọi thứ đều xoay quanh việc đánh giá, mỗi đội đều đang thực hiện đánh giá. Ví dụ, đội huấn luyện của bạn luôn làm công việc đánh giá, chúng ta cố gắng xác định xem mô hình này đã đủ mạnh để có thể gây nguy hiểm hay chưa.
Daniela Amodei:
Điều này thực chất có nghĩa là chúng ta cần đánh giá hiệu suất của mô hình theo tiêu chuẩn RSP, bao gồm việc kiểm tra xem có tồn tại dấu hiệu nào khiến chúng ta lo ngại hay không.
Sam McCandlish:
Đánh giá năng lực tối thiểu của mô hình tương đối dễ, nhưng đánh giá năng lực tối đa thì rất khó. Vì vậy, chúng ta đã đầu tư rất nhiều công sức nghiên cứu để trả lời câu hỏi kiểu như: “Liệu mô hình này có thể thực hiện một số nhiệm vụ nguy hiểm hay không? Có tồn tại phương pháp nào mà chúng ta chưa tính đến, như sơ đồ tư duy, sự kiện tốt nhất (best event), hay việc sử dụng một số công cụ nào đó, khiến mô hình có thể thực hiện một số hành vi cực kỳ nguy hiểm?”
Jack Clark:
Trong quá trình xây dựng chính sách, những công cụ đánh giá này rất hữu ích. Bởi vì “an toàn” là một khái niệm rất trừu tượng, mà khi tôi nói: “Chúng ta có một công cụ đánh giá, nó quyết định xem chúng ta có thể triển khai mô hình này hay không.” Sau đó, chúng ta có thể hợp tác với các nhà làm chính sách, chuyên gia an ninh quốc gia, cũng như chuyên gia trong lĩnh vực CBRN (hóa học, sinh học, phóng xạ và hạt nhân) để cùng xây dựng các tiêu chuẩn đánh giá chính xác. Nếu không có những công cụ cụ thể này, sự hợp tác này có thể hoàn toàn không thể thực hiện được. Nhưng một khi đã có tiêu chuẩn rõ ràng, mọi người sẽ sẵn sàng tham gia hơn để giúp chúng ta đảm bảo tính chính xác của nó. Vì vậy, trong khía cạnh này, vai trò của RSP rất nổi bật.
Daniela Amodei:
RSP cũng rất quan trọng với tôi, và thường xuyên ảnh hưởng đến công việc của tôi. Điều thú vị là tôi suy nghĩ về RSP theo một cách khá đặc biệt, chủ yếu từ “giọng điệu” của nó — tức là cách nó được diễn đạt. Gần đây chúng tôi đã điều chỉnh mạnh giọng điệu của RSP, bởi vì giọng điệu trước đây quá kỹ thuật, thậm chí còn có cảm giác đối đầu. Tôi đã dành rất nhiều thời gian suy nghĩ làm thế nào để xây dựng một hệ thống khiến mọi người sẵn sàng tham gia.
Nếu RSP là một tài liệu mà mọi người trong công ty đều có thể dễ dàng hiểu, thì sẽ tốt hơn nhiều. Giống như OKR (Mục tiêu và Kết quả then chốt) hiện tại của chúng ta. Ví dụ, mục tiêu chính của RSP là gì? Làm sao để biết chúng ta đã đạt được mục tiêu? Hiện tại cấp độ an toàn AI (ASL) là bao nhiêu? Là ASL-2 hay ASL-3? Nếu mọi người đều biết điểm cần chú ý, thì việc phát hiện vấn đề tiềm ẩn sẽ dễ dàng hơn. Ngược lại, nếu RSP quá kỹ thuật, chỉ một số ít người có thể hiểu, thì hiệu lực thực tế của nó sẽ giảm sút nghiêm trọng.
Thật vui khi thấy RSP đang phát triển theo hướng dễ hiểu hơn. Hiện nay, tôi cho rằng phần lớn mọi người trong công ty, thậm chí có thể là tất cả mọi người, bất kể vị trí nào, đều có thể đọc tài liệu này và cảm thấy: “Điều này rất hợp lý. Tôi mong muốn chúng ta phát triển AI dưới sự hướng dẫn của những nguyên tắc này, và tôi hiểu vì sao cần quan tâm đến những vấn đề này. Nếu tôi gặp vấn đề trong công việc, tôi cũng có thể biết sơ bộ điều gì cần lưu ý.” Chúng tôi muốn RSP đủ đơn giản, giống như một người làm việc trong nhà máy có thể dễ dàng phán đoán: “Dây an toàn phải nối ở đây, nhưng hiện tại chưa nối đúng.” Từ đó kịp thời phát hiện vấn đề.
Chìa khóa nằm ở việc xây dựng một cơ chế phản hồi lành mạnh, để lãnh đạo, hội đồng quản trị, các bộ phận khác trong công ty và đội ngũ nghiên cứu thực tế có thể giao tiếp trơn tru với nhau. Tôi cho rằng, phần lớn các vấn đề phát sinh thường là do giao tiếp không hiệu quả hoặc thông tin bị lệch lạc. Nếu vấn đề chỉ xuất hiện vì những lý do này, thì quả thực rất đáng tiếc, đúng không? Cuối cùng, điều chúng ta cần làm là biến những ý tưởng này thành hiện thực một cách thiết thực, đồng thời đảm bảo chúng đơn giản, rõ ràng, để mỗi người đều có thể hiểu.
Câu chuyện thành lập Anthropic
Sam McCandlish: Thực tế, trong số chúng tôi không ai ban đầu có ý định thành lập công ty. Chúng tôi chỉ cảm thấy đây là trách nhiệm của mình, chúng ta phải hành động, bởi vì đây là con đường duy nhất đảm bảo AI phát triển đúng hướng, và đó cũng là lý do chúng ta đưa ra cam kết đó.
Dario Amodei:
Ý tưởng ban đầu của tôi rất đơn giản: tôi chỉ muốn phát minh và khám phá những điều mới theo một cách hữu ích nào đó. Ý tưởng này dẫn tôi vào lĩnh vực AI, và nghiên cứu AI đòi hỏi rất nhiều hỗ trợ kỹ thuật, cuối cùng cũng cần rất nhiều nguồn lực tài chính.
Tuy nhiên, tôi nhận ra rằng nếu không có một mục tiêu và kế hoạch rõ ràng để thành lập công ty và quản lý môi trường, thì dù nhiều việc vẫn được hoàn thành, nhưng chúng sẽ lặp lại những sai lầm trong ngành công nghệ khiến tôi cảm thấy xa cách. Những sai lầm này thường bắt nguồn từ cùng một nhóm người, cùng một thái độ và cùng một tư duy. Vì vậy, đến một thời điểm nào đó, tôi nhận ra chúng ta phải làm điều này theo một cách hoàn toàn mới — điều này gần như là điều không thể tránh khỏi.
Jared Kaplan:
Tôi nhớ hồi chúng ta còn ở trường cao học, anh từng có một kế hoạch đầy đủ nhằm khám phá cách thúc đẩy lợi ích công cộng thông qua nghiên cứu khoa học. Tôi cho rằng điều này rất giống với tư duy hiện tại của chúng ta. Tôi nhớ anh từng có một dự án tên là “Project Vannevar”, với mục tiêu thực hiện điều này. Lúc ấy tôi là giáo sư, tôi quan sát tình hình và tin chắc rằng ảnh hưởng của AI đang tăng trưởng với tốc độ cực kỳ nhanh.
Tuy nhiên, do nhu cầu tài chính cao của nghiên cứu AI, cộng với việc là một giáo sư vật lý, tôi nhận ra mình không thể thúc đẩy tiến trình này chỉ bằng nghiên cứu học thuật. Tôi muốn cùng những người đáng tin cậy xây dựng một tổ chức để đảm bảo AI phát triển đúng hướng. Nhưng thành thật mà nói, tôi chưa bao giờ khuyên người khác thành lập công ty, cũng chưa từng có mong muốn như vậy. Với tôi, đây chỉ là một phương tiện để đạt được mục tiêu. Tôi cho rằng thông thường,chìa khóa thành công nằm ở việc bạn thực sự quan tâm đến việc đạt được một mục tiêu có ý nghĩa với thế giới, sau đó tìm ra phương tiện tốt nhất để thực hiện mục tiêu đó.
Cách xây dựng văn hóa tin cậy
Daniela Amodei: Tôi thường suy ngẫm về lợi thế chiến lược của chúng ta với tư cách là một đội, và một yếu tố có vẻ bất ngờ nhưng lại rất quan trọng là sự tin cậy cao độ giữa chúng ta. Việc khiến một nhóm người lớn cùng chia sẻ một sứ mệnh là rất khó, nhưng tại Anthropic, chúng ta đã thành công trong việc truyền đạt sứ mệnh này cho ngày càng nhiều người. Trong đội này, từ lãnh đạo đến tất cả thành viên, tất cả đều tụ họp lại vì một sứ mệnh chung. Sứ mệnh của chúng ta vừa rõ ràng vừa thuần khiết — điều hiếm thấy trong ngành công nghệ.
Tôi cảm thấy mục tiêu mà chúng ta đang nỗ lực đạt được mang một ý nghĩa thuần khiết, và không ai trong chúng ta bắt đầu vì muốn thành lập công ty. Chúng ta chỉ cảm thấy bắt buộc phải làm điều này. Chúng ta không thể tiếp tục công việc tại nơi cũ, mà phải tự mình hoàn thành việc này.
Jack Clark:
Lúc ấy, với sự xuất hiện của GPT-3, và tất cả chúng ta đều đã từng tiếp xúc hoặc tham gia các dự án như luật mở rộng (scaling laws), v.v., đến năm 2020 chúng ta đã thấy rõ xu hướng phát triển của AI. Chúng ta nhận ra rằng nếu không hành động nhanh chóng, có thể sẽ sớm đến một điểm tới hạn không thể đảo ngược. Chúng ta phải hành động mới có thể tác động đến môi trường này.
Tom Brown:
Tôi muốn nối tiếp quan điểm của Daniela. Tôi thực sự tin rằng đội ngũ nội bộ tồn tại sự tin cậy cao độ. Mỗi người chúng ta đều rõ ràng rằng mình gia nhập đội này vì muốn đóng góp cho thế giới. Chúng ta còn cùng cam kết quyên góp 80% thu nhập cho các hoạt động thúc đẩy sự phát triển xã hội — đây là điều mà tất cả đều ủng hộ dứt khoát: “Đúng vậy, chúng ta đương nhiên sẽ làm như vậy.” Sự tin cậy này là điều đặc biệt và hiếm có.
Daniela Amodei:
Tôi cho rằng Anthropic là một công ty có màu sắc chính trị rất nhạt. Dĩ nhiên, góc nhìn của chúng ta có thể khác với người bình thường, và tôi luôn tự nhắc nhở mình điều này. Tôi cho rằng quy trình tuyển dụng và đặc điểm thành viên đội khiến văn hóa nơi đây gần như có sự phản kháng tự nhiên đối với “chính trị văn phòng”.
Dario Amodei:
Còn có sự đoàn kết của đội, và sự đoàn kết của đội là vô cùng quan trọng. Dù là đội sản phẩm, đội nghiên cứu, đội tin cậy và an toàn, đội thị trường hay đội chính sách, tất cả đều đang nỗ lực vì một mục tiêu chung của công ty. Khi các bộ phận khác nhau trong công ty theo đuổi những mục tiêu hoàn toàn khác nhau, thường sẽ dẫn đến hỗn loạn. Nếu họ cho rằng các bộ phận khác đang phá hoại công việc của mình, thì điều đó càng rất bất thường.
Tôi cho rằng, một trong những thành tựu quan trọng nhất của chúng ta là thành công trong việc duy trì sự thống nhất toàn diện của công ty. Các cơ chế như RSP đóng vai trò quan trọng trong điều này. Cơ chế này đảm bảo rằng trong công ty không phải một số bộ phận tạo ra vấn đề, còn các bộ phận khác cố gắng sửa chữa, mà tất cả các bộ phận đều thực hiện chức năng của mình, đồng thời phối hợp làm việc trong khuôn khổ một “lý thuyết thay đổi” (theory of change) thống nhất.
Chris Olah:
Tôi gia nhập OpenAI ban đầu vì đây là một tổ chức phi lợi nhuận, nơi tôi có thể tập trung vào nghiên cứu an toàn AI. Nhưng theo thời gian, tôi dần nhận ra mô hình này không hoàn toàn phù hợp với mình, điều này buộc tôi phải đưa ra một số quyết định khó khăn. Trong quá trình này, tôi rất tin tưởng vào phán đoán của Dario và Daniela, nhưng tôi không muốn rời đi. Bởi tôi cho rằng việc tăng thêm các phòng thí nghiệm AI chưa chắc đã có lợi cho thế giới, điều này khiến tôi rất do dự khi rời đi.
Khi cuối cùng chúng tôi quyết định rời đi, tôi vẫn còn do dự về việc thành lập một công ty. Tôi từng đề xuất chúng ta nên thành lập một tổ chức phi lợi nhuận, tập trung vào nghiên cứu an toàn. Nhưng cuối cùng, thái độ thực tế và sự thừa nhận thẳng thắn về những giới hạn thực tế khiến chúng ta nhận ra rằng thành lập Anthropic là cách tốt nhất để đạt được mục tiêu của mình.
Dario Amodei:
Một bài học quan trọng chúng tôi học được trong giai đoạn đầu là: hãy hứa ít hơn, nhưng thực hiện nhiều hơn. Hãy giữ thái độ thực tế, đối mặt trực diện với những sự đánh đổi, bởi vì sự tin cậy và uy tín quan trọng hơn bất kỳ chính sách cụ thể nào.
Daniela Amodei:
Một điểm đặc biệt của Anthropic là sự tin cậy và thống nhất cao độ của đội ngũ. Ví dụ, khi tôi thấy Mike Krieger kiên quyết không phát hành một số sản phẩm vì lý do an toàn, đồng thời thấy Vinay thảo luận cách cân bằng nhu cầu kinh doanh để thúc đẩy dự án hoàn thành, tôi cảm thấy điều này rất đặc biệt. Ngoài ra, các kỹ sư trong đội an toàn kỹ thuật và đội suy luận cũng đang thảo luận cách đảm bảo sản phẩm vừa an toàn vừa thực dụng. Mục tiêu thống nhất và thái độ thực tế này là một trong những điểm hấp dẫn nhất trong môi trường làm việc của Anthropic.
Dario Amodei:
Một nền văn hóa tổ chức lành mạnh nằm ở chỗ mỗi người đều có thể hiểu và chấp nhận những sự đánh đổi chung mà chúng ta cùng đối mặt. Thế giới chúng ta đang sống không hoàn hảo, mỗi quyết định đều cần cân bằng giữa các lợi ích khác nhau, và sự cân bằng này thường không thể làm hài lòng tất cả. Tuy nhiên, miễn là toàn bộ đội ngũ đều có thể cùng đối mặt với những sự đánh đổi này dưới một mục tiêu thống nhất, và từ vị trí của mình đóng góp cho mục tiêu chung, thì đó mới là một hệ sinh thái lành mạnh.
Sam McCandlish:
Theo một nghĩa nào đó, đây là một cuộc “đua lên trên”. Đúng vậy, đây thực sự là một cuộc “đua lên trên”. Dù đây không phải là lựa chọn hoàn toàn không rủi ro — mọi việc có thể sai sót — nhưng tất cả chúng ta đều thống nhất: “Đây là lựa chọn chúng ta đã chọn.”
Đua tranh đỉnh cao của AI
Jack Clark: Nhưng thị trường về bản chất là thực dụng, vì vậy Anthropic càng thành công với tư cách là một công ty, thì người khác càng có động lực bắt chước những phương pháp đã giúp chúng ta thành công. Hơn nữa, khi thành công của chúng ta gắn bó mật thiết với công việc thực tế về an toàn, thì thành công này sẽ tạo ra một “lực hút” trong ngành, thúc đẩy các công ty khác tham gia cuộc đua này. Giống như chúng ta phát triển dây an toàn, các công ty khác cũng có thể bắt chước — đây là một hệ sinh thái lành mạnh.
Dario Amodei:
Nhưng nếu bạn nói: “Chúng tôi sẽ không phát triển công nghệ này, và bạn cũng không thể làm tốt hơn người khác,” thì cách làm này sẽ không hiệu quả, bởi vì bạn chưa chứng minh được con đường khả thi từ hiện trạng đến tương lai. Thế giới cần là, dù là ngành hay một công ty nào đó, đều cần tìm ra một cách để xã hội có thể chuyển từ “công nghệ không tồn tại” sang “công nghệ tồn tại ở dạng mạnh mẽ và được quản lý hiệu quả bởi xã hội”. Tôi cho rằng, cách duy nhất để đạt được mục tiêu này là đối mặt trực diện với những sự đánh đổi này ở cấp độ từng công ty, và cuối cùng là toàn ngành.
Bạn cần tìm ra một cách vừa duy trì tính cạnh tranh, thậm chí dẫn đầu ngành trong một số lĩnh vực, vừa đảm bảo tính an toàn của công nghệ. Nếu bạn làm được điều này, thì sức hút của bạn đối với ngành sẽ rất mạnh mẽ. Từ môi trường quản lý, đến nhân tài xuất sắc muốn gia nhập các công ty khác, thậm chí đến quan điểm của khách hàng, tất cả những yếu tố này sẽ thúc đẩy ngành phát triển theo cùng một hướng. Nếu bạn có thể chứng minh rằng an toàn có thể đạt được mà không hy sinh tính cạnh tranh — nghĩa là tìm ra những giải pháp đôi bên cùng có lợi — thì các công ty khác cũng sẽ được khuyến khích bắt chước cách làm này.
Jared Kaplan:
Tôi cho rằng đây là lý do vì sao các cơ chế như RSP lại quan trọng đến thế. Chúng ta có thể nhìn rõ hướng phát triển của công nghệ và nhận ra cần cảnh giác cao độ với một số vấn đề, nhưng đồng thời chúng ta cũng phải tránh đưa ra những cảnh báo sai lầm kiểu “Sói đến rồi”, không thể đơn giản nói: “Đổi mới nên dừng lại ở đây.” Chúng ta cần tìm ra một cách để công nghệ AI mang lại trải nghiệm hữu ích, đổi mới và thú vị cho khách hàng, đồng thời rõ ràng khẳng định những ràng buộc mà chúng ta phải tuân thủ — những ràng buộc này vừa đảm bảo tính an toàn của hệ thống, vừa khiến các công ty khác tin rằng họ cũng có thể thành công trong khuôn khổ an toàn và cạnh tranh với chúng ta.
Dario Amodei:
Vài tháng sau khi chúng ta ra mắt RSP, ba công ty AI nổi tiếng nhất cũng lần lượt ra mắt các cơ chế tương tự. Nghiên cứu khả năng giải thích là một lĩnh vực khác chúng ta đạt được đột phá. Ngoài ra, chúng ta còn hợp tác với các tổ chức nghiên cứu an toàn AI, và sự quan tâm tổng thể đối với an toàn đang tạo ra ảnh hưởng sâu rộng.
Jack Clark:
Đúng vậy, Frontier Red Team gần như ngay lập tức bị các công ty khác bắt chước. Đây là điều tốt, chúng ta hy vọng tất cả các phòng thí nghiệm đều kiểm tra những mối nguy tiềm ẩn có mức độ rủi ro cao.
Daniela Amodei:
Jack cũng từng đề cập, khách hàng cũng rất quan tâm đến vấn đề an toàn. Khách hàng không muốn mô hình tạo ra thông tin sai lệch, cũng không muốn mô hình dễ bị vượt qua các giới hạn an toàn. Họ muốn mô hình vừa hữu dụng vừa vô hại, và chúng ta thường nghe khách hàng nói trong giao tiếp: “Chúng tôi chọn Claude vì chúng tôi biết nó an toàn hơn.” Tôi cho rằng điều này có ảnh hưởng lớn đến thị trường. Chúng ta có thể cung cấp các mô hình đáng tin cậy và đáng dựa vào, điều này cũng gây áp lực thị trường đáng kể lên các đối thủ cạnh tranh.
Chris Olah:
Có thể mở rộng thêm quan điểm mà Dario vừa nêu. Có một quan niệm cho rằng hành vi đạo đức nhất là “thất bại cao thượng”. Nghĩa là bạn nên hy sinh các mục tiêu khác vì an toàn, thậm chí hành động một cách thiếu thực tế để thể hiện sự thuần khiết tuyệt đối đối với sự nghiệp. Nhưng tôi cho rằng cách làm này thực chất là tự làm hại mình.
Thứ nhất, cách làm này sẽ khiến quyền ra quyết định rơi vào tay những người không coi trọng an toàn, không ưu tiên an toàn. Mặt khác, nếu bạn nỗ lực tìm ra một cách để gắn kết các cơ chế khuyến khích, đặt những quyết định khó khăn vào nơi có sức mạnh nhất để hỗ trợ quyết định đúng đắn, và dựa trên bằng chứng mạnh mẽ nhất, thì bạn có thể khởi động “cuộc đua lên trên” mà Dario mô tả. Trong cuộc đua này, những người quan tâm đến an toàn sẽ không bị gạt ra ngoài lề, mà những người khác sẽ bị buộc phải đi theo bước chân bạn và gia nhập cuộc đua này.
Nhìn về tương lai của trí tuệ nhân tạo
Jack Clark: Vậy, điều gì khiến các bạn cảm thấy hào hứng về những việc sắp tới?
Chris Olah:
Tôi nghĩ có rất nhiều lý do để cảm thấy hào hứng với khả năng giải thích. Một lý do rõ ràng là vì an toàn, nhưng còn một lý do khác, theo cảm xúc cá nhân, cũng khiến tôi cảm thấy hào hứng hoặc ý nghĩa không kém, đó là tôi cho rằng mạng nơ-ron thật tuyệt vời, và còn rất nhiều vẻ đẹp mà chúng ta chưa từng thấy. Chúng ta luôn coi mạng nơ-ron như một “hộp đen”, không đặc biệt quan tâm đến cấu trúc bên trong của nó, nhưng khi bắt đầu nghiên cứu sâu hơn, bạn sẽ phát hiện bên trong chúng chứa đầy những cấu trúc khiến người ta kinh ngạc.
Điều này giống như thái độ của con người đối với sinh học: một số người có thể cảm thấy “tiến hóa thật nhàm chán, nó chỉ là một quá trình đơn giản diễn ra trong thời gian dài, rồi tạo ra các loài động vật.” Nhưng thực tế, mỗi loài động vật do tiến hóa tạo ra đều chứa đựng sự phức tạp và cấu trúc đáng kinh ngạc. Và tôi cho rằng tiến hóa là một quá trình tối ưu hóa, giống như huấn luyện một mạng nơ-ron. Bên trong mạng nơ-ron cũng có cả một cấu trúc phức tạp tương tự như “sinh học nhân tạo”. Nếu bạn sẵn sàng nghiên cứu sâu hơn, bạn sẽ phát hiện ra rất nhiều điều đáng kinh ngạc bên trong.
Tôi cảm thấy chúng ta mới chỉ bắt đầu hé mở lớp màn che phủ nó. Nó thật sự đáng kinh ngạc, bên trong còn quá nhiều điều chờ chúng ta khám phá. Chúng ta mới chỉ bắt đầu mở cánh cửa, và tôi cảm thấy những khám phá tiếp theo sẽ rất tuyệt vời và kỳ diệu. Đôi khi tôi tưởng tượng, mười năm nữa bước vào một hiệu sách, mua một cuốn giáo trình về khả năng giải thích mạng nơ-ron, hoặc một cuốn sách thực sự kể về “sinh học” của mạng nơ-ron, trong đó sẽ có vô vàn điều khiến người ta kinh ngạc. Tôi tin rằng trong mười năm tới, thậm chí chỉ trong vài năm tới, chúng ta sẽ bắt đầu thực sự khám phá những điều này — đó sẽ là một hành trình điên rồ và đáng kinh ngạc.
Jack Clark:
Vài năm trước, nếu ai đó nói: “Chính phủ sẽ thành lập các cơ quan mới để kiểm tra và đánh giá các hệ thống AI, và những cơ quan này sẽ rất chuyên nghiệp và phát huy tác dụng,” bạn có thể sẽ không tin điều đó là thật. Nhưng điều này đã xảy ra. Có thể nói, chính phủ đã thiết lập “đại sứ quán mới” để đối phó với loại công nghệ mới này, và tôi rất háo hức được thấy điều này sẽ đi đến đâu. Tôi cho rằng điều này thực chất có nghĩa là quốc gia có khả năng đối phó với sự chuyển đổi xã hội như vậy, chứ không chỉ dựa vào doanh nghiệp, và tôi rất vui được tham gia vào điều này.
Daniela Amodei:
Tôi hiện đã rất hào hứng với điều này, nhưng tôi nghĩ, chỉ cần tưởng tượng AI trong tương lai có thể làm gì cho nhân loại thôi cũng đã rất khó để không cảm thấy phấn khích. Ngay cả những dấu hiệu hiện tại về việc Claude giúp phát triển vắc-xin, nghiên cứu ung thư và sinh học cũng đã khiến người ta kinh ngạc. Việc thấy nó có thể làm được những điều hiện tại đã rất tuyệt vời rồi, và khi tôi nhìn về ba đến năm năm tới, tưởng tượng Claude thực sự có thể giải quyết nhiều vấn đề căn bản mà nhân loại đang đối mặt, đặc biệt trong lĩnh vực y tế, cũng khiến tôi rất hào hứng. Nhớ lại những ngày tôi làm việc trong lĩnh vực phát triển quốc tế, nếu lúc ấy Claude có thể giúp hoàn thành công việc hiệu quả thấp của tôi, thì đó sẽ là một điều tuyệt vời đến mức nào.
Tom Brown:
Tôi nghĩ, từ góc độ cá nhân, tôi rất thích sử dụng Claude trong công việc. Vì vậy, gần đây tôi cũng thường dùng Claude ở nhà để trò chuyện về một số việc, và thay đổi lớn nhất gần đây là về mã nguồn. Sáu tháng trước, tôi chưa từng dùng Claude để xử lý bất kỳ công việc lập trình nào, và đội chúng tôi lúc ấy cũng rất ít dùng Claude để viết mã, nhưng tình hình này đã thay đổi rõ rệt. Ví dụ, tuần trước tôi làm một bài phát biểu tại một sự kiện do Y Combinator tổ chức. Lúc đầu, tôi hỏi mọi người: “Hiện nay có bao nhiêu người dùng Claude để lập trình?” Kết quả gần như 95% mọi người đều giơ tay. Gần như toàn bộ khán phòng đều giơ tay, hoàn toàn khác biệt so với tình hình cách đây bốn tháng.
Dario Amodei:
Khi tôi suy nghĩ về điều gì khiến tôi cảm thấy hào hứng, tôi sẽ nghĩ đến những nơi dường như đã đạt được sự đồng thuận, nhưng thực tế sự đồng thuận này sắp bị phá vỡ — một trong số đó là khả năng giải thích. Tôi cho rằng khả năng giải thích không chỉ là chìa khóa để hướng dẫn và đảm bảo an toàn cho hệ thống AI, mà còn chứa đựng những hiểu biết sâu sắc về vấn đề tối ưu hóa trí tuệ và cách thức vận hành của bộ não con người. Tôi từng nói Chris Olah sẽ giành giải Nobel Y học trong tương lai.
Bởi vì tôi từng là một nhà thần kinh học, và nhiều bệnh lý tâm thần chưa được giải quyết — như tâm thần phân liệt hay rối loạn cảm xúc — tôi nghi ngờ chúng liên quan đến một số vấn đề hệ thống ở cấp độ cao hơn. Tuy nhiên, do sự phức tạp và khó nghiên cứu trực tiếp của bộ não người, những vấn đề này rất khó hiểu thấu. Trong khi đó, mạng nơ-ron tuy không phải là một phép so sánh hoàn hảo, nhưng chúng dễ phân tích và tương tác hơn rất nhiều so với bộ não người. Theo thời gian, mạng nơ-ron sẽ trở thành một công cụ so sánh tốt hơn.
Một lĩnh vực liên quan khác là ứng dụng AI trong sinh học. Sinh học là một vấn đề cực kỳ phức tạp, và vì nhiều lý do, nhiều người vẫn hoài nghi về nó, nhưng tôi cho rằng sự hoài nghi đồng thuận này đang bắt đầu tan rã. Chúng ta đã chứng kiến giải Nobel Hóa học được trao cho AlphaFold — một thành tựu tuyệt vời — và chúng ta cần nỗ lực phát triển những công cụ giúp tạo ra hàng trăm “AlphaFold” như thế.
Điểm cuối cùng là sử dụng AI để tăng cường dân chủ. Chúng tôi lo ngại nếu AI bị phát triển sai cách, nó có thể trở thành công cụ của chủ nghĩa độc tài. Vậy, làm thế nào để biến AI thành công cụ thúc đẩy tự do và quyền tự quyết? Tôi cho rằng lĩnh vực này có thể phát triển sớm hơn hai lĩnh vực trước, nhưng tầm quan trọng của nó không hề kém cạnh hai lĩnh vực kia.
Jared Kaplan:
Tôi nghĩ ít nhất có hai điểm có thể nối tiếp quan điểm của anh trước đó. Một điểm là, tôi cho rằng nhiều người gia nhập Anthropic vì sự tò mò khoa học sâu sắc đối với AI. Cùng với sự tiến bộ của công nghệ AI, họ dần đồng thuận rằng chúng ta không chỉ cần thúc đẩy công nghệ, mà còn cần hiểu sâu hơn về nó và đảm bảo tính an toàn của nó. Tôi cảm thấy việc được làm việc cùng ngày càng nhiều người chia sẻ tầm nhìn chung về sự phát triển và trách nhiệm của AI là điều rất hào hứng, và tôi nghĩ nhiều tiến bộ công nghệ trong năm qua thực sự đã thúc đẩy sự hình thành đồng thuận này.
Một khía cạnh khác là, trở lại vấn đề thực tiễn, tôi cho rằng chúng ta đã làm rất nhiều công việc về an toàn AI. Nhưng với những phát triển gần đây, chúng ta bắt đầu có một số nhận thức ban đầu về rủi ro mà những hệ thống cấp cao có thể gây ra. Điều này cho phép chúng ta nghiên cứu và điều tra trực tiếp những rủi ro này thông qua nghiên cứu khả năng giải thích và các cơ chế an toàn khác.
Thông qua cách làm này, chúng ta có thể hiểu rõ hơn về rủi ro mà các hệ thống AI cấp cao có thể gây ra, từ đó thúc đẩy sứ mệnh của mình một cách khoa học và thực chứng hơn. Vì vậy, tôi rất hào hứng với sáu tháng tới, khi chúng ta sẽ sử dụng hiểu biết về các vấn đề tiềm ẩn của các hệ thống cấp cao để tiếp tục nghiên cứu và tìm ra cách tránh những bẫy này.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News














