
AI 주간 동향을 읽는 7가지 신호: 모델 유출, 코드 엔진, 인력 관리
저자: 타라 탄(Tara Tan) / 스트레인지VC(StrangeVC)
번역: TechFlow
TechFlow 독자 안내: 이번 주간 보고서는 밀도가 매우 높아 AI 산업의 가장 핵심적인 몇 가지 흐름을 다루는 7개의 독립 신호를 담고 있습니다.
그중 특히 주목할 만한 소식은 앤트로픽(Anthropic)이 CMS 설정 오류로 인해 내부 코드명 “캐피바라(Capybara)”인 신규 모델 정보를 실수로 유출한 것으로, 이 모델은 오푸스(Opus)보다 상위 계층에 위치합니다.
전문 내용은 다음과 같습니다:
지난 몇 달간 우리는 분명 어떤 ‘에이전트(agentic)’ 임계점을 넘어섰습니다. 5년 전에는 4~6주가 걸렸던 구축 작업이 지금은 5분도 채 안 됩니다. 6개월 전만 해도 동일한 작업에 1~2시간과 많은 디버깅이 필요했습니다.
이는 상당히 눈에 띄는 상전이(phase transition)이며, 아직 그 영향을 완전히 소화하지 못했을 수도 있습니다. 아이디어와 실행 가능한 제품 사이의 거리 붕괴는 전체 산업을 재정의할 것입니다. 이는 인간이 구축하고, 창조하며, 문제를 해결하는 데 사용하는 도구에서의 획기적 진전입니다.
관련하여, 오픈AI가 인수한 이후 오픈클로우(OpenClaw)는 명백히 더 안정적으로 운영되고 있습니다. 이 프로젝트는 AI 분야에서 가장 중요한 오픈소스 프로젝트 중 하나가 되기 위한 명확한 길을 걷고 있습니다.
이제 이번 주 주요 소식으로 넘어갑니다.
앤트로픽의 클로드 마이토스(Claude Mythos) 유출 사건, 신규 모델 계층 공개
앤트로픽은 CMS 설정 오류로 인해 발표되지 않은 모델 ‘클로드 마이토스(Claude Mythos)’에 대한 세부 정보를 실수로 노출시켰습니다. 유출된 초안에는 오푸스 상위에 위치하는 새로운 ‘캐피바라(Capybara)’ 계층에 대한 설명이 포함되어 있으며, 프로그래밍, 추론, 사이버보안 능력에서 중대한 돌파구를 이뤘다고 기술되어 있습니다. 앤트로픽은 이 모델을 초기 접근 고객 대상으로 시험 중이며, 이를 ‘계단식 변화(step-change)’이자 ‘지금까지 개발된 가장 강력한 모델’이라고 평가했습니다. (Fortune, The Decoder)
왜 중요한가: 모델 자체 외에도 두 가지 사항이 더욱 주목할 만합니다. 첫째, 유출된 초안은 이 모델의 사이버보안 능력이 ‘기존의 다른 모든 AI 모델을 훨씬 능가한다’고 경고했는데, 이는 단 하루 만에 사이버보안 관련 주가 움직임을 촉발시켰습니다. 둘째, 네 번째 모델 계층(‘캐피바라’가 오푸스 상위에 위치)의 도입은 앤트로픽이 벤치마크 성능 확보뿐 아니라 기업 고객을 위한 가격 책정 공간을 구축하려는 의도를 보여줍니다.
클로드 코드(Claude Code)가 앤트로픽의 핵심 성장 엔진으로 부상
클로드 코드는 현재 공개 GitHub 커밋의 약 4%를 차지하고 있으며, 올해 말까지 20% 이상까지 증가할 것으로 예상됩니다. 앤트로픽의 전체 연간 매출 추정치는 연율 기준 140억 달러에 달하며, 클로드 코드 단독의 연율 기준 매출은 약 25억 달러입니다. 이 도구의 사용자는 개발자에서 비기술 직무 종사자로 확대되었으며, 이들은 프로젝트 구축을 위해 터미널 명령어를 배우고 있습니다. (SemiAnalysis, Uncover Alpha, VentureBeat)
왜 중요한가: 클로드 코드는 개발자들의 자연스러운 채택을 통해 고객 확보 비용(CAC)을 사실상 제로 수준으로 낮췄습니다. 또한 ‘코워크(Cowork)’를 통한 비개발자 역할 확장은 글로벌 2,800만 명의 전문 개발자 집단을 훨씬 넘어서는 광범위한 타깃 시장을 열어줍니다.
청 루(Cheng Lou)의 프리텍스트(Pretext): CSS 없이 작동하는 텍스트 레이아웃 기술
청 루는 지난 10년간 가장 영향력 있는 UI 엔지니어 중 한 명으로, 리액트(React), 리즌ML(ReasonML), 미드저니(Midjourney) 등에 기여했습니다. 그는 CSS, DOM 측정, 브라우저 리플로(reeflow)를 완전히 우회하는 순수 TypeScript 기반 텍스트 측정 알고리즘인 ‘프리텍스트(Pretext)’를 공개했습니다. 시연 결과는 다음과 같습니다: 초당 120프레임으로 수십만 개의 텍스트 박스를 가상 렌더링; 픽셀 낭비 없는 밀착형 채팅 버블; 반응형 멀티컬럼 잡지 레이아웃; 가변 폭 ASCII 아트 등. (X 게시물)
왜 중요한가: 텍스트 레이아웃 및 측정은 차세대 UI 개발을 저해해온 은폐된 병목 현상이었습니다. CSS는 정적 문서를 위해 설계되었지, 오늘날 주류가 된 유동적이고 AI 생성되며 실시간으로 갱신되는 인터페이스를 위해 고안된 것이 아닙니다. 프리텍스트가 시연된 성능을 실제로 구현한다면, AI 원생 인터페이스의 외관과 사용자 경험을 제약하는 마지막 근본적 장벽 중 하나를 해소할 수 있습니다.
암(Arm), 창사 35년 만에 자사 설계 칩 출하
암은 타이완 반도체 제조공사(TSMC)의 3nm 공정 기반, 메타(Meta)와 공동 개발한 136코어 데이터센터용 CPU ‘AGI CPU’를 발표했습니다. 이는 암 역사상 IP 라이선스 판매가 아닌, 완제품 칩 자체를 판매하는 첫 사례입니다. 오픈AI, 세레브라스(Cerebras), 클라우드플레어(Cloudflare)가 최초 파트너이며, 양산 출하 시점은 올해 말로 예정되어 있습니다. (Arm Newsroom, EE Times)
왜 중요한가: 현재 AI 데이터센터는 GPU 중심입니다. GPU는 모델 학습 및 실행을 담당하고, CPU는 주로 데이터 흐름 처리 및 스케줄링을 맡습니다. 그러나 에이전트 기반 워크로드는 다릅니다. 수천 개의 AI 에이전트가 동시에 실행되어 각각 과제 조정, API 호출, 메모리 관리, 시스템 간 데이터 라우팅을 수행할 때, 이러한 오케스트레이션 작업은 CPU에 부담됩니다. 암은 이를 통해 데이터센터 용량 1기가와트(GW)당 CPU 수요가 4배 증가할 것이라고 주장합니다. (HPCwire, Futurum Group)
엔비디아(NVIDIA)와 에메랄드 AI(Emerald AI), 데이터센터를 전력망 자산으로 전환
엔비디아와 에메랄드 AI는 AES, 콘스텔레이션(Constellation), 인베너지(Invenergy), 넥스트에라(NextEra), 비스트라(Vistra)와 협력해 ‘유연한 AI 팩토리(flexible AI factory)’를 구축한다고 발표했습니다. 이 시설은 계산 부하 조절을 통해 전력망 균형 서비스에 참여할 예정입니다. 첫 번째 시설 ‘오로라(Aurora)’는 버지니아주 마나사스에 위치하며, 2026년 상반기에 개방될 예정입니다. (NVIDIA Newsroom, Axios)
왜 중요한가: AI 인프라 확장의 최대 병목은 칩이 아니라 전력망 연결 일정입니다. 대부분 지역에서는 3~5년이 소요됩니다. 전력망 유연성을 입증할 수 있는 데이터센터는 더 빠른 연결과 더 적은 규제 장애물을 겪게 됩니다. 이는 AI 인프라 투자자들이 직면하는 에너지 관련 과제의 본질을 재정의합니다. 승리 전략은 ‘더 많은 전력’이 아니라 ‘더 지능적인 전력’입니다.
중국, 매너스 AI(Manus AI) 고위 경영진의 해외 출국 제한
중국 당국은 싱가포르에 등록된 AI 스타트업 매너스 AI를 메타가 20억 달러에 인수한 후, 매너스 CEO 샤오 홍(소홍, Xiao Hong)과 수석 과학자 지이차오(지이차오, Ji Yichao)의 해외 출국을 제한했습니다. 국가발전개혁위원회는 이달 두 경영진을 베이징으로 소환했으며, 감독 검토 기간 동안 출국을 금지했습니다. (로이터, 워싱턴 포스트)
왜 중요한가: 이는 무역 제한이 아니라 인적 제한입니다. 중국은 대륙 출신의 AI 인재가 회사 등록지와 무관하게 통제 대상 자산임을 신호로 보내고 있을 가능성이 있습니다.
4,000억 파라미터 대규모 모델, 아이폰 17 프로에서 로컬 실행
오픈소스 프로젝트 ‘플래시-모이(Flash-MoE)’는 아이폰 17 프로의 A19 프로 칩을 활용해 4,000억 파라미터 규모의 믹스드 익스퍼트(MoE) 모델을 완전히 디바이스 내에서 실행하는 시연을 공개했습니다. 이는 SSD에서 GPU로 가중치를 스트리밍하는 방식으로 구현되었습니다. 해당 모델(Qwen 3.5-397B, 2비트 양자화, 활성 파라미터 170억 개)은 초당 0.6토큰 속도로 실행되며, 여전히 5.5GB의 RAM이 남아 있습니다. (WCCFTech, TweakTown, Hacker News)
왜 중요한가: 이는 제품이 아니라 개념 검증(PoC)입니다. 12GB 메모리의 스마트폰에서 4,000억 파라미터 모델이 실행 가능한 이유는, 실제 실행 시점에서는 모델 일부만 활성화되고(믹스드 익스퍼트), 나머지는 필요에 따라 내장 SSD에서 메모리에 상주하지 않고 스트리밍되기 때문입니다. 같은 기법을 훨씬 작은 규모의 모델—예를 들어 70억 또는 140억 파라미터 모델—에 적용하고, 차세대 고속 저장 기능을 갖춘 모바일 칩을 사용하면, 클라우드 연결 없이도 실시간 대화 속도로 완전히 로컬에서 실행 가능한 실용적인 AI를 구현할 수 있습니다.
AI 에이전트, 입자 물리학 실험 전 과정을 자율 수행
MIT 연구진은 ‘JFC(Just Furnish Context)’라는 프레임워크를 발표했는데, 이는 클로드 코드 기반 LLM 에이전트가 고에너지 물리학 분석 파이프라인 전체—이벤트 선별, 배경 추정, 불확실성 정량화, 통계적 추론, 논문 작성—를 자율적으로 수행할 수 있음을 보여줍니다. 이 시스템은 ALEPH, DELPHI, CMS 탐지기에서 공개된 데이터를 기반으로 실행되었습니다. (arXiv 2603.20179)
왜 중요한가: 이는 메서드론적 엄격성이 극도로 높은 분야에서 에이전트 기반 AI가 과학적 업무 워크플로우 전 과정을 자동화할 수 있음을 입증한 가장 명확한 사례 중 하나입니다. 직접적인 투자 함의는 물리학, 유전체학, 재료과학 분야에 오랜 기간 보관되어 있으나 충분히 분석되지 않은 유산 데이터셋에 대한 재분석 가능성으로 이어집니다—수십 년간 보관된 자료가 아직도 미활용 상태입니다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News














