
Anthropic의 정체성 위기 72시간
글쓴이: Ada, TechFlow
2월 24일, 화요일. 워싱턴 D.C., 펜타곤.
Anthropic의 CEO 다리오 아모데이(Dario Amodei)가 국방장관 피트 헤그세스(Pete Hegseth)와 마주 앉아 있었다. NPR과 CNN 등 여러 언론사가 익명 소식통을 인용해 보도한 바에 따르면, 이 회담 분위기는 “예의 바른” 것이었지만 그 내용은 전혀 예의를 갖추지 않았다.
헤그세스는 아모데이에게 최후통첩을 내렸다: 금요일 오후 5시 01분 이전까지 클로드(Claude)의 군사적 사용 제한을 해제하고, 펜타곤이 “모든 합법적 용도”—자율무기 타격 시스템 및 미국 내 대규모 감시—에 이를 활용할 수 있도록 허용하라는 것이다.
그렇지 않을 경우, 2억 달러 규모의 계약을 전면 취소하겠다. 또한 《국방생산법》(Defense Production Act)을 발동해 강제 징발에 나서고, Anthropic를 “공급망 위험 기업”으로 지정할 것인데, 이는 러시아 및 중국의 적대적 실체들과 동일한 블랙리스트에 포함시키는 것을 의미한다.
같은 날, Anthropic는 ‘책임 있는 확장 정책’(Responsible Scaling Policy, RSP) 3.0 버전을 발표했다. 이 문서에서는 창립 이래 가장 핵심적인 약속—안전 조치가 충분히 확보되지 않는 한 더 강력한 모델의 훈련을 중단하겠다는 약속—을 조용히 삭제했다.
또한 같은 날, 엘론 머스크(Elon Musk)는 X 플랫폼에서 “Anthropic이 대규모로 훈련 데이터를 도용하고 있다. 이는 사실이다.”라고 게시했다. 동시에 X의 커뮤니티 노트(Community Notes)는 Anthropic이 클로드 훈련에 불법 복제 도서를 사용한 혐의로 15억 달러의 합의금을 지불했다는 보도를 추가로 제공했다.
72시간 이내에, 스스로 “영혼을 가진” AI 기업이라 자처해 온 이 회사는 세 가지 상반된 역할을 동시에 맡았다: 안전성의 순교자, 지적재산권 도용자, 펜타곤의 배신자.
어느 쪽이 진짜인가?
어쩌면 모두 진짜일지도 모른다.
펜타곤의 “복종하라 아니면 꺼져라”
이 이야기의 첫 번째 층은 간단하다.
Anthropic은 미국 국방부의 기밀 정보 접근 권한을 획득한 최초의 AI 기업이다. 작년 여름 체결된 계약의 최대 규모는 2억 달러였다. 이후 오픈AI(OpenAI), 구글(Google), xAI도 각각 동일 규모의 계약을 체결했다.
알자지라(Al Jazeera) 보도에 따르면, 클로드는 올해 1월 미군 작전에 실제로 투입됐다. 이 작전은 베네수엘라 대통령 니콜라스 마두로(Nicolás Maduro)의 납치를 포함했다고 전해진다.
하지만 Anthropic은 두 가지 ‘레드라인(red line)’을 명확히 설정했다: 자율무기 타격 시스템 지원 불가, 미국 시민 대상 대규모 감시 지원 불가. Anthropic은 인공지능의 신뢰도가 무기 통제 수준에 미치지 못하며, 현재로서는 대규모 감시 분야에서 AI를 규제하는 법률이나 규정이 전혀 존재하지 않기 때문이라고 설명했다.
그러나 펜타곤은 이를 받아들이지 않았다.
백악관 AI 고문인 데이비드 색스(David Sacks)는 지난해 10월 X에서 공개적으로 Anthropic을 “공포를 무기로 삼아 규제기관을 장악하려 한다”고 비난했다.
경쟁 기업들은 이미 무릎을 꿇었다. 오픈AI, 구글, xAI는 모두 군 당국이 자사 AI를 “모든 합법적 시나리오”에 활용하도록 허용하기로 동의했다. 머스크의 그록(Grok)은 이번 주에야 겨우 기밀 시스템에 진입하는 승인을 받았다.
Anthropic은 마지막으로 서 있는 기업이다.
기사 작성 시점 기준, Anthropic은 최근 발표한 성명에서 양보할 의향이 없음을 밝혔다. 그러나 금요일 오후 5시 01분이라는 마감 시한은 이미 눈앞에 다가왔다.
CNN에 익명으로 출연한 한 전(前) 사법부·국방부 연락관은 혼란을 표했다: “어떻게 한 기업을 ‘공급망 위험 기업’으로 지정하면서 동시에 그 기업에 자국 군대를 위해 일해 달라고 강요할 수 있단 말인가?”
훌륭한 질문이다. 하지만 이 질문은 펜타곤의 고려 범주에 들어가지 않는다. 펜타곤이 관심 있는 건 단 하나뿐이다: Anthropic이 양보하지 않으면 강제 조치를 취하거나, 워싱턴에서 완전히 버림받는 기업이 될 것이라는 점이다.
“증류 공격”: 낯 뜨거운 고발
2월 23일, Anthropic은 중국의 세 AI 기업이 클로드를 대상으로 “산업 규모의 증류 공격(industrial-scale distillation attack)”을 감행했다고 주장하는, 어조가 매우 강한 블로그 글을 게시했다.
피고는 딥시크(DeepSeek), 문샷 AI(Moonshot AI), 미니맥스(MiniMax)였다.
Anthropic은 이들 기업이 2만 4천 개의 위조 계정을 통해 클로드에 1,600만 차례 이상의 상호작용을 시도했으며, 이를 통해 클로드의 에이전트 추론, 도구 호출, 프로그래밍 등 핵심 능력을 정밀하게 추출했다고 주장했다.
Anthropic은 이 사건을 국가안보 위협으로 규정하고, 증류된 모델은 “안전 장치(safety guardrails)를 유지하기 어렵다”며, 권위주의 정부가 사이버 공격, 허위정보 유포, 대규모 감시 등에 이를 악용할 가능성이 있다고 경고했다.
서사 구조는 완벽했고, 타이밍도 완벽했다.
트럼프 행정부가 중국에 대한 반도체 수출 규제를 완화한 직후였고, Anthropic이 자사의 반도체 수출 규제 입장을 설득하기 위한 논거를 마련해야 할 때였다.
그러나 머스크가 한 방을 쐈다: “Anthropic이 대규모로 훈련 데이터를 훔쳤고, 이 때문에 수십억 달러의 합의금을 지불했다. 이는 사실이다.”

AI 인프라 기업 IO.Net의 공동 창립자 토리 그린(Tory Green)은 이렇게 말했다: “너희는 전 세계의 데이터를 써서 자사 모델을 훈련시켰고, 다른 기업이 너희의 공개 API를 통해 학습하는 걸 두고 ‘증류 공격’이라고 부른단 말인가?”
Anthropic은 ‘증류’를 ‘공격’이라 칭했지만, 이는 AI 업계에서 흔히 이루어지는 일반적인 관행이다. 오픈AI는 GPT-4 압축에 이를 사용했고, 구글은 젬니(Gemini) 최적화에 이를 적용했으며, 심지어 Anthropic 자신도 이를 실천해 왔다. 유일한 차이점은, 이번에는 자신이 증류당한 쪽이라는 점뿐이다.
싱가포르 난양공과대학교(Nanyang Technological University) AI 교수인 에릭 캠브리아(Erik Cambria)는 CNBC 인터뷰에서 “합법적 사용과 악의적 이용 사이의 경계는 종종 모호하다”고 지적했다.
더 풍자적인 사실은, Anthropic이 클로드 훈련에 불법 복제 도서를 사용한 혐의로 15억 달러의 합의금을 지불한 직후라는 점이다. 전 세계의 데이터를 사용해 모델을 훈련시킨 다음, 자사의 공개 API를 통해 다른 기업이 이를 학습하는 것을 ‘증류 공격’이라 고발하는 행위는 이중 잣대가 아니라 삼중 잣대다.
Anthropic은 피해자 역할을 자처했으나, 오히려 피고인으로 낙인찍히고 말았다.
안전 약속의 해체: RSP 3.0
펜타곤과의 대치, 실리콘밸리 내 경쟁 기업과의 공개적 갈등이 벌어진 바로 그날, Anthropic은 세 번째 버전의 책임 있는 확장 정책(RSP 3.0)을 발표했다.
Anthropic의 수석 과학자 제레드 카플란(Jared Kaplan)은 언론 인터뷰에서 “AI 모델 훈련을 중단하는 것이 누구에게도 도움이 되지 않는다고 판단했다. AI가 급속히 발전하는 상황에서, 경쟁 기업들이 전속력으로 나아가는 가운데 일방적으로 그런 약속을 지키는 것은 아무런 의미가 없다”고 밝혔다.
즉, 남들이 ‘무법’을 휘두르는데 우리는 더 이상 ‘척’을 하지 않겠다는 것이다.
RSP 1.0과 2.0의 핵심은 단 하나의 강력한 약속이었다: 모델의 능력이 안전 조치의 적용 범위를 초과하면 즉시 훈련을 중단한다는 것이다. 이 약속 덕분에 Anthropic은 AI 안전 분야에서 독보적인 평판을 얻었다.
그러나 RSP 3.0에서는 이 약속이 삭제되었다.
대신, Anthropic이 자체적으로 수행 가능한 안전 조치와 전 산업계의 협력이 필요한 안전 권고를 두 가지 별도의 트랙으로 나누는 ‘더 유연한’ 프레임워크가 도입됐다. 매 3~6개월마다 위험 보고서를 발표하고, 외부 전문가가 검토하도록 했다.
청렴하고 책임감 있어 보이는가?
비영리 단체 METR의 독립 검토관 크리스 페인터(Chris Painter)는 정책 초기 초안을 읽은 후 이렇게 평가했다: “이는 Anthropic이 이제 ‘삼진 분류(triage) 모드’로 진입해야 한다고 판단했다는 뜻이다. 위험 평가 및 완화 방법의 발전 속도가 모델 능력 증가 속도를 따라가지 못하고 있다는 증거이며, 이는 사회 전체가 AI의 잠재적 재앙적 위험에 대해 준비되지 않았음을 더 잘 보여준다.”
타임(TIME) 보도에 따르면, Anthropic은 이 정책 수정 작업을 거의 1년간 내부적으로 논의했으며, CEO 아모데이와 이사회는 만장일치로 이를 승인했다. 공식 입장은 다음과 같다: 원래 정책의 목적은 업계 내 공감대 형성을 촉진하는 것이었으나, 실제 업계는 이를 따라오지 못했다. 트럼프 행정부는 인공지능 발전을 방임하는 태도를 취했으며, 오히려 각 주의 관련 법규 폐지를 시도하기까지 했다. 연방 차원의 AI 법률 제정은 아직 요원한 상태다. 2023년 당시 전 세계 AI 거버넌스 프레임워크 구축이 여전히 가능해 보였지만, 3년이 지난 지금, 이 문은 분명히 닫혔다.
AI 거버넌스를 오랫동안 추적해 온 익명의 연구원은 더욱 직설적으로 말했다: “RSP는 Anthropic이 보유한 가장 가치 있는 브랜드 자산이다. 훈련 중단 약속을 삭제하는 것은, 유기농 식품 회사가 포장지에서 ‘유기농’이라는 문구를 몰래 떼어낸 뒤, ‘이제 우리 검사가 더 투명해졌다’고 말하는 것과 같다.”
3,800억 달러 기업 가치 아래의 정체성 분열
올해 2월 초, Anthropic은 아마존(Amazon)을 앵커 투자자로 하여 300억 달러 규모의 자금 조달을 마치고, 기업 가치 3,800억 달러를 달성했다. 창립 이래 연간 매출 140억 달러를 달성했으며, 지난 3년간 이 수치는 매년 10배 이상 증가했다.
한편, 펜타곤은 Anthropic을 블랙리스트에 올리겠다고 위협했고, 머스크는 공개적으로 데이터 도용 혐의를 제기했다. 또 핵심 안전 약속은 삭제됐다. Anthropic의 AI 안전 책임자 민안크 샤르마(Mrinank Sharma)는 사임 후 X에서 이렇게 남겼다: “세계가 위험에 처해 있다.”
모순인가?
어쩌면 모순이야말로 Anthropic의 본성일지도 모른다.
이 회사는 전(前) 오픈AI 고위 임원들이 창립했는데, 그 이유는 오픈AI가 안전 문제에서 너무 빠르게 전진한다고 우려했기 때문이다. 그런데 그들은 자신들이 설립한 회사를 통해 더 빠른 속도로 더 강력한 모델을 구축하면서도, 동시에 전 세계에 이 모델들이 얼마나 위험한지를 알리는 일을 하고 있다.
이들의 비즈니스 모델은 한 문장으로 요약할 수 있다: “우리는 누구보다도 AI를 더 두려워하므로, 여러분은 우리가 AI를 만들도록 돈을 내야 한다.”
이 서사는 2023–2024년에 완벽하게 작동했다. AI 안전은 워싱턴의 핫 키워드였고, Anthropic은 가장 인기 있는 로비 기업이었다.
2026년, 풍향이 바뀌었다.
‘각성된 AI(woke AI)’는 공격용 라벨이 되었고, 주 단위의 AI 규제 법안은 백악관에 의해 저지됐다. Anthropic이 지지한 캘리포니아주 SB 53 법안은 비록 법으로 제정됐지만, 연방 차원에서는 전무한 상황이다.
Anthropic의 안전 카드는 이제 ‘차별화된 강점’에서 ‘정치적 부채’로 전락하고 있다.
Anthropic은 복잡한 균형 행위를 하고 있다. 브랜드 가치를 유지하기 위해 충분히 ‘안전’해야 하면서도, 시장과 정부로부터 버림받지 않기 위해 충분히 ‘유연’해야 하기 때문이다. 문제는, 양쪽의 관용 범위가 모두 좁아지고 있다는 점이다.
안전 서사, 이제 얼마나 가치가 있을까?
이 세 가지 사건을 함께 보면, 전체 그림이 선명해진다.
중국 기업의 클로드 증류를 고발한 것은 반도체 수출 규제 강화를 위한 로비 서사를 강화하기 위해서였다. 군비 경쟁에서 뒤처지지 않기 위해 안전 훈련 중단 약속을 삭제했다. 펜타곤의 자율무기 요구를 거부한 것은, 최후의 도덕적 외투를 간신히 지켜내기 위해서였다.
각 단계에는 논리가 있지만, 동시에 서로 모순된다.
너는 중국 기업이 너의 모델을 ‘증류’하는 것이 국가안보를 위협한다고 말하면서도, 네 모델이 통제를 벗어나는 것을 막기 위한 약속은 삭제할 수 없다. 만약 모델이 정말 그렇게 위험하다면, 더 신중해져야지, 더 급진적으로 나서야 할 이유가 없다.
단, Anthropic이라면 가능하다.
AI 업계에서 정체성은 선언이 아니라 대차대조표로 정의된다. Anthropic의 ‘안전’ 서사는 본질적으로 브랜드 프리미엄이다.
AI 군비 경쟁 초기에는 이 프리미엄이 값어치가 있었다. 투자자들은 ‘책임 있는 AI’에 더 높은 기업 가치를 책정했고, 정부는 ‘신뢰할 수 있는 AI’에 대해 녹색 신호등을 켰으며, 고객은 ‘더 안전한 AI’에 대해 추가 비용을 지불했다.
하지만 2026년, 이 프리미엄은 사라지고 있다.
Anthropic이 직면한 선택지는 더 이상 ‘타협할 것인가’가 아니라, ‘누구에게 먼저 타협할 것인가’의 우선순위 정렬 문제다. 펜타곤에 타협하면 브랜드가 훼손되고, 경쟁사에 타협하면 안전 약속은 무효화되며, 투자자에 타협하면 양쪽 모두를 내줘야 한다.
금요일 오후 5시 01분, Anthropic은 이 질문에 대한 답을 제출할 것이다.
그 답이 무엇이든, 한 가지는 이미 확실하다: “우리는 오픈AI와 다르다”는 말로 존재 근거를 마련했던 Anthropic은, 이제 모든 사람과 똑같아지고 있다.
정체성 위기의 종착점은, 정체성의 소멸이다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News











