
오픈AI에 로봇을 개발해주는 사람들은 공포스러운 미래를 목격했다
저자: 지크파크 친구
2026년 3월 7일, 내가 케이틀린 칼리노프스키(Caitlin Kalinowski)의 퇴사 소식을 접했을 때, 가장 먼저 떠오른 감정은 충격이 아니라 — “드디어 누군가 행동으로 말하기 시작했다”는 생각이었다.
칼리노프스키는 오픈AI(OpenAI)의 하드웨어 및 로봇 공학 담당 책임자로, 2024년 11월에야 막 합류한 지 불과 1년 반 만에 이 회사를 떠났다.
그녀가 제시한 사임 이유는 직설적이면서도 무겁다—오픈AI가 미국 국방부와 체결한 계약으로 인해 국내 감시 및 자율 무기 시스템에 AI 기술이 악용될 가능성을 받아들일 수 없다는 것이다.
이것은 단순한 인재 유출이 아니다. 이것은 인공지능의 ‘신체’를 직접 설계하고 구축해온 사람이, 자신의 손으로 만든 기술이 어떤 일을 벌일지 모른다는 이유로 세상에 던진 강력한 메시지다: “나는 내가 만든 것이 저지를 행동에 대해 책임지기를 거부한다.”
칼리노프스키의 퇴사를 이해하려면, 우선 그보다 약 일주일 전에 벌어진 일을 되돌아봐야 한다.
2월 28일, 샘 알트먼(Sam Altman)은 오픈AI가 미국 국방부와 협약을 체결해, 펜타곤(Pentagon)이 분류된 네트워크 내에서 오픈AI의 AI 모델을 사용할 수 있도록 허용한다고 발표했다. 이 소식이 전해지자 여론은 폭발했다.
흥미로운 점은, 이 계약의 ‘대조군’이 바로 경쟁사 앤트로픽(Anthropic)이라는 사실이다.
바로 그 얼마 전, 앤트로픽은 국방부로부터 유사한 협력 제안을 거부했다. 대신 계약서에 보다 엄격한 윤리적 장치를 명시할 것을 고집했고, 이에 대해 피트 헤그세스(Pete Hegseth) 국방장관은 X(옛 트위터)에서 앤트로픽을 직접 겨냥해 “거만함과 배신의 교과서적인 사례”라고 비난하며, 트럼프 행정부의 지시에 따라 앤트로픽과의 협력을 즉각 중단한다고 밝혔다.
오픈AI는 이후 이 계약을 인수했다.
사용자들의 반응은 매우 격렬했다. 2월 28일 당일, ChatGPT의 탈퇴율은 전날 대비 295% 급증했으며, #QuitGPT 운동은 순식간에 소셜미디어 전반에 확산됐고, 디지털 보이콧을 지지하는 인원은 사흘 만에 250만 명을 넘었다. 클로드(Claude)는 이 틈을 타 ChatGPT를 제치고 미국 기준 일일 다운로드 수 1위를 차지했으며, 애플 앱스토어(Apple App Store) 무료 앱 부문 정상에도 올랐다.
압박을 받은 알트먼은 3월 3일 공개적으로 “이 계약을 성급하게 발표해서는 안 됐다”고 인정하며, 이를 “기회주의적이고 부주의한 결정처럼 보였던 것”이라고 표현했다. 또한 계약 조항을 수정해 “AI 시스템이 미국 국민 및 시민에 대한 국내 감시 목적으로 의도적으로 사용되어서는 안 된다”고 명시하겠다고 발표했다.
하지만 바로 이 ‘의도적으로(intentionally)’라는 표현 자체가 하나의 헛점이다. 전자프론티어재단(Electronic Frontier Foundation)의 변호사는 날카롭게 지적했다. 정보기관 및 법 집행 기관은 종종 더 강력한 프라이버시 보호를 우회하기 위해 ‘우연히 발생한’ 데이터나 ‘상업적 구매’를 통한 데이터를 활용한다는 점을 감안할 때, ‘의도적으로’라는 한 단어를 추가한다고 해서 실질적인 제한이 되지는 않는다.
칼리노프스키의 퇴사는 바로 이런 맥락 속에서 이루어졌다.
01 그녀가 본 것은, 우리가 상상하는 것보다 훨씬 구체적이다
대다수 사람들이 여전히 “오픈AI가 정부에 맞서는 것을 포기했는가?”를 논의하고 있을 때, 칼리노프스키는 훨씬 더 구체적이고 잔혹한 문제에 직면해 있었다—그녀의 팀이 바로 지금 로봇을 만들고 있다는 사실이다.
하드웨어 및 로봇 공학은 추상적인 코드 작성이나 파라미터 조정 작업이 아니다. 그것은 인공지능에게 손과 발, 눈을 부여하는 작업이다. 오픈AI와 국방부의 협력이 ‘모델 사용’ 수준을 넘어 미래의 ‘구현형 AI(embodied AI) 군사 응용’으로 확장될 경우, 칼리노프스키의 업무 성격 자체가 근본적으로 바뀌게 된다.
자율 무기 분야 연구자들은 이미 오래전부터 이러한 순간의 도래를 경고해왔다.
현재 미국 국방부 정책은 자율 무기가 무력을 행사하기 전 반드시 인간의 승인을 받아야 한다고 요구하지 않는다. 다시 말해, 오픈AI가 체결한 계약은 기술적으로 그 모델이 ‘GPT가 누군가를 죽이기로 결정하는’ 시스템의 일부가 되는 것을 막지 않는다.
이는 과장된 위협이 아니다. 조지타운대학교 정부조달법 교수 제시카 틸립먼(Jessica Tillipman)은 오픈AI가 개정한 계약서를 분석하며, 해당 조항이 “앤트로픽과 같은 방식으로 정부의 합법적 사용을 금지할 수 있는 자유를 오픈AI에 부여하지 않는다”고 명확히 지적했다. 계약서는 단지 펜타곤이 ‘기존 법률 및 정책’을 위반해 오픈AI 기술을 사용하지 못하도록만 규정할 뿐인데, 문제는 자율 무기에 관한 현행 법률 자체가 거대한 규제 공백을 안고 있다는 점이다.
옥스퍼드대학의 거버넌스 전문가들도 유사한 판단을 내렸다. 오픈AI의 협약은 “국내 감시 및 자율 무기 시스템에 따른 거버넌스 차원의 구조적 결함을 보완하기는 거의 불가능할 것”이라고 평가했다.
칼리노프스키의 퇴사는 바로 이러한 판단에 대한 그녀 개인의 응답이었다.
02 오픈AI 내부에서는 지금 무엇이 일어나는가
칼리노프스키는 첫 번째 퇴사자가 아니며, 아마도 마지막 퇴사자도 아닐 것이다.
통계에 따르면, 오픈AI의 윤리팀과 AI 안전팀의 이직률은 이미 37%에 달한다. 대부분의 이직 사유는 ‘회사의 가치관과 불일치’ 혹은 ‘AI의 군사적 이용을 수용할 수 없음’이었다. 연구 과학자 에이든 맥로클린(Aidan McLaughlin)은 내부 게시글에서 “개인적으로 이 거래는 가치가 없다고 생각한다”고 밝혔다.
주목할 만한 점은, 이번 이직 열풍이 발생한 시점이—오픈AI가 상업적 영역을 급속히 확장하고 있는 단계와 정확히 일치한다는 점이다. 국방부 계약 논란과 거의 동시에, 오픈AI는 AWS와 기존 380억 달러 규모의 계약을 1,000억 달러 규모로 8년간 연장한다고 발표했고, 외부에 공개하는 지출 목표도 재조정하여 2030년까지 총 수익이 2,800억 달러를 넘을 것으로 예측했다.
상업화는 가속화되고, 안전팀은 계속해서 이탈하고 있다. 이 ‘가위차’는 현재 오픈AI의 처지를 이해하는 데 있어 가장 중요한 좌표축이다.
한 기업의 가치관은 결국 그 기업이 어떤 사람을 남겨두고, 어떤 사람을 놓치는가에 가장 잘 드러난다. 그리고 지금 ‘이 기술이 어떻게 쓰일지’를 가장 걱정하던 사람들이 하나둘씩 떠나고 있다면, 남은 조직 구조가 어느 방향으로 미끄러질지는 어렵지 않게 짐작할 수 있다.
앤트로픽은 이 싸움에서 다른 길을 선택했다—계약을 거부하고 국방부의 분노를 감수했지만, 대신 광범위한 사용자 신뢰를 얻었다. 당시 클로드의 다운로드 수가 역성장한 것은, ‘원칙에 입각한 거부’가 상업적으로 반드시 실패 전략이 아니라는 점을 어느 정도 입증했다.
하지만 앤트로픽 역시 대가를 치렀다—정부와의 협력에서 일단 배제된 것이다.
이것이 바로 진정한 딜레마의 핵심이다: 어떤 선택도 완벽하지 않다.
거부하면 영향력 상실, 나아가 규칙 제정 과정에서 완전히 배제될 가능성도 있다. 수락하면, 자신이 완전히 통제할 수 없는 행동에 대해 자신의 기술로 책임을 지는 꼴이 된다.
칼리노프스키의 선택은 세 번째 길—떠남이었다.
이것이 그녀가 할 수 있는 가장 정직한 행동이었다.
03 실리콘밸리의 영혼을 건 싸움, 이제 막 시작되었다
시야를 조금 더 넓혀 보면, 이 사건의 의미는 한 사람의 퇴사를 넘어서는 것이다.
AI와 군사의 결합은 전 산업이 언젠가는 반드시 마주해야 할 선택지다. 펜타곤은 예산과 수요, 기술 통합 능력을 모두 갖추고 있으며, AI 기업들에게 협력을 제안하는 것을 멈추지 않을 것이다. 그리고 AI 기업들—AGI(일반 인공지능)를 추구하는 오픈AI든, 안전을 강조하는 앤트로픽이든, 혹은 다른 모든 플레이어든—모두 이 질문 앞에서 자신만의 답을 내놓아야 할 것이다.
알트먼의 전략은 상업적 현실을 수용하면서도 계약 조항을 통해 최소한의 선을 긋는 데 있다. 그러나 여러 법률 및 거버넌스 전문가들이 지적한 바에 따르면, 그런 조항들은 기술적 차원의 강제력이라기보다는, 오히려 홍보 차원의 보호막에 더 가깝다.
더 근본적인 문제는, AI 모델이 분류된 네트워크에 배포되고 군사적 의사결정에 참여하게 되면, 외부 세계는 그 ‘보장’이 실제로 이행되고 있는지 검증할 능력조차 없다는 점이다.
투명성의 부재 자체가 바로 가장 큰 위험이다.
칼리노프스키는 오픈AI에서 1년 반도 채 머물지 않았지만, 바로 이 시점에서 떠났다. 그녀는 장문의 공개 성명을 내놓지도 않았고, 특정 인물을 직접 비난하지도 않았다. 단지 행동으로 자신만의 경계선을 그었다.
어떤 의미에서, 이 행동은 어떤 정책 논문보다도 훨씬 강력한 힘을 지닌다.
AI 하드웨어 및 로봇 공학은 원래 실리콘밸리에서 가장 흥분을 자아내는 최전선 분야 중 하나였다. 칼리노프스키가 떠날 때, 그녀가 가져간 것은 단순한 이력서가 아니라, 이 업계에 남아 있는 모든 사람들에게 던지는 하나의 질문이었다—
당신은 당신이 만든 것에 대해, 어디까지 책임을 질 것인가?
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News














