
OpenAI, ‘북극성’ 프로젝트 공개…‘2028년 대실업’이 진짜 다가올 수도
저자:
최근 인터넷에서 ‘2028년 전망’이라는 제목의 한 기사가 급속도로 퍼졌다. 이 기사는 AI 기술의 급속한 발전으로 인해 2028년에 대규모 실직 사태가 발생할 것이라며, 많은 사람들의 일자리가 AI에 의해 대체될 것이라고 주장했다.
기사가 공개된 직후 중동 정세 악화와 맞물려 당일 미국 증시가 크게 하락했다. 이 사건은 다소 초현실적으로 보이는데, 그 이유는 해당 기사 자체가 명백히 AI가 작성한 글임에도 불구하고, 사람들이 이미 공유하고 있는 ‘AI로 인한 대량 실업’에 대한 두려움과 정확히 부합했기 때문이다.
한편 최근 OpenAI가 공개한 소식은 ‘2028년 대량 실업’이 단순한 망상이 아닐 수 있음을 시사한다.
최근 OpenAI 수석 과학자 야쿠프 파초키(Jakub Pachocki)가 MIT Technology Review와의 독점 인터뷰에서 한 말은 척 봐도 등골이 오싹할 정도였다—그들의 ‘북극성(Polaris)’ 목표는 2028년 이전에 완전 자동화된 다중 에이전트 연구 시스템을 구축하는 것이다.
올해 9월에는 첫 번째 단계 목표가 실현된다:
특정 연구 과제를 독립적으로 처리할 수 있는 ‘자율형 AI 연구 인턴’.
이는 제품 로드맵 상의 단순한 자리 표시자도 아니며, 알트먼(Altman)이 X(구 트위터)에서 내뱉은 즉흥적인 장담도 아니다. 이는 OpenAI가 회사 전체 자원을 하나의 방향에 걸고 있는 결정이다.
‘북극성’의 의미
기술 기업이 ‘북극성’을 언급할 때, 일반적으로 두 가지를 의미한다: 첫째, 다른 모든 일들은 그것에 양보해야 한다는 것이고, 둘째, 회사 내부에서 이미 전폭적인 합의가 이루어졌다는 것이다.
지난 2주간 OpenAI의 움직임을 보면, 이러한 판단은 대체로 타당하다.
3월 19일, OpenAI는 개발자 도구 기업 아스트럴(Astral)을 인수하며 그 팀을 코덱스(Codex) 부서에 통합한다고 발표했다. 동시에 ChatGPT, Codex, 브라우저를 하나의 통합 데스크톱 ‘슈퍼 앱(Super App)’으로 통합하겠다고 밝혔으며, 이를 애플리케이션 담당 부사장 피지 시모(Fidji Simo)가 주도하고 그렉 브록맨(Greg Brockman)이 조직 개편을 보조한다.
분산된 제품 시대는 막을 내렸고, OpenAI는 모든 자원을 하나의 방향으로 집중시키고 있다.
그 방향은 바로 ‘AI가 스스로 연구를 수행하도록 만드는 것’이다.
파초키의 논리는 매우 명확하다: 추론 모델, 에이전트, 해석 가능성—이 세 가지 기술 노선은 그동안 OpenAI 내부에서 각각 독자적으로 진행되어 왔으나, 이제는 하나의 목표 아래 통합되어야 한다—즉, 데이터센터 내에서 장시간 자율적으로 작동할 수 있는 AI 연구자를 만들기 위한 것이다. 그는 “이 일이 성공한다면, 이것이 우리가 진정으로 의지하게 될 것이다”라고 말했다.
전 OpenAI 연구원 안드레이 카르파시(Andrej Karpathy)의 견해는 더욱 직설적이다—“모든 선도적 대규모 언어모델(Large Language Model, LLM) 연구실이 이 방향으로 갈 것이다. 이것이 최종 보스전(Boss Battle)이다.” 그는 덧붙여 이렇게 말했다: “확장성 확보는 물론 더 복잡하겠지만, 이 일을 해내는 건 순전한 엔지니어링 문제일 뿐이며, 반드시 성공할 것이다.”
그의 표현에 주목하자: ‘할 수 있느냐’가 아니라 ‘언제 할 것이냐’이다.
앤트로픽(Anthropic)도 움직이고 있다
OpenAI가 ‘북극성’ 계획을 발표한 바로 그날, 앤트로픽은 조용히 클로드 코드 채널(Claude Code Channels)을 출시했다—개발자가 텔레그램(Telegram) 및 디스코드(Discord)를 통해 실시간으로 작동 중인 클로드 코드(Claude Code)와 직접 대화할 수 있도록 하는 기능이다.
이 사실만 따로 보면 사소해 보이지만, 전체 흐름 속에서 바라보면 매우 중요하다.
앤트로픽의 전략은 다음과 같다: 개발자에게 AI가 미래에 무엇을 할 수 있을지 설명하기보다는, 지금 당장 개발자의 실제 업무 프로세스에 AI를 직접 통합하는 것이다. 텔레그램과 디스코드는 학술 논문이 아니라, 개발자들이 매일 일하는 현장이다.클로드 코드를 이 공간에 살게 만든다는 것은, 그것을 단순한 ‘도구’에서 ‘동료’로 전환시킨다는 것을 의미한다.
커뮤니티의 반응은 이러한 판단을 입증한다.
어떤 사용자는 이렇게 말했다: “클로드는 이번 업데이트로 오픈클로(OpenClaw)를 완전히 종결시켰다. 이제 맥 미니(Mac Mini)를 살 필요가 없다.” 이 말의 함의는, 앤트로픽의 인프라 개선이 이미 오픈소스 대체 솔루션의 비용 경쟁력을 무력화시켰다는 것이다.
더 광범위한 시간 흐름을 고려하면, 앤트로픽이 클로드 코드에 적용한 반복 개선 속도는 정말 놀랍다. 불과 수주 만에 텍스트 처리, 수천 개의 MCP(Multi-Component Protocol) 기능 통합, 자율 버그 수정 능력까지 모두 결합시켰다. OpenAI가 아스트럴 인수를 통해 코덱스 역량을 강화하는 동안, 앤트로픽은 이미 클로드 코드를 개발자의 채팅 창 바로 안으로 보냈다.
두 기업은 같은 종착점을 향해 달려가고 있지만, 그 경로는 극명하게 다르다—OpenAI는 ‘2028년 완전 자동화된 연구자’를 만들고자 하고, 앤트로픽은 ‘오늘 바로 쓸 수 있는 지능형 에이전트 도구’를 만들고 있다.
진정한 난제
그러나 여기서 놓쳐서는 안 되는 하나의 중요한 세부 사항이 있다.
파초키는 인터뷰에서 드물게도 스스로 AI 안전성과 통제 가능성 관련 도전 과제를 언급했으며, 그 내용은 매우 솔직했다.
그는 다른 대규모 언어모델을 활용해 ‘AI 연구자의 메모’를 감시함으로써, 문제가 생기기 전에 위험한 행동을 포착하려 한다고 밝혔다. 그러나 이어서 그는 이렇게 인정했다: “대규모 언어모델에 대한 우리의 이해 수준은, 우리가 그것들을 완전히 통제할 수 있을 만큼 충분하지 않다. 이 문제를 ‘완전히 해결됐다’고 단정하려면 아직 아주 오랜 시간이 필요하다.”
한 기업의 수석 과학자가 ‘우리는 아직 완전한 통제력을 갖추지 못했다’고 공공연히 밝히면서도, 동시에 2028년 완전 자동화된 AI 연구 시스템을 출시하겠다고 선언하는 이 상황은, 누구나 진지하게 고민해볼 가치가 있다.
이는 기술 발전을 비관적으로 보는 태도가 아니라, 이 일이 얼마나 어려운지를 정확히 인식하는 태도이다. 파초키가 이런 말을 할 수 있다는 사실 자체가, OpenAI 내부에서 이 길의 어려움에 대해 분명한 인식을 갖고 있음을 보여준다.
기술적 관점에서, 연구자들이 정리한 ‘카파시 사이클(Kapasi Cycle)’이 참고가 된다—성공적인 자동화 AI 연구 프레임워크는 세 가지 요소를 필요로 한다: 단일 파일을 수정할 권한을 가진 에이전트, 객관적으로 측정 가능한 단일 평가 지표, 고정된 실험 시간 제한.
이 프레임워크는 이미 실제 환경에서 결과를 내기 시작했다. 샵피(Shopify) CEO 토비아스 루트케(Tobias Lütke)는 공개적으로 한 사례를 공유했다: 그는 autoresearch 에이전트를 밤새 실행시켰고, 다음 날 아침, 이 에이전트는 37번의 실험을 수행하여 모델 성능을 19% 향상시켰다.
개념에서 현실로 이어지는 이 길은, 우리가 상상했던 것보다 훨씬 짧다.
월 2만 달러 구독료의 미래
‘북극성’ 프로젝트는 단순한 기술적 우위를 넘어, 비즈니스 차원의 승부처이기도 하다.
폴 로에츠어(Paul Roetzer)가 제시한 수치는 여러 번 다시 읽어볼 가치가 있다. 그는 OpenAI 내부 예측 자료를 인용해, 2029년까지 에이전트 사업만으로 연간 290억 달러의 수익을 올릴 것이라고 전했다. 이 수치에는 월 2,000달러의 ‘지식 에이전트(Knowledge Agent)’와 월 20,000달러의 ‘연구 에이전트(Research Agent)’가 포함된다.
이 수치는 ‘AI 연구자’라는 개념이 단순한 기술적 목표가 아니라, 명확한 수익 창출 로드맵임을 의미한다.
월 2만 달러의 ‘연구 에이전트’는, 경력 있는 연구원의 연봉의 일부에 불과하지만, 24시간 쉬지 않고 작동하며 동시에 37개의 실험을 수행할 수 있다. 이는 특정 개인을 대체하는 것이 아니라, ‘연구 생산성’이라는 개념 자체를 재정의하는 것이다.
이것은 카르파시의 말을 떠올리게 한다—“이것이 최종 보스전이다.” 그가 말하는 보스는 경쟁사가 아니라, AI 능력 자체의 한계, 즉 ‘천장’이다.
AI가 과학 연구를 자율적으로 추진할 수 있게 되면, AI의 진보 속도는 더 이상 인간 연구원의 수나 근무 시간에 제약받지 않을 것이다.
파초키 역시 같은 의미를 더 절제된 표현으로 전했다—“시스템이 데이터센터 내에서 장기간 자율적으로 작동할 수 있게 되면, 이것이 우리가 진정으로 의지하게 될 것이다.”
2026년 9월에 등장할 AI 연구 인턴은 결코 종착점이 아니라, 매우 중요한 출발점이다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News












