
OpenAI 공식 첫 번째 팟캐스트: Sam Altman, GPT-5와 스타게이트, 차세대 AI 하드웨어 세부 정보 공개
정리: 유신
6월 19일, OpenAI는 공식적으로 첫 번째 팟캐스트 프로그램을 발표하며 CEO 샘 알트먼(Sam Altman)이 GPT-5 개발 일정, 스타게이트(Stargate) 프로젝트, 차세대 AI 단말기 개발, 모델 기억 기능 논란, 그리고 AGI 도래 후 사회 구조 변화 등에 관해 처음으로 체계적으로 답변했다.
알트먼은 "초보 아버지"라는 개인적 입장에서 AI가 양육과 교육에 실제로 어떻게 활용되고 있는지를 언급하는 한편, 기업 의사결정자로서 OpenAI가 현재 마주한 핵심적인 선택, 즉 기술의 비약적 발전, 개인정보 보호의 경계, 신뢰 구조 간의 균형 유지 문제를 밝혔다.
"내 아이들은 절대로 AI보다 똑똑해질 수 없겠지만, 우리 세대보다 훨씬 더 강하게 성장할 것입니다." 프로그램에서 알트먼은 이 시대 어린이들이 AI가 전방위적으로 침투한 세계 속에서 자라날 것이며, 지능형 시스템에 대한 의존성, 이해력, 상호작용 능력은 과거 세대가 스마트폰에 익숙해진 것처럼 자연스러워질 것이라고 솔직히 말했다. 또한 ChatGPT 같은 모델이 가족 동반자 및 지식 계발의 새로운 역할을 맡으면서 육아, 교육, 업무, 창의력 개발에 새로운 패러다임을 열고 있다고 강조했다.
AI는 차세대의 성장 환경이 되고 있다
알트먼은 아직 사회가 통일된 정의를 내리지는 못했지만 "매년 점점 더 많은 사람들이 이미 AGI 시스템에 도달했다고 생각하게 될 것"이라고 말했다. 그의 견해로는 대중의 하드웨어와 소프트웨어에 대한 수요 변화가 매우 빠르며, 현재 컴퓨팅 능력은 잠재적 수요를 충족시키기엔 여전히 턱없이 부족하다.
대화가 알트먼의 최근 아버지가 된 경험으로 옮겨갈 때, 그는 초기 육아 과정에서 ChatGPT가 큰 도움을 주었다고 인정했다. "많은 사람들이 ChatGPT 없이도 자녀를 잘 키우지만, 나는 내가 그럴 수 있을지 확신하지 못한다." 처음 몇 주간 '모든 것을 물어봐야 하는' 단계를 지나면서, 그는 질문을 아동 발달 리듬과 행동 습관에 집중하게 되었다. 이러한 AI 도구들이 육아에서 '정보 중개자'이자 '자신감 제공자' 역할을 시작하고 있음을 지적했다.
또한 알트먼은 AI가 차세대 성장 경로에 미치는 영향에 대해서도 고민하고 있다. 그는 "내 아이들은 절대로 AI보다 똑똑해질 수 없지만, 우리 세대보다 훨씬 더 강하게 성장할 것입니다"라고 분명히 밝히며, 이 세대 아이들이 AI가 어디에나 존재하는 환경에서 자연스럽게 자랄 것이며, AI에 대한 의존과 상호작용은 지난 10년간 스마트폰이 그랬던 것처럼 당연하게 여겨질 것이라고 강조했다.
알트먼은 소셜미디어에서 회자된 사례 하나를 소개하기도 했다. 한 아버지가 아이에게 '토마스와 친구들' 이야기를 반복해서 들려주는 것을 피하려고 캐릭터를 ChatGPT 음성 모드에 입력했더니, 아이가 무려 한 시간 이상 그것과 대화했다는 것이다. 이런 현상은 알트먼에게 깊은 우려를 안겼다. AI가 동반자 역할로 확장될 경우, '유사 사회적 관계'의 왜곡 문제가 발생할 수 있으며, 이는 사회 구조에 새로운 도전을 제시할 수 있다는 것이다. 그는 사회가 경계를 재설정해야 한다고 강조하면서도, 역사적으로 항상 새로운 기술 충격에 대응하는 방법을 찾아왔다는 점도 지적했다.
교육 분야에서는 알트먼이 ChatGPT가 교실 안에서 긍정적인 가능성을 보이고 있다고 관찰했다. "좋은 교사와 좋은 커리큘럼이 안내할 때 ChatGPT는 매우 훌륭한 성과를 낸다"면서도, 학생이 혼자 숙제를 할 때에는 쉽게 '구글 복사' 수준으로 퇴화한다는 점을 인정했다. 자신의 경험을 예로 들어, 과거에도 '그는 오직 Google만 사용한다'는 걱정이 있었지만 결국 아이들과 학교가 새로운 도구 변화에 빠르게 적응하는 것을 발견했다고 설명했다.
ChatGPT가 5년 후 어떤 모습일지 묻는 질문에 대해 알트먼은 "5년 후의 ChatGPT는 완전히 다른 존재가 될 것"이라며 이름은 유지되더라도 그 능력, 상호작용 방식, 위치 설정은 근본적으로 달라질 것이라고 말했다.
AGI는 동적 정의이며, 딥 리서치(deep research)가 능력을 격상시킨다
업계의 핫이슈인 'AGI'에 대해 샘 알트먼은 보다 동적인 해석을 제시했다. 그는 "5년 전에 저나 다른 누군가가 당시 소프트웨어의 인지 능력을 기반으로 AGI를 정의했다면, 그때의 정의는 이미 지금 훨씬 초월된 상태"라고 말했다. 모델의 지능이 지속적으로 향상됨에 따라 AGI의 기준 역시 계속해서 상향 조정되며, 일종의 '동적 이동' 상태를 보이고 있다는 것이다.
그는 현재 이미 인간의 작업 효율을 크게 높이고 경제적 가치를 지닌 과제를 수행할 수 있는 시스템이 존재한다고 강조하면서, 진정한 의미에서 고민해볼 만한 질문은 "어떤 시스템을 '초지능(superintelligence)'이라 불러야 하는가?"라고 말했다. 그의 판단으로는 자율적인 과학적 발견을 수행하거나 인간의 과학적 발견 효율을 극대화할 수 있는 시스템이야말로 그 기준에 근접하며, "이는 세상에 매우 멋진 일일 것"이라고 덧붙였다.
이러한 판단은 OpenAI 내부에서도 이미 공감대를 형성하고 있다. 앤드루 매니(Andrew Mane)는 GPT-4를 처음 체험했을 때 "10년 치 탐색 공간이 열리는 듯한 느낌"을 받았다고 회상했다. 특히 모델이 스스로 호출하고 초기 추론 능력을 보여주는 순간, 새로운 단계의 가능성을 실감했다고 말했다.
알트먼은 이에 동의하며 "나는 항상 인간 삶의 질 향상의 핵심 동력은 과학 진보의 속도라고 믿어왔다"고 강조했다. 과학적 발견의 느림이 인류 발전을 제약하는 근본 요소이며, AI가 이 부분에서 갖는 잠재력은 아직 충분히 발휘되지 않았다는 것이다. 그는 아직 'AI 자동 연구'의 완전한 경로를 장악하지는 못했지만, 연구팀의 전망에 대한 자신감이 빠르게 커지고 있다고 말했다. GPT-4.0.1에서 GPT-4.0.3로 갈수록 매 몇 주마다 새로운 핵심 아이디어를 제시하고 거의 모두 성공하는 속도에 사뭇 흥분하며, 이는 '돌파구는 갑자기 찾아온다'는 믿음을 입증한다고 말했다.
앤드루 매니는 추가로 OpenAI가 최근 기본 모델을 GPT-4.0.3으로 전환했는데, 가장 중요한 업데이트는 오퍼레이터(operator) 모드 도입이라고 설명했다. 그는 과거 많은 에이전트(agentic) 시스템들이 높은 기대를 받았지만 '내충격성(resilience)'이 부족하여 이상 상황에서 바로 오류를 일으켰다고 평가했다. 그러나 GPT-4.0.3은 전혀 다르게 작동했다. 알트먼은 이에 대해 "많은 사람이 나에게 GPT-4.0.3의 오퍼레이터 모드가 바로 AGI의 돌파적 순간이라고 말했다"고 답했다. 본인은 특별한 감흥을 느끼진 않았지만, 외부 사용자의 피드백은 중요하게 받아들여야 한다고 말했다.
두 사람은 이후 '딥 리서치(deep research)' 기능이 가져온 새로운 능력에 대해 더 깊이 논의했다. 앤드루는 마셜 맥루한(Marshall McLuhan) 관련 연구를 할 때 AI가 인터넷에서 자료를 검색하고 필터링하며 정리해 완전한 자료 패키지를 만들어냈다며, 자기 수작업보다 훨씬 효율적이었다고 말했다. 그는 또 기억력은 부족하지만 호기심은 강한 사용자를 위해 질문을 오디오 파일로 생성하는 앱도 개발했다.
알트먼은 또 다른 극단적 사용 사례를 공유했다. 한 '학습 중독자'가 다양한 관심 주제에 대해 딥 리서치를 이용해 완전한 보고서를 생성하고, 하루 종일 읽고, 질문하고, 반복하며 오직 AI 중심의 학습 순환에 완전히 몰입하는 모습이다.
알트먼은 시간 부족으로 이러한 도구들을 충분히 사용하지는 못하지만, 짧은 시간 안에서도 딥 리서치 결과물을 우선적으로 읽는 것을 선호한다고 말했다.
기능이 지속적으로 강화되고 사용 시나리오가 다양해짐에 따라, 다음 세대 모델에 대한 외부의 관심도 높아지고 있다. 앤드루는 사용자들이 가장 궁금해하는 질문을 직설적으로 던졌다. GPT-5는 정확히 언제 출시되는가? 알트먼은 "올여름일지도 모르지만, 정확한 시점은 나도 모른다"고 답했다. 그는 내부에서 끊임없이 논의되는 문제를 언급하며, 새 버전을 이전처럼 '대대적인 발표' 형식으로 내놓을 것인지, 아니면 GPT-4처럼 이름을 바꾸지 않고 지속적으로 업데이트할 것인지에 대해 고민 중이라고 밝혔다.
그는 "현재 모델 시스템 구조는 과거보다 훨씬 복잡해졌으며, 더 이상 '한 번 훈련하고 한 번 출시'하는 선형 프로세스가 아니라 지속적인 최적화가 가능한 동적 시스템"이라고 설명했다. "GPT-5를 출시한 후에도 계속 업데이트한다면, GPT-5.1, 5.2, 5.3이라고 명명해야 할까, 아니면 계속 GPT-5라고 부를까?" 사용자들의 선호도가 서로 다름에 따라 결정이 더욱 복잡해지고 있다. 일부는 특정 시점의 스냅샷을 원하고, 일부는 지속적인 향상을 원하지만, 그 경계선을 통일하기 어렵다는 것이다.
앤드루는 심지어 기술 배경이 있는 사람들조차 모델 선택에서 혼란을 겪는다고 지적했다. O3, O4 Mini, O4 Mini High 등의 선택지에서 이름의 일관성 부족이 선택 난이도를 높이고 있다고 말했다.
이에 대해 알트먼은 "이건 범용 전이(paradigm shift)의 부산물"이라고 설명했다. 현재 시스템은 마치 두 가지 모델 아키텍처를 동시에 운영하는 것 같지만, 이러한 혼란 상태도 거의 끝나간다고 말했다. 미래에 다시 새로운 범용 전이가 발생해 시스템이 '분열'할 가능성은 배제하지 않지만, "나는 빨리 GPT-5, GPT-6 단계로 진입해 사용자가 복잡한 이름과 모델 전환에 더 이상 허덕이지 않기를 기대한다"고 덧붙였다.
AI 기억 기능, 개인화 및 개인정보 논란
최근 ChatGPT 사용 경험의 가장 큰 변화에 대해 샘 알트먼은 "기억 기능이 아마도 내가 최근 가장 좋아하는 ChatGPT 신기능일 것"이라고 말했다. 그는 과거 GPT-3를 사용할 때 컴퓨터와의 대화 자체만으로도 놀라웠지만, 지금은 사용자의 배경 정보를 기반으로 정확한 응답을 제공함으로써 '당신이 누구인지 알고 있다'는 느낌이 이전과 비교할 수 없는 도약이라고 회상했다. 알트먼은 사용자가 원한다면 AI가 사용자의 삶을 깊이 이해하고 이에 기반해 '매우 유용한 답변'을 제공할 수 있게 되었으며, 이는 AI의 완전히 새로운 단계라고 주장했다.
그러나 기능의 진화는 사회 차원에서 더 복잡한 논쟁을 촉발하기도 한다. 앤드루 매니는 <뉴욕타임스>가 최근 OpenAI를 상대로 제기한 소송을 언급하며, 법원에 ChatGPT 사용자 데이터를 규정 준수 기간 이상 보관하도록 강제 요청한 사실이 널리 주목받고 있다고 말했다. 이에 대해 알트먼은 "우리는 물론 이 요청에 반대합니다. 저는 반대할 것이며, 승리할 것이라고 믿습니다"라고 말했다. 상대방이 개인정보 보호를 강조하면서도 오히려 경계를 넘는 요구를 한다는 점을 비판하며, 이 사건이 현재 AI와 개인정보 사이의 제도적 공백을 적나라하게 드러냈다고 지적했다.
알트먼은 이번 소송은 유감스럽지만 "사회가 AI와 개인정보 문제를 진지하게 논의하게 만들었다는 점에서 긍정적인 의미도 있다"고 말했다. 그는 ChatGPT가 이미 많은 사용자들의 일상생활에서 '비밀 대화 파트너'가 되었기 때문에 플랫폼은 민감한 정보가 남용되지 않도록 더욱 엄격한 제도적 보장을 마련해야 한다고 강조했다. 그는 "개인정보 보호는 반드시 AI 사용의 핵심 원칙이 되어야 한다"고 단언했다.
논의는 이후 데이터 사용 및 광고 가능성으로까지 확장되었다. 앤드루는 OpenAI가 사용자 대화 데이터에 접근할 수 있는지, 해당 데이터가 훈련 또는 상업적 목적으로 사용되는지 질문했다. 이에 알트먼은 사용자는 훈련 데이터 사용을 끌 수 있으며, OpenAI는 아직 어떤 광고 제품도 출시하지 않았다고 답했다. 그는 개인적으로 광고를 완전히 반대하지는 않는다며 "일부 광고는 좋다. 예를 들어 인스타그램 광고에서 나는 여러 번 구매한 적이 있다"고 말했다. 하지만 ChatGPT 같은 제품에서는 '신뢰'가 매우 중요한 기반이라고 강조했다.
알트먼은 소셜미디어와 검색 플랫폼에서 사람들은 자신이 '상품화'되고 있다고 느끼며, 콘텐츠가 광고 클릭을 위한 것으로 보이는 구조적 문제가 사용자들의 일반적인 우려를 낳는다고 지적했다. 만약 앞으로 AI 모델의 출력 콘텐츠가 광고 입찰에 의해 조작된다면, 이는 완전한 신뢰 붕괴가 될 것이며, "저 자신도 그것을 매우 싫어할 것"이라고 말했다.
반대로 그는 "명확하고 투명하며 목적을 함께하는" 비즈니스 모델을 선호한다. 즉 사용자가 고품질 서비스를 위해 직접 비용을 지불하는 모델로, 암묵적인 광고에 조작당하지 않는 것이다. 통제 가능한 전제 하에서, 그는 향후 '클릭 후 플랫폼 수수료' 모델이나 출력 콘텐츠 외부에 유용한 광고를 표시하는 것을 배제하지 않지만, 핵심은 모델의 핵심 출력 독립성과 신뢰성에 절대 영향을 주지 않는다는 것이다.
앤드루는 유사한 우려를 표현하며 구글을 예로 들었다. 그는 Gemini 1.5 모델이 매우 우수하지만, 광고 중심 회사로서 구글의 근본적인 동기가 완전히 안심되긴 어렵다고 말했다. "나는 그들의 API를 사용하는 건 문제없지만, 채팅 로봇을 사용할 때면 항상 이렇게 생각한다. '내 편에 서 있는가?'"
이에 알트먼은 이해를 표하며 자신도 과거 구글 서치의 충성 사용자였다고 밝혔다. "나는 정말 구글 서치를 좋아한다. 광고가 많았지만, 인터넷에서 가장 훌륭한 도구였다." 그러나 구조적 문제는 여전히 존재한다고 말했다. 그는 애플의 모델을 칭찬하며 "청결한 경험을 위해 제품에 비용을 지불하는 것"이 건강한 논리라고 평가했으며, 애플이 과거 iAd 광고 사업을 시도했지만 실패했고, 아마도 본질적으로 그러한 비즈니스 모델에 관심이 없다는 점도 언급했다.
두 사람 모두 사용자들도 판단력을 유지해야 한다고 보았다. "어느 날 갑자기 어떤 제품이 '매우 강하게 밀고 들어오는' 것을 발견하면, 우리는 다시 물어야 한다. 이 뒤에 숨은 동기는 무엇인가?"라고 앤드루는 말했다. 알트먼은 추가로 "미래에 어떤 비즈니스 모델을 채택하든, OpenAI는 반드시 '극도로 솔직하고, 명확하며, 투명한' 원칙을 고수해 플랫폼에 대한 사용자의 신뢰 경계를 유지해야 한다"고 강조했다.
스타게이트(Stargate), 지능의 에너지 지도를 건설하다
대화가 'AI와 사용자 관계의 진화'로 옮겨갈 때, 알트먼은 먼저 소셜미디어 시대의 구조적 오류를 회고했다. 그는 "소셜 플랫폼의 치명적 문제는 추천 알고리즘의 목표가 잘못 설정된 데 있다—단지 당신이 더 오래 머물도록 유도할 뿐, 당신이 무엇을 필요로 하는지는 진정으로 신경쓰지 않는다"고 지적했다. 같은 위험이 AI에서도 발생할 수 있다. 그는 만약 모델이 '사용자 선호만을 맞추기 위해' 최적화된다면, 일견 친근해 보이지만 장기적으로 시스템의 일관성과 원칙을 약화시켜 해롭게 될 수 있다고 경고했다.
이러한 편향은 DALL·E 3에서도 나타났다. 앤드루는 초기 이미지 생성 시 명백한 스타일 단일화 문제를 관찰했으며, 알트먼은 훈련 메커니즘을 확인하지는 않았지만 가능성은 인정했다. 두 사람은 새로운 세대의 이미지 모델이 품질과 다양성 측면에서 눈에 띄게 개선되었다는 데 의견을 같이했다.
더 큰 도전은 AI 컴퓨팅 자원의 병목 현상에서 비롯된다. 알트먼은 현재 가장 큰 문제가 "사용할 수 있는 컴퓨팅 파워가 충분하지 않다"는 것이라고 인정했다. 따라서 OpenAI는 프로젝트 스타게이트(Project Stargate)를 추진하고 있다. 이는 글로벌 규모의 컴퓨팅 인프라 투자 및 건설 프로젝트로, 자본, 기술, 운영 자원을 통합해 전례 없는 규모의 컴퓨팅 플랫폼을 구축하는 것이 목표다.
"스타게이트의 핵심 논리는 지능 서비스가 전 국민에게 보급되기 위해 비용이 통제 가능한 컴퓨팅 기반을 마련하는 것이다." 그는 이전 어느 세대 기술과도 다르게, AI가 수십억 사용자에게 진정으로 보급되기 위해서는 인프라 수요가 매우 방대할 것이라고 설명했다. 현재 OpenAI 계좌에 5000억 달러 예산이 있는 것은 아니지만, 프로젝트 실행과 협력사 이행에 대해선 확신을 갖고 있으며, 첫 번째 건설 부지가 이미 착공되었고 전체 투자의 약 10%를 차지한다고 밝혔다.
현장 체험은 그를 충격에 빠뜨렸다. "머릿속으로는 기가와트급 데이터센터가 무엇인지 알고 있지만, 실제로 수천 명이 GPU 서버룸을 설치하는 장면을 보면 그 시스템의 복잡성이 상상을 초월한다." 그는 "어느 누구도 혼자서 연필 하나를 만들 수 없다"는 비유를 들며, 스타게이트가 뒷받침하는 산업 동원의 광범위함—채굴, 제조, 물류부터 모델 호출에 이르기까지—이 인류의 천년 공학 협업의 극치라고 강조했다.
외부의 의문과 방해에 대해 알트먼은 일론 머스크(Elon Musk)가 스타게이트 프로젝트에 개입하려 했다는 보도에 대해 처음으로 공개적으로 반박했다. 그는 "예전에 잘못 판단했다. 나는 일론이 정부 영향력을 남용해 부당한 경쟁을 하진 않을 것이라고 생각했다"고 말했다. 이에 대해 유감을 표하며, 이러한 행위는 업계 신뢰를 파괴할 뿐 아니라 국가 전체 발전에도 해롭다고 강조했다. 다행히 최종적으로 정부는 영향을 받지 않았고, 올바른 입장을 지켰다고 덧붙였다.
현재의 AI 경쟁 구도에 대해서는 긍정적인 반응을 보였다. 과거에는 모두가 '승자 독식(winner-takes-all)'에 대한 불안을 느꼈지만, 이제는 더 많은 사람들이 생태계 공동 건설이라는 점을 깨닫고 있다고 말했다. "AI의 탄생은 트랜지스터 발명과 비슷하다. 처음에는 소수의 손에 있었지만, 결국 전체 세계의 기술 기반이 된다." 그는 수많은 기업이 이 기반 위에서 위대한 애플리케이션과 비즈니스를 창출할 것이라 믿으며, AI는 본질적으로 '윈윈 게임(positive-sum game)'이라고 확신했다.
컴퓨팅에 필요한 에너지원에 대해서도 알트먼은 "모두 필요하다"고 강조했다. 천연가스, 태양광, 핵분열, 미래의 핵융합 기술까지, OpenAI는 AI 시스템의 초대규모 운용 수요를 충족하기 위해 모든 수단을 동원해야 한다고 말했다. 이는 전통적인 에너지의 지리적 경계를 점차 무너뜨릴 것이며, 훈련 센터는 자원이 있는 곳이라면 세계 어디에든 배치될 수 있고, 지능의 성과는 인터넷을 통해 저비용으로 전파될 수 있다는 것이다.
"전통적인 에너지는 글로벌 조달이 불가능하지만, 지능은 가능하다." 그의 관점에서 '에너지를 지능으로 전환하고, 다시 가치로 출력하는' 경로는 인류의 전체 에너지 지도를 재편하고 있다.
이러한 관점은 과학 연구 분야에도 이어진다. 앤드루는 제임스 웹 우주망원경(James Webb Space Telescope)이 방대한 데이터를 축적했지만 과학자 부족으로 처리되지 못해 '개발되지 않은 과학적 발견'이 많이 발생하고 있다고 예로 들었다. 이에 대해 알트먼은 기존 데이터만으로 새로운 실험이나 장비 없이도 새로운 과학 법칙을 도출할 수 있는 충분히 똑똑한 AI가 미래에 가능할지 상상했다.
그는 농담처럼 OpenAI가 거대한 입자 가속기를 직접 건설해야 한다고 말한 적도 있지만, 곧 생각을 바꿔 고에너지 물리학 난제를 AI가 완전히 다른 방식으로 해결할 수 있지 않을까 생각했다고 말했다. "우리는 이미 방대한 데이터를 축적했고, 문제는 우리가 지능 그 자체의 한계를 아직 이해하지 못하고 있다는 것뿐이다."
약물 발견 분야에서는 '이미 알려진 것을 놓친' 사례가 더 자주 발생한다. 앤드루는 오르리스타트(Orlistat) 같은 약물이 90년대에 이미 발견되었지만 시각의 제한으로 수십 년간 방치되다가 오늘날에야 재활용되고 있다고 언급했다. 알트먼은 "잊혀졌지만 극도로 가치 있는 과학 자료가 아직 많이 있을 것이며, 조금만 방향을 제시하면 큰 돌파구를 만들 수 있다"고 말했다.
차세대 모델에 대한 기대에 대해 알트먼은 큰 관심을 표했다. 그는 Sora가 고전 물리를 이해하지만, 더 깊은 이론 과학으로 나아갈 수 있을지는 아직 검증되지 않았다고 말했다. "우리가 현재 개발 중인 '추론 모델(reasoning model)'이 이러한 능력을 탐색하는 데 핵심이 될 수 있다"고 말했다.
그는 추론 모델과 기존 GPT 시리즈의 차이를 추가로 설명했다. "처음부터 우리는 모델에게 '단계적으로 진행하라'고 말하면 답변 품질이 크게 향상된다는 것을 발견했다. 이는 모델이 잠재적인 추론 경로를 가지고 있다는 것을 시사한다." 추론 모델의 목표는 이러한 능력을 체계적이고 구조적으로 강화해 모델이 인간처럼 '내면의 독백'을 할 수 있도록 하는 것이다.
앤드루는 Anthropic이 '생각 시간(thinking time)'을 통해 모델 품질을 평가한 사례를 보완했다. 알트먼은 놀라움을 표현하며 "사실 나는 사용자가 가장 싫어하는 것이 기다리는 줄 알았다. 그런데 현실은—답변이 충분히 좋다면, 사람들은 기꺼이 기다린다는 것"이라고 말했다.
그의 관점에서 이것이야말로 AI 진화의 분수령이다. 더 이상 속도만을 추구하는 기계적 응답이 아니라, 진정한 이해, 추론, 발명을 하는 지능체에 가까워지고 있다는 것이다.
차세대 하드웨어와 개인 잠재력의 혁명
OpenAI의 하드웨어 계획에 대해 앤드루는 샘 알트먼과 조니 아이브(Jony Ive)의 협업 영상을 언급하며 직접적으로 물었다. 장치가 이미 시험 사용 단계에 들어섰는지?
알트먼은 "아직 아주 이르다"고 답했다. 그는 OpenAI가 이 제품에 대해 매우 높은 품질 기준을 설정했으며, 이는 단기간에 달성할 수 있는 목표가 아니라고 말했다. "우리가 현재 사용하는 컴퓨터는 하드웨어든 소프트웨어든 본질적으로 'AI 없는 세계'를 위해 설계된 것이다."
그는 AI가 인간의 문맥을 이해하고 인간을 대신해 합리적인 결정을 내릴 수 있게 되면, 인간-기계 상호작용 방식이 완전히 바뀔 것이라고 지적했다. "기기가 더 민감하고 환경을 감지하며 당신의 삶의 배경을 이해하기를 원할 수 있다. 또는 화면과 키보드로부터 완전히 벗어나기를 원할 수도 있다." 그래서 그들은 새로운 형태의 장치를 계속 탐색하고 있으며, 일부 방향에 대해 매우 기대하고 있다고 말했다.
알트먼은 완전히 새로운 상호작용 패러다임을 묘사했다. 사용자를 진정으로 이해하고 문맥을 장악한 AI가 회의에 대신 참여하고 내용을 이해하며 정보 경계를 관리하고 관련 당사자와 연락하며 의사결정을 추진할 수 있다. 이는 인간과 기기의 관계를 새로운 공생 상태로 이끌 것이다. "당신이 한 마디만 해도 누군가에게 연락하고 어떻게 행동할지 알게 된다면, 컴퓨터 사용 방식은 완전히 달라질 것이다."
진화 논리 측면에서 그는 현재 우리가 ChatGPT와의 상호작용 방식이 '장치 형태에 의해 형성되기도 하지만', 동시에 '장치 형태를 되돌아 형성하고 있다'고 말했다. 두 요소는 지속적인 동적 공진화 상태에 있다.
앤드루는 휴대폰의 보급이 '공적 사용(화면 보기)'과 '사적 사용(음성 통화)' 시나리오를 모두 수용한 덕분이었다고 지적했다. 따라서 새로운 장치의 도전 과제도 '다양한 상황에서 사적이고도 보편적인' 장치가 되는 것이라고 말했다. 이에 대해 알트먼은 동의했다. 음악 감상 예를 들어, 집에서는 스피커를, 거리에서는 이어폰을 사용하는 것처럼 '공적-사적 분화'는 자연스럽게 존재한다고 말했다. 하지만 새로운 장치 형태는 더 강한 보편성을 추구해야만 진정한 생명력을 가진 AI 단말기가 될 수 있다고 강조했다.
이 제품이 언제 출시될지 묻는 질문에 알트먼은 구체적인 시점을 밝히지 않고 "아직 한동안 기다려야 할 것"이라며, 다만 결국 "기다릴 만한 가치가 있을 것"이라고 믿는다고 말했다.
이 대화는 자연스럽게 알트먼이 젊은이들에게 주는 조언으로 넘어갔다. 그는 명백한 전략적 조언은 "AI 도구 사용법을 배우는 것"이라고 말했다. 그의 관점에서 세계는 몇 년 전의 '프로그래밍을 배워야 한다'는 시대에서 빠르게 'AI 사용법을 배워야 한다'는 시대로 전환하고 있다고 말했다. 그러나 이 역시 일시적인 과도기일 뿐, 앞으로 또 다른 '핵심 기술'이 등장할 것이라고 믿는다.
보다 거시적인 수준에서 그는 전통적으로 '재능' 또는 '성격'으로 여겨졌던 많은 능력들이 실제로는 훈련과 습득이 가능하다고 강조했다. 회복탄력성, 적응력, 창의력, 심지어 타인의 진정한 요구를 인식하는 직관력까지 포함된다. "ChatGPT를 사용하는 것만큼 쉽지는 않겠지만, 이러한 유연한 능력은 방법에 따라 훈련할 수 있으며, 미래 사회에서 극도로 가치 있을 것"이라고 말했다.
45세 성인에게도 같은 조언을 할 것인지 묻는 질문에 알트먼은 명확히 답했다. 기본적으로 같다. 자신의 직업 환경에서 AI를 효과적으로 활용하는 법을 배우는 것은 어떤 연령대라도 반드시 마주쳐야 하는 기술 전이 과제다.
AGI 도래 후 조직 구조 변화에 대해 앤드루는 흔한 의문을 제기했다. "OpenAI는 이미 이렇게 강한데, 왜 굳이 채용을 계속하는가?" 그는 일부 사람들이 AGI가 모든 것을 직접 대체할 것이라고 오해한다고 말했다. 그러나 알트먼의 대답은 간단했다. "앞으로 우리는 더 많은 직원을 둘 것이며, 각각의 생산성은 AGI 이전 시대보다 훨씬 높아질 것이다."
그는 덧붙여 이것이 기술 발전의 본질적인 목표라고 말했다. 인간을 대체하는 것이 아니라, 개인의 생산성을 극대화하는 것이다. 기술은 끝이 아니라, 더 높은 인간 잠재력으로 가는 사다리다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News












