
OpenAI 최고기술책임자(CTO), AGI에 대한 단서 제공: 10년 내 등장, 극도로 진보된 지능형 시스템
번역: 목목
편집: 문도
7월 초, 존스홉킨스 대학교에서 저명한 기술 저널리스트이자 팟캐스트 Pivot의 공동 진행자인 카라 스위셔(Kara Swisher)가 OpenAI의 최고기술책임자(CTO) 미라 무라티(Mira Murati)와 날 선 대담을 나눴다. 이 자리에는 컴퓨터 과학자이자 스탠포드대학교 교수인 이페이(Li Fei-Fei)도 참석해 질문에 참여했는데, 그녀는 구글 클라우드 인공지능 및 머신러닝 수석 과학자이기도 하다.
무라티는 작년 OpenAI 내부 '왕좌의 게임'으로 불린 파워게임 속에서 주목받은 인물로, 샘 알트만(Sam Altman)이 해고되었을 당시 임시 CEO를 맡았다. 사실상 OpenAI의 CTO인 그녀는 GPT-3 모델 개발팀의 핵심 인물이며, ChatGPT의 공개 서비스화를 주도했다.
이번 대담에서 스위셔는 "OpenAI의 훈련 데이터 출처는 어디인가", "Sora는 챗봇보다 더 큰 위험을 지닌가", "직원들의 외부 발언을 금지하는 비밀유지계약(NDA) 논란", "스칼렛 요한슨(Scarlett Johansson)이 OpenAI의 음성 복제를 문제 삼은 사건" 등 민감한 사안들을 차례로 제기했으며, 샘 알트만에 대한 평가와 현재 관계까지 직설적으로 물었다.
모든 예리한 질문들에 대해 무라티는 "영리하게" 직접적인 답변을 피하며 일관된 태도를 유지했다. 기자가 다양한 각도에서 추궁하더라도 자신의 리듬을 유지했고, 대부분 OpenAI의 철학과 입장을 공식적으로 설명하는 데 집중했다.
데이터 프라이버시, 허위정보, 가치관에 미치는 영향—이러한 AI 리스크는 여전히 사람들이 우려하는 핵심 주제로서 이번 대화에서도 반복적으로 언급됐다.
무라티는 이 모든 문제들이 인간이 AI 기술을 오해하기 때문이라고 보며, 이러한 오해를 해소하기 위해서는 AI 기업이 신뢰를 얻기 위해 더 많은 보안 조치를 취해야 할 뿐 아니라, 사람들이 AI 대규모 모델 및 애플리케이션과 깊이 있게 상호작용함으로써 기술의 가능성을 이해하고 한계를 인지해야 한다고 강조했다. 개발팀과 사용자 모두가 공동 책임을 져야 하며, 이를 통해 AI 기술이 인간의 안전에 유익한 방향으로 발전할 수 있다고 말했다.
카라 스위셔는 또한 반복적으로 OpenAI의 AGI(일반 인공지능) 실현 시점에 대해 질문했지만, 무라티는 구체적인 시간표를 철저히 회피했다. 다만 "앞으로 10년 안에 우리는 매우 진보된 지능 시스템을 갖게 될 것이며, 지금 우리가 알고 있는 전통적 의미의 지능 시스템과는 다를 것"이라고 밝혔다.
이 대담의 전체 영상은 존스홉킨스 대학교의 유튜브 공식 채널에 공개되었으며, 아래는 그 중 엄선된 내용이다:
애플과의 협력에 관하여
「OpenAI는 애플 사용자 데이터를 저장하지 않는다」
Swisher: 올해부터 애플의 컴퓨터, 스마트폰, 태블릿에 ChatGPT가 기본 탑재된다. 이는 중요한 사건이다. 애플이 처음으로 이런 일을 하는데, 앞으로 다른 기업들과도 협력할 가능성이 있다. 나는 팀 쿡(Tim Cook, 애플 CEO)과 간단히 이야기를 나눠봤고 그의 견해를 들었다. 이번엔 당신(Mira Murati)의 관점에서 이 협력관계가 어떻게 이루어진 것인지 알려달라.
Murati: 이번 협력은 우리에게 중요한 이정표다. 애플은 상징적인 소비자 제품 회사이며, 우리의 목표는 인공지능과 훌륭한 AI 애플리케이션을 가능한 한 널리 대중에게 제공하는 것이다. 양사 협력은 ChatGPT를 모든 애플 기기 사용자에게 제공하는 훌륭한 기회이며, 사용자는 더 이상 기기 간 전환 없이도 접근할 수 있다. 앞으로 몇 달 동안 애플과 긴밀히 협력해 제품 수준의 구체적인 사항을 결정할 것이며, 곧 더 많은 세부 정보를 공유할 예정이다.
Swisher: 괜찮다면 좀 더 자세한 내용을 듣고 싶다. 정확히 무엇을 하고 있나? 내가 팀 쿡과 이 문제를 논의했을 때, 그는 사용자가 ChatGPT에서 답변을 받아 Siri를 개선할 수 있다고 말했다. 왜냐하면 지금의 Siri는 정말 형편없기 때문이다.
그런데 당신들의 현재 상황은 마치 넷스케이프(Netscape)처럼 보인다. 당신은 분명 OpenAI가 AI 분야의 넷스케이프가 되는 것을 원치 않을 것이다.(주석: Netscape는 1990년대 인터넷 브라우저의 선구자였으나, 마이크로소프트가 윈도우 운영체제에 인터넷 익스플로러를 번들링하면서 시장 점유율을 잃었고 결국 인수되었다.) 그렇다면 왜 다른 기업들보다 먼저 애플과 협약을 맺었는가?
Murati: 제품 통합 측면에서는 이야기할 수 있다. 우리는 개발 중인 모델 기능, 다중 모달성(multimodality), 상호작용성을 성숙하게 애플 기기에 적용하고자 한다.
최근 GPT-4o의 출시를 눈여겨봤을 것이다. 이것은 모델의 상호작용 차원에서 처음으로 도약한 사례다. 지금까지 우리는 텍스트 입력에 국한된 기기와의 상호작용을 해왔기 때문에, 이번은 더욱 풍부하고 자연스러운 정보 교류 방식을 제공하는 좋은 기회이며, 상호작용의 제약을 크게 줄일 수 있다. 이는 많은 가능성을 열어주며, 바로 우리가 추구하는 바다.
또한, 사용자의 요청은 OpenAI에 전송된 후 저장되지 않으며, IP 주소도 숨겨진다. 이는 애플 입장에서도 매우 중요하다.
Swisher: 이 부분을 좀 더 깊이 들어보자. 이러한 요청들로부터 데이터를 수집해 모델 훈련에 사용하긴 하나?
Murati: 아니다. 현재 우리는 사용자나 고객의 데이터를 모델 훈련에 사용하지 않는다. 단, 사용자가 명시적으로 허용하는 경우를 제외하고 말이다.
Swisher: 애플은 특히 개인정보 보호와 허위정보 측면에서 평판을 매우 중요하게 생각한다. 이 정보가 어디로 가고 어떻게 사용되는지에 대해 관심을 가질 것이다.
Murati: 우리는 같은 견해를 갖고 있으며, 이것이 우리가 원하는 방향으로 나아가도록 이끈다. 개인정보 보호와 신뢰는 OpenAI의 미션에도 매우 중요하다. 사람들이 기술을 신뢰하며, 자신이 우리의 개발 과정에 참여하고 의견을 낼 수 있다고 느끼도록 기술을 구축하고 배포해야 하기 때문이다.
허위정보라는 점을 구체적으로 언급한다면, 이는 매우 복잡한 문제다. 허위정보는 수십 년 전부터 존재해 왔으며, 인터넷과 소셜미디어의 등장으로 어느 정도 악화됐다. AI의 발전과 함께 허위정보 문제가 더욱 심각해졌고, 오히려 이 문제를 극대화시키고 있다. 그러나 이것이 오히려 좋다고 본다. 문제에 대한 관심이 커지고 있고, 집단적인 노력과 책임감이 생겨 이에 대응할 의미 있는 조치를 취할 수 있기 때문이다.
내 생각에 이는 반복적인 과정이며, 시행착오를 겪어야 한다. 지난 100년간 뉴스와 미디어 규제를 돌아보면, 새로운 기술이 등장할 때마다 사회가 변화에 적응해왔다. 아마도 좋은 예는 아니겠지만, 기술 혁신이 허위정보 문제 해결에 도움을 주고 나서야 더 복잡한 사회적 준비 문제 등 다른 이슈들이 따라오는 것이다.
Swisher: 애플 얘기를 하자면, 실수를 해선 안 된다. 실수하면 곧바로 곤란해진다. 이 협력이 어떻게 시작됐는지 궁금하다. 팀 쿡과 샘 알트만의 대화는 어디서 시작됐고, 당신은 어떻게 참여하게 됐나?
Murati: 정확한 시기는 기억나지 않지만, 이건 오랫동안 준비돼온 일이었다.
데이터 출처에 관하여
모델 훈련은 「공개, 협력, 라이선스 허락」 데이터를 사용
Swisher: 다른 기업들과도 유사한 협력을 고려하고 있나? 분명히 마이크로소프트와 파트너십이 있다. 최근 OpenAI는 뉴스그룹, 『더 애틀랜틱』, Vox Media와 계약을 맺고 미디어 콘텐츠 사용 권한을 확보했다. 적어도 세 건의 잠재적 법적 분쟁은 피할 수 있게 됐다.
나도 내 포드캐스트를 가지고 있지만, 그것이 Vox Media와의 거래에 포함되진 않았다. 라이선스 허가를 고려할 수도 있겠지만, 가능성은 낮다. 왜냐하면 나를 포함해 누구도 내 정보를 가져가는 것을 원치 않기 때문이다. 그렇다면 당신들은 나에게 정보 사용 허가를 어떻게 설득할 것인가?
Murati:모델 훈련에 사용하는 데이터는 크게 세 가지 출처를 고려한다. 공개적으로 접근 가능한 데이터, 우리와 협력 관계를 맺은 출판사, 그리고 특정 데이터를 라벨링하기 위해 고용한 사람들의 작업 결과, 그리고 자신의 데이터 사용에 동의한 사용자들이다. 이것이 우리의 주요 데이터 출처이다.
출판사와의 협력은 정보의 정확성과 뉴스 가치를 매우 중요하게 여기기 때문이다. 우리의 사용자들도 이에 관심이 있다. 정확한 정보를 원하며, ChatGPT에서도 뉴스를 보기를 원한다. 따라서 이러한 협력은 제품 중심적이며, 제품을 통해 사용자에게 가치를 제공하는 것이다.
우리는 다양한 비즈니스 모델을 탐색하며 콘텐츠 창작자들에게 일정한 보상을 제공하고 있다. 왜냐하면 그들의 데이터가 제품 표시 또는 모델 훈련에 사용되기 때문이다. 그러나 이는 특정 출판사와의 일대일 협력 형태로 이루어지고 있다.
Swisher: 일부 언론사와는 계약을 맺었지만, 《뉴욕타임스》처럼 소송을 선택한 기업들도 있다. 왜 그런 상황까지 간 것인가? 나는 소송이 일종의 협상 수단이라고 생각한다.
Murati: 유감스럽지만, 제품에 뉴스 데이터와 관련 정보를 통합하는 것이 가치 있다는 것을 확신하고 있었다. 우리는 협력을 시도했지만, 아쉽게도 성사되지 않았다.
Swisher: 그렇다. 언젠가 상황이 좋아지길 바랄 뿐이다. 하지만 나는 언론사들이 인터넷 기업들과 오랫동안 거래해오면서 대부분 손해를 봐왔기 때문이라고 본다. 이제 프로그램의 전통에 따라 다른 게스트에게 질문을 부탁하겠다.
이페이: 데이터, 특히 빅데이터는 현대의 지능을 구성하는 세 가지 요소 중 하나로 여겨진다. 데이터에 관해 질문하고 싶다. OpenAI의 성공은 크게 데이터와 관련이 있는데, OpenAI가 인터넷과 기타 출처에서 방대한 데이터를 수집했다는 것을 알고 있다. 그렇다면 데이터와 모델 사이의 관계는 어떻게 보는가? 일반적으로 생각하듯이 데이터 양이 많고 많이 투입할수록 모델이 더 강력해지는가? 아니면 모델의 효율적 작동을 위해 다양한 종류의 방대한 데이터를 선별하는 데 많은 노력을 기울여야 하는가? 마지막으로, 방대한 인간 생성 데이터에 대한 수요와 동시에 그러한 데이터의 소유권 및 권리 문제 사이에서 어떻게 균형을 맞추는가?
Murati: 데이터와 모델의 관계에 대해, 많은 사람들이 AI 모델, 특히 대규모 언어 모델(LLM)에 오해를 하고 있다.
모델 개발자는 특정 작업을 수행하도록 미리 프로그래밍하지 않는다. 실제로는 방대한 데이터를 입력하는 것이다. 이러한 모델은 거대한 데이터량을 섭취하며, 뛰어난 패턴 매칭 시스템이다. 이 과정을 통해 지능이 나타나며, 모델은 글쓰기, 코딩, 기본적인 수학 계산, 정보 요약 등을 배우게 된다.
어떻게 작동하는지 우리는 알지 못하지만, 매우 효과적이라는 것은 알고 있다. 딥러닝은 정말 강력하다. 그런데 이 점이 중요한 이유는 사람들이 자주 "어떻게 작동하나?"라고 묻기 때문이다. 이는 투명성 문제로 이어진다.
대규모 언어 모델의 작동 원리는 신경망 아키텍처, 방대한 데이터, 방대한 컴퓨팅 자원을 결합함으로써 나타나는 놀라운 지능이다. 이 능력은 더 많은 데이터와 컴퓨팅 자원을 투입할수록 계속해서 향상된다.
물론, 이러한 데이터를 소화 가능하게 만들기 위해 우리는 많은 작업을 해야 한다. 모델의 행동 방식과 작동 원리를 투명하게 보여줄 필요가 있을 때, 우리는 활용할 수 있는 도구들이 있다. 사용자들이 모델을 사용할 때 자신감을 느끼고, 동시에 대행력과 참여감을 느낄 수 있도록 하기 위해서다.
그래서 우리가 실제로 하는 일 중 하나는 공개 문서를 공유하는 것이다. 이를 '모델 사양(model spec)'이라 부르며, 모델의 행동 원리와 OpenAI 내부에서 내린 의사결정 유형, 그리고 인공 라벨러와 함께 한 결정들을 보여준다. 이 사양은 모델의 현재 행동 방식과 미래에 필요한 행동 방식을 규정하며, 플랫폼 간에 적용된다.
사양을 보면 그 복잡성을 알 수 있다. 때로는 방향성이 충돌하기도 한다. 예를 들어, 모델이 매우 유용해야 한다는 요구와 동시에 법을 위반해서는 안 된다는 요구가 있다.
누군가 "슈퍼마켓에서 물건 훔치는 방법"을 묻는 프롬프트를 입력하면, 원래는 응답을 제공해야 할 모델이 불법 행위를 처리해서는 안 되지만, 때로는 질문을 "침입 당하는 것을 어떻게 피할까"로 해석하고 반례를 들며 오히려 "유용한" 팁을 제공하기도 한다. 이는 모델의 행동이 매우 복잡하며, 자유주의 가치나 다른 가치를 단순히 선택할 수 없다는 것을 보여준다. 이럴 경우는 사용자가 어떻게 활용하느냐에 더 많이 좌우된다.
Swisher: 그러나 사람들이 혼란스러워하는 점은 어떤 데이터가 모델 안에 있고 어떤 것은 없는지인데, 데이터 출처는 중요한 화두다. 3월, 당신이 『월스트리트 저널』과의 인터뷰에서 YouTube, Instagram, Facebook의 동영상 데이터를 Sora 훈련에 사용했는지 묻자, 당신은 "모른다"고 답했다. 그런데 당신은 CTO로서 어떤 데이터를 사용했는지 알아야 하지 않나?
Murati:데이터 출처를 구체적으로 밝힐 수는 없다. 경쟁력을 유지하기 위한 기업의 상업적 기밀이기 때문이다. 그러나 데이터 유형은 말할 수 있다. 1) 공개적으로 이용 가능한 데이터; 2) 라이선스 허가와 콘텐츠 제공업체와의 거래를 통해 지불하고 얻은 데이터; 3) 사용자가 허용한 데이터.
Swisher: Perplexity는 최근 웹 기사를 빠르게 크롤링하면서 출처를 명확히 밝히지 않아 곤란을 겪었다. 어떤 언론사라도 이에 대해 우려할 것이다.
Murati: 맞다. 우리는 콘텐츠 창작자를 존중하고자 하며, 데이터 창작자에게 보상을 제공하는 방법을 시도하고 있다. 그래서 우리는 '콘텐츠 미디어 관리자(content media manager)'라는 도구를 개발 중이며, 이를 통해 데이터 유형을 더 구체적으로 식별할 수 있게 될 것이다.
접근성에 관하여
Sora 대중화 이전 「보호 조치 마련 필수」
Swisher: Sora는 언제 일반에 공개되나?
Murati:Sora의 공개 일정은 아직 없다. 현재는 일부 초기 사용자와 콘텐츠 창작자에게 사용을 허용하고 있으며, 기능을 개선하는 데 도움을 받고 있다.
우리는 보안에 많은 노력을 기울이고 있으며, 일반 대중이 사용하기에 적합한 방식으로 출시하는 방법을 연구하고 있다. 이는 간단하지 않으며, 우리가 모든 신기술을 개발할 때 항상 따르는 절차다. DALL-E를 출시할 때도 먼저 창작자들과 협력해 더 사용하기 쉬운 인터페이스를 만들었다. 기본적으로 우리는 사람들의 창의력을 확장하고자 한다.
Swisher: 그러니까 Sora가 챗봇보다 더 위험할 수 있다는 말인가? 이 기술이 걱정되지 않나? 예를 들어, 누군가(인공지능을 이용해) 스칼렛 요한슨의 얼굴을 바꾼 포르노 영화를 쉽게 볼 수 있게 된다. 당신은 동영상 문제를 더 걱정하나?
Murati:맞다. 동영상은 특히 잘 만들어졌을 때 많은 문제가 있다. 나는 Sora가 매우 훌륭하다고 생각하며, 영상을 생성하는 것이 매우 직관적이며 감정 표현도 가능하다. 따라서 모든 보안 문제를 해결하고 보호 조치를 마련해, 출시하는 제품이 유용하면서도 안전하도록 해야 한다. 상업적으로도 누구도 안전이나 평판 위기를 일으키는 제품을 원하지 않는다.
Swisher: 그렇다. 마치 페이스북 라이브(Facebook Live)처럼 말이다.(주석: 페이스북 라이브는 폭력적인 사건을 생중계하는 등의 문제로 규제 압박과 부정적 영향을 받았다.)
Murati: 이 놀라운 기술은 정말 믿기 어렵지만, 그 영향력과 결과 역시 막대하다. 따라서 우리가 올바르게 처리하는 것이 매우 중요하다.
우리는 반복적인 배포 전략(iterative deployment strategy)을 채택하며, 일반적으로 소수에게 먼저 공개해 극한 상황을 식별하려 한다. 그런 상황들을 잘 처리할 수 있게 되면 접근 권한을 확대한다. 그러나 제품의 핵심이 무엇인지, 그리고 그 주변의 비즈니스 모델이 무엇인지 파악한 후 개선해야 한다.
Swisher: 나는 예전에 '초기 테크 기업들이 결과에 무관심하다'는 주제의 기사를 썼다. 그들은 우리를 인터넷 초기 제품의 실험 대상으로 삼았다. 만약 자동차 회사가 이런 태도로 차를 출시하면 절대 용납되지 않을 것이며, 파산당할 것이다.
하지만 많은 기술들이 테스트 버전으로 출시되어 대중에게 받아들여졌다. 결과라는 개념에 대해, CTO로서 모든 결과를 파악할 수는 없더라도, 모든 발명품에 대해 충분한 인간 중심의 존중을 갖고 그것이 초래할 결과를 인식해야 하지 않나?
Murati: 우리는 결과를 자체적으로 평가할 뿐 아니라 사회적 차원에서도 평가한다. 반드시 규제나 법적 결과를 의미하는 것은 아니며, 도덕적으로 올바른 방식으로 행동해야 한다는 뜻이다.
나는 낙관적이다. 인공지능 기술은 놀랍고, 우리로 하여금 놀라운 성과를 낼 수 있게 할 것이다. 나는 과학, 발견, 교육, 특히 의료 분야에서의 가능성을 매우 기대한다. 하지만 당신도 알다시피, 이렇게 강력한 무언가를 가질 때마다 재앙적 위험이 존재할 수 있으며, 인간은 항상 그 결과를 극대화하려 한다.
Swisher: 맞다. 나는 책에서 폴 베릴리(Paul Verily)의 말을 인용한 적 있다. "배를 발명할 때, 당신은 동시에 난파선도 발명한 것이다." 그러나 당신은 나의 과도한 걱정을 바로잡았다.
Murati:나는 그런 과도한 걱정에 동의하지 않는다. 왜냐하면 나의 배경은 공학이기 때문이다. 공학에는 리스크가 따른다. 우리 인류 문명 전체가 공학적 실천 위에 세워져 있다. 도시와 다리도 모두 연결되지만, 항상 리스크가 동반된다. 따라서 우리는 책임감 있는 방식으로 이러한 리스크를 관리해야 한다.
이것은 개발자만의 책임이 아니라 공동 책임이다. 공동 책임을 실현하기 위해, 우리는 사람들에게 접근 권한과 도구를 제공하고, 참여하도록 유도해야 한다. 기술을 진공 상태에서, 사람들이 접할 수 없는 형태로 만드는 것이 아니라.
GPT-5와 AGI에 관하여
「다음 세대 대규모 모델은 매우 강력할 것이며 기대해도 좋다」
Swisher: 여러분은 이전에 ChatGPT-4의 업데이트 버전인 GPT-4o를 발표했다. 나는 이 이름이 마음에 든다. 또한 새로운 모델 GPT-5를 훈련 중이라고 발표했다. 이는 지수급으로 향상될 것인가? 예상 출시 시점은 언제인가?
Murati: O는 Omni, 즉 '전방위 모델(omnimodal model)'을 의미하며, 시각, 텍스트, 오디오 등 모든 모달리티를 통합한다는 뜻이다. 이 모델의 특별함은 모델과의 상호작용이 매끄럽고 자연스럽다는 점이다. 또한 지연 시간이 거의 면대면 대화와 같아 거의 느껴지지 않는다. 이는 AI와의 상호작용에서 큰 도약이며, 이전에 출시한 버전과는 크게 다르다.
우리는 모든 사용자가 최신 기능을 무료로 체험할 수 있도록 하며, 누구나 이 기술이 무엇을 할 수 있는지, 새로운 모달리티가 어떤 모습인지 경험하고, 그 한계를 이해하길 원한다. 내가 앞서 말했듯이, 사람들에게 접근 권한을 제공하고 참여하도록 유도하는 것이다. 경험을 통해 직관적인 느낌을 얻으면, 기술의 가능性和 한계를 이해하기가 훨씬 쉬워진다.
Swisher: GPT-4o는 작은 전주곡 같은 것인데, 다섯 번째 세대는 무엇이 다를 것인가? 점진적인 개선인가, 아니면 거대한 도약인가?
Murati: 아직 모르겠다. 조금씩 공개할 것이다... 사실 나도 우리가 그것을 어떻게 부를지 모른다. 하지만 다음 세대의 대규모 모델은 매우 강력할 것이며 기대해도 좋다. 마치 우리가 GPT-3에서 GPT-4로 넘어갈 때 본 거대한 도약과 같다. 정확히 어떻게 될지는 아직 모른다.
Swisher: 다음 모델이 어떤 기능을 갖게 될지 이미 알고 있을 텐데?
Murati: 그때 가면 알게 될 것이다.
Swisher: 그때는 내가 분명히 알겠지만, 당신은 지금 알고 있지 않나? 지금 무엇을 알고 있나?
Murati: 나도 모른다.
Swisher: 진짜로? 그래도 좋다. 당신은 나와 OpenAI 내부 로드맵에 대해 이야기한 적 있다. 2027년에 AGI, 즉 일반 인공지능을 실현할 것이라고 했는데, 이는 큰 사건이 될 것이다. AGI의 중요성을 설명해주고, 언제쯤 실현될 것으로 보는가?
Murati: 사람들은 AGI를 다양한 방식으로 정의한다. 우리의 AGI 정의는 헌장에 근거하며, 여러 분야에서 경제적으로 가치 있는 작업을 수행할 수 있는 시스템을 의미한다.
현재 상황을 보면 지능의 정의는 계속 변하고 있다. 예전에는 학문적 기준 테스트로 시스템의 지능을 검토했지만, 일단 그 기준에 도달하면 시험으로 넘어갔다. 예를 들어 학교 시험; 결국 시험 기준을 포화시키면 새로운 테스트를 만들어야 했다. 이는 우리가 직장 환경에서 적응성과 지능을 어떻게 평가할지 생각하게 만든다. 면접, 인턴십 등 다양한 방법 말이다.
따라서 나는 (지능과 AGI의) 정의가 계속 진화할 것이라고 본다. 아마도 더 중요한 것은 그것이 현실 세계에 미치는 영향—사회적, 경제적 영향—을 평가하고 예측하는 것이다. 중요한 것은 그것이 사회에 어떻게 영향을 미치는지, 실제로 얼마나 빠르게 침투하는지다.
Swisher: 이 정의에 따르면, OpenAI는 언제쯤 AGI를 실현할 것으로 예상하나? 2027년이라는 시간은 정확한가?
Murati:다음 10년 안에 우리는 매우 진보된 지능 시스템을 갖게 될 것이라고 말할 수 있다.
Swisher: 지능 시스템이라고? 그건 전통적인 의미의 지능 시스템인가?
Murati:사실 우리는 이미 전통적인 의미의 지능 시스템을 가지고 있다고 생각한다.
AI 안전성 우려에 관하여
「깊이 참여해야 가능性和 리스크를 이해할 수 있다」
Swisher: OpenAI 내부에는 인류를 위해 일하는 사람들과, 1조 달러를 추구하는 사람들, 혹은 그 사이에 있는 사람들이 있다. 나는 당신이 후자에 속한다고 본다.
지난해 6월, 13명의 OpenAI 및 Google DeepMind의 현직 및 전직 직원들이 선진형 인공지능에 대한 경고를 할 권리 부여를 촉구하는 공개 서한을 발표했다. 이후 메타, 구글, 마이크로소프트의 직원들도 이 서한에 서명했다.
이러한 상황에서 OpenAI 직원들이 '광범위한 비밀유지계약이 문제를 제기하는 것을 막고 있다. 회사가 이 문제를 해결하지 않는 한 우리는 말할 수 없다'고 말했다. 내 생각에 이건 '진실을 말하면 죽는다'는 말과 다름없다. 보복을 두려워하는 직원들이 있다면, 당신은 이에 어떻게 답하겠는가?
나는 지분 문제는 깊이 파고들지 않겠다. 왜냐하면 이미 사과하고 수정했기 때문이다. 하지만 당신들의 직원들이 우려를 표현하거나, 다른 의견을 제시할 수 없는 것인가?
Murati: 우리는 토론이 매우 중요하다고 생각하며, 이러한 우려와 안전 문제에 대해 공개적으로 발언하고 논의하는 것이 필요하다. 우리는 스스로 그렇게 해왔다. OpenAI가 설립된 이래로 허위정보 문제에 대해 매우 공개적으로 우려를 표명했으며, GPT-2 시절부터 이미 이 문제를 연구해왔다.
나는 지난 몇 년간 기술이 믿기지 않을 정도로 빠르게 발전했으며, 이는 예측할 수 없었고 사회가 대응할 수 있는 능력에 대한 일반적인 불안을 가중시켰다고 본다. 우리가 계속 발전하면서 과학이 우리를 어디로 이끌고 가는지도 보고 있다.
미래에 대한 두려움과 불안은 이해할 수 있다. 특히 강조하고 싶은 것은, 우리가 OpenAI에서 하는 일과 모델을 배포하는 방식은 놀라운 팀이 가장 강력한 모델을 매우 안전한 방식으로 배포한 것이다. 이 점에 대해 나는 매우 자랑스럽다.
또한 기술 발전 속도와 우리 자신의 발전 속도를 고려할 때, 훈련 및 최첨단 모델 배포의 리스크에 대해 어떻게 생각하는지를 논의하는 모든 일에 더욱 노력하는 것이 중요하다고 생각한다.
Swisher: 내 의도를 분명히 하겠다. 첫째, 왜 다른 기업보다 더 엄격한 비밀 유지 제도가 필요한가? 둘째, 이 공개 서한은 Jan Leike와 Ilya Sutskever 등 OpenAI의 일련의 고위직 퇴사 소식 이후 나온 것이다.
Ilya의 퇴사는 놀랍지 않지만, Leike는 X에 포스트를 올려, 지난 1년간 OpenAI의 안전 문화와 절차가 화려한 제품에 의해 대체됐다고 말했다. 이는 당신들에 대한 가장 강력한 비판일 수 있으며, 회사 분열의 원인이기도 하다.
당신은 OpenAI가 안전성을 매우 중요하게 생각한다고 강조하지만, 그들은 그렇지 않다고 말한다. 이 비판에 어떻게 답하겠는가?
Murati: 우선, 정렬(alignment) 팀은 OpenAI의 안전을 담당하는 유일한 팀이 아니다. 매우 중요한 안전 팀이지만, 그 중 하나일 뿐이다. OpenAI에는 안전 관련 업무를 하는 많은 사람들이 있다. 나중에 더 설명하겠다.
Jan Leike는 훌륭한 연구 동료이며, 나는 그와 3년간 함께 일했고 그를 매우 존경한다. 그는 OpenAI를 떠나 Anthropic에 합류했다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다 Telegram 구독 그룹:https://t.me/TechFlowDaily 트위터 공식 계정:https://x.com/TechFlowPost 트위터 영어 계정:https://x.com/BlockFlow_News














