
OpenAIのCTOがAGIのキーワードをリーク:10年以内に登場、極めて高度な知的システム
TechFlow厳選深潮セレクト

OpenAIのCTOがAGIのキーワードをリーク:10年以内に登場、極めて高度な知的システム
ベテラン記者がOpenAIの訓練データの出所について鋭く追及。
編集:木沐
編集:文刀
7月初,在约翰霍普金斯大学,资深科技记者、播客Pivot的联合主持人Kara Swisher与OpenAI首席技术官Mira Murati展开了一场火药味十足的对话,计算机科学家、斯坦福大学教授李飞飞也加入了提问行列,她的另一个身份是Google云人工智能和机器学习首席科学家。
Mira Murati因去年的OpenAI“宫斗”事件被推上风口浪尖,她曾在Sam Altman被解雇期间担任临时CEO。事实上,这位OpenAI的CTO是GPT-3模型开发团队的核心人物,并推动了ChatGPT向公众开放。
在这场对话中,Kara Swisher接连抛出尖锐问题,包括“OpenAI的训练数据来自何处”、“Sora是否比对话机器人风险更大”、“OpenAI被质疑使用保密协议阻止员工公开发声”、“斯嘉丽·约翰逊指控OpenAI抄袭声音”,甚至直接询问她对Sam Altman的评价以及两人目前的关系。
面对所有尖锐提问,Mira Murati“机智地”选择不正面回应,即便记者不断变换方式追问,她仍尽量保持自己的节奏,更多时候是自说自话、略带官方色彩地阐述OpenAI的理念。
数据隐私、虚假信息、价值观影响——这些人们至今担忧的AI风险,成为这场对话反复提及的主题。
在Mira Murati看来,这是人类对AI技术的误解。要消除这种误解,除了AI公司需加强安全部署以赢得信任外,还需人们深度参与大模型及应用的交互过程,从而理解技术的潜能与局限,与开发团队共同承担责任,确保AI朝着有利于人类安全的方向发展。
Kara Swisher多次追问OpenAI实现AGI(通用人工智能)的进度,Mira Murati则严防死守,拒绝透露具体时间表。但她表示:“在接下来的十年内,我们将拥有极其先进的智能系统”,而且不是“我们已有的传统意义上的智能系统”。
这场对话的完整内容已发布在约翰霍普金斯大学的YouTube官方频道,以下是精选内容:
关于与苹果的合作
「OpenAI不存储苹果用户数据」
Swisher:苹果的电脑、手机和平板将从今年起内置ChatGPT,这是一次重大合作。苹果首次这样做,未来也可能与其他公司合作。我曾与苹果CEO Tim Cook简短交流,了解了他的观点。现在,我想从你(Mira Murati)的角度谈谈,这项合作关系是怎样的?
Murati:这次合作对我们而言是一个重要里程碑。苹果是一家标志性的消费产品公司,而我们的目标是尽可能将人工智能及优秀的AI应用普及给大众。双方合作为将ChatGPT带给所有苹果设备用户提供绝佳机会,用户无需再在设备间切换。接下来几个月,我们将与苹果紧密合作,确定产品层面的具体细节,很快就会有更多信息公布。
Swisher:如果你不介意,我想了解更多细节。你们具体在做什么?我曾与Tim Cook讨论过,他告诉我,用户可通过ChatGPT获取答案来改进Siri,因为Siri目前确实表现不佳。
但你们目前的情况让我想到网景公司(Netscape),而你显然不希望OpenAI成为AI领域的网景。(编者注:Netscape是1990年代互联网浏览器最早也是最重要的初创企业之一。然而微软通过在Windows操作系统中捆绑Internet Explorer浏览器,挑战其主导地位,最终导致Netscape市场份额萎缩并被收购。)因此,为何你们比其他公司更早与苹果达成合作?
Murati:我可以谈谈产品集成方面的问题。我们希望将正在开发的模型功能、多模态能力和交互性成熟地应用于苹果设备中。
最近你可能注意到了GPT-4o的发布。这是我们首次看到模型在交互维度上的飞跃。这意义重大,因为我们与设备的互动长期受限于文本输入。这是一个实现更丰富、更自然信息交互的绝佳机会,将极大降低交互门槛,开启诸多可能性——而这正是我们所追求的。
此外,用户的请求在发送至OpenAI后不会被我们存储,用户IP地址也将被隐藏,这对苹果来说同样至关重要。
Swisher:深入说明一下,你们是否仍能从这些请求中收集数据用于模型训练?
Murati:不会。我们现在也不会使用用户或客户的数据来训练模型,除非他们明确允许我们这么做。
Swisher:苹果极为重视声誉,尤其是在隐私与虚假信息方面,他们会关注这些信息的去向与用途。
Murati:我们的看法非常一致,这引导我们朝共同期望的方向前进。隐私与信任对OpenAI的使命至关重要,因为我们必须以一种让人们感到信任的方式构建和部署技术,让他们觉得自己对我们的开发拥有代理权和发言权。
具体到你提到的虚假信息,情况非常复杂,因为它已存在数十年。随着互联网和社交媒体的出现,这些问题在某种程度上被加剧了。AI的发展使虚假信息问题更加严峻,反而将这些挑战推向高潮。这并非坏事,因为问题因此受到关注,似乎正形成一种集体努力和责任感,促使我们采取有意义的行动应对。
我认为这是一个迭代过程,必须边走边试。回顾过去百年新闻与媒体的治理,每当新技术出现,社会都会逐步适应。也许这不是个完美的类比,但技术创新终将帮助我们处理虚假信息,之后才会涉及更复杂的议题,如社会准备程度。
Swisher:说到苹果,你必须小心行事,否则他们就会找你麻烦。我很好奇,这项合作是如何开始的?Tim Cook与Sam Altman之间的讨论从何而来?或者你是如何参与进来的?
Murati:具体时间我记不清了,但这件事酝酿了一段时间。
关于数据来源
模型训练采用“公开、合作与授权”数据
Swisher:你们是否在与其他公司探讨类似合作?显然,你们与微软已有合作。最近,OpenAI已与新闻集团、《大西洋月刊》和Vox Media签署协议,授权使用这些媒体内容,至少避免了三起潜在法律纠纷。
我确实拥有自己的播客,但它未包含在你们与Vox Media的交易中。我可能会考虑授权,但可能性不大,因为我不愿让任何人——包括你们——拥有我的信息。所以,你们会如何说服我授权信息呢?
Murati:当我们使用数据训练模型时,会考虑三类主要数据源:公开可访问的数据、与我们建立合作关系的出版商,以及我们付费请标注员标注的特定数据,还包括选择同意我们使用其数据的用户。这些是我们数据的主要来源。
至于与出版社的合作,我们高度重视信息准确性与新闻价值,因为我们的用户也在意这些。他们希望获得准确信息,并能在ChatGPT上看到新闻。因此,这种合作是基于产品的,旨在通过产品为用户提供价值。
我们正在探索不同的商业模式,给予内容创作者一定补偿,因为他们数据被用于产品展示或模型训练,但这都是与特定出版社的一对一合作。
Swisher:你们确实与一些媒体达成了协议,但也有公司选择起诉你们,比如《纽约时报》。为什么会走到那一步?我认为诉讼某种程度上也是一种谈判手段。
Murati:这确实令人遗憾,因为我们确信在产品中融入新闻数据和相关信息是有价值的。我们原本试图就此达成合作,但事与愿违。
Swisher:是啊,或许有一天情况会好转。不过我认为这是因为媒体多年来与互联网公司打交道,结果往往是吃亏的一方。接下来,按照节目惯例,请另一位嘉宾提问。
李飞飞:数据,尤其是大数据,被认为是现代人工智能三大要素之一。我想就数据方面提一个问题。OpenAI的成功很大程度上与数据有关,我们了解到OpenAI从互联网和其他来源获取了大量数据。那么,你认为数据与模型之间的关系是怎样的?是否如人们通常认为的那样,数据越多、喂得越多,模型就越强大?还是说我们需要投入大量精力筛选不同类型的海量数据,以确保模型高效运行?最后,你们如何平衡对大量人类生成数据的需求与这些数据的所有权和权利问题之间的矛盾?
Murati:关于数据与模型的关系,人们对AI模型,特别是大语言模型存在一些误解。
模型开发者并非预先编程让模型执行特定任务。实际上,他们输入大量数据。这些模型吸收巨量数据,是卓越的模式匹配系统。通过这一过程,智能涌现出来。模型因此学会写作、编码、基本数学运算、信息总结等各种能力。
我们并不完全清楚它如何运作,但我们知道它非常有效,深度学习确实强大。这一点很重要,因为人们常问它是如何工作的,这也引出了透明度的问题。
大语言模型的工作原理是将神经网络架构、大量数据和大量计算相结合,从而产生惊人的智能。这种能力会随着你投入更多数据和计算而持续提升。
当然,为了让这些数据变得可消化,我们需要做大量工作。当思考如何提供模型行为及运作机制的透明度时,我们有一些工具可用,因为我们希望用户在使用模型时感到自信,同时拥有代理感和参与感。
因此,我们实际做的一件事是向公众分享一份文档,我们称之为模型规范,它展示了模型行为的运作机制、我们在OpenAI内部做出的决策类型,以及我们与人工标注员共同做出的决策。规范决定了模型当前的行为方式,以及未来所需的行为,这是跨平台的。
查看规范你会发现其复杂性,有时方向甚至冲突,例如我们希望模型极具帮助性,同时不能违法。
假设有人输入提示要求“从超市偷东西的技巧”,那么本应提供回答的模型不应处理非法事务,但有时模型可能将提问解释为“如何防止入室盗窃”,然后在举反例时反倒给出一些“有用”提示。这恰恰表明模型行为极其复杂,无法简单选择自由价值观或其他单一价值观。这种情况下更多取决于人们如何使用它。
Swisher:但我认为人们困惑的一点是,哪些数据在模型中而哪些不在,数据来源是一个关键环节。3月份,你在接受《华尔街日报》采访时被问到OpenAI是否使用了来自YouTube、Instagram和Facebook的视频数据来训练文本生成视频模型Sora。当时你说不确定。但作为CTO,你不应该清楚使用了什么数据吗?
Murati:我无法具体告诉你数据来源,这是保持我们竞争力的商业机密,但我可以告诉你数据类别:1、公开可用的数据;2、通过许可和与内容提供商交易支付获得的数据;3、用户授权的数据。
Swisher:Perplexity最近陷入麻烦,因为他们快速抓取网上报道却未明确引用来源,任何媒体公司都会对此担忧。
Murati:确实如此,我们希望确保尊重内容创作者,正在尝试方法补偿数据创造者。因此我们正在开发一个名为“内容媒体管理器”(content media manager)的工具,这将帮助我们更具体识别数据类型。
关于访问权限
Sora推向大众前“必须制定保护措施”
Swisher:Sora何时向公众发布?
Murati:我们尚未制定Sora公开发布的时间表。目前,我们已让部分早期用户和内容创作者使用Sora,以帮助我们发现增强功能的方法。
我们在安全方面做了大量工作,也在研究如何以适合公众使用的方式推出它。这并不简单,这也是我们开发每项新技术时的一贯流程。发布DALL-E时,我们也是先与创作者合作,他们帮助我们创建了更易用的界面。本质上,我们希望扩展人们的创造力。
Swisher:所以Sora可能比聊天机器人更危险?这项技术令人担忧吗?比如人们(借助AI)能轻易看到换脸成斯嘉丽·约翰逊的色情影片。你是否更担心视频问题?
Murati:确实,视频仍存在许多问题,尤其是当它做得非常好时。我认为Sora表现非常出色,它生成视频非常直观,且能表达情感。因此,我们必须解决所有安全问题,并制定保护措施,确保推出的产品既实用又安全。从商业角度看,没有人希望产品引发安全或声誉危机。
Swisher:是的,就像Facebook Live (编者注:Facebook Live是Facebook推出的直播功能,早期曾遭遇直播暴力事件等问题,给平台带来监管压力和负面影响)。
Murati:这项神奇的技术确实令人难以置信,但其影响力和后果也极为巨大。因此,确保我们正确处理这一点非常重要。
我们采用迭代部署策略,通常先向一小部分人发布,以识别极限情况。一旦我们能妥善处理这些情况,才会扩大访问权限。但你需要弄清产品的核心是什么,以及围绕它的商业模式,进而进行改进。
Swisher:我曾做过一个“早期科技公司对后果缺乏关注”的专题,他们让我们成为那些互联网早期产品的测试者。如果他们以这种态度发布一辆车,绝对会被公众不容忍,甚至被告到破产。
但许多技术以测试版本形式发布,随后被公众接受。对于“后果”这个概念,作为CTO,即使你无法预见所有后果,你是否觉得应对每一项发明都抱有足够的以人为本的尊重,并意识到它们可能带来的影响?
Murati:我们会从自身和社会层面评估后果,这不仅指监管或法律后果,更是在道德层面正确对待事物。
我很乐观,我认为AI技术不可思议,将让我们产出惊人成果。我对它在科学、发现、教育,尤其是医疗方面的潜力感到兴奋。但你也知道,当你拥有如此强大的工具时,就存在灾难性风险的可能,而人类一直在尝试放大其后果。
Swisher:确实,我曾在书中引用Paul Virilio的话:“当你发明船只时,你也发明了船难。”但你纠正了我过度担忧的想法。
Murati:我不同意这类过度担忧的观点,因为我的背景是工程学,工程本身就有风险。整个人类文明建立在工程实践之上。就像城市中的桥梁连接一切,但始终伴随风险。因此需要我们以负责任的方式管理这些风险。
这不仅仅是开发者的责任,而是一种共同责任。为了实现责任共担,我们实际上需要向人们提供访问权限和工具,引导他们参与进来,而不是在真空中构建技术,创造出人们无法触及的系统。
关于GPT-5与AGI
「下一代大模型将非常强大,值得期待」
Swisher:你们此前宣布了ChatGPT-4的迭代——GPT-4o,我很喜欢这个名字。你们还宣布正在训练新模型——GPT-5。它是否会呈指数级提升?预计何时发布?
Murati:O代表Omni,即“全模态模型”,意味着它整合了视觉、文本、音频等所有模态。该模型的特别之处在于首次实现了与模型的无缝且自然交互。此外,其延迟几乎与面对面交流无异,几乎无法察觉。这是与AI互动的巨大飞跃,与我们此前发布的版本截然不同。
我们希望所有用户都能免费体验最新功能,希望每个人都能了解这项技术能做什么,这些新模态的表现如何,同时也能理解其局限性。正如我之前所说,你向人们提供访问权限,引导他们参与进来,只有亲身体验才能获得直观感受,理解技术的潜力与限制也就更容易。
Swisher:GPT-4o像是开胃菜,第五代会有什么不同?是渐进式改进还是巨大飞跃?
Murati:我们还不知道,但会逐步放出……我其实也不确定我们会如何命名它,但下一代大模型将非常强大,值得期待,就像我们从GPT-3到GPT-4所见证的那种巨大飞跃。具体如何发展我们尚不确定。
Swisher:你认为下一代模型会有哪些功能?这点你肯定知道。
Murati:到时候我们就会知道了。
Swisher:到时候我肯定会知道,但你呢?你现在知道什么?
Murati:连我都不知道。
Swisher:真的吗?好吧。你曾和我聊过OpenAI内部的路线图,预测将在2027年实现AGI,即通用人工智能,这将是件大事。请为我们解释AGI的重要性,你估计何时能实现AGI?
Murati:人们对AGI有不同的定义,我们对AGI的定义有章程依据,即能够跨不同领域完成具有经济价值工作的系统。
从我们现有情况来看,智能的定义一直在变化。过去我们通过学术基准测试衡量系统智能;一旦达到这些标准,我们转向考试,比如学校考试;最终当考试基准饱和后,我们不得不设计新的测试。这让你思考:在工作环境中,我们如何评估适应性与智能?比如面试、实习等各种方法。
因此我预计这一(智能与AGI)定义将持续演变。我认为更重要的是评估、评价和预测它在现实世界中的影响,无论是社会还是经济影响。重要的是它如何影响社会,以及其实际渗透速度如何。
Swisher:按此定义,OpenAI预计何时实现AGI?2027年这个时间准确吗?
Murati:我只能说,在接下来的十年内,我们将拥有极其先进的智能系统。
Swisher:智能系统?那是传统意义上的智能系统吗?
Murati:其实我认为我们已经有了传统意义上的智能系统。
关于AI安全的担忧
「深度参与才能认清潜力与风险」
Swisher:OpenAI内部既有为造福人类而奋斗的人,也有追求万亿美元利益的人,或介于两者之间,我认为你就属于这类人。
去年6月,13位现任和前任OpenAI及Google DeepMind员工发表公开信,呼吁公司赋予他们警告先进人工智能风险的权利。此后Meta、Google和Microsoft的员工也签署了这封信。
在这种背景下,有OpenAI员工表示,“广泛的保密协议阻止我们表达担忧,除非公司解决这些问题”,在我看来,这根本上是在说‘我们不能告诉你们真相,否则就会完蛋’。既然有员工担心遭到报复,你对此如何回应?
我不会深入讨论股权问题,因为你们已为此道歉并修正,但你们的员工不该表达担忧吗?不能表达不同意见吗?
Murati:我们认为辩论非常重要,可以公开表达这些担忧并讨论安全问题。我们自己也这样做,自OpenAI成立以来,我们就公开表达了对虚假信息的担忧,甚至早在GPT-2时代就开始研究这些问题。
我认为过去几年科技进步令人难以置信,这是无法预测的,也加剧了人们对社会应对能力的普遍焦虑。随着我们持续进步,也看到了科学指引的方向。
人们对未来感到恐惧和焦虑是可以理解的。我要特别指出的是,我们在OpenAI所做的工作以及我们部署这些模型的方式,是由一个非凡的团队以极其安全的方式部署最强大模型的结果。对此,我深感自豪。
我也认为,鉴于技术进步速度以及我们自身进展速度,加倍努力关注所有这些议题、讨论我们如何思考前沿模型的训练与部署风险,至关重要。
Swisher:我再明确一下我的意思。第一,你们为何需要比其他公司更严格的保密制度?第二,这封公开信是在你们一系列高调离职新闻后发出的,比如Jan Leike和Ilya Sutskever,他们曾领导负责安全的超级对齐团队。
我认为Ilya离开并不意外,但Leike曾在X上发帖称,过去一年OpenAI的安全文化与流程已被光鲜的产品所取代。这可能是对你们最有力的批评,也可能是公司分裂的原因之一。
你强调OpenAI非常重视安全性,但他们却说没有,你要如何回应这种批评?
Murati:首先,对齐团队并非OpenAI唯一负责安全的团队,它是一个非常重要的安全团队,但也只是其中之一。在OpenAI,有许多人从事安全工作。我稍后会进一步解释。
Jan Leike是一位杰出的研究同事,我与他共事三年,对他非常尊敬,他离开OpenAI后加入了Anthropic。
考虑到我们预期在该领域取得的进步,我认为行业内的每个人,包括我们自己,都需要在安全、安保、准备和监管参与等任务上加倍努力。但我不同意‘我们把产品置于安全之前’或‘优先于安全’的说法。
Swisher:你认为他们为何这么说?这些人都是与你共事过的人。
Murati:那你可能需要从他们本人那里获得答案。
许多人将安全视为与能力分离的事物,认为二者是二选一。我很熟悉航空航天和汽车工业,这些行业拥有非常成熟的安全思维和系统。在这些行业中,人们不一定总在会议上争论什么是安全,因为这是理所当然且高度成熟的。因此,我认为整个行业需要越来越多地转向一个经验丰富的安全学科。
我们有安全系统,在运营安全方面有严格纪律,不仅是操作纪律,还包括今天我们的产品和部署的安全,涵盖有害偏见、虚假信息、错误信息、分类器等工作。
我们也在考虑长期的模型对齐问题,计划通过RLHF(基于人类反馈的强化学习)来实现,同时还解决因模型日益强大而产生的对齐挑战。
Swisher:但OpenAI经常遭受此类指控(产品>安全)。我认为这是因为你们是当前的领军公司。但当有人从OpenAI离职并提出此类指控时,情况就不同了。
甚至Sam Altman本人也曾在美国国会表示,“AI会对世界造成重大伤害”,他还签署了一封关于AGI带来灭绝风险的警告信。这很严重,我认为他所说的内容与“AI悲观主义者”、“AI末日论者”的言论有重叠,但你们仍在继续推出AI产品。因此很多人会说,OpenAI只想要钱,他们并不真正担心危害。
Murati:在我看来这是一种过于愤世嫉俗的说法。我的意思是,OpenAI有一个非凡的团队,他们都致力于公司的使命,所有人正非常努力地以安全方式开发和部署系统,而且我们是世界上首个部署AI系统的公司,我们还以API形式跨平台部署了GPT-3、GPT-3.5、DALL-E3和GPT-4。我们非常小心,以防极端情况发生。
Swisher:所以我们在安全标准上还没达到汽车安全带的水平。我是说,汽车制造商过去曾抵制在汽车中安装安全带或其他提高安全性的措施。我们是否已达到这一阶段,或者监管机构会迫使你们采取行动吗?
联邦贸易委员会(FTC)7月对OpenAI展开调查,了解其可能对消费者造成的未指明伤害。上周,他们宣布对微软与OpenAI之间的交易进行反垄断调查。我当时认为,微软实际上已收购OpenAI却装作没有。从技术上讲,他们拥有49%的股份。如果被迫与微软切断联系,这将如何影响你们的竞争力?无论是关于安全性还是其他方面,如果政府介入,你们能做什么?
Murati:我认为人们审视OpenAI是件好事,他们也应该同样审视整个行业。
我们正在构建一个极其强大的工具,并全力以赴让它变得卓越,但它确实存在风险。因此,人们应深度参与,了解这项技术的本质,同时也需弄清它对不同领域的影响。
仅了解技术本身还不够,为了安全有效地部署它,我们还需要构建适当的社会与工程基础设施。
因此,我认为受到审视是好事,它促使人们参与进来,有独立验证者等。我们比任何人都更早讨论这些问题。
关于与微软的具体合作,他们是一个优秀的合作伙伴,我们在紧密合作,共同建造最先进的超级计算机。众所周知,超级计算机是构建AI模型的核心。因此,对我们而言,这是一个极其重要的伙伴关系。
关于高管关系
「我会反驳Sam过分Push团队」
Swisher:我还想谈谈你在公司中的角色以及你与Sam Altman的关系。我很喜欢Sam,我认为他像大多数技术人员一样具有野性和侵略性。他去年被解雇后又复职,当时发生了什么?你当时短暂担任公司CEO,感觉如何?
Murati:那确实有点压力。
Swisher:董事会一些成员说你对他的行为有意见,你的律师回应称,你只是给了他反馈。那么,你能告诉我们你对他的评价吗?
Murati:我们只是在运营公司的人,我们会有分歧,需要解决分歧。归根结底,我们都深深关心着我们的使命,这就是我们在此的原因,我们将使命和团队放在首位。
Sam Altman是个有远见的人,有着宏伟的抱负,建立了一个了不起的公司。我们有牢固的合作关系。我已经向询问我的董事会分享了我所有的想法,因此没有任何秘密。
Swisher:那么你怎么看待你们之间的关系?因为你现在是公司的重要员工之一,而他们刚刚聘请了其他人来加强管理层的经验。
Murati:我们是一个非常坚固的伙伴关系,可以直接讨论遇到的任何问题。过去几年确实艰难,我们经历了成长的阵痛,需要把使命放在首位,不断改进,并以谦逊态度进步。
Swisher:随着公司成长,伙伴关系也会变化。我很了解这种情况,在Google、Microsoft早期以及亚马逊都曾发生过。Google早期很混乱;Facebook经历了多位COO,扎克伯格不喜欢的高管被频繁更换。
所以,你怎么看待你俩的伙伴关系?你每天如何与Sam Altman相处?会在什么事上反驳他?他已经投资了400家公司,有些公司为与OpenAI合作而投资。他还投资了3.75亿美元给一家叫Helion的能源公司,目前它为OpenAI提供大量电力。众所周知,计算需要大量电力。
Murati:什么时候反驳?我一直在反驳他,我认为这在我们工作中很正常。Sam会非常努力地Push团队,我认为这很好。拥有宏大愿景并测试我们的极限是非常棒的。当我觉得超出限度时,我就会反驳他。这是我们六年来的常态。我认为这很有效,我可以反驳他。
Swisher:你能举个例子吗?比如在斯嘉丽·约翰逊事件中,你参与了那个声音项目,对吗?(编者注:斯嘉丽·约翰逊控诉OpenAI在ChatGPT-4o的语音系统Sky中未经授权使用了她的声音)
Murati:我们有良好的合作关系,但选择声音并非我们的优先事项,也不是我们共同决定的。事实上,我参与了决策,我选定了Sky的声音后,他联系了斯嘉丽·约翰逊。Sam有自己的人脉,在这个决定上没有沟通,这是不幸的。他有自己的关系网络,所以这次我们未能完全协调。
Swisher:你认为这是OpenAI的一次重大失误吗?因为大家都在说你们看起来就是“偷”了斯嘉丽的声音。虽然事实并非如此,实际上你们用了另一个相似的声音。但这反映了人们对科技公司攫取资源的恐惧。
Murati:你担心科技公司被指拿走了创作者的一切?
Swisher:其实我认为这就是事实。
Murati:我确实担心这种看法。但我们能做的就是做好工作,做好每一个项目,这样人们就会看到我们的努力,从而建立信任。我认为除了真正做好工作外,没有其他神奇方法可以建立信任。
Swisher:你有和斯嘉丽·约翰逊谈过吗?
Murati:没有。当时事发非常紧急,我专注于工作,同时我在阿尔巴尼亚和巴尔干国家长大,没有接触太多美国流行文化。
关于防范AI生成虚假信息
「元数据和分类器是两种技术方法」
Swisher:让我最后谈谈选举和虚假信息。
新研究表明,在线虚假信息问题比我们想象的小,虚假信息本身效果有限。一项研究发现,OpenAI处理的是需求侧问题——如果人们想听阴谋论,他们会从广播、社交媒体等渠道寻找答案;而另一些人则认为虚假信息是重大问题。
你听到了之前的讨论,许多人持有各种阴谋论,这在很大程度上由社交媒体推动。那么,当你思考AI对虚假信息的放大作用及其对即将到来的总统选举的影响,你担忧的问题是什么?从你的角度看,最糟糕的情况和最可能的负面结果是什么?
Murati:现有系统极具说服力,可以影响你的思维方式和信念。这是我们研究一段时间后发现的问题,我确实认为这是一个真实问题。特别是在过去一年里,我们非常关注AI如何影响选举。我们正在做几件事。
TechFlow公式コミュニティへようこそ Telegram購読グループ:https://t.me/TechFlowDaily Twitter公式アカウント:https://x.com/TechFlowPost Twitter英語アカウント:https://x.com/BlockFlow_News














