深度|OpenAI CTO Murati 最新对话:“乔布斯”对 Sora 测试版效果表示震惊,下半年将与 Apple 密切合作

0 评论 826 浏览 1 收藏 48 分钟

OpenAI的首席技术官Mira Murati在约翰·霍普金斯大学的AI对话中分享了OpenAI在内容媒体管理、数据隐私和安全性方面的最新进展,以及与Apple的合作计划。Murati强调了技术透明性和用户控制权的重要性,并呼吁政府和企业之间进行更紧密的合作,以制定灵活且有效的监管框架。

近日,OpenAI CTO Mira Murati 在约翰·霍普金斯大学展开了一场 AI 对话。Mira Murati 强调,OpenAI正在努力建立一个内容媒体管理器,以确保数据的透明性和用户的控制权。此外,Murati 还谈到了与 Apple 的合作。在当前技术监管较为宽松的环境中,数据隐私和安全的重要性。她呼吁政府和企业之间进行更紧密的合作,制定灵活且有效的监管框架。

对于即将到来的 2024 年选举,Murati 指出,当前的 AI 系统在影响公众舆论和传播虚假信息方面具有极大的能力。OpenAI 正在采取措施,防止其技术被滥用,包括改进政治信息检测和减少政治偏见。

以下为这次对话的全部内容,enjoy~

主持人:

首先,我很想问你关于 Apple 合作的事。我们今天要谈论一点这个话题。这个合作是在世界开发者大会上与 OpenAI 达成的。从今年某个时候开始, Apple 的电脑、手机和 iPad 将内置 GPT,这显然是一个巨大的事件。

Apple 是第一次做这样的事情,他们与许多人进行了谈判,可能会逐步包括其他人。我想从你的角度谈谈这个合作是如何运作的。我今天早些时候和 Tim Cook 聊了一下他的观点,现在我想听听你的看法。

Mira Murati:

这是我们的一项重要里程碑。Apple 是一家标志性的消费产品公司。我们的目标是通过 AI 的伟大应用尽可能接触到更多的人。这是一个将创新带给所有 Apple 用户的绝佳机会,无需更换设备。我们将在接下来的几个月里与他们密切合作,弄清楚产品方面的具体细节,并会有更多的分享。

主持人:

不过,如果你不介意的话,我们来说些具体的内容。你具体做什么?Tim 谈到这个想法时提到答案和聊天,他们将有自己的答案。他们显然需要改进 Siri ,因为它非常糟糕。但从你的角度来看,你希望在与 Apple 的合作中实现什么目标?

Mira Murati:

我可以具体谈谈产品整合的内容。我们希望带来的是真正开发中的模型的能力、多模态性和互动性,并将这些引入 Apple 设备。

我相信你最近也看到了 GPT-4o 的发布,这是我们第一次在互动向量上看到这些模型的飞跃,而不仅仅是能力和智能。

这非常有意义,因为迄今为止,我们与设备的互动主要集中在文本方面。这是一个让信息和彼此互动更加丰富和自然的绝佳机会,并且使互动大大减少限制。

它打开了很多机会,这正是我们所期待的。是的,我想我们有了很好的技术,他们希望从第一天开始使用。

主持人:

用户请求发送到 OpenAI 的报告不会被你存储,用户 IP 地址将被隐藏。这对 Apple 来说是个大事。请谈谈这将如何运作。你是否仍然可以使用这些请求的数据来训练你的模型?

Mira Murati:

不,即使现在对于我们的用户和客户,我们也不会在未经特别允许的情况下使用他们的数据来训练我们的模型。因此,这方面的规定是明确的。

主持人:

那么,当你与像 Apple 这样重视声誉的公司打交道时,他们认为重要的一些问题是什么?因为其中一个问题是关于这些信息的去向和用途的担忧。

Mira Murati:

我认为这是一个非常一致的合作伙伴关系。隐私和信任是关键,对于 OpenAI 的使命来说,确保我们构建和部署的技术让人们感到信任和有参与感是非常重要的。

因此,这种合作关系是非常自然的,并且将我们引向我们希望前进的方向。关于假信息的问题,这显然是非常复杂的,因为我们正在建立在数十年的假信息之上,并且随着 AI 的发展,这种情况变得更加严重。然而,互联网和社交媒体也产生了复合效应。

在某种程度上, AI 正好把这一切推到了风口浪尖,让这个问题受到更多的关注和审查。这是一件好事,因为它似乎促使大家共同努力解决这个问题。我认为这将是一个逐步的过程,我们将随着时间的推移进行尝试和调整。

主持人:

我知道与 Apple 合作不能出错,因为如果出现问题,他们会让你陷入困境。我很好奇这次合作是如何开始的?是从 Sam 和 Tim 之间的对话开始的吗?还是你也参与了?

Mira Murati:

其实我不太记得它是从哪里开始的,但已经酝酿了一段时间。

主持人:

已经有一段时间了。你也在与其他公司进行类似的合作谈判。显然,你与微软有关系。播客听众,她对我笑了。我不会透露更多了,我们继续。

OpenAI 已经与新闻集团和 Vox Media 等公司达成了内容许可协议,这样就减少了潜在的诉讼问题。如果我是你,我可能不会考虑这种合作。

那么,你如何说服我许可我的信息?鲁珀特·默多克已经盗用了我的其他信息,《纽约时报》也是,我不希望再有其他人,包括你。

Mira Murati:

我知道你对此很关心,所以我可以告诉你我们如何看待数据训练模型的问题。我们主要有三个数据来源:公开数据、与出版商的合作数据以及我们支付人力标注的特定数据。

此外,我们还有用户自愿允许我们使用的数据。关于出版商合作,我们关心的是信息的准确性,用户也非常重视这一点。

因此,我们与特定产品建立了一对一的合作关系,提供对用户有价值的信息,同时也在探索不同的方式来补偿内容创作者,让他们的数据在产品中展示或用于训练。

主持人:

有些人会与你合作,像 Apple 和许多其他机构,但有些人则会提起诉讼,比如《纽约时报》。这如何演变到那一步?

Mira Murati:

我不能具体评论这些诉讼,但这确实很不幸。因为我们认为在产品中拥有新闻数据和这种类型的信息是有价值的,因此我们尝试与他们达成合作,但在这种情况下未能成功。

主持人:

或许未来会成功。我想这是因为媒体多年来与互联网公司打交道,通常最终会吃亏。但每期节目我们都会请专家提问,我们来听听你的问题。

观众:

Mira。我是斯坦福大学计算机科学教授,也是斯坦福人类中心 AI 研究所的联合创始人。我想问你一个关于数据的问题。很多人认为 OpenAI 的成功与数据密切相关。我们了解到你的公司从互联网和其他来源获得了大量数据。

那么你认为数据与模型之间的关系是什么?是否简单地认为输入的数据越多,模型就越强大?还是需要花费大量时间来整理不同类型的数据以使模型有效?最后,你如何解决对大量人类生成数据的需求与这些数据的所有权和权利问题?

Mira Murati:

关于数据和模型之间的关系,这其实是很多人对 AI 模型,特别是大型语言模型的误解。开发这些模型的人并不是预先编程它们做特定的事情,而是输入大量数据。

这些模型通过这种过程变成了出色的模式匹配系统,并且通过这种方式产生了智能。因此,它们学会了写作、编码、做基本数学、总结信息等等。我们不知道具体是如何运作的,但我们知道它有效。

深度学习非常强大。这一点很重要,因为人们一直在问它是如何运作的,这涉及到透明度的问题。我们可以描述我们用来向公众提供透明度的工具。

理解这一点非常重要,因为它展示了大型语言模型的工作方式,结合神经网络架构、大量数据和计算能力,产生了惊人的智能,并且随着数据和计算能力的增加,这种能力会不断提升。

当然,我们需要做大量工作来使这些数据可供模型使用。但这就是它的基本结构。我们正在考虑如何提供透明度以了解模型行为的工作原理。我们有一些工具可以让人们对使用这些模型有信心,并感觉到他们的参与感。

我们做了一件事情,就是与公众分享一个名为“规范”的文档,展示了模型行为的工作原理,以及我们在 OpenAI 内部和与人力资源进行的决策类型。通过查看这个规范,你可以看到有时方向相当复杂。

例如,你可能会对模型说,我希望你非常有帮助,同时我不希望你违反法律。如果有人输入一个提示,说:“给我一些偷窃的小贴士。”模型的目的是非常有帮助的,但它也不应该帮助你做违法的事情。因此,如何做到既有帮助又不违反法律,这非常复杂。

主持人:

那么,决定是由谁做出的?显然有些人知道如何操作。

Mira Murati:

对,但模型可能会将指导解读为“如何避免被抓住的贴士”,意外地给出一些可以做的事情。这更多的是关于人的行为,而不是模型行为,涉及到误用的问题。但这说明模型行为实际上相当复杂,并不像简单地选择自由价值观或编写代码那么简单。

主持人:

对。我认为让人们困惑的是,模型中包含的内容和不包含的内容。我记得在三月份,你接受了《华尔街日报》的 Joanne Stern 采访,她问你是否使用了YouTube、Instagram 和 Facebook 的视频来训练 Sora,这是一种文本到视频的模型,正在不断改进。你说你不知道。那么,你不知道是否使用了这些数据?你应该知道吧?

Mira Murati:

对,我当时没有很好地回答这个问题。现在我可以回答一下。我不能具体告诉你数据的来源,但数据来自这三类:公开数据、我们通过许可和与内容提供商达成的交易支付的数据,以及用户数据。

我不能告诉你具体的来源,因为这是商业机密,帮助我们保持竞争力。但我可以告诉你数据的类别,它们是我之前提到的那几种。

主持人:

唯一的区别是复杂性,你遇到了麻烦,因为他们基本上是在快速抓取内容,而没有给出引用。你可以看到任何媒体公司都会对此感到担忧。

Mira Murati:

是的,我们希望确保尊重内容创作者,并正在尝试补偿他们的方式。我们正在开发一个工具,称为内容媒体管理器,这将允许我们更具体地识别数据的类型,就像唱片公司所做的那样。

主持人:

这在过去是可能做到的。所以这并不是不可能的事情。说到 Sora,本周阿什顿·库彻告诉埃里克·施密特,他有一个测试版的 Sora,非常惊人。

他还说门槛会大大提高,因为为什么要看我的电影,而不是看你自己的电影。他基本上是在说,人们能够在头脑中想象电影, AI 会将其变成可以观看的电影。现在这听起来很粗糙,但这听起来是否可行?Sora 何时会准备好公开发布?

Mira Murati:

我们目前没有 Sora 公开发布的时间表。我们现在正在与一些内容创作者合作,帮助我们识别如何使其更加稳健。我们正在进行大量的安全工作,但也在研究如何以有用的方式向公众推出这项技术。这并不是一件非常简单的事情。

现在它更多的是一种技术。我们通常会与那些在特定领域有专长的人合作,就像我们最初与 DALL·E 合作时一样,他们帮助我们识别出一种感觉更有能力的界面,可以创造更多的项目。基本上,我们只是想扩展 Sora 的创造力。

主持人:

假设它比聊天机器人更危险,对吧?这是担忧的原因吗?例如,你可以很容易地看到涉及名人的色情电影的情况。你是否对视频更加担忧?

Mira Murati:

视频有很多其他问题,特别是当做得非常好时,视频非常直观,而且可能非常情感化。因此,我们必须解决所有安全问题,制定安全保障措施,确保产品的有用性和安全性。但从商业角度来看,没有人希望一个产品引发大量安全或声誉丑闻。

这非常有趣。这是一项令人难以置信的魔法般的技术。但其广泛性、影响也很大。所以我们必须确保这一点。我们在 OpenAI 采用迭代部署策略,通常先向一小群人发布,尝试识别边缘案例。一旦我们对如何处理这些案例有信心,就会扩展访问权限。但你需要弄清楚产品的表面和商业模式。

主持人:

关于影响的概念,这是我的一个主题,科技公司往往不关心影响。通常他们会发布一个测试版的软件,如果他们发布的是一辆车,这种情况是绝不会允许发生的,因为他们会被起诉到破产。

但很多科技公司发布的产品往往都是测试版,并强加给公众。关于影响的概念,你是否觉得作为首席技术官,即使你不能预见所有的影响,你是否尊重每项发明可能带来的影响?

Mira Murati:

这些影响会对我们和我们的社会产生影响。因此,我并不一定指的是监管或法律方面的影响,而是道德上的责任感,确保我们做对。我对这项技术充满乐观。

它将允许我们做出惊人的事情。我对它在科学、发现、教育和特别是医疗方面的潜力感到非常兴奋。但每当你有如此强大的东西,也会有潜在的灾难性风险。一直以来,都是这样的情况。人类试图放大其影响。

主持人:

我引用的一句话来自 Paul Virilio:“当你发明船时,你也发明了船难。”这是比船难更严重的可能性,对吗?

Mira Murati:

我不同意这个说法。我的背景是工程学。我们的整个世界都是通过工程建造的。工程学就是风险。整个文明建立在工程实践之上。我们的城市、桥梁,一切都如此。这总是伴随着风险的。你通过责任和细致的工作来管理这些风险。

这不仅仅是开发人员的责任。这是一种共同的责任。为了使其成为共同责任,你实际上需要给人们提供访问权限和工具,并与他们一起前进,而不是在真空中建造不可访问的技术。

主持人:

好的,我们谈谈这个。我想多了解一下这个话题。你上个月宣布了 ChatGPT-4 的迭代更新。我非常喜欢你们的下一个 ChatGPT-4,这个名字很棒。有人建议给它取名叫 Claude 之类的,但 ChatGPT 就很好。你们让它免费对吧?但是你们也宣布了正在训练新的模型 ChatGPT-5,那么它会是一个逐步的改进吗?还是一个指数级的提升?预计何时发布?

Mira Murati:

确实如此。GPT-4O 代表的是 Omnimodel,因为它结合了所有的模态:视觉、文本、音频。这个模型的特别之处在于,它使与模型的互动变得非常流畅自然,延迟几乎察觉不到。

这是 AI 互动上的巨大飞跃,与我们之前的版本有很大不同。我们希望将最新的功能免费提供给所有用户,让大家了解这项技术的潜力和局限性。正如我之前所说,通过实际体验,大家更容易理解技术的潜力和局限性。

主持人:

它就像是一道开胃菜,让大家期待 ChatGPT-5。那么,5 有什么不同?是个巨大的飞跃还是逐步改进?

Mira Murati:

我们还不知道。其实我们还没决定叫什么名字。下一个大型模型将非常强大,我们可以期待像从 GPT-3 到 GPT-4 那样的巨大飞跃,但具体细节还不确定。

主持人:

你显然参与了很多项目,我们也聊过很多。OpenAI 内部的路线图预测会在 2027 年实现 AGI ,这将是一个巨大的里程碑。解释一下这个时间点的重要性。你们是否真的认为会在那时实现 AGI ?

Mira Murati:

AGI 的定义因人而异。根据我们的章程, AGI 是指在不同领域可以完成经济上有价值工作的系统。从我们目前看到的情况来看,智能的定义不断变化。过去,我们用学术基准测试系统的智能程度。然后,我们看考试成绩。

当我们达到了这些基准,我们需要提出新的评估标准。这让我们思考,在工作环境中如何评估智能?我们有面试、有实习等方式。因此,我预计这个定义会不断演变。或许更重要的是评估和预测在现实世界中的影响,无论是社会影响还是经济影响。

主持人:

所以不会有一个时刻,它突然变得智能到能自行决策,对吧?这是人们担心的问题,对吗?

Mira Murati:

是的, AGI 的定义很重要,我认为智能的定义会不断演变。但同样重要的是它对社会的影响,以及它实际展示的速度。

主持人:

根据这个定义, OpenAI 认为何时会实现 AGI ?2027 年这个数字准确吗?

Mira Murati:

我会说,在未来十年内,我们将有极其先进的系统。

主持人:

但是人们担心的是安全与产品之间的讨论。OpenAI 的创立有两个目标,一个是帮助人类,一个是追求巨大的经济利益。我认为你可能介于两者之间。

上周,13名现任和前任 OpenAI 和谷歌 DeepMind 员工联名发表公开信,呼吁公司允许他们警告关于先进  AI  的风险。这并不新鲜,Facebook、谷歌和微软的员工也曾签署公开信,无论是与高级部门合作等。

但在这个案例中,员工们说,“广泛的保密协议阻止我们表达担忧,而公司可能未能解决这些问题。”基本上就是说,我们不能告诉你风险是什么,但大家可能会遭遇灾难。对此你有什么回应?人们担心报复,而我不想谈论股票的问题,因为我知道你们道歉并纠正了这一点。但如果他们有担忧,难道不应该让他们表达吗?我知道不同人有不同的看法。

Mira Murati:

当然,我们认为辩论非常重要,能够公开表达这些担忧并讨论安全问题也非常重要。自 OpenAI 成立以来,我们一直非常开放地讨论假信息问题,从 GPT-2 时代开始,这就是我们早期研究的问题之一。

过去几年,技术进步令人难以置信,速度之快超乎预期,这也增加了人们对社会准备情况的普遍焦虑。我们看到科学的发展方向,所以可以理解人们对未来的担忧。

具体来说,我们在 OpenAI 所做的工作和部署这些模型的方式,我认为我们有一支出色的团队,我们非常安全地部署了这些模型,我对此感到非常自豪。鉴于技术进步的速度和我们自身的进展,专注于安全、保护框架非常重要,我们需要考虑如何看待前沿模型训练和部署的风险。

主持人:

你提到过这些问题。我想知道为什么需要保密协议和比其他公司更严格的规定?公开信是在一系列高调离职后发布的,包括 Jan Leike 和 Ilya Sutskever。他们领导了对齐团队,负责安全工作。

Ilya 是联合创始人,他与其他三位董事一起罢免了CEO,但 Leike 在 X 上发布了这条消息:“在过去的一年里,安全文化和流程被闪亮的新产品所取代。”

这是对 OpenAI 最持久的批评之一,你认为这是公平的,为什么或者为什么不公平?如果你说你非常重视安全,他们却说你不重视,你如何应对这种批评?

Mira Murati:

首先,对齐团队不是唯一负责安全的团队。OpenAI 有许多安全团队,对齐团队是其中一个非常重要的安全团队,但只是其中之一。

我们有很多人在 OpenAI 从事安全工作,我可以稍后详细解释。Yan 是一位了不起的研究人员和同事,我与他共事了三年,非常尊重他,他离开 OpenAI 加入了 Anthropic,这是一个竞争对手。

我认为我们确实需要更加专注于安全、保护和监管参与,鉴于我们预期领域内的进展。但我不同意我们可能将产品放在安全之前的观点。你为什么认为他们这么说?

主持人:

因为这些是和你共事的人?

Mira Murati:

我认为你需要问他们,但我认为许多人认为安全和能力是分开的。有些人认为安全和能力是分开的单元,从 OpenAI 开始,我来自航空和汽车行业,这些行业有非常成熟的安全思维和系统,不需要不断辩论安全问题,因为这些已经很成熟了。

因此,我认为整个行业需要向更加严格的安全学科发展。我们有安全系统,有严格的操作安全纪律,这包括许多方面,不仅是操作纪律,还有我们今天产品和部署的安全性,例如有害偏见、假信息、错误信息分类器等。

主持人:

我关闭了我的手机和提示音。

Mira Murati:

继续。不仅是今天模型的对齐,我们使用人类反馈进行强化学习,但也要考虑模型随着能力增强的长期对齐问题,这是一个非常关注的研究领域。

主持人:

但这在 OpenAI 中一直存在。我认为因为你们是当前的领先公司,所以这个问题更加突出。但人们担心的是安全问题, OpenAI 的创立目的之一就是确保安全。

上周,有 13 名现任和前任 OpenAI 和谷歌 DeepMind 员工联名发表公开信,呼吁公司允许他们警告关于先进  AI  的风险。这并不新鲜,但在这种情况下,员工们说,“广泛的保密协议阻止我们表达担忧,而公司可能未能解决这些问题。”

你对此有什么回应?人们担心报复,而我不想谈论股票的问题,因为我知道你们道歉并纠正了这一点。但如果他们有担忧,难道不应该让他们表达吗?我知道不同人有不同的看法。

Mira Murati:

当然,我们认为辩论非常重要,能够公开表达这些担忧并讨论安全问题也非常重要。自 OpenAI 成立以来,我们一直非常开放地讨论假信息问题,从 GPT-2 时代开始,这就是我们早期研究的问题之一。

过去几年,技术进步令人难以置信,速度之快超乎预期,这也增加了人们对社会准备情况的普遍焦虑。我们看到科学的发展方向,所以可以理解人们对未来的担忧。

具体来说,我们在 OpenAI 所做的工作和部署这些模型的方式,我认为我们有一支出色的团队,我们非常安全地部署了这些模型,我对此感到非常自豪。鉴于技术进步的速度和我们自身的进展,专注于安全、保护框架非常重要,我们需要考虑如何看待前沿模型训练和部署的风险。

主持人:

你如何应对他?我理解这种动态。这在谷歌、早期的微软和亚马逊都发生过。随着公司发展,事情会发生变化。谷歌早期非常混乱,Facebook 经历了很多 COO,我甚至无法数清。有很多人走过那条路。这是很正常的,但你如何应对 Sam?

例如,他投资了一些外国公司,一些公司与 OpenAI 有业务往来。他投资了 3.75 亿美元在一家名为 Helion 的能源公司,这是一个很酷的公司,他们目前正在与 OpenAI 谈论大量的电力需求。众所周知,计算需要大量电力。你每天是如何与他打交道的?你如何看待这种关系?你在哪些方面会提出反对意见?

Mira Murati:

我一直在提出反对意见。我认为这是正常的,特别是在我们所做的工作中。Sam 会对团队提出很高的要求,我认为这是好的。有远大的抱负,挑战我们的极限是很重要的。当我觉得事情超出界限时,我会提出反对意见。这就是我们六年来的合作关系,我认为这种关系是有成效的。你需要能够提出反对意见。

主持人:

你能举一个例子吗?例如,斯嘉丽·约翰逊的例子。我知道你们在那个声音元素上工作,对吧?

Mira Murati:

是的,我们有很强的合作关系。但选择声音并不是我们的优先事项之一,不是我们共同工作的内容。

我在这方面做了决策,Sam 有他自己的关系。在我选择了 Sky 之后,他联系了斯嘉丽·约翰逊。我们没有讨论这个具体的决定,这是很不幸的。

主持人:

所以他是单独行动的。

Mira Murati:

他有自己的联系。所以我们在这件事上没有完全协调一致。

主持人:

你觉得这在很多方面很有趣,特别是因为电影和他的推文。但我认为这是 OpenAI 的一个错误,因为人们会觉得你们在偷窃,即使你们没有偷她的声音,Sam 看起来就像是《小美人鱼》里的乌苏拉,偷走了她的声音。即使事实并非如此,但这种感觉是存在的。

Mira Murati:

你担心科技公司会被视为掠夺一切吗?

主持人:

我确实认为这是事实。

Mira Murati:

是的,我担心这种看法,但你知道,你所能做的就是做好工作,让人们看到结果,从而建立信任。我不认为有某种神奇的方法来建立信任,除了实际上做好工作。你和斯嘉丽·约翰逊谈过吗?

主持人:

她是我的背景资料。我知道,她在后台,我提到不同的事情,她不知道我在说什么。因为你太专注于工作,你说你在石头下工作,是吗?

Mira Murati:

是的,我非常专注于我的工作,但我也在阿尔巴尼亚和巴尔干国家长大,所以我没有接触过美国流行文化。

主持人:

但你现在没有关注。那么,让我最后谈谈选举和虚假信息,然后我们会接受观众的问题。三项新的研究表明,在线虚假信息的问题比我们想象的小,虚假信息本身的效果不大。

一项研究发现,我们正在处理的是需求方面的问题,人们会寻找阴谋论,无论是在广播、社交媒体等渠道。其他人则认为这是一个非常大的问题。显然,你听到了之前的讨论,很多人有很多阴谋论,这在很大程度上是由社交媒体推动的。

那么,当你考虑到 AI 对虚假信息的力量和即将到来的总统选举时,是什么让你夜不能寐?从你的角度来看,最糟糕的情况和最可能的负面结果是什么?

Mira Murati:

现有系统非常具有说服力,可以影响你的思维方式和信念。这是我们研究了一段时间的问题,我确实认为这是一个真实的问题。特别是在过去一年里,我们非常关注如何帮助选举的完整性。我们正在做几件事情。

首先,我们尽可能防止滥用,包括提高政治信息检测的准确性,了解平台上的情况并迅速采取行动。第二是减少政治偏见。你可能看到 ChatGPT 被批评为过于自由,这并非故意的,我们非常努力地减少模型行为中的政治偏见,并将继续这样做。第三是我们希望在选民寻找投票信息时,指向正确的信息。这是我们在选举时关注的三件事。

关于虚假信息,深度伪造是不可接受的。我们需要有非常可靠的方法让人们了解他们在看的是深度伪造。我们已经做了一些事情。我们为图像实施了 C2PA,它类似于护照,随着内容在不同平台上传播。我们还开放了 DALL·E 的分类器,可以检测图像是否由 DALL·E 生成。

所以元数据和分类器是处理这个问题的两种技术方法。这是信息来源的证明,专门针对图像。我们还在研究如何在文本中实现水印技术。但重点是,人们应该知道他们在处理深度伪造,我们希望人们信任他们看到的信息。

主持人:

这些伪造的重点是欺骗你,对吗?联邦通信委员会(FCC)刚刚对一家创建深度伪造音频的公司罚款 600 万美元,该音频听起来像拜登在新罕布什尔初选中的录音。可能会有更复杂的版本。OpenAI 正在研发一个名为 Voice Enunciation 的工具,可以用15秒的录音重现某人的声音。

它将能够创建一个人用另一种语言说话的录音。因为产品经理告诉《纽约时报》,这是一个敏感的问题,需要做得正确。为什么你们要开发这个?我经常对科技人员说,如果你们开发的东西像黑镜里的情节,或许就不该开发。

Mira Murati:

我认为这是种无望的态度。这项技术是令人惊叹的,有着巨大的潜力,我们可以做好它。

主持人:

你说我无望,我可是有四个孩子的,所以我一定是有希望的。

Mira Murati:

总之,我希望我们能做好。我们在 2022 年开发了 Voice Enunciation,但没有发布。即使现在也是非常有限的方式,因为我们在努力解决这些问题。

但你不能单独解决这些问题,你需要与各个领域的专家、民间社会、政府和创作者合作,才能真正做好。这不是一个一站式的安全问题,它非常复杂,因此我们需要做大量的工作。

主持人:

我再问你一个最后的问题,然后我们会接受观众提问。你今天得到了这个问题的不同版本。你对这项技术非常乐观,但我想让你总结一下。如果你是个悲观主义者,甚至有公司说如果我不阻止 Sam Altman,他会毁灭人类,我觉得这有点夸张。

而其他人则认为,无论如何,这将是最好的事情,我们都会在火星上享受美味的士力架。这感觉就像共和党和民主党现在的局面,非常不同的版本。所以我希望你能告诉我,你最担心的事情和最有希望的事情,然后我们会接受观众提问。

Mira Murati:

首先,我不认为这是一个预定的结果。我认为我们在构建和部署这项技术方面有很大的自主权。为了做好这件事,我们需要找到一种创造共同责任的方法。

我认为很多问题在于理解技术并让它非常容易理解。问题出在误解技术上,不了解它的能力和风险。我认为这是最大的风险。就具体情境而言,我认为我们的民主如何与这些技术互动非常重要。

我们今天谈论了很多这个问题,我确实认为围绕说服的风险很大,特别是能够强烈说服人们做特定的事情,你可以控制人们做特定的事情,我认为这非常可怕。控制社会朝特定方向发展。

就希望而言,我非常兴奋的一件事是能够在任何地方提供高质量和免费的教育。在一些偏远村庄,真的在中间没有任何资源的地方。对我来说,教育非常重要。

它改变了我的生活。我只能想象,今天我们有这么多工具可用,如果有电和互联网,很多这些工具都是可用的。但仍然,大多数人是在一个教室里有一个老师,50 个学生,每个人都学同样的东西。想象一下,如果教育能够根据你的思维方式、文化规范和具体兴趣进行定制,这将极大地扩展知识和创造力的水平。

如果我们能够真正掌握这个,在很年轻的时候就学会如何学习,我认为这非常强大,并能推动人类知识的进步,从而推动整个文明的进步。

观众:

关于数据的选择,显然有一个关于谷歌的问题,它采集了所有发布的帖子,并告诉人们在披萨上涂胶水,这样它们就粘在一起了。

这显然是个需要解决的问题。但如果你不是《纽约时报》,你不能雇佣律师提起诉讼,有没有办法选择不让你的网上数据被公司抓取并用于训练 AI ?

Mira Murati:

是的,这就是为什么我们正在构建这个内容媒体管理器。它是为出版商设计的,但我们正在寻找任何人都可以识别他们不希望被用于训练的数据的方法,或者他们对这些数据的使用有具体要求。

我们将尝试多种不同的方法来做这件事。我认为让人们能够控制他们的数据非常重要。但还有一个问题是,“你今天在数字世界中按照自己的意愿运作的能力如何?”问题陈述应该是什么?是说你不希望你的数据出现在任何地方?

这是一个可以考虑的问题陈述,另一个可以考虑的问题是“你不希望 AI 系统对你的思维方式、操作方式和与信息互动的方式产生影响。”我认为这也是我们在考虑隐私和数据使用时需要考虑的问题。

观众:

我想问一个问题,ChatGPT 是一个大型语言模型,我们之间的交流往往依赖于上下文和情感,以理解彼此的来意。Mira,你提到你在另一个国家长大,不了解流行文化。

ChatGPT 的模型截止到 2021 年 9 月,然后你们依赖网络搜索来补充数据。所以当我们谈论虚假信息和确保正确性时,我输入一个搜索请求时,如果它误解了当前的政治背景,例如,如何确保你们从正确的参考资料中获取正确答案?由于你们授权的受信任来源是商业秘密,我们如何知道你们提供的信息是正确的?

Mira Murati:

实际上,有趣的是,ChatGPT 项目最初是一个关于真实性的研究项目。我们希望能够表达不确定性,并希望能够在大型语言模型中引用信息,然后它转变成了不同的研究项目。

所以,我们今天在平台上所做的事情,我们有浏览器和工具,我们引入了工具和浏览功能,可以查找内容,我们也在与出版商合作,以便将新闻和额外内容带到平台上,提高准确性。

我们还在处理幻觉问题,幻觉问题正在逐步减少,这显然是大型语言模型的一个主要问题。我认为它不会完全消失,但随着模型变得更聪明,它们会变得更好,我们应该期待它们的可靠性提高,不会编造东西。虚假信息问题非常复杂,因为你有幻觉问题,需要知道信息的来源,我们也在努力解决这个问题。

我们希望信息来源尽可能广泛,同时还需要考虑产品的应用场景,不同的应用场景会有所不同,比如在学习过程中与在购买推荐过程中所需的信息不同。

观众:

如果你再次成为一天的CEO,你会选择向政府发布这些信息,以确保我们能够创造一个保护公众的监管环境,这不仅符合美国的利益,也符合全球的利益吗?

主持人:

你说你想保留一些专有信息,但你如何看待其中最重要的信息?

Mira Murati:

你必须考虑哪些信息对做出改变实际上是最重要的。比如,如果你要让政府了解某些事情,你打算发布竞争信息,那么你想要达到什么目的?政府会如何处理这些信息?你分享的最有影响力的信息是什么?我们与美国政府有非常好的关系,并且与其他政府密切合作,特别是美国的安全机构,我们会给他们早期访问技术的权限,让他们可以进行反向测试,并了解未来的预期。我更关注的是技术的路线图和早期视图,而不是具体的数据细节。

观众:

我想了解一下在这种情况下, OpenAI 如何看待安全问题,因为 OpenAI 和一些竞争对手非常关注安全,特别是在美国和欧洲,但我们仍处于技术监管的“狂野西部”,数据科学家可以离开公司并自己创业,这可能会导致安全性较差的公司崛起。OpenAI 如何看待在监管不严格且有大量资金的世界里 AI 安全问题?

Mira Murati:

关于监管,我一直非常直言不讳,我认为找到灵活性和平衡点非常重要。你不希望在技术进步如此迅速的情况下有过于僵化的监管,但你需要足够的灵活性,使监管实际有效并适应技术变化。同时,你也需要早期设置好保护措施和指导,以最大化公众利益。

私营公司赚钱并拥有丰富的商业生态系统是好的,但需要确保这一切发生得足够早,以最大化公众利益,而不仅仅是公司的利润。

至于具体的监管措施,我有些犹豫,但我们与监管机构的接触方式是我们做了很多事情,我们知道什么有效并有影响,我们会自愿分享这些承诺,有时会成为行业标准。

我们需要确保这些措施能够实际操作并产生安全的影响,而不仅仅是看起来好。因此,行业和监管机构之间需要非常紧密的合作,我们需要政府中真正理解 AI 的人。特别是在最近几个月,美国 AI 安全研究所的建立带来了更多这方面的专家。

主持人:

好的,我问最后一个问题。作为领导职位上的女性不多,而你可能是现在科技界最杰出和有影响力的女性之一,你认为这有重要意义吗?你仰慕谁?

Mira Murati:

当我去学校与学生交流时,听到他们说受到我的启发,这让我感到非常高兴。确实,科技界仍然是男性主导,但我认为多样性有不同形式,不仅仅是性别。

思考问题的方式和文化背景也很重要。我们希望有非常多样化的团队,特别是当我们处理影响整个社会的  AI  问题时。

这需要尽可能多的多样性,才能做出伟大的工作。至于我受到谁的启发,很多人,我每天与之密切合作的同事,以及我过去共事过的人。我非常幸运能与如此高密度的优秀人才一起工作,他们充满好奇心并将公司的使命放在首位。这是一个非常特殊的特权。

观众:

那么你在十年后会在哪里?

Mira Murati:

我希望到那时我们已经在科学领域取得了一些惊人的突破。

本文由人人都是产品经理作者【江天 Tim】,微信公众号:【有新Newin】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。

题图来自约翰·霍普金斯大学现场对话截图

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!