深度|吴恩达最新 Ark Invest 洞察:AI 基础模型竞争激烈,训练成本每年下降75%,推理下降86%,大厂优势难长期保证

0 评论 2681 浏览 2 收藏 36 分钟

吴恩达(Andrew Ng)与ARK Invest的首席投资策略师Charlie Roberts和首席未来学家Brett Winton进行了一次深入的对谈,分享了他对Agent Systems和开源技术的深刻见解。吴恩达对Agent Systems持有高度信心,并认为开源技术在推动技术进步中具有巨大潜力。

近日,吴恩达(Andrew Ng)与 ARK Invest 首席投资策略师 Charlie Roberts 以及首席未来学家 Brett Winton 展开了一次对谈,吴恩达分享了关于 Agent Systems 和开源技术的一些极具启发性的观点。

吴恩达表示,他对 Agent Systems 的高度信心,认为这些系统不仅已经出现,而且在技术层面几乎没有太多的风险,主要挑战在于如何有效执行。

此外,他认为开源所带来的优势远远超越了潜在的风险,引用 GPT-2 的例子来说明,即使当初被认为太危险而无法公开的技术,如今却被广泛应用,证明了开源在推动技术进步中的巨大潜力。

吴恩达还特别强调了分销渠道在 AI 系统部署中的关键作用。他指出,拥有强大的分销渠道不仅能够加速系统的发布,还能在实际应用中快速验证和改进这些系统,这对于 AI 技术在商业化进程中的竞争优势至关重要,也预示着在未来,渠道的有效性可能会成为决定 AI 技术成败的关键因素。

ARK 预测,到 2030 年 AI 软件将会是一个 13 万亿美元的收入市场,相比之下,但今天的整个 IT 支出大约为 4~5 万亿美元。

吴恩达最新 Snowflake DevDay 演讲:除了下一代基础模型,Agent 工作流如何推动更多 AI 进步?

吴恩达红杉美国 AI 峰会谈 Agent Workflow 以及 4 种主流设计模式,相比 LLM 更强调迭代与对话。

以下为这次对话的主要内容:

Charlie Roberts

Andrew 是 AI 领域最具影响力的研究人员和教育家之一,他在多个高调的角色中都取得了巨大成就,如 Google Brain 的联合创始人和领导者、百度的首席科学家、 Coursera 的联合创始人,以及在 Coursera 上教授了许多最受欢迎的课程,同时还是 AI Fund 和LandingAI 等多家公司的联合创始人和董事。

我觉得最让我感动的数据是你告诉我,全球每千人中就有一人参加过你的 AI 课程,这对整个社区和生态系统来说都是一个巨大的贡献,真是令人鼓舞。所以,我很高兴能够与你讨论 AI 的未来和其他相关话题。

Brett Winton

非常高兴见到你,我想或许可以请你从概述一下你对当前 AI 发展阶段的看法开始。关于 AI 的讨论很多,其实已经有一段时间了。

有人说 AI 遇到了瓶颈,或者我们在性能上的进步不会带来实际的生产力提升。你怎么看目前 AI 的能力和未来的发展轨迹?你如何评估这个问题?

Andrew Ng

在过去的 10~15 年里,总有少数声音在说 AI 遇到了瓶颈,我觉得这些说法一次又一次地被证明是错误的。我们距离碰到瓶颈还很远,我甚至惊讶有人在这个时候会认真这么说。

AI 是一种通用技术,它的发展已经非常迅速,现在有一些新的突破即将出现,未来我们将看到 AI 在多个领域的应用快速增长。

目前,大家对生成式 AI 和 LLM 非常关注,我们已经能够让这些模型完成的任务,远远超过了目前已经部署的内容。很明显,更多的推理能力、更多的 GPU 或其他类型的硬件是将更多 AI 推向世界的瓶颈,这个问题我们知道将会得到解决。

为了供应链、 GPU 和其他硬件的供应,有非常强的经济动机来解决这个问题。因此,即使 AI 不再发明任何新技术,在未来几年中 AI 的部署量仍会大幅增加。

当然,更好的消息是,还有更多的新技术正在研发中,并将叠加在现有技术之上,推动未来更多的应用。

Brett Winton

总结一下,你的意思是我们现在拥有的能力实际上还没有真正进入商业市场,所以仅仅通过部署这些能力就能带来大量的生产力提升。此外,在技术架构方面的改进还会进一步提升能力,这是正确的理解方式吗?

Andrew Ng

是的,事实上,我与一些有想法甚至是已经开发出原型的人交谈过,他们希望通过 AI 实现显著的投资回报率,但由于各种原因,他们无法获取 GPU ,或者成本有点高,或者他们没有足够的软件工程师来实现这些想法,所以这些项目还没有真正落实。

因此,已经有很多经过验证的想法可以带来显著的投资回报率,但由于硬件限制或其他原因,这些项目还没有被部署。我百分之百相信,未来一到两年内,这些问题将会得到解决,这就是为什么我对未来将有更多有价值的 AI 项目感到非常有信心。问题在于如何获取和部署 GPU ,以及解决供应链问题。

一旦这些问题得到解决,更多的项目将会落地。我对即将到来的技术感到非常兴奋,比如 AI Agent 或我们称之为 Agentic Workflow 的技术。现在很多人使用的 LLM 的方式是,你输入一个提示,它输出一个结果,然后就结束了。这就像让一个人写一篇文章,但要求他一次性完成,不允许使用退格键。

当然,人们可以这样写作,但我们最好的写作并不是这样完成的。我们更倾向于使用迭代的工作流程,比如在线写作,先写一个初稿,然后进行编辑、研究等等,这是一个更加迭代的过程,可以帮助人们交付更好的工作成果。Agentic Workflow 也类似,它能显著提高很多 AI 应用的准确性。

当然, Agentic Workflow 的一个瓶颈是我们需要更快的推理能力,因为你需要多次调用它,反复迭代产品。然而,许多人正在努力解决这个问题,我非常有信心,随着更好的硬件上线,这些工作将会得到更大的改进,不仅在 AI 训练方面,而且在 AI 推理方面,更多的工作将会完成。

我受到你们的报告的启发,其中你们估计训练成本每年下降 75%,推理成本每年下降 86%。虽然我不确定这些确切的数字是否准确,但我确实看到成本在迅速下降,这对于进一步的创新是非常有利的。训练和推理成本的下降将会推动更多的应用。

Brett Winton

是的,我们的基本观点是,不仅成本在下降,还有大量投资资金涌入,因此你将成本下降和投资资金相结合,最终在两到三年内预期能力提升一百倍甚至一千倍。

你认同像 John Locond 所说的那样,系统在运行时会有一定的错误率,即使是 Agent Systems ,这个错误率会随着时间的推移而累积,实际上你正在处理的工作流程越长,生产力就越会受到影响,因为错误在累积。

你认为在当前的架构下,这个问题是可以克服的吗?还是我们需要新的架构来让 Agentic Workflow 真正稳定地工作?

Andrew Ng

如果你在做开放式工作流,那么是的,每一步都需要完美无缺,但是一旦你实现了 Agentic Workflow ,你就可以回顾步骤并修复错误,那么累积问题就会大大改善。举个例子,我曾经设定了一个非常简单的 Agent 来进行在线研究,它的任务是撰写一份报告。

我记得我在斯坦福大学做现场演示时,由于某些原因,那个时候调用的网络搜索失败了,我当时心想“糟糕,演示要失败了”,但出乎我意料的是, Agent 说“网络搜索失败了,让我用维基百科搜索代替吧”,而我完全忘了我还给它设置了维基百科搜索的备用方案。所以, Agent 在面对失败时能够自主切换到备用方案,演示仍然成功了。

Agentic Workflow 虽然不是魔法,也会犯错,但它们有能力在出错时回顾并修复,这使得系统更加稳健。我不想过分类比 AI 和人类,它们有很大不同,但就像人类一样,我们在做事情时第一次可能不会成功,但我们有反思和修复的能力,这使得人类在执行任务时更加稳健。AI Agent 也能够做到这一点。

Brett Winton

你认为要实现真正的 Agentic Workflow ,我们是否需要一个像 Transformer 那样的架构级别的改进?还是说可能通过有效结合现有的工具,比如 LLM,加上强化学习,甚至可能再加上扩散模型,已经足够了?你觉得目前这些工具能帮助我们实现这一目标吗?

Andrew Ng

Agentic Workflow 在现有的 Transformer 模型下已经工作得很好了。我知道有研究人员在探索 Transformer 替代模型,这些模型很有前景,值得进一步研究和测试。虽然拥有更好的模型会很棒,但我并不认为这是绝对必要的。

然而,有一个方面被低估了,那就是快速推理和快速生成控制的能力。直到最近,很多大公司都在花费巨额预算购买 GPU 用于训练,这很好,因为它为我们带来了大规模的基础模型,包括专有和开源的模型。

但我发现,快速推理的能力正成为许多应用的瓶颈。当 Meta 发布 Llama 3 70B 模型时,这是一个非常出色的开源模型,如果我们能将推理速度提高 10 倍,我们就能让这些 Agentic Workflow 运行得更快。

对于人类来说,阅读速度大约是每秒 6 个 token ,所以你不需要生成比每秒 6 个 token 更快的内容。但对于 Agentic Workflow 和 AI ,可能需要草拟草稿并修复错误,这意味着它需要生成大量的 token ,可能需要在人工干预之前完成大量工作。

有时, Agentic Workflow 可能需要花费 25 分钟的时间来处理工作,如果我们能将这 25 分钟的处理时间压缩到2分钟,这将是一个改变游戏规则的突破。

这会显著改变客户体验,从20到25分钟缩短到1到2分钟,因此在快速生成 token 方面还有很多工作要做,这将有助于推动下一波 AI 的应用。

Brett Winton

这些工作与训练密切相关,对吧?AI 推理和训练中的一个有趣动态是,如果我在系统上投入更多的训练资金,像 Meta 正在做的那样,我可以将更多的信息压缩到一个更小的参数模型中,从而可以更快、更便宜地运行。

这使得性能提升和成本下降同时发生,这就是一个有趣的动态,这取决于你在训练计算上投入了多少资金。

Andrew Ng

是的,这些都会有所帮助。即使你使用一个大型模型,比如一些商用网站上的 LLM 可能每秒生成 10 个 token 左右,这个速度已经非常快了。

我们大多数人每秒阅读大约 6 个 token ,所以每秒 6~10 个 token 的速度已经足够了。虽然模型不同,但我们可以生成更多的 token ,而且有些公司也在生成每秒数百个 token 的内容。还有一些公司在私下里分享说,他们也在开发便宜且超快的 token 生成技术。

这些公司的工作将解锁许多新的能力,而这种超快的 token 生成技术,每秒超过100个 token 对于大模型来说是非常重要的,这让我们能够做出非常复杂的事情。我实际上很高兴看到更多的半导体制造商认真对待推理,因为推理现在是很多应用的瓶颈。

另一个有趣的现象是,一些大公司完全合理地投资了 GPU 基础设施用于训练,他们拥有非常出色的 GPU 团队,建立了卓越的训练基础设施,然而,这些团队也倾向于说“我们已经建立了最佳的训练基础设施,那么我们也来建立推理基础设施吧”,因为他们在训练方面做得很好,所以自然就去做推理了。

但是,我们现在应该认真思考,训练和推理基础设施是否应该是同一套基础设施?还是说它们之间有足够的差异,甚至需要新的架构?这是一个值得讨论的问题。

Brett Winton

当然,如果是在终端设备上,它们肯定是不同的,对吧?例如,如果我要在特斯拉车辆中安装芯片,这就是完全不同的架构栈了。你可以辩称,从消费者的实用性角度来看,有很多令人信服的理由说明为什么有些甚至大部分的处理应该转移到终端设备上。

Andrew Ng

是的,在设备上的确如此,即使是在云端,训练和推理工作流之间也存在足够的差异,这值得我们从架构和软件堆栈的角度进行思考。

Brett Winton

Andrew ,在教学方面,你的一大贡献之一就是强调人们和开发人员在学习机器学习时需要关注 MLOps ,不仅是研究方面,还有实际应用。我想知道,在 MLOps 中,你是否看到未来有可能将推理与训练分开进行的趋势?

Andrew Ng

是的,因为 LLM 应用还是很新,所以 LLM Ops这个领域还在探索阶段,如何构建、部署和维护 LLM 仍然是一个相对新的领域。

AI 堆栈正在发生巨大变化,云服务提供商正在推出有趣的编排层,比如 Harrison Chase 在 LangChain 上做得很好,Jerry Liu 在 LlamaIndex 上也做得很好,这些都是编排层。

还有其他应用程序构建在这些基础之上,另一个即将出现的有趣框架是 Agentic Framework,这可能是另一种编排层。

我花了很多时间在应用层,因为我发现有很多机会,比如在 AI Fund,我们与企业合作,他们带给我们很多用例,我们环顾四周,发现几乎没有竞争对手。这说明在应用层面仍然有很多新机会,而且竞争没有基础模型层那么激烈。

Brett Winton

对于那些应用层面的公司,他们如何思考自己接入的底层模型,比如基础模型?他们是选择使用现成的 GPT-4 ,还是会设计成能够切换到另一个基础模型?或者他们会对 Llama 进行微调?你怎么看待应用层面在竞争中的策略,以及它将如何影响底层堆栈的竞争?

Andrew Ng

这个领域变化非常快。在很多项目的初始阶段,团队往往会使用 GPT-4 ,最近几周, Llama 3 变得越来越有竞争力,我听到很多团队使用 GPT-4 ,这在当前是最常见的选择。

但一个瓶颈是评估,开发成本和时间比以前大大缩短,你可以在一天内构建出一个有吸引力的应用程序,但评估可能需要花费更多的时间,这使得人们不太愿意切换模型。

如果你开始使用 GPT-4 ,但无法有效评估其他模型,你可能会继续使用最初的选择。但我看到很多人正在努力开发更好的评估工具,以便更高效地比较不同的模型。

Brett Winton

我们对 Claude 的发展感到非常兴奋, Claude 是我们从风险投资基金中最早投资的公司之一,我们与公司保持密切联系,非常看好它的前景。

您对当前关于开源的讨论有何看法?这似乎是一个非常两极化的讨论,尤其是在数据科学和机器学习领域,许多人对这个问题有非常强烈的看法。

Andrew Ng

开源非常重要,我们应该尽力推动开源,因为它会让世界变得更好。我对去年反对开源的强烈游说活动感到非常惊讶,这些活动实际上会扼杀美国的创新,也会压制全球的创新。

你可以理解,当有人在大规模训练基础模型上投入了数十亿美元,然后发现其他人通过开源稀释了这些昂贵投资的价值,这让他们感到非常沮丧。游说活动开始时的主要论点是 AI 可能会失控并关闭系统,这一论点在华盛顿特区失去了信誉。

游说者没有放弃,他们转而声称 AI 可能会被用来制造生物武器,但随后出现了报告显示, AI 并不比电子表格更容易被用来制造生物武器。

AI 不太可能制造生物武器的恐惧并没有得到证实,这让生物武器的论点失去了很大一部分信誉。

然而,游说者没有放弃,他们现在的论点是国家安全问题,认为开源可能会让欧洲竞争对手受益。我对这些游说活动的力度感到惊讶,他们不断改变论点以推动关闭开源的议程。

开源是全球 AI 技术供应链的一部分,它反映了各国的价值观。例如,很多国家使用 Google Docs ,而 Google Docs 在共享文档时非常容易,但它在锁定文档时相对较难。这反映了 Google 内部开放的文化。

而 iMessage 的端到端加密则反映了注重隐私的价值观。每个国家的技术往往会反映其价值观,如果民主国家不参与 AI 的供应链,那么其他国家将会填补这一空白。

Brett Winton

撇开对开源的监管压力不谈,你认为在未来的状态下, Meta 投下数十亿美元训练这些模型并将其公开发布的努力,是否会削弱封闭的 LLM 基础模型类玩家的经济效益?这是否会对 OpenAI 和 Anthropic 等公司的商业盈利能力构成威胁?

Andrew Ng

目前,在基础模型层面确实存在挑战。根据你们的报告,成本每年下降 75%,这使得保持领先地位变得非常困难。

令人沮丧的是,你可能花费了 1 亿美元来训练一个模型,但一年后,竞争对手只需要 2500 万美元就能做到,接着再过一年,这个成本可能又会下降四分之一。那么这种情况下的动力在哪里呢?

不仅仅是纯粹的基础模型层面,其他层面可能会有所不同,也许对消费者来说会有所变化。今天来看, LLM 的成本优势非常明显,或许有些问题需要重新审视,但变化不大。

我们会看到这些技术的进一步发展,未来可能会有其他技术组件来增强基础模型的竞争力。如果只看基础模型,而没有其他内容,我不知道这种模式能有多大的护城河。

Brett Winton

你认为 Meta 之所以能够进入这个领域,是因为在 ChatGPT 推出之前,团队乐于公开他们的研究成果,他们会说“这是我们的配方,这是我们构建它的方法”,有一种公开的精神。即使模型是封闭的,它们也是出于安全原因而封闭的,并且共享了架构和方法。

随着 GPT-4 的推出,情况发生了变化,现在人们不再愿意公开分享他们的方法。所以,是否有更多的机会让团队之间的性能差异更加明显,因为现在这些配方不再公开共享了?

Andrew Ng

各个公司之间的人才流动和想法传播仍然很强烈,因此很难长期保守住秘密。你可能会在短期内获得一些优势,但长期来看,防御性的作用不大。

我看到的情况是,在大科技公司之间的竞争中,尤其是在 AI 和云业务方面,确实可以获得短期优势,但长期优势我不确定能否持续。

你提到人们以安全的名义保守秘密,这确实很有趣。在过去的十年中,每当有人说“我的技术太危险了,我要保密”时,通常过了一两年,类似的技术就被开源了,而且带来的好处远远超过了潜在的危害。

我并不是说没有危害存在,确实有一些不良分子利用开源技术,但总体上,每当有人说“我的技术太危险了”,通常过不了多久就会有开源版本出现,而开源带来的好处远远超过了潜在的危害。

以 Llama 3 为例,最初的版本有一个有限的上下文窗口长度,但因为它是开源的,现在开发者已经修改了 Llama 3,扩展了它的上下文窗口长度。我们无法在封闭模型中实现这一点。所以开源创新的力量非常强大。我们现在能够以非常低的成本提供这种恐惧感,这是开源带来了大量的创新。

Brett Winton

Llama 开源的商业逻辑并不神秘。实际上,我看到 Meta 在开发 PyTorch 时也采取了类似的策略。Meta 意识到自己需要一个开源的平台来构建业务,而不是依赖于竞争对手的专有平台,比如 TensorFlow 。

Andrew Ng

是的, Meta 对依赖其他平台的敏感性并不令人意外。例如,当 iOS 更改其隐私规则时,这会影响 Meta 的业务,因为 iOS 是一个专有平台。

当我的前团队在 Google Brain 开发 TensorFlow 时,我们实际上雇佣了 Reggie Monger,他是一个出色的领导者,负责开发 TensorFlow 。

Reggie 和我都是出色的工程师,当你意识到主流的深度学习开发平台可能会被竞争对手的专有平台控制时, Meta 的做法非常聪明。

Meta 没有试图拥有这个平台,而是创建了开源的 PyTorch ,随后它获得了大量的动能,并且大大降低了被其他人控制深度学习平台的风险。

由于 Meta 并没有运营大型云业务,因此它只需要一个开源的平台来构建社交网络和通信业务。

从商业角度来看, Meta 确保有一个开源的基础模型和生态系统是非常理性的,因为这样一来, Meta 就可以在此基础上进行构建,而不必担心依赖于封闭的平台,比如 iOS 可能在某个时候改变规则。

因为 Meta 没有运营大型云服务,所以它没有动机保持封闭状态以销售 API 调用。总的来说,这是一个非常理性的商业决策。但这也不影响我们对 Meta 开源这一宝贵举动的感激之情,即使它背后有着非常合理的商业模式。

Brett Winton

你认为对于 AI 应用公司来说,比如某家公司如果设计的能力水平达到了 GPT-4 的水平,那么他们其实可能是在犯一个大错,因为我们很快就会有更强大的能力,也许就在今年或明年。

那么,你是否预见到这样的战略格局:OpenAI 推出非常有意义的进步,然后其他公司大约六个月后才跟上?在 AI 应用方面,这种技术进步的速度是否会改变你对可能具有商业化潜力的 AI 应用的看法或做法?

Andrew Ng

听起来这是一个很好的领导者,自从他还是本科生时,我就认识他了。他当时在我父亲的实验室工作,很久以前的事了。我非常尊重 OpenAI 的一点是,他们在推动 AI 方面非常积极进取。他们确实很大胆,做出了很多赌注。

当你这样做时,并不意味着每一个赌注都会成功,但只需要少数几个成功的赌注,你就可以取得巨大的成果。所以 OpenAI 确实在做很多不同的事情。

我不想猜测他们所有的计划,但我确实认为训练基础模型是非常重要的,我很期待看到 GPT-5 的发布,我确信它将比 GPT-4 更强大得多。但我也相信,GPT-5 仍然会有很多事情做不到,很多其他应用仍然需要在它之上构建。

我的团队做了一个小研究,表明在编码问题上使用 GPT-3.5 与使用  Agentic Workflow 的 GPT-4 相比, GPT-3.5 的表现其实更好。所以虽然从 GPT-3.5 到 GPT-4 的进步非常令人兴奋,但使用 Agentic Workflow 带来的改进实际上超过了这个进步。

我非常乐观地认为,不管是 GPT-5 还是 Gemini 2,当它们发布时,我都很期待它们的表现,但我也相信,现有模型的 Agentic Workflow 和其他创新仍然能在解决非常有价值的业务问题和应用问题上走得很远。

Charlie Roberts

关于这个问题, Andrew ,我记得你多年来对医疗保健非常感兴趣,我相信你家里也有医学背景的人。

Mustafa Suleyman 在他的书《 Becoming Human 》中提到了他对现代图灵测试的看法,他举的例子是,如果你能给一个 Agentic 系统 10 万美元,并让它生成 100 万美元的年收入,这将是一个令人惊叹的成就,比如它需要去设立一家公司,编写营销计划,并开始执行这些任务。

你有没有想过,无论是在医疗领域还是其他领域,有没有一个现代版的图灵测试是你希望看到的,可能在不久的将来 Agentic 系统能达到的目标?

Andrew Ng

AI 和人类智能是非常不同的。两者都非常有价值,我们总是试图将 AI 与人类可以做的事情进行比较,这没什么坏处,但,由于人类智能如此独特,实际上很难让 AI 做所有人类可以做的事情。

当然,我们希望 AI 能够做到,希望我们有生之年能看到这一天的到来,但即使在我们试图让 AI 达到人类水平之前, AI 已经能够在很多领域远远超越任何一个活着的人类,这本身就具有巨大的价值。

所以我更关注的是一步步的进展,这种进展正在非常迅速地发生,这个进展包括 AI 能够做的事情的范围,以及各个行业的应用,而不是仅仅试图达到某种类似图灵测试的标准。当然,对于研究人员来说,这样的测试也是很好的研究方向。

Brett Winton

最终来说,基准测试有用之处在于它们能够指示某种可以商业化并大规模应用的实际应用,这样才能变得真正有意义和现实化。而你非常专注于将 AI 带入市场的实际应用。

你对语言生成之外的应用有何看法?你怎么看待语言以外的应用,比如机器人技术、自动驾驶出租车和医疗领域?你对这些领域的进展速度有何期待,你认为这些是值得关注的领域吗?

Andrew Ng

我们正在朝着那个方向前进。文本革命首先通过 LLM 到来,但我看到图像处理革命也将随后到来。我指的不仅仅是生成图像,而是分析图像。

比如,LandingAI 正在进行关于大型视觉模型的工作,在未来很短的几年内,我们将在 AI 分析图像的能力上取得很大进展。不仅仅是文本分析,图像分析也会迅速发展。

至于应用和 AI Fund 所涉及的领域,我们实际上试图保持行业中立。因此,我们重新设计了我们的战略,目的是通过视觉表达 AI 技术。我们知道 AI 的能与不能,但由于 AI 是一种通用技术,适用于医疗保健、金融服务、物流、教育等多个领域,我们无法同时掌握或关注所有这些领域。

因此,我们在 AI Fund 中的策略是,我们非常喜欢与拥有专业知识的企业合作,这些企业通常是我们的 LP,也可能不是LP。

我们与拥有深厚行业专业知识的大型公司合作,这些公司在特定领域有深厚的市场知识和技术知识,我们通过合作,共同开发出一些非常独特的东西。

我们确实在医疗保健领域有所涉足,这是我们的一个示例。在我们最近的医疗保健项目中,我们与在某些地理区域拥有深厚专业知识的合作伙伴合作,他们不仅在市场和市场进入方面有深厚的知识,而且还能与我们的技术知识相辅相成,让我们尝试在美国以外的医疗保健市场中构建一些非常独特的东西,因为我们认为这些市场可能更容易首先攻克。

有趣的是,每当我们与大型公司合作并进行头脑风暴时,我们总是会得到比我们或他们能够实施的想法多得多的创意。创意的数量总是让人既高兴又烦恼,因为它远远超过了我们能够动用的资源。

Charlie Roberts

从你在 AI Fund 中的经验和与大型企业的对话中,你对 AI 的应用和商业案例有着非常深刻的理解。

在未来五年内,你认为市场上哪些大问题 AI 可能仍无法解决?反之,哪些大问题可能会因为 AI 的出现而完全消失,而这些问题是市场或大众尚未意识到的?

Andrew Ng

这些变化会需要时间。许多行业的转型都需要时间。在深度学习和 AI 浪潮中,我们正在做很多工业自动化的重复性任务。

众所周知,物质的转移是缓慢的,所以当我们处理涉及到现实世界中物质重新配置的事情时,我们会有所进展,但这通常需要时间。

同样,当涉及到文化变革和内部变革管理时,这种转型也可能出人意料地缓慢。然而,我依然对我们能够帮助许多企业重新思考工作流程的速度持乐观态度。

虽然在改变物质配置时,这可能是一个缓慢的过程,但当涉及到比特和变革管理流程时,有时仍然需要几年时间。

所以,尽管我们已经大幅度地变革了许多知识型工作,每个知识型工作今天都可以通过生成式 AI 获得效率提升,这令人兴奋。而我们也将继续推动这些可能性的发展。

本文由人人都是产品经理作者【江天 Tim】,微信公众号:【有新Newin】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。

题图来自Pexels,基于 CC0 协议。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!