产品经理的AI基础:浅谈大模型的局限性(下)

0 评论 1028 浏览 1 收藏 13 分钟

在大模型产品化的过程中,AI产品经理需要探索大模型的边界。其中包含大模型本身无法被解决的能力边界、工程化过程中的限制、以及将来随着模型迭代逐渐可能被解决的问题。

这次探讨第三部分,关于大模型目前存在,未来可能被解决的问题。

人工智能模型转化为实际可用产品的过程中,涉及到多个方面的挑战和限制。这些限制是否能够解决,需要产品经理、工程师、设计师、各个厂商间的合作,共同克服这些限制。

一、意图理解

意图理解侧重于理解和解释用户的指令。

什么是意图理解?

意图理解是指系统从用户的输入中识别出其目的或意图的能力。在人工智能应用中,如聊天机器人和语音助手,这是至关重要的功能。

例如用户对智能助手说:“明天提醒我开会。” 意图理解使得智能助手能够识别这是一个设置提醒的请求,并据此创建一个日程提醒。

再例如用户对智能在线客服输入:“我的订单什么时候发货?” 客服系统通过意图理解识别出用户想要查询订单状态,然后提供相关的物流信息。

意图理解的步骤:

  • 输入解析:系统接收并分析用户的语音或文本输入。
  • 语言处理:对输入的文本进行语法和语义分析,以确定其含义。
  • 意图识别:确定用户输入的主要目的,如询问信息、寻求帮助或执行特定任务。
  • 实体提取:从用户的输入中提取关键信息,如时间、地点、人名等,这些信息对于满足用户意图至关重要。
  • 上下文理解:考虑对话的上下文,以提高意图识别的准确性。

意图理解的局限性:

  • 人类语言极其复杂且多样,包括方言、俚语、习惯用语等,这可能导致系统难以准确理解用户的意图。
  • 某些语句可能具有多重含义,意图理解系统可能难以判断用户的真实意图,尤其是在没有足够上下文的情况下。
  • 用户的意图往往依赖于对话的上下文,系统可能在处理跨越多个交互回合的复杂对话时遇到困难。
  • 尽管技术不断进步,但目前的算法和模型仍然无法完全模拟人类的语言理解能力,特别是在处理复杂推理和情感理解方面。
  • 训练数据的偏差可能导致意图理解系统在处理某些特定群体或场景时表现不佳。
  • 人类交流往往是多模态的,包括语音、文本、肢体语言等,而目前的意图理解系统大多只能处理单一模态的输入。

二、创作能力

创作能力侧重于生成新颖的内容。

什么是创造能力?

创作是指生成新颖和原创内容的能力。在AI领域,创作可能涉及文本、音乐、艺术作品等。

AI创作系统包含什么:

  • 创意生成:AI系统基于给定的提示或种子想法生成新的内容。
  • 模式识别:识别和模仿不同风格和结构的模式,以创造协调且有意义的作品。
  • 学习与适应:通过机器学习算法,AI系统学习大量的数据样本,以提高其创作能力。
  • 用户交互:与用户交互,根据用户的反馈和指导进行创作调整。

创造能力的局限性:

基于Transformer架构的模型,虽然在自然语言处理(NLP)领域取得了显著进展,但其创造能力仍存在一些局限性:

数据依赖:大模型的创造能力很大程度上依赖训练数据,训练的数据有限或者不具有代表性,这会导致模型的输出缺乏多样性和创新型

理解深度:大模型在生成文本时可能只是模仿了语言的表面结构,而没有真正理解或推理生成内容的深层含义。因此,尽管大模型在许多任务中表现出色,但在需要深度理解和创新思维的场合,它们的表现仍有待提高。比如用户询问大模型:“什么是量子纠缠?”大模型可能会生成一个看似合理且连贯的解释,例如:

“量子纠缠是量子力学中的一个现象,当两个或多个粒子以这样的方式相互作用时,它们的状态变得不可分割,即使它们相隔很远。这意味着对其中一个粒子的测量会立即影响另一个粒子的状态。”

尽管这个解释在技术上是正确的,但大模型可能并不真正理解量子纠缠的物理意义和背后的复杂性。如果用户进一步询问更深入的问题,比如量子纠缠如何应用于量子计算或者它与量子隐形传态的关系,大模型可能就无法提供准确或深入的答案。

创造性限制:大模型通常在模仿和扩展已知模式方面表现出色,但在生成完全新颖和原创的想法方面可能存在局限。假设大模型“创作一个全新的科幻故事概念,包含一个尚未探索的宇宙和独特的生命形式。”大模型可能会生成一个故事,其中包含一些已知科幻元素的混合,例如:

“在遥远的未来,人类发现了一个新的星系,名为‘Noviensis’。这个星系由一个巨大的黑洞统治,周围环绕着几个行星,这些行星上居住着能够进行光合作用的生物,它们通过吸收宇宙射线来生长。”

尽管这个故事听起来很有创意,但大模型生成的概念可能仍然基于已知的科幻主题,如黑洞、外星生命和宇宙探索。这些元素在科幻文学和电影中已经被广泛探索。大模型可能难以创造出完全新颖的、从未在人类文化中出现过的概念,如一种基于完全不同物理法则的生命形式或一个全新的宇宙维度。

解释性:大模型的决策过程往往是黑箱,难以解释和理解,这在需要可解释性的创造性任务中可能是一个缺点。

法律和版权:大模型生成的内容可能会涉及版权和知识产权问题,尤其是在模仿特定风格或作品时。

三、推理能力

推理则侧重于逻辑分析和决策过程。

推理能力指的是什么?

推理是指系统使用逻辑和已有知识来得出结论的能力。在AI中,推理可以用于解决问题、规划行动或做出决策。

推理过程包括:

  • 逻辑推理:应用逻辑规则和原则来分析问题和得出结论。
  • 因果关系:理解事件之间的因果联系,并据此进行预测或解释。
  • 规划与决策:使用推理来制定行动计划或做出最优决策。
  • 知识表示:将知识以适合推理的形式表示出来,如语义网络、规则集或本体。
  • 推理算法:运用各种算法,如基于规则的推理、基于模型的推理或基于约束的推理。

推理过程的局限性:

大模型在推理能力方面虽然取得了显著的进步,但仍然存在一些局限性。以下是大模型推理能力的一些限制:

  • 逻辑一致性:大模型可能在处理长逻辑链或复杂推理时出现错误,尤其是在需要多步骤推理的情况下
  • 因果推理:尽管大模型可以识别语句中的因果关系,但它们可能难以理解现实生活中复杂的因果网络。
  • 常识推理:大模型可能缺乏对人类常识的理解,导致在需要常识推理的任务中表现不佳。用户问:“我可以穿着溜冰鞋去超市吗?”大模型可能回答:“可以,只要你觉得舒服。”然而,这忽略了常识推理,即穿着溜冰鞋在超市可能不安全,也可能违反超市的规定。
  • 情感和语境理解:情感和语境对于人类推理至关重要,但大模型可能难以准确捕捉和应用这些细微差别。用户说:“我今天在会议上被老板表扬了,但我还是不高兴。”大模型可能回答:“恭喜你被表扬。”但是,它可能没有捕捉到用户的情感状态和语境,没有询问用户为何不高兴。
  • 专业领域的知识,例如用户问:“我的车需要新的火花塞,我应该买哪种?”大模型可能回答:“买一个适合你车型的火花塞。”但是,它可能无法提供具体的火花塞型号或品牌建议,这需要汽车领域的专业知识。

四、多模态的数据读取/生成能力

在跨模态数据处理中,确实存在信息损失的风险,而且随着模型的迭代,端到端的解决方案可能会逐渐取代复杂的工程手段。因此,专注于解决那些模型可能解决的问题,而不是在跨模态数据处理上过度优化,是一个更有效的策略。

五、模型的提示词进行优化是否必要

提示词优化是一个需要根据具体情况权衡的问题。在某些情况下,它可能是提高性能和用户体验的关键;而在其他情况下,随着模型的自然进步,这种优化可能变得不那么重要。此外,对于复杂的任务,采用多个AI Agent的分布式处理方法可能更为有效。

格式和输出结果的稳定性、一致性

如果产品业务需要特定的输出格式(如JSON),以确保下游系统的兼容性和稳定性,那么对提示词进行优化是非常有必要的。这可以确保大模型的输出符合预期的格式和标准。吴恩达的《ChatGPT Prompt Engineering for Developers》值得推荐

提升模型输出质量

随着模型的迭代和升级,模型本身的提升将比精心设计的提示词带来的提升更为显著。这在一定程度上是正确的,因为模型架构和算法的改进通常会带来更广泛的性能提升。

长链路SOP、工作流和推理过程

对于复杂的任务,可以通过多个AI Agent来实现,而不是试图在单轮对话中解决。这种方法可以更有效地分解任务,利用每个Agent的专长,从而提高整体的处理效率和准确性。

本文由 @wanee 原创发布于人人都是产品经理,未经许可,禁止转载

题图来自Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!