4类GPT产品模式、4个GPT小项目、4个商业化风险——AI产品经理视角

6 评论 23135 浏览 132 收藏 13 分钟

本文作者从AI产品经理的视角,对最近2个月学习使用ChatGPT的经验进行了总结,包括4类GPT产品模式、4个自己做的小项目、4个商业化风险。感兴趣的小伙伴们一起来看一下吧!

以下是从AI产品经理的视角,对最近2个月学习使用ChatGPT的总结,包含4类GPT产品模式、4个我做的小项目、4个商业化风险。

  • 4类GPT产品模式是:Prompt类、Embedding类、Fine-Tune类、LLM类
  • 4个GPT小项目是:内容生成、做个小程序、Embedding类项目、尝试Fine-Tune自己的GPT
  • 4个商业化风险是:GPT迭代速度太快了、数据安全问题、内容审核、OpenAI政策问题

一、4类GPT产品模式

结合这段时间的项目经验,我把目前chatGPT类的产品化模式分为四类,由简单到复杂介绍一下。

1. Prompt类

仅使用chatGPT,这一类是最常见,也是商业化做得最多的。

核心是利用Prompt引导去生成内容,比如日报生成器、小红书标题生成器、英语学习等,上面这个图片是我发现整理比较好的,另外也推荐下【外语易学堂】小程序,可以学习52种外语

2. Embedding类

向量数据库 + 搜索 + chatGPT。强烈推荐大家重点看这个方向!无论是私人助理,还是智能客服,只要是结合自有知识生成回答的项目,都绕不开这个方案产品化空间很大,我自己也是花了最多时间在这个方向。

截图是鼎鼎大名的chatPDF项目,技术方案大致如下:

  • 文本切割: 将自有的文档或知识,切割成一小块一小块的,每一块都向量化(可以用OpenAI的Embedding接口),返回这段文本的 embedding 的向量数据。存储这些数据,并且保存好对应关系。
  • 用户提问: 将用户提的问题也向量化,拿到问题的向量数据。
  • 搜索向量: 计算相似度。用问题的向量,在之前切割的所有向量数据里,计算和问题向量相似度最高的几个文本,可以直接使用余弦定理。
  • 调用 ChatGPT: 将搜索到的知识和用户提问拼在一起,加上一段准备特殊的 prompt(例如:使用以上内容回答以下问题 ),去调用ChatGPT接口,生成回复。
  1. 技术方案看起来简单明了,但在实现过程中也有非常非常多的细节,后面会结合我自己实际操作讲一下注意事项。

3. Fine-Tune类

不断微调,去训练一个专属自己的GPT模型。比如你想做一个销售机器人,和客户聊天的语气尽可能模拟金牌销售的样子,这个机器又能掌握公司所有产品的知识,那你就最好自己Fine-Tune一个自己的专属模型,因为现有的chatGPT不能做到如此的拟合你的语气。

但这里有很大的成本问题,GPT-3的Davinci训练100M数据大概需要5万块人民币(记不太清楚了),部署也要另外收费,成本很高,此外GPT3.5是不支持Fine-Tune的。不过Fine-Tune时候也不一定非要用Davinci,根据和Azure的沟通,他们在某些项目上使用Ada做分类模型的效果也很好。我们也尝试过Fine-Tune,过程感人,后面再说。

4. LLM类

自己从头做一个GPT类的完全属于自己的预训练大模型。这个是大公司专属,参考百度文心一言、王慧文大佬的创业项目。不过其实考虑到Meta已经将LLaMA开源了,小团队做一些非商业化的项目还是可以的(参考斯坦福发布的Alpaca),但是难度依然很大,不建议大家直接冲,另外就是要注意版权问题,因为我也没做过,不详细展开了。

二、4个我做的小项目

1. 内容生成

最简单最容易上手的,当然是直接生产内容啦。为了验证GPT的生成能力,设计了一个小实验:利用GPT生成文案,再用剪映一键成片,从而实现批量生成视频内容。经过2天的熟悉后,很快可以15分钟内稳定输出40s视频。一周时间我制作了40条视频,收获xx点赞,x个粉丝,后面就懒得搞了,囧。

2. 自己做了一个学外语的小程序

疯狂使用GPT尝试不同的应用场景后,我发现教育是非常适合GPT特性的,也特别适合个人开发者。因为开发比较简单,我就自己顺手做了一个学习52种外语的小程序——外语易学堂,能纠正语法错误,可以模拟一个私人教练一样和你展开沟通,特别适合社恐星人,再也不用去英语角了。

3. Embedding类的项目

这个是我们参考chatPDF做的一个尝试,在在实际使用时候,效果也确实很好,怎么提问都能生成合适的回答。步骤简介在上面说过了,下面我结合业务实际使用情况,分享下当前存在的问题,包括且不限于:

  • 富文本处理:这个是最大的问题,目前公开的GPT3.5是不支持富文本识别的,比如客户上传一个图片询问如何处理,这种答案就无法回答,15日公开的GPT4暂时也没开放图片输入的能力,等OpenAI发布新版本后我们会再次修改产品。
  • 多轮对话:这个是第二大的问题,GPT3.5支持的最大token数是4096,实际应用中4轮左右的对话就会触及上限了,继续提问就会出现“遗漏记忆”的情况。这部分我们也和Azure的同学专题沟通过,他们也没有什么特别好的办法,不过好消息是GPT4的token长度增大了不少,但是价格也太贵了,用不起用不起。
  • 其他:知识的时效性、知识权重、内容过滤、Embedding的工程化问题等,细节其实很多,大家想看下次单独起一个文章。

    4. 尝试训练自己的GPT

    因为GPT3没开源(我们也微调不起),就想着是不是可以利用GPT2 + RLHF试着做一个特定小领域的chatGPT,经过近20余人连续1周几千次的标记,结论是xxxx(回头再说吧,都是辛酸泪,单标注平台的设计就很麻烦了)

    三、4个商业化问题

    回头看这2个月以来的产品化路径,心情是跌宕起伏的。最开始激动不已,感觉AGI终于要到来了,但当从商业化、产品化角度去考验GPT时候,又发现一堆的问题,有些沮丧,再到后来OpenAI不断释放最新的接口,商业化似乎又可以期待了,类似情况循环往返,现在终于到了比较平静的状态,总而言之吧,前途是光明的。这里列举一下我碰到的商业化问题。

    1. GPT迭代速度太快了

    这看起来是一个好事,但其实也是一个头疼又幸福的烦恼。经常是你一个商业模式刚开始做,GPT就出了新版本了,以前的东西就要重新思考。比如一开始没有发布GPT-3.5-Turbo模型,做产品时候要用session的方案去模拟请求,后来发布了GPT3.5的API后,产品又要重新开发。

    又比如多模态问题,这个GPT4发布后看起来解决了一部分(要测试一下才知道),但注定又要重新设计产品。快速迭代的模型是好事,但至少现阶段来看,是不利于发展成熟的商业模式的,大家不太敢大规模投入,可以参考jasperAI和Grammarly的情况

    2. 数据安全问题

    经过和微软Azure的反复确认,目前OpenAI是没有在国内部署服务器的,也就是说你所有的请求内容都要出国,送到美国的服务器处理。这个大公司尤其敏感,也就注定了百度文心一言会有市场,如果你在大公司,就要仔细考虑下了。

    3. 内容审核

    如果要做商业化,对输出内容的zz审核及敏感内容过滤是一定要注意的,建议GPT生成的内容再过一遍审核服务,避免别人爆破你的服务,输出一些不安全的内容。

    4. OpenAI政策问题

    3月初开始,OpenAI的API地址就被墙了,需要自己想办法。另外上周开始,OpenAI封禁了一批“非法请求”的账号,从国内/香港等OpenAI不支持地区的访问,将会被封禁账号,具体自己看OpenAI的政策。我当时收到的邮件如下:

    四、有趣产品分享

    下面是几个非常有趣的产品推荐,他山之石可以攻玉,朋友们看一下:

    五、参考资料

    1. 如何体验chatGPT

    最小白的问题其实也很重要,如果你已经会使用GPT了,直接跳过。

    • 国内直接用: 推荐【阿旺机器人】小程序,这个是BaixingAI公众号开发的,使用最简单,国内就能用。
    • OpenAI官方直接点这里,用起来比较麻烦。
    • API访问: 注册账号,拿到API key,使用https://chatx.me、OpenCat等访问,注册方法自己搜索吧。

    2. GPT原理学习

    有点基础的可以直接看以下内容,再次说明,这个是产品经理视角的,算法工程师们请直接看论文:

    3. 几个好的开源项目/论文

    • ChatGPT 中文调教指南:大量的中文调教prompt,很实用。
    • 微软的Visual ChatGPT:连接 ChatGPT 和一系列视觉模型,以实现在 ChatGPT 的聊天过程中发送和接收图像。
    • Meta推出的Toolformer:让LLM自己学会使用工具,在实际业务中,很多场景是需要机器人自己调用外部工具的,期待早日成熟。

本文由 @FakeFelix 原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自 Unsplash,基于CC0协议。

该文观点仅代表作者本人,人人都是产品经理平台

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 您好,Embedding类 小白,求指导

    来自广东 回复
  2. 您好,我搜索了很多相关信息,但是并没有找到关于chatPDF原理的描述,请问您能给出一些来源吗?根据文中的意思,应该是chatPDF做了问题和知识库的embedding,然后使用算法进行匹配,最后仅仅是使用chatGPT生成符合语言逻辑的回答,是这样吗?

    来自美国 回复
    1. 是这样的,GPT只是用来生成更人性化的语言。(之前的回复被站长吞了)

      来自广东 回复
  3. 111111111

    来自上海 回复
  4. 体验了一下外语易学堂,真心觉得烂,加载慢而且还只是文字对话而已,还以为是语音对话

    回复
    1. 啊这,我自己一个人顺手做的小程序,给你免费玩的,和气和气

      来自广东 回复