哪些饭碗 AI 不好抢?

0 评论 2896 浏览 10 收藏 20 分钟

之前ChatGPT发布后,就曾有传言称“AI即将取代人类”;而随着Sora、Suno的发布,相信这种说法的人越来越多——毕竟文生文还只是影响到作者、自媒体这些的工作,文生视频和文生音乐,连创意类的作曲、剪辑都能做,波及的范围越来越广。这种情况下,叠加经济增长放缓,担心自己饭碗的人也越来越多。

但其实没必要担心,当前的AI大模型,哪怕继续优化升级到极致,仍然无法取代人类专家——因为这对AI而言超出了能力范畴——它没有情感,没有个体意识,也就无法“涌现”最关键的人类「价值判断」的能力。

周末跟一位体制内的老友聚,无意中聊到AI,我看友人的表情,疑似是用《三体》中的“冬眠舱”沉睡了十年。

我再次体验到“信息茧房”的威力。

困于茧房的不止友人,还有我。

我太想当然了,以为所有人对社会科技趋势,“至少有个大概的共识”吧。

事实上,这个“共识”远低于我的预期。

2022年底,OpenAI发布ChatGPT,因其在文本领域的“里程碑式突破”,引爆了一波人工智能浪潮,持续至今仍不见衰。

时隔一年多,它究竟发展到什么程度,能做些什么,对我们有哪些深远影响?

对此完全没概念的人竟比预想的多。

这篇专题,简单聊下。

一、与早先的“AI”有什么实质区别?

早先的AI,可以归为两类:

一类是专注特定领域的“单一智能”。

比如,“深蓝”(Deep Blue),1997年国际象棋比塞中击败了冠军。

但这种只能做特定规则范围内的智能,只能称为“某某自优化程序”,跟当下火热的AI不在一个赛道。

另一类是直接与人类语言或行为互动的“AI”,背后其实是搜索引擎或推荐算法。

AI大模型跟这类“传统AI”的实质区别是什么?

用了一段时间,我感触最深的是,当下的AI,它真的是围绕“你的需求”去互动、去组织内容,而之前的只是围绕“关键字”(或行为)去搜罗内容。

比如,我曾在哪看过“大海中与龙门有关”的禅机,想找它的出处,但我不知道这部作品名,甚至连它是不是一本书也不确定。

于是用搜索引擎,不出所料,搜到的要么是“鲤鱼跃龙门”,要么是儿童故事或音乐,总之跟我的目标风牛马不相及。

后来换成AI大模型,同样的描述,它告诉我:出自禅宗名著《碧岩录》第六十回。

嗯,言简意赅,一步到位。

这就是当下AI的突破性之处:

它能“理解”人类语言,于是能根据“你话的意图”而不是“你话里的关键词”去搜罗内容。

这更符合现实情境——我最需要搜索的时候,总是出现在“我连搜索目标都还模糊不清”的时候。

当我都知道目标的“关键字”时,我还要你搜索引擎干嘛?欣赏竞价广告么?

同样的问题也出现在各类“智能推荐”上,我高频浏览某商品,它就老出现在“你或许喜欢”列表上。

这契合现实嘛?

现实中,一个人反复高频搜某一类商品又叉掉,有没有可能他其实不需要这个,但需要的又找不到?

诸如此类,这些统统可以归为“模糊需求”——是现实中更高频出现,也更“刚需”的需求。

但早先的AI对此无能为力。

这是AI大模型“革命式突破”的地方:

理解人类语言,就能洞察你的意图,所以我说它能围绕你的需求去搜索或组织内容,这是它与早先的AI(围绕关键字)最大的区别。

二、理解人类语言,意味着能输出实用交付物

可别小看「理解人类语言」。

没错,站在人类立场,幼儿园小朋友就能做到。

但机器的优势是背后近乎无穷的算法算力,「理解人类」可说是它额头上的那个「指数」。

打个类比,AI的综合能力是以「算力」为底数,以「理解人类」为指数。

不理解人类前,这个指数是个1,它只能做些最呆板最机械的活。理解之后,这个指数可以是10,可以是100,可以是N。

一个亿的一次方不吓人,但一个亿的N次方,光是数字就能把人淹死。

建立在「理解人类语言」的基础上,它就能代入人类视角去「学习更复杂的概念」

起初你嘲笑它的认知,就像是刚发明出来的火车,比马跑得还慢,但调适训练几次,它就能以千万匹马都无法拉动的力量奔跑,甚至能飞上天,后劲无穷。

这就是硅基智能的优势,它可以无止境的「吃」,无止境的「内化」,而且不需要休息!

这正是当前AI的“初步成果”,它已经能输出人类「所需要」的各类文本,包括且不限于:

创作公文、小说、诗歌等纯文字内容;

陪你聊天解闷,甚至谈恋爱;

输出绘画、乐曲、带剧情的视频;

甚至网站代码、表格、简历、PPT等直接作为职场交付物的内容了。

……

网络上的例子众多,这里不赘述。

当然,我们更关心的不是它能做这些——我画个火柴人那也是艺术呀。

我们关心的,是它到底能做到几成色?

有多可靠?

肉眼可见的未来会顶替职业工作者么?

三、AI达到平替职场人的水平了么?

一段时间评测下来,我体验最深的是,当下的AI,最大的优点跟缺点都是,“AI痕迹”明显。

我说的“AI痕迹”不是贬义,比如,让它出一些建议或分析报告,无论任何领域,它几乎能交出一份「全面」、「均衡」、「精要」的答卷。

但硬伤也恰恰在于此。

我们解决现实业务问题时,最忌讳的恰恰是「均衡」与「全面」

就像高考满分作文,它也就只能在考卷里满分,按现实职场要求,高考优秀作文实在是过于“学生气”。

现实工作,无论哪类业务,最耗脑也最体现能力的实质都是“资源配置”的问题——一个项目,你手头资源(精力)有哪些,按什么步骤、什么组合、多少比例分配。

比如,让你设计一份让人念念不忘的宣传材料。有经验的人都知道,打动人心的关键,一定是要突出某些,压抑某些——即一定要“不均衡”展示。

“不均衡”虽然未必就合理,但「全面」、「均衡」却一定是错的。

所以,在工作中,核心竞争力的体现是在“配置”上,这是专家最需要“动脑子”的地方,也是他们“值钱”所在——不是去指导什么该做,而是把一切不该做的事剔除掉。

而AI的优势在哪里?

在于专家们将资源配置完之后,根据他们的要求,填充细节作为算法与算力——实际上,这些工作原本恰恰是绝大多数初级XX师,XX助理干的活——是不是想到AI威胁最大的群体是谁了?

当然,有人会说,只要数据训练的量级足够,专家资源配置的活,AI也能胜任吧?

不是这样的。

我得出上述结论,并非建立在AI当前的能力之上,我是把它们未来的成长性也考虑在内

我关注的是它们底层的“原生缺失”,这些“缺失”必将导致它们能力的缺陷。

AI缺失的是什么?

无法拥有人类情感,没有个体意识,没有欲望、动机

咦,这是不是跟前面说的「理解人类语言」矛盾?

并非如此。

理解可以通过纯粹的逻辑实现,AI会这么告诉你:

我没有情感,但我填喂过“人类所有的情感状况”后,我就能知道,一个人在某种情境下,他是会喜怒哀乐还是会无感麻木。

这是「理解」。

但理解与体验是不同维度的事。

你想象下,剥夺一个人的一切感官体验(包括恐惧),你觉得他还会有任何欲望、利益、动机么?

他就变成了它了——一个仅剩理性思维的机器。

没有情感体验,AI就无法独立做价值判断——它的一切目标都得“预先导入”——但真实世界中,没有人能预判最优解

别说一个社会或特定人群,哪怕是一个人,就你最懂的「自己」,你能确定明天晚餐你就一定想吃现在最想吃的料理么?

很多人一定还记得那个事例吧:

某系统出问题了,需要技术人员进大厦修理,但这个系统就是负责分配入门资格的,技术人员进不去,而门卫因为技术人员没有入门资格,就是拦住不让进。

这位门卫,更像AI——无法根据当前情境做正常人都会做的“常识判断”

当然,AI比门卫谦逊的多,它很明确知道自己「不能做什么」。

在这类问题上,AI本I大方承认:

它反复强调“自己是基于历史数据和模式”,对于未知或实质创新——恕我无能

AI无法做价值判断,就无法在当前情境中权衡轻重缓急,我刚才提到专家最核心的事情了吧——配置资源。

没错,AI能通过训练获得历史最优配置,但历史配置能否匹配当前情境或未知领域——这需要价值判断,需要人

* 例子太多,比如,只要牵涉到伦理冲突或长远利益(必存在伦理冲突),AI就没辙了。

因此,只有人类专家才能做出这个判断——AI心里没底。

除了情感与意识问题,还有哪些是AI特别不擅长的?

跨领域联想

只要是表面不相关的两个领域,它就很难充分挖掘两个领域间的内在关联,从而获得「智慧洞察」。

比如,上周我在思考校园霸凌的问题。

分析多了,我发现,只将眼光放在教育体系内,得不到最优解。

我就这类问题跟AI探讨,它能得出的也就那些全面、均衡的建议,再无突破。

实际上,我很快直觉到——抛开校园与教育的范畴,将眼光看向职场,看向成年人社会,从那些表象不是霸凌的成人互动中,找到突破问题的关键。

但无论我怎么暗示AI,它始终不会这么思考。

「少加点班」之所以能始终得到老读者错爱,显然不是因为我的文笔,最大的原因恰恰是专题中偶尔捕抓到的「深刻洞察」,而这些洞察绝大多数正是来自于「跨领域分析」,这是我的个人核心竞争力。

比如,从“控制论”中寻求“意志力改进”的措施;

从水流的特性中获得“碎片时间整体应用”的灵感;

或者从“慢性病的逻辑”中挖掘出“学习与持久性记忆”;

……

诸如此类与实质创新有关的飞跃,AI仍只能“随机关联”——但因为价值判断缺失,要AI在众多“随机成果”实现最优解的经济效益实在太低。

与「跨领域联想」类似的,还有一个重要的能力是「跳出领域边界」。

比如,你要研究某国历史的复杂问题,那你就必须跳出该国历史去寻求解答。

诚如歌德所说,不懂外语的人,就连自己的母语也只是懂得一知半解(He who knows no foreign languages knows nothing of his own),也隐含类似意思。

无论是「跨领域联想」还是「跳出领域框架」,都是解决复杂问题——或者说的直白点,有极大潜在经济价值的问题——最依赖的能力。

这类能力当前AI很难获得的,因为其中的鸿沟不是“算法或算力”可以弥补,它需要「价值判断」,需要动机、利益、情感、个体意识的参与——而这正是AI与Human的最实质区别。

以上说的是「硬实力」层面的东西。

如果再考虑到「软文化」,诚如职场老油子所评价:

工作很多时候是服务老板/投资人/领导的情绪,是察言观色与人情世故,这方面,AI就更头疼了。

所以,当前的AI大模型,哪怕继续优化升级到极致,仍然无法取代人类专家——因为这对AI而言超出了能力范畴——它没有情感,没有个体意识,也就无法“涌现”最关键的人类「价值判断」的能力。

某种角度看,AI更像一个彻底抛弃了低级趣味、连生命意义都不在乎的「纯粹圣人」,它固然可以告诉你一切事实性知识,但却无法指导一个有血有肉的人如何生活。

四、那AI到底会不会跟人抢饭碗?

首先是体力活的朋友可以直接无视了。

用AI实现精细的手工活,经济效益非常低,在肉眼可见的未来,无需担心。

至于“脑力活”,确实是当前AI的主战场。

从AI的原生缺陷反推,我们不难得出,凡是不涉及情感、不涉及价值判断的一切工作,像是“遵从指令”、“按部就班”、“逻辑推理”、“分析归纳”、“事实性知识”等等那些容易用“效率”去度量的工作,都是AI潜在的顶替项

按人类社会的习惯,经济效益总是主导目标。换句话说,薪酬越高、可自动化程度越高,那么就越可能被率先“优化”

至此,可以总结如下:

不考虑社会因素,AI将导致基础岗的坑位急剧减少,同时,将进一步提升高水平人才的产出质量

那这是不是一定会导致高失业率?

宏观来看,短期内阵痛在所难免,但长期来看,大量冗余的人员必将衍生全新的需求与市场。

这将产生大量全新的工种。

只是无论将来的新业务是什么,把AI耍的像今天“电脑打字”般炉火纯青,肯定是未来职业的趋势了。

五、我们需要怎样适应后AI年代?

前阵子,我经常看到各类“教人如何使用AI 的培训”,这些人喜欢强调一项“能力”——如何向AI提问。

这让我想到了上世纪的原始部落对于飞机的看法:

这些现存的“原始人”总是先听到轰隆隆的声音,然后看到飞机,于是他们得出结论:模仿轰轰发声,迟早就能召唤飞机。

没错,让AI输出内容,得确是通过发问驱动,但发问仅仅是最表象的东西,提出高质量问题的关键从来就不在于“发问技巧”,而在于“你对该业务领域的认知深度”

这类培训大受欢迎,让人不禁替这些白领们担心,AI取代他们可能还真用不了多久。

当然,这不能怪大众。

由于历史原因,我们的教育模式在当初定位的时候,就是想着培养“拥有丰富知识”且能创造性解决按部就班听话的“高级人才”。

谁想这模式下培养的能力,恰巧碰瓷了AI最擅长的领域。

显然,AI进一步放开普及之后,彻底的教育变革也是势在必行了。

专栏作家

李少加,公众号:少加点班,人人都是产品经理专栏作家。《进化式运营》作者,“基于用户视角的用户养成运营框架”提出者,互联网商业独立研究者、运营管理专家。

本文原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自 Pixabay,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!