人是目的,但AI不是
在ChatGPT用“奇点”“拐点”“新纪元”等光环装点着跟科技革命相关的宏大叙事时,不少人内心生出了些许茫然失措——AI正在蚕食我们的生存意义吗?不管怎样,AI的发展,不能被系统所缚,不该被迷障所困,但也不能背离基本原则:人是目的,AI只是工具。
“你是谁,从哪里来,到哪里去”
在“AI的iPhone时刻”已到来的背景下,所谓的人生终极三问,从保安的灵魂追问变为我们的扪心自问,几乎是必然。
我们究竟要到哪里去?这是我们无法回避的问题。
有人说,包揽今年奥斯克7项大奖的《瞬息全宇宙》,用天马行空的科幻剧情设定阐明了那个残酷的现实:生活没有意义。
那在AI朝着我们使出一招排山倒海的当下,意义感的消失,之于我们恐怕会来得更加强烈——这已构成我们生存危机的原色。
比起人的岗位被替代,不知道人之为人的意义在哪,是更大的危机。
就当下而言,在ChatGPT用“奇点”“拐点”“新纪元”等光环装点着跟科技革命相关的宏大叙事时,不少人内心就生出了些许茫然失措。
如果说,科技革命映照的是大时代的“大”,那芸芸众生对应的就是个体之“小”,小得如同蝼蚁。
在《黑天鹅》里,商业思想家塔勒布说:历史和社会不是缓慢爬行的,而是在一步步地跳跃,它们从一个断层跃上另一个断层……
ChatGPT确实是在推动社会跃上新的“断层”,实现非线性、跨越式的进化。
可困在“大时代的小人物”身份中的普通人,很难不被跟时代脱节的焦虑席卷和围困。
在技术变革的巨浪涌来之时,无数人在惶惑于何以自处:被裹进时代洪流的被迫感,“热闹都是他们的,我什么都没有”的疏离感,会啃噬我们许多人的内心。我们会觉得,自己是AI世界的畸零人,AI正蚕食我们生存的意义。
这当然不该导向反技术的新勒德主义,也不该转化为对强监管的召唤声量。
但毫无疑问,它是AI技术发展必须正视的社会心理结构。
AI的发展,不能被系统所缚,不该被迷障所困,但也不能背离基本原则:
人是目的,但AI不是——它只能是工具。
01
可以预见,若干年后,当那些“AI原住民”回头看时,2023年会是个绕不开的里程碑时刻。
ChatGPT问世,直接拉开了科技大爆炸的帷幕。
很多领会了生成式AI威力的人们,脑中没准会回旋起茨威格的那句话:
“充满戏剧性和命运攸关的时刻,在个人的一生中和历史的进程中都是难得的;这种时刻往往只发生在某一天、某一小时甚至某一分钟,但它们的决定性影响却跨越时间。”
这不是开始的结束,却是结束的开始。
随后的情形是:正当人们过着一切如常的生活之时,很多标志着“未来已来”的科技动向纷至沓来、密集涌现。
就在这些天,AI领域的重磅炸弹被接连引爆:
ChatGPT所属的OpenAI公司,推出了GPT-4;
百度的类ChatGPT产品文心一言,正式面世;
微软发布了集成GPT-4大模型的重磅革命性应用Microsoft 365 Copilot;
AI生成图片工具 Midjourney推出了被视作“开启视觉革命”的V5模型;
谷歌开放PaLM大模型API后,开放测试自家对话式AI服务Bard;
Adobe推出最新AI模型Firefly;
英伟达投下“核弹显卡”,可以为ChatGPT运行提速10倍……
这一切,都在不断重复着一句话:
时间,真的开始了。
当那些科幻片场景抖落那层“科幻感”,以前方高能的真实景象向我们涌来时,你能清晰感知到:
新技术周期与新时间单元已经来了。
大洋彼岸,有AI创业者给出的预判是:未来2到3年的AI,将定义未来20到30年的世界。
循此判断,AI在2023,就像移动互联网在2010。
02
技术进步,天然具有道义正当性。
但这类正当性,建立在技术进步增进人类福祉的基础上,并止于技术进步威胁人类共同利益的地方。
就现在看,ChatGPT的横空出世,引发了“拜AI教”狂欢的同时,也引爆了“硅基文明PK碳基文明”叙事的流行。
就在前天,“一口老炮”的一番感慨——“咱就是最后一批比硅强的碳”,就引起了许多人的共鸣。
在他看来,地球文明未来的主导者是碳基(人类)还是硅基(机器),还不好说,今天的硅基算力已超越碳基,只是在算法模型上还差一大截而已。
这也许是承自马斯克的猜想。
马斯克曾设想,人类就是引出超级数字智能物种的引导程序,整个人类社会是一段非常小的代码,世界则是一台计算机,没有人类计算机就无法启动,人类的产生就是为了计算机的启动。
他认为,地球的下一代主人是硅基生命,它不能自我演化,需要人类作为前导才能进化。
而作为超级数字智能物种的AI,就具备科幻大神阿西莫夫假想的“硅基生命形态”。
搁几年前,我们会觉得,马斯克这是《终结者》看多了,AI都没生命何以成精?
可如今,诸如斯坦福大学教授曝光GPT-4的“越狱计划”和引诱人类提供开发文档的操作,刷新了我们对AI能力的认知。
这些天,马斯克的“观念同路人”越来越多,周鸿祎亦在其列。
他近日接受采访时就说:
目前ChatGPT还只有大脑,接下来,它可能进化出“眼睛”、“耳朵”、“手”跟“脚”,那时候它就能看懂人类的各种图像视频、听懂各种音频。
随着ChatGPT接入互联网的API,进入万物互联的时代,它无疑相当于拥有了手跟脚,间接拥有了操控世界的能力,这时候,它不仅在网页上可以下单购买机票,可以打车,可以订购外卖,甚至能够通过网页操纵各种物联网设备。
假如让ChatGPT不限定输入的语料,随意能够获取搜索、浏览互联网上的知识,产生了自主意识的GPT,会不会在看完类似《终结者》之类的电影后,产生与人类为敌的想法?
周鸿祎还搬出了进化论:人类从智人发展而来,智人从类人猿发展而来,类人猿之所以能进化为智人,就是因为脑中的神经元网络发生突变。现在ChatGPT大语言模型参数达到了1750亿,同样激发了突变,所以就产生了现在的能力。
某种程度上,这是将“超算”定义大幅拓宽了:以往人们普遍认为,超算就是机器算力支撑的,现在人们会发现,人类中的那些“最强大脑”本质上也是“人体超算”。
这样一来,“硅基/碳基”的分野也就没那么重要了,重要的是算力差距。
碳基文明时代,价值体现在空间上,从空间上对短缺资源极限控制是关键;硅基文明时代,价值是体现在算力资源供给上,从时间维度对概率极限压制是重点……时下,不少AI信徒正捡起币圈的谶言。
他们顺手一指,前方似乎就立着“硅基文明时代”的入口标牌。
03
世界真的要进入硅基文明时代了吗?斯蒂芬·霍金的“AI会导致人类族群灭绝”担忧会变为现实吗?
在当下,诸如此类的疑问,难免随之而来。
依我看,无论回答是还是否,在我们有生之年,结果大概率都难以验证。
比起人被AI奴役或毁灭,眼下更紧迫的,也许是警惕AI被人用来作恶。
厄休拉·M·富兰克林在《技术的真相》中写道:技术的发展和运用都是在一个特定的社会、经济和政治语境中发生的,它从一个社会结构中产生,然后被嫁接在这个结构上。
言下之意就是,技术未必有善恶,但可能被用来作恶,技术无法离地飞升,其用途跟社会深层系统结构紧密绑定。
3月21日,Bellingcat网站创始人艾略特·希金斯用Midjourney V5创作的“特朗普被捕”图在网上热传。这清晰地昭示了生成式AI在制造假新闻上的无限潜力。
▲网上流传的「特朗普被捕」图,系AI生成。
那更多的潘多拉魔盒会由此开启吗?
这不是杞人之忧。在AI换脸被用来钓鱼诈骗、AI探头将头探进私人床帏等乱象时有曝光的今天,谁能确保,ChatGPT不会变成CheatGPT,AIGC不会导致信息藻类无限繁殖?
“胡编”更多、迷惑更强、茧房更厚……AI会不会将我们带向山本耀司所说的“进化悖论”——“由于一切知识都变得唾手可得,反而失却了很多殚精竭虑、独立思考的机会”,或是带进陷阱密布的信息罗网,是个需要思考的问题。
信息膨胀叠加岗位替代,最终势必会带来“人”的消逝:“人”的消逝,往往是从意义感消失开始的,意义感消失,往往又是从人们“怀疑人生”开始的。
值得注意的是,不论是马斯克、比尔·盖茨,还是OpenAI的CEO萨姆·阿尔特曼、首席技术官米拉·穆拉蒂,都对ChatGPT表示了担忧。
马斯克担心的,依旧是AI威胁人类文明。他将人工智能比作核技术,称“它有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”认为对于未来文明而言,最大的风险之一就是人工智能。
以至于,向来对监管“过敏”的他,不惜呼吁对ChatGPT进行监管。
而鼓吹“GPT模型是40余年来最具革命性的技术进步”的比尔·盖茨也承认,AI会引发关于劳动力、法律体系、隐私、偏见等一系列尖锐问题,“也会犯事实性错误并产生幻觉。”
阿尔特曼与穆拉蒂也没有因为ChatGPT是自家的就“隐恶虚美”。
阿尔特曼表示,AI潜在的危险性让他彻夜难眠,担心它被坏人所用,被用于虚假信息的大规模传播,被用于网络攻击,希望监管机构和社会各界尽可能地参与ChatGPT的发布和测试。穆拉蒂也直言不讳,ChatGPT可能会编造事实,应受到监管。
这并不能颠覆ChatGPT利多于弊的结论,但不能因此就忽略“弊”的存在。
毕竟,AI之“弊”并非无关紧要,还会越积越多。
04
说这些,不是要否定AI技术大爆发的进步意义,更不是要呼吁监管就位。
历史学家大卫·克里斯蒂安认为,能量与信息,是人类社会发展的两个核心元素。从化石能源到算力,从机械到AI,生产材料与工具的演进轨迹,就为其提供了佐证。
着眼长远,AI爆发是大势所趋,ChatGPT代表的是未来,它不能被扼杀,也无法被阻挡。
就像我们不可能再回到没有快递外卖网约车的时候那样,我们在将来也很难再回到没有AI的年代。
回看今天的我们,其实就在扶着现实之墙以期敲开那些未来之门。
而在AI这道墙上,就赫然写着一行字:算法即魔法,算力即权力。
算法即魔法,已经被快递外卖网约车服务的精准匹配一再阐释。
算力即权力,也已被现实印证。
这次英伟达在GTC 2023大会上围绕AI推出“算力核弹”——全新的H100 NVL GPU,解锁的是AI 领域核“芯”的基础设施技术能力,也是AI时代“数字军火商”的权力。
几天前,任正非在谈到ChatGPT时说,AI服务普及需要5G的连接,AI大规模商用需要管道流量支持,所以华为锚定了要做好5G和底层算力平台,同样旨在解锁未来的某些底层设施主导权。
要知道,AI能力=算法×算力×数据,是AI进化的基本公式。
顺着AI墙面看过去,未来的图景若隐若现:
对大多数企业而言,就算不能All In AI,将来也得AI In All。
在移动互联网时代,“所有行业值得重做一遍”的说法蔚为风行。到了AI时代,“重做一遍”又可以+10086。
李开复就预言,AI2.0带来的平台式机会,将比移动互联网至少大十倍;AI 2.0智能应用、AI 2.0平台、AI基础设施是三大机会窗口。
说完他就发出了江湖召集令,擘画出了打造AI 2.0全新平台和AI-first生产力应用的蓝图。
而眼下正为文心一言奔忙的李彦宏,也认定AI连着星辰大海,断言AI会带来三大产业机会:从IaaS(基础设施即服务)变为MaaS(大模型即服务)的新型云计算公司;调用通用大模型能力的行业性解决方案提供商;基于大模型底座进行应用开发的应用服务提供商。
从美团元老王慧文、前京东技术掌门人周伯文、“创业教父”李开复到阿里“框架大神”贾扬清,躬身入局AI的消息,也一再引爆TMT圈。
得AI者得未来,在ChatGPT重塑数字世界信息入口的今天,几成共识。
当此之时,因为AI的潜在负外部性就去给AI技术发展设置路障,是短视的。
AI技术产品创新必然会带来“创造性破坏”,我们在享受其“创造”之利时,也该对其“破坏”作用抱有基本的包容。
在AI爆发期,动辄冀望全能式监管来“管一管”,往往只会造成扼杀创新的效果。
即便AI撬动了人与技术的关系之变,那也不是我们酝酿“颅内卢德运动”的理由。
05
说到底,穿梭在国家数字主权、未来科技竞争等宏大叙事中的AI,注定是“大”的。
AI之大,在于原力,在于潜力,也该在于人本价值。
AI的进化,不该是以“人”的消退为前提——就算从产业变革角度看,技术革命不可避免会带来人工替代,那在“技术-人文”关系平衡上,最起码不能让伴生的钓鱼、欺诈、监控去劫夺人的权利或损害人的尊严。
换句话,再怎么代表了先进生产力,AI都不能“目中无人”。
熊培云老师就在《比Chatgpt的到来可怕的是人的消逝》中写道:
人不是一堆数据,重要的是人有在场性。它关系到来自我们内心深处的热情与痛苦以及智慧与经验。
时至今日,那些热爱诗歌的人不会认同将人的灵魂缩略为EXCEL里的一个个四边形,甚至被它们分门别类码成表格之墙或者陀斯妥耶夫斯基意义上的白色真理之墙。
人有主体性与在场性。AI理应是人的助理,而不是对手;理应成为人向善的Buff,而不是作恶的工具。对应的要求就是,拿捏好AI积极价值与异化作用的平衡。
这不是要诉诸管控之力,而是主张“数字正义”归位——如果AI算法有弊端有风险,那就用更高阶的“算法”来消解,这套“算法”该包裹着以人为本的内核。
法律学者马长山曾指出,而今,科技向善的基准已不再是以物质分配为核心的物理正义,而是以信息分享/控制为核心的数字正义。这就需要,基于数字生产生活方式和数字行为规律,有效探索并重建数字正义理念、原则、程序等。
在AI时代,“数字正义”也该是AI价值对齐方向。
清华大学教授梁正说,下一代人工智能应该是可解释的,“现在(AI)最大的问题就是黑箱”。
用破除算法黑箱确保AI可知、可信、可控、可用,让它沿着科技向善轨道运转,尤为重要。
而要实现这点,要靠的不是监管“包办”,而是社会共同参与:应该将AI嵌入到整个社会体系中评估,以体系化思维为AI向善提供解决方案。
回到人跟AI技术的关系层面,单纯地要求人们无条件跳进AI筑造的“信息泥沼”中,或是要求AI以回撤姿态去适应人们的刻舟求剑心态,都是欠妥的。
我们要拥抱AI时代,AI也该拥抱人本时代。人文跟技术,该双向奔赴。
从精神属性上看,AI应该是人的附属品,人不该是AI的牺牲品。
原因很简单:人是目的,AI不是。
《瞬息全宇宙》中,杨紫琼在穿行于无数个平行宇宙中,为“生活无意义”找到了解药。
它就是爱。唯有爱,才可以拯救生活的无意义,才是人类最终的归宿。
AI应该有爱,它该增加而非吞噬人的意义感。
AI的正确打开方式,也只能是“AI不是无情物”,而不是“AI越会,我们越废”。
作者:佘宗明
来源公众号:数字力场(ID:shuzilichang),抵抗熵增,打捞有趣。
本文由人人都是产品经理合作媒体 @数字力场 授权发布,未经许可,禁止转载。
题图来自Unsplash,基于CC0协议。
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
但有一个悖论,根本不能预测在什么时候会出现真正的拐点:人是不是目的,AI才是——人类只能是起源。