抢了人类编辑饭碗的AI算法,会完胜吗?
AI夺权,“备胎转正”的戏码,在媒体行业再次上演。AI将在取代人类编辑的战斗中取得最后的胜利吗?本文从AI算法推荐的上位和争议中,来探究下AI算法与人工编辑推荐可能的胜负结果。
5月底,微软宣布将解雇50名从事新闻报道筛选和策划的编辑,取代他们的正是已经与这些人类编辑们共同工作了一段时间的AI编辑。
受此影响,英国新闻协会负责在MSN网站及微软Edge浏览器上维护其新闻主页的约27名编辑,被告知将在6月底被解雇。
尽管微软特别声明,此次裁员和新冠疫情大流行导致的新闻媒体的广告收入下滑,没有直接相关,但通过AI技术来削减新闻团队的人力成本则已经是一个不争的事实了。
对于这些无奈“中枪”的新闻编辑来说,曾经为他们提供各种新闻、筛选建议的AI算法推荐,竟然是这样一个“暗中磨刀”的心机AI。
在报道中,一位即将被辞退的编辑人员强调,完全用AI替代人工是有风险的,因为只有人工编辑才能确保网站不会向用户显示暴力或不适当的内容。这对于AI来说,这确实会是一个问题,因为它更擅长推荐那些符合人性的内容,但却无法识别一些潜在的社会伦理风险。
当然,微软自从1995年推出MSN新闻业务以来已有25年的时间。现在在全球至少有800多名编辑仍然在从事着新闻的筛选和推荐工作。未来微软的新闻团队仍然还会以人工编辑和AI编辑共同协作的方式,只是AI取代人工编辑的趋势可能在明显加速。
站在普通吃瓜群众的角度,我们也正被各种新闻资讯、视频平台的算法推荐所支配,最显著的体会就是我们花费越来越多的时间在那些让我们“欲罢不能”的内容上面。
难道说,AI将在取代人类编辑的战斗中取得最后的胜利吗?我们从AI算法推荐的上位和争议中,来探究下AI算法与人工编辑推荐可能的胜负结果。
信息分发:从“人找信息”进入“信息找人”
“太阳底下无新事”。算法推荐,尽管只是近几年随着移动互联网内容应用的爆发才兴起,但其实质上仍然只是人类进行信息分发的一种新形式,而我们对信息分发的需求自古就有了。
赫拉利在《人类简史》中提出一种智人种之所以战胜其他物种的新“假说”,那就是我们特别擅于“八卦”和“聊天”。“八卦”有助于让整个社群建立情感纽带,团结起来共进退,“聊天”有助于经验的传授,外出的告诉村里人哪里有危险,老猎人教会小猎人如何抓猎物。这就是最天然的信息的社交分发,极大提升了人类之间的协作效率和文明的延续。
此后我们经历了口耳相传的史诗,结绳记事、甲骨篆刻的符号记录,以及再后面的文章典籍。现代文明的兴盛得益于印刷术的不断升级,而到了近两百年左右,新闻报纸、图书出版、广播电视等全新的信息分发媒介诞生,构成了当代社会的信息分发的基本版图。
互联网的出现又突破了信息分发的时空界限,让信息可以实现永远在线、全球同步的传递。不过传统互联网的信息传递仍然延续了物理世界的范式。比如,互联网早期兴起的门户网站和搜索引擎,就是借鉴了图书馆的目录分类和和百科全书的条目索引。
新闻资讯等信息的分发依赖权威化、中心化组织的采集和报道,用户的信息知识的获取依赖主动地浏览和筛查。
随着信息的爆炸式增长和人们信息消费的碎片化趋势增长,“人找信息”的方式遭遇了全新挑战。算法推荐和相应的内容分发的平台的出现,开启了通过人类通过机器算法推荐的方式进行“信息找人”的全新模式。
1995年,尼古拉·尼葛洛庞帝在《数字化生存》当中带有预言般的“我的日报”的想法,现在成为了现实。信息分发正在朝着满足受众用户个性化的需求的方向发展。
几乎就在同时,美国明尼苏达大学的团队开发出了第一个自动化推荐系统GroupLens,成为协同过滤推荐算法的最早提出者。此后,算法推荐系统在亚马逊的电商平台、Netflix的视频流媒体服务当中也很早便投入了使用。
2016年,可以算是新闻算法推荐崛起的元年。这一年,YouTube将深度神经网络应用到内容推荐系统中。这一年,我国新闻资讯信息分发市场上,算法推送的内容第一次超过50%。
也正是这一年,率先应用信息算法推荐的今日头条,终于从四大门户和BAT支持的媒体平台中突围,实现了6000万的日活。
但此后算法推荐本身一直争议不断。在2017年9月,人民网特意用三篇社评的篇幅批评了今日头条这类新闻应用的“算法推荐”。社评里自然首先肯定了算法推荐顺应时代潮流,满足人们个性化、多元化的信息获取需求,但又专门指出了以下的问题:
算法推荐会纵容低劣内容的泛滥。一些推荐算法只会迎合大众的猎奇心理,最后只会反复推送那些低质量内容,最终“劣币驱逐良币”,使得传统媒体的优质、全面的资讯信息无法触达大众用户。
推荐算法中所谓的“个性化”推荐,只会机械式地推荐一些关联性强,但内容单一的信息,甚至会过滤掉那些不熟悉、不认同的信息,造成“信息茧房”。
算法推荐的信息抓取不仅可能涉及到大量的版权问题,甚至还可能走向“创新的反面”。就是智能推荐将走向媚俗化和庸俗化,充斥大量缺乏独立思考、深度观察的肤浅内容,反过来破坏社会的创新发展。
人民网的批评,同样也代表了众多传统媒体和众多精英人士的观点,而且这些现象确实也符合我们大多数人的直观印象。但是在附和之前,我们仍然需要进一步了解下算法推荐的基本方法和发展,搞清楚人们为什么会如此容易被算法“驯服”。算法推荐又该如何突破自己的局限而持续进化?
算法推荐:人性的,太人性
信息分发的本质,就是有效地联接人和信息。而算法推荐的本质就是运用机器算法实现大规模的自动化信息分发,让信息自动找到人。
因此,算法推荐需要解决三个问题:了解信息,了解人,了解人何时何地需要这些信息。不过,归根到底,算法推荐的核心还是了解人,即了解人的使用习惯、兴趣爱好,再通过算法预测用户可能感兴趣的信息和话题进行加权推荐。
新闻信息的主要推荐算法都是来自于一些数学算法。在各大新闻资讯聚合类应用上主要使用以下这些算法:
(1)内容推荐
这是资讯类推荐最常用到的算法。算法系统通过对文本内容进行标签设定,一旦用户对相关内容进行过点击、浏览、点赞、评论、分享等操作,系统就会对用户打上相应的兴趣标签。这样就可以将更多相关标签的文本进行用户标签的匹配。比如,一个看过“德甲”内容的用户,就会得到更多关于“德甲”的信息推送。
内容推荐,如果先期无法获取到用户的兴趣标签特征,就会容易遭遇冷启动问题。因此,内容推荐之外还需要其他推荐方式。
(2)协同过滤推荐
这是推荐系统中应用最早和最为成功的技术之一,采用了我们常识理解的“人以类聚,物以群分”的思路,即找到用户的好友或者与其相似特征的其他用户那里,将他们感兴趣的内容来推荐给该用户。
协同过滤推荐采取了经验共享的方式,避免了内容推荐中存在着内容分析不准确、过度单一等问题,可以为用户发现潜在的兴趣偏好的内容。
(3)热门推荐
热门推荐来自于传统媒体的思维方式,主要是基于当前热点新闻事件和话题进行的内容推荐。区别于传统媒体由新闻编辑进行的人工筛选,新闻聚合平台的自动算法推荐更在于通过数据统计的方式将一段时间内点击量、关注度最高的新闻推送给用户。
此外,还有像一系列基于规则、效用、知识以及各类组合的推荐算法来实现对于用户的个性化推荐。
也就是说,对于那些使用了算法推荐的内容平台,相当于有了一手“秘密武器”来对付处在信息焦虑和信息饥渴的移动互联网用户。即使你是一个新手用户,平台对你了解甚少,它也会很快通过让你定制兴趣标签、尝试不同类型的内容推送,AB测试等方式来实现所谓“冷启动”,找到你的真正爱好。
但是,最根本上来说,像今日头条这样的内容平台存在着一个最基本的“原罪”就是,平台存在的目的是为了攫取尽可能多的用户时间和注意力,而不是为了让用户获得基本的资讯信息之后就转身走人。
新闻联播还有个准时准点的结束,而这些内容平台却可以随时刷新、无限供应,获得流量才是其运营的本质。所以,平台的推荐算法就会尽可能讨好用户,利用用户的人性弱点来进行信息的喂养。
这也正是内容平台经常为人们所诟病的问题:标题党横行、洗稿文章泛滥,色情低俗这类深谙人性弱点的内容层出不穷。一旦因为好奇浏览相关内容,算法就会全力推荐更多相关信息。这
也是所谓“信息茧房”的根本原因,算法纵容了人性,人性又反过来固化了认知,导致一个用户就在自己熟悉的信息圈里打转。这也是很多人对内容平台深恶痛绝,但看起来又欲罢不能的深层原因。
但是需要指出的是,算法推荐本身不必为内容平台的这些问题背锅,道理就如同“人用刀杀人,而罪责在人而不在刀”一样简单。其实,通过算法推荐本身的演化,是可以消解这种用户的信息“偏食”行为和“信息茧房”问题的。
算法推荐的自救:人机协作是正途
无论对于算法推荐的批评有多么严重,但是算法推荐的流行和普及已经是一个不争的事实。算法推荐的真正进步之处就在于改变了信息分发的方式,即从一种中心化的“责编把关”的分发方式变成基于用户个性化的机器智能推荐的“算法把关”的分发方式。
这种分发方式带来的是信息分发效率的极大提升,当然同时也带来了传统权威、专业媒体的分发“算法”的失效和分发内容权重的下降。
但是从目前来看,传统权威媒体已经不再抱有一开始的否定和打压态度,而是以积极的姿态拥抱新媒体平台,参与到这场算法推荐的流量争夺当中,并且正在凭借其官方身份和专业内容,在新媒体时代重新获得用户认可。
对于算法推荐带来的“劣币驱逐良币”的问题,这之前确实是算法推荐的弱项,最早的一些机器学习算法和推荐算法是无法识别文章内容是否涉嫌标题党、假新闻、洗稿、低俗、黄暴等内容。这些低劣内容其实对于平台而言,也是一直在努力清除的隐患。
毕竟平台的发展不能仅靠这些内容来支撑,反而会带来众多的版权、投诉和负面舆情。现在的平台都已经加大对内容安全机制的建设,其中包括高风险内容的识别模型技术的广泛应用以及大规模人工审查核验。去年,就连同样执着于算法推荐的Facebook也因为假新闻泛滥而开始使用人工编辑来对内容进行审查。
对于“信息茧房”而言,正如近日北师大教授喻国明在一篇《算法推荐必然导致“信息茧房”效应吗》的论文中指出的,算法推荐不是“信息茧房”形成的必要条件,算法推荐在“信息茧房”生成后并不起增效作用,甚至还起到了一定的消解作用。
简单来说,“信息茧房”的存在并不是因为算法推荐的出现而出现的,传统社会的单一信息、严格的媒介控制以及个人的信息“偏食”倾向都是造成“信息茧房”的原因。
反而,在算法推荐时代,个体用户还有着来自传统媒体渠道、社交媒体渠道等多重信息来源,更加不容易制造这种“信息茧房”的生成机制。同时,随着算法推荐技术的不断迭代,用户的潜在信息需求也在不断的挖掘和丰富。
最终,在算法推荐和人工编辑推荐的取舍较量中,我们其实更应该推崇一种带有“人文理性”和“技术理性”的可信算法推荐系统。
显然,算法仍然更容易给用户提供一种“沉浸式”的信息阅读体验,而算法和人的互动关系,本质上是“算法背后设计者的价值逻辑或意识形态与用户的互动”。这就要求在算法设计者意识到“信息茧房”可能带来的危害之后,主动寻求一种更加优化的解决方案,来建立可信的算法推荐的系统。
最主要的是在算法推荐之外,坚持人机协同,即重视人工编辑在算法推荐基础之上发挥应用的作用,包括提供新闻专业主义的理念,设置更多的公共议题;提供更具权重的正反观点信息;提供更多随机视角的信息等等。
回到微软新闻部门的裁员问题,之前是模式是AI算法来辅助人类新闻编辑,而未来更可能是人类新闻编辑来辅助AI算法,来优化内容推荐的质量。显然,AI算法推荐不可能完全取代人类编辑的工作。平台也不会放心将自身的信誉和内容的全部选择权都交给AI算法。
一项技术的发明和应用在人类的发展历史上从来只起到一种助燃剂或催化剂的作用。
对于AI的算法推荐来说,它既不会毁掉传统媒体的生存根基,也不会彻底将人类变成鼠目寸光、各自为营的傻瓜。
其实,如果我们认真观察,当你发现身边的老人开始整天盯着手机,关注自己城市发生的各种事情,关心政府出台的各种政策,关心自媒体里各种奇葩狗血的故事,未尝不是对他们生活和精神的一种解放,至少更加开阔了眼界,不用再盯着家里的鸡毛蒜皮。
而对于那些因为AI而事业的媒体人,更加不必悲观叹气。夜深人静的时候,笔耕不辍地开始你的创作,这些内容平台可能会应许你更加光明的前景。
作者:脑极体,微信公众号:脑极体
本文由 @脑极体 原创发布于人人都是产品经理。未经许可,禁止转载
题图来自Unsplash,基于CC0协议
分析和阐述都那么精彩
昏昏沉沉