被下架、音频泄露……是时候正视“Clubhouse们”的安全和监管问题了

0 评论 7824 浏览 8 收藏 11 分钟

编辑导读:前段时间,Clubhouse大火,国内也在研究相关产品。但是,随后Clubhouse被爆出了音频泄露的丑闻,国内的相关产品也不能幸免。Clubhouse快速兴起又很快陨落,背后反映出来的是监管的缺失。本文作者对此发表了自己的看法,与你分享。

春节前,Clubhouse有多火,春节后“国内版Clubhouse”凉的就有多快。

像素级山寨产品“Clubhorse”、“Clubchat+”惊现,平台上还充斥了大量伪造的互联网大佬,在大家还没反应过来的时候,这些平台又消失了无痕了。

2月22日,以6天时间复刻Clubhouse的映客语音社交产品“对话吧”全网下架,官方回应是技术调整。这款被称为国内版“Clubhouse”的产品在下架前广受关注,映客CEO奉佑生曾对外称,他为该产品准备了40亿的资金,在上线伊始,还拉着投资人朱啸虎、周亚辉、杜永波,知群CEO马力等知名人士在“对话吧”讨论。

如果说带着恶搞性质的“Clubhorse们”消失是在意料之中,那么更多被大厂寄予厚望的类Clubhouse产品或被扼杀于上线前,或在短暂上线后又火速下架,则让我们反思,难道国内真的没有做“语音社交”的土壤?几乎在“对话吧”下架的同一时间,大洋彼岸的Clubhouse本尊,爆出了音频泄露的丑闻,你以为自己是在“听后即焚”,事实上有人在另一个网站已经帮你做好了备份。

从国内“Clubhouse们”的下架,到Clubhouse的音频数据泄露,其实暴露了语音社交爆发背后的隐忧:内容监管和数据安全。

从对话吧和Clubhouse踩过的坑我们可以知道,一款语音社交产品来自安全和监管方面的压力主要体现在这四方面:

  1. 核心数据泄露
  2. 功能性安全漏洞
  3. 优质内容流失
  4. 合规运营

大数据时代,你的每一次点击、输入、刷新,都会被记录,变成一个个数据项,储存在服务器上。而像用户的个人信息、密码、手机号等核心数据,无疑是平台和用户都最关注的数据项。

Clubhouse本次音频数据泄露之所以让用户如此不安,在于黑客不仅将平台上的房间音频原封不动的进行搬运,而且还能清楚显示出房间里用户的头像及名字。

核心数据的泄露,一方面可能是由于不法分子攻击、内鬼窃取,导致数据外泄。另一方面,平台方对用户核心数据“获取、分享”的安全边界模糊,正逐渐成为数据泄露的主要原因。

2018年,李彦宏在中国发展高层论坛上发表了“中国人对隐私问题的态度相对来说没那么敏感,他们在很多情况下愿意用隐私换取便利、安全或者效率”这一观点,然后不出意外的被喷了。巧合的是在同一年,Fookbook数据泄露门爆发,对核心数据模棱两可的态度让美国政府对小扎穷追猛打,并最终给Facebook开出了50亿美元的天价罚单。

如果说李彦宏道出了大部分互联网公司对用户隐私数据的态度,那么Facebook的被罚就是在为这种态度买单。与黑客、不法分子的斗智斗勇是网络安全永恒的命题,相比之下,平台自发有意识的重视用户数据保护,审慎的对待用户给予平台的数据访问权限,可能是避免大部分危机发生的有效途径。

数据安全往往是隐形的、用户难以感知的,而在具体的产品使用中,也会存在用户可感知的、直接体验上的安全漏洞。以语聊社交产品为例,影响最大的就是“炸麦”。

炸麦是指不在麦位的用户可以发言,并且房间内的其他用户能听见其发言。不法分子通过外挂或者利用系统漏洞侵入平台,恶意破坏房间交流秩序,严重的还出现过直接在房内威胁勒索主播。

这类功能上的安全危机可以通过技术上的“防炸麦”来避免,音视频云服务商即构科技就为语聊房客户提供了从房间和数据流两个层面的防炸麦方案,目前已成为几乎所有语聊房客户都会采纳的安全举措。

除了语音聊天,这波“声音经济”的爆发还带动了播客、有声书、广播剧的发展。与强互动的语音聊天室相比,播客、有声书、广播剧等以“内容为王”,因而平台更重视制作优质内容,来吸引和留住用户。

然而,国内的播客、有声书平台,一方面需要花大价钱去其签约KOL、购买版权,扩充自己的内容库,另一方面又需要防范盗录、抄袭者对内容的搬运。2月底Clubhouse音频泄露事件的始作俑者就声称,自己这么做的目的是为了让没有邀请码的用户也能“共享”平台的高质量大咖分享内容。

而对优质内容的保护,一直是“内容驱动”行业的难言之隐。无论是贾玲等电影明星在线上社媒呼吁的“不要剧透”电影内容,还是李诞多次谈到线下脱口秀内容被洗、被抄袭的无奈,都暴露出国内文娱行业对优质内容的保护,还有漫长的路要走。

如果说优质内容是语音社交平台需要精心呵护的果实,那么“色情、暴力、谩骂”等内容就是平台方要极力扫除的“垃圾”。过多的垃圾内容会降低平台整体质量,更大的危机在于:内容监管。

内容监管是全世界的难题,Facebook、谷歌、Twtter等互联网巨头一直持续不断地的投入大量时间、研发成本进行AI内容审查技术的迭代,而面对直播、语音等实时流媒体内容,AI审查能力出现明显不足,由人工进行二次复核势在必行,这极大的增加了平台内容审查的成本,据悉,2020年Facebook的人工内容审查团队已突破1万人。

也许有人说,巨头们重视内容审查是由于用户量和日活特别大,影响面太广,而刚上线的小平台内容量本就不足,在内容方面适当放开,才更有利于平台的进一步发展。其实不然,社交平台上的内容遵循“劣币驱逐良币”定律,并且当平台逐渐壮大后,内容只会越来越复杂,监管难度越来越大。同时对内容监管的红线不会因为平台的大小而弹性变化,因此不要寄希望于“平台还小没人注意”而放松了对内容的自我审查。

可喜的是大家对内容监管的态度已经从“避而不谈”到主动拥抱,大部分社交泛娱乐平台都通过系统级的内容鉴定和用户举报两层系统,来实现对平台内容的过滤。

内容鉴定:

通过自研或接入第三方内容鉴定厂商,实现对平台涉黄涉政涉暴等违规内容的鉴定。文字、图片、语音、视频……不同的内容形式,所需的鉴定技术不尽相同。针对实时语音内容,一般通过娇喘识别技术与RNN音转文技术,实现对特殊声音以及违规内容的鉴定;针对视频直播内容,一般采用的是截帧画面决策视频结果的方式。

需要注意的是,语音、直播内容进行内容鉴定的前提,是必须对内容进行存储,因而国内的语音社交平台无法像Clubhouse那样“听后即焚”。

用户举报:

系统级的自动鉴定无法做到100%准确,因此必须引入人工复查。而为了降低用人成本,平台方加入了用户举报功能。由此,人工复查团队只需重点复核系统鉴定和用户举报内容,可极大的降低工作量。

值得一提的是,在内容监管、合规运营的高压下,“用户举报”功能从必须有理有据,具有一定门槛,变成了“一键举报”,用户恶性攻击的工具,比如一年后又再掀波澜的“227”事件。当举报被滥用,内容审查的初衷就偏离了,因此平台方在设计举报功能时,需要充分考虑用户体验,以及举报后的核实成本和时效。

如果说从“玩法、创意、功能”是一个社交泛娱乐平台是否爆发的潜质,那么“数据安全、内容监管”就是其能走多远的基座。安全和监管不会是产品走向沉默的原因,它更像是加在平台上无形的“紧箍咒”,时刻提醒你不要越雷池,而一旦偏离轨道,也必将遭受严惩。

 

本文由 @小极狗 原创发布于人人都是产品经理,未经许可,禁止转载

题图来自 Unsplash,基于 CC0 协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
海报
评论
评论请登录
  1. 目前还没评论,等你发挥!