人工不智能,AI产品经理要帮助用户认清这一现实

0 评论 3354 浏览 8 收藏 12 分钟

编辑导语:现在,人工智能现在已成为技术发展的主流,并且正在影响着大家的生活,仿佛一夜之间,所有东西都开始和人工智能沾起了边。然而,人工智能真的是完全智能的吗?事实并非如此,人工智能技术的主导者是人,有人参与,就必然有主观意识的存在。假如我们不解决人的问题,那么技术终究不能解决真正的社会问题。

我为什么要写?

在人工智能教育领域已经两年多了,随着人工智能项目落地逐渐增多,工作内容也逐渐加大。

就比如除了做产品,也要负责人工智能教室的落地培训。比较大的培训就是万州区的项目,两次集中培训包含了50多所中小学,近300名教师。

在给老师们讲教育产品的之前,我一般都会讲一下人工智能的价值观念。就像我们从小学习“八荣八耻”“弟子规”一样,不只要学习知识,更要学习价值概念,树立一种正确的人生观和价值观。

做AI产品经理也一样,在和客户沟通之前,让他树立正确的价值观念,形成“批判性”的思维,帮助他认清“人工不智能”这一现实,不要再天马行空的要解决方案了。

接下来,我们就用批判性的思维,来讲一下人工智能的价值观念。

我的观点是什么?

相信你已经听过太多有关人工智能的话题,比如:人工智能将会改变世界,人工智能将会让大多数人失业等等。其实,数据和算法掌控一切的未来,离我们还非常的遥远,我们都高估了人工智能。

我向大家推荐一本书《人工不智能(2018-4出版)》,这本书的作者是布鲁萨德,哈佛大学人工智能专家。

他之所以写这本书是,并不只是带大家认清人工智能发展的现状,来告诉大家人工智能并没有想象中那么好,而是因为人们过分依赖计算机算法,反而带来了一系列社会问题,所以他做的是带大家树立正确的人工智能价值观。

我是怎么样论证我的观点的?

第一部分:高估人工智能会产生什么样的社会问题?

第二部分:自动驾驶技术到底有多难?

第三部分:现阶段人工智能的社会化应用的根本矛盾是什么?

一、高估人工智能会产生什么样的社会问题

现在有一种情绪叫做“技术沙文主义”,认为一切社会问题都可以用技术解决,特别是可以用计算机技术解决。而作者认为,包括人工智能在内的所谓的新技术,其实并没有解决真正的社会问题。

他在书中举了一个例子,美国教材分发的问题。

教材分发会出现什么问题呢,因为美国和中国的教育体制是不一样的。中国的教材是由国家统一出版的,价格还便宜。而美国的教材是由私人公司出版的,价格很高。比如一本中学生教材就要114.75美元。

政府的教育经费往往有限,有时候分到学生头上的教材费可能只有30多美元,这样一来就存在了很大的缺口。

而且自己买教材的办法也不可行,因为没有这个渠道,盗版的都没有。

因为中小学教材都是由三大公司出版的,直接供货到学校,同时考题也是这几家公司出。换句话说就是你用这家公司的课本,然后用这些公司的考题,一条龙服务,一年几十亿美金的生意。

当然有些看似能用技术解决的问题,也解决不了。比如有时候费用到位了,书也买了,但是却被放置在学校的仓库里,没有发到学生手上。

他就就找到了区教委,区教委说他们有个中央数据库,有各个学校订购教材的数据。

把这个数据拿过来,结果一看,很多学校订购的教材和学生人数都对不上。

因为经费有限,人手不够,有些校长需要亲自管理教材,有的校长不愿意使用数据库系统,自己就弄了个表,很难和别人分享,最后就有一大堆问题。

数据技术再先进,最初的数据录入也是由人来完成的。如果校长根本不愿意录入数据,老师根本不清楚自己班需要多少教材,再先进的技术又有什么用呢?

教育本质是因人而异的、混乱的、动态的系统,而公共教育系统,是一个统一的、标准的、最好是不变的系统。

盖茨曾经做过标准化大纲和教材,但是不同区的学生水平差异很大,用一个标准不合理,学校没有自由度。所以就在发教材这件事上,计算机人工智能就不能起到很好的作用。

因为计算机和人工智能擅长解决的是工程问题,工程问题要求定义良好,而复杂的社会问题恰恰是不能定义良好的。

二、自动驾驶技术到底有多难

现阶段的人工智能,都有一个根本的弱点,就是高度的依赖数据,都是对过去经验的总结,他们没有办法预测“没见过”的事情。

它适合最常见的,最简单的,不变的应用场景。一旦遭遇变化的场景,就面临各种问题,比如“自动驾驶汽车”。

零级,代表完全没有自动化,就是人开车。

  1. 一级,是指计算机在某些时候、某种程度上可以给提供一些辅助性的帮助。像自动判车、保持车道、停靠辅助系等等。
  2. 二级,是有的时候汽车以自己开,要求人一直盯着,特斯拉已经做到了这个级别。
  3. 三级,是说人可以不盯着就让车自己开,但是如果车向你发信号,你要随时接管驾驶。
  4. 四级,是指在某些环境和条件下,实现自动驾驶,人去睡觉都没问题。
  5. 五级,是完全的自动驾驶,不论什么天气和路况人都不用管车。

至此,任何一家都没超过二级,有些专家认为五级自动驾驶永远都达不到,因为人工智能处理不了意外。

比如说你看见一个残疾人,坐着电动轮椅,在路中间追逐一只鸭子,鸭子转圈跑,她也绕着转圈跑。

这种情况就能一下子准确预测这些人的行动路线吗?自动驾驶都是靠激光打到各种东西再反射回来,可是如果在下雪或者下雨,激光机就可能打到雪花或者雨滴上反射,对周围物体有较大的误判。

另外自动驾驶还涉及到了一个道德的问题,假如你刹车失灵,前边有一群小学生,还有一棵树,你是选择撞一群小学生还是选择撞一棵树?

我们说过人工智能是依赖于数据积累的。Google一直都在积累数据,算法都是现成的,真正值钱的是数据,谁掌握了数据,谁的自动驾驶技术才有市场。

人工智能也有很大的局限:第一,不安全;第二,不道德;第三,他不能促进商业平等,它只会让强大的公司变得更强大。

三、现阶段人工智能的社会化应用的根本矛盾是什么

美国对罪犯开发了一个算法,叫做COMPAS,专门判断一个犯人再次犯罪的可能性大小。有一个评分标准,从1到10,分数越高,代表将来犯罪几率越高。

打分的原理也是采用大数据,根据以往的经验,考察若干个关键指标。算法给了1分的人,犯罪几率只有22%,打10分的人,犯罪率高达81%。

但是有人对这家公司提出了种族歧视的指控,我们都知道预测的都是概率,哪怕是打了5分以上的分数,犯人也不一定会再次犯罪,如果一个犯人明明没有再犯罪却打了高分,那么就等于被冤枉了。

而同样后来没再犯罪的人,黑人被打高分的可能性是42%,而白人只有22%,就是说算法还是歧视了黑人。

其实这个矛盾在生活中普遍存在,比如上海,基本不存在重男轻女的情况的大城市里,女生的考试成绩比普通男生好。

那如果这个规律,为了提高学校的总体成绩,在高一入学的时候尽量多录取女生,这不就是对男生的歧视吗?

这就是一切基于经验的决策的本质缺陷。人工智能再厉害,只要是基于经验的,只要是预测达不到100%准确率,就一定有人被冤枉。

丑小鸭定理说,一切分类都是主观的,有分类就会有歧视,此事古难全。人工智能为我们的决策提供了很大的方便,但社会还是这个社会,数学还是同样的数学,人工智能改变不了问题的本质。

四、总结

当然,我们谈起技术进步,通常听到的都是好消息。比如偏远地区可以用无人机送货,解决送货难的问题。农村可以让农民看电视学习技术,解决教育资源有限的问题等等。

技术给人们带来一部分方便,但想要全面解决一个社会问题,那就有些难度了。就算是看似成功的实践,背后也不知道有多少意想不到的情况。

所以,人工智能技术的出现,确实经常让事情更有效率,但写程序的是人,录入数据的是人,使用系统的是人,只要有人参与,就有主观意识的存在。

所以不解决人的问题,技术终究不能解决真正的社会问题。

 

本文由 @拾壹点伴 原创发布于人人都是产品经理。未经许可,禁止转载

题图来自Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!