相比于机器,我们对人类的错误更加宽容吗?

7 评论 1666 浏览 0 收藏 13 分钟

编辑导读:当你正在工作,你的电脑死机崩溃时,尽管很无奈,但也不至于会对一台机器破口大骂。反而在面对人为的错误时,会更加严苛。你是这样的吗?本文作者对此进行了分析,希望对你有帮助。

“Assessing outcomes vs intention.

评估结果与目的”

一、你对频繁死机的电脑感到崩溃吗?

我们可能认为:相比于笨拙的人类,我们对功能失常的应用程序或设计糟糕的算法会更为苛刻。然而这只是一种模糊的猜测。

事实上,用户对机器反而可能更具有同情心,他们似乎并不会对机器的错误感到生气或者苛责。根据César A. Hidalgo①(经济学家,前MIT研究员)的说法:这主要是因为用户审判机器是根据它们的行为结果,而不是行为目的。

无论是面对有偏见的结果还是不公平的决定,用户似乎从来没有真正的在机器身上寻找道德原因,而只是把它们当成功能的载体(只关乎是否完成其工作)。

这产生了四个新视角诠释人机交互的有趣行为科学结论。

二、AI决策和人类判断

无论是辅助人类做决策,又或是雇佣新员工,识别人脸,我们都听说过算法偏见是如何影响人工智能的。算法收集的数据保留了系统性的判断偏见(judgmental biases),这有时候会反映在对某些个体的歧视性决策中。

但是人类对机器制造不公平行为有什么感觉呢?相比于人类的歧视,他们会更反感机器吗?

César Hidalgo试图通过社会实验来回答这些问题。他向参与者展示了几种歧视情况,并要求他们判断决策在人类或者机器负责下的公平性。这些场景里有: HR在候选人相同资质相同的情况下从不选择某种特定出身的候选人,和警察总是关押一些相同族群的无辜群众。

在这些情况下,参与者都认为人类的行为更具有目的性,因此更需要责任感。因为参与者认为人类的行为带有自己的主观意愿,所以他们的行为比机器的错误判断更受到指责。然而,当问起他们应该由谁来取代这些歧视者,他们的答案更倾向于选择更正直的人。

三、人类对自动化工作的模糊认知

当面对自动化工作(work automation)或者工作替代(job replacement)的时候,这种模糊性再次出现。Hidalgo通过类似的实验研究了人们对这种情况的反应。
他向参与者讲述了一些故事:比如公司员工要么被AI机器人取代,要么被效率更高,更有精力的外国年轻员工取代。Hidalgo询问参与者在不同情景和不同行业内对此会有什么感受。

令人惊讶的是,参与者更情愿取代他们工作的是机器人,而不是外国人。虽然他们的偏好因情况而异:更接受司机被自动驾驶卡车取代,而不是老师被教学机器人取代,但他们通常同意他们更喜欢自动化而不是另一位工人。

对这类情况的解释有几种。参与者可能觉得技术的发展是不可避免的,而被外国工人取代会激发他们的归属感。他们可能能更加切身的体会到后者(外国工人)的威胁性,因为这发生的更为频繁。人力替代感觉上也更不公平,因为同等资质的外国工人凭什么更有权利获得工作?

这也解释了为什么和90-00年间欧美企业外迁劳动力(到发展中国家)相比,自动化引发的情绪抵抗似乎没有那么的极端。

四、对机器事故的毫不宽容

自动驾驶汽车比人类驾驶员更负责任吗?

随着自动驾驶离现实越来越近,我们可能好奇:相比于人类驾驶员,用户如何看待自动驾驶汽车需要承担的责任?

为了回答这个问题,Hidalgo和他的团队把参与者置于各种各样的道路事故(包含了人类司机或自动驾驶汽车)之中。这些事故的严重程度可能取决于内在或外在因素,也包含了是伤害司机还是路人的抉择。

这项实验首次提出了自动驾驶汽车担负了巨大的责任。参与者对涉及自动驾驶汽车的事故判断更为消极,认为它们会造成更严重的伤害。其中一个原因是因为他们更容易把自己带入人类驾驶员的视角(而不是机器的视角),他们更能同理人类司机做出的反应(毕竟在自己身上可能也会发生这样的情况),尤其这是由外部因素导致的事故(比如一棵树倒在了路上)。

因此,参与者对造成事故的机器毫不宽容,希望它们更可靠安全。

五、机器的好坏完全取决于结果

我们可以从这些研究中得出什么结论呢?

César Hidalgo | How Humans Judge Machines | Talks at Google②(视频地址见相关阅读)

首先,当整体看待受伤害感和行为目的的关系时,人们认为人类行为比机器行为更带有目的。然而矛盾的是,参与者仍然会更容易原谅人类的行为,因为他们更容易将人为错误视为坏运气的结果,而机器错误则是需要纠正的错误。

当我们在研究行为目的和不公正之间的关系时,我们发现了一个更符合人类判断的事实:对于那些带有当事人强烈主观意图的场景(比如侮辱和歧视),人们显然会对人类行为做出更为负面的评价。人们认为人类需要为自己的邪恶意图负责任,而机器则被默认为没有自己的意图和目的。另一方面,一些本身不带有目的的情况(比如交通事故),机器则承担的责备会更多。因为我们已经假定了机器的程序可以避免任何错误。

最后通过评估不公正的感知和伤害范围之间的关系,我们发现:对涉及人造成的伤害越小,机器就越被视为罪魁祸首;相反,当伤害越大,人类当事人承担的评价就越为负面。

总之,我们看到了两种截然不同的判断模式。

当涉及人类当事人时,观众就会通过当事人的意图来评判他们的行为:他们可以犯错,但如果居心不良,他们就需要对自己的行为负责。

另一方面,机器的评估标准是行为的结果:如果它们无法避免破坏性的错误,无论发生的是什么,它们都会被批评。好的一面是,对于一些通常被定性为非常严重的情况(歧视或恶意羞辱),因为机器行为不带有目的,所以常常不被苛责。

但这也意味着,作为设计师的我们,需要尽量减少数字服务和智能应用程序可能产生的间接伤害和歧视。因为可没有人会同情设计糟糕的算法③。

③译者注:

设计师和算法的关系

由于译者正好从事自动驾驶行业,所以就简单聊聊这个话题。可能有人会认为糟糕算法能是程序员的问题,这和设计师有什么关系?

但事实上在以正向研发为主要流程的企业内,一个需求落地至少要经过产品经理,设计师,研发和测试四个阶段。产品和设计师需要根据客户/用户的诉求去定义和产品的功能和使用方式,然后研发才会在设计的框架内去实现这些功能。自然当设计师遗漏或者忽视一些安全问题时,研发是无法发现的,因为在他们的角度,功能的上下文是不明确的,他们只专注于功能本身的研发。

举个例子,假设我们设计一个工业园区内使用的远程自动驾驶汽车遥控器,它的功能是给车辆派发运货订单,并且可以远程启动车辆。那么如果设计师对于使用场景足够了解,他会发现如果远程启动车辆,突然的启动可能会对周围在装卸货的工人带来安全隐患。

所以需要在这个阶段提供预警或者二次鉴权的操作。而这可能是客户的原始需求中没有提及或者客户觉得麻烦的功能(客户只想点一次!),如果产品和设计没有深入研究,自然研发无法发现这样的问题。这就是我理解的为什么设计师需要对算法负责。

关于设计师的责任这一块,有兴趣的朋友可以看一看前文《负责任的设计:设计师应该承担多少产品责任?》。

我也和一些人交流过这个问题,刚毕业的设计师觉得,我们需要为用户负责!我们要站出来说话!在社会中摸爬滚打了多年的设计师多会认为这非常的理想。确实,从企业角度来讲,道德如果无关乎企业生存,是会被自动忽视的(毕竟罗翔老师也说过,法律只是规定了道德的底线),或者当成一种营销手段。只有一些和道德高度绑定的行业,比如说自动驾驶行业,设计师才会有必要,有能力去考虑一些道德问题。

当然,我也不是说设计师不需要也没有能力去承担责任,而是说希望大家能够多去思考自己的正在做的产品,而不是说盲目的为了kpi或者okr去完成设计任务。可能你的一次轻微的尝试就会给产品带来一些正面的影响。

六、相关阅读

①《人类如何评判机器》How Humans Judge Machines

https://book.douban.com/subject/35557225/

②How Humans Judge Machines | Talks at Google

https://www.youtube.com/watch?v=H10-t5hnnw0

*已获得作者授权,若有翻译问题,欢迎一起交流~

 

原文名称:Are users more forgiving of human mistakes than machine errors?

原文作者:Jean-marc Buchert

原文链接: https://uxdesign.cc/are-users-more-forgiving-of-human-mistakes-than-machine-errors-5ed2a87f5368

本文由 @第三设计观察所 原创发布于人人都是产品经理,未经许可,禁止转载

题图来自 Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 不禁感叹,我们对人类的错误好像从不曾包容,但是对于机器,我们的怒气却能抑制住,这确实是一个值得反思的问题。

    来自江西 回复
    1. 毕竟机器不会对你任何情绪宣泄给出反馈。

      来自浙江 回复
    2. 万一有一天就会了🐶

      来自上海 回复
    3. 那时候估计人就会和机器人对喷了😂

      来自浙江 回复
    4. 和siri基情对线哈哈哈哈哈

      来自上海 回复
    5. 哈哈哈哈没错

      来自浙江 回复
  2. 写的好真实,确实是这样,每次电脑死机的时候也不可能对它破口大骂

    来自江西 回复