下一个人机交互的突破口在哪?

2 评论 5217 浏览 27 收藏 10 分钟

思考一个问题:下一个人机交互的突破口在哪?AR?VR?还是智能家居?还是别的?

手机是目前最重要的人机交互终端,那么下一个人机交互的突破口在哪?AR?VR?还是智能家居?

经过深思熟虑后,我认为以上三个都不是,主要理由有以下三点:

1. 技术的可行性

目前AR在图像识别、理解上仍处于一个初级阶段,而且AR需要一块高性能、低功耗的芯片才能更好地运作,我们可以认为目前市面上还没有这样的芯片。VR在感官通道上只用到了视觉、听觉以及极少量的触觉通道(控制器震动)。如果没有触觉的感知,我们在VR中就会缺乏真实感,整个体验会大打折扣。

智能家居的前提是物联网的搭建,目前还处于一个初级阶段,只有万物互联了,设备才能更好地理解场景和用户的需求。同时,AR、VR和智能家居的发展都依赖于5G网络,目前的5G网络处于一个刚起步的阶段。

2. 交互的易用性

目前大部分AR应用都运行在手机上,这导致了用户使用AR应用时需要抬起手对附近的事物进行扫描和追踪,长时间的抬手会引起用户的肌肉酸痛,所以手机并不是运行AR应用的最佳终端。

而VR硬件设备体积庞大,用户不可能随身携带,也不可能长时间穿戴头戴VR设备。况且,现在的VR控制器无法很好地将手部动作映射到虚拟世界里,这两个痛点直接导致VR的体验急剧下降,所以目前VR的人机交互方式还有很漫长的路要走。

3. 人类注意力的集中程度

在人类感知信息的途径里,通过视觉、听觉、触觉、 嗅觉和味觉获取外界信息的比例依次为 83%、11%、3.5%、1.5% 和1%。

为什么手机的多模交互发展得如此之慢?

我认为是用户把注意力都集中在手机屏幕上,他们通过视觉通道获取外界信息的比例已经远远超过83%,而且视觉接收信息的速度远超于其他感官通道。所以在手机上语音交互和触感交互就不怎么需要了。

但是在家里,用户的注意力是极度分散的,所以智能家居很难知道用户几时和你进行交互。如果智能设备经常主动搭讪的话,用户会觉得你这个设备超级烦,甚至觉得自己的隐私被侵犯,所以目前的智能家居处于一个“单恋但不能表白”的状态。

综上所述,AR、VR和智能家居在未来一段时间内都不会成为下一个人机交互的突破口,那么我们该如何寻找下一个突破口呢?

我认为需要先对下一代人机交互进行定义,我认为下一代人机交互应该包含多模交互和AI设计。多模交互是指用户通过感官通道以及肢体语言与机器进行交互,而AI设计更多是指机器通过技术手段收集更多的信息,然后主动发起交互,或者减少人类和机器之间的交互流程。

我们做设计喜欢讲场景,场景包含了人、环境和事项三个因素,就跟三角形一样,具有稳定的几何结构。

下一个人机交互的突破口在哪?

现在的场景化设计主要指移动应用的设计,它更多围绕着事项进行设计,但无法围绕人和环境做更多的分析。因为手机是用户的贴身工具,它需要保护用户的隐私;而且手机的电量是有限的,长时间开启传感器是不允许的,这导致手机无法时刻感知人体和周围环境的信息,而我们知道人体和环境是会发生变化的。

因此,脱离了人和环境动态变化的场景化设计是相对简单的,这更多是一个概率问题。简单点说就是推测什么样的用户会在什么状态以及环境下使用该产品,而用户研究主要用于提升设计的准确率。

我认为AI设计跟场景化设计是类似的,但场景化设计更多是指设计师通过用户研究得出的结论后进行的设计,它具备标准化;而AI设计更多是一种参数化设计,它会根据不同的状态进行实时的自我调整,它具备个性化,它能自主发起交互,也能提高交互的效率。所以我认为AI设计才是真正意义上的场景化设计。

那么哪个领域适合做AI设计呢?我认为汽车的驾驶座是一个不错的选择,主要理由如下:

(1)人坐在驾驶座上主要目的是开车,所以事项非常明确。

(2)驾驶座等于一个智能系统,而人是在智能系统内的,所以为了安全驾驶,驾驶座实时监测用户状态是可行的。在驾驶过程中汽车可以通过摄像头知道司机是谁,还可以通过各种传感器实时监测车主的疲劳和心率状态,并且在计算机视觉的帮助下,汽车可以通过用户的脸部表情实时分析司机的意图并提前作出判断。用户的身体状况和意图已经成为智能驾驶的关键数据。

(3)驾驶座是一个固定的小环境,司机和驾驶座的关系是基本不变的,但汽车又会和周围环境发生交互,这时候我们可以通过各种传感器以及数据分析为司机提供准确的服务。例如:我们可以通过GPS大概知道汽车是在城市公路还是高速公路上,如果在高速公路上我们可以引导司机开启自适应巡航控制;当汽车停下来时,我们可以通过计算机视觉知道汽车是在等红绿灯还是已经到达了停车场;如果在停车场我们可以推荐用户使用自动泊车系统。

基于以上三点,我们可以认为车内驾驶座在绝大多数情况下不会有明显的场景变化,引起变化的原因更多来自于车外环境以及司机身体、情绪发生的突然变化,而这些我们都可以通过AI设计提前避免。

例如我们可以通过监测人体数据实时告诉司机他现在是否适合驾驶;以及通过AI技术减少部分事件的交互流程,降低司机注意力分散的频率;同时汽车的ADAS(Advanced Driver Assistance System,高级驾驶辅助系统)技术可以将事故发生率降低70%,保障司机和乘客的生命安全。

除了AI设计,多模交互在汽车内也能被充分发挥,理由如下:

  1. 当视觉通道以及大部分注意力都被前方道路占用时,听觉和触觉自然而然成为最安全的信息接收通道。
  2. 司机在不看方向盘的情况下,可以通过肌肉记忆和触觉与方向盘上的按键进行交互。
  3. 当司机倚靠在座椅时,人体背部到腿部的触觉都能感应到座椅发出的信号,理论上来说,人体的触觉系统能充分地与汽车智能系统进行交互。
  4. 司机的脸部表情和手势动作都可以被车内摄像头识别并分析相应的意图。
  5. 汽车整理不同传感器得到的数据后,可以通过语音、方向盘、驾驶座甚至氛围灯主动向司机发起交互。

除了AI设计和多模交互,在汽车内做设计还要考虑空间设计以及整合设计,这些设计的目的都是为司机和乘客提供更安全的出行体验。

简单理解的话,你的设计可能会拯救一条生命,这比互联网的设计更有意义,更有使命感。同时,很多HMI(Human Machine Interface,人机交互)的设计理论和知识都与HCI(Human Computer Interface,人机交互)有关,这些知识将为未来的人机交互打下夯实的基础,所以汽车将会是未来人机交互的突破口。

#专栏作家#

薛志荣,微信公众号:薛志荣,人人都是产品经理专栏作家。畅销书《AI改变设计-人工智能时代的设计师生存手册》作者,全栈开发者,专注于交互设计和人工智能设计。

本文原创发布于人人都是产品经理。未经许可,禁止转载

题图来自 Unsplash,基于CC0协议。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 我觉得未来人机交互的突破口在智能眼镜

    回复
  2. 。。

    回复