@阿里巴巴UED:从电视机到互联网,从台式机到手机,再到今天的穿戴式设备,新技术发展的同时,设计发生了哪些改变?设计师如何面对这种变化?来看蚂蚁金服UED总监梁山鹰在UCAN 上的演讲。
从“信息高度公路”到 “AR/VR”
一个山谷里如果下雨,一粒水滴究竟会滴向哪里,其实是不可预测的。但是它的大致方向是不可避免的。——凯文·凯利
20多年前比尔盖茨写过这么一本书——《未来之路》。在当时的中国,“信息高速公路”这个带有新科技概念的名词火速传播开来,其实和现在的情况有点类似,现在每个人都在说AR、VR、AI人工智能,所有人都在谈,可并不了解它究竟代表什么意义。
20多年过去了,我们现在回头看所谓的信息高速公路是什么,很好理解。它运用了互联网这个新技术,以前所未有的广度、深度和便捷性,全世界的人和信息全都串联在了一起。
互联网承载的主体是信息。如果我们回过头来看信息的载体:硬件所发生的一些变化,会看到一些趋势和特性,那么我在这里和大家一起来探讨一下。
一. 所谓主动信息
人类获取信息的方式一直都在以主动形态替代被动形态,以更方便快捷而准确的方式获取个人所期望的信息。什么意思呢?20多年以前,我们信息的载体:媒体,主要是报纸、杂志、广播、电视。互联网作为一个新的媒介出现的时候,它自然而然就把前面一种形态变成了被动形态,而互联网设备是一种主动形态。
大家回想一下二三十年以前,我们接受信息的方式是什么?接受新闻的方式是什么?——7点钟的时候全家守坐在电视机前,电视里的罗京邢志斌正襟危坐,传达来自中央的指示,全国、全世界都发生了什么。互联网时代,当你安上电脑连上网之后,主动查询来自全世界各地的信息。这就把之前传统媒体的状态变成了被动状态。
可再往后面去看,桌面电脑和以笔记本电脑为首的Mobile状态比起来,它自己也变成了一个被动形态。你在家安上一个桌上电脑,不可能背着这个电脑满世界跑。笔记本放在书包里,到办公室,回到家里随时连上网都可以进行信息接收和传递,所以这又是主动替代被动形态的过程。
我们来到移动互联网时代。手机从兜里一拿出来,几乎不需要漫长的开机过程就可以完成信息的传递。和打开笔记本电脑这种比较被动的状态比起来,这又是一个主动替代被动的过程。
我们当前所处的时代是移动手机作为霸主地位存在的时代,可为什么这几年我们都要讲穿戴式设备。因为如果我们有了手表或者智能眼镜,甚至是智能的耳机,这又是一个主动替代被动的过程。为什么?当我拥有这些穿戴式设备的时候,我接收和传递信息的时候甚至不需要把手机从口袋里拿出来——它可以通过手表、眼镜、耳机直接传达给我。
穿戴式设备第一波出来的是智能手表,后面出来的是大家都在谈的智能或者VR眼镜、耳机这类设备,我统称为智能助手。
那么,什么样的设备或者状态会替代智能助手,或者说把智能助手变为被动状态?我称之为AI Everywhere。不管个人在什么时间、什么地点,无需携带物理设备,AI或者Sensors都可以感知到我是谁,我需要什么信息,而主动推送给我。这肯定会是在很久之后发生的事情,但可以肯定的是,这又是主动替代被动形态的过程。
在这个漫长的过程里,我们可以看到媒体的变化。
- 传统的被动接受媒体有CNN、CCTV、时代周刊。
- 桌上电脑和互联网衔接的时候是什么?是雅虎,是门户网站,所谓主动查询媒体,用Directory的形式供用户查询信息。
- ?当笔记本开始普及的时候,也正好是主动搜索媒体出现的时候,比如Google、百度。
- 当移动手机开始普及的时候,出现的是主动推送媒体,比如Facebook、微信。但这里有一个问题,它什么都给你推送,不管你愿意不愿意。大家在朋友圈里看到很多“不转不是中国人”,家庭群里成天发的养生之道,都会推送给你。
- 当穿戴式设备出现的时候,随之而来的是主动辅助媒体,Siri、Google Now。
- 再往下,智能助手来临的时候,主动智能媒体将会出现,但是现在并没有一个成熟的霸主出现。
- 最后一个是主动XX媒体,因为我脑洞开的不够大,还没法判断这个媒体具体的形式是什么,所以留了一个空白。
媒体形式在经历每个阶段的时候,我们查看信息都有不同的状态。最开始的时候是在固定的物理位置定时查看,想想7点钟的新闻联播;后面在固定的物理位置随时查看,想想你在桌上电脑前接收信息;手机出现以后我们是在不固定的物理位置随时查看,一直到我们现在所说,如果说有可穿戴式智能助手出现的时候,它会是一个什么形态,也许是我们无需打开电脑做出物理动作,而主动进行的智能信息传递。
在主动替代被动的形态里,UX会有哪些特征。相信在我刚才和大家讲述的过程里也应该能看出:
? 首先是便捷性。什么是便捷性?是从物理状态而言的。我们减少额外的物理操作动作,比如说用拿起手机替代打开电脑。比如说直接从眼镜里面传达信息去替代我们拿起手机的动作,这是从物理层面上来讲的。
? 其次是主动性。什么是主动性?主动性是我们会减少用户额外的交互操作,主动进行辅助功能。
? 最后一个是智能性。这也是我们为什么需要大数据和AI,是因为我们希望通过技术提供更智能,更个性化的服务。
举一下我们在蚂蚁做的例子。
第一,扫脸登录。大家用支付宝的话应该都知道扫脸登录的功能。第一个版本因为技术的不成熟,所以我们要求用户面对镜头的时候需要眨一下眼,需要左右扭一下头,以确认用户的真实性。这个从物理状态来说,实际上对用户并不是更智能,也并不更便捷。
所以在第二个版本,我们利用眼纹和更好的面部识别功能,快速识别用户。到第三个版本,这个版本其实很有意思,和我们所说的人工智能其实没有那么大关系,但是要和大家讲一讲。刚才看到的那两版有没有发现一个问题,你想象一下,一个大老爷们在地铁上面拿出手机登录支付宝,这个时候全屏显示他的头像,他对着手机眨眼、扭头,很尴尬,旁人看了以为是四十五度角完美自拍。
为了减少用户的尴尬,我们把面部区域缩小,增大了留白的区域。留白的区域是为了做更好的面部识别,有屏幕的反光,在光线不好的时候帮助提高识别效率。
蚂蚁智能小马达
这个产品是基于大数据和AI的智能客服。因为有了大数据和AI更加了解了用户,更加知道他们要什么,所以可以根据入口的不同推荐不同的自助工具。可以做到上下文衔接,知道他第一句话问了之后,第二句话、第三句话都在说什么。即使是有很短的两个字的语言,我们都知道他问的是什么,可以给他提供更准确的答案。也可以根据不同用户行为习惯,给他主动推荐问题。另外还有DST(Dialog State Tracking),根据对话状态,引导用户定位到更加精准的答案。在这个项目里,就是体现了我们希望能够更智能、更主动、更便捷地为用户提供服务。
二. 重建真实
随着我们在互联网时代的媒体、设备、技术发展,我们一直在尽力模拟和现实世界相似的场景。构建具有还原性和真实直观性的体验世界。
先给大家看一段视频。
相信大家在互联网上看到过很多这种类似的视频,不仅仅是这种2岁的婴儿,甚至是猫狗都可以和iPad交互。这样的事情在二三十年以前是不可想象的。
我最开始学电脑的时候接触到的是DOS界面。相信很多90后根本没有用过这个,这实质上是一个指令交互,你给电脑输送准确的信息和命令,电脑再给你反馈。但是你必须清楚地知道并学习指令的拼写和语法,所以后来我们有了GUI界面,GUI界面实际上也是对现实世界的模拟。对于桌面以及文件夹、文件管理系统的一种模拟。这个比较好理解:为什么现在电脑里、手机里都说文件夹,我们在现实生活里都知道把文件放到文件夹,把它们放到桌面进行移动,有了对现实世界模拟,GUI界面这样更易于学习和掌握的界面才会出现。
下一阶段,当我们每天使用手机时,是对现实世界手势交互的模拟。大家知道为什么一个2岁小孩可以那么自如去使用ipad,就是因为这种手势交互的动作是我们与生俱来的,是现实世界里面每一天都在使用的。20多年以前,你很难想象一个2岁婴儿话都讲不利索,你让他很完整的去了解DOS界面指令是什么。但是在20年之后非常自然就发生了。
AR时代来临的时候,可能就不仅仅是只是单纯的手势交互。不管是手势、语言、动作都可以和真实场景之间的进行互动。所以从UX角度来说越来越具有直观性,越来越可以让大家以低学习成本甚至是无学习成本的