“人机接口或人机界面(HMI)是系统和人之间进行交互和信息交换的媒介。传统的HMI主要借助RS232、RS422/RS485等串行通信接口,以及网口、USB等数据接口来实现设备的人机交互,而展现在我们面前的“触摸屏”、导航按钮等是HMI产品中非常重要的硬件部分,它替代了原有的鼠标和键盘的部分功能。
”作者:M博士
人机接口或人机界面(HMI)是系统和人之间进行交互和信息交换的媒介。传统的HMI主要借助RS232、RS422/RS485等串行通信接口,以及网口、USB等数据接口来实现设备的人机交互,而展现在我们面前的“触摸屏”、导航按钮等是HMI产品中非常重要的硬件部分,它替代了原有的鼠标和键盘的部分功能。
随着技术的不断演进,HMI的交互方式和体现形式都发生了很大的改变。现在的人机交互可能是有形的,也可能是无形的。比如,我们可以发出一个口头命令或者通过手势来控制智能手机,也可以用语音控制车辆的导航系统,选择我们要去的目的地。
有关HMI的三大猜想
无论是在功能上还是概念上,如今的HMI都发生了翻天覆地的变化。从技术和应用角度,我们认为HMI将在如下三个方面进一步影响未来的人机交互方式。
屏幕的变化
在消费电子中,曲面屏、折叠屏开始大量使用,传感器技术的进步带动屏下指纹的应用。在汽车中,HMI的体现形式主要是屏幕和显示器,乘客可以通过按下屏幕上的按钮来操作音频系统的输出,比如选择输入设备、收音机调台、浏览导航指令等。
未来,乘用车中的屏幕将被赋予更多功能,尺寸也会越来越大,一个完全可定制的全数字仪表盘显示屏将获得广泛应用。现在,特斯拉的15英寸纵向触摸屏已经将加热、通风和空调(HVAC)控制等功能纳入其中,接下来应该还会赋予大屏更多的功能。
语音有望优先成为HMI的下一个发展目标
专家预测,到2022年,80%的车载HMI将集成语音控制功能,这还不包括智能手机中使用的语音识别系统。随着语音识别技术的进步,其应用也在不断扩展。现在,大多数HMI使用语音命令来控制音频系统和接听电话等。
未来,自然语言命令还将用来执行更加复杂的功能,从车辆的自适应巡航控制,到智能手机和可穿戴设备的非接触控制和操作。也可以说,将语音用户界面(VUI)应用于电子设备中将成为人机交互发展的大趋势。现在,基于人工智能(AI)的语音智能助理基本解决了VUI存在的“听不清楚”这一弊端,语音控制 + AI + 机器学习,三者相结合的语音用户界面,它们的应用前景,想想都会让人无比激动。
手势识别在非接触HMI中开始走红
与触摸屏相比,手势控制具有很多优点:例如,用户不必触摸设备就可以从远处发出命令。另外,手势控制还将HMI从二维用户界面扩展至三维空间。全球著名的车企宝马公司已将手势技术应用在部分车型中,乘客做出的手势动作被摄像头“看到”后即可执行车内的功能。当然,我们也可以把手势控制看作是语音控制的替代方案,尤其是在那些不适合大声讲话的公共区域。
VUI:HMI的未来之星
新冠肺炎的爆发,为了避免因接触可能带来的病毒传播,在工作场所、零售店、医院等环境中,非接触HMI的需求量急剧上升。随着全球经济的重新开放,这一趋势有进一步加速的可能。为此,我们大胆预测,未来10年,非接触HMI尤其是VUI的发展将驶入发展的快车道。该市场的发展也为半导体公司、OEM/ODM、近距离传感供应商和软件公司提供了商机。
在一众非接触HMI技术中,为什么VUI这么被业界看好呢?其实,早在2014 年,微软首席执行官 Satya Nadella就曾预言:“人声就是新的接口”。根据普华永道(PwC)在2018年所作的一项消费者调查显示,90%的受访者熟悉语音助手,72%的受访者对这项技术有第一手使用经验。
图1:语音助手在各种电子设备中的应用情况(图源:PwC 2018年消费者调查问卷)
VUI之所以获得消费者的广泛认可,一方面它能解放我们的双手,提高通信的便利性;另一方面它有效增强了客户体验,毕竟我们说话的速度比打字快得多,通过对非接触控制系统的口头命令,人与机器的交流将变得更加自然和有效。随着语音识别技术的不断成熟,VUI在未来几年内将惠及数十亿用户。专家预测,在未来5年内,几乎每个应用程序都将以某种方式集成VUI技术。
AI使机器变得越来越智能化,因此,加入了AI和机器学习的VUI将极大地改善语音接口的个性化体验。据研究公司Tractica的预测,基于AI的语音智能助理在HMI中的作用越来越重要,到2025年,全球市场价值有望达到46亿美元。未来几年内,80%的车载HMI将集成语音识别系统,这还不包括谷歌语音(Google voice)和苹果Siri等智能手机助理应用。在汽车中,语音命令最常用于控制汽车中的媒体播放器,为导航系统设置目的地。随着机器学习算法的发展,ADAS的功能中也将引入VUI。在智能手机中,高端机型几乎都拥有语音控制手机操作的功能。
在智能家居中,语音控制系统将家居自动化提升到了一个新的水平,像Amazon Echo、Google Nest和Samsung SmartThings这样的智能家居集线器允许用户使用简单的语音命令来管理连接的设备。与此同时,VUI也在逐步渗透到我们的工作场所,并使之朝着数字化方向发展。Gartner预测,到2023年25%的员工与应用程序的交互将通过语音进行。
深耕关键技术
总体来看,非接触HMI主要涉及9大关键技术,即:基于摄像头的手势识别及认证、手势超声或雷达、眼球跟踪、语音命令、基于手势和位置的光电二极管传感器、接近式触摸屏、运动传感器融合、短距无线电以及其他非接触技术。根据研究机构Touch Display Research最新发布的《非接触HMI 2020》报告,目前,非接触HMI技术已经吸引了多达390余家公司的参与,他们重点深耕非接触传感器,以及软件和系统集成等领域,其中,提供语音命令和基于摄像头的手势识别的公司最多。
针对HMI应用,多家技术供应商都采取了积极的行动,比如,TI公司以营造一个完整的生态系统为主,其HMI产品组合包括广泛的I/O、图形处理、语音识别等,提供开发各种接口所需的几乎所有组件、软件和支持。TI的方案还实现了以太网供电,以进一步降低布线的复杂性,甚至支持无线连接。
例如,TIDEP-01013是具有毫米波传感器和Sitara处理器的手势控制HMI参考设计;TIDEP0066语音识别参考设计则采用TI嵌入式语音识别 (TIesr) 库,突出了C5535和C5545 DSP器件的语音识别能力。
图2:语音识别参考设计原理框图(图源:TI)
由于背景噪音的干扰,语音识别的效果通常不是那么完美。优质MEMS麦克风和先进的音频处理功能是促使语音控制设备真正适用于日常环境的关键因素。英飞凌的VUI市场策略则是通过逐步建立起来的合作伙伴生态系统,向行业提供一系列创新的参考平台和即用型新一代VUI解决方案。目前可用的解决方案主要来自于Aaware、CEVA、Creoir、SoundAI、Sugr和XMOS等公司。2017年初,英飞凌与XMOS共同提出的全新语音控制方案采用的是智能麦克风,它使语音助手能在其他噪音当中准确识别定位人声。其中,英飞凌的XENSIV雷达和硅麦克风传感器组合能识别扬声器与麦克风的位置和距离,同时利用XMOS的远场语音处理技术来捕捉语音。
图3:英飞凌联合合作伙伴推出是部分VUI参考设计(图源:根据英飞凌网站信息整理)
结语
时间回到20世纪50年代初,语音识别技术初现萌芽,只是彼时的系统只能理解数字。到了2017年,这项技术已经取得长足的进步,几乎达到可以精确地理解人类语言的水平,因此奠定了VUI商用的基础。
人机交互是实现自动化和智能化的前提。经过几十年的发展,按钮/按键这种HMI方式正在从我们的生活中退出,取而代之的触摸屏在很多应用场合也会逐渐被全新一代的VUI替代。技术和创新永无止境,虽然今天的VUI尚不完美,但它的优点已被消费者广泛认可。毕竟,人类最有效的沟通方法就是语言,未来的机器应该也不会例外。
分享到:
猜你喜欢