“人为了将就机器,而降低了沟通效率。因此,我们希望的是,机器能理解人类的表达。这就是感知计算,它是人机交互的基础以及未来重要的发展方向。”王总表示。 2012年,Intel就提出了“感知计算重塑人机交互”的概念。通过视觉感知、语音感知、眼球追踪、手势感知、触摸控制和面部识别,机器人就可以具备“人的大脑”,像人类一样进行思考。IBM也提出过类似的概念——让机器人像人一样有官能感知。另外,微软智能陪伴虚拟机器人——微软小冰现在拥有了新功能——读心术。日前,Google AlphaGo对战李世石也引起了科技界的热议。人工智能已经发展到离我们很近了。虽然AlphaGo还不能完全代表人工智能革命性的突破,但是我们可以预见到“计算机终将模拟人的大脑”。
随着人工智能/感知计算的发展,未来我们生活中的一切都将被冠以“智能”的标签,像人一样的交互。比如,智慧城市、智慧社区、智能医疗、智能家居等。另外,可穿戴设备,目前这主要还是集中在触摸交互,而在未来,我们将实现更自然的交互方式,比如3D手势。这一系列的交互方式将会给可穿戴设备带来极大的体验提升,为爆发创造可能。 感知计算另外一个应用场景是机器人。机器人的出现有一部分是为了替代人的,但是更多是为了和人形成很友好的交互。
“语音交互作为人与人之间最便捷的一种交互方式,一定会成为人机交互最主要的选择。”王总透露,“微纳研究院从一开始就在语音交互这个领域进行研究探索,目前也有了一些元件级的语音处理方案。”
从Siri开始,语音交互开始逐渐广泛起来了。对于智能手机,语音识别基本上已经成为了标配。现在,机器的语音识别准确率达到95%以上,但是远距离的交互应用还没有。这其中的问题包括回声、噪声等等。微纳研究院现在已经有三个远距离的语音整体解决方案了。
除了语音感知方案,微纳研究院还有LED可见光室内定位方案。目前,GPS信号很好地解决了户外定位的问题,但在室内我们还没有一个很好的定位解决方案。因此,微纳研究院研究了基于LED可见光的定位解决方案。它在LED驱动下增加了存储芯片,该芯片具有唯一的位置ID。传统的基于蓝牙、WiFi的定位有一些缺点,包括:定位精度不高,稳定性差,受周围建筑/人流环境影响,会有无线信号衰减等。LED可见光定位解决了这些问题。
“LED可见光定位不受环境和人流的影响,定位精度可以达到1m以内。这套方案可以应用在许多大型公共场所,比如商场、博物馆和停车场等。它在现有的方案上不需要增加很多东西,因此成本可以做到很低。另外,微纳研究院还有机器视觉感知解决方案正在研究,可以实现无人机壁障这样的功能。”王总透露。同时,除了自主研究的项目外,微纳研究院对外还是一个孵化器的平台,目前已经有十多个入孵项目了。
【分页导航】
张总介绍,虚拟现实目前市场上有三大主流解决方案。一是结构光,即每隔一段距离取一个参考平面,把参考平面上的散斑图案记录下来。结构光的代表应用是PrimeSense为微软XBOX 360做的Kinect一代产品。“近些年,欧洲的Soft Kinetic将结构光用到了手势识别中,它将微软的3m到5m识别距离调节到了1m以内。但是现在识别精度只是达到了厘米级别,这在工业和医用级别的手势识别中是远远不够的。”张总表示。
二是光飞行时间(TOF),即传感器发出经调制的近红外光,遇物体后反射,传感器通过计算光线发射和反射时间差或相位差,来换算被拍摄景物的距离,以产生深度信息;此外再结合传统的相机拍摄,就能将物体的三维轮廓以不同颜色代表不同距离的地形图方式呈现出来。“TOF精度达到了毫米级,但是用在可穿戴设备等计算能力不太强的应用中,它的计算量大、功耗高是一大障碍。”张总指出。
三是全角度摄像头方案,它通过比对多角度摄像头的图像来获得深度信息。张总透露,锋时互动的微动系列产品采用的就是这种技术。它最大的优势是功耗低。另外,它的视场角可以达到120度甚至150度,而结构光和TOF方案最大只能做到70度。
【分页导航】
触摸屏只能实现移动和手指手势两种功能,而手势识别应能实现移动、手指手势和挥动这三种全部功能。 比奇所做的人机交互设备叫做DTing移动手势交互设备。它不是戴在手上,而是戴在前臂上。“人在控制手指的时候,手指的控制并不是在手上而是在前臂上。通过肌电传感器感知各个手指肌肉的生物电信号,再结合算法把移动和手指手势区分开来,就实现了手势识别。”李总介绍。
DTing是基于生物信号的手势识别方案。此外,目前市面上手势识别的方案还有很多,包括基于视觉、基于弯曲传感、基于惯性测量单元等。“其中没有任何一种方案能够满足所有场景的需求。比如,eMotion已经能还原双手了,但它必须连运算终端,并且它视角非常狭小,不能有物体遮挡。Kinect只是一些手指手势(玩游戏时的姿态和体感)的识别。”李总透露。
DTing的优势是它可以在户外使用,无场景限制;低功耗(200mAh支持10小时续航,这已经超出了大部分智能手机的通话时间);无干扰(没有光线限制);分布式运算(便携,所有算法都存储在设备上,不占用其他资源,而eMotion只是个传感器,需要电脑来算)。另外,它的反应速度可以控制在60ms以内,因为人在控制运动系统时,先是脑电过来变成肌电,机电信号过来后手指才开始拉伸或是收缩。也就是说,手还没有动的时候,肌电就已经产生了,手还没动的时候肌电就已经产生了,这样设备就可以提前动作。
最后,他认为,在手势识别方面,2D到3D是未来的重大发展方向。目前手势识别存在的一些问题包括:手势识别缺少反馈(触摸屏按下有假象或振动,实体键就更不用说了);个体差异(拇指大小、角度、识别率、动作不标准等)。这些都是未来我们需要克服的问题。 【分页导航】
南京易智信息是做2D视觉识别的,该公司开发了一套基于2D视觉的体感操控系统——AirMove。它是通过其核心独立算法加上2D摄像头来实现视觉识别的。
杨工介绍,AirMove在使用效果上有三大优势:识别快速、稳定;操作范围广;环境适应性强。另外,它成本低、体验好。
小编认为,人机交互技术/方案有很多种,不同的应用场景会需要采用不同的技术。初进这行的厂商可能需要针对不同技术的成熟度、应用领域以及成本等做出多方面综合考虑,才能找到一款适用的技术或解决方案。幸运的是,目前市面上已经有很多这样的成熟案例了。 【分页导航】
萌翻了的萝卜科技“小萝卜”智能伙伴机器人连接云端,可以实现语音对话/控制,实现专业早教、潜性教育。
人机交互设备“引力透镜”综合了体感实感、AR增强现实、VR虚拟现实等技术,将数字信息、3D模型或场景精确地叠加显示到真实场景,让用户能通过手势浏览。目前,这款设备将首先在机场中得到部署。
COOLHEAR V1 3D&ANC头戴式消噪耳机,比起小编自己的一款插入式ANC降噪耳机,音质和降噪效果好出很多。
沃夫德尔骑行用智能头盔具备智能灯光、SOS报警、接打电话、语音对讲、音乐播放等功能。
爱吧网络科技D8智能保温杯具有触摸感温、精准计量、智能提醒/分析等功能。
烯旺智能服饰公司石墨烯智能发热服饰,利用手机APP可以让发热服迅速升温并轻松调节温度,还可通过温度控制盒实现智能温控。
【分页导航】 《电子技术设计》网站版权所有,谢绝转载