仍然处于初级阶段的Google基于60GHz毫米波技术
为了实现5G,60GHz毫米波的研究成为世界多国瞩目的研究项目。三星连续突破毫米波(mmWave)局限, 日本电信公司KDDI最近更是提出了一个以內容为中心的网络构架技术,让60GHz频段与LTE网络协同工作,可将下载速率直线提升5倍。
不过,Google的乱入,让这一切黯然失色。
今天的智能手机、平板、可穿戴设备都是触控的,能不能通过手势控制?我的意思是说,不用接触触摸屏,你只需要在空气中用指头划一划。像这样:
这是来自Google的颠覆式创新,这一切都是通过60GHz毫米波实现的。
Google的这一项目叫Project Soli,在今年的Google I/O大会上,Google向外界展示了这一技术。
该团队开发两种Soli 芯片,一种使用脉冲雷达,约9平方毫米大小;另一种使用连续波雷达,约11平方毫米大小。脉冲雷达的发射和接收信号在时间上是分开的,适用于测距,尤其适于同时测量多个目标的距离。连续波雷达能对相当距离范围内的具有任何速度的目标进行测速。
这两个芯片都运行在60GHz毫米波上。
60GHz毫米波以提供更大的数据带宽,问题是容易被建筑物、恶劣的天气甚至人所阻挡,波束窄,衰減大,难于实现远距离传输。Google这一创新正是利用了毫米波的缺点逆向思维脑洞大开。
Project Soli是基于无线电波反射建立的交互体系。
雷达技术就是向目标物发送无线电波,利用无线电波反射,从反射的雷达信号中获取信息。Project Soli为什么能够从有限的反射信号中获取这么多手势信息,是因为他们建立一个非常全面的手势识别体系,利用60GHz高速率传播的特点,从中提取计算出用户的手势信息。
由于体体积小,它足够嵌入到智能手表等可穿戴设备,并且可以实时追踪你的动作,并根据这些移动检测从而更改信号。当然它还可以广泛应用于物联网和其它计算设备。
类似于智能手表的可穿戴设备,都有一个问题,其触摸屏太小,很多触摸动作很难在这么小的范围内完成。如何精准的捕捉到手指的活动,是这个场景面对的挑战。同时,触屏的限制在于无法捕捉3D空间内的手指动作,如捏、搓、抓握、转动等。触摸笔体验不好,可见光和红外摄像头虽然可以捕捉距离,但因为可见光/红外无法穿透手指,因此无法捕捉到被遮挡部分的动作。
采用60GHz毫米波正好可以解决以上问题。
以智能手表为例,如果要调整时间,我们可以在距离表盘12厘米的地方调整小时,在距离16厘米左右的地方调整分钟,而手势还是我们传统使用机械表的手势。
该技术目前仍处于初期发展阶段,未来仍有可能变动。
让人失望的Leap Motion
LeapMotion的基本原理相对简单,主要是使用红外LED以及灰阶camera的方式才采集数据,通过双目视觉原理进行解算并生成3D数据。红外光是一种超出了人眼可以察觉的可见光,不能被人眼直接感应,能较好地满足隐蔽性三维测量的要求。但是CCD摄像机的波长感应范围要比人眼宽泛的多,在靠近红色光的近红外区仍具有相当的灵敏度,因此LeapMotion通过近红外850nm的IR- LED 作为光源,可以实现更加精确地视觉测量。
双目立体视觉(Binocular Stereo Vision)是计算机视觉的一个重要研究方向,它是一种由两幅图像获取物体三维几何信息的测量方法。基本原理是从两个视点观察同一景物。以获取在不同视角下的感知图像,通过三角测量法计算图像像素间的位置偏差(视差),来获取物体深度信息。三角测量法呢,是用于定位目标空间位置最常用和最基本的方法,应用场合小到我们常见的Kinect、激光反求等,大到飞机装配等高精度作业环境。在LeapMotion的双摄像头基线距离固定后,就可以进行设备校准。校准后的控制器可以精确计算出目标相对于摄像头的空间坐标。
当我们把手伸到工作区时,两个摄像头会同时捕捉到目标,并且实时计算目标的视差,这样就可以得到各个特征点的空间信息。利用两个摄像头从不同角度捕捉的画面,用红外LED和CCD的方式采集视频数据,通过计算得到各节点Joint的位置Position、姿态Orientation以及速度Velocity数据,重建真实世界三维空间的运动信息。检测的范围大体在传感器上方25毫米到600毫米之间,检测的空间大体是一个倒四棱锥体。
好,接下来咱们进入正题。对于热衷数码产品的粉丝们来说,东西买回来就是要拆的!打开LeapMotion的包装盒,一张写有“Welcome to a whole new world”的标签纸映入眼帘,浅绿色与黑色搭配的设计风格给人一种清新淡雅的感觉,很是讨人喜欢。里面还装有LeapMotion一枚、两根不同长度的USB3.0连接线、以及说明书等等。
LeapMotion的外观设计十分简约,跟Apple风格特别像,采用了银白色与黑色作为外壳主色调,底部贴着绘制LOGO的防滑橡胶,顶层为一个红外滤波片,红外光可以轻松通过,大部分可见光则会被吸收掉,相当于对CCD摄像头所采集的数据进行了初步处理,简化了后期运算复杂度。
下面咱们一起来一窥LeapMotion的内部构成。首先,用吸盘撬开上面的红外滤波镜片,可以取出一层橡胶垫层,然后就看到了里面炯炯有神的一双大眼睛
拆下四角的螺丝,然后就会发现电路板实际上是分为上下两层的,上面放置了主控芯片、FLASH和USB接口以及IR-LED灯等部分,下层则是两个摄像头的连接板
连接板近照,你看那泛着幽幽蓝光闪闪亮亮的大眼睛,那就是LeapMotion的核心传感器之广角CCD摄像头,通过中间的插座与主控板相连,提高了空间利用率。⊙皿⊙!萌萌哒有木有!
下面是上层电路板近照,赫然可见三个漂亮的红外LED灯珠,当LeapMotion处于工作状态时,三个LED灯珠会被点亮。红外LED灯珠的作用相当于提供一个照明功能,它们发射出的红外光照射到手部后反射回来,经过红外滤波片滤波后被两个CCD摄像头采集出来。右下角有一个MX25L3206E闪存芯片,作为一个32Mb的NorFlash,为LeapMotion的视频运算与处理提供缓存。
LeapMotion采用了CYUSB3014系列的USB主控芯片,它集成了USB3.0和USB2.0物理层协议(PHY)以及32位的ARM926EJ处理器,支持OTG,具有强大的数据处理与数据传输能力,在这里LeapMotion对CCD摄像头采集到的数据进行初步处理并将处理结果发送给PC端。另外在主控芯片的右边还有个仙童的FDD6685芯片,作为一个P沟道稳压管为LeapMotion的硬件系统提供稳定的电源。
USB3.0接口近照。In fact,去年LeapMotion入手时,我是第一次在便携设备上面看到USB3.0接口的存在,不免惊讶了一番。当然USB3.0是全面兼容USB2.0的,所以即使电脑上没有USB3.0接口也是可以用的。
可见,LeapMotion在硬件方面还是相对简单的,Leap公司也说了:我们的优势是在于算法的!据了解,Leap通过对红外区域探知的移动进行重点分析和检测,大大降低设备对CPU的占用率。Leap3D在实现0.01mm的探测精度时,其CPU占有率能保持在2%以下,这也是LeapMotion的一大卖点。
与此同时,LeapMotion的开发平台也处于不断完善之中,现在已经发布了SDK的2.1版,全面支持Javascript、U3D、C++、Python、Objective-C,在Windows、OSX、Linux以及Web端都可以轻松地进行编程,最近还发布了Leap Motion for Virtual Reality,开发者们可以结合VR和LeapMotion开发出更多更好玩的体感游戏。此外上市之初,Leap公司表示在以后的SDK中会开放点云RAW获取的API,当时冲着这一点入手的LeapMotion,但非常遗憾的是至今为止也没有在SDK中开放出来。
经过一年的等待且一再跳票的Leap Motion终于在7月迎来了全球发货的消息,作为有着众多憧憬和美好想象的我在试用之下,却倍感失望。诚然,Leap Motion提供了一些新鲜的3D的人机交换方式,但是至少就目前的体验来说,实用都谈不上,更别说开创“a whole new world”了。
替代鼠标?为时尚早
由于Leap Motion高达每秒钟290帧的频率,普遍被认为可能取代鼠标键盘组合,然而在实际使用上却并非如此,在Leap Motion的应用商店Airspace中有款叫做Touchless的免费应用,安装后,Leap Motion就能被当成鼠标使了,但是在操作时你就会发现这是个‘技术活’,尤其是屏幕越小,难度越大,晃悠半天才能定位到需要的位置,在点选等鼠标最基本的功能上太弱,更不用说键盘上强大的快捷键之类的了。而且,双手悬空操作的方式太坑爹了,即使对于精壮男士时间一长也会受不了,更不用说娇小女孩纸了。
设备本身,硬伤不少
在使用上,Leap Motion的灵敏度有待商榷,他只能平放,所以电脑屏幕的大小以及设备的摆放角度也会影响Leap Motion的灵敏度。为了提高他的感应范围,有时候不得不把MacBook垫高,给爪子更大的活动空间,不然有时候稍一抬手,就出屏幕范围了。
再者,设备本身的工作方式也有很大局限,因为自下而上的扫描方式,下面的手指必然会挡住上方的手指,这就是为何尖子包袱锤的时候如果你是立掌角度出拳就几乎全部被识别出错的原因了;此外当两根手指接近时就无法识别其中一根了,这意味着你就无法做出两指捏和握拳之类的有效手势来被识别。
应用商城,把人吓跑
最后吐槽下Leap Motion的应用商城Airspace。在iPhone发布之初,App Store里面众多牛逼应用在让iPhone大红大紫的历程中功不可没,反观Airspace的应用,少而且贵,至少目前还没有出现一款重量级的应用,大多都是把之前2D环境中的一些诸如割绳子、切水果之类的弱智游戏3D虚拟化。
Leap Motion正式发布一个多月了,目前支持Mac的应用仅有77款,支持Windows的更是仅仅只有60款,而这里面免费应用仅有25%,其他应用游戏动辄一款4.99美元。反观苹果的App Store在最初面市后的数据:苹果的应用商店于2008年7月首次发布时就有1,091有效应用可供下载,一个月后,有效应用的数量是2,219个,增长速度近一倍。
尤其值得一提的是一款叫做Unlock的应用,其原理是通过扫描你手的大小,形状,手掌手指的长宽比例,手指分开的自然角度,手掌弯曲的自然角度等等都独一无二的数据,将其作为解锁开机的Unique Key。然而事实上许多朋友同事都可以用他们的手开锁,包括娇小的女同事,怎一个坑爹了得啊。
所以,就目前Leap Motion的硬件水平和应用模式,还只能用于极客们在小朋友面前显摆一番和IT宅男们活动一下手臂神经而已。
微软Handpose迟迟没有发布
Handpose 是微软研究院的一项发明,其目的是让计算机精确地识别手势动作。这并非什么全新的发明,但是,Handpose 的速度更快,感应距离更远。它不仅可以用于现有硬件,将来也能够用到手机上面。
要使用 Handpose 软件,用户首先把手放在 Kinect 前面,让计算机传感器创建一个 3D 模型。然后,当用户做手势的时候,屏幕上的手也会做出相应的动作。微软机器学习和感应部门的首席研究员 Andrew Fizgibbon 对 fastcodesign 网站说,Kinect 很擅于探测身体动作,但是,在辨识手部动作含义时,它的表现就很糟糕了。“它大概可以了解你的手掌和手腕在那里,但是,它的能力也就是如此了”。它或许知道你在挥手,但是,当你做出简单的手势,比如拇指向上和向下,它不能将其区分开来。
“我们相信,如果你能够准确地跟踪用户的双手位置,包括每个指关节的角度,那么,运动感应技术能够带来一套全新的用户界面。” 他说。这套界面被称作是 Direct Physical Interface(直接物理界面)。在与虚拟物品交互的时候,用户可以伸手抓住它们,就像是对待实物一样。
Handpose 仍然需要完善,但是,在 Fizgibbon 看来,只要将其速度提升两倍以上,就能够实现精确的手势识别。到了那个时候,它将会改变我们与计算机、虚拟现实、电视机等的交互方式。当问到这何时可以实现的时候,他说,“我记得,盖茨曾经说过,你会高估一年内能完成的事情,但是低估 10 年内能完成的事情,那么,就让我给个中间数。或许是 5 年吧。”
(文章来源:硬件十万个为什么)