如果你关注可穿戴设备,那么肯定听说过MYO臂带的鼎鼎大名——这是一款通过捕捉用户运动时手臂肌肉的生物电变化,来进行体感控制的设备。这款由加拿大团队Thalmic Labs研发的产品,相对于早前的手势硬件Kinect及Leap Motion,摆脱了摄像头的空间限制,无须担心遮挡,配合手臂生物电变化,可以对编程后的动作监控人机交互,进而控制设备,在产品的演示视频里,包含了用户配合Oculus Rift打游戏,对着电视打手枪、军人遥控防爆车等的镜头。
不过,在这个产品宣布推出后,就迟迟没了下文,从2013年2月26日起就接受预定的MYO在连续跳票一年多后,沉默许久的MYO团队终于有了新的声音:他们发布了MYO的最终设计版本——售价149美元于7月正式发货。与此前公布的外观相比,臂带的厚度减轻了一半,不足95克,可以全天佩戴。据官方释出的消息,现已支持OS X与Windows平台的MYO将来还会在iOS与Android平台上开放API。针对开发者的Alpha版需要调试手势动作进行机器学习,而消费版可以自动完成。创始人Grant对外公布,公司已经联系上了对MYO感兴趣的10000名工程师,7月份便能拿到最新版本,而消费版还得再等两个月。
借着这一好消息,让我们看看全新的MYO是如何设计的吧。它内置了三轴加速器、三轴陀螺仪,使用了同手机一样的ARM处理器处理生成的数据,采用蓝牙4.0进行数据连接。MYO使用的eEMG(表面肌电图)最早应用在航空领域,为了使宇航员在太空更方便输入指令,研发人员通过肌肉活动时神经肌肉生物电变化的产生的序列,捕捉使用者的运动模式,实现信号对终端的输出,由于肌肉信号十分微弱,所以MYO的核心技术在于肌肉电信号为输入的处理系统。
虽然空间上获得了解放,但MYO需要根据编码而成的“语言”来操控,有观察者猜测,MYO臂带的10个单元里都放置了用于感应肌肉生物电的电极,但由于肌肉感应器的输出精确值有所限制,想要准确识别信号还有很长的一段路要走。而由于拥护需要通过一套规定好的动作编码来进行输入,在复杂的使用环境里,数据的采集、过滤,进而数字化的过程中难度不小,可能在操控体验也会打些折扣。
所以,MYO更多地像是一个遥控器,与Leap Motion在特定空间里完成一系列的操作还有一段距离,官网上都写到,“MYO让人类摆脱摄像头基础输入的时候还未到。”
2013年7月Thalmc实验室团队获得1450万美元的A轮融资,值得一提的是投资方有擅长于产业投资的Intel Capital,可以想象一旦技术成熟进入商用领域,MYO可以给信息收集的方式带来深远的影响。