MYO与表面肌电图的今生前世:从航天飞船里走出的个人设备

MYO与表面肌电图的今生前世:从航天飞船里走出的个人设备 的图片 热戴网

MYO这 款神奇的腕带通过检测用户运动时胳膊上肌肉产生的生物电变化,配合手臂的物理动作监控来做人机交互。戴上腕带,你就可以像绝地武士一样控制移动设备了。 MYO 设置了一个特定的动作来启动设备,就像 Google Glass 的“OK,Glass”一样,而且这一动作正常人平时是不怎么做的。MYO 利用蓝牙 4.0 来连接到智能设备,现在支持 Mac OS 和 Windows,未来将会推出适配 iOS 和 Android 的 API,供开发者进一步鼓捣出各种好玩的东西。

MYO与表面肌电图的今生前世:从航天飞船里走出的个人设备 的图片 热戴网

去年 2 月 26 日起接受预定一直到今天,络绎不绝的订单让推出这款产品的 Thalmic Labs 赚得盆满钵满。只是距离当初公布的发售日期已经过去了一个月的时间,再加上开发人员有意无意地透露将严格注意产品质量,这款被很多人视为 2013 年最有创意的体感控制设备似乎还得继续跳票下去。

很多人都在惊叹于 MYO 的创意,网上随处可见的充满科幻感的宣传视频和满是赞美的评论。只不过,MYO 真的有想象中那么出色?今天我们就来好好剖析一下这款产品,看看他的过去、现在和未来。

想要理解 MYO 是如何工作的,就要先知道 EMG(electromyography),也被称为肌电图。一般是应用电子学仪器记录肌肉静止或收缩时的电活动,从而了解肌肉组织神经组织的功能状态。

从上世纪 70 年代起科研人员就在这个领域展开了研究,但大多是医学相关的,并需要将探针插入皮肤内检测肌肉的相关电活动。随着技术的发展出现了 sEMG(surface electromyography)——表面肌电图。只需要有接触皮肤的电极即可完成相关的信号收集。通过从肌肉表面引导和记录到的肌肉活动时神经肌肉系 统生物电变化的一维时间序列信号,在一定程度上能够反映运动单位的活动模式和肌肉功能的状态。这也正是 MYO 的原理。

对生物医疗领域有所涉猎的朋友们一定会知道 sEMG 从上世纪 90 年代起就开始了飞速的发展。到了 2000 年左右,研究已经非常成熟,自然不可能一直等到 2013 年才有人将其产品化。事实上早在 2003 年就已经有了基于 sEMG 的可操控设备面世了,只不过在那个时候应用领域还非常狭窄,以至于大多数的人都不知道他的存在。

因为最早使用 sEMG 来进行操控的领域是航天航空领域,而刚刚所提到的产品也不过是只有少数几个宇航员才能够使用到的高精尖设备,【简介略微有些标题党了 XD】。因为穿着厚重的宇航服,所以宇航员们在一些数据输入的时候非常不便捷。而 sEMG 技术可以很好地捕捉宇航员想要实现的操作,再通过信号的传输直接由终端进行处理。

虽然很奇怪这个技术的民用化为何一直到现在才有所动作,仔细想想倒也理所应当。2003 年的时候智能手机还未普及,笔记本电脑更是高帅富的代名词,硬件还不是白菜价,甚至连微电子学专业的毕业生都能找到薪水不错的工作……这样的可操控设备几 乎没有实际的使用价值,在民用市场不被重视也是自然而然的事情了。

接下来,就让我们跟着NASA公布的方法一起来看看,实现一个 MYO 究竟需要哪些步骤。
第一步是要对于手势的种类进行选择。只是 MYO 内还内置了陀螺仪等器件,对于动作的捕捉就暂时先撇开不谈,主要来关注一下手势了选择。关于 MYO 的报道提到他可以识别约 20 种操控,除开其中一部分是和手臂动作结合之外,在手势方面的要求并不算很多。

MYO与表面肌电图的今生前世:从航天飞船里走出的个人设备 的图片 热戴网

这些是目前在实验室阶段测试分辨率比较高的一些手势。虽然种类很多,可有一些非常的怪异,在平时生活中也几乎不会有人去做这样的动作。作为使用者的 我们,想要通过 MYO 来随心所欲地操控电子产品还是天方夜谭,事实上我们只能根据一系列编码好的“语言”,通过手部动作的变换来进行操控。换句话说就是将键盘输入、语音输入的 内容通过动作表达出来让机器进行识别。

MYO与表面肌电图的今生前世:从航天飞船里走出的个人设备 的图片 热戴网

第二步是确定电极使用的数量和位置。测量的电极越多,能够得到数据的信号通道也就越多,而得到的数据量越多对于信号的分析就越准确,这从直观上很容 易理解。从 MYO 目前给出的样品演示视频来看,产品所包含的电极数量还是要远远大于目前实验室阶段的数量。在国内就有一些非常出色的科研团队,只需要两片电极就可以做出精 确的手势识别。不过也必须注意到,MYO 的手环是可以戴在手臂的任意位置,而在实验室的研究中电极位置都是确定的,所以对于 MYO 来说,想要准确识别信号还是有很大的挑战。

第三步是信号的采集、过滤、数字化,将模拟信号转化为数字信号再数字化,为之后的匹配做好准备。

那么接下来最重要的,就是模式识别模型的训练以及实际交互仿真中的应用了。由于我个人背景知识的薄弱,所以对算法什么的都不是很了解呢 O,O 也不知道怎么对于 MYO 在这个部分的工作有所判断。在 Thalmic Labs 释出的视频里,实验的部分几乎都是这一块的内容,似乎他们对于这一块的内容还是很有信心的。

诚然,手势识别输入还存在一定的缺陷,但是和摄像头的识别输入相比,这样的方法对于光线、地点、距离的要求都不高,在一些特殊的环境下有着很好的发 展潜力。不过从本质上来看,还是通过一套规定好的动作编码来进行输入,可能在操控体验上没有想象中那么出色。类似于宣传视频里所展示的那些功能,也还需要 第三方的产品在功能上提供支持。尽管接受到了上万份的订单,产品还未上市就收入上百万,但如果还想取得更大的成功,Thalmic Labs 还有很多路要走。但不得不承认,他们确实找到了一个好的突破口,从众多创业团队中脱颖而出。

其实在 sEMG 识别技术方面,国内也有一些实验室在这个领域做得非常出色,上面我们给出的图示都是中科大的团队在2007年就得到的研究结果。然而很遗憾的是,尽管国内很早就有了出色的科研成果,可依旧没有创业团队去关注和将其产品化。

可穿戴设备近年来的发展非常迅速,而国内创业公司所推出的一些产品还是跟随着国外的脚步,试图在服务上而不是概念上获得认可。事实上这两点都很重要,我们既需要在服务端提供良好的服务,也需要一些领先世界的产品。

如果有多一些的创业者们关注学术界的动态,关注实验室里最新出现的那些新奇好玩的设备。说不定下一个 MYO 就是从中国诞生的呢~

[36氪原创文章,作者: krokodil]

留下评论