云栖号资讯:【点击查看更多行业资讯】
在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来!

编者按:本文来自微信公众号“AI科技评论”(ID:aitechtalk),36氪经授权发布。

作者 | 贾伟

编辑 | 蒋宝尚

机器翻译真的是万能的,不仅能够写诗、对对联、推导微分方程,还能够读取脑波信息。

昨天,加州大学旧金山分校的Joseph Makin 等人在 Nature Neuroscience上发表了一篇论文,标题为《利用 encoder-decoder 框架,将大脑皮质活动翻译为文本》(Machine translation of cortical activity to text with an encoder–decoder framework)。

这篇论文的工作思路异常简单。他们将脑波到文本的转换视为机器翻译的过程,脑波为输入序列,文本为输出序列。

通过让受试者朗读文本,收集相应脑区的电波,构成训练数据集,然后去训练一个端到端的机器翻译模型。

通过这种方式,他们获得了一个模型,这个模型能够将受试者的脑波「准确」、「实时」地转换为句子文本,而错误率仅为3%。

这种创新,无疑是革命性的。

目前一些用于大脑控制打字的脑机接口技术,大多依赖于头部或眼睛的残余运动。以霍金为例,他可以通过手指的运动控制虚拟键盘来打出他想表达的单词。但这种方式一分钟最多也只能打出8个单词。

也有一些尝试将口头语音(或尝试发出的语音)解码为文字,但迄今也仅限于对单音素或单音节的解码,在中等大小的文本(100个单词左右)上错误率往往高达60%以上。

Joseph 等人的这项工作,则直接将脑波几乎无延迟地准确转换为文本,对于瘫痪患者来说,无疑是一大福音。

总体思路

如前面所述,作者借用了自然语言处理领域的概念,在自然语言的机器翻译中,是将文本从一种语言翻译到另外一种语言。而脑波到文本,事实上也是类似的一种「翻译」过程。

从概念上讲,这两种场景的目标都是在两种不同表示之间建立映射关系。更具体地说,在这两种情况下,目的都是将任意长度的序列转换为任意长度的另一序列。这里需要重点强调一下「任意」,因为输入和输出序列的长度是变化的,并且彼此之间并不必须有确定性的一一对应关系。

在Joseph 等人的这项工作中,他们尝试一次解码一个句子,这和现在基于深度学习的端到端机器翻译算法类似。

两者相同的地方是,都会映射到相同类型的输出,即一个句子的词序列。不同之处在于,输入,机器翻译的输入是文本,而Joseph等人工作的输入是神经信号——受试者朗读句子,实验人员用高密度脑电图网格(ECoG grids)从参与者的大脑皮层处收集信号。

于是,对神经信号稍加处理后,便可以直接用 seq2seq架构的机器翻译模型进行端到端训练,基本不用进行改动。

在这项工作中,最难的是如何获取足够多的训练数据集。我们知道,机器翻译的数据集可以达到上百万规模,但这个实验中的每一个受试者顶多也就只能提供几千量级的数据。在这种训练数据稀少的背景下,为了充分利用端到端学习的好处,作者使用了一种只包含30~50个独立句子的受限“语言”。

模型

在这项研究中,为了收集输入数据,要求参与人员大声朗读句子,观察脑波活动。一组需要朗读的数据是图片描述,大概有30个句子,125个单词,另一组采用MOCHA-TIMIT语料数据库中的数据,以50个句子为一组,最后一组包含60个句子。

一共有四个参与者进行朗读,研究人员只考虑重复朗读三次的句子集,其中一次朗读的数据用于测试,两次用于训练。

参与者在大声朗读的时候,会产生脑电波,给参与人员插上电极之后,研究人员用高密度脑电图网格(ECoG grids)从参与者的大脑皮层处收集信号。

收集的脑电波信号和对应朗读的句子,会作为数据输入到“编码-解码”架构的人工神经网络。

如上图所示,人工神经网络对输入数据进行处理会经过三个阶段:

1、时间卷积:一些类似的特征可能会在脑电信号数据序列的不同点处重现,全连接的前馈神经网络显然无法处理。为了有效学习这种规律,网络以一定的步幅为间隔,对每个间隔应用相同的时间滤波器(temporally brief flter)。

2、编码器循环神经网络:经过时间卷积的处理会产生特征序列,把特征序列输入到编码器循环神经网络里面,然后,神经网络的隐藏层会提供整个序列的高维编码,这个编码与长度无关。

3、解码器循环神经网络:在解码阶段,重点将是高维序列“翻译”成一个单词。这时的循环神经网络会进行初始化,然后对每一步的单词进行预测,当预测结果是end-of-sequence token时,停止解码。

作者所使用的神经网络框架如下图所示:

训练整个网络的目标是接近MFCC(梅尔倒谱系数特征),MFCC能够引导神经网络产生良好的序列解码。但是在模型测试阶段,抛弃了MFCC,解码完全依靠解码器神经网络的输出。在模型训练中,随机梯度下降法贯穿训练的整个过程,所有的网络层都应用了dropout。

模型评估用错词率(The Word error rate, WER)量化,WER基本想法就是把正确答案和机器的识别结果排在一起,一个词一个词的对,把多出的词,遗漏的词和错误识别的词统统加在一起,算作错误,然后计算错误的词占实际单词总数的百分比。

经过验证,所有参与者的平均WER为33%,对比当前最先进的语音解码WER的60%,效果较好。

实验结果

作者在论文中一共进行了两个实验,一个是采取了类似“控制变量”的方法,看看为何这个模型表现如此优秀,另一个是通过迁移学习改善其他参与者的模型表现。

在“控制变量”实验中,作者重新训练网络,上图的第二个框是采用低密度脑图网格数据(lower-density ECoG grids)并进行下采样的性能。另外,作者只留下了1/4个通道,即只用了64个通道,而不是256个通道,此时的错词率比原先高出四倍。这意味着除了高密度脑电图网格,算法也非常重要。

第三个框是没有附加MFCC时的性能,错误率与低密度脑电图网格类似,但优于之前的语音解码尝试。

第四个框是采用全连接网络的结果,对于卷积网络,全连接的错词率比之前高了8倍。但是在实验中,作者发现,用全连接网络造成的错词率可以在高γ信号传递之前进行下采样解决。

最后,作者对重复实验是否影响错词率进行了量化。研究发现,当至少有15次重复训练时候,错词率可以到25%以下。

如上图所示,当训练次数很少的时候,参与者a和参与者b的解码性能很差,为了解决这个问题,作者尝试了迁移学习。

上图 a 中的第一个框用MOCHA-1数据训练的结果,错词率为53%。考虑网络第一次针对参与者b的更丰富的数据集进行预训练时的性能,这种迁移学习能使错词率降低约17%(上图a中的第一个框到第二个框所示)。

作者还考虑了一种组合形式的迁移学习,其中编码器-解码器网络根据参与者b的所有MOCHA-TIMIT数据进行预训练;然后针对参与者a的所有MOCHA-TIMIT数据进行训练,像往常一样在参与者a的MOCHA-1块上进行测试。这种“双重迁移学习”(图a,第四条框)使错词率比基线降低了36%,与任务迁移学习相比有所改善。

那么,改进是否以相反的方向转移,即从参与者a转移到参与者b,显然是可以的,正如上图b所示。

对于在MOCHA-TIMIT数据上表现最差的参与者d,将其余的MOCHAT句子添加到训练集并不能改善结果(如c图所示)。

讨论

很明显,这项研究最大的不足之处就是——数据集太小,仅250个单词,30~50个句子。

若想把这种技术扩展到通用自然语言上,则需要探索,到底需要多少数据才足够,以及如何才能获得足够的数据。

事实上,如果能够将脑电图网格(ECoG)长期插入受试者脑中,可用的训练数据量将比本实验(仅收集了半个小时的数据)大几个数量级。在实际应用中会遇到一些情况,有些人已经失去了说话能力,尽管如此,这种方法仍然可以适用,尽管性能会稍有下降。

这里,AI 科技评论还想强调的一点是:机器翻译的本质,就是从一种信息序列映射到另一种信息序列。特别是现在端到端的技术下,只要能够将你的问题换种表述方式,转换为序列到序列的映射问题,然后能收集到足够多的训练数据,那么都可以借用现有的机器翻译技术来做出巨大的改变。

【云栖号在线课堂】每天都有产品技术专家分享!
课程地址:https://yqh.aliyun.com/live

立即加入社群,与专家面对面,及时了解课程最新动态!
【云栖号在线课堂 社群】https://c.tb.cn/F3.Z8gvnK

原文链接
本文为云栖社区原创内容,未经允许不得转载。

【机器学习】脑机接口利器:错误率仅3%相关推荐

  1. 值得收藏!脑科学、脑机接口领域白皮书、研究报告汇总

    2021年全球脑科学发展报告 脑科学是生命科学最尖端.最前沿的领域,也是人类最难攻克的"科学堡垒"之一.但脑科学却是诸多前沿科技发展的基础,如人工智能.脑机接口.信息科学.仿生科学 ...

  2. 脑机接口(BCI)的研究方法

    " 嘘!悄悄插播的哦" (图1 BCIduino实物图) BCIduino 8通道脑电放大器具体参数如下: 输入阻抗:1TΩ 输入偏置电流:300pA 输入参考噪声:1μVpp 采 ...

  3. ​脑机接口(BCI)与人工智能:仅用思想来控制周围事物是什么感觉?

    作者:Nagesh Singh Chauhan,译者:YiYi 如今高新技术实验室里,每天都在上演人机交互的过程,最常见的,残疾人通过训练自己的思想来控制机器人的四肢.而人类期望有一天能够用我们的思想 ...

  4. 仅凭脑电波就能猜出密码?这款耳机暴露了脑机接口的大问题

    脑机接口听起来颇具未来感,Facebook和伊隆·马斯克的Neuralink都在进行相关研发,但是,其背后的隐私泄露问题也不容小觑,一款脑电波感应耳机就证明了这种风险的可能性. Epoc +是一款脑电 ...

  5. 为什么华为200万招聘AI博士,马斯克却推出脑机接口对抗AI?

    作者 | 伍杏玲 来源 | CSDN(ID:CSDNnews) 7 月,华为一则薪资通知刷爆朋友圈:华为给8位博士应届生给予 89.6 万至 201 万的年薪.其中薪资最高的两位博士均研究人工智能相关 ...

  6. 原创 | 脑机接口不断迎来重大突破,“思想钢印”还会远吗?

    一.脑机接口发展正在走向高潮 上个月,脑机接口领域再次迎来重大突破:使瘫痪者成功恢复运动能力,触觉准确率高达 90%. 4 月 23 日,<细胞>(Cell)杂志刊登了一篇来自美国俄亥俄州 ...

  7. 重磅!脑机接口突破登Nature封面,脑中“笔迹”转屏幕文字破纪录,准确率超99%...

    来源: 物联网之家 研究团队将人工智能软件与一款脑机接口设备结合起来,与一名大脑中植入脑机接口设备的瘫痪患者合作,让该患者想象他拿着一支笔,在一张横线纸上"尝试"写字,就像他的手没 ...

  8. 为什么华为 200 万招聘 AI 博士,马斯克却推出脑机接口对抗 AI?

    作者 | 伍杏玲 出品 | CSDN(ID:CSDNnews) 7 月,华为一则薪资通知刷爆朋友圈:华为给8位博士应届生给予 89.6 万至 201 万的年薪.其中薪资最高的两位博士均研究人工智能相关 ...

  9. 马斯克脑机接口、BrainOS相继发布,不努力也能有出路了

    作者 | 马超 责编 | Carol 封图 | CSDN 下载自视觉中国 在北京时间的8月29日凌晨,钢铁侠埃隆·马斯克投资1亿多美元的脑机接口初创公司公司Neuralink(http://www.n ...

最新文章

  1. 程序员节,10月24日!
  2. Scrapy002-框架安装
  3. 解决ie6、7 margin-bottom 失效问题
  4. 元素水平垂直居中的几种常用方法
  5. 一维数据高斯滤波器_透彻理解高斯混合模型
  6. ASP.NET Core 运行原理解剖[3]:Middleware-请求管道的构成
  7. 周敏教授计算机编码与密码学,中国科学院计算机与控制学院博士生导师:张玉清教授...
  8. java实验10流_实验9 Java输入输出流
  9. 属兔的人有什么缺点呢?
  10. tidb 架构~tidb 理论学习(1)
  11. Concrete Mathematics A Foundation for Computer Science
  12. 科学网—语音识别技术发展史
  13. 闲鱼面试官:Thread.sleep(0) 到底有什么用?我:有点懵~
  14. Microsoft visio 2013 professional破解软件
  15. JSON数组转LIST集合的两种方法
  16. verilog实现三人表决器
  17. 苹果开发者账号申请说明
  18. javaweb qq空间(博客)项目超详细开发套路原理分析
  19. Python3实现Two-Pass算法检测区域连通性
  20. vue2 与 vue3 生命周期对比

热门文章

  1. 蒙特卡洛分析_随机模拟:马尔科夫链蒙特卡洛采样MCMC与EM算法「2.3」
  2. python类实例化_python基础8之类的实例化过程剖析
  3. python logging使用_Python实战之logging模块使用详解
  4. python如何计算整数和_python 整数和浮点数
  5. C++中类和对象的一些注意事项 ---继承
  6. p50会搭载鸿蒙吗,华为Mate40和华为P50也会搭载鸿蒙,华为Mate30跌至白菜价让路
  7. 开发接口文档_更优更稳更好,看文档驱动开发模式在AIMS中的优势
  8. 美国顶尖大学的博士是怎样练成的?
  9. “杨振宁理论物理研究所”
  10. 组建实验室仅3年,团队人均26岁,这位85后女博导成果登上Nature!