机器之心整理

参与:一鸣、杜伟

本周重要论文很多,特别是谷歌的研究非常耀眼,有量子霸权论文和参数小 BERT 很多但性能超 XLNe 的模型 ALBERTt。此外还有北大等的论文。

目录:

Gate Decorator: Global Filter Pruning Method for Accelerating Deep Convolutional Neural Networks

InterpretML: A Unified Framework for Machine Learning Interpretability

ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS

Language Models as Knowledge Bases?

Deep Learning For Symbolic Mathematics

Quantum Supremacy Using a Programmable Superconducting Processor

Do Massively Pretrained Language Models Make Better Storytellers?

论文 1:Gate Decorator: Global Filter Pruning Method for Accelerating Deep Convolutional Neural Networks

作者:Zhonghui You、Kun Yan、Jinmian Ye、Meng Ma、Ping Wang

论文链接:https://arxiv.org/abs/1909.08174

摘要:对滤波器进行剪枝是一种最为有效的、用于加速和压缩卷积神经网络的方法。在这篇论文中,来自北大的研究者提出了一种全局滤波器剪枝的算法,名为「门装饰器(gate decorator)」。这一算法可以通过将输出和通道方向的尺度因子(门)相乘,进而改变标准的 CNN 模块。当这种尺度因子被设 0 的时候,就如同移除了对应的滤波器。研究人员使用了泰勒展开,用于估计因设定了尺度因子为 0 时对损失函数造成的影响,并用这种估计值来给全局滤波器的重要性进行打分排序。接着,研究者移除哪些不重要的滤波器。在剪枝后,研究人员将所有的尺度因子合并到原始的模块中,因此不需要引入特别的运算或架构。此外,为了提升剪枝的准确率,研究者还提出了一种迭代式的剪枝架构——Tick-Tock。

图 1:滤波器剪枝图示。第 i 个层有 4 个滤波器(通道)。如果移除其中一个,对应的特征映射就会消失,而输入 i+1 层的通道也会变为 3。

图 2:Tick-Tock 剪枝框架图示。

图 3:组剪枝展示。同样颜色的 GBN 属于同一组。

推荐:本文是北大和 Momenta 的一篇论文,借用 LSTM 的门控制思想对神经网络进行剪枝,是一种新颖的剪枝方法,读者朋友可借鉴。

论文 2:InterpretML: A Unified Framework for Machine Learning Interpretability

作者:Harsha Nori、Samuel Jenkins、Paul Koch、Rich Caruana

论文链接:https://arxiv.org/abs/1909.09223v1

摘要:InterpretML 是一个为实践者和研究者提供机器学习可解释性算法的开源 Python 软件包。InterpretML 能提供以下两种类型的可解释性:(1)明箱(glassbox),这是针对可解释性设计的机器学习模型(比如线性模型、规则列表、广义相加模型);(2)黑箱(blackbox)可解释技术,用于解释已有的系统(比如部分依赖、LIME)。这个软件包可让实践者通过在一个统一的 API 下,借助内置的可扩展可视化平台,使用多种方法来轻松地比较可解释性算法。InterpretML 也包含了可解释 Boosting 机(Explanable Boosting Machine,EBM)的首个实现,这是一种强大的可解释明箱模型,可以做到与许多黑箱模型同等准确的性能。

软件架构和代码

推荐:本文是微软开源工具的论文,用于帮助人们使用科技史的模型进行机器学习。

论文 3:ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS

作者:谷歌团队

论文链接:https://openreview.net/pdf?id=H1eA7AEtvS

摘要:通常而言,在预训练自然语言表征时增加模型大小可以提升模型在下游任务中的性能。但在某些情况下,由于 GPU/TPU 内存限制、训练时间延长以及意外的模型退化等原因,进一步增加模型大小的难度也随之增加。所以,为了解决这些问题,来自谷歌的研究者提出通过两种参数削减(parameter-reduction)技术来降低内存消耗,加快 BERT 的训练速度。综合实验表明,ALBERT 的扩展效果要优于原始 BERT。此外,他们还使用了聚焦于句间连贯性建模的自监督损失,并证明这种损失对下游任务中的多语句输入有持续帮助。ALBERT 模型在 GLUE、RACE 和 SQuAD 基准测试上都取得了新的 SOTA 效果,并且参数量少于 BERT-large。

表 2:本文中用到的 BERT 和 ALBERT 模型配置。

推荐:虽然大型预训练语言模型在很多 NLP 任务上取得了进展,但压缩参数一直是研究者的目标。谷歌团队这回再次发力,将 BERT 进行了明显的参数缩减,但依然超越了现有的 SOTA——XLNet 模型。这一论文值得读者阅读。

论文 4:Language Models as Knowledge Bases?

作者:Fabio Petroni、Tim Rocktaschel、Patrick Lewis、Anton Bakhtin1Yuxiang Wu、Alexander H. Miller、Sebastian Riedel

论文地址:https://arxiv.org/abs/1909.01066v2

摘要:近来在大型与来哦中预训练的语言模型帮助 NLP 下游任务提升了性能表现。当学习语言知识的同时,这些模型可能存储了训练集中的关联知识,可以回答一些填空方面的问题。

作为结构化的知识基础,语言模型有很多优势:它们不需要抽取工程,使得使用者可以获得开放的关系类别,也可以容易地扩展更多数据,也不需要监督训练。本文中,研究者探究了一系列 SOTA 语言模型在不微调的情况下作为关系知识表示的能力。

语言模型作为知识表示的方法。

推荐:本文分析了语言模型作为关系知识表示的能力,为下一步利用预训练模型进行知识推理和问答的研究提供了一些思路。

论文 5:Deep Learning For Symbolic Mathematics

作者匿名

论文地址:https://openreview.net/forum?id=S1eZYeHFDS eId=S1eZYeHFDS

摘要:神经网络在解决统计或拟合问题时较计算和解决符号数据更为优秀。在本文中,研究者表明,神经网络在解决一些复杂的数学问题上表现很好,例如符号积分和解决微分方程。研究者提出了一种语法,可以表示这些数学问题,以及一种用于生成大数据集的方法,用于训练一个 seq2seq 模型。研究者提出的方法在表现上超过了商业代数计算软件的性能,如 Matlab 或 Mathematica。

推荐:神经网络强大的拟合能力使其在机器学习中占有一席之地。本文创新性地使用神经网络拟合数学问题,且计算速度很快。

论文 6:Quantum Supremacy Using a Programmable Superconducting Processor

作者:Eleanor G. Rieffel

论文地址:https://drive.google.com/file/d/19lv8p1fB47z1pEZVlfDXhop082Lc-kdD/view

摘要:量子计算机的诱人前景在于量子处理器上执行某项计算任务的速度要比经典处理器快指数倍,而根本性的挑战是构建一个能够在指数级规模的计算空间中运行量子算法的高保真度处理器。在这篇论文中,谷歌研究者使用具有可编程超导量子比特的处理器来创建 53 量子比特的量子态,占据了 2^53 10^16 的状态空间。重复性实验得到的测量值对相应的概率分布进行采样,并利用经典模拟加以验证。

谷歌的量子处理器大约只需 200 秒即可对量子电路采样 100 万次,而当前最优的超级计算机完成同样的任务大约需要 1 万年。

图 1:Sycamore 量子处理器。a. 该处理器的布局,有 54 个量子比特,每个量子比特用耦合器(蓝色)与四个最近的量子比特相连;b. Sycamore 芯片的光学图像。

推荐:本文昭示着量子计算领域的进一步发展,为量子计算的实际应用奠定了研究基础。论文依旧是谷歌相关团队,足见其科研实力强大。

论文 7:Do Massively Pretrained Language Models Make Better Storytellers?

作者:Abigail See、Aneesh Pappu、Rohun Saxena、 Akhila Yerukola、 Christopher D. Manning

论文地址:https://arxiv.org/pdf/1909.10705

摘要:在大量文本上训练过的大型神经语言模型在很多种 NLP 任务上都取得了很好的表现。但是,这些模型在自然语言生成任务上的能力依然不够明确。一些线索说明这些模型可以生成高质量文本,但是并没有关于这些模型生成能力的具体研究。本文中,研究者对比了这些预训练模型,包括 GPT2-117 和现在的神经故事生成模型。通过多种指标评估生成文本后,研究人员发现了一些可以很好生成故事的模型,以及一些表现不太好的模型。研究人员表示,虽然 GPT2-117 在语境上更好,对事件的顺序更敏感,而且使用了更多不常用的词汇,但是它在使用最大似然解码算法时只能生成重复的、没有多样性的文本。

不同模型生成的故事文本。

推荐:预训练语言模型能讲好故事吗?本文说明:依然不能。故事不仅关乎语法和语序,还有隐式地表意和情感信息和额外的先验知识作为基础。目前很多文本生成的模型仅仅只是继续续写文本而已,它们既没有理解文本的含义,也无法组织起连贯有趣的语言。

谷歌量子霸权论文;13项NLP任务夺冠的小模型ALBERT相关推荐

  1. 微软量子论文撤稿,谷歌“量子霸权”受质疑,量子计算的狂热需一盆冷水清静

    1.前序 从谷歌实现所谓的"量子霸权(Quantum supremacy)"开始,量子计算的狂热就扶摇直上. 无论知道量子计算本身的来龙去脉与否,量子计算机以万亿倍速度超越经典计算 ...

  2. 中科院团队用算法追上谷歌“量子霸权”:谷歌量子处理器并没有比E级超算快...

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 边策 发自 凹非寺 量子位 报道 | 公众号 QbitAI 两年前, ...

  3. 国内首家!平头哥宣布开源RISC-V内核MCU芯片设计平台;IBM驳斥谷歌量子霸权主张;Facebook将赔偿350亿美元……...

    关注并标星星CSDN云计算 极客头条:速递.最新.绝对有料.这里有企业新动.这里有业界要闻,打起十二分精神,紧跟fashion你可以的! 每周两次,打卡即read 更快.更全了解泛云圈精彩news g ...

  4. 陀螺问答TOP 10 周榜单(9.23-9.29):币圈暴跌是否与谷歌量子霸权有关?

    近日,陀螺财经App推出了全新功能"陀螺问答",为用户首创向KOL单独提问的机会,一对一问答,满足用户个性化深度交互的需求. 截止目前,"陀螺问答"已接收到70 ...

  5. 200秒=超算1万年,谷歌实现“量子霸权”论文上架随即被撤回,引发全球热议...

    边策 栗子 发自 凹非寺 量子位 出品 | 公众号 QbitAI 量子计算机用3分20秒完成的一项计算,全球最强大的超算Summit要花1万年. 这个成果,来自谷歌最新的量子计算研究,发表在NASA官 ...

  6. 碾压谷歌量子霸权!中国量子计算原型机 九章 问世,比超级计算机快百万亿倍...

    量子优越性实验并不是一个一蹴而就的工作. " 作者 | 李帅飞 在量子计算领域,我国再次实现了里程碑式的重大突破! 12 月 4 日,中国科学技术大学宣布,该校中国科学技术大学潘建伟.陆朝阳 ...

  7. 从想法到实干,2018年13项NLP绝美新研究

    https://www.toutiao.com/a6638865460580319757/ 机器之心 2018-12-25 17:48:38 在即将过去的 2018 年中,自然语言处理有很多令人激动的 ...

  8. 重大突破!中国量子计算机“九章”问世!速度超谷歌“量子霸权”100亿倍

    今日,潘建伟团队量子计算原型机"九章"问世,实现"量子霸权". 去年美国谷歌曾经推出了一台量子计算原型机"悬铃木",当时国际科学界都给予很大 ...

  9. 谷歌正式宣称“量子霸权”:意义堪比莱特兄弟的第一次飞行

    谷歌研究人员宣布成功演示"量子霸权" 来源:视觉中国 据新华社10月23日消息,谷歌的<使用可编程超导处理器达到的量子霸权>论文以封面重磅的形式在英国<自然> ...

最新文章

  1. 【CVPR 2022】只用一张图+相机走位,AI就能脑补周围环境
  2. MySQL数据库触发器(trigger)
  3. jquery_jquery插件、jqueryUI使用方法、自定义jquery插件(一个插件其实就是一个功能)...
  4. Oracle SQL Developer - 智能提示
  5. [BUUCTF-pwn]——suctf_2018_stack
  6. [力扣]1018_可被5整除的二进制前缀
  7. 图像无损、有损压缩方法调研
  8. 【转】win32 的DLL中创建windows窗口
  9. exp/imp迁移表
  10. Docker网络基础---Docker跨主机容器访问通信
  11. PTES_Technical_Guidelines(渗透测试执行标准)
  12. Excel-甘特图制作
  13. post 防篡改_Cookie防篡改机制
  14. 东方幻想乡/BadApple!!
  15. Mac 移动硬盘突然自己异常退出了(一)
  16. Linux系统磁盘大小比raid小,挂载磁盘阵列柜后,显示的大小比实际小1TB
  17. 计算机科学与技术学业目标,计算机科学与技术专业本科培养目标及要求.doc
  18. SQL Server安全模型让管理员远离噩梦
  19. 2021-09-04 WPF上位机通用框架平台实战-设备编辑
  20. 【docker】啊嗷嗷暗暗啊

热门文章

  1. [na]vrrp两用(网关冗余+服务器热备)
  2. JAVA Web.xml 加载顺序
  3. protobuf生成
  4. Linux中的进程创建函数fork
  5. OpenStack发布最新版本Ocata
  6. 如何让编码更加的标准
  7. 数据仓库专题(23):总线矩阵的另类应用-Drill Down into a More Detailed Bus Matrix
  8. Android Sdcard 可用空间大小
  9. Linux 软件管理工具之rpm、yum
  10. 判斷字符串中是否含有中文字符