来源:机器之心 & ArXiv Weekly Radiostation

参与:杜伟、楚航、罗若天

本周的重要论文包括来自微软 Cloud+AI 部门的 DeepDebug,一种使用大型预训练模型 transformer 进行自动调试的方法;UC 伯克利等机构提出的 APPS(Automated Programming Progress Standard),一个代码生成基准,该基准测试能够衡量模型的代码生成能力,并检查代码是否符合问题要求等研究。

目录:

  1. DeepDebug: Fixing Python Bugs Using Stack Traces, Backtranslation, and Code Skeletons

  2. Measuring Coding Challenge Competence With APPS

  3. DeepViT: Towards Deeper Vision Transformer

  4. ChoreoMaster: Choreography-Oriented Music-Driven Dance Synthesis

  5. One-Shot Voice Conversion Based on Speaker Aware Module

  6. UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning

  7. ERNIE-Doc: A Retrospective Long-Document Modeling Transformer

  8. ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)

论文 1:DeepDebug: Fixing Python Bugs Using Stack Traces, Backtranslation, and Code Skeletons

  • 作者:Dawn Drain、Colin B. Clement、Guillermo Serrato、Neel Sundaresan

  • 链接:https://arxiv.org/pdf/2105.09352.pdf

摘要:本地化 Bug 并修复程序是软件开发过程中的重要任务。在本篇论文中,来自微软 Cloud+AI 部门的研究者介绍了 DeepDebug,一种使用大型预训练模型 transformer 进行自动调试的方法。研究者基于 20 万个库中的函数训练了反向翻译模型。接下来,他们将注意力转向可以对其执行测试的 1 万个库,并在这些已经通过测试的库中创建所有函数的 bug 版本。这些丰富的调试信息,例如栈追踪和打印语句,可以用于微调已在原始源代码上预训练的模型。最后,研究者通过将上下文窗口扩展到 bug 函数本身外,并按优先级顺序添加一个由该函数的父类、导入、签名、文档字符串、方法主体组成的框架,从而增强了所有模型。

在 QuixBugs 基准上,研究者将 bug 的修补总数增加了 50%以上,同时将误报率从 35%降至 5%,并将超时从 6 小时减少到 1 分钟。根据微软自己的可执行测试基准,此模型在不使用跟踪的情况下首次修复了 68%的 bug;而在添加跟踪之后,第一次尝试即可修复 75%的错误。

训练 pipeline。

推荐:bug 的修补总数增加了 50%以上,误报率从 35%降至 5%,超时从 6 小时减少到 1 分钟。

论文 2:Measuring Coding Challenge Competence With APPS

  • 作者:Dan Hendrycks、Steven Basart、Saurav Kadavath、Mantas Mazeika、Akul Arora、Ethan Guo、Collin Burns、Samir Puranik、Horace He、Dawn Song、Jacob Steinhardt

  • 链接:https://arxiv.org/pdf/2105.09938.pdf

摘要:随着深度学习的兴起,AI 让许多行业实现了自动化,包括将 AI 用于编程。人们在编程时通常会使用大量的有意识和潜意识思维机制发现新问题并探索不同的解决方案,然而大多数机器学习算法都需要定义明确的问题和大量带有注释的数据才能够开发出解决相同编程问题的模型,因此用 AI 编程并非易事。此外,准确地评估模型的代码生成性能可能是很困难的,并且很少有既灵活又严格的方式来评估代码生成的研究。

基于此,来自 UC 伯克利等机构的研究者提出了 APPS(Automated Programming Progress Standard),一个代码生成基准,该基准测试能够衡量模型的代码生成能力,并检查代码是否符合问题要求。与公司评估候选软件开发人员的方式类似,该研究通过检查生成的代码在测试用例上的结果来评估模型。基准测试包括 10,000 个问题,包含单行代码解决的简单问题和具有大量代码的复杂算法挑战等多多种问题。上述 AI 生成代码示例在 APPS 数据集中被视为「面试级别」的问题。

AI 的解答代码。

推荐:程序员终究卷到了自家?

论文 3:DeepViT: Towards Deeper Vision Transformer

  • 作者:Daquan Zhou、Bingyi Kang、Xiaojie Jin、Linjie Yang、Xiaochen Lian、Zihang Jiang、Qibin Hou、Jiashi Feng

  • 链接:https://arxiv.org/pdf/2103.11886.pdf

摘要:视觉 transformer (ViT) 现已成功地应用于图像分类任务。近日,来自新加坡国立大学和字节跳动美国 AI Lab 的研究者表明,不同于卷积神经网络通过堆叠更多的卷积层来提高性能,ViT 的性能在扩展至更深时会迅速饱和。具体而言,研究者根据经验观察到,这种扩展困难是由注意力崩溃(attention collapse)引起的:随着 Transformer 加深,注意力图在某些层之后逐渐变得相似甚至几乎相同。换句话说,在 deep ViT 模型的顶层中,特征图趋于相同。这一事实表明,在更深层的 ViT 中,自注意力机制无法学习有效的表征学习概念,并且阻碍了模型获得预期的性能提升。

基于以上观察,研究者提出了一种简单而有效的方法 Re-attention,它可以忽略计算和存储成本重新生成注意力图以增加其在不同层的多样性。借助于该方法,我们可以通过对现有 ViT 模型的微小修改来训练具有持续性能改进的更深的 ViT 模型。此外,当使用 32 个 transformer 块训练 DeepViT 模型时,在 ImageNet 数据集上实现了颇具竞争力的 Top-1 图像分类准确率。相较于 ViT-32B, 变体模型 DeepViT-32B 的 Top-1 准确率提升了 1.6%。

具有 N 个 transformer 块的原版 ViT 模型与该研究所提 DeepViT 模型的结构对比。

推荐:相较于 ViT-32B, 变体模型 DeepViT-32B 的 Top-1 图像分类准确率提升了 1.6%。

论文 4:ChoreoMaster: Choreography-Oriented Music-Driven Dance Synthesis

  • 作者:Kang Chen、Zhipeng Tan、Jin Lei、Song-Hai Zhang、Yuan-Chen Guo、Weidong Zhang、Shi-Min Hu

  • 链接:https://netease-gameai.github.io/ChoreoMaster/Paper.pdf

摘要:舞蹈动画在游戏和影视行业已非常普遍,目前业内制作舞蹈动画大多采用的是手 K 或动捕,生产一段高质量的舞蹈动画依然需要耗费大量的时间和精力。因此 AI 合成舞蹈成为时下热门的研究课题。但舞蹈作为一种独立的艺术形式,其动作与配乐在风格、节奏和结构等方面无一不透露出编舞学的专业知识,想要稳定输出高质量的结果并非易事。尽管业界也曾出现过多项红极一时的研究成果,如 AI Choreographer 和 DanceNet3D,然而这些方案并未落地于实际商业生产应用。

历经两年多的潜心研发,网易互娱 AI LAB 的研发团队提出了符合实际生产环境应用要求的 AI 舞蹈动画合成方案 ChoreoMaster。该方案的亮点在于:除了能够快速稳定地输出一段符合编舞美学、符合多种舞种风格、连贯自然的舞蹈动画以外,还灵活支持丰富的约束方式来指导算法按照用户期望的方向合成舞蹈动画,如可替换或删除指定片段、预设舞蹈轨迹和限制舞蹈范围等。

ChoreoMaster 的技术方案。

推荐:全球首个落地的舞蹈动画合成系统,入选 SIGGRAPH 2021。

论文 5:One-Shot Voice Conversion Based on Speaker Aware Module

  • 作者:Ying Zhang、Hao Che、Jie Li、Chenxing Li、Xiaorui Wang、Zhongyuan Wang

  • 链接:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9414081

摘要:语音转换(VC)是指在保证一句话内容不变的基础上,将原始语音中说话人音色迁移到目标说话人音色。语音转换在电影配音、角色模仿以及复刻人物音色等方面都有重要的应用。当前基于深度学习实现到特定目标说话人的语音转换已经取得很大的进步,例如基于 CycleGAN、VAE 以及 ASR 的语音转换方法都可以很好的实现到训练集内说话人的语音转换。然而,如果想要增加一个目标说话人音色,或者进行用户音色的自定义复刻,通常需要大量的说话人数据以重新训练一个以该说话人音色为目标音色语音转换模型,或者通过少量数据对现有模型进行自适应训练。实际应用中,数据库录制的周期和成本都比较高,而对于普通用户而言,也很难获得用户大量的语音数据。因此,小数据的语音转换成为亟待解决的热点问题。而来自快手负责音频技术研发部门 MMU 的研发人员提出了一种基于说话人感知模块(SAM)的单样本语音转换的解决方案。该方案仅通过说话人的单句语音样本提取用户的音色表征,就可以实现该说话人作为目标说话人音色的语音转换。

说话人感知语音转换(SAVC)系统架构。

推荐:一句话复制你的音色,已被 ICASSP 2021 接收。

论文 6:UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning

  • 作者:Wei Li、Can Gao、Guocheng Niu、Xinyan Xiao、Hao Liu、Jiachen Liu、Hua Wu、Haifeng Wang

  • 链接:https://arxiv.org/abs/2012.15409

摘要:大数据是深度学习取得成功的关键基础之一。当前的预训练方法,通常分别在各种不同模态数据上分别进行,难以同时支持各类语言和图像的任务。基于深度学习的 AI 系统是否也能像人一样同时学习各种单模、多模等异构模态数据呢?如果能够实现,无疑将进一步打开深度学习对大规模数据利用的边界,从而进一步提升 AI 系统的感知与认知的通用能力。

为此,语言与视觉一体的模型 ERNIE-UNIMO 提出统一模态学习方法,同时使用单模文本、单模图像和多模图文对数据进行训练,学习文本和图像的统一语义表示,从而具备同时处理多种单模态和跨模态下游任务的能力。此方法的核心模块是一个 Transformer 网络,在具体训练过程中,文本、图像和图文对三种模态数据随机混合在一起,其中图像被转换为目标(object)序列,文本被转换为词(token)序列,图文对被转换为目标序列和词序列的拼接。统一模态学习对三种类型数据进行统一处理,在目标序列或者词序列上基于掩码预测进行自监督学习,并且基于图文对数据进行跨模态对比学习,从而实现图像与文本的统一表示学习。进一步的,这种联合学习方法也让文本知识和视觉知识互相增强,从而有效提升文本语义表示和视觉语义表示的能力。此方法在语言理解与生成、多模理解与生成,4 类场景、共 13 个任务上超越主流的文本预训练模型和多模预训练模型,同时登顶权威视觉问答榜单 VQA、文本推理榜单 aNLI。

UNIMO 学习架构。

推荐:首次验证了通过非平行的文本与图像单模数据,能够让语言知识与视觉知识相互增强。

论文 7:ERNIE-Doc: A Retrospective Long-Document Modeling Transformer

  • 作者:Siyu Ding、Junyuan Shang、Shuohuan Wang、Yu Sun、Hao Tian、Hua Wu、Haifeng Wang

  • 链接:https://arxiv.org/abs/2012.15688

摘要:Transformer 是 ERNIE 预训练模型所依赖的基础网络结构,但由于其计算量和空间消耗随建模长度呈平方级增加,导致模型难以建模篇章、书籍等长文本内容。受到人类先粗读后精读的阅读方式启发,ERNIE-Doc 首创回顾式建模技术,突破了 Transformer 在文本长度上的建模瓶颈,实现了任意长文本的双向建模。通过将长文本重复输入模型两次,ERNIE-Doc 在粗读阶段学习并存储全篇章语义信息,在精读阶段针对每一个文本片段显式地融合全篇章语义信息,从而实现双向建模,避免了上下文碎片化的问题。此外,传统长文本模型(Transformer-XL 等)中 Recurrence Memory 结构的循环方式限制了模型的有效建模长度。ERNIE-Doc 将其改进为同层循环,使模型保留了更上层的语义信息,具备了超长文本的建模能力。

ERNIE-Doc 显著提升了长文本的建模能力,可以解决很多传统模型无法处理的应用难题。例如在搜索引擎中,ERNIE-Doc 可以对网页整体理解,返回用户更加系统的结果。在智能创作中,ERNIE-Doc 可以用来生成更加长篇、语义丰富的文章。超长文本理解模型 ERNIE-Doc 在包括阅读理解、信息抽取、篇章分类、语言模型等不同类型的 13 个典型中英文长文本任务上取得最优的效果。

ERNIE-Doc 中的回顾式建模与增强记忆机制。

篇章重排序学习。

推荐:实现双向建模,显著提升了长文本的建模能力。

本周 10 篇 NLP 精选论文是:

1. Extending rational models of communication from beliefs to actions.  (from Thomas L. Griffiths)

2. True Few-Shot Learning with Language Models.  (from Kyunghyun Cho)

3. Measuring Fine-Grained Domain Relevance of Terms: A Hierarchical Core-Fringe Approach.  (from Kevin Chen-Chuan Chang, Wen-mei Hwu)

4. Neural Machine Translation with Monolingual Translation Memory.  (from Deng Cai)

5. Dynamic Semantic Graph Construction and Reasoning for Explainable Multi-hop Science Question Answering.  (from Deng Cai)

6. Prosodic segmentation for parsing spoken dialogue.  (from Mark Steedman)

7. Retrieval Enhanced Model for Commonsense Generation.  (from Yang Liu)

8. Distantly-Supervised Long-Tailed Relation Extraction Using Constraint Graphs.  (from Yang Liu)

9. Unsupervised Sentiment Analysis by Transferring Multi-source Knowledge.  (from Jian Liu)

10. Focus Attention: Promoting Faithfulness and Diversity in Summarization.  (from Ryan McDonald)

本周 10 篇 CV 精选论文是:

1. ADNet: Attention-guided Deformable Convolutional Network for High Dynamic Range Imaging.  (from Jian Sun)

2. PSGAN++: Robust Detail-Preserving Makeup Transfer and Removal.  (from Shuicheng Yan)

3. Human-centric Relation Segmentation: Dataset and Solution.  (from Shuicheng Yan)

4. PLM: Partial Label Masking for Imbalanced Multi-label Classification.  (from Mubarak Shah)

5. Intriguing Properties of Vision Transformers.  (from Ming-Hsuan Yang)

6. Unsupervised Part Segmentation through Disentangling Appearance and Shape.  (from Lei Zhang)

7. Recent Standard Development Activities on Video Coding for Machines.  (from Wen Gao)

8. ViPNAS: Efficient Video Pose Estimation via Neural Architecture Search.  (from Xiaogang Wang)

9. WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection.  (from Kai Chen)

10. Few-Shot Learning with Part Discovery and Augmentation from Unlabeled Images.  (from Liang Wang, Tieniu Tan)

本周 10 篇 ML 精选论文是:

1. Comment on Stochastic Polyak Step-Size: Performance of ALI-G.  (from Andrew Zisserman)

2. DiBS: Differentiable Bayesian Structure Learning.  (from Bernhard Schölkopf, Andreas Krause)

3. A Robust and Generalized Framework for Adversarial Graph Embedding.  (from Philip S. Yu)

4. Anomaly Detection in Predictive Maintenance: A New Evaluation Framework for Temporal Unsupervised Anomaly Detection Algorithms.  (from Francisco Herrera)

5. Robust Value Iteration for Continuous Control Tasks.  (from Shie Mannor, Jan Peters, Dieter Fox)

6. A Precise Performance Analysis of Support Vector Regression.  (from Mohamed-Slim Alouini)

7. Trimming Feature Extraction and Inference for MCU-based Edge NILM: a Systematic Approach.  (from Luca Benini)

8. ReduNet: A White-box Deep Network from the Principle of Maximizing Rate Reduction.  (from John Wright)

9. Causally Constrained Data Synthesis for Private Data Release.  (from Somesh Jha)

10. Robust learning from corrupted EEG with dynamic spatial filtering.  (from Alexandre Gramfort)

重磅!DLer-AI顶会交流群已成立!

大家好,这是DLer-AI顶会交流群!首先非常感谢大家的支持和鼓励,欢迎各位加入DLer-AI顶会交流群!本群旨在学习交流人工智能顶会(CVPR/ICCV/ECCV/NIPS/ICML/ICLR/AAAI等)、顶刊(IJCV/TPAMI/TIP等)写作与投稿事宜。包括第一时间发布论文信息和公开演讲视频,以及各大会议的workshop等等。希望能给大家提供一个更精准的研讨交流平台!!!

添加请备注:AI顶会+学校/公司+昵称(如CVPR+上交+小明)

???? 长按识别添加,即可进群!

7 Papers Radios | Transformer自动debug;AI合成舞蹈落地应用相关推荐

  1. 不如跳舞:AI自动合成舞蹈视频

    这是我用PaddleHub完成的一个小项目 能干什么:合成舞蹈视频,鬼畜或恶搞同伴的不二选择 什么样的视频:给一段舞蹈视频和一张某某全身照片,合成一段他/她跳舞的视频. 看效果:点这里 更详细的内容欢 ...

  2. 在OpenShift平台上验证NVIDIA DGX系统的分布式多节点自动驾驶AI训练

    在OpenShift平台上验证NVIDIA DGX系统的分布式多节点自动驾驶AI训练 自动驾驶汽车的深度神经网络(DNN)开发是一项艰巨的工作.本文验证了DGX多节点,多GPU,分布式训练在DXC机器 ...

  3. 打造新华社「AI合成主播」的“分身术”为何物?

    刚刚火了没几年的主播这一职业,已经面临沦陷的危险,当然,沦陷的不只是主播. 11月7日,在第五届世界互联网大会上,惊现全球首个「AI合成主播」,AI合成主播可以模仿真实主播的音容笑貌,就连在发布会现场 ...

  4. 搜狗发布全球首个手语AI合成主播,用技术造福听障人群

    晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI 看央视新闻,你一定对"段子手"朱广权逼疯手语老师的画面印象深刻吧. 手语新闻帮助听障人群更好地了解这个世界. 可是你有没 ...

  5. 全球首个AI合成主播发布,效果以假乱真!揭秘背后技术原理

    边策 李根 发自 凹非寺  量子位 报道 | 公众号 QbitAI 搜狗又在乌镇世界互联网大会上搞了大新闻. 2016年,王小川在正式论坛里秀出AI同传,那是机器实时翻译技术,首次在高规格国际会议上实 ...

  6. 走向大模型、大算力、大数据:特斯拉与毫末的自动驾驶AI路径寻踪

    2022行至年终,各种年度总结也纷至沓来.要说最近的大事件,一定少不了:自动驾驶又双叒寒冬了. 大量"报忧不报喜"的新闻,说明2022年自动驾驶行业确实出现了一定程度的波动:激光雷 ...

  7. 搜狗分身技术再进化,让AI合成主播“动”起来

    整理 | 一一 出品 | AI科技大本营 去年 11 月的互联网大会期间,搜狗与新华社联合发布全球首个AI合成主播一经亮相,引起了人们对"AI+媒体"的广泛讨论.如今,搜狗 AI ...

  8. 为什么说特斯拉研发自动驾驶AI芯片应该引起注意?

    来源:36Kr 概要:对于特斯拉而言,研发这款芯片+配套算法本质上还是对率先将自动驾驶汽车商业化节点的争夺. 特斯拉Model 3的量产问题仍未彻底解决,CEO Elon Musk又抛出了自研自动驾驶 ...

  9. 如何自动将AI Studio中的GIF文件上载到CSDN?

    ▲ 图1 旋转的数字 简 介: 本文给出了自动将AI Studio工作环境中的GIF目录下的动图图片完成压缩,下载并上载到CSDN的整个过程.给出了实现的详细代码.利用这个工具便可以完成更加丰富多彩的 ...

最新文章

  1. 73. 解决ExtJS TreePanel 的 iconCls设置问题
  2. 常量指针与指针常量的区别(转帖)
  3. matlab 计算 工程,matlab工程计算.doc
  4. 接口测试-接口定义功能-前端-实现动态增删表单
  5. linux shell脚本 检查IP地址格式
  6. Leetcode:Longest Substring Without Repeating Characters分析和实现
  7. 洛谷P1605 迷宫【dfs】
  8. Git 下载与安装教程
  9. 果木浪子吉他入门零基础教学(70课时)
  10. cs架构的软件中服务器作用,cs架构(cs架构基本原理)
  11. markdown学习笔记——字体/分割线/删除线/下划线
  12. 苹果电脑虚拟键盘怎么打开
  13. 梯度下降的超参数大于等于2什么意思_大白话5分钟带你走进人工智能-第七节梯度概念和梯度迭代过程(2)...
  14. 看 Go 中的 struct 如何被优化,还有小插曲
  15. 对IOC和DI的通俗理解
  16. 人生就是不停的战斗————九把刀北大演讲 转载自豆瓣网友“此间的少年”
  17. c语言 类void 方法 字节大小,C 语言数据类型
  18. rust使用睡袋_rust怎么弄睡袋 | 手游网游页游攻略大全
  19. 【Grammar】in 和 within 用法和区别
  20. vivado设计4bit先行进位加法器 并使用 4bit CLA 组合设计一个 16bit 加法器

热门文章

  1. L2-002. 链表去重
  2. AJAXControlToolkit-Framework3.5SP1 下载地址
  3. 用Python解“分段计算居民水费”题
  4. 语音识别Kaldi开源
  5. 2021,让 AI 不再野蛮生长
  6. 万字干货 | 一文揭秘Presto在腾讯资讯业务中的应用
  7. 欢迎大家观顾【图灵教育社区】
  8. 死鱼——--摘自《项目百态:深入理解软件项目行为模式 》
  9. 图灵五周年真情回馈广大读者,多种买赠活动等着您
  10. 数据分享 | LSTM神经网络架构和原理及其在Python中的预测应用(附视频)