文 | Sherry

回归测试

熟悉软件工程的小伙伴们一定知道回归测试:修改了旧代码后,重新进行测试以确认修改没有引入新的错误或导致其他代码产生错误。

它可以大幅降低系统测试、维护升级等阶段的成本。

随着深度学习网络的不断发展,越来越多的系统都得到了广泛的工业界应用。长期的系统维护就显得格外重要了。

一方面,大家在用更大的模型,更多的数据不断提高SOTA效果;但同时,模型缺乏可解释性,同时也很难将大型神经网络分解为小单元去进行回归测试。往往,更新到新版本模型引入了更多的错误就会让模型准确率提高的优势消耗殆尽。

举个简单的例子,假设iPhone将人脸识别模型的准确率从90%提高到93%,新版本的模型纠正了旧模型中4%的问题但是新引入了1%的错误。按国内iPhone有7.3亿部手机用户来算,这意味着系统更新后,有7300万用户发现人脸识别不好用了。

这将导致严重的用户投诉,或者拒绝在以后继续更新系统。

Amazon的研究团队在实际应用中发现了这个问题,便在NLP领域提出了针对模型版本更新会引入新bug这个问题,并且在分类问题上进行了实验。文章被收录到ACL 2021 long Paper.

论文题目:
Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing Regressions In NLP Model Updates

论文链接:
https://arxiv.org/abs/2105.03048

如何测量回归错误

在这个任务设定中,我们考虑在一个固定的数据集和任务上训练模型,目标是在给定一个旧模型的基础上,训练一个和这个旧模型比较起来回归错误尽量小且准确率不受过多损失的新模型。想要解决回归错误的问题,我们首先需要一个指标来衡量两个不同版本模型的回归错误量。

在分类问题上,定义某个“回归测试集”上样本的负翻转率(Negative Flip Rate)为回归错误的指标:对于每个回归测试集中的每个样本,如果旧模型预测正确而新模型预测错误,我们就把这些样本称作负翻转样本,而回归测试集中的负翻转样本所占比例就是在这个回归测试上,从该旧模型更新到该新模型的负翻转率,或者说回归错误率:

通常,回归测试集可以根据不同的测试需要,进行不同的设计。比如可以像归回测试中收集或选取一些关键样例组成回归测试集,或者是收集一部分用户反馈的常见错例,又或是直接选用数据集本身的validation集。

那么在正常更新中,常见NLP分类模型会产生多少回归错误呢?

作者在GLUE数据集上对不同版本的模型更新进行了测试:当我们选定旧模型为BERT-base,然后更新到其他版本的分类模型,包括

  1. 另外一个随机数下训练的BERT-base;

  2. 扩大模型规模BERT-large;

  3. 修改模型预训练设定RoBERTa-base;

  4. 更改预训练目标ELECTRA-base;

  5. 更改模型结构ALBERTA-base

实验发现,回归错误在不同更新和不同任务上普遍存在。此外

  1. 即使更新到完全相同的BERT-base,唯一的变化是微调参数中的随机种子,也会产生2%-5%的回归错误。

  2. 归回错误率往往比准确率的提升更高:例如在QQP上从BERT-base更新到其他模型时,归回错误率是准确率提升的3倍以上。

  3. 当更新到有更大差异的模型时,归回错误率会更高。

如何降低回归错误

现在我们已经确定了回归错误是普遍存在的,那么如何在维持新模型准确率不损失过多的条件下降低回归错误率呢?

作者首先将这个问题形式化,写成了带限制的优化问题的形式:

我们在用CrossEntropy优化原分类问题的同时,给新模型的训练加上一个条件:保证回归错误率为0. 回归错误率为0显然是一种理想状态,当然如果新模型完全复制旧模型就可以达到这个条件,但是这样我们就没有办法进一步改进模型了。所以在训练新模型的时候我们可以适当放宽第二个条件:

我们要求回归错误率小于一个常数。

在之前定义的回归错误率中,每一个样本的回归错误是一个离散的值:如果回归了则为1,否则为0。这种性质并不利于模型的训练,于是作者对模型训练损失函数中的回归惩罚项进行松弛:

利用新旧模型分类预测概率的kl散度;

又或是用新旧模型句子表示向量之间的l2距离,来作为松弛的回归损失。

再将原问题的条件进过一步拉格朗日松弛,便可以得到:

而这恰好和蒸馏学习的损失函数非常相似,我们便可以用类似的学习框架来减少回归错误。值得注意的一点是,普通的蒸馏学习在所有的训练样本上都会加入两模型的距离惩罚;然而在本文中,作者只在新模型的表现不如旧模型的样本(也就是回归了的样本)上加入距离惩罚项。

实验结果与分析

作者在GLUE的任务上对提出的方法进行测试。实验表明改进版蒸馏可以有效地减小回归错误率。当更新到不同构的模型(BERT-large)时,蒸馏学习的效果更为显著。作者同样列出了另外一种方法——集成学习在降低回归错误上的效果。集成学习可以有效减少不同模型之间的方差,从而达到降低部分回归的目的。可以看到,在更新到同构模型(BERT-base),变量仅有随机数,也就是只有方差引起的回归错误时,集成学习格外有效。

更进一步,作者对蒸馏时使用的损失对齐位置进行了选择:

  1. 使用分类概率的KL散度作为蒸馏损失函数;

  2. 使用最后一层句子表示向量的l2距离作为蒸馏损失函数;

  3. 使用所有层句子表示向量的l2距离作为蒸馏损失函数。

实验表明,整体而言,仅用kl散度对齐分类概率分布是有效减少回归错误的方案。对于同构的模型更新,进行更深层次的对齐可能对降低回归错误有效。

之后,作者对集成学习和蒸馏学习为何可以有效减少回归错误进行了分析。

对集成学习而言,作者微调了20个模型作为旧模型,20个作为新模型,100个每五个一组作为20个集成模型。对所有新-旧,或者是集成-旧模型对进行回归错误测试。从下图中我们可以发现,集成学习可以使分布左移且方差变小,这正说明了集成模型从减小模型间方差而言可以有效减少回归错误。

更进一步,作者发现,可以通过找“中心模型”来使得单模型也可以获得集成模型类似的效果:我们计算新的20个单模型之间的回归错误,然后选取相对其他19个单一新模型平均回归最小的一个作为“中心模型”,然后测试它和20个旧模型的回归错误,结果发现这个中心模型也可以像集成模型一样减少回归错误。

分析完集成模型为何有效,作者同样对蒸馏模型的有效性进行了分析。他们利用Checklist的方法对训练好的模型进行语言行为学回归测试:Checklist方法可以自动生成一系列测试,每一组测试针对一个语言现象。

测试结果表明,在语言行为学角度,蒸馏可以有效地让新模型模仿旧模型的行为——减少那些它原本会预测错误的语言行为。但相比之下,集成模型虽然在原数据测试集上可能有更小的回归错误,但是从语言行为角度看反而增加了和旧模型不一致的行为。这恰恰是因为集成学习完全没有将旧模型的信息考虑进学习过程,蒸馏学习却可以从细节上模仿旧模型从而达到在语言行为上减少回归。

总结

本文提出了NLP模型版本更新中会出现回归错误的问题,是一个全新的领域,且对实际模型上线和部署可能产生深远影响。同时文中也给出了有效减少这类错误的方法,并从语言行为学上分析了方法的有效性。

萌屋作者:Sherry

本科毕业于复旦数院,转行NLP目前在加拿大滑铁卢大学读CS PhD。经历了从NOIer到学数学再重回CS的转变,却坚信AI的未来需要更多来数学和自认知科学的理论指导。主要关注问答,信息抽取,以及有关深度模型泛化及鲁棒性相关内容。

作品推荐:

  1. 可交互的 Attention 可视化工具!我的Transformer可解释性有救了?

  2. 谁才是Transformer家族中的最强王者?谷歌告诉你答案

  3. Facebook刷新开放域问答SOTA:模型训模型!Reader当Teacher!

后台回复关键词【入群

加入卖萌屋NLP/IR/Rec与求职讨论群

后台回复关键词【顶会

获取ACL、CIKM等各大顶会论文集!

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?相关推荐

  1. 如何定位在测试中遇到的Bug?

    bug的分析和定位,这个话题是测试面试中经常聊到的,很多新手或者是日常工作中自我总结比较少的朋友,被问到的时候可能一下就懵了,今天分享一个完整清晰的思路给大家. 日常工作中,每天可能都会遇到不同的bu ...

  2. 测试中遇到的bug总结

    文章转载自:http://www.51testing.com/html/34/393434-3724808.html 面试的时候,会经常被问到你测试中遇到的bug,说出印象最深的.只有平时思考,多总结 ...

  3. APP测试常见闪退bug以及、测试需关注点

    APP测试常见闪退bug以及.测试需关注点 一. app出现闪退的原因: 1.空指针:对象没有初始化就使用了: 2.空函数:有事件源但没有对应的事件对象: 3死循环:没有合理的循环控制流: 4.内存泄 ...

  4. 测试基础篇II--软件测试生命周期及bug相关知识

    软件测试的生命周期(软件测试的流程)? 需求分析(对需求进行验证和细化,为后续的写测试用例做准备工作) 测试计划(范围.时间.人员.工具) 测试设计/开发(根据需求写测试用例) 测试执行(软件基本开发 ...

  5. ACL'21 | 弱标签的垃圾数据,也能变废为宝!

    文 | LawsonAbs 编 | 小戏 是不是感觉 NER 领域效果提升太过困难?最近一篇来自 Amazon 的文章提出使用强弱标签结合的方式来解决 NER 的问题.强弱标签结合其实非常立足实际的数 ...

  6. 对话系统答非所问?快试试这篇ACL'21的连贯性评估大法

    文 | 页眉3 编 | 小轶 背景 当我们在绞尽脑汁地想怎么设计一个对话系统的时候,我们当然希望最后训练出来的系统能越像人越好,输出的回复很连贯,很有趣,很体贴.而其中,连贯性可以说是最基本的要求之一 ...

  7. 老男孩mysql运维dba实战21部完整版_老男孩MySQL高级专业DBA实战课程/高级运维DBA课程/MySQL视频教程 零基础全套...

    对于老男孩的视频教程我是由衷的喜欢,这套课程接近于零基础,但是最好还是具备一些Mysql基础再来学习效果会更好一些,论坛中也有一些Mysql基础课程,大家可以找一下! -------课程目录----- ...

  8. ACL’21 | 对话系统也要进军多模态了!

    文 | 胡煌,梁祖杰 编 | 小轶 对于一个对话Bot来讲,拥有对视觉信息的感知和联想能力是非常重要的.比如,我们人类在对话中谈到大海的时候,就会自然地联想到蓝天.白云和飞翔的海鸟.然而,当前的对话模 ...

  9. 神经网络在测试抽样中的应用

    1.     工具产生的背景 导航对人们的生活起着越来越重要的作用,由于公司一直在做导航产品,所以为了从深度上保证产品的质量(已经通过大量的case从广度上来保证产品质量),做为Routing的测试负 ...

最新文章

  1. C# 指定字符串截取方法
  2. python的os模块基本使用
  3. jMeter Transaction Controller 学习笔记
  4. CSS/DIV网页设计视频教程目录【转】
  5. 构造函数调用默认构造函数_显式无参数构造函数与默认构造函数
  6. Java 文件 IO 操作
  7. 织梦高端大气响应式会员中心模板 自适应手机端
  8. SqlServer系列笔记——游标
  9. 入侵检测技术目的-发现黑客
  10. 实例快速上手shell脚本
  11. 为什么短信会在未来几年消亡
  12. 17万字 | 2021密码应用技术白皮书(附下载)
  13. 数据库基础学习-计划内容 For 小样儿
  14. C语言版,传教士与野人渡河问题,使用深度优先搜索法求解(DFS),变态版,随便输入人数和船的最大载人数,人工智能经典题目,简单易懂,注释到位,没有bug
  15. python压缩pdf_【转】PDF 用python 压缩
  16. 机械工程专业与c语言的联系,新工科背景下的机械专业C语言课程改革
  17. python-docx设置文字突出显示,即高亮
  18. HDU 5976 Detachment(拆分)
  19. [含文档+源码等]高校科研项目管理系统[包运行成功]
  20. 基于SSM实现餐厅收银系统

热门文章

  1. 捡起JavaScript(1)
  2. java代理的学习,通过类实现接口来实现代理。proxy来创建动态类,和InvocationHandler接口的实现,和工作原理。...
  3. 【海淘域名】GoDaddy账户被锁定后的解决方法
  4. linux 编译安装apache
  5. asp.net 使用Master模板页需要注意
  6. 生成简单的Makefile文件(Python实现)
  7. Linux kernel 同步机制(下篇)
  8. c语言 数组循环移动,如何将一个数组的元素循环左移?
  9. 计算机网络在实践中的应用,计算机网络技术及在实践中的应用
  10. 变更控制管理流程图_制度是最好的老板,流程就是最好的管理!流程建立法则(附案例)...