https://blog.csdn.net/weixin_42137700/article/details/82107208

https://zhuanlan.zhihu.com/p/46833276

在实践中,由于数据集不够大,很少有人从头开始训练网络。常见的做法是使用预训练的网络(例如在ImageNet上训练的分类1000类的网络)来重新fine-tuning(也叫微调),或者当做特征提取器。

语言模型来辅助NLP任务已经得到了学术界较为广泛的探讨,通常有两种方式:

  1. feature-based(ELMo)
  • 利用语言模型的中间结果也就是LM embedding, 将其作为额外的特征,引入到原任务的模型中。
  • 通常feature-based方法包括两步:a. 在大的语料A上无监督地训练语言模型,训练完毕得到语言模型,然后构造task-specific model例如序列标注模型,采用有标记的语料B来有监督地训练task-sepcific model,将语言模型的参数固定,语料B的训练数据经过语言模型得到LM embedding,作为task-specific model的额外特征
  1. fine-tuning
  • Fine-tuning方式是指在已经训练好的语言模型的基础上,加入少量的task-specific parameters。例如对于分类问题在语言模型基础上加一层softmax网络,然后在新的语料上重新训练来进行fine-tune

    • 构造语言模型,采用大的语料A来训练语言模型在语言模型基础上增加少量神经网络层来完成specific task。例如序列标注、分类等,然后采用有标记的语料B来有监督地训练模型,这个过程中语言模型的参数并不固定,依然是trainable variables。

常见的两类迁移学习场景

  1. 卷积网络当做特征提取器。使用在ImageNet上预训练的网络,去掉最后的全连接层,剩余部分当做特征提取器(例如AlexNet在最后分类器前,是4096维的特征向量)。这样提取的特征叫做CNN codes。得到这样的特征后,可以使用线性分类器(Liner SVM、Softmax等)来分类图像。
  2. Fine-tuning卷积网络。替换掉网络的输入层(数据),使用新的数据继续训练。Fine-tune时可以选择fine-tune全部层或部分层。通常,前面的层提取的是图像的***通用特征(generic features)***(例如边缘检测,色彩检测),这些特征对许多任务都有用。后面的层提取的是***与特定类别有关***的特征,因此fine-tune时常常只需要Fine-tuning后面的层。

何时以及如何Fine-tune

决定如何使用迁移学习的因素有很多,这是最重要的只有两个:新数据集的大小、以及新数据和原数据集的相似程度。有一点一定记住:**网络前几层学到的是通用特征,后面几层学到的是与类别相关的特征。**这里有使用的四个场景:

  1. 新数据集比较小且和原数据集相似。因为新数据集比较小,如果fine-tune可能会过拟合;又因为新旧数据集类似,我们期望他们高层特征类似,可以使用预训练网络当做特征提取器,用提取的特征训练线性分类器。
  2. 新数据集大且和原数据集相似。因为新数据集足够大,可以fine-tune整个网络。
  3. 新数据集小且和原数据集不相似。新数据集小,最好不要fine-tune,和原数据集不类似,最好也不使用高层特征。这时可是使用前面层的特征来训练SVM分类器。
  4. 新数据集大且和原数据集不相似。因为新数据集足够大,可以重新训练。但是实践中fine-tune预训练模型还是有益的。新数据集足够大,可以fine-tine整个网络

warning

与重新训练相比,fine-tune要使用更小的学习率。因为训练好的网络模型权重已经平滑,我们不希望太快扭曲(distort)它们(尤其是当随机初始化线性分类器来分类预训练模型提取的特征时)。

预训练模型 Fine-tuning相关推荐

  1. 预训练模型微调 | 一文带你了解Adapter Tuning

    来源: AINLPer微信公众号(每日干货分享!!) 编辑: ShuYini 校稿: ShuYini 时间: 2022-10-23 引言  前几天的一篇文章,给大家介绍了预训练模型的微调方法Promp ...

  2. GNN教程:与众不同的预训练模型!

    ↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale干货 作者:秦州,算法工程师,Datawhale成员 0 引言 虽然 GNN ...

  3. word2vec模型评估_干货 | NLP中的十个预训练模型

    Word2vec, Fasttext, Glove, Elmo, Bert, Flair pre-train Word Embedding源码+数据Github网址:https://github.co ...

  4. 预训练模型:BERT深度解析《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》

    目录 1. 背景 2. 什么是 Bert 及原理? 3. 论文内容<BERT: Pre-training of Deep Bidirectional Transformers for Langu ...

  5. 【NLP】万字梳理!BERT之后,NLP预训练模型发展史

    作者 | 周俊贤 整理 | NewBeeNLP 本文讲解下BERT推出后,预训练模型的演变,包括BERT.RoBERTa.ALBERT.ERNIE系列.ELECTRA.下面脑图是本系列第一篇内容,欢迎 ...

  6. pytorch深度学习-微调(fine tuning)

    微调(fine tuning) 首先举一个例子,假设我们想从图像中识别出不同种类的椅子,然后将购买链接推荐给用户.一种可能的方法是先找出100种常见的椅子,为每种椅子拍摄1,000张不同角度的图像,然 ...

  7. resnet预训练模型_干货 | NLP中的十个预训练模型

    Word2vec Fasttext ULMFit Glove Cove ELMO GPT1.0 GPT2.0 BERT Flair Embedding 一.Word2vec 1.word2vec种语言 ...

  8. pretraining+fine tuning

    few shotlearning简单实现方法:在大规模数据做预训练模型,然后在小规模suport set上做fine tuning.方法简单准确率高. 基础数学知识: cos函数可以判断两个向量的相似 ...

  9. 如何fine tuning

    先看一个示例 keras入门 -在预训练好网络模型上进行fine-tune https://blog.csdn.net/hnu2012/article/details/72179437 我们的方法是这 ...

  10. 计算机视觉之迁移学习中的微调(fine tuning)

    现在的数据集越来越大,都是大模型的训练,参数都早已超过亿级,面对如此大的训练集,绝大部分用户的硬件配置达不到,那有没有一种方法让这些训练好的大型数据集的参数,迁移到自己的一个目标训练数据集当中呢?比如 ...

最新文章

  1. 全球只有4个人通关的游戏!不过如此
  2. 【数据竞赛】“达观杯”文本智能处理挑战赛5
  3. 一个栈桢对应着一个方法
  4. CF1497E2 Square-free division (hard version)
  5. 软件生成问候图片_这些社交软件你玩过几个?
  6. OpenJDK9 Hotspot :Zero 解释器 - BytecodeInterpreter
  7. java使用zxing生成二维码
  8. MySQL数据库基础(mysql数据类型、数据表的操作)
  9. 计算机在线应用分为,在线计算器的分类和使用方法
  10. pytest测试框架_带你深入理解自动化测试框架Pytest的配置文件!
  11. 服务器怎么ghost备份系统,GHOST备份系统的方法 GHOST备份系统教程
  12. 信息学奥赛一本通pdf_信息学奥赛冠军的竞赛“秘籍”
  13. STM32与DS1302设计时钟芯片,超详细
  14. asp.net2.0(C#)图像处理类[转]
  15. element-ui el-upload框去除‘按 delete 键可删除’提示
  16. 七夕节程序员应有的表白方式
  17. 计算机用户administer改名后,win10系统用户文件夹改名的详细步骤
  18. 用数组输出26个小写字母
  19. 常用的Linux终端命令盘点
  20. SOHO办公遭IBM叫停,为什么说它是创业大忌?

热门文章

  1. 这是你不曾见过的最全的ASO应用市场优化方式(下篇)
  2. java基本数据类型长度
  3. 【批量图片识别文字命名】如何批量图片识别文字并将识别的文字重命名该图片,怎么弄?下面叫你方法
  4. 安装与使用 supervisor(可管理Tomcat进程)
  5. DVWA靶场 XSS
  6. 【hash】兔子与兔子(C++)
  7. 如何实现在on ethernetPacket中自动回复NDP response消息
  8. openlayers3中geowebcache的使用
  9. MySQl 实现 FULL JOIN
  10. Geoffrey Hinton 最新访谈:不出五年,我们就会破解大脑的运作机制,但不是通过反向传播...