《自然语言处理-基于预训练模型的方法》笔记
《自然语言处理-基于预训练模型的方法》笔记
文章目录
- 《自然语言处理-基于预训练模型的方法》笔记
- @[toc]
- 〇.写在前面
- 一、绪论
- (一) NLP 任务体系
- I.任务层级
- II.任务类别
- III.研究层次
- (二) 预训练的时代
- 二、NLP 基础
- (一) 文本表示
- I.独热向量
- II.分布式表示
- III.词嵌入表示
- IV.词袋表示
- (二) NLP 任务
- I.语言模型
- II. 基础任务
- III. 应用任务
- (三) 基本问题
- I. 文本分类问题
- II. 结构预测问题
- III. 序列到序列问题
- (四) 评价指标
- I. 标准答案明确的情况
- II. 标准答案不明确的情况
- (五) 总结
- 三、基础工具集与常用数据集
- (一) 工具集
- (二) 数据集
- (三) Wikipedia 数据集使用方法
- I. 原始数据获取
- II. 语料处理方法
- (四) Hugging Face Datasets 使用方法
- I. 数据集获取
- II. 调用 datasets
- III. 调用 metrics
- 四、NLP 的神经网络基础
- (一) 理论学习
- (二) 代码学习
- (三) 项目实战
- 五、静态词向量预训练模型
- (一) 简单的词向量预训练
- I. 预训练任务
- II. 前馈神经网络预训练词向量
- III. 循环神经网络预训练词向量
- (二) Word2Vec 词向量
- I. CBOW 模型
- II. Skip-gram 模型
- III. 参数估计与预训练任务
- IV. 负采样
- V. 模型实现
- (三) GloVe 词向量
- I. 基本思想
- II. 预训练任务
- III. 参数估计
- IV. 模型实现
- (四) 评价与应用
- I. 内部任务评价法
- II. 外部任务评价法
- (五) 总结
- 六、动态词向量预训练模型
- (一) 从静态到动态
- (二) ELMo 词向量
- I. 双向语言模型
- II. ELMo 词向量
- III. ELMo 词向量的特点
- IV. 模型实现
- V. 应用与评价
- 七、预训练语言模型
- (一) 概述
- (二) GPT
- I. 无监督预训练
- II. 有监督下游任务精调
- III. 下游任务适配
- (三) BERT
- (四) 更多掩码策略
- I. 整词掩码 WWM
- II. N-gram 掩码 NM
- (五) 预训练模型应用
- I. 概述
- II. 单句文本分类 SSC
- III. 句对文本分类 SPC
- IV. 抽取式阅读理解 Span-extraction Reading Comprehension
- V. 命名实体识别 NER
- (六) 深入理解 BERT
- I. 可解释性概述
- II. 定性:自注意力可视化分析
- III. 定量:探针实验
- 八、预训练语言模型进阶
- (一) 模型优化
- I. XLNet
- II. RoBERTa
- III. ALBERT
- IV. ELECTRA
- V. MacBERT
- VI. 总结
- (二) 长文本处理
- I. Transformer-XL
- II. Reformer
- III. Longformer
- IV. BigBird
- V. 总结
- (三) 模型蒸馏与压缩
- I. DistilBERT
- II. TinyBERT
- III. MobileBERT
- IV. 总结
- (四) 生成模型
- I. BART
- II. UniLM
- III. T5
- IV. GPT-3
- V. 可控文本生成
- CTRL
- PPLM
- 九、多模态融合的预训练模型
- (一) 多语言融合
- I. mBERT
- II. XLM
- III. XLM-R
- IV. 总结
- (二) 多媒体融合
- I. VideoBERT
- II. VL-BERT
- III. DALL·E
- IV. ALIGN
- (三) 异构知识融合
- I. 融入知识的预训练
- 命名实体之术语
- 命名实体之百度 ERNIE
- 命名实体之 KnowBERT
- 知识图谱之术语
- 知识图谱之清华 ERNIE
- 知识图谱之 K-BERT
- II. 多任务学习
- MT-DNN
- 百度 ERNIE 2.0
- III. 总结
- (四) 更多模态的预训练模型
- I. 页面布局信息
- II. 表格信息
〇.写在前面
本笔记为哈工大“《自然语言处理-基于预训练模型的方法》——车万翔 郭江 崔一鸣 著 2021 年 7 月第一版” 的笔记,记录比较详细。不过,仍然强烈建议诸君购买原书进行学习! 因为本笔记只是笔记,很多地方只是总结性的!
在阅读本笔记前,可能需要您具备一定的深度学习基础和代码能力基础,对于比较欠缺的同学,我给出了一定的学习指示与推荐,包括代码学习的材料以及理论学习的材料。不过无论如何,本笔记都需要一定的神经网络知识基础。详细请看本笔记第四章。
本笔记除了记录了书中知识点之外,还对书中的少量错误进行了修正,同时还进行了少量的扩展。
对于代码学习部分,我给出了代码的链接,都在本人的代码笔记本当中,但是,在查找代码之前,请先查看代码笔记本项目的 README/Checklist,确保相应代码已经被记录。
当然,本人才疏学浅,如有错误在所难免,恳请指正交流,不胜感激,嘤鸣求友!
Github : ZenMoore Zhihu : ZenMoore Twitter : @ZenMoore1
in Markdown Homepage in HTML in PDF, 关于使用哪种格式,请看这里
Email : zenmoore@yeah.net, zenmoore@buaa.edu.cn
一、绪论
(一) NLP 任务体系
I.任务层级
资源建设:语言学知识库 (词典、规则库);语料库。
词典:也称 Thesaurus, 可以提供音韵、句法、语义解释、词汇关系、上下位同反义等
基础任务:分词,词性标注,句法分析、句义分析等
应用任务:信息抽取、情感分析、问答系统、机器翻译、对话系统等
应用系统:教育、医疗、司法、金融、机器人等
II.任务类别
- 回归问题:输出为连续数值
- 分类问题
- 匹配问题:判断关系
- 解析问题:标注、词间关系
- 生成问题
III.研究层次
- 形式:符号
- 语义:符号+实
- 推理:符号+实+知 (常识知识、世界知识、领域知识)
- 语用:符号+实+知+环境
(二) 预训练的时代
预训练+精调范式,预训练说是无监督并不准确,因为下一词预测这一个预训练任务仍然有监督,应该说成是自监督学习。
二、NLP 基础
(一) 文本表示
I.独热向量
- one-hot vector
- 可以引进额外特征表示共同语义 (如 WordNet 同义词等),转为特征工程
II.分布式表示
- 分布式语义假设 : 利用上下文进行语义建模
如使用共现词频(共现矩阵):M=(C(w,c))w∈V,c∈V\pmb{M}=(C(w,c))_{w\in\mathbb{V}, c\in{\mathbb{V}}}MMM=(C(w,c))w∈V,c∈V
C(w,c)C(w, c)C(w,c) 表示 词汇 w 与上下文词汇 c 共同出现的频次。
但存在直接使用存在 1.高频词问题 2.高阶关系 3.稀疏性问题
点互信息 PMI : PMI=log2P(w,c)P(w)P(c)PMI=log_2{\frac{P(w, c)}{P(w)P(c)}}PMI=log2P(w)P(c)P(w,c), 解决高频词问题
正点互信息 PPMI : PPMI=max(PMI(w,c),0)PPMI=max(PMI(w, c), 0)PPMI=max(PMI(w,c),0), 解决低共现频负 PMI 的不稳定性 (大方差).
TF-IDF : 解决高频词问题
奇异值分解 SVD : M=UΣVT(UTU=VTV=I)M=U\Sigma V^T (U^TU=V^TV=I)M=UΣVT(UTU=VTV=I), 使用截断奇异值分解近似MMM (即取 d 个最大的奇异值),矩阵 UUU 的每一行即对应词的 d 维向量表示,该表示一般连续低维稠密。由于正交性,可以认为不同的维度的潜在语义相互独立。因此,这种方法也叫做 潜在语义分析 LSA. 相应地, ΣVT\Sigma V^TΣVT 的每一列也可以作为上下文的向量表示。解决了高阶关系问题和稀疏性问题。
也可以设计 词汇-文档共现词汇,然后使用 SVD, 相应的技术为 潜在语义索引 LSI.
- 问题:
- 共现矩阵太大了,SVD 好慢
- 短单元问题 (面对段落/句子无能为力, 因为长单元共现的上下文非常少)
- 一旦训练完则固定下来,无法根据任务微调
III.词嵌入表示
- 通过任务预训练出来的词向量, 看成模型参数
- 之后介绍
IV.词袋表示
- BOW : 无顺序, 将文本中全部词的向量表示简单相加 (不论向量表示方法)
- 缺点
- 没有顺序信息
- 无法融入上下文信息
- 即便引入二元词表, 也存在严重的数据稀疏问题
- 解决: 深度学习技术, 之后介绍
(二) NLP 任务
I.语言模型
N-gram:N 元语言模型
- 马尔可夫假设 : P(wt∣w1w2...wt−1)=P(wt∣wt−(n−1):t−1)P(w_t|w_1w_2...w_{t-1})=P(w_t|w_{t-(n-1):t-1})P(wt∣w1w2...wt−1)=P(wt∣wt−(n−1):t−1)
- 满足该假设称为:N元语法或文法(gram)模型
- n=1 的 unigram 独立于历史(之前的序列),因此语序无关
- n=2 的 bigram 也被称为一阶马尔可夫链 P(w1w2...wt)=∏i=1lP(wi∣wi−1)P(w_1w_2...w_t)=\prod_{i=1}^lP(w_i|w_{i-1})P(w1w2...wt)=∏i=1lP(wi∣wi−1)
- w0w_0w0 可以是 <BOS>,wl+1w_{l+1}wl+1 <EOS>
平滑 : 解决未登录词 (OOV, Out-Of-Vocabulary, <UNK>)的零概率问题
- 折扣法:高频补低频
- 加1平滑:拉普拉斯平滑
对于 unigram: P(wi)=C(wi)+1∑wC(w)+1=C(wi)+1N+∣V∣P(w_i)=\frac{C(w_i)+1}{\sum_w{C(w)+1}}=\frac{C(w_i)+1}{N+|\mathbb{V}|}P(wi)=∑wC(w)+1C(wi)+1=N+∣V∣C(wi)+1,
对于 bigram: P(wi∣wi−1)=C(wiwi−1)+1∑w(C(wi−1w)+1)=C(wiwi−1)+1C(wi−1)+∣V∣P(w_i|w_{i-1})=\frac{C(w_iw_{i-1})+1}{\sum_w(C(w_{i-1}w)+1)}=\frac{C(w_iw_{i-1})+1}{C(w_{i-1})+|\mathbb{V}|}P(wi∣wi−1)=∑w(C(wi−1w)+1)C(wiwi−1)+1=C(wi−1)+∣V∣C(wiwi−1)+1
也可以使用 +δ\deltaδ 平滑,尤其当训练数据较小时,加一太大了
关于 δ\deltaδ 选择,可以使用验证集对不同值的困惑度比较选择最优参数
模型评价
- 外部任务评价:不怎么用
- 内部评价方法:基于困惑度 (Perplexity, PPL),越小越好
P(Dtrain)→paramsP(\mathbb{D^{train}})\to paramsP(Dtrain)→params
P(Dtest)=P(w1w2...wN)=∏i=1NP(wi∣w1:i−1)P(\mathbb{D^{test}})=P(w_1w_2...w_N)=\prod_{i=1}^NP(w_i|w_{1:i-1})P(Dtest)=P(w1w2...wN)=∏i=1NP(wi∣w1:i−1)
PPL=P(Dtest)−1/NPPL=P(\mathbb{D^{test}})^{-1/N}PPL=P(Dtest)−1/N : 测试集到每个词的概率的几何平均值的倒数
这里针对一个句子而言:我们的目标是使测试集中的所有句子 PPL 最小。
不是绝对的好,只是正相关的好,关键还是得看具体任务
神经网络语言模型之后介绍
II. 基础任务
- 往往不能直接面向用户,而是作为一个环节或者下游任务的额外语言学特征
中文分词
正向最大匹配算法 (FMM) :倾向于找最长词
相应地,有 逆向最大匹配算法
问题:切分歧义问题,未登录词问题
其他深度学习方法之后介绍
子词切分:Lemmatization (词形还原) & Stemming (词干提取)
解决数据稀疏问题和大词表问题
传统方法需要大量规则,因此:基于统计的无监督方法(使用尽量长且频次高的子词)
**字节对编码 (BPE) **生成子词词表,然后使用贪心算法;可以使用缓存算法加快速度
用 <\w> 表示单词的结束
缓存算法:把高频出现的事先保存成文件,每次只解决非高频的那些词
WordPiece: ~BPE, 不过 BPE 选频次最高对,WordPiece 选提升语言模型概率最大对
Unigram Language Model (ULM) : ~WordPiece, 不同的是,它基于减量法
SentencePiece 开源工具用于子词切分,使用 Unicode 扩展到了多种语言
词性标注:Part-of-Speech (POS)
也称为词类
- 名词、动词、代词等
句法分析:Syntactic Parsing
- 树状结构的主谓宾定状补等
- 两种句法结构表示:不同点在于依托的文法规则不同
- 短语结构句法表示:上下文无关文法,层次性的
- 依存结构句法表示 (DSP):依托依存文法
语义分析
与前述语义不同,这里指的是离散符号和结构化的
词义消歧 WSD : 可以使用 WordNet 等语义词典
语义角色标注 SRL : 谓词论元结构
识别谓词后找到论元(语义角色)(施事 Agent 受事 Patient)
附加语义角色: 状语、副词等
语义依存分析 SDP : 通用图
- 语义依存图:词作为节点,词词关系作为语义关系边
- 概念语义图:首先将句子转化为虚拟的概念节点,然后建立语义关系边
专门任务:如自然语言转 SQL
III. 应用任务
信息抽取 IE : 非结构化文本提取结构化信息
命名实体识别 NER : 人名、机构名、地名、专有名称等名称。然后往往需要将命名实体链接到知识库或者知识图谱中的具体实体,被称作实体链接。
关系抽取:实体之间语义关系,如夫妻、子女、工作单位等
事件抽取:事件往往使用文本中提及的具体触发词 (Trigger) 定义,解析时间、地点、人物等关键因素。
~SRL : 谓词~Trigger, 论元~事件元素
时间表达式识别:时间表达式归一化。
绝对时间:日期等
相对时间:两天前
情感分析
- 情感分类
- 情感信息抽取:抽取情感元素,如评价词语、评价对象、评价搭配等
问答系统
- 检索式:查找相关文档抽取答案
- 知识库:问题→\to→结构化查询语句→\to→结构化知识存储→\to→推理→\to→答案
- 常见问题集:对历史积累的问题集合检索
- 阅读理解式:抽取给定文档中片段或生成
实际常常是综合的
机器翻译
- 任意时间
- 任意地点
- 任意语言
对话系统:多轮交互
任务型:自动业务助理等
自然语言理解→\to→对话管理→\to→自然语言生成
NLU : 领域(什么东西)、意图(要干什么)、槽值(?=?)等
DM : 对话状态跟踪 DST 和对话策略优化 DPO,对话状态往往表示为槽值列表
NLG : 有了 DPO 后比较简单,只需要套用问题模板即可
开放域:聊天系统或者聊天机器人
(三) 基本问题
以上任务都可以归结为三种问题
I. 文本分类问题
- 甚至文本匹配问题:文本对的关系分类,包括复述关系 Paraphrasing (语义是否相同)、蕴含关系 Entailment (蕴含或者矛盾)。一个方法就是:将文本对直接拼接,然后进行关系分类
II. 结构预测问题
序列标注
- 如 CRF 模型:不仅考虑每个词的标签概率 (发射概率),还考虑标签之间的关系 (转移概率)
- RNN + CRF
序列分割
分词、NER 等
也可以看成序列标注
NER : B-xxx 表示开始,I-xxx 表示中间,O-xxx 表示非实体
分词同理
图结构生成
基于图的算法:最小生成树,最小子图等
基于转移的算法:图→\to→状态转移序列,状态→\to→策略→\to→动作等。
如用于 DSP 的 标准弧转移算法:
转移状态由一个栈 Sm...S1S0S_m...S_1S_0Sm...S1S0和队列Q0Q1...QnQ_0Q_1...Q_nQ0Q1...Qn组成, 栈存依存结构子树序列,队列存未处理的词
初始转移状态:栈为空
转移动作:
移进 Shift (SH) : first of Q to top of stack, engender an one-node sub-tree
左弧归约 Reduce Left (RL) : two sub-trees at top-stack, left arc=‘S1 ←\leftarrow←S0’, S1 out
右弧归约 Reduce Right (RR): two sub-trees at top-stack, left arc=‘S1 →\rightarrow→S0’ S0 out
完成 FIN
弧上的句法关系可以在生成弧的时候(即 RR 或 RL)采用额外的句法关系分类器加以预测
该算法也可以用于短语结构的句法分析方法
III. 序列到序列问题
- 编码器-解码器
- 结构预测也能使用,但是由于结构预测有较强的对应关系,序列到序列很难保证这种对应关系,因此不常使用这种模型解决
(四) 评价指标
I. 标准答案明确的情况
- 准确率 Accuracy :正确的比所有的
- 精确率 Precision:正确的比所有识别出的
- 召回率 Recall:正确的
- F 值 F-score,特例 F1 值
- 对于 Syntactic Dependency Tree:
- UAS (unlabeled attachment score): 即准确率,父节点被正确识别的概率
- LAS:父节点被正确识别且与父节点的关系也正确的概率
- 对于 Semantic Dependency Graph :多个父节点不能用上述
- F-score : 图中的弧为单位,计算识别的精确率和召回率
- 可分为考虑和不考虑语义关系两种情况
- 对于 短语结构句法分析:也不能用准确率
- F-score : 句法结构中包含短语的 F 值进行评价
- 包含短语:包括短语类型以及短语所覆盖的范围
II. 标准答案不明确的情况
困惑度 PPL:见前述
BLEU : 统计机器译文与多个参考译文中 N-gram 匹配的数目占机器疑问中所有 N-gram 总数的比率,即 N-gram 的精确率; N 大小适中(>=2, <=4); 但仅这样忽略了召回率,倾向于短序列,于是引入了长度惩罚因子 (0~1),使其单词数目尽可能接近参考译文中的数目; 最终,BLEU ∈[0,1]\in [0, 1]∈[0,1], 越高越好
ROUGE : ~BLEU,但统计的是 N-gram 召回率, 即对于标准译文中的短语,统计一下它们有多少个出现在机器翻译的译文当中、
METOR : 用 WordNet 等知识源扩充了一下同义词集,同时考虑了单词的词形, 在评价句子流畅性的时候,用了 chunk 的概念(候选译文和参考译文能够对齐的、空间排列上连续的单词形成一个 chunk,这个对齐算法是一个有点复杂的启发式 beam serach),chunk 的数目越少意味着每个 chunk 的平均长度越长,也就是说候选译文和参考译文的语序越一致。最后还有召回率和准确率两者都要考虑,用 F 值作为最后的评价指标。
CIDEr : 多用于图像字幕生成,CIDEr 是 BLEU 和向量空间模型的结合。它把每个句子看成文档,然后计算 TF-IDF 向量(只不过 term 是 n-gram 而不是单词)的余弦夹角,据此得到候选句子和参考句子的相似度,同样是不同长度的 n-gram 相似度取平均得到最终结果。优点是不同的 n-gram 随着 TF-IDF 的不同而有不同的权重,因为整个语料里更常见的 n-gram 包含了更小的信息量。图像字幕生成评价的要点是看模型有没有抓取到关键信息
多个参考译文…没有怎么办,不好怎么办,主观怎么办,译文和原文有对应关系,那对于对话,没有语义相同关系怎么办,因此:只能人来了…
人为评价:多用于对话。多人评价其流畅度、相关度、准确性等等,给出主观分数进行统计
(五) 总结
三、基础工具集与常用数据集
(一) 工具集
所有这些,请移步开源代码笔记本 NoahKit@ZenMoore
- NLTK
- CoreNLP
- spaCy
- LTP
- PyTorch
(二) 数据集
WordNet : 包含同义词、释义、例句等
SentiWordNet : Senti=Sentiment
Wikipedia
下节介绍使用方法
Common Crawl
PB 级别,7 年爬虫我的妈,使用 Facebook 的 CC-Net 工具进行处理
Hugging Face Datasets
下节介绍使用方法
(三) Wikipedia 数据集使用方法
I. 原始数据获取
进入 Wikipedia 官网下载数据集压缩包,不需要解压
II. 语料处理方法
纯文本语料抽取
pip install wikiextractor python -m wikiextractor.WikiExtractor python -m wikiextractor.WikiExtractor -h
then we will get the following file system :
./text|- AA|- wiki_00|- wiki_01...|- wiki_99|_ AB...|- A0
and each text corpus ‘wiki_xx’ is like :
<doc id='xx' url="https://xxx" title="math">xxxxx </doc>
中文简繁体切换
我们使用 OpenCC : 甚至可以转换日本新体字等中文字体
pip install opencc python convert_t2s.py input_file > output_file
数据清洗
包括:删除空的成对符号,删除除了 <doc> 外残留 html 标签,删除不可见控制字符等
python wikidata_cleaning.py input_file > output_file
(四) Hugging Face Datasets 使用方法
I. 数据集获取
pip install datasets
II. 调用 datasets
from datasets import list_datasets, load_dataset
import pprint# dataset loading
datasets_list = list_datasets()
print(len(datasets_list)) # num_datasets
dataset = load_dataset('sst', split='train') # load SST (Stanford Sentiment Treebank)
print(len(dataset)) # num_samples
pprint(dataset[0]) # {'label':xxx, 'sentence':xxx, 'tokens':xxx, 'tree':xxx}
III. 调用 metrics
from datasets import list_metrics, load_metric# metrics
metrics_list = list_metrics()
print(len(metrics_list)) # num_metrics
accuracy_metric = load_metric('accuracy')
results = accuracy_metric.compute(references= [0, 1, 0], predictions= [1, 1, 0])
print(results) # {'accuracy': 0.6666666}
四、NLP 的神经网络基础
(一) 理论学习
这个东西不要用这本书学习,系统的学习推荐以下教材:
神经网络与深度学习 by 邱锡鹏教授
统计学习方法 by 李航教授
以下是本书关于神经网络基础的目录:
多层感知机模型:感知器,线性/逻辑/Softmax回归,多层感知器
卷积神经网络
循环神经网络:普通,长短时记忆网络,基于 RNN 的序列到序列模型
注意力模型:注意力机制、自注意力模型、Transformer、基于 Transformer 的序列到序列模型,Transformer 模型的优缺点
神经网络训练:损失函数、梯度下降
(二) 代码学习
TensorFlow,PyTorch 等的学习请移步官网 Tutorial,如果感兴趣,可关注 NoahKit@ZenMoore
值得注意的是,PyTorch 新增了 Transformer 的支持:
import torch.nn as nndata = torch.rand(2, 3, 4)encoder_layer = nn.TransformerEncoderLayer(d_model= 4, nhead= 2)
transformer_encoder = nn.TransformerEncoder(encoder_layer, num_layers= 6)
memory = transformer_encoder(data)decoder_layer = nn.TransformerDecoderLayer(d_model= 4, nhead= 2)
transfomer_decoder = nn.TransformerDecoder(decoder_layer, num_layers= 6)
out_part = torch.rand(2, 3, 4) # decoding history
out = transformer_decoder(out_part, memory)
(三) 项目实战
书中有两个实战:情感分类 和 词性标注,分别使用了 MLP、卷积神经网络、循环神经网络、Transformer 等,当然,还涉及了词表映射、词向量、数据处理等,非常的好,建议直接看看书中代码,有时间实现一下。如果没有这本书,那下面给出目录,照着网上的博客学习一下:
情感分类实战:词表映射 -> 词向量层 -> 融入词向量层的多层感知器 -> 数据处理 -> 多层感知器模型的训练与测试 -> 基于卷积神经网络的情感分类 -> 基于循环神经网络的情感分类 -> 基于 Transformer 的情感分类
词性标注实战:基于前馈神经网络的词性标注 -> 基于循环神经网络的词性标注 -> 基于 Transformer 的词性标注
五、静态词向量预训练模型
(一) 简单的词向量预训练
I. 预训练任务
基本任务就是根据上下文预测下一时刻词: P(wt∣w1w2...wt−1)P(w_t|w_1w_2...w_{t-1})P(wt∣w1w2...wt−1)
这种监督信号来自于数据自身,因此称为自监督学习。
II. 前馈神经网络预训练词向量
输入层→\to→词向量层→\to→隐含层→\to→输出层
训练后,词向量矩阵 E∈Rd×∣V∣\pmb{E}\in\mathbb{R}^{d\times|\mathbb{V}|}EEE∈Rd×∣V∣ 即为预训练得到的静态词向量
III. 循环神经网络预训练词向量
输入层→\to→词向量层→\to→隐含层→\to→输出层
然后把词向量层参数和词表(一一对应)保存下来就是静态词向量
(二) Word2Vec 词向量
I. CBOW 模型
- 即 Continuous Bags-of-Words
- 基本思想:同时考虑历史与未来,选择一个上下文窗口 Ct={wt−k,...,wt−1,wt+1,...,wt+k}\mathcal{C_t}=\{w_{t-k},...,w_{t-1},w_{t+1},..., w_{t+k}\}Ct={wt−k,...,wt−1,wt+1,...,wt+k} ,如图示为大小为 5 的窗口
- 输入层:词汇的独热向量 ewi=[0;...;1;...0]∈[[0,1]]∣V∣e_{w_i}=[0;...;1;...0]\in [[0, 1]]^{\mathbb{|V|}}ewi=[0;...;1;...0]∈[[0,1]]∣V∣
- 词向量层:参数为 E∈Rd×∣V∣\pmb{E}\in\mathbb{R}^{d\times|\mathbb{V}|}EEE∈Rd×∣V∣
- 隐含层:仅做平均操作 vCt=1∣Ct∣∑w∈Ctvwv_{\mathcal{C_t}=\frac{1}{\mathcal{|C_t|}}\sum_{w\in\mathcal{C_t}}v_w}vCt=∣Ct∣1∑w∈Ctvw
- 输出层:参数为 E′∈R∣V∣×d\pmb{E'}\in \mathbb{R}^{\mathbb{|V|}\times d}E′E′E′∈R∣V∣×d, P(wt∣Ct)=exp(vCt⋅vwt′)∑w′∈Vexp(vCt⋅vw′′)P(w_t|\mathcal{C_t})=\frac{exp(v_{\mathcal{C_t}}·v'_{w_t})}{\sum_{w'\in \mathbb{V}}\exp(v_{\mathcal{C_t}}·v'_{w'})}P(wt∣Ct)=∑w′∈Vexp(vCt⋅vw′′)exp(vCt⋅vwt′), where vwi′v'_{w_i}vwi′是 E′\pmb{E'}E′E′E′中与wiw_iwi 对应的行向量
- 词向量矩阵:E,E′\pmb{E, E'}E,E′E,E′E,E′ 都可以作为词向量矩阵,分别表示了词在作为条件上下文或目标词时的不同性质。实际常用 E\pmb{E}EEE, 也可以两者组合起来。
- 特点:不考虑上下文中单词的位置或者顺序,因此输入是一个词袋而非序列。
II. Skip-gram 模型
基本思想:在 CBOW 基础上简化为 “使用 Ct\mathcal{C_t}Ct 中的每个词作为独立的上下文对目标词进行预测”, 即 P(wt∣wt+j)P(w_t|w_{t+j})P(wt∣wt+j)
原文献是 P(wt+j∣wt)P(w_{t+j}|w_t)P(wt+j∣wt), 两者等价,本书采取原文献的办法
隐含层向量:vwt=EwtTv_{w_t}=\pmb{E_{w_t}^T}vwt=EwtTEwtTEwtT
输出层:参数为E′∈R∣V∣×d\pmb{E'}\in \mathbb{R}^{\mathbb{|V|}\times d}E′E′E′∈R∣V∣×d,P(c∣wt)=exp(vwt⋅vc′)∑w′∈Vexp(vwt⋅vw′′)P(c|w_t)=\frac{exp(v_{w_t}·v'_c)}{\sum_{w'\in\mathbb{V}}exp(v_{w_t}·v_{w'}')}P(c∣wt)=∑w′∈Vexp(vwt⋅vw′′)exp(vwt⋅vc′), where vwi′v'_{w_i}vwi′是 E′\pmb{E'}E′E′E′中与wiw_iwi 对应的行向量
词向量:与 CBOW 同。
III. 参数估计与预训练任务
- θ={E,E′}\pmb{\theta}=\{\pmb{E}, \pmb{E'}\}θθθ={EEE,E′E′E′}
- 采用负对数似然函数:L(θ)=−∑t=1TlogP(wt∣Ct)\mathcal{L(\pmb{\theta})}=-\sum_{t=1}^TlogP(w_t|\mathcal{C_t})L(θθθ)=−∑t=1TlogP(wt∣Ct); L(θ)=−∑t=1T∑−k≤j≤k,j≠0logP(wt+j∣wt)\mathcal{L{\pmb{(\theta})}}=-\sum_{t=1}^T\sum_{-k\le j\le k, j\neq0}logP(w_{t+j}|w_t)L(θ(θ(θ)=−∑t=1T∑−k≤j≤k,j=0logP(wt+j∣wt)
IV. 负采样
输出层的归一化计算效率低(当词表很大的时候)
样本 ((w,c)(w, c)(w,c)): 正样本 c=wt+jc= w_{t+j}c=wt+j, 对 ccc 进行若干次负采样得到:wi~(i=1,...,K)\tilde{w_i}(i=1,...,K)wi~(i=1,...,K)
改为:给定当前词 www 与上下文词 ccc ,最大化两者共现概率;即简化为对于 (w,cw, cw,c) 的二元分类问题 (共现不共现),P(D=1∣w,c)=σ(vw⋅vc′)P(D=1|w, c)=\sigma{(v_w·v'_c)}P(D=1∣w,c)=σ(vw⋅vc′), P(D=0∣w,c)=σ(vw⋅vc′)=1−P(D=1∣w,c)=σ(−vw⋅vc′)P(D=0|w, c)=\sigma{(v_w·v'_c)}=1-P(D=1|w, c)=\sigma{(-v_w·v'_c)}P(D=0∣w,c)=σ(vw⋅vc′)=1−P(D=1∣w,c)=σ(−vw⋅vc′)
对数似然 logP(wt+j∣wt)logP(w_{t+j}|w_t)logP(wt+j∣wt) 改为:logσ(vwt⋅vwt+j′)+∑i=1Klogσ(−vwt⋅vwi~′)log\sigma{(v_{w_t}·v'_{w_{t+j}})+\sum_{i=1}^Klog\sigma{(-v_{w_t}·v'_{\tilde{w_i}})}}logσ(vwt⋅vwt+j′)+∑i=1Klogσ(−vwt⋅vwi~′), where wi~∼Pn(w)\tilde{w_i}\sim P_n(w)wi~∼Pn(w)
负采样分布的选择:假设 P1(w)P_1(w)P1(w) 表示从训练语料中统计得到的 Unigram 分布,可以使用 Pn(w)∝P1(w)34P_n(w)\propto P_1(w)^\frac{3}{4}Pn(w)∝P1(w)43
CBOW 同理
sigma 是指 sigmoid 函数
V. 模型实现
不是很困难,可以查阅相关代码资料,这里只记录一些 remarkable.
负样本采样的实现:
- 可以在构建训练数据的时候采样,优点是训练时候不需采样效率高,但是每次的负样本一样
- 所以更喜欢在训练过程中实时地进行采样:写在 collate_fn 中
class SGNSDataset(Dataset):def __init__(self,...):...self.num_neg_samples = num_neg_samples# 传入 ns_dist 时候已经计算好了self.ns_dist = ns_dist if ns_dist else torch.ones(len(vocab))def __len__(self):return len(self.data)def __get_item(self, i):return self.data[i]def collate_fn(self, examples):words = torch.tensor([ex[0] for ex in examples], dtype=torch.long)contexts = torch.tensor([ex[1] for ex in examples], dtype=torch.long)batch_size, context_size = contexts.shapeneg_contexts = []for i in range(batch_size):# 保证负样本中不包含当前样本的 contextns_dist = self.ns_dist.index_fill(0, contexts[i], .0)# 进行取样,multinomial 是均匀的,反正就是一定根据 ns_dist 取样neg_contexts.append(torch.multinomial(ns_dist, self.num_neg_samples * context_size, replacement= True))neg_contexts = torch.stack(neg_contexts, dim=0)return words, contexts, neg_contexts# 这里写出 ns_dist 的计算 unigram_dist = get_unigram_distribution(corpus, len(vocab)) ns_dist = unigram_dist ** 0.75 ns_dist /= ns_dist.sum()
需要维护两个词向量:www 和 ccc 各维护一个
w_embedding
和c_embedding
, 然后 各设置一个forward_w
和forward_c
, 然后将词向量矩阵和上下文向量矩阵合并作为最终的词向量矩阵,combined_embeds = model.w_embeddings.weight + model.c_embeddings.weight
之所以这么做,是因为每个词向量要包含该词作为目标词和作为上下文的两者的信息。
(三) GloVe 词向量
I. 基本思想
传统的都是基于词与局部上下文共现信息作为自监督学习信号。另外,还有一种通过矩阵分解如 SVD 的办法 (c.f. 二(一)II.分布式表示
)。但是 SVD 并不具备特别良好的几何性质。因此,GloVe 基于词向量和矩阵分解(隐式)的思想。
II. 预训练任务
- 构建共现矩阵 M\pmb{M}MMM , 但是限制在受限窗口大小内的贡献次数(即 www 和 ccc 的距离要足够小)
- 考虑 www 与 ccc 的距离:Mw,c=∑i1di(w,c)\pmb{M_{w,c}}=\sum_i{\frac{1}{d_i(w,c)}}Mw,cMw,cMw,c=∑idi(w,c)1, where iii 表示第 iii 次共现发生
- 进行回归问题求解:vwTvc′+bw+bc′=logMw,cv_w^Tv_c'+b_w+b_c'=log\pmb{M_{w,c}}vwTvc′+bw+bc′=logMw,cMw,cMw,c, 其中,vw,vc′v_w,v_c'vw,vc′分别是 www 和 ccc 的向量表示 (也就是他们的 GloVe 词向量),bwb_wbw 和 bc′b_c'bc′ 分别是相应的偏置项
III. 参数估计
- θ={E,E′,b,b′}\pmb{\theta}=\{\pmb{E,E',b, b'}\}θθθ={E,E′,b,b′E,E′,b,b′E,E′,b,b′}
- L(θ;M)=∑(w,c)∈Df(Mw,c)(vwTvc′+bw+bc′−logMw,c)2\mathcal{L}(\pmb{\theta};\pmb{M})=\sum_{(w, c)\in\mathbb{D}}f(\pmb{M_{w,c}})(v_w^Tv_c'+b_w+b_c'-log\pmb{M_{w,c}})^2L(θθθ;MMM)=∑(w,c)∈Df(Mw,cMw,cMw,c)(vwTvc′+bw+bc′−logMw,cMw,cMw,c)2
- f(Mw,c)f(\pmb{M_{w,c}})f(Mw,cMw,cMw,c) 表示每一个样本的权重,与共现次数有关。f(Mw,c)={(Mw,cmmax)αifMw,c≤mmax1elsef(\pmb{M_{w,c}})=\begin{cases}(\frac{\pmb{M_{w,c}}}{m^{max}})^\alpha & if\ \pmb{M_{w,c}}\le m^{max}\\ 1\ \ \ else\end{cases}f(Mw,cMw,cMw,c)={(mmaxMw,cMw,cMw,c)α1elseifMw,cMw,cMw,c≤mmax
IV. 模型实现
和前述大同小异,除了设置了偏置项
class GloveModel(nn.Module):def __init__(self, ...):...self.w_biases = nn.Embedding(vocab_size, 1)self.c_biases = nn.Embedding(vocab_size, 1)...def forward_w(self, words):w_embeds = self.w_embeddings(words)w_biases = self.w_biases(words)return w_embeds, w_biasesdef forward_c(self, contexts):c_embeds = self.c_embeddings(contexts)c_biases = self.c_biases(contexts)return c_embeds, c_biases
同样地,最后的每个单词的向量表示,也是两个嵌入的加和
combined_embeds = model.w_embeddings.weight + model.c_embeddings.weight
save_pretrained(vocab, combined_embeds.data, 'glove.vec')
(四) 评价与应用
I. 内部任务评价法
- 根据其对词义相关性或者类比推理性的表达能力进行评价
词义相关性:sim(wa,wb)=cos(vwa,vwb)=vwa⋅vwb∣∣vwa∣∣⋅∣∣vwb∣∣sim(w_a, w_b)=cos(v_{w_a}, v_{w_b})=\frac{v_{w_a}·v_{w_b}}{||v_{w_a}||·||v_{w_b}||}sim(wa,wb)=cos(vwa,vwb)=∣∣vwa∣∣⋅∣∣vwb∣∣vwa⋅vwb
这样,就可以自己设计一个基于 KNN 的近义词检索器啦!
还可以利用含有词义相关性人工标注的数据集作为标准:WordSim353
该数据集对每个单词有一个人工标准的相似度系数
可以用词向量计算得到的相似度与该人工标注的相似度计算相关系数
如 Spearman 相关系数或者 Pearson 相关系数
类比性:对于语法或者语义关系相同的两个词对 (wa,wb),(wc,wd)(w_a, w_b), (w_c, w_d)(wa,wb),(wc,wd), 词向量在一定程度上满足 vwb−vwa≈vwd−vwcv_{w_b}-v_{w_a}\approx v_{w_d}-v_{w_c}vwb−vwa≈vwd−vwc 的几何性质
利用这个可以进行词与词之间的关系推理,回答诸如 “a 之于 b 相当于 c 之于 ?”等问题
wd=argminw(cos(vw,vwc+vwb−vwa))w_d=argmin_w({cos(v_w, v_{w_c}+v_{w_b}-v_{w_a})})wd=argminw(cos(vw,vwc+vwb−vwa))
这些指标和训练数据的来源规模以及词向量维度等都有关系
应用:
# initialization self.embedding.weight.data.uniform_(-0.1, 0.1) # copy glove vector to embedding self.embedding.weight[idx].data.copy_(vectors[idx])
一般地,下游任务的数据集和预训练词向量用的数据集有所不同,因此,只
copy_
预训练词表中存在的词,而其他不存在的词仍然使用一开始uniform_
随机初始化的词向量,并在后续训练过程中精调。当然,也可以把其他不存在的词都使用<unk>
代替 (虽然效果可能不太好)。另外,在训练过程中,有的情况下冻结词向量参数会比较好,即设置 embedding 层为
requires_gradient=False
, 此时,词向量被作为特征使用。
II. 外部任务评价法
- 根据下游任务的性能指标判断
(五) 总结
六、动态词向量预训练模型
(一) 从静态到动态
静态词向量都基于分布式语义假设,本质是将一个词在整个语料库中的共现上下文信息聚合到该词的向量表示中,因此,一旦训练完成,词向量的表示是恒定的,不随上下文的变化而变化。然而,一词多义告诉我们,上下文不同,词义也不同。
因此提出上下文相关的词向量 (Contextualized Word Embedding) ,也称为动态词向量。
动态词向量仍然严格满足分布式语义假设。
循环神经网络每个隐含层的表示正好可以作为该时刻词在当前上下文条件下的向量表示,即动态词向量。
因此提出了 TagLM (序列标注模型)、ELMo (深度上下文相关词向量)、CoVe (双语平行语料)
称为:基于语言模型的动态词向量预训练
(二) ELMo 词向量
I. 双向语言模型
输入表示层:
基于字符组合的神经网络表示,以减小 OOV 的影响
即词 token 用字符 t, o, k, e, n 来表示,没什么深奥的
vci=Echareciv_{c_i}=\pmb{E}^{char}e_{c_i}vci=EEEchareci where Echar∈Rdchar×∣Vchar∣\pmb{E}^{char}\in \mathbb{R}^{d^{char}\times|\mathbb{V}^{char}|}EEEchar∈Rdchar×∣Vchar∣, where Vchar\mathbb{V}^{char}Vchar 为所有字符集合,dchard^{char}dchar为字符向量维度
wt=c1c2...cl‾w_t = \overline{c_1c_2...c_l}wt=c1c2...cl
进行一维卷积对字符级向量表示序列进行语义组合 (Semantic Composition), dchard^{char}dchar作为输入通道个数记为 NinN^{in}Nin, 输出向量维度作为输出通道个数 NoutN^{out}Nout. 可以使用不同大小的卷积核获取不同粒度的字符级上下文信息。隐含层向量的维度由每个卷积核的输出通道维数决定 (拼接而不是加和)。
然后,对隐含层所有位置的输出向量进行池化操作,就可以得到词 wtw_twt 的定长向量表示 ftf_tft.
例如,宽度分别为 {1, 2, 3, 4, 5, 6, 7}的 7 个一维卷积核,7 个 卷积核分别产生了 {7, 6, 5, 4, 3, 2, 1} 个输出向量,每个向量的维度 (输出通道数量) 分别为 { 32, 32, 64, 128, 256, 512, 1024}, 对所有位置进行池化操作, 针对每个卷积核 的池化宽度分别为 {pool7, pool6, pool5, pool4, pool3, pool2, pool1},这样,每个卷积核的输出经过池化后分别转为一个向量,但是这 7 个向量维度不一,我们直接拼接: sum{ 32, 32, 64, 128, 256, 512, 1024}=2048, 即 ftf_tft的维度。这个 ftf_tft 即初步表示了词 wtw_twt 。
- 最后经过单层 Highway 神经网络, 得到词 wtw_twt 的输入向量表示 (也可以多层)
- xt=g⊙ft+(1−g)⊙RELU(Wft+b)x_t=g\odot f_t+(1-g)\odot RELU(Wf_t+b)xt=g⊙ft+(1−g)⊙RELU(Wft+b)
- 门控向量 g=σ(Wgft+bg)g=\sigma{(W^gf_t+b^g)}g=σ(Wgft+bg)
- highway 神经网络的输出实际上是输入层 ftf_tft 与隐含层 RELU(Wft+b)RELU(Wf_t+b)RELU(Wft+b) 的线性插值结果。
这个输入层模型不是唯一的,也可以用字符级双向LSTM网络编码单词内字符串序列,欢迎尝试其他的结构。
前向语言模型:以多层堆叠的 LSTM 为例,也可以使用 Transformer
P(w1w2...wn)=∏t=1nP(wt∣x1:t−1;θlstm→,θsoftmax)P(w_1w_2...w_n)=\prod_{t=1}^{n}P(w_t|x_{1:t-1};\overrightarrow{\theta^{lstm}},\theta^{softmax})P(w1w2...wn)=∏t=1nP(wt∣x1:t−1;θlstm
,θsoftmax) 后向语言模型:以多层堆叠的 LSTM 为例,也可以使用 Transformer
P(w1w2...wn)=∏t=1nP(wt∣xt+1:n;θlstm←,θsoftmax)P(w_1w_2...w_n)=\prod_{t=1}^{n}P(w_t|x_{t+1:n};\overleftarrow{\theta^{lstm}},\theta^{softmax})P(w1w2...wn)=∏t=1nP(wt∣xt+1:n;θlstm
,θsoftmax)
前后向语言模型共享了输出层 softmax 参数
通过最大化前向、后向语言模型的似然函数,就可以完成 ELMo 的预训练
II. ELMo 词向量
模型的编码部分(含输入表示层与多层堆叠 LSTM) (一般用 LSTM 最后一层隐含层) 便可以作为动态词向量表示。
然而,不同层次的隐含层向量蕴含了不同层次或粒度的文本信息。
- 顶层编码了更多的语义信息
- 底层编码了更多的词法、句法信息
最终的 ELMo 词向量:因此,ELMo 对不同层次隐含层采取了加权平均,为不同的下游任务提供了更多的组合自由度。
- 设状态向量集合: Rt={xt,ht,j∣j=1,...,L}\mathbb{R_t}=\{x_t,h_{t,j}|j=1,...,L\}Rt={xt,ht,j∣j=1,...,L} (LLL 为层数),其中,ht,j=[ht,j←;ht,j→]h_{t,j}=[\overleftarrow{h_{t,j}};\overrightarrow{h_{t,j}}]ht,j=[ht,j;ht,j]
- ELMot=f(Rt,Ψ)=γtask∑j=0Lsjtaskht,jELMo_t=f(\mathbb{R_t, \Psi})=\gamma^{task}\sum_{j=0}^Ls_j^{task}h_{t,j}ELMot=f(Rt,Ψ)=γtask∑j=0Lsjtaskht,j
- ht,0=xth_{t,0}=x_tht,0=xt
- Ψ={stask,γtask}\Psi=\{s^{task},\gamma^{task}\}Ψ={stask,γtask} 为额外参数,前者表示每个向量的权重,可以由一组参数通过 softmax 函数归一化计算得到,一般在下游任务的训练过程中学习;后者同样和下游任务相关,当 ELMo 向量与其他向量共同作用时候,适当地缩放 ELMo 词向量。
一般,ELMo 与下游任务一起训练,当然,也可以冻结词向量,不参与训练更新
III. ELMo 词向量的特点
- 动态:上下文相关
- 健壮:字符级输入,对于 OOV 具有健壮性
- 层次:较大的使用自由度 (c.f. 六 (二) II.ELMo 词向量)
IV. 模型实现
可以看这位同学的系列代码详解笔记:ELMo代码详解, 这里记录一些关键点
前后向 LSTM 的输入输出(ground truth)
- 输入均为:
<bos>w1w2w3...wn<eos>
- 前向输出:
w1w2w3...wn<eos><pad>
- 后向输出:
<pas><bos>w1w2w3...wn
<pad>处不做预测
- 输入均为:
字符级和单词级的词表等都要建立
字符集的保留标记新增:
<BOW_TOKEN>
词首和<EOW_TOKEN>
词尾我们分别计算前向语言模型和后向语言模型的输出,即分别提取两者最后一层的输出,分别计算两者的损失函数记为前向损失和后向损失,最终的损失是两个损失的平均
可以把输入层表示编码和双向 LSTM 编码分别给出来
通过公式不难发现,前后向 LSTM 的输出是独立输出的,一般将两者做拼接 (concatenation) 后作为词向量,当然,也可以灵活的进行处理,如加和等
之所以前向和后向要各自独立地进行训练与处理,是因为防止信息泄露
c.f. 七 (三) 第一条
ELMo 可以用于模型的不同层,用于不同层的 ELMO 可以有不同的 stasks^{task}stask, c.f. 六 (二) V.应用与评价第一条
也可以使用开源的 ELMo 预训练模型
AllenNLP :欢迎参考我的开源代码笔记本 NoahKit@ZenMoore
from allennlp.modules.elmo import Elmo, batch_to_ids options_file = 'url-to-options.json' weights_file = 'url-to-weights.json' elmo = Elmo(options_file, weights_file, num_output_representations=1, dropout=0) # num_output_representations 用于控制输出的 ELMo 向量的数目,即不同组合方式的数目,参见 六 (二) V.应用与评价第一条 以及 六 (二) VI.模型实现第七条sentences = [['i', 'love', 'elmo'], ['hello', 'elmo']] character_ids = batch_to_ids(sentences) embeddings = elmo(character_ids)
# embeddings 是这个样子的 {'elmo_representations':tensor(...), # size=(bsz, max_length, dim) 'mask':tensor([[True, True, True],[True, True, False]])} # 输入文本补齐后对应的掩码矩阵
HIT-SCIR 发布的多语言 ELMo 预训练模型
V. 应用与评价
ELMo 非常灵活,既可以当作可训练的,也可以当作特征即插即用;既可以与静态词向量一起在模型的底层作为模型输入 [xk;ELMok][x_k; ELMo_k][xk;ELMok], 也可以与模型顶层或者接近输出层的隐含层相结合作为分类器 (softmax 层)的输入 [hk;ELMok][h_k;ELMo_k][hk;ELMok]
回到开始,动态词向量很好地弥补了静态词向量对于一词多义现象的表达能力的不足。
七、预训练语言模型
(一) 概述
- 大数据:数据数量和质量之间进行权衡
- 大算力:NVIDIA GPU+CUDA (如 Volta V100 等), TPU (如 v2, v3 等)
- 大模型:较高的并行程度,捕获并构建上下文信息
(二) GPT
- 生成式预训练 + 判别式任务精调
- 基于单向多层 Transformer
I. 无监督预训练
- 训练任务:最大似然估计 LPT(x)=∑ilogP(xi∣xi−k...xi−1;θ)\mathcal{L}^{PT}(x)=\sum_ilogP(x_i|x_{i-k}...x_{i-1};\theta)LPT(x)=∑ilogP(xi∣xi−k...xi−1;θ), where kkk 是窗口大小
其中,h[0]=ex′We+Wph^{[0]}=e_{x'}W^e+W^ph[0]=ex′We+Wp; h[l]=Transformer−Block(h[l−1])h^{[l]}=Transformer-Block(h^{[l-1]})h[l]=Transformer−Block(h[l−1]);P(x)=Softmax(h[L]WeT)P(x)=Softmax(h^{[L]}W^{eT})P(x)=Softmax(h[L]WeT)
其中,ex′∈Rk×∣V∣e_{x'}\in \mathbb{R}^{k\times\mathbb{|V|}}ex′∈Rk×∣V∣ 为词 x′x'x′ 的独热向量,We∈R∣V∣×dW^e\in \mathbb{R}^{|\mathbb{V}|\times d}We∈R∣V∣×d 为词向量矩阵,Wp∈Rn×dW^p \in \mathbb{R}^{n\times d}Wp∈Rn×d 为位置矩阵,这里截取其窗口的部分;LLL 表示 Transformer 总层数
II. 有监督下游任务精调
精调的目的是在通用语义的基础上,根据下游任务的特性进行领域适配
例如带标签的任务:LFT(C)=∑(x,y)logP(y∣x1...xn)\mathcal{L}^{FT}(\mathcal{C})=\sum_{(x,y)}logP(y|x_1...x_n)LFT(C)=∑(x,y)logP(y∣x1...xn) , P(y∣x1...xn)=Softmax(hn[L]Wy)P(y|x_1...x_n)=Softmax(h_n^{[L]}W^y)P(y∣x1...xn)=Softmax(hn[L]Wy)
其中,yyy 是标签,Wy∈Rd×kW^y\in\mathbb{R}^{d\times k}Wy∈Rd×k, kkk 是标签数, C\mathcal{C}C 是标注数据集
为了防止灾难性遗忘问题,可以在精调损失中加入一定权重的预训练损失,通常预训练损失权重系数为 0.5
III. 下游任务适配
这里主要说的是输入输出形式的适配
(三) BERT
最重要模型,没有之一,建议直接看论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,任何博客都不可能比原文更加详细!
GPT 采用自回归 (ARLM, Auto-Regressive Language Model):即根据序列历史计算当前时刻词的条件概率,logP(x)=∑i=1NlogP(xi∣x1:i−1)logP(x)=\sum_{i=1}^{N}logP(x_i|x_{1:i-1})logP(x)=∑i=1NlogP(xi∣x1:i−1), where xxx 表示整个序列
如果同时使用历史和未来,会产生信息泄露!即根据历史预测当前时刻词的时候,已经知道未来啦!所以 ELMo 选择了对前向和后向分别独立地进行训练。
传统基于 N-gram 的语言模型也是自回归的
BERT 采用自编码 (AELM, Auto-Encoding Language Model) : 类似于 MLM 这种预训练任务叫做基于自编码的预训练任务,即通过上下文重构被掩码的单词,logP(x∣x^)=∑i=1NmilogP(xi∣x^)logP(x|\hat{x})=\sum_{i=1}^Nm_ilogP(x_i|\hat{x})logP(x∣x^)=∑i=1NmilogP(xi∣x^), where x^\hat{x}x^ 表示被掩码的序列,xxx 表示整个完整序列,mim_imi 表示第 iii 个单词是否被掩码
MLM : 掩码语言模型,是为了真正同时地依赖于历史和未来。
设 kkk 为一个句子的掩码词数量,我们拼接它们的语义表示 (最后一层 Transformer 输出)
hm∈Rk×dh^m\in \mathbb{R}^{k\times d}hm∈Rk×d, 一般,输入层维度 eee 和隐含层维度 ddd 相等,因此,直接使用 Token Embedding 矩阵即可:Pi=Softmax(himWtT+boutput),i=1,2,...,kP_i=Softmax(h^m_iW^{tT}+b^{output}), i=1,2,...,kPi=Softmax(himWtT+boutput),i=1,2,...,k,然后计算交叉熵损失。
NSP:下一句预测
只取 h0h_0h0, $P=Softmax{(h_0W{output})+b{output}}\ where\ W{output}\in\mathbb{R}{d\times2} $ , 然后使用交叉熵进行损失计算。
BERT 的输入:将原始独热向量经过线性变换投影成dim=edim=edim=e
- Token Embedding : vt=etWt,Wt∈R∣V∣×ev^t=e^tW^t, W^t\in \mathbb{R}^{\mathbb{|V|}\times e}vt=etWt,Wt∈R∣V∣×e
- Segment Embedding : vs=esWs,Ws∈R∣S∣×ev^s=e^sW^s, W^s\in \mathbb{R}^{\mathbb{|S|}\times e}vs=esWs,Ws∈R∣S∣×e
- Positional Embedding : vp=epWp,Wp∈RN×ev^p=e^pW^p, W^p\in \mathbb{R}^{N\times e}vp=epWp,Wp∈RN×e
然后三个向量维度相同,直接相加,就是嵌入层的向量
BERT 的 token 不是整词,而是由 WordPiece 计算出来的子词!
中文:子就是子词,词就是整词
(四) 更多掩码策略
除了上述 MLM 和 NSP 两个基本预训练任务外:再介绍三种掩码策略作为新的预训练任务
I. 整词掩码 WWM
在原来子词的基础上做掩码,即掩码掉一个整词的全部子词
注意:这里的掩码和原 BERT 模型一致,80%概率[MASK], 10%概率[RANDOM],10%保留,于是导致最终一个整词各子词的掩码方式可能不一,这是正常哒!
II. N-gram 掩码 NM
进一步挖掘模型对连续空缺文本的还原能力
- 可以选择 短语表抽取:从语料库中抽取高频短语,但是语料库也太大了啊喂!
- 于是采用下面的办法:
- 根据掩码概率判断当前标记 Token 是否会 MASK
- 如果会,进一步判断 N-gram 的掩码概率 (假设最大短语长度为 4):从 unigram 到 4-gram 概率依次减小 (40%, …, 10%), 也就是说要以概率确定一个 N
- 对该标记及其之后 N-1 个标记进行掩码,不足 N-1 时候,以词边界进行截断
- 掩码完毕后,跳过 N-gram,对下一个候选标记进行同样的掩码判断
由于输入仍然是子词 token, 因此不同掩码策略预训练出来的 BERT 对于下游任务是可以无缝替换的,且无须改变任何下游任务的精调代码!掩码策略只影响预训练,掩码策略对于下游任务是透明的。
(五) 预训练模型应用
I. 概述
使用特征提取范式:BERT 作为特征提取输出语义表示,不进行梯度学习,后续接下游任务模型
参数少,但是对下游任务模型的设计提出了高的要求
使用精调范式:BERT 也跟着训练
效果显著好,但是参数太多 (被大算力相对解决)
II. 单句文本分类 SSC
如情感分类任务 SST-2, 代码基于 hugging face
参见本人代码集 NoahAI@ZenMoore
III. 句对文本分类 SPC
如英文文本蕴含数据集 RTE
参见本人代码集 NoahAI@ZenMoore
IV. 抽取式阅读理解 Span-extraction Reading Comprehension
如英文阅读理解数据集 SQuAD 和中文阅读理解数据集 CMRC 2018
<cls>question<seq>passage<seq>
将问题放在前面,防止超长截断,同时,对于篇章,可以采取篇章切片的方式进行多次预测,并综合相应的答题结果得到最终的输出。- BERT 末尾加一层全连接,用 Ps=Softmax(hWs+bs)P^s=Softmax(hW^s+b^s)Ps=Softmax(hWs+bs) 和 Pe=Softmax(hWe+be)P^e=Softmax(hW^e+b^e)Pe=Softmax(hWe+be) 计算出 span 的起始和终止位置概率。将起始位置和终止位置分别计算交叉熵损失然后求平均作为总损失
- 解码方法:根据上面的概率,起始和终止分别记录 Top-K 个 (位置,概率)二元组,然后起始终止组合,每对儿概率直接乘积就好,得到 (起始位置,终止位置,概率) 的 K x K 个三元组,保证起始位置小于等于终止位置,筛选出概率最高的那个
参见本人代码集 NoahAI@ZenMoore
V. 命名实体识别 NER
如命名实体识别数据集 CoNLL-2003 NER.
BIO 标注模式: Begin, Intermediate, Other
如 John Smith has never been to Harbin
标 B-PER, I-PER, O, O, O, O, B-LOC
BIOES 标注模式: Begin, Intermediate, Other, End, Single
Pt=Softmax(htWo+bo)P_t=Softmax{(h_tW^o+b^o)}Pt=Softmax(htWo+bo), Wo∈Rd×KW^o\in \mathbb{R}^{d\times K}Wo∈Rd×K, KKK 表示标注模式的类别, 然后通过交叉熵损失进行学习
也可以在概率输出之上增加条件随机场 CRF 这一个传统命名实体识别模型
参见本人代码集 NoahAI@ZenMoore
(六) 深入理解 BERT
I. 可解释性概述
关于可解释性 : 分为自解释(self-explainable) 和事后解释(post-hoc explanation)
自解释:模型设计的可解释性
事后解释:模型行为的可解释性
目前对 BERT 的解释主要集中在 Post-hoc explanation
关于事后解释:需要建立模型行为与人类概念系统之间的映射
对 NLP 来说,人类概念系统即语言学特征
- BERT 能够表达哪些语言学特征?
- BERT 每一层的多头自注意力分别捕获了哪些关系特征?
- 它的每一层表示是否和 ELMo 一样具有层次性?
- …
II. 定性:自注意力可视化分析
- 自注意力的本质事实上是对词(或标记)与词之间关系特征 (relational feature) 的刻画。不同类型的关系可以表达丰富的语义,比如依存关系、指代关系等。
- 挺有意思的,建议看原文献:What Does BERT Look At? An Analysis of BERT’s Attention
III. 定量:探针实验
核心思想:设计特定的探针,对于待分析对象(如自注意力或隐含层表示)进行特定行为分析。
探针:通常是非参或非常轻量的参数模型(如线性分类器),它接受待分析对象作为输入,并对特定行为进行预测,而预测的准确度可以作为待分析对象是否具有该行为的衡量指标
也可以对预训练编码器的隐含层表示直接进行探针实验,这里的探针可以是一个简单的线性分类器,利用隐含层表示作为特征在目标任务上进行训练,从而根据该任务的表现对预训练模型隐含层表示中蕴含的语言学特征进行评估
对于更加复杂的结构预测类任务,如句法分析等,也可以设计针对性的结构化探针
八、预训练语言模型进阶
- 模型优化:如何进一步改进现有的预训练模型?
- 长文本处理:如何更好地建模长文本?
- 蒸馏与压缩:如何提升预训练语言模型的效率?
- 生成式模型:如何设计出更有效的生成式预训练语言模型?
(一) 模型优化
- 自编码语言模型不具备自回归的预测性
- “预训练-精调”不一致问题:自编码语言模型中引入人造标记 [MASK]的问题:即原来没有 [MASK] 这个单词,人为新增了一个单词,多多少少会带来问题
- 自回归语言模型单向性
- BERT : 太重,改进空间大
I. XLNet
基本特点:
- 使用自回归语言模型结构,使得每个单词的预测存在依赖性,同时避免了“预训练-精调”不一致问题。(这也是 BERT 的缺点,GPT 的优点)
- 引入了自编码语言模型中的双向上下文,能够利用好更加丰富的上下文信息,而不像传统自回归模型那样只有单向信息。(这也是 BERT 的优点,GPT 的缺点)
- 使用了 Transformer-XL 作为主体框架,比 Transformer 拥有更好的性能。
Transformer-XL 在 “八 (二) 长文本处理” 中介绍。
输入层表示:采用和 BERT 一样的三种 Embedding 相加的方式, 记为 vxiv_{x_i}vxi
排列语言模型 (Permutation Language Model)
对句子建模顺序进行了更改, 如P(x)=P(x3)P(x2∣x3)P(x4∣x3x2)P(x1∣x3x2x4)P(x)=P(x_3)P(x_2|x_3)P(x_4|x_3x_2)P(x_1|x_3x_2x_4)P(x)=P(x3)P(x2∣x3)P(x4∣x3x2)P(x1∣x3x2x4)
原顺序为:1 -> 2 -> 3 -> 4
改成了 :3 -> 2 -> 4 -> 1
不难证明两种顺序的 P(x)P(x)P(x) 是相等的
最大化对数似然函数:Ez∼ZN[logP(x∣z)]=Ez∼ZN[∑i=1NP(xzi∣xz1:i−1,zi)]\mathbb{E_{z\sim{Z_\mathit{N}}}}[logP(x|z)]=\mathbb{E_{z\sim{Z_\mathit{N}}}}[\sum_{i=1}^NP(x_{z_i}|x_{z_{1:i-1}},z_i)]Ez∼ZN[logP(x∣z)]=Ez∼ZN[∑i=1NP(xzi∣xz1:i−1,zi)]
ZN\mathbb{Z}_NZN 表示所有可能的排列方式
ziz_izi 表示新顺序
在下游任务阶段:P(xzi=x∣xz1:i−1)=exp(vxThxz1:i−1)∑x′exp(vx′Thxz1:i−1)P(x_{z_i}=x|x_{z_{1:i-1}})=\frac{exp(v_x^Th_{x_{z_{1:i-1}}})}{\sum_{x'}exp(v_{x'}^Th_{x_{z_{1:i-1}}})}P(xzi=x∣xz1:i−1)=∑x′exp(vx′Thxz1:i−1)exp(vxThxz1:i−1)
在预训练阶段:P(xzi=x∣xz1:i−1)=exp(vxTg(xz1:i−1,zi))∑x′exp(vx′Tg(xz1:i−1,zi))P(x_{z_i}=x|x_{z_{1:i-1}})=\frac{exp(v_x^Tg(x_{z_{1:i-1}}, z_i))}{\sum_{x'}exp(v_{x'}^Tg(x_{z_{1:i-1}}, z_i))}P(xzi=x∣xz1:i−1)=∑x′exp(vx′Tg(xz1:i−1,zi))exp(vxTg(xz1:i−1,zi)), where g(⋅)g(·)g(⋅) 表示一种依赖于目标位置 ziz_izi 的隐含层表示方法,详见下面的“双流自注意力机制"
之所以不用下游任务阶段的那个式子,是因为:
hxz1:i−1h_{x_{z_{1:i-1}}}hxz1:i−1 是不依赖于目标位置 ziz_izi 的,也就是说,对于不同的目标位置,这个式子总会产生一样的概率分布,这将无法满足最大化对数似然函数的建模要求
双流自注意力机制 (Two-stream Self-attention)
g(⋅)g(·)g(⋅) 应该满足两个要求:
- 预测 xzix_{z_i}xzi 时候,只能知道位置信息 ziz_izi 不能知道单词信息 xzix_{z_i}xzi
- 预测 xzj(j>i)x_{z_j}\ (j>i)xzj(j>i) 的时候,又需要编码 xzix_{z_i}xzi 以提供完整的上下文信息
因此,改变 Vanilla Transformer ,同一个单词具有两种表示方法:
- 内容表示 hzih_{z_i}hzi: Vanilla Transformer 的表示,可以同时建模 xzix_{z_i}xzi 及其上下文
- 查询表示 gzig_{z_i}gzi: 能建模上下文信息 xz1:i−1x_{z_{1:i-1}}xz1:i−1以及目标位置 ziz_izi , 但不能知道 xzix_{z_i}xzi
内容表示:hzi[0]=vxih_{z_i}^{[0]}=v_{x_i}hzi[0]=vxi, then hzi[l]←Transformer−Block(Q=hzi[l−1],K=hz≤i[l−1],V=hz≤i[l−1];θ)h_{z_i}^{[l]}\leftarrow Transformer-Block(Q=h_{z_i}^{[l-1]}, K=h_{z_{\le i}}^{[l-1]}, V=h_{z_{\le i}}^{[l-1]};\theta)hzi[l]←Transformer−Block(Q=hzi[l−1],K=hz≤i[l−1],V=hz≤i[l−1];θ)
查询表示:gzi[0]=wg_{z_i}^{[0]}=wgzi[0]=w, where www 是随机初始化的可训练向量,then
gzi[l]←Transformer−Block(Q=gzi[l−1],K=hz1:i−1[l−1],V=hz1:i−1[l−1];θ)g_{z_i}^{[l]}\leftarrow Transformer-Block(Q=g_{z_i}^{[l-1]}, K=h_{z_{1:i-1}}^{[l-1]}, V=h_{z_{1:i-1}}^{[l-1]};\theta)gzi[l]←Transformer−Block(Q=gzi[l−1],K=hz1:i−1[l−1],V=hz1:i−1[l−1];θ)
主要通过改变注意力掩码矩阵实现,分别记为 Mi,jhM_{i,j}^hMi,jh 和 Mi,jgM_{i,j}^gMi,jg
表示 第 i 个词和第 j 个词之间有无关联
g,hg,hg,h 分别表示查询表示和内容表示
使用最后一层的查询表示计算预训练阶段概率分布
部分预测 (Partial Prediction)
- 为了收敛速度:排列是随机的而且很多
- 因此只截取末尾 1K\frac{1}{K}K1 的子序列进行预测,即先随机排列,然后选择子序列,分为 non-target 和 target
- non-target : 不计算查询流,利用下游任务阶段的那个式子,使用 Vanilla Transformer
- target : 使用上述的完整方法进行预测
相对块编码 (Relative Segment Encodings)
- 提升了模型对不同输入形式的泛化能力,甚至可以多于两个输入的 Segment.
这里记录一个问题及其解答:
II. RoBERTa
并没有大刀阔斧的改进 BERT,而只是针对 BERT 的每一个设计细节进行了详尽的实验找到了 BERT 的改进空间。
动态掩码:原始方式是构建数据集的时候设置好掩码并固定,改进方式是每轮训练将数据输入模型的时候才进行随机掩码
舍弃 NSP 任务
- 四种:文本对输入+NSP, 句子对输入+NSP,跨文档整句输入,文档内整句输入 (后两个不用 NSP)
- 实验表明:除了情感分类任务 SST-2, 其他任务不使用 NSP 均能提升性能
- 文档内整句输入 比 跨文档整句输入 性能好,但是前者导致批次大小是个可变量,因此,最终选择了跨文档整句输入并舍弃了 NSP 任务
更多训练数据,更大批次,更长的预训练步数
更大的词表:使用 SentencePiece 这种字节级别的 BPE 词表而不是 WordPiece 字符级别的 BPE 词表,这样,不会出现未登录词的情况
比如使用英文的 BERT 词表,也许输入德文会不出现 UNK ,但是输入日文和中文,会有很多 UNK,因为中文的子词不在英文的 BERT 词表中
但是使用 RoBERTa 词表,因为是字节级别,即便是中日文输入,也不会出现哪怕一个 UNK
III. ALBERT
BERT 参数量相对较大,因此提出 A Lite BERT.
词向量因式分解:
问题一:BERT 的词向量维度和隐含层维度相同,根据 embedding 的式子不难看出,这个词向量是上下文无关的 (因为每个单词独立的通过线性变换投影到了词向量空间上) ,而 BERT 的 Transformer 层可以学到充分的上下文信息,因此隐含层向量维度 HHH 应该远远大于词向量维度 EEE
问题二:当增大 HHH 提升模型性能时,由于 EEE 恒等变大,导致词向量矩阵参数量激增,而词向量的信息就那么多,因此词向量矩阵更新是稀疏的,参数利用率不高
解决:令 H≠EH\neq EH=E, 并在词向量空间之后新增全连接层将 EEE 投影到 HHH 上
原来:O(VH)=O(VE)O(VH)=O(VE)O(VH)=O(VE)
改进后 : O(VE+EH)O(VE+EH)O(VE+EH)
跨层参数共享
句子顺序预测 SOP
- 正例不变,负例对调文本对
- 学习到细微的语义差别和语篇连贯性
- NSP 任务不好是因为太简单,SOP 相对困难一些
IV. ELECTRA
基本思想:生成器-判别器
生成器:即一个 MLM + Sampling, PG(xm∣x)=Softmax(hmGWeT)P^G(x_m|x)=Softmax(h_m^GW^{eT})PG(xm∣x)=Softmax(hmGWeT)
xxx 是一句带 [MASK] 的文本,mmm 是掩码下标
WeW^eWe 为词向量矩阵
采样:按照概率采样出掩码住的词汇
判别器:输入=采样后的句子,输出为 替换词检测 (RTD),PD(xis)=σ(hiDw),∀i∈MP^D(x_i^s)=\sigma(h_i^Dw), \forall i\in \mathbb{M}PD(xis)=σ(hiDw),∀i∈M
xsx^sxs 是采样的句子,w∈Rdw\in \mathbb{R}^dw∈Rd是全连接层权重,M\mathbb{M}M 是所有经过掩码的单词位置下标
输入是不带掩码的文本,因此和下游任务适配,解决了 BERT 人为引入 MASK 的问题
RTD:判断一个词是不是原句(不带掩码的原句)对应位置的单词
预训练任务:
- 生成损失:LG=−∑i∈SlogPG(xi)\mathcal{L}^G=-\sum_{i \in \mathbb{S}}logP^G(x_i)LG=−∑i∈SlogPG(xi)
- 判别损失:LD=−∑i∈S[yilogPD(xis)+(1−yi)log(1−PD(xis))]\mathcal{L}^D=-\sum_{i\in\mathbb{S}}[y_ilogP^D(x_i^s)+(1-y_i)log(1-P^D(x_i^s))]LD=−∑i∈S[yilogPD(xis)+(1−yi)log(1−PD(xis))]
- 总损失:minθG,θD∑x∈XLG(x,θG)+λLD(x,θD)min_{\theta^G,\theta^D}\sum_{x\in \mathcal{X}}\mathcal{L}^G(x,\theta^G)+\lambda\mathcal{L}^D(x,\theta^D)minθG,θD∑x∈XLG(x,θG)+λLD(x,θD)
- 采样没有梯度回传,因此两个损失
下游任务精调:只使用判别器,抛弃生成器
改进:
生成器和判别器分别一个 BERT,太大了:缩放生成器 BERT 参数
缩放比通常为 1/4 至 1/2
词向量因式分解
两器参数共享:只能在输入层进行参数共享,包括词向量矩阵和位置向量矩阵。
V. MacBERT
哈工大-讯飞联合实验室的作品,用于解决“预训练-精调”不一致问题
- “预训练-精调”不一致问题:就是上面说的预训练时候有掩码标记,下游没有掩码标记,人为造词,两者不一
- 与 BERT 的不同:
- 整词掩码和 N-gram 掩码
- 使用相似词替代掩码标记,没有相似词时,使用词表随机词
- 使用 SOP 替换 NSP 任务
- 叫做:基于文本纠错的掩码语言模型 (MLM as correction, Mac)
VI. 总结
(二) 长文本处理
- 自注意力模型复杂度 O(N2)O(N^2)O(N2), 时间和空间都是
- 传统长文本处理方法:切分输入文本为固定长度,然后将多片的处理结果进行投票或者平均或者拼接
I. Transformer-XL
基本思想:解决切分文本每块间的失联问题以及滑动窗口处理方式的低效性
切分文本每块间的失联问题: 如 x 分为 (x_1,…, x_4), (x_5,…x_8), 两块儿分别处理,(x_5,…x_8)看不到前面四个
滑动窗口处理方式的低效性: (x_1,…, x_4)处理一次, (x_5,…x_8)还要再处理一次
状态复用的块级别循环 (Segment-level Recurrence with State Reuse)
假设两块: sτ=xτ,1...xτ,ns_{\tau}=x_{\tau,1}...x_{\tau,n}sτ=xτ,1...xτ,n 和 sτ+1=xτ+1,1...xτ+1,ns_{\tau+1}=x_{\tau+1,1}...x_{\tau+1,n}sτ+1=xτ+1,1...xτ+1,n
隐含状态递推计算
- h~τ+1[l−1]=[SG(hτ[l−1])∘hτ+1[l−1]]\tilde{h}_{\tau+1}^{[l-1]}=[SG(h_\tau^{[l-1]})\circ h_{\tau+1}^{[l-1]}]h~τ+1[l−1]=[SG(hτ[l−1])∘hτ+1[l−1]] , SG(⋅)SG(·)SG(⋅) 表示停止梯度传输,∘\circ∘ 表示沿着长度拼接
- qτ+1[l]=hτ+1[l−1]WqTq_{\tau+1}^{[l]}=h_{\tau+1}^{[l-1]}W^{qT}qτ+1[l]=hτ+1[l−1]WqT, kτ+1[l]=h~τ+1[l−1]WkTk_{\tau+1}^{[l]}=\tilde{h}_{\tau+1}^{[l-1]}W^{kT}kτ+1[l]=h~τ+1[l−1]WkT, vτ+1[l]=h~τ+1[l−1]WvTv_{\tau+1}^{[l]}=\tilde{h}_{\tau+1}^{[l-1]}W^{vT}vτ+1[l]=h~τ+1[l−1]WvT
- hτ+1[l]=Transformer−Block(qτ+1[l],kτ+1[l],vτ+1[l])h_{\tau+1}^{[l]}=Transformer-Block(q_{\tau+1}^{[l]}, k_{\tau+1}^{[l]}, v_{\tau+1}^{[l]})hτ+1[l]=Transformer−Block(qτ+1[l],kτ+1[l],vτ+1[l])
注意:hτ+1[l]h_{\tau+1}^{[l]}hτ+1[l] 和 hτ[l−1]h_\tau^{[l-1]}hτ[l−1] 之间的循环依赖性使得存在向下一层的计算依赖,这与 RNN 的同层循环机制是不同的。因此,最大的可能依赖长度随着块的长度 nnn 和层数 LLL 呈线性增长,即 O(nL)O(nL)O(nL)
这与 RNN 的 BPTT 类似,然而,在这里是将整个序列的隐含层状态全部缓存,而不是像 BPTT 那样只会保存最后一个状态。
这个设计还能加快测试速度,达 1800 倍以上的加速
比如两个片段:[1, 2, 3, 4] 和 [5, 6, 7, 8]
因为原来解码的时候是这样的: [1, 2, 3, 4]->5, [2, 3, 4, 5]->6,…
现在是这个样子的:[1, 2, 3, 4]->5, [1, 2, 3, 4](cache)+[5]->6, [1, 2, 3, 4](cache)+[5, 6]->7
相对位置编码
但是,如何区分不同块的相同位置,因为每个块用的绝对位置编码是一致的
因为位置信息的重要性主要体现在注意力矩阵的计算上,用于构建不同词之间的关联关系
ai,j=vxiTWqTWEvxj+vxiTWqTWRRi−j+uETWEvxj+uRTWRRi−ja_{i,j}=v_{x_i}^TW^{qT}W^Ev_{x_j}+v_{x_i}^TW^{qT}W^RR_{i-j}+u^{ET}W^Ev_{x_j}+u^{RT}W^RR_{i-j}ai,j=vxiTWqTWEvxj+vxiTWqTWRRi−j+uETWEvxj+uRTWRRi−j
vvv 表示词向量,WWW表示可以训练的矩阵,u∈Rdu\in\mathbb{R}^du∈Rd 表示可以训练的位置向量
R∈RN×dR\in \mathbb{R}^{N\times d}R∈RN×d 表示相对位置矩阵,是一个不可训练的正弦编码矩阵,其第 i行表示相对位置间隔为 i 的位置向量
- 第一项:基于内容的相关度:计算查询 xix_ixi 与键 xjx_jxj 的内容之间关联信息
- 第二项:内容相关的位置偏置:计算查询的内容与键的位置编码之间的关联信息
- 第三项:全局内容偏置:计算查询的位置编码与键的内容之间的关联信息
- 第四项:全局位置偏置:计算查询与键的位置编码之间的关联信息
查询 xix_ixi的内容:WqvxiW^qv_{x_i}Wqvxi
查询 xix_ixi的位置编码:uEu^EuE 与 uRu^RuR
键 xjx_jxj的内容:WEvxjW^Ev_{x_j}WEvxj
键 xjx_jxj的位置编码:WRRi−jW^RR_{i-j}WRRi−j
WEW^EWE 不是词向量矩阵!!!
计算 aaa 与 bbb 的关联信息:aTba^TbaTb
然后用 ai,ja_{i,j}ai,j 这个注意力矩阵来计算 Transformer 中的 attention
II. Reformer
局部敏感哈希注意力
合并查询与键 :QKQKQK共享的 Transformer
局部注意力:在 Attention 计算的 Softmax 前,只取与当前查询关联度最高的 nnn 个词,而不是全部词
局部敏感哈希 (Locality-Sensitive Hashing, LSH) : 用于解决高维空间下寻找最近邻元素的问题
- 给定一个查询向量,怎么计算与其最近邻的几个元素呢?
- 目标是设计一个哈希函数h(x)h(x)h(x),使得向量 xxx 周围的向量以较高概率具有一样的哈希值,而较远的向量具有不一样的哈希值
- 经典 LSH 方法:哈希函数定义为 h(x)=argmax([xR;−xR])h(x)=argmax([xR;-xR])h(x)=argmax([xR;−xR]), where R∈Rd×b/2R\in\mathbb{R}^{d\times b/2}R∈Rd×b/2 是一个随机矩阵,[⋅;⋅][·;·][⋅;⋅]表示向量拼接操作
注意力计算
多轮局部敏感哈希:哈希的过程即为信息压缩的过程,实际上会以很小的概率将相似向量放在不同的桶里,因此多做几轮取并集,这个可以显著提升准确性
可逆 Transformer
受到可逆残差网络 RRN 的启发:任意一层的激活值都可以通过后续层的激活值进行还原,因此在进行后向梯度计算时候,不需要再保存每个中间层的激活值,只需要通过可逆计算获得相应值即可。
计算耗时,但用时间换了空间。
残差网络一般表达为: Y=X+F(X)Y=X+\mathcal{F}(X)Y=X+F(X),F,G\mathcal{F}, \mathcal{G}F,G 是残差函数
我们分解 X,YX, YX,Y 为: (X1,X2)(X_1, X_2)(X1,X2) 和 (Y1,Y2)(Y_1, Y_2)(Y1,Y2)
然后变换为:Y1=X1+F(X2)Y_1=X_1+\mathcal{F}(X_2)Y1=X1+F(X2) 和 Y2=X2+G(Y1)Y_2=X_2+\mathcal{G}(Y_1)Y2=X2+G(Y1)
这样,就可以 X2=Y2−G(Y1)X_2=Y_2-\mathcal{G}(Y_1)X2=Y2−G(Y1) 和 X1=Y1−F(X2)X_1=Y_1-\mathcal{F}(X_2)X1=Y1−F(X2) 进行逆向计算
将 RRN 引入 Transformer 的残差计算中, Y1=X1+Attention(X2)Y_1=X_1+Attention(X_2)Y1=X1+Attention(X2) 和 Y2=X2+FFN(Y1)Y_2=X_2+FFN(Y_1)Y2=X2+FFN(Y1), 同时去掉层归一化 LN
可逆 Transformer 中的分块机制:进一步降低前馈神经网络的内存占用 (下图分成 ccc 块)
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lFCB1OCB-1628856051792)(https://www.zhihu.com/equation?tex=%5Cbegin%7Bequation%7D+%5Cbegin%7Bsplit%7D+y_2+%26%3D+x_2+%2B+FFN%28y_1%29+%5C%5C+%26%3D+%5By_2%5E%7B%281%29%7D%3B+y_2%5E%7B%282%29%7D%3B…%3By_2%5E%7B%28c%29%7D%5D+%5C%5C+%26%3D+%5Bx_2+%5E%7B%281%29%7D+%2B+FFN%28y_1+%5E%7B%281%29%7D%29%3B+x_2+%5E%7B%282%29%7D+%2B+FFN%28y_1+%5E%7B%282%29%7D%29%3B…%3B+x_2+%5E%7B%28c%29%7D+%2B+FFN%28y_1+%5E%7B%28c%29%7D%29%5D+%5Cend%7Bsplit%7D+%5Cend%7Bequation%7D)]
III. Longformer
基于稀疏注意力机制,将输入文本序列最大长度扩充为 4096.
滑动窗口注意力:每个词只与相邻 k 个词计算注意力
类似卷积,通过层的叠加可以逐步扩展感受野,如第 L 层的感受野为 Lk, 复杂度 O(N)O(N)O(N)
扩张滑动窗口注意力:引入扩张率 d, 与隔 d - 1 个词计算注意力
类似扩张卷积,L 层的感受野为 Ldk, 复杂度 O(N)O(N)O(N)
全局注意力:根据任务特点选择全局注意力要关注的位置
如分类任务中 [CLS] 是全局可见的,问答类任务中,问题中的所有单词是全局可见的
全局可见的词数量远小于序列长度,因此复杂度仍然是 O(N)O(N)O(N)
IV. BigBird
随机注意力: 针对每个词随机选择 r 个词参与注意力运算
滑动窗口注意力
全局注意力
- 内部 Transformer 组建 (Internal Transformer Construction, ITC) 模式: 同 Longformer
- 外部 Transformer 组建 (External Transformer Construction, ETC) 模式: 在输入序列中插入额外的全局标记,使其能够看到所有词,反之亦然(对方也能看到), 而非选择.
BigBird : 三种混合
证明 BigBird 是序列建模函数的通用近似方法,并且是图灵完备的
V. 总结
Transformer 变体 (aka. X-former) 综述
- Efficient Transformers: A Survey, 2020/09
- A Survey of Transformers, 2021/06
(三) 模型蒸馏与压缩
减小参数、加快运行效率?预训练语言模型压缩技术!
目前最常用的预训练语言模型压缩技术是知识蒸馏技术.
知识蒸馏技术 (Knowledge Distillation, KD):通常由教师模型和学生模型组成,将知识从教师模型传到学生模型,使得学生模型尽量与教师模型相近,在实际应用中,往往要求学生模型比教师模型小并基本保持原模型的效果。
I. DistilBERT
学生模型: 六层的 BERT, 同时去掉了标记类型向量 (Token-type Embedding, 即 Segment Embedding), 和池化模块,使用教师模型的前六层进行初始化
教师模型: BERT-base
训练:与 BERT 基本一致,只是损失函数有所区别 (只有 MLM,没有 NSP)
知识蒸馏方法:
符号:si,tis_i, t_isi,ti 表示概率输出, yiy_iyi 表示标签, , ht,hsh^t, h^sht,hs 表示最后一层隐含层输出
有监督 MLM 损失:Ls−mlm=−∑iyilog(si),\mathcal{L}^{s-mlm}=-\sum_i{y_ilog(s_i)},Ls−mlm=−∑iyilog(si), 称为硬标签(ground-truth)
蒸馏 MLM 损失:Ld−mlm=−∑itilog(si)\mathcal{L}^{d-mlm}=-\sum_i{t_ilog(s_i)}Ld−mlm=−∑itilog(si), 称为软标签(teature prob output)
DistilBERT 在计算输出概率时采用了带有温度系数的 Softmax 函数:
Pi=exp(zi/T)∑jexp(zj/T)P_i=\frac{exp(z_i/T)}{\sum_jexp(z_j/T)}Pi=∑jexp(zj/T)exp(zi/T) where zi,zjz_i, z_jzi,zj are not activated.
training step : T=8
inference step: T=1
词向量余弦损失 : 用来对齐教师模型和学生模型的隐含层向量的方向,Lcos=cos(ht,hs)\mathcal{L}^{cos}=cos(h^t, h^s)Lcos=cos(ht,hs)
总损失为三个损失的相加,比例为 1:1:1
II. TinyBERT
知识蒸馏方法:教师模型为 12 层的 BERT-base,学生模型为 4 层 BERT
词向量层蒸馏:Lemb=MSE(vsWe,vt)\mathcal{L^{emb}}=MSE(v^sW^e,v^t)Lemb=MSE(vsWe,vt)
教师模型和学生模型的词向量维度不一定相等,因此需要投影到同一维度
中间层蒸馏:中间层匹配损失=隐含层蒸馏损失+注意力蒸馏损失
映射关系:g(i)=jg(i)=jg(i)=j, 将学生模型的第 iii 层和教师模型的第 jjj 层联系起来, TinyBERT 使用的是 g(i)=3ig(i)=3ig(i)=3i
Lhid(i,j)=MSE(hs[i]Wh,ht[j])\mathcal{L^{hid}}(i,j)=MSE(h^{s^{[i]}}W^h,h^{t^{[j]}})Lhid(i,j)=MSE(hs[i]Wh,ht[j])
Latt(i,j)=1K∑k=1KMSE(As[i],At[j])\mathcal{L^{att}}(i,j)=\frac{1}{K}\sum_{k=1}^KMSE(A^{s^{[i]}},A^{t^{[j]}})Latt(i,j)=K1∑k=1KMSE(As[i],At[j])
K 表示注意力头数, AAA 是一个 n×nn\times nn×n 的注意力矩阵
这里使用的注意力矩阵未经过 Softmax 激活
Lmid=∑i,j[Lhid(i,j)+Latt(i,j)],s.t.g(i)=j\mathcal{L^{mid}}=\sum_{i,j}[\mathcal{L^{hid}(i,j)}+\mathcal{L}^{att}(i,j)],\ \ \ s.t. g(i)=jLmid=∑i,j[Lhid(i,j)+Latt(i,j)],s.t.g(i)=j
预测层蒸馏:和 DistilBERT 的软标签蒸馏方法一样
对于 TinyBERT, 温度系数为 1
总损失:Lmodel=∑m=0M+1λmLlayer(Sm,Tg(m))\mathcal{L}_{model}=\sum_{m=0}^{M+1}\lambda_m\mathcal{L}_{layer}(S_m, T_{g(m)})Lmodel=∑m=0M+1λmLlayer(Sm,Tg(m)), where m=i,M即学生模型层数m=i, M 即学生模型层数m=i,M即学生模型层数
两段式蒸馏:即在预训练和下游任务精调均进行蒸馏
- 通用蒸馏:教师模型仍使用未精调但经过预训练的 BERT-base,但是没有使用预测层蒸馏损失,因为通用蒸馏重点学习 BERT 主体部分的表示能力
- 特定任务蒸馏:使用了经过精调的 BERT-base 作为教师模型,使用数据增广后的下游任务数据进行训练
- 数据增广:将输入文本中的部分词汇通过 BERT 和 Glove 生成的词向量计算其最近似的词并进行替换
III. MobileBERT
学生模型和教师模型的层数是一致的,都是 12 层,因此无需映射函数
知识蒸馏方法:L=αLmlm+Lnsp+(1−α)(Lhid+Latt)\mathcal{L}=\alpha\mathcal{L}^{mlm}+\mathcal{L}^{nsp}+(1-\alpha)(\mathcal{L}^{hid}+\mathcal{L}^{att})L=αLmlm+Lnsp+(1−α)(Lhid+Latt)
有监督 MLM 损失和有监督 NSP 损失:和原版 BERT 一致,又称预训练蒸馏
隐含层蒸馏损失:和 TinyBERT 一致,又称特征图迁移
注意力蒸馏损失:将 TinyBERT 的 MSE 换为 KL-divergence,又称注意力图迁移
KL 散度不是对称的,教师模型在前,学生模型在后
将特征图迁移和注意力图迁移称为知识提炼
知识迁移方案:
蓝色:嵌入;黄色:知识提炼;红色:预训练蒸馏
深色:可训练的;浅色:参数固定而不可训练的
- Auxiliary Knowledge Transfer : 辅助知识迁移,知识提炼和预训练蒸馏同时进行
- Joint Knowledge Transfer : 联合知识迁移,先知识提炼再预训练蒸馏
- Progressive Knowledge Transfer:渐进式知识迁移,逐层进行,显著优于其他非渐进式的直接蒸馏方法
IV. 总结
- 工具包: TextBrewer , 参考我的代码笔记本 NoahKit@ZenMoore
(四) 生成模型
- 条件式生成 (Conditional Generation): 条件可以是源语言(翻译任务)、文档(文本摘要任务)、属性或主题(可控文本生成任务)等
- 之前所述基本上都只是编码器 Encoder, 对于文本生成任务,需要一个强大的解码器 Decoder
I. BART
基本思想:去噪自编码器,仍然采用自编码器的策略 (c.f. 七 (三) BERT),但是通过对含有噪声的输入文本去噪重构进行预训练
基本结构:基于 Transformer 的 Seq2Seq 结构,即编码器是双向 Transformer Encoder, 解码器是单向的自回归的 Transformer Decoder. 不过,激活函数不再使用 ReLU,而使用GeLU,参数根据正态分布 N(0,0.02)\mathcal{N(0, 0.02)}N(0,0.02)进行初始化
编码器的最后一层隐含层表示会作为“记忆”参与解码器每一层的计算
这个不难理解,看一眼基于 Transformer 的 Seq2Seq 的结构图就一目了然
噪声引入方式:
单词掩码:BERT 原生 MLM 的掩码方式
不过,BERT 的 MLM 是自编码方式独立预测掩码位置的单词,而 BART 是通过自回归的方式顺序地生成
单词删除:和掩码不同,模型不仅要预测缺失什么单词,还要确定缺失单词的位置
句子排列变换:注意是句子排列变换而不是单词排列变换,因此,这个语义理解是文档级别的
文档旋转变换:类似于抽象代数里面的轮换,实现时,先选择一个单词,然后以该单词为首词
文本填充:按照参数为 3 的泊松分布采样多个片段长度,然后对各片段长度用单个掩码进行标记替换,如果片段长度为0,则只是插入一个掩码标记。这要求模型具备预测缺失文本片段长度的能力
基于文本填充任务得到的预训练模型在下游任务中表现普遍更好,在此基础上增加句子排列变换去噪任务能够带来小幅的额外提升
''' BART 文本填充能力的演示 ''' from transformers import BartTokenizer, BartForConditionalGenerationmodel = BartForConditionalGeneration.from_pretrained('facebook/bart-base') tokenizer = BartTokenizer.from_pretrained('facebook/bart-base') input = 'un chief says there is <mask> in Syria' batch = tokenizer(input, return_tensors= 'pt') output_ids = model.generate(input_ids=batch['input_ids'], attention_mask= batch['attention_mask']) output = tokenizer.batch_decode(output_ids, skip_special_tokens= True) print(output) #['un chief says there is no war in Syria']
模型精调:不同的下游任务精调方式有所不同
序列分类:解码器和编码器使用相同的输入,将解码器最终时刻的隐含层状态当作输入文本的向量表示,因为解码器的最终时刻会额外添加一个类似于 [CLS] 的特殊标记,以该标记的隐含层状态当作文本表示。
序列标注:编码器和解码器使用相同的输入,解码器各个时刻的隐含层状态将作为该时刻单词的向量表示用于类别预测
文本生成:可以直接用于条件式文本生成任务,如 Abstractive QA, Abstractive Summarization
- 编码器输入:作为条件的输入文本
- 解码器:以自回归的方式生成对应的目标文本
机器翻译:由于源语言和目标语言使用的词汇集合不同,因此需要将编码器的输入表示层替换为一个小型的 Transformer 层(随机初始化编码器)来将源语言中的词汇映射到目标语言的输入表示空间。但是,由于除了这个源语言编码器外,其余部分都经过了预训练,两者训练步调不一致,因此:首先固定大部分参数只训练源语言编码器、BART 位置向量和预训练编码器第一层的自注意力输入投射矩阵,然后再对所有的参数进行少量迭代训练。
BART 在判别任务上的表现也很优异,甚至与 RoBERTa 持平
II. UniLM
基本思想:如何统一双向语言模型 BERT 和单向语言模型 Decoder of BART 呢? 这两者的区别在于:对于每一时刻隐含层表示的计算可以使用序列中的哪部分信息。因此,可以通过使用不同的自注意力掩码矩阵控制每个词的注意力范围,从而实现对于信息流的控制
自注意力矩阵:Al=Softmax(QlKlTd+M),Mi,j={0,ifi to j visible−∞,otherwiseA_l=Softmax(\frac{Q_lK_l^T}{\sqrt{d}}+M), M_{i,j}=\begin{cases} 0, & if\ \text{i to j visible}\\ -\infty, & otherwise \end{cases}Al=Softmax(d
QlKlT+M),Mi,j={0,−∞,ifi to j visibleotherwise 预训练任务:自注意力矩阵分别如上图, 训练时编码和解码部分共享同一套参数
双向语言模型:输入序列由两个文本片段组成并由特殊标记[EOS]组成
单向语言模型:包括前后向
序列到序列语言模型:输入为条件文本片段和目标(待生成)文本片段,条件文本片段相互可见,目标文本片段仅历史和条件可见,也称为前缀语言模型(Prefix LM)
因此,在自回归生成中,目标序列和条件序列具备跨越的注意力机制,这是 BART 的 Encoder-Decoder 结构所不有的
下游任务精调
- 语言模型选择:语言理解类任务使用双向语言模型,文本生成类使用单向或者序列到序列
- 分类任务:与 BERT 类似,使用双向,将输入序列第一个标记[BOS]处的最后一层隐含层表示作为文本表示
- 生成任务:随机采样目标文本片段中的单词并掩码,精调学习目标是恢复这些被掩码的词。输入尾部的[EOS]也会被掩码,从而让模型学习到什么时候停止生成
III. T5
基本思想:统一所有任务为条件式文本生成任务,从而方便不同任务间的迁移学习和多任务学习,也不用为每个任务定义不同的模型结构和训练方法
使用同一套模型完成多个不同的条件式生成任务有两个关键因素
如何注入任务信息?自然语言描述或简短提示(Prompt)作为输入文本的前缀表示目标任务
例如:
翻译: translate English to German : xxx
语言可接受性判定:cola sentence : xxx
文本摘要:summarize : xxx
情感分类:sentiment : xxx
关于任务信息注入:
这是迁移学习中的常用技术,尤其是多任务学习以及元学习
常见的有:向量表示方法,自然语言描述方法,少量代表性样本方法等
模型容量:很大,得忍一下,最好的达到了约 110 亿个参数的规模
预训练任务:原则上编码器解码器、单向语言模型、序列到序列等生成模型结构都能用,但编码器-解码器结构表现相对较好
自监督预训练:类似于 BART 的文本填充任务,但是稍有不同如图:
- <MASK> 有区分了
- 仅重构掩码部分,而对非掩码部分的位置用掩码标记进行指示
多任务预训练:这里可以在训练过程中为每个任务保存一个独立的 Checkpoint, 分别对应该任务开发集上的最好性能。预训练完成后,可以分别对每个任务进行少量的精调。
在各个任务混合比例合适的情况下,多任务预训练和无监督预训练表现相近
T5 的启发意义在于:对 NLP 任务的形式化不再拘泥于传统分类,更加通用化;而且,证明了参数规模和数据集质量对于预训练模型具有显著的影响。
IV. GPT-3
基本思想:仍然采用了上述的模型通用化(所有任务重定义为文本生成),但不同点在于展示了超大规模语言模型的小样本学习能力
模型结构:仍然是单向 Transformer 自回归语言模型结构,但是规模超级大
输入:除了自然语言描述或者 prompt 之外,还是用少量的目标任务标注样本作为条件上下文,因此输入较长,需要设置较大的 max_length (=2048).
# 下面是一个输入的例子 translate English to French: sea otter -> loutre de mer plush girafe -> girafe peluche cheese ->
精调:不需要任何额外的精调,就能在小样本下得到很好的泛化
关于自回归语言模型小样本学习能力的解释?
关键在于数据本身的有序性,使得连续出现的序列数据往往会蕴含着同一任务的输入输出模式
因此,语言模型的学习过程实际上可以看作从很多不同任务中进行元学习的过程。
V. 可控文本生成
- 基本思想:定向文本生成。当然,GPT-3 等模型也能,但是无法控制生成文章的具体内容,或者“方向”
CTRL
Conditional Transformer Language Model : 根据指定的领域、风格、主题、实体和实体关系等属性生成相应的文本, 也是一个庞大的预训练模型
如输入:
Horror A Knife
: 生成具有刀这个实体的恐怖色彩文章
- 基于 Transformer 的自回归语言模型
- 从海量无标注数据中定位文章所在的领域或其他属性,并作为控制代码放在输入文本的头部,以指导后续文本的生成。还可以使用不同控制代码的组合,尽管这种组合没有出现在训练集中
- 显然可以看作多任务学习过程(不同的控制代码可以看作不同的任务),因此模型容量同样庞大
PPLM
Plug-and-Play Language Model : 作为已有预训练模型的插件
- 给定一个预训练模型以及目标属性 aaa, 利用当前生成结果是否满足属性 aaa (P(a∣x)P(a|x)P(a∣x)) 对生成进行修正。
- 前向过程:语言模型的计算,以及P(a∣x)P(a|x)P(a∣x) (通过一个已经训练好的属性分类器计算)
- 反向过程:从属性判别模型开始回传梯度
- 重采样:根据新的概率分布,重新采样下一个生成的词
- 保证生成文本的流利性:控制修正后的语言模型尽量与原预训练语言模型接近,因此加了一项 KL 散度损失,以最小化修正前后语言模型预测概率分布之间的 KL 散度
九、多模态融合的预训练模型
模态:包括多语言、多媒体、异构知识、富文档、表格等
从多模态知识源中学习的能力是获取通用智能 (General Intelligence) 的必经之路。
(一) 多语言融合
将不同语言投影到同一个语义表示空间中,这对于资源稀缺语言(Low-resource Languages)很重要,同时也可以提升泛化性能。
对于静态词向量:使用翻译矩阵进行线性变换,可以用双语词典等进行训练
对于动态词向量:可以使用双语平行句对进行训练,但是有无更好的办法?
I. mBERT
和原 BERT 一并发布的,没什么新奇的,就是数据集包括了 104 种语言而已
from transformers import pipelineunmasker = pipeline('fill-mask',model='bert-base-multilingual-cased')
output = unmasker('我like[MASK]')
- MLM 任务被称为了 MMLM (multilingual MLM)
- 各种语言数据不均衡?幂指数加权平滑方法!
- 词表?一个词表包含了所有的语言!
为何不同语言可以经过 mBERT 表达到同一个语义表示空间呢?
因为语言具有混合使用 (Code-switch)和共享子词等特点
- 如果语言之间共享的词汇太少,这种基于单语语料库的预训练模型很容易失效,因此有了 XLM
II. XLM
BERT 预训练策略
基于双语句对的翻译语言模型 (TLM) 预训练目标
即将句对拼接输入模型中,进行 MLM 预测
如果一种语言无法准确预测,另一种语言可以提供额外的信息,从而习得跨语言的信息
III. XLM-R
即 XLM-RoBERTa.
- 取消了 TLM 预训练任务从而不再依赖双语语料库…
《自然语言处理-基于预训练模型的方法》笔记相关推荐
- 《信贷的逻辑与常识》笔记
序 银行信贷风险管理的反思 现状与趋势 银行贷款的质量变化与经济周期.宏观调控政策等存在很高的相关性 现在银行不良贷款的增加主要是前几年经济快速增长时企业过度投资.银行过度放贷所带来的结果. 从历史情 ...
- AI公开课:19.02.27周逵(投资人)《AI时代的投资逻辑》课堂笔记以及个人感悟
AI公开课:19.02.27周逵(投资人)<AI时代的投资逻辑>课堂笔记以及个人感悟 目录 课堂PPT图片 精彩语录 个人感悟 课堂PPT图片 精彩语录 更新中-- 文件图片已经丢失-- ...
- 人工智能入门算法逻辑回归学习笔记
逻辑回归是一个非常经典的算法,其中也包含了非常多的细节,曾看到一句话:如果面试官问你熟悉哪个机器学习模型,可以说 SVM,但千万别说 LR,因为细节真的太多了. 秉持着精益求精的工匠精神不断对笔记进行 ...
- 【逻辑回归学习笔记】
算法描述 1.逻辑回归要做的事就是寻找分界面实现二分类. 2.问题假设:对一堆三角形和正方形分类. 3.数据输入:已知正方形和三角形的坐标和标签. 4.算法过程: 知识储备 1.分类和回归 ①分类的目 ...
- 逻辑回归函数学习笔记
继续逻辑回归学习,今日笔记记录. 1.逻辑回归和线性回归的关系:对逻辑回归的概率比取自然对数,则得到的是一个线性函数,推导过程如下. 首先,看逻辑回归的定义 其次,计算两个极端y/(1-y),其值为( ...
- 2.2 逻辑回归-机器学习笔记-斯坦福吴恩达教授
逻辑回归 上一节我们知道,使用线性回归来处理 0/1 分类问题总是困难重重的,因此,人们定义了逻辑回归来完成 0/1 分类问题,逻辑一词也代表了是(1) 和 非(0). Sigmoid预测函数 在逻辑 ...
- LVM逻辑卷分区笔记
磁盘的静态分区有其缺点:分区大小难评估,估计不准确,当分区空间不够用的时候,系统管理员可能需要先备份整个系统,清除磁盘空间,然后重新对磁盘进行分区,然后恢复磁盘数据到新分区,且需要停机一段时间进行恢复 ...
- 适合理工直男的钟平老师逻辑英语学习笔记
一切的一切都只是套路! --鲁迅 核心公式: En: (状语1) 主(定语1) 谓(状语2) (宾)(定语2) (状语1) Ch: (状语1) (定语1)主 (状语2)谓 (定 ...
- 【数字逻辑】学习笔记 第四章 Part2 常用组合逻辑电路与竞争、险象
文章目录 一.常用组合逻辑电路 1. 译码器 (1) 二进制译码器 74LS138(3/8译码器) a. 一般符号和图形符号 b. 74LS138功能表 c. 两片 `74LS138` 构成 `4-1 ...
- 线性回归、逻辑回归学习笔记
学习源代码 import numpy as np import matplotlib.pyplot as plt def true_fun(X): # 这是我们设定的真实函数,即ground trut ...
最新文章
- mos管开关电路_MOS管的知识,看这一篇就可以了
- Weex Flexbox弹性布局使用
- QT4到QT5的变化!
- mysql中备份和导出的区别_mysql的备份和导出
- MYSQL5.7版本sql_mode=only_full_group_by问题
- 在一周之内,快速看完整部教材,列出你不懂的5-10个问题。
- 核心组件:IRule
- 汇编语言(十四)之判断字符串是否包含数字
- 第十八节:跨域请求的解决方案和WebApi特有的处理方式
- 中望cad能编写lisp吗_宁水集团:中望CAD解决方案增强设计创新力,加速转型促发展...
- SpringSecurity系列(五) Spring Security 权限设计
- SnakeWords开发--Android 2.2
- hadoop处理excel数据
- matlab解超静定方程,超定方程和最小二乘法 | 学步园
- TFT LCD液晶屏显示原理
- php草莓派,甜品控的减脂早餐,这样做低卡又裹腹,草莓派香蕉派,好吃分享了...
- rtb中的win_广告:RTB
- 小丁带你走进git的世界三-撤销修改
- 第十篇 面向对象的程序设计
- 区块链+大数据:万物互联时代的“CP组合”
热门文章
- css实现超过两行用...表示
- Clarke Wight saving algorithm求解tsp问题
- 【U8+】U8+自动备份不成功BackupDB日志中显示“数据源.未找到”
- 蓝凌工作ekp开发使用一些js编写开发记录
- macos系统镜像iso_系统原装ISO镜像软碟通刻录启动U盘教程
- 九步确定你的人生目标和制定达到目标的计划
- 无废话ExtJs 入门教程七[登陆窗体Demo:Login]
- bootstrap 半透明背景_微信透明与半透明头像制作,全解析教程
- uva 10827	Maximum sum on a torus
- 颠覆思维,你也能懂量子力学
- 《信贷的逻辑与常识》笔记