Re5:读论文 TWAG: A Topic-guided Wikipedia Abstract Generator
诸神缄默不语-个人CSDN博文目录
本文是ACL2021论文,在ACL上的官方网页为:TWAG: A Topic-Guided Wikipedia Abstract Generator - ACL Anthology
PDF版会议论文下载地址为:https://aclanthology.org/2021.acl-long.356.pdf
ArXiv网址为:[2106.15135] TWAG: A Topic-Guided Wikipedia Abstract Generator
代码为:THU-KEG/TWAG: Code and dataset for the ACL 2021 paper “TWAG: A Topic-guided Wikipedia Abstract Generator”
文章目录
- 1. 模型构造思路
- 2. 问题定义与模型介绍
- 2.1 通用的Wikipedia abstract generation
- 2.2 基于topic的Wikipedia abstract generation
- 2.3 TWAG模型
- 2.3.1 topic detector
- 2.3.2 Topic-aware Abstract Generation
- 2.3.2.1 Topic Encoder
- 2.3.2.2 Topic Predictor
- 2.3.2.3 Sentence Decoder
- 2.3.3 训练
- 2.3.3.1 Topic Detector Training
- 2.3.3.2 Abstract Generator Training
- 3. 模型原理
- 4. 实验
- 4.1 baseline
- 4.2 数据集
- 4.3 实验设置
- 4.4 实验结果
- 4.4.1 ROUGE[^5]
- 4.4.2 human evaluation
- 4.4.2.1 QA
- 4.4.4.2 linguistic quality
- 4.5 Ablation Study
- 4.5.1 Learning Rate of Topic Detector.
- 4.5.2 Soft or Hard Topic.
- 4.5.3 Number of Section Labels.
- 5. 代码实现和复现
- 5.1 论文官方实现
- 5.1.1 分类
- 5.1.2 生成
- 5.2 我自己写的复现
1. 模型构造思路
本文的研究任务是维基百科摘要生成(Wikipedia abstract generation),从网上海量文本信息中生成维基百科摘要。
本文将维基百科摘要视为对一个实体(entity)的描述,可以分解为不同的主题(topic)(如animal类实体的描述,可以分解为distribution、taxonomy、description等topic。每个topic对应多个维基百科内容中的小标题(section label)。具体的topic划分和section label与topic的对应关系见后文4.2部分对数据集的描述)。
以Arctic Fox的维基百科举例:
图中左半部分是Arctic Fox的维基百科摘要,包含一个动物的3个正交的主题(颜色对应):Description, Taxonomy and Distribution。
右半部分是Arctic Fox是维基百科section label,分别与topic对应(颜色)。
本文所用的topic是根据实体的domain(Wikipedia categories)得到的。
本文提出的是两阶段的模型TWAG(two-stage Topic-guided Wikipedia Abstract Generation model),使用主题信息指导摘要生成。
第一步topic detection:识别输入原文中每一个自然段属于哪一个主题(这个分类器(classifier-based topic detector)通过已有的Wikipedia文章生成)
第二步:sentence-wise生成摘要:预测摘要每一句的主题分布(topic distribution),以得到对应的topic-aware representation,用Pointer-Generator network1从中生成摘要句子。
本文提出的下一步研究方向是在topic-aware abstract generator模块应用预训练模型,并将topic-aware model应用到其他富含主题信息的领域(如体育比赛报道)。
2. 问题定义与模型介绍
2.1 通用的Wikipedia abstract generation
输入文档可以用不同粒度的textual units表示,本文中选取的粒度是自然段,因为它能表示相对完整、紧凑的语义信息。
输入文档 D={d1,d2,...,dn}\mathcal{D}=\{d_1, d_2, . . . , d_n\}D={d1,d2,...,dn}(n个自然段)
输出Wikipedia abstract S={s1,s2,…,sm}\mathcal{S}=\{s_1,s_2,\dots,s_m\}S={s1,s2,…,sm}(m个句子)
任务目标:找到optimal abstract S∗\mathcal{S}^*S∗(原话是“最好地总结输入”,我认为按照下式也可以直观地理解为“给定输入,可能性最大的摘要”,“靠近真实摘要”):
S∗=arg maxSP(S∣D)\mathcal{S}^*=\argmax_SP(\mathcal{S}|\mathcal{D})S∗=SargmaxP(S∣D)
2.2 基于topic的Wikipedia abstract generation
每个Wikipedia文章由abstract, the content table(section label {l}\{l\}{l}), and textual contents(与content table对应的 {p}\{p\}{p})组成,abstract在语义上与section label指示的topics对应。
由于不同维基百科文章的content table不同,因此不便直接用section label,所以特定域都选用了共有的topics(合并相似section labels)。
topic集合 T={T1,T2,…,Tnt}\mathcal{T}=\{T_1,T_2,\dots,T_{n_t}\}T={T1,T2,…,Tnt}(ntn_tnt个topic),每个topic Ti={li1,li2,…,lim}T_i=\{l_i^1,l_i^2,\dots,l_i^m\}Ti={li1,li2,…,lim}
对于输入文档 D\mathcal{D}D,每个自然段都对应一个隐主题(latent topic):Z={z1,z2,…,zn}\mathcal{Z}=\{z_1,z_2,\dots,z_{n}\}Z={z1,z2,…,zn},其中 zi∈Tz_i\in\mathcal{T}zi∈T,是 did_idi 的主题。
则我们的Wikipedia abstract generation任务目标可以重写为:
S∗=arg maxZP(Z∣D)arg maxSP(S∣D,Z)\mathcal{S}^*=\argmax_ZP(\mathcal{Z}|\mathcal{D})\argmax_SP(\mathcal{S}|\mathcal{D,Z})S∗=ZargmaxP(Z∣D)SargmaxP(S∣D,Z)
这样,这个任务就可以分解为topic detection(最大化 arg maxZP(Z∣D)\argmax_ZP(\mathcal{Z}|\mathcal{D})ZargmaxP(Z∣D))和topic-aware abstract generation(最大化 arg maxSP(S∣D,Z)\argmax_SP(\mathcal{S}|\mathcal{D,Z})SargmaxP(S∣D,Z))
2.3 TWAG模型
模型示意图:
图中示例的domain有3个主题。
左边部分是topic detector,判断每个输入自然段所属的主题。
右边部分是 topic-aware abstract generator,基于输入自然段(根据检测出的section进行分组为topic-specific text group (TTG) Gk\mathcal{G}_kGk)和对应主题逐句生成摘要:先预测该句的topic distribution,将其与全局hidden state融合,得到topic-aware representation,用copy-based decoder生成该句话。
(其实我觉得这个图画得还不够清晰,尤其是sentence decoder部分,感觉画得有些含混。文本说明部分我也有些半看不懂的。感觉可能需要看一下原版PGN和TWAG代码才能彻底搞懂)
2.3.1 topic detector
将该任务视为分类任务,表示为 Z=Det(D)\mathcal{Z}=\text{Det}(\mathcal{D})Z=Det(D)。
具体的实现为:用ALBERT2进行编码,然后用一层全连接网络进行分类任务:
d=ALBERT(d)z=arg max(linear(d))\begin{aligned} \mathbf{d} & =\text{ALBERT}(d) \\ z & =\argmax\big(\text{linear}(d)\big) \end{aligned}dz=ALBERT(d)=argmax(linear(d))
(d\mathbf{d}d 是 ddd 的表示向量,ALBERT模型经过微调)
2.3.2 Topic-aware Abstract Generation
2.3.2.1 Topic Encoder
通过输入文档,对主题(topical representations)和每个token进行表征。
Gk\mathcal{G}_kGk 包含了一个实体特定主题的显著信息:Gk=concat({di∣zi=Tk})\mathcal{G}_k=\text{concat}\Big(\big\{d_i|z_i=T_k\big\}\Big)Gk=concat({di∣zi=Tk})
为了进一步捕获隐含语义信息(hidden semantics):gk,Uk=BiGRU(Gk)\mathbf{g}_k,\mathbf{U}_k=\text{BiGRU}\big(\mathcal{G}_k\big)gk,Uk=BiGRU(Gk)(gk\mathbf{g}_kgk 是 Gk\mathcal{G}_kGk 的final hidden state,Uk=(u1,u2,…,unGk)\mathbf{U}_k=(\mathbf{u}_1,\mathbf{u}_2,\dots,\mathbf{u}_{n_{G_k}})Uk=(u1,u2,…,unGk) 是 Gk\mathcal{G}_kGk 每个token的hidden state,nGkn_{G_k}nGk 是 Gk\mathcal{G}_kGk 中的token数)
2.3.2.2 Topic Predictor
预测摘要句的topic distribution,生成topic-aware sentence representation。
逐句:
arg maxSP(S∣D,Z)=∏i=1marg maxsiP(si∣D,Z,s<i)\argmax_SP(\mathcal{S}|\mathcal{D,Z})=\prod^m_{i=1}\argmax_{s_i}P(s_i|\mathcal{D,Z,s_{<i}})SargmaxP(S∣D,Z)=i=1∏msiargmaxP(si∣D,Z,s<i)
第一步:用GRU decoder生成每一句的主题分布 et\mathbf{e}_{t}et。
在每一个time stamp ttt,生成全局hidden state ht\mathbf{h}_tht,然后估算主题上的概率分布 qt\mathbf{q}_tqt:
ht=GRU(ht−1,et−1)qt=softmax(linear(ht))\begin{aligned} \mathbf{h}_t&=\text{GRU}(\mathbf{h}_{t-1},\mathbf{e}_{t-1})\\ \mathbf{q}_t&=\text{softmax}\big(\text{linear}(\mathbf{h}_t)\big) \end{aligned}htqt=GRU(ht−1,et−1)=softmax(linear(ht))
h0\mathbf{h}_0h0看代码(TWAG/src/c_generate_soft/model.py第241行左右)是通过2.3.2.1 topic encoder输出的。具体怎么做的我还没看。
et−1\mathbf{e}_{t-1}et−1 是上一步的topical information,e0\mathbf{e}_{0}e0 初始化为全0向量。
从 qt\mathbf{q}_tqt 中得到 et\mathbf{e}_{t}et 有两种方式:
① hard topic:直接选择概率最大的主题作为该句主题,使用对应的topical representation作为该句的主题分布:ethard=garg maxi(qi)\mathbf{e}_t^{hard}=\mathbf{g}_{\argmax_i(q_i)}ethard=giargmax(qi)
② soft topic:将每句话视为各个主题的融合体,用各主题的topical representation的加权求和作为该句的主题分布:etsort=qt⋅G\mathbf{e}_t^{sort}=\mathbf{q}_t\cdot\mathbf{G}etsort=qt⋅G(其中 G=(g1,g2,…,gnt)\mathbf{G}=(\mathbf{g}_1,\mathbf{g}_2,\dots,\mathbf{g}_{n_t})G=(g1,g2,…,gnt) 是topical representations组成的矩阵)
(最终本文选择soft topic。一是因为在语义上,摘要每句话会含有多个主题的信息;二见后文ablation study部分实验结果证明soft topic效果更好)
第二步:得到topic-aware representation(hidden state) rt=ht+et\mathbf{r}_t=\mathbf{h}_t+\mathbf{e}_trt=ht+et
每一步会运行一次stop confirmation:pstop=σ(linear(ht))p_{stop}=σ\big(\text{linear}(h_t)\big)pstop=σ(linear(ht))(其中 σ 是sigmoid函数)
如果 pstop>0.5p_{stop}>0.5pstop>0.5,TWAG就会停止解码。
2.3.2.3 Sentence Decoder
基于topic-aware representations生成摘要中的该句话。
PGN1同时从输入文档和词表中选择token。
从输入文档中复制token:
decoder需要token-wise hidden states U=(u1,u2,…,unu)\mathbf{U}=(\mathbf{u}_1,\mathbf{u}_2,\dots,\mathbf{u}_{n_{u}})U=(u1,u2,…,unu)(nun_unu 是输入token数)(通过concat所有TTG的token-wise hidden states得到:U=[U1,U2,…,Unu]\mathbf{U}=[\mathbf{U}_1,\mathbf{U}_2,\dots,\mathbf{U}_{n_u}]U=[U1,U2,…,Unu])
对句子的第kkk个token,decoder计算所有输入自然段上的 attention distribution ak\mathbf{a}_kak,ak\mathbf{a}_kak的每个元素aki\mathbf{a}_k^iaki是输入自然段中token iii被选择的概率:aki=softmax(tanh(Wuui+Wssk+ba))\mathbf{a}_k^i=\text{softmax}\big(\text{tanh}(\mathbf{W}_u\mathbf{u}_i+\mathbf{W}_s\mathbf{s}_k+\mathbf{b}_a)\big)aki=softmax(tanh(Wuui+Wssk+ba))(其中sk\mathbf{s}_ksk是decoder hidden state,s0=rt\mathbf{s}_0=\mathbf{r}_ts0=rt (topic-aware representation),Wu,Ws,ba\mathbf{W}_u,\mathbf{W}_s,\mathbf{b}_aWu,Ws,ba 是可训练的参数)
从词表中生成token:
用attention mechanism计算context vector(encoder hidden states的加权求和):ck∗=∑iakiui\mathbf{c}_k^*=\sum\limits_i\mathbf{a}_k^i\mathbf{u}_ick∗=i∑akiui
将该向量传入一个新的2层神经网络得到词表上的probability distribution:Pvoc=softmax(linear(linear([sk,ck∗])))P_{voc}=\text{softmax}\Bigg(\text{linear}\bigg(\text{linear}\Big(\big[\mathbf{s}_k,\mathbf{c}_k^*\big]\Big)\bigg)\Bigg)Pvoc=softmax(linear(linear([sk,ck∗])))
在两种机制间转换:pgen=σ(WcTck∗+WsTsk+WxTxk+bp)p_{gen}=\sigma\big(\mathbf{W}_c^T\mathbf{c}_k^*+\mathbf{W}_s^T\mathbf{s}_k+\mathbf{W}_x^T\mathbf{x}_k+\mathbf{b}_p\big)pgen=σ(WcTck∗+WsTsk+WxTxk+bp)(其中xk\mathbf{x}_kxk是decoder输入,σ\sigmaσ是sigmoid函数,WcT,WsT,WxT,bp\mathbf{W}_c^T,\mathbf{W}_s^T,\mathbf{W}_x^T,\mathbf{b}_pWcT,WsT,WxT,bp 是可训练的参数)
最终的probability distribution是:P(w)=pgenPvoc(w)+(1−pgen)∑i:wwi=wakiP(w)=p_{gen}P_{voc}(w)+(1-p_{gen})\sum\limits_{i:ww_i=w}\mathbf{a}_k^iP(w)=pgenPvoc(w)+(1−pgen)i:wwi=w∑aki(其中wwiww_iwwi是ui\mathbf{u}_iui对应的token)
2.3.3 训练
topic detection和abstract generation的模块是分开训练的。
2.3.3.1 Topic Detector Training
数据集构建见本博文4.2数据集部分介绍。
本文使用negative loglikelihood损失函数。
2.3.3.2 Abstract Generator Training
topic-aware abstract generation部分的损失函数由两部分构成:①sentence decoder对每一句摘要的损失函数 Lsent\mathcal{L}_{sent}Lsent 的平均值。②stop confirmation的交叉熵损失函数 Lstop\mathcal{L}_{stop}Lstop
①参考1,本文使用该句每个目标单词的negative log likelihood的平均值:Lsent=1m∑t=1m(1nst∑i=1nst−logP(wi))\mathcal{L}_{sent}=\dfrac{1}{m}\sum\limits_{t=1}^m\Big(\dfrac{1}{n_{s_t}}\sum\limits_{i=1}^{n_{s_t}}-\log P(w_i)\Big)Lsent=m1t=1∑m(nst1i=1∑nst−logP(wi))(其中mmm是句子数,nstn_{s_t}nst是摘要第 ttt 句的长度)
②Lstop=−yslogpstop−(1−ys)log(1−pstop)\mathcal{L}_{stop}=-y_s\log p_{stop}-(1-y_s)\log(1-p_{stop})Lstop=−yslogpstop−(1−ys)log(1−pstop)
当 t>mt>mt>m 即应该停止生成摘要句子时,ys=1y_s=1ys=1,反之 ys=0y_s=0ys=0
3. 模型原理
- 为什么不用基于图的表示学习方法做抽取式摘要:因为从各种来源收集到的输入文档往往有噪音,并缺乏内在联系3,因此难以构建relation graph。(introduction)
- 用topic生成摘要的好处:减少冗余,使内容更完整。(introduction)
- 本文的任务是生成紧凑的摘要,因此需要对topic进行fusion、理解topics之间的关联与差异(topic distribution),而非使用独立的topics(见本博文2.3.2.1部分对软主题的介绍)。(Wikiasp: A dataset for multi-domain aspect-based summarization. 则是反例。该文献使用aspect作为术语)(Wikipedia-related Text Generation)
- 识别文本中的主题信息“模仿人类识别实体的方法”(conclusion)
4. 实验
4.1 baseline
- TF-S2S4:用Transformer decoder,用卷积层压缩自注意力机制里的键值对。
- CV-S2D+T5:用一个卷积encoder和2层hierarchical decoder,用LDA建模主题信息。
- HierSumm6:用注意力机制建模自然段间关系,用图加强文档的表示学习。
- BART7:预训练的seq2seq模型。
4.2 数据集
本文使用的数据集是WikiCatSum5。
该数据集是WikiSum的子数据集。含有Wikipedia中的3个域:Company, Film and Animal
每个域的数据集划分比例都是train (90%), validation (5%) and test (5%)
删除了文章中的超链接和图像。用spaCy包划分自然段。经下述处理后最终得到的数据集划分比例是8:1:1。
对于topic detection阶段的标签构建,本文首先将已有的维基百科文章(2019-07-01)构建为 section label : textual contents {l:p}\{l:p\}{l:p} 形式,然后将textual contents分解为自然段 p=(d1,d2,…,dnp)p=(d_1,d_2,\dots,d_{n_p})p=(d1,d2,…,dnp),这样数据集就变成了label-paragraph对 {l:d}\{l:d\}{l:d},然后再把同一topic的label合并(对每个域,选择了nt=20n_t=20nt=20个最常出现的label,手动将其分配给各主题。Reference或Notes等缺乏语义信息的label被丢弃。下图是分配表),这样数据集就变成了topic-paragraph对 {T:d}\{T:d\}{T:d}。
(不同颜色代表不同ntn_tnt时选择的label)
此外,每个域还专门构建了一个NOISE主题,指没用的部分(如scripts或广告),这一部分是通过正则表达式提取的,如含有“cookie”,“href”
或看起来像reference。
经处理后得到的最终的数据集信息:
用于摘要生成的数据则是非维基百科数据,以防数据泄露问题。
4.3 实验设置
代码使用PyTorch和transformers库,设备是NVIDIA GeForce RTX 2080。
topic detection阶段使用的预训练模型是transformers库的albert-base-v2,保持原参数,以3e-5为学习率训练了4个epoch。
abstract generation阶段用单层BiGRU将TTGs编码为512维的hidden states。输入文档保存开头400个tokens,转换为300维的GloVe8词向量。词表长度为50000,OOV token用其邻近10个tokens的平均嵌入表示。这个模块训练了10个epoch,第一个epoch的学习率是1e-4,其他的是1e-5。
在评估结果前,删除了所有与其他句重复超过50%的句子以减少冗余9。
需要beam search的模型,beam size都设置为5。
(Appendix B)使用BART-base,因为BART-large效果差(生成文本出现重复,损失函数下降慢),本文怀疑是因为过拟合。
4.4 实验结果
4.4.1 ROUGE10
本文所使用的评估指标是ROUGE F1 指标(原文给出的原因:因为没有限制摘要生成长度,所以用这个combines precision and recall to eliminate the tendency of favoring long or short results的指标)。
TF-S2S和HierSumm使用原文数据集的子集来训练得到的结果小于原文结果,本文作者认为可能因为数据不足,这也证明了TWAG模型的data-efficient。
案例分析:
4.4.2 human evaluation
此外参考10,本文构建了含有2部分内容的human evaluation:
4.4.2.1 QA
question-answering (QA),架构来自11,检查摘要中的factoid信息,根据不同的真实摘要,每个样例创造2-5个问题,问题示例:
(全部的评估集合在论文附带的GitHub项目中,待补)
从每个域抽取了15个样例,共45个来做human evaluation。
选了3名参与人员以自动生成的摘要作为背景知识来回答问题。能回答问题越多的摘要越好。
答案量化打分:正确答案——1,部分正确答案——0.5,错误答案——0.1,无法回答——0。
(对0.1的解释:Notice that we give a score of 0.1 even if the participants answer the question incorrectly, because a wrong answer indicates the summary covers a certain topic and is superior to missing information.)
结果:
(TF-S2S和HierSumm在域Film和Animal上表现很差可能是因为在小数据集上欠拟合)
4.4.4.2 linguistic quality
让参与人员从3个角度来阅读生成摘要并在1-5分间打分(分越高说明质量越高):
- Completeness (does the summary contain sufficient information?)
- Fluency (is the summary fluent and grammatical?)
- Succinctness12 (does the summary avoid redundant sentences?)
结果:
4.5 Ablation Study
4.5.1 Learning Rate of Topic Detector.
1e-7准确率高,但最终rouge值低,因此本文最终选择了3e-5。本文怀疑是因为学习率太低导致了过拟合。
4.5.2 Soft or Hard Topic.
4.5.3 Number of Section Labels.
section labels的频率符合长尾分布。
nt=20n_t=20nt=20 得到的最终实验结果最好。
5. 代码实现和复现
5.1 论文官方实现
具体内容持续更新。
大略来说,步骤是分类(topic detection)→生成(abstract generation),可以解耦也可以端到端地运行。(我看了一下,这个端到端说的好像是代码一步把分类和生成两步都做完,本质上还是解耦的。但是我还没有仔细看,具体的待补)
5.1.1 分类
5.1.2 生成
TWAG/src/c_generate_soft/model.py:
BiGRUEncoder
:论文中的topic encoder,实现了一个BiGRU模型。
DocumentDecoder
:论文中的topic predictor,hidden
ht−1\mathbf{h}_{t-1}ht−1 input
et−1\mathbf{e}_{t-1}et−1→decoder
(torch.nn.GRUCell
)→hidden_out
ht\mathbf{h}_tht→out_linear
(torch.nn.Linear
)→softmax
(torch.nn.Softmax
)→topic_dist
qt\mathbf{q}_tqt
TopicDecodeModel
:整个生成部分。
预测每一句话的sent_hiddens
→avg_sent_hidden
(et\mathbf{e}_tet)→h_0_sent=avg_sent_hidden+doc_hidden
(topic-aware representation rt=et+ht\mathbf{r}_t=\mathbf{e}_t+\mathbf{h}_trt=et+ht)
5.2 我自己写的复现
没写,待补。
Get to the point: Summarization with pointer-generator networks. ↩︎ ↩︎ ↩︎
Albert: A lite bert for self-supervised learning of language representations. ↩︎
Automatically Generating Wikipedia Articles: A Structure-Aware Approach ↩︎
Generating wikipedia by summarizing long sequences. ↩︎
Generating summaries with topic templates and structured convolutional decoders. ↩︎ ↩︎
Hierarchical transformers for multi-document summarization. ↩︎
Bart: Denoising sequence-to-sequence pretraining for natural language generation ↩︎
GloVe: Global vectors for word representation. ↩︎
这个应该是因为生成式摘要里常见的重复问题。 ↩︎
Rouge: A package for automatic evaluation of summaries. ↩︎ ↩︎
Discourse constraints for document compression. ↩︎
简洁 ↩︎
Re5:读论文 TWAG: A Topic-guided Wikipedia Abstract Generator相关推荐
- Re23:读论文 How Does NLP Benefit Legal System: A Summary of Legal Artificial Intelligence
诸神缄默不语-个人CSDN博文目录 论文名称:How Does NLP Benefit Legal System: A Summary of Legal Artificial Intelligence ...
- Re6:读论文 LeSICiN: A Heterogeneous Graph-based Approach for Automatic Legal Statute Identification fro
诸神缄默不语-个人CSDN博文目录 论文名称:LeSICiN: A Heterogeneous Graph-based Approach for Automatic Legal Statute Ide ...
- Re7:读论文 FLA/MLAC/FactLaw Learning to Predict Charges for Criminal Cases with Legal Basis
诸神缄默不语-个人CSDN博文目录 论文名称:Learning to Predict Charges for Criminal Cases with Legal Basis 论文ArXiv网址:htt ...
- Re13:读论文 Gender and Racial Stereotype Detection in Legal Opinion Word Embeddings
诸神缄默不语-个人CSDN博文目录 论文名称:Gender and Racial Stereotype Detection in Legal Opinion Word Embeddings 论文ArX ...
- 李沐读论文笔记--大模型时代下做科研的四个思路
大模型时代下做科研的四个思路 0. 视频来源: 1. 提高效率(更快更小) 1.1 PEFT介绍(parameter efficient fine tuning) 1.2 作者的方法 1.3 AIM效 ...
- 我的读论文经验总结!
↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale干货 作者:胡来,Datawhale成员 从入门到精通一个领域,绕不开文献阅读 ...
- 记录理解程度、一篇至少读3遍,吴恩达建议这样读论文!
↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale推荐 作者:Richmond Alake,来源:机器之心 在科研领域中,读论文 ...
- 沈向洋:读论文的三个层次
Datawhale干货 来源:AI科技评论,沈向洋博士 作者 | 蒋宝尚 编辑 | 丛 末 5月14日,沈向洋博士在全球创新学院(GIX)课程上曾做了一场线上公开课<You are how ...
- 如何高效读论文?剑桥CS教授亲授“三遍论”:论文最多读三遍,有的放矢,步步深入...
鱼羊 编译整理 量子位 报道 | 公众号 QbitAI 嗑盐之始,在于读论文. 一方面,把握最前沿的研究动态,激发自身研究灵感.另一方面,不做好文献调研,自己的绝妙想法变成了重复造轮子,这种体验可不太 ...
- 读论文七步走!CV老司机万字长文:一篇论文需要读4遍
视学算法报道 编辑:LRS [新智元导读]读论文对于AI新手和工程师来说可能是一件比较难的事.最近一位从业超5年的CV老司机发布了一篇万字长文,讲述了读论文七步法,从找论文到总结,每篇论文由浅 ...
最新文章
- string与数值之间的转换
- java怎么导入别人的代码_怎么用eclipse将图标导入到java代码中
- Redis宕机了怎么办?
- softmax理论及代码解读——UFLDL
- 复习深入笔记01:对象/可变与不可变类型/字符编码/闭包
- Android 代码执行Linux Shell小记
- 【数字信号调制】基于matlab无线电信号调制识别【含Matlab源码 912期】
- CloudStack 4.4+KVM之CloudStack配置过程
- 冰点下载器手机版apk_冰点下载器手机版apk
- 几种镜像恒流源电路分析!
- PO(PageObject)模型
- 有什么合适个体商户及小微企业的入门级进销存管理软件?
- xml文件导入wps_怎么用wpsExcel表打开xml文档
- 本地.m3u8播放器实现
- android仿微信拍摄视频教程,仿微信视频拍摄UI, 基于ffmpeg的视频录制编辑(上)
- uniapp修改html样式,关于css:uniapp操作dom改变css样式
- 锐捷网络:校园网基于802.1x无感知认证
- dcmtk在PACS开发中的应用(基础篇) 第三章 工作列表(Work List)(一)( BY 冷家锋)
- Mysql基础到进阶精品视频教程附讲义文档 91课
- nodejs中的读取文件fs与文件路径path