Lexicon Enhanced Chinese Sequence Labelling Using BERT Adapter 论文解读
本篇是针对 《Lexicon Enhanced Chinese Sequence Labelling Using BERT Adapter》这篇文章的解析
纯属个人理解 欢迎批评指正
首先作者信息
个人理解
个人 对这篇文章的理解是,其通过引入一个单词适配器将词汇信息融入到bert 中间,从而将词汇信息加入给BERT
优点在于:1. 采用了word adapter 将词汇信息加入到bert 模型的中间层
2. 采用的融入方法是直接引入,不是模型融合
模型
总体模型图如下图所示:
可以看到,左边为Bert 右边为word 融入部分,通过embedding 得到单词向量,然后加入到 word adapter 中。 word adapter的结构信息如下所示:
左边h是从Bert 内部直接得到的token 的embedding, 右边的是通过lexicon adapter 得到的单词embedding,通过一个双向线性层和残差网络的连接,得到下一层的输出表示。
效果肯定是所有模型里面最优的
然后作者也做了一个对于融入层的研究,结果如下:
Lexicon Enhanced Chinese Sequence Labelling Using BERT Adapter 论文解读相关推荐
- BERT相关论文、文章和代码资源汇总
转自:http://www.52nlp.cn/tag/transformer BERT相关论文.文章和代码资源汇总 4条回复 BERT最近太火,蹭个热点,整理一下相关的资源,包括Paper, 代码和文 ...
- 论文解读:ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information
论文解读:ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information(2021ACL) 简要信息: 序号 属性 ...
- 中文NER1 之 simplify the usage of Lexicon in Chinese NER
中文NER1 之 simplify the usage of Lexicon in Chinese NER ACL-simplify the usage of Lexicon in Chinese N ...
- LLMs:《Efficient and Effective Text Encoding for Chinese LLaMA and Alpaca》翻译与解读
LLMs:<Efficient and Effective Text Encoding for Chinese LLaMA and Alpaca>翻译与解读 目录 相关文章 LLMs:&l ...
- 论文解读:SpellBERT:A Lightweight Pretrained Model for Chinese Spelling Checking
论文解读:SpellBERT:A Lightweight Pretrained Model for Chinese Spelling Checking 简要信息: 序号 属性 值 1 模型名称 Spe ...
- NLP突破性成果 BERT 模型详细解读 bert参数微调
https://zhuanlan.zhihu.com/p/46997268 NLP突破性成果 BERT 模型详细解读 章鱼小丸子 不懂算法的产品经理不是好的程序员 关注她 82 人赞了该文章 Goo ...
- 论文解读:《基于BERT和二维卷积神经网络的DNA增强子序列识别transformer结构》
论文解读:<A transformer architecture based on BERT and 2D convolutional neural network to identify DN ...
- 论文解读:Spelling Error Correction with Soft-Masked BERT
论文解读:Spelling Error Correction with Soft-Masked BERT(2020ACL) 拼写错误纠错是一个比较重要且挑战的任务,非常依赖于人类的语言理解能力.本 ...
- 论文解读:Correcting Chinese Spelling Errors with Phonetic Pre-training
论文解读:Correcting Chinese Spelling Errors with Phonetic Pre-training(ACL2021) 中文拼写纠错CSC任务具有挑战性,目前的SO ...
- BERT(一)--论文翻译:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
转载请注明出处:https://blog.csdn.net/nocml/article/details/124860490 传送门: BERT(一)–论文翻译:BERT: Pre-training o ...
最新文章
- 3大主流NoSQL数据库性能对比测试报告
- 一个简单视频网站开发小记
- 玩转mini2440开发板之【在Ubuntu 14.04下编译安装tslib 1.4版本】
- java中Jackson_java 中的好东西 jackson
- 力扣53.最大子序和 多种方法
- 滴滴试行网约车遗失物品处理规则:司机返还遗失物品将收费
- Android WebView 使用漏洞问题
- 二叉搜索树与双向链表的转换
- nginx+thinkphp下解决不支持pathinfo模式以及存在的各种404,500问题
- C# sql参数拼接时,防止sql注入
- 阿里巴巴高级技术专家章剑锋:大数据发展的 8 个要点
- web页面有哪三层构成?分别是什么?
- 《Java并发编程实践》笔记1——并发编程基础
- 小家电企业坐上“过山车”,是谁浇灭了年轻人的热情?
- c语言windows画五角星,C/C++画一个巨型五角星
- Personalized Cup
- PS制作一寸照片具体过程
- 28python成功输出腾讯位置大数据北京地区迁出数据
- Redis-简单介绍及基本数据类型【随笔一】
- ip地址的概念和作用
热门文章
- SK Comms信息外泄事件使韩国企业开始提高安全预算
- x1000e rtl wifi 移植
- html求相关系数,相关系数,确定系数(R^2)计算公式与在线计算器_三贝计算网_23bei.com...
- 码农和程序员之间的5个关键差异
- 大数据产品价值主张_从「商业模式画布」看产品的价值主张和用户需求
- java 汇率换算_汇率转换示例代码
- (搬砖)Epic/Feature/Story/Task/Bug到底是什么
- 作为应聘者 面试结束时应该问面试官一些什么问题呢
- 获取UI控件位置信息
- 如何解决高分辨率下文本、图像和字体和布局?