Simple Transformer:用BERT、RoBERTa、XLNet、XLM和DistilBERT进行多类文本分类
【导读】本文将介绍一个简单易操作的Transformers库——Simple Transformers库。它是AI创业公司Hugging Face在Transformers库的基础上构建的。Hugging Face Transformers是供研究与其他需要全面控制操作方式的人员使用的库,简单易操作。
conda create -n transformers python pandas tqdm
conda activate transformers
conda install pytorch cpuonly -c pytorch
conda install -c anaconda scipy
conda install -c anaconda scikit-learn
pip install transformers
pip install tensorboardx
from simpletransformers.model import TransformerModel # Create a TransformerModel model = TransformerModel('roberta', 'roberta-base', num_labels=4)
self.args = { 'output_dir': 'outputs/', 'cache_dir': 'cache_dir', 'fp16': True, 'fp16_opt_level': 'O1', 'max_seq_length': 128, 'train_batch_size': 8, 'gradient_accumulation_steps': 1, 'eval_batch_size': 8, 'num_train_epochs': 1, 'weight_decay': 0, 'learning_rate': 4e-5, 'adam_epsilon': 1e-8, 'warmup_ratio': 0.06, 'warmup_steps': 0, 'max_grad_norm': 1.0, 'logging_steps': 50, 'save_steps': 2000, 'overwrite_output_dir': False, 'reprocess_input_data': False, 'process_count': cpu_count() - 2 if cpu_count() > 2 else 1, }
# Create a TransformerModel with modified attributes
model = TransformerModel('roberta', 'roberta-base', num_labels=4,
args={'learning_rate':1e-5, 'num_train_epochs': 2,
'reprocess_input_data': True, 'overwrite_output_dir': True})
# Train the model
model.train_model(train_df)
from sklearn.metrics import f1_score, accuracy_score def f1_multiclass(labels, preds): return f1_score(labels, preds, average='micro') result, model_outputs, wrong_predictions = model.eval_model(eval_df, f1=f1_multiclass, acc=accuracy_score
(*本文为 AI科技大本营翻译文章,转载请微信联系 1092722531)
◆
精彩推荐
◆
推荐阅读
你点的每个“在看”,我都认真当成了AI
Simple Transformer:用BERT、RoBERTa、XLNet、XLM和DistilBERT进行多类文本分类相关推荐
- 【Bert、T5、GPT】fine tune transformers 文本分类/情感分析
[Bert.T5.GPT]fine tune transformers 文本分类/情感分析 0.前言 text classification emotions 数据集 data visualizati ...
- bert使用做文本分类_使用BERT进行深度学习的多类文本分类
bert使用做文本分类 Most of the researchers submit their research papers to academic conference because its ...
- Transformer, BERT, ALBERT, XLNet全面解析(ALBERT第一作者亲自讲解)
现在是国家的非常时期,由于疫情各地陆续延迟复工,以及各大院校延期开学.作为一家AI教育领域的创业公司,我们希望在这个非常时期做点有价值的事情,并携手共渡难关.在疫情期间,我们决定联合国内外顶尖AI专家 ...
- ALBERT第一作者亲自讲解:Transformer、BERT、ALBERT、XLNet全面解析
现在是国家的非常时期,由于疫情各地陆续延迟复工,以及各大院校延期开学.作为一家AI教育领域的创业公司,我们希望在这个非常时期做点有价值的事情,并携手共渡难关.在疫情期间,我们决定联合国内外顶尖AI专家 ...
- NLP专题直播 | Transformer, BERT, ALBERT, XLNet全面解析(ALBERT第一作者亲自讲解)
现在是国家的非常时期,由于疫情各地陆续延迟复工,以及各大院校延期开学.作为一家AI教育领域的创业公司,我们希望在这个非常时期做点有价值的事情,并携手共渡难关.在疫情期间,我们决定联合国内外顶尖AI专家 ...
- NLP专题直播 | 详谈Transformer, BERT, ALBERT, XLNet(ALBERT第一作者亲自讲解)
提到 - "预训练模型".从简单的 Word2Vec,ELMo,GPT,BERT,XLNet到ALBERT, 这几乎是NLP过去10年最为颠覆性的成果.作为一名AI从业者,或者未 ...
- 词向量, BERT, ALBERT, XLNet全面解析(ALBERT第一作者亲自讲解)
Datawhale Datawhale编辑 现在是国家的非常时期,由于疫情各地陆续延迟复工,以及各大院校延期开学.作为一家 AI 教育领域的创业公司,贪心学院筹划了5期NLP专题直播课程,希望在这个非 ...
- 【面试必备】奉上最通俗易懂的XGBoost、LightGBM、BERT、XLNet原理解析
一只小狐狸带你解锁 炼丹术&NLP 秘籍 在非深度学习的机器学习模型中,基于GBDT算法的XGBoost.LightGBM等有着非常优秀的性能,校招算法岗面试中"出镜率"非 ...
- NLP专题直播 | 详谈词向量技术:从Word2Vec, BERT到XLNet
现在是国家的非常时期,由于疫情各地陆续延迟复工,以及各大院校延期开学.作为一家AI教育领域的创业公司,我们希望在这个非常时期做点有价值的事情,并携手共渡难关.在疫情期间,我们决定联合国内外顶尖AI专家 ...
最新文章
- 构建用户界面 Android 应用中一些常用的小部件
- python调用git生成log文件_python解析git log后生成页面显示git更新日志信息
- 高并发C/S的TCP版本golang实现
- 【SpringBoot零基础案例08】【IEDA 2021.1】SpringBoot获取核心配置文件application.properties中的自定义配置
- 福禄克OFP光纤测试仪5个强大的功能
- Csharp实例:武汉智能安检闸机数据接收和解析
- CTF常用python库PwnTools的使用学习
- 前端学习(548):node的自定义模块
- void类型及void指针
- 20 个免费的 jQuery 的工具提示插件:
- NLP简报(Issue#9)
- 服务器内容推送技术(转)
- (转)MapReduce中的两表join几种方案简介
- 比较List和ArrayList的性能及ArrayList和LinkedList优缺点
- 力软敏捷开发框架源码7.0.6解析
- 21天学通C语言-学习笔记(13)
- 小程序毕设作品之微信二手交易小程序毕业设计成品(6)开题答辩PPT
- linux的磁盘busy,Linux umount 报 device is busy 的处理方法
- 介绍中国传统节日的网页html,介绍中国传统节日的作文4篇
- CountDownLatch 用法和源码解析