执行数字化操作, 将每个单词对应一个数字

TEXT.build_vocab(trn)

预训练词向量

TorchText提供了加载预训练词向量的功能

pretrained_aliases = {"charngram.100d": partial(CharNGram),"fasttext.en.300d": partial(FastText, language="en"),"fasttext.simple.300d": partial(FastText, language="simple"),"glove.42B.300d": partial(GloVe, name="42B", dim="300"),"glove.840B.300d": partial(GloVe, name="840B", dim="300"),"glove.twitter.27B.25d": partial(GloVe, name="twitter.27B", dim="25"),"glove.twitter.27B.50d": partial(GloVe, name="twitter.27B", dim="50"),"glove.twitter.27B.100d": partial(GloVe, name="twitter.27B", dim="100"),"glove.twitter.27B.200d": partial(GloVe, name="twitter.27B", dim="200"),"glove.6B.50d": partial(GloVe, name="6B", dim="50"),"glove.6B.100d": partial(GloVe, name="6B", dim="100"),"glove.6B.200d": partial(GloVe, name="6B", dim="200"),"glove.6B.300d": partial(GloVe, name="6B", dim="300")
}

如果需要使用这些词向量, 可以通过的两种方式使用

# 直接通过名称获取预训练词向量
TEXT.build_vocab(train, vectors="glove.6B.200d")# 或者通过一个具体的类型来获取相应的词向量
TEXT.build_vocab(train, vectors=GloVe(name='6B', dim=300))

通过上述的方法加载词向量后, 可以将词向量的值传递给Embedding层, 代码如下

# 通过pytorch创建的Embedding层
embedding = nn.Embedding(2000, 256)
# 指定嵌入矩阵的初始权重
weight_matrix = TEXT.vocab.vectors
embedding.weight.data.copy_(weight_matrix )

参考:
https://lizec.top/2020/04/11/PyTorch%E7%AC%94%E8%AE%B0%E4%B9%8BTorchText/
https://www.jianshu.com/p/71176275fdc5

pytorch Vocab相关推荐

  1. pyTorch api

    应用 pytorch FC_regression pytorch FC_classification pytorch RNN_regression pytorch LSTM_regression py ...

  2. pytorch nn.Embedding

    pytorch nn.Embedding class torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_n ...

  3. Pytorch | BERT模型实现,提供转换脚本【横扫NLP】

    <谷歌终于开源BERT代码:3 亿参数量,机器之心全面解读>,上周推送的这篇文章,全面解读基于TensorFlow实现的BERT代码.现在,PyTorch用户的福利来了:一个名为Huggi ...

  4. Pytorch学习记录-torchtext和Pytorch的实例( 使用神经网络训练Seq2Seq代码)

    Pytorch学习记录-torchtext和Pytorch的实例1 0. PyTorch Seq2Seq项目介绍 1. 使用神经网络训练Seq2Seq 1.1 简介,对论文中公式的解读 1.2 数据预 ...

  5. PyTorch在NLP任务中使用预训练词向量

    在使用pytorch或tensorflow等神经网络框架进行nlp任务的处理时,可以通过对应的Embedding层做词向量的处理,更多的时候,使用预训练好的词向量会带来更优的性能.下面分别介绍使用ge ...

  6. [实现] 利用 Seq2Seq 预测句子后续字词 (Pytorch)2

    最近有个任务:利用 RNN 进行句子补全,即给定一个不完整的句子,预测其后续的字词. 本文使用了 Seq2Seq 模型,输入为 5 个中文字词,输出为 1 个中文字词. 目录 关于RNN 语料预处理 ...

  7. [实现] 利用 Seq2Seq 预测句子后续字词 (Pytorch)

    最近有个任务:利用 RNN 进行句子补全,即给定一个不完整的句子,预测其后续的字词. 本文使用了 Seq2Seq 模型,输入为5个中文字词,输出为一个中文字词. 目录 关于RNN 语料预处理 搭建数据 ...

  8. Pytorch+Text-CNN+Word2vec+电影评论情感分析实战

    文章目录 0.前言 1.电影评论数据集 2.数据读取 3.数据预处理 4.准备训练和测试集 5.加载词向量模型Word2vec 6.定义网络 7.训练网络 8.测试网络和可视化 9.总结 0.前言 很 ...

  9. pytorch 实现transformer

    transformer理论部分见机器学习笔记:Transformer_刘文巾的博客-CSDN博客 1 导入库 import math import torch import numpy as np i ...

最新文章

  1. 《DDIA》读书笔记(一):可靠性、可扩展性、可维护性
  2. 果然,武汉驶上了AI高速路
  3. 《炉石传说》架构设计赏析(4):Asset管理
  4. url 特殊字符 传递参数解决方法
  5. 亲戚的孩子说要寄养在我家,上学方便,怎么明确的拒绝?
  6. Linux 环境下 Git 安装与基本配置
  7. Android之收音机UI实现(转)
  8. 浅谈压缩感知(二十九):压缩感知算法之迭代硬阈值(IHT)
  9. 基于仿真软件multisim14的多路抢答器电路设计
  10. 如何用虚拟机VMware和Linux路由器搭建一个虚拟网络
  11. Tableau-仪表板
  12. MySQL grant之后一定要跟随flush privileges么?
  13. 中国电信CTWing物联网平台接入指南(一)之开发流程
  14. LeetCode题目笔记——292. Nim 游戏 (脑筋急转弯C++/Python)
  15. 修改密码PHP博客,phpwind任意修改管理员密码漏洞
  16. 豆腐干豆腐干地方的规定
  17. 欧拉图论定理 公式及证明
  18. 丢手帕问题 java_丢手帕问题,java实现
  19. sdnu oj 1319 Russian Roulette
  20. 05 地图添加底图切换控件

热门文章

  1. 【PaddleOCR】Paddle-Lite, Paddle2ONNX介绍, 学习教程...
  2. pr学习心得(入门篇)
  3. MySQL DBA的修炼与未来
  4. Unity-点击屏幕进行移动
  5. geom_signif 函数自己的错误 ——Warning message:
  6. 概率论及概率图模型基础
  7. [svn]svn conflict 冲突解决
  8. 计算机与网络应用word题目解析,计算机二级word真题:《计算机与网络应用》教材的编排...
  9. 无线Mesh网络相比于传统WLAN的优势有哪些?
  10. FPGA驱动千兆以太网PHY但电脑只显示百兆