读论文《Efficient Estimation of Word Representations in Vector Space》


原文地址:http://blog.csdn.net/qq_31456593/article/details/77513173

introduce

词的分布式表示(又称词嵌入,word embedding)因为这篇文章开始大火,原来的word embedding只是神经网络语言模型的副产物,而该论文的主要的目标是训练具有语义特征的word embedding。

本文体提出了2个模型,一个是Continuous Bag-of-WordS Model(CBOW),一个是Continuous Skip-gram Model(Skip-gram)
其中CBOW是用上下文的词预测中间词,Skip-gram是用中间词预测上下文的词。

考虑到原来的神经语言模型算法复杂度高,训练时间长,本文的两个网络都去掉了非线性隐藏层,并在输出层使用哈夫曼树结构进行hierarchical softmax,使复杂度大大降低,一天的时间就可以训练16亿单词量的语料。且最终生成的词嵌入满足类似king-man+women=queen的语义关系。

method

论文的2个模型如下文所示


其中CBOW是最大化对w(t)的预测,Skip-gram是最大化对w(t-2),w(t-1),w(t+1),w(t+2)的预测之和。

由于没有隐藏层,所以2个网络都是线性模型

原文对于网络结构和优化函数介绍比较少,所以在这里就不展开,具体细节将在word2vec的博文中介绍

my view

1、由中心词预测上下词似乎是一个很好的思路,值得深挖。
2、没有隐藏层也能有这么好的效果,难道是把语义特征都让词向量学了?
3、没有非线性变化,是否不具更强的拟合能力?
4、文章实验表明词向量维度扩大2倍,比训练次数扩大3倍效果好,是因为维度高,语义丰富?
5、king-man+women=queen是否表明学到的语义空间接近于到人脑中的概念空间?

读论文《Efficient Estimation of Word Representations in Vector Space》相关推荐

  1. 读论文《A Neural Probabilistic Language Model》

    读论文<A Neural Probabilistic Language Model> 原文地址:http://blog.csdn.net/qq_31456593/article/detai ...

  2. A Neural Probabilistic Language Model 论文阅读及实战

    1.词向量介绍 在NLP任务中,第一步首先将自然语言转化成数学符号表示.一般常用的词汇表示方法:one-hot表示,这种方法是将每个单词表示为一个很长的向量,这个向量的长度是词汇表的大小,其中绝大数元 ...

  3. 论文阅读:A Neural Probabilistic Language Model 一种神经概率语言模型

    A Neural Probabilistic Language Model 一种神经概率语言模型 目录 A Neural Probabilistic Language Model 一种神经概率语言模型 ...

  4. 文本生成(一)【NLP论文复现】Unified Language Model 文本生成从未如此轻松

    Unified Language Model 文本生成从未如此轻松 前言 UniLM How to build UniLM Get 2D MASK Send 2D MASK to Bert 使用Uni ...

  5. 读论文《Natural Language Processing (Almost) from Scratch》

    读论文<Natural Language Processing (Almost) from Scratch> 原文地址:http://blog.csdn.net/qq_31456593/a ...

  6. NLP——day37 读论文:自然语言处理中的文本表示研究(综述类 2022 软件学报)

    自然语言处理中的文本表示研究 资源下载地址(原论文和笔记) INTRODUCTION chap1文本表示基础 1.1 什么是文本表示? 1.2 为什么进行文本表示 chap2 主流技术和方法 文本的离 ...

  7. NLP问题特征表达基础 - 语言模型(Language Model)发展演化历程讨论

    1. NLP问题简介 0x1:NLP问题都包括哪些内涵 人们对真实世界的感知被成为感知世界,而人们用语言表达出自己的感知视为文本数据.那么反过来,NLP,或者更精确地表达为文本挖掘,则是从文本数据出发 ...

  8. 读论文《Recurrent neural network based language model 》

    读论文<Recurrent neural network based language model > 标签(空格分隔): 论文 introduce 本文将循环神经网络RNN引入了神经网络 ...

  9. 读论文系列(二)Convolutional Neural Networks over Tree Structures for Programming Language Processing

    系列文章目录 读论文系列(一)Automated software vulnerability detection with machine learning 文章目录 系列文章目录 Keywards ...

  10. 读论文2:SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers

    SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers Abstract:[上一篇:读论文1](https:// ...

最新文章

  1. python3爬虫入门教程-Python3爬虫学习入门教程
  2. Linux 技术篇-查看cpu核心数,grep常用信息筛选语法使用演示
  3. LeetCode 23合并K个升序链表24两两交换链表中的节点
  4. Nginx教程系列一:Nginx简介(反向代理、负载均衡)
  5. 【更新】PPT管理控件Aspose.Slides V17.5发布 | 附下载
  6. nodejs连接redis,redis服务器的地址格式应该怎么写
  7. mac 修改conda镜像 condarc_win10 修改anaconda源
  8. TensorFlow Hub介绍:TensorFlow中可重用的机器学习模块库
  9. qos和被qos是什么意思
  10. 7-189 帅到没朋友 (20 分)
  11. 帆软报表如何传递主表原有参数给子表呢_报表工具--钻取功能--超链接下钻
  12. 实验4-1-6 求分数序列前N项和 (15 分)
  13. java程序在JVM中是如何运行的?
  14. App Store 审核指南 审核失败对照
  15. 2022年5月4号SSM框架整合学习一:
  16. HTML基础学习(全)
  17. 移动端背景图css6,移动端适配之雪碧图(sprite)背景图片定位
  18. REUSE_ALV_GRID_DISPLAY_LVC函数输入参数属性的应用
  19. android UI设计图片和文字尺寸px对应dp、sp值换算
  20. 阿里P9又有新瓜,而我却是技术圈的一股清流

热门文章

  1. 《MSComm控件小结》
  2. C#多线程同步事件及等待句柄
  3. python成语游戏代码_Python基础,猜成语小游戏
  4. 闲暇之余做一新闻网站
  5. DSP TMS320C6000基础学习(3)——CCS v5软件开发环境搭建
  6. 淘特 Flutter 流畅度优化实践 · 二期
  7. iOS性能优化——卡顿优化
  8. 学习状态通道,Part-3:多跳交易/中心辐射通道
  9. 计划任务计算机怎么进入,windows7计划任务如何设置?windows7计划任务操作步骤图文详解...
  10. 我是如何从零开始学习前端的