中文译文:深度学习、自然语言处理和表征方法

http://blog.jobbole.com/77709/

英文原文:Deep Learning, NLP, and Representations

http://colah.github.io/posts/2014-07-NLP-RNNs-Representations/

总结:

这篇文章中主要提到了单层神经网络,单词嵌入(word embeddings),表征这几个概念,结合具体的实例,写的是通俗易懂,在引用参考文献的位置都给出了对应的链接,一些参考文献中的工作还是挺有意思的。

关于单层神经网络,介绍的浅显易懂,把神经网络比作查询表,很直观。

关于单词嵌入,文中介绍的意思是把一个词转换为一个多维向量,还用t-SNE工具直观的给出了单词嵌入空间的图,加上表格中的例子,更加易懂了。比较有意思的就是相同的词在单词嵌入空间中的距离是很近的,这个特点很有利用价值,利用这一点,提到了一些具体的应用场景,例如语法错误检查,性别类中不同代词(男-女,叔叔-阿姨,国王-王后等)之间的距离也是很相似的。关于这些应用,原文的作者的评价是,这些都是在研究方法的过程中所得的副产品。

关于表征representation,单词嵌入应该就算是一种吧,文中重点介绍了共同表征/共享嵌入(shared representation),将多个不同空间的嵌入信息映射到同一个空间,并介绍了两个很好的应用场景——双语单词嵌入和图像-文字嵌入。

双语单词嵌入,把两个语言中的单词嵌入空间用图像直观的看的话,形状是相似的,相似的词在图像中所处的位置是临近的。

图像-文字嵌入,也是相同概念的信息比较接近,例如猫的图像距离文字“猫”就很近,汽车的图像距离“汽车”就很近。这里引用了斯坦福一个小组和谷歌一个小组的工作,感觉挺有意思。

最后介绍了递归神经网络以及为什么适用于NLP。

整体来看,这篇文章更像是一篇不错的科普文章,个人认为读完之后还是有收获的,尤其是Word Embedding这个概念。

昨天搜了一下关于深度学习的相关博客,感觉很有难度。

感觉自己还是只知其一不知其二,不知道怎么在NLP中使用DL。

下面是英文原文中一些个人认为不错的概念和句子。

1:It’s true, essentially, because the hidden layer can be used as a lookup table.

2:word embeddings;

3:It seems natural for a network to make words with similar meanings have similar vectors.

4:You’ve seen all the words that you understand before, but you haven’t seen all the sentences that you understand before. So too with neural networks.

5:Word embeddings exhibit an even more remarkable property: analogies between words seem to be encoded in the difference vectors between words.

6:This general tactic – learning a good representation on a task A and then using it on a task B – is one of the major tricks in the Deep Learning toolbox. It goes by different names depending on the details: pretraining, transfer learning, and multi-task learning. One of the great strengths of this approach is that it allows the representation to learn from more than one kind of data.

There’s a counterpart to this trick. Instead of learning a way to represent one kind of data and using it to perform multiple kinds of tasks, we can learn a way to map multiple kinds of data into a single representation!

7:Shared Representations

(1)Bilingual Word Embeddings;

(2)Embed images and words in a single representation;

8:By merging sequences of words, A takes us from representing words to representing phrases or even representing whole sentences! And because we can merge together different numbers of words, we don’t have to have a fixed number of inputs.

转载于:https://www.cnblogs.com/CheeseZH/p/4369983.html

ZH奶酪:【阅读笔记】Deep Learning, NLP, and Representations相关推荐

  1. 论文阅读:Deep Learning in Mobile and Wireless Networking:A Survey

    论文阅读:Deep Learning in Mobile and Wireless Networking:A Survey 从背景介绍到未来挑战,一文综述移动和无线网络深度学习研究 近来移动通信和 5 ...

  2. [文献阅读笔记]Machine Learning DDoS Detection for Consumer Internet of Things Devices 2018 IEEE SPW

    [文献阅读笔记]Machine Learning DDoS Detection for Consumer Internet of Things Devices 2018 IEEE SPW 1.INTO ...

  3. 个人阅读的Deep Learning方向的paper整理

    http://hi.baidu.com/chb_seaok/item/6307c0d0363170e73cc2cb65 个人阅读的Deep Learning方向的paper整理,分了几部分吧,但有些部 ...

  4. [转载]Deep Learning·NLP·Representation

    原文地址:Mr.Scofield ----- csdn From RxNLP. Indexing: 〇.序 一.DeepNLP的核心关键:语言表示(Representation) 二.NLP词的表示方 ...

  5. 【深度学习】李宏毅2021/2022春深度学习课程笔记 - Deep Learning Task Tips

    文章目录 一.深度学习步骤回顾 二.常规指导 三.训练过程中Loss很大 3.1 原因1:模型过于简单 3.2 原因2:优化得不好 3.3 原因1 or 原因2 ? 四.训练过程Loss小.测试过程L ...

  6. 论文阅读|DeepWalk: Online Learning of Social Representations

    论文阅读|DeepWalk: Online Learning of Social Representations 文章目录 论文阅读|DeepWalk: Online Learning of Soci ...

  7. [论文阅读笔记58]Learning from Noisy Labels with Deep Neural Networks:A Survey

    1.题目 Learning from Noisy Labels with Deep Neural Networks: A Survey 作者团队:韩国科学技术院(KAIST) Song H , Kim ...

  8. RocketQAv2阅读笔记(#问答系统 #NLP #检索)

    #问答系统 #NLP #检索 知乎博客:RocketQAv2 阅读笔记 - 知乎 百度的检索技术厉害的原因:现实中 海量的用户历史数据.强大的中文ERNIE预训练模型.各种创新的模型训练策略.其中Ro ...

  9. 【论文阅读笔记】Learning To Detect Unseen Object Classes by Between-Class Attribute Transfer

    摘要: 本文主要研究训练和测试类别不相交时(即没有目标类别的训练示例)的对象分类问题.在此之前并没有对于毫无关联的训练集和测试集进行对象检测的工作,只是对训练集所包含的样本进行分类.实验表明,通过使用 ...

最新文章

  1. 《数据科学家养成手册》第十一章----算法学(非线性回归)
  2. 文本框 清空_VBA代码中利用文本框,完成人机对话过程
  3. Fabric核心模块之Peer解析
  4. Hadoop启动脚本概览
  5. 《转》15种CSS混合模式让图片产生令人惊艳的效果
  6. Odoo 去掉 恼人的 上午和下午
  7. 【ubuntu如何录制gif图】
  8. 寒霜朋克计算机丢失,Frostpunk寒霜朋克冰汽时代已停止工作修复补丁(Windows6.1-KB2670838-x64)...
  9. android 图片存取方法,6种备份Android照片的方法
  10. 《ssh权威指南》书评
  11. Java 同时替换 字符串中子串
  12. kibana java_Kibana安装及使用说明
  13. ESP8266驱动1.44寸TFT屏幕(例程问题)
  14. 液晶显示模块制作生产流程
  15. ToolSettings app 实现系统本地升级
  16. 一款MS SQL查询分析工具(1.3M)
  17. pgsql 比较数字字符串_postgreSQL数据类型转换字符串和数值
  18. 【Get深一度】完备正交函数集合——信号分析
  19. CSS第三章:13.布局:如何进行网页的经典布局,使用何种标签?让块元素从左到右自然排列如何设置?
  20. 时间轴_鲲鹏芯片发展历程

热门文章

  1. 解决Windows和Ubuntu时间不一致的问题
  2. 运动后肌肉酸痛怎么办?
  3. AutoCAD 2010建筑土木制图高清实例视频教程
  4. java 文件压缩_java实现文件压缩
  5. python循环引用是什么_细说Python的循环调用、循环引用和循环导入
  6. Log4J 1.x 配置详解
  7. (09)FPGA时序分析模型
  8. (65)Verilog HDL多模块重复例化:generate for
  9. FPGA双沿发送之ODDR原语实现
  10. python中list_python中list方法详解说明