https://www.toutiao.com/a6685688607191073294/

本文约2000字,建议阅读5分钟。

本文收集整理了一批基于Tensorflow实现的深度学习/机器学习的深度NLP模型。

收集整理了一批基于Tensorflow实现的深度学习/机器学习的深度NLP模型。

基于Tensorflow的自然语言处理模型,为自然语言处理问题收集机器学习和Tensorflow深度学习模型,100%Jupeyter NoteBooks且内部代码极为简洁。

资源整理自网络,源地址:

https://github.com/huseinzol05

目录

  • Text classification
  • Chatbot
  • Neural Machine Translation
  • Embedded
  • Entity-Tagging
  • POS-Tagging
  • Dependency-Parser
  • Question-Answers
  • Supervised Summarization
  • Unsupervised Summarization
  • Stemming
  • Generator
  • Language detection
  • OCR (optical character recognition)
  • Speech to Text
  • Text to Speech
  • Text Similarity
  • Miscellaneous
  • Attention

目标

原始的实现稍微有点复杂,对于初学者来说有点难。所以我尝试将其中大部分内容简化,同时,还有很多论文的内容亟待实现,一步一步来。

内容

文本分类:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/text-classification

1. Basic cell RNN

2. Bidirectional RNN

3. LSTM cell RNN

4. GRU cell RNN

5. LSTM RNN + Conv2D

6. K-max Conv1d

7. LSTM RNN + Conv1D + Highway

8. LSTM RNN with Attention

9. Neural Turing Machine

10. Seq2Seq

11. Bidirectional Transformers

12. Dynamic Memory Network

13. Residual Network using Atrous CNN + Bahdanau Attention

14. Transformer-XL

完整列表包含(66 notebooks)

聊天机器人:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/chatbot

1. Seq2Seq-manual

2. Seq2Seq-API Greedy

3. Bidirectional Seq2Seq-manual

4. Bidirectional Seq2Seq-API Greedy

5. Bidirectional Seq2Seq-manual + backward Bahdanau + forward Luong

6. Bidirectional Seq2Seq-API + backward Bahdanau + forward Luong + Stack Bahdanau Luong Attention + Beam Decoder

7. Bytenet

8. Capsule layers + LSTM Seq2Seq-API + Luong Attention + Beam Decoder

9. End-to-End Memory Network

10. Attention is All you need

11. Transformer-XL + LSTM

12. GPT-2 + LSTM

完整列表包含(51 notebooks)

机器翻译(英语到越南语):

链接:

https://github.com/huseinzol05/NLP-ModelsTensorflow/tree/master/neural-machine-translation

1. Seq2Seq-manual

2. Seq2Seq-API Greedy

3. Bidirectional Seq2Seq-manual

4. Bidirectional Seq2Seq-API Greedy

5. Bidirectional Seq2Seq-manual + backward Bahdanau + forward Luong

6. Bidirectional Seq2Seq-API + backward Bahdanau + forward Luong + Stack Bahdanau Luong Attention + Beam Decoder

7. Bytenet

8. Capsule layers + LSTM Seq2Seq-API + Luong Attention + Beam Decoder

9. End-to-End Memory Network

10. Attention is All you need

完整列表包含(49 notebooks)

词向量:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/embedded

1. Word Vector using CBOW sample softmax

2. Word Vector using CBOW noise contrastive estimation

3. Word Vector using skipgram sample softmax

4. Word Vector using skipgram noise contrastive estimation

5. Lda2Vec Tensorflow

6. Supervised Embedded

7. Triplet-loss + LSTM

8. LSTM Auto-Encoder

9. Batch-All Triplet-loss LSTM

10. Fast-text

11. ELMO (biLM)

词性标注:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/pos-tagging

1. Bidirectional RNN + Bahdanau Attention + CRF

2. Bidirectional RNN + Luong Attention + CRF

3. Bidirectional RNN + CRF

实体识别:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/entity-tagging

1. Bidirectional RNN + Bahdanau Attention + CRF

2. Bidirectional RNN + Luong Attention + CRF

3. Bidirectional RNN + CRF

4. Char Ngrams + Bidirectional RNN + Bahdanau Attention + CRF

5. Char Ngrams + Residual Network + Bahdanau Attention + CRF

依存分析:

链接:

https://github.com/huseinzol05/NLP-ModelsTensorflow/tree/master/dependency-parser

1. Bidirectional RNN + Bahdanau Attention + CRF

2. Bidirectional RNN + Luong Attention + CRF

3. Residual Network + Bahdanau Attention + CRF

4. Residual Network + Bahdanau Attention + Char Embedded + CRF

问答:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/question-answer

1. End-to-End Memory Network + Basic cell

2. End-to-End Memory Network + GRU cell

3. End-to-End Memory Network + LSTM cell

词干抽取:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/stemming

1. LSTM + Seq2Seq + Beam

2. GRU + Seq2Seq + Beam

3. LSTM + BiRNN + Seq2Seq + Beam

4. GRU + BiRNN + Seq2Seq + Beam

5. DNC + Seq2Seq + Greedy

有监督摘要抽取:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/summarization

1. LSTM Seq2Seq using topic modelling

2. LSTM Seq2Seq + Luong Attention using topic modelling

3. LSTM Seq2Seq + Beam Decoder using topic modelling

4. LSTM Bidirectional + Luong Attention + Beam Decoder using topic modelling

5. LSTM Seq2Seq + Luong Attention + Pointer Generator

6. Bytenet

无监督摘要抽取:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/unsupervised-summarization

1. Skip-thought Vector (unsupervised)

2. Residual Network using Atrous CNN (unsupervised)

3. Residual Network using Atrous CNN + Bahdanau Attention (unsupervised)

OCR (字符识别):

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/ocr

1. CNN + LSTM RNN

语音识别:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/speech-to-text

1. Tacotron

2. Bidirectional RNN + Greedy CTC

3. Bidirectional RNN + Beam CTC

4. Seq2Seq + Bahdanau Attention + Beam CTC

5. Seq2Seq + Luong Attention + Beam CTC

6. Bidirectional RNN + Attention + Beam CTC

7. Wavenet

语音合成:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/text-to-speech

1. Tacotron

2. Wavenet

3. Seq2Seq + Luong Attention

4. Seq2Seq + Bahdanau Attention

生成器:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/generator

1. Character-wise RNN + LSTM

2. Character-wise RNN + Beam search

3. Character-wise RNN + LSTM + Embedding

4. Word-wise RNN + LSTM

5. Word-wise RNN + LSTM + Embedding

6. Character-wise + Seq2Seq + GRU

7. Word-wise + Seq2Seq + GRU

8. Character-wise RNN + LSTM + Bahdanau Attention

9. Character-wise RNN + LSTM + Luong Attention

语言检测:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/language-detection

1. Fast-text Char N-Grams

文本相似性:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/text-similarity

1. Character wise similarity + LSTM + Bidirectional

2. Word wise similarity + LSTM + Bidirectional

3. Character wise similarity Triplet loss + LSTM

4. Word wise similarity Triplet loss + LSTM

注意力机制:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/attention

1. Bahdanau

2. Luong

3. Hierarchical

4. Additive

5. Soft

6. Attention-over-Attention

7. Bahdanau API

8. Luong API

其他:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/misc

1. Attention heatmap on Bahdanau Attention

2. Attention heatmap on Luong Attention

非深度学习:

链接:

https://github.com/huseinzol05/NLP-Models-Tensorflow/tree/master/not-deep-learning

1. Markov chatbot

2. Decomposition summarization (3 notebooks)

编辑:王菁

校对:林亦霖

— 完 —

Tensorflow实现的深度NLP模型集锦(附资源)相关推荐

  1. 收藏 | Tensorflow实现的深度NLP模型集锦(附资源)

    来源:深度学习与NLP 本文约2000字,建议阅读5分钟. 本文收集整理了一批基于Tensorflow实现的深度学习/机器学习的深度NLP模型. 收集整理了一批基于Tensorflow实现的深度学习/ ...

  2. 神经网络并不是尚方宝剑,我们需要正视深度 NLP 模型的泛化问题

    来源:AI 科技评论 前段时间的文章<顶会见闻系列:ACL 2018,在更具挑战的环境下理解数据表征及方法评价>中,我们介绍了 ACL 大会上展现出的 NLP 领域的最新研究风向和值得关注 ...

  3. MIT的周博磊博士如何解释深度学习模型(附PPT)

    ↑ 点击上方[计算机视觉联盟]关注我们 声明:本文来源于网络 如有侵权,联系删除 热文荐读 2018年12月精选文章目录一览 深度学习开源数据集大全 2018年度最强的30个机器学习项目! 人工智能相 ...

  4. NLP模型集锦----pynlp

    github 地址 目录 1.Introduction 2.Our Model 2.1 CTR 2.1.1 Models List 2.1.2 Convolutional Click Predicti ...

  5. 60分钟入门PyTorch,官方教程手把手教你训练第一个深度学习模型(附链接)

    来源:机器之心 本文约800字,建议阅读5分钟. 本文介绍了官方教程入门PyTorch的技巧训练. 近期的一份调查报告显示:PyTorch 已经力压 TensorFlow 成为各大顶会的主流深度学习框 ...

  6. pytorch .item_60分钟入门PyTorch,官方教程教授第一个深度学习模型(附链接)

  7. 网页版深度学习模型编辑器,搭建运行样样都行,还能3D可视化

    最近,一款网页版深度学习模型编辑器面世了. 不用下载任何客户端应用.不用装任何插件.甚至连数据集都不用下载,直接在网页端就可以搭建.训练.运行神经网络,甚至还是3D可视的. 直接选择你需要的数据集,加 ...

  8. 深度学习利器:TensorFlow与NLP模型

    深度学习利器:TensorFlow与NLP模型 享到:微博微信FacebookTwitter有道云笔记邮件分享 稍后阅读 我的阅读清单 前言 自然语言处理(简称NLP),是研究计算机处理人类语言的一门 ...

  9. TensorFlow 2.X中的动手NLP深度学习模型准备

    简介:为什么我写这篇文章 (Intro: why I wrote this post) Many state-of-the-art results in NLP problems are achiev ...

最新文章

  1. 安装、设置与启动MySql5.1.30绿色版的方法
  2. 简单实现支付密码输入框 By HL
  3. github java开源项目经验_10月份Github上最热门的Java开源项目
  4. 数据结构--队列Queue--打印杨辉三角
  5. CCF-CSP认证历年真题详解
  6. 手把手之stacking|分享集成模型在实际工作中的应用(上)
  7. java mvc 登陆_SpringMVC实现用户登录实例
  8. 第一次的爬虫小试(爬取网页文本)
  9. 网络时间协议 --- 网络对时程序
  10. 电机与拖动(戚金清版)学习整理
  11. 如何翻转视频,一键将多个视频垂直翻转播放
  12. CentOS等保三级安全加固方案
  13. FX5U Socket通信
  14. 集群服务器上的jupyter配置
  15. LTE中RNTI介绍
  16. 靶场vulnstack4内网渗透
  17. 生成对抗网络(Generative Adversarial Networks,GAN)初探
  18. MODEL COMPRESSION VIA DISTILLATION AND QUANTIZATION
  19. 程序员高效率工作工具推荐(必备工具)
  20. c语言常用滤波算法,10种常用滤波算法C实现.c

热门文章

  1. 怎样更新jar包中的某个class文件??
  2. 类的包访问权限:《Java编程思想》中一段话的困惑
  3. SQL2000 好书 《SQL Server 2000数据库管理与开发技术大全》----求是科技 人民邮电出版社
  4. Chapter 1 快速搭建-服务的注册与发现(Eureka)
  5. 《预训练周刊》第20期:EVA:包含28亿参数的中文预训练对话模型、基于知识融入提示词的文本分类...
  6. 数据分析与数据科学圈潜在“标杆级”著作,亚马逊智囊团副团长新书
  7. 图灵1月书讯:阅新书辞旧岁,览经典迎新年
  8. 被黑客们使用的代码混淆技术
  9. 图灵2010.08书讯
  10. 独家 | 手把手教你用Python的Prophet库进行时间序列预测