常见25种深度学习模型的github代码
1 Feed forward neural networks (FF or FFNN) and perceptrons (P)
前馈神经网络和感知机,信息从前(输入)往后(输出)流动,一般用反向传播(BP)来训练。算是一种监督学习。
对应的代码https://github.com/danijar/layered
https://github.com/civisanalytics/muffnn
2 Radial basis function (RBF)
径向基函数网络,是一种径向基函数作为激活函数的FFNNs(前馈神经网络)。
对应的代码https://github.com/eugeniashurko/rbfnnpy
3 Hopfield network (HN)
Hopfield网络,是一种每个神经元都跟其它神经元相连接的神经网络。
对应的代码https://github.com/yosukekatada/Hopfield_network
4 Markov chains (MC or discrete time Markov Chain, DTMC)
马尔可夫链 或离散时间马尔可夫链,算是BMs和HNs的雏形。
对应的代码Markov chains:https://github.com/jsvine/markovify
DTMC:https://github.com/AndrewWalker/dtmc
6 Restricted Boltzmann machines (RBM)
受限玻尔兹曼机,和玻尔兹曼机以及Hopfield网络都比较类似。
对应的代码https://github.com/echen/restricted-boltzmann-machines
7 Autoencoders (AE)
自动编码,和FFNN有些类似,它更像是FFNN的另一种用法,而不是本质上完全不同的另一种架构。
对应的代码https://github.com/caglar/autoencoders/blob/master/ae.py
8 Sparse autoencoders (SAE)
稀疏自动编码,跟自动编码在某种程度比较相反。
对应的代码https://github.com/caglar/autoencoders/blob/master/sa.py
9 Variational autoencoders (VAE)
变分自动编码,和AE架构相似,不同的是:输入样本的一个近似概率分布。这使得它跟BM、RBM更相近。
对应的代码https://github.com/mattjj/svae
10 Denoising autoencoders (DAE)
去噪自动编码,也是一种自编码机,它不仅需要训练数据,还需要带噪音的训练数据。对应对应的代码https://github.com/caglar/autoencoders/blob/master/da.py
11 Deep belief networks (DBN)
深度信念网络,由多个受限玻尔兹曼机或变分自动编码堆砌而成。
对应的代码https://github.com/albertbup/deep-belief-network
12 Convolutional neural networks (CNN or deep convolutional neural networks, DCNN)
卷积神经网络
对应的代码:
CNN:https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_CNN.py
DCNN:https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_DeepCNN.py
13 Deconvolutional networks (DN)
去卷积网络,又叫逆图形网络,是一种逆向的卷积神经网络。
对应的代码https://github.com/ifp-uiuc/anna
14Deep convolutional inverse graphics networks (DCIGN)
深度卷积逆向图网络,实际上是VAE,且分别用CNN、DNN来作编码和解码。
对应的代码https://github.com/yselivonchyk/TensorFlow_DCIGN
15 Generative adversarial networks (GAN)
生成对抗网络,Goodfellow的封神之作
对应的代码https://github.com/devnag/pytorch-generative-adversarial-networks
16 Recurrent neural networks (RNN)
循环神经网络,这个更不用解释,做语音、NLP的没有人不知道,甚至非AI相关人员也知道。
对应的代码https://github.com/farizrahman4u/recurrentshop
17 Long / short term memory (LSTM)
长短期记忆网络,RNN的变种,解决梯度消失/爆炸的问题,也不用解释,这几年刷爆各大顶会。
对应的代码https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_LSTM.py
18 Gated recurrent units (GRU)
门循环单元,类似LSTM的定位,算是LSTM的简化版。
对应的代码https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_GRU.py
19 Neural Turing machines (NTM)
神经图灵机,LSTM的抽象,以窥探LSTM的内部细节。具有读取、写入、修改状态的能力。
对应的代码https://github.com/MarkPKCollier/NeuralTuringMachine
20 Bidirectional recurrent neural networks, bidirectional long / short term memory networks and bidirectional gated recurrent units (BiRNN, BiLSTM and BiGRU respectively)
双向循环神经网络、双向长短期记忆网络和双向门控循环单元,把RNN、双向的LSTM、GRU双向,不再只是从左到右,而是既有从左到右又有从右到左。
对应的代码:
BiLSTM:https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_BiLSTM.py
BiGRU:https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_BiGRU.py
21 Deep residual networks (DRN)
深度残差网络,是非常深的FFNN,它可以把信息从某一层传至后面几层(通常2-5层)。
对应的代码https://github.com/KaimingHe/deep-residual-networks
22 Echo state networks (ESN)
回声状态网络,是另一种不同类型的(循环)网络。
对应的代码https://github.com/m-colombo/Tensorflow-EchoStateNetwork
23 Extreme learning machines (ELM)
极限学习机,本质上是随机连接的FFNN。
对应的代码https://github.com/dclambert/Python-ELM
24 Liquid state machines (LSM)
液态机,跟ESN类似,区别是用阈值激活函数取代了sigmoid激活函数。
对应的代码https://github.com/kghose/Liquid
25 Support vector machines (SVM)
支持向量机,入门机器学习的人都知道
对应的代码https://github.com/ajtulloch/svmpy
26 Kohonen networks (KN, also self organising (feature) map, SOM, SOFM)
Kohonen 网络,也称之为自组织(特征)映射。
对应的代码KN/SOM:https://github.com/mljs/som
常见25种深度学习模型的github代码相关推荐
- 基于web端和C++的两种深度学习模型部署方式
深度学习Author:louwillMachine Learning Lab 本文对深度学习两种模型部署方式进行总结和梳理.一种是基于web服务端的模型部署,一种是基... 深度学习 Author:l ...
- 【NLP-NER】命名实体识别中最常用的两种深度学习模型
命名实体识别(Named Entity Recognition,NER)是NLP中一项非常基础的任务.NER是信息提取.问答系统.句法分析.机器翻译等众多NLP任务的重要基础工具. 上一期我们介绍了N ...
- 【深度学习】基于web端和C++的两种深度学习模型部署方式
深度学习 Author:louwill Machine Learning Lab 本文对深度学习两种模型部署方式进行总结和梳理.一种是基于web服务端的模型部署,一种是基于C++软件集成的方式进行部署 ...
- 【文本分类】常见文本分类深度学习模型汇总
在深度学习被广泛用于NLP之前,文本分类任务的常见pipeline为: (1)人工/半自动特征抽取:包括one-hot编码.count features.TF-IDF.词性/句法信息等等 (2)分类器 ...
- pytorch基于web端和C++的两种深度学习模型部署方式
本文对深度学习两种模型部署方式进行总结和梳理.一种是基于web服务端的模型部署,一种是基于C++软件集成的方式进行部署. 基于web服务端的模型部署,主要是通过REST API的形式来提供接口方便调用 ...
- 在英特尔硬件上部署深度学习模型的无代码方法 OpenVINO 深度学习工作台的三部分系列文章 - CPU AI 第一部
作者 Taylor, Mary, 翻译 李翊玮 关于该系列 了解如何转换.微调和打包推理就绪的 TensorFlow 模型,该模型针对英特尔®硬件进行了优化,仅使用 Web 浏览器.每一步都在云中使用 ...
- 主流的25个深度学习模型
深度学习发展很快,新的模型层出不穷,所以要想全部列举是不可能的.另外,很多模型都是这里提出很长很长时间了,所以也不是说"老"模型就没用,大家学习的话,还是要全面而深入的学习. 1. ...
- 在英特尔硬件上部署深度学习模型的无代码方法 关于OpenVINO深度学习工作台的三部分系列 第二部
作者 Taylor, Mary, 翻译 李翊玮 关于 OpenVINO™ 深度学习工作台的三部分系列文章 关于该系列 了解如何转换.微调和打包 推理就绪的 TensorFlow 模型,该模型针对英特尔 ...
- 在英特尔硬件上部署深度学习模型的无代码方法 OpenVINO 深度学习工作台的三部分系列 - CPU AI 第二部
作者 Taylor, Mary, 翻译 李翊玮 关于该系列 了解如何转换.微调和打包 推理就绪的 TensorFlow 模型,该模型针对英特尔®硬件进行了优化,仅使用 Web 浏览器.每一步都在云中使 ...
最新文章
- 详细介绍Vue的数据响应式
- 为什么C++(感谢waterwalk翻译)
- boost::int64_t模块int64 范围的测试程序
- mysql中查询触发器的语句
- JavaScript----BOM(浏览器对象模型)
- 【跃迁之路】【522天】程序员高效学习方法论探索系列(实验阶段279-2018.07.12)...
- 6段Python代码刻画深度学习历史:从最小二乘法到深度神经网络
- 使用wireshark抓取3G包
- scrapy不抓取重复的网页解决办法
- MCSE第六课-DHCP
- linux page cache 大小,Linux内核学习笔记(八)Page Cache与Page回写
- 数据结构经典案例_计算机领域必读的经典书籍清单
- 关于打包测试环境,百度地图报 Bmap not undefined
- 单元测试框架TestableMock快速入门(七):常用注解参数
- Android Framework - 学习启动篇
- 全面讲解在BIOS设置IDE设备的多种组合方式
- Twaver-HTML5基础学习(5)告警元素(Alarm)的告警位置(偏移量以及定位理解)
- scratch编程滑雪者游戏教程
- mysql 数据库主从
- NRDP要比NSCA更好使用
热门文章
- java 反射的弊端_java反射机制的一些学习心得小结
- 深度学习,路在何方?
- 学PyTorch还是TensorFlow?
- 谷歌师兄的刷题笔记分享!
- Spring Cloud Hoxton正式发布,Spring Boot 2.2 不再孤单
- 论文浅尝 - ESWA | 知识图谱的自动扩充方法
- Peacock:大规模主题模型及其在腾讯业务中的应用-2015
- KubeVela 高可扩展的云原生应用平台与核心引擎
- 国科大prml10-无监督学习
- 计蒜客 28437.Big brother said the calculation-线段树+二分-当前第k个位置的数 ( ACM训练联盟周赛 M)...