神经网络记忆

深度学习(DEEP LEARNING)

We always heard that Neural Networks (NNs)are inspired by biological neural networks. This huge representation was done in a fantastic way.

我们总是听到神经网络( NNs )受生物神经网络的启发。 这种巨大的表现是一种奇妙的方式。

Figure 1 shows the anatomy of a single neuron. The central part is called the cell body where the nucleus resides. There are various wires which pass the stimulus to the cell body and few wires which send the output to the other neurons. The thickness of the dendrites implies the weight/bias/power of the stimulus. Many neurons with various cell bodies are stacked up which forms the biological neural network.

图1显示了单个神经元的解剖结构。 中心部分称为细胞核所在的细胞体。 有各种各样的导线将刺激传递到细胞体,很少有导线将输出传递到其他神经元。 树突的厚度暗示了刺激的重量/偏见/力量。 具有各种细胞体的许多神经元被堆叠起来,形成了生物神经网络。

Source, Edited by author)来源,作者编辑)

This same structure is implemented in Neural Networks. The input is passed through an activation function with weighted edges. The output is generated which can be passed to another activation function. Many activation functions can be stacked up, each of these is called a layer. And in a layer, we can have multiple neurons.

在神经网络中实现了相同的结构。 输入通过带有加权边的激活函数传递。 生成的输出可以传递给另一个激活功能。 可以堆叠许多激活功能,每个激活功能都称为一个。 并且在一层中,我们可以有多个神经元。

Figure 2: Single neuron neural network (Image created by author)
图2:单神经元神经网络(图片由作者创建)

These activation functions can be as simple as a sigmoid function

这些激活函数可以像S形函数一样简单

神经网络相对于传统机器学习算法的优势(Advantages of neural networks over traditional machine learning algorithms)

  • Various types and sizes of data can be handled可以处理各种类型和大小的数据
  • Multiple functions can be easily configured可以轻松配置多种功能
  • Non-linear data can be efficiently handled非线性数据可以得到有效处理

带记忆的神经网络(Neural Networks with memory)

The main difference between the functioning of neural networks and the biological neural network is memory. While both the human brain and neural networks have the ability to read and write from the memory available, the brain can create/store the memory as well. Researchers identified that this key difference is the major roadblock for today’s AI systems to reach human-level intelligence.

神经网络和生物神经网络的功能之间的主要区别是记忆。 人脑和神经网络都具有从可用内存中进行读写的能力,而大脑也可以创建/存储内存。 研究人员发现,这一主要差异是当今AI系统达到人类水平智能的主要障碍。

Researchers at DeepMind aimed to build a differentiable computer, by putting together a neural network and linking it to external memory. The neural network would act as a CPU with a memory attached. Such differentiable computers aim to learn programs (algorithms) from input and output data.

DeepMind的研究人员旨在通过组合神经网络并将其链接到外部存储器来构建可区分的计算机。 神经网络将充当具有存储器的CPU。 这种可区分的计算机旨在从输入和输出数据中学习程序(算法)。

The neural networks are used when the amount of data is huge. For example, text data has an enormous amount of dimensions or the image data which is split into a huge number of pixels.

当数据量巨大时,将使用神经网络。 例如,文本数据具有大量尺寸,或者图像数据被拆分为大量像素。

递归神经网络 (Recurrent Neural Network)

A movie consists of a sequence of scenes. When we watch a particular scene, we don’t try to understand it in isolation, but rather in connection with previous scenes. In a similar fashion, a machine learning model has to understand the text by utilizing already-learned text, just like in a human neural network.

电影由一系列场景组成。 当我们观看一个特定的场景时,我们并不是试图孤立地理解它,而是与先前的场景联系起来。 就像在人类神经网络中一样,机器学习模型也必须通过利用已经学习的文本来理解文本。

In traditional machine learning models, we cannot store a model’s previous stages. However, Recurrent Neural Networks (commonly called RNN) can do this for us. Let’s take a closer look at RNNs below.

在传统的机器学习模型中,我们无法存储模型的先前阶段。 但是,递归神经网络(通常称为RNN)可以为我们做到这一点。 让我们仔细看看下面的RNN。

Figure 3: Working of a basic RNN (Image by Author)
图3:基本RNN的工作(作者提供)

An RNN has a repeating module that takes input from the previous stage and gives its output as input to the next stage. However, in RNNs we can only retain information from the most recent stage. That’s where LSTM comes to the picture.

RNN具有一个重复模块,该模块接收来自上一级的输入,并将其输出作为输入提供给下一级。 但是,在RNN中,我们只能保留最近阶段的信息。 这就是LSTM的用武之地。

长期短期记忆网络 (Long Short Term Memory Networks)

To learn long-term dependencies, our network needs memorization power. LSTMs are a special case of RNNs which can do that. They have the same chain-like structure as RNNs, but with a different repeating module structure.

要了解长期依赖性,我们的网络需要记忆能力。 LSTM是RNN的一种特殊情况,可以做到这一点。 它们具有与RNN相同的链状结构,但具有不同的重复模块结构。

Figure 4: Working of LSTM (Image by author)
图4:LSTM的工作(作者提供图片)

LSTM has a wide range of applications in Sequence-to-Sequence modeling tasks like Speech Recognition, Text Summarization, Video Classification, and so on.

LSTM在序列到序列建模任务中具有广泛的应用,例如语音识别,文本摘要,视频分类等。

To understand how these networks can be adopted in real-life applications in a quick glance, do check the article below.

要快速了解如何在实际应用中采用这些网络,请查看以下文章。

A spam detection model can be achieved by converting text data into vectors, creating an LSTM model, and fitting the model with the vectors.

垃圾邮件检测模型可以通过将文本数据转换为向量,创建LSTM模型并使用向量对模型进行拟合来实现。

实作 (Implementation)

To implement these complete neural networks, Keras and TensorFlow made it simple.

为了实现这些完整的神经网络,Keras和TensorFlow使其变得简单。

We are implementing a Bidirectional LSTM with the ReLU activation function.

我们正在实现具有ReLU激活功能的双向LSTM。

#Importing necessary librariesimport tensorflow as tffrom keras.layers import LSTM, Activation, Bidirectional#Addding Bi-directional LSTMmodel.add(Bidirectional(tf.keras.layers.LSTM(64)))#Relu allows converging quickly and allows backpropagationmodel.add(Dense(16, activation='relu'))model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])

Creating each layer is just a single line of code.

创建每一层只是一行代码。

概要 (Summary)

In this article, we learned how neural networks are linked to biological neural networks and the working of neural networks with memory (namely, RNN, LSTM).

在本文中,我们学习了神经网络如何链接到生物神经网络以及具有记忆的神经网络(即RNN,LSTM)的工作方式。

Thanks for the read. I am going to write more beginner-friendly posts in the future too. Follow me up on Medium to be informed about them. I welcome feedback and can be reached out on Twitter ramya_vidiyala and LinkedIn RamyaVidiyala. Happy learning!

感谢您的阅读。 我将来也会写更多对初学者友好的文章。 跟我上Medium ,以了解有关它们的信息。 我欢迎您提供反馈,可以在Twitter ramya_vidiyala和LinkedIn RamyaVidiyala上与他们联系。 学习愉快!

翻译自: https://towardsdatascience.com/neural-networks-with-memory-27528a242b78

神经网络记忆


http://www.taodudu.cc/news/show-3486522.html

相关文章:

  • 脑神经科学
  • 脑机接口(BCI)的研究方法
  • 计算机知识怎么记忆,计算机二级考试复习记忆的好方法
  • 程序是怎样跑起来的
  • 心理学与生活 - 感知与记忆
  • 程序性知识的概念
  • 高效沟通
  • 阿里云中间件开源往事
  • 未明学院:二流的学校背景,如何拥有一流的人生履历?这里有4个真实故事
  • 分享一篇教你掌握英文论文写作技能的文章(来自MIT博士)
  • android电话本导入iphone,怎么把安卓手机通讯录导入iphone?安卓手机通讯录导入苹果手机三大方法分享...
  • 用C语言实现电话本的两种方式
  • Java面向对象练习-电话本管理系统
  • Android中读取电话本Contacts联系人的所有电话号信息
  • 手机测试用例-电话本测试用例
  • WP8 电话本编程
  • iphone合并重复联系人_如何清理iPhone上的重复联系人
  • Android发送短信(短信发送以及群发和从电话本选择联系人)---短信管家2
  • java实现简单电话本
  • 编写一个简单的通讯录python-python写一个通讯录
  • Android中联系人和通话记录详解(2)
  • Android读取联系人姓名、电话
  • android 联系人数据库
  • 关于微信认证--个体工商户中之认证联系人
  • Android添加联系人信息并读取
  • 电话本系统python代码
  • 保存联系人和手机号到电话本
  • 如何从电话本添加联系人
  • Android中获取联系人的基本信息,如姓名、电话
  • Android选择联系人并返回对应号码

神经网络记忆_带记忆的神经网络相关推荐

  1. bp神经网络训练_数据分析模型6——神经网络基础(人工智能的底层模型)

    未经许可请勿转载 更多数据分析内容参看这里 今天我们来学习人工智能的底层模型--神经网络(NEURAL NETWORKS),现在比较热门的一个模型是深度学习,深度学习的基础也是神经网络,要学好深度学习 ...

  2. 模块说和神经网络学说_为什么都说神经网络是个黑箱?

    神经网络黑箱的意思是我们知其然,不知其所以然,相关理论比较缺乏.别看神经网络相关论文汗牛充栋,但是大部分类似于technical report,告诉你我这么做效果不错,具体原因不知道,只能" ...

  3. python神经网络包_使用Python实现神经网络的成本函数(第5周Coursera)

    基于Coursera Course for Machine Learning,我正在尝试在python中实现神经网络的成本函数.有一个类似于这个的question – 有一个可接受的答案 – 但答案中 ...

  4. RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测

    全文链接:http://tecdat.cn/?p=25133 2017 年年中,R 推出了 Keras 包 _,_这是一个在 Tensorflow 之上运行的综合库,具有 CPU 和 GPU 功能(点 ...

  5. 神经网络历史_神经网络完整有趣且令人费解的历史

    神经网络历史 关于DL的一切(Everything about DL) We will be looking at the history of neural networks. After thor ...

  6. 机器学习 量子_量子机器学习:神经网络学习

    机器学习 量子 My last articles tackled Bayes nets on quantum computers (read it here!), and k-means cluste ...

  7. python 神经网络预测未来30天数据_使用LSTM循环神经网络的时间序列预测实例:预测未来的货币汇率...

    Statsbot团队发表过一篇关于使用时间序列分析来进行异常检测的文章.文章地址:https://blog.statsbot.co/time-series-anomaly-detection-algo ...

  8. python 神经网络原理_神经网络工作原理

    更多:神经网络- 机器学习这一强大的分支结束了 AI 的寒冬,迎来了人工智能的新时代.简而言之,神经网络可能是今天最具有根本颠覆性的技术. 看完这篇神经网络的指南,你也可以和别人聊聊深度学习了.为此, ...

  9. keras神经网络回归预测_如何使用Keras建立您的第一个神经网络来预测房价

    keras神经网络回归预测 by Joseph Lee Wei En 通过李维恩 一步一步的完整的初学者指南,可使用像Deep Learning专业版这样的几行代码来构建您的第一个神经网络! (A s ...

最新文章

  1. matlab 冒号操作符
  2. git svn 疯子随想,续
  3. nodejs 服务器怎么导入qs_nodejs基本原理总结
  4. oracle之 安装 11G RAC 报 NTP failed
  5. Redis中的Sentinel 配置
  6. 报错:selenium.common.exceptions.SessionNotCreatedException: Message: session not created: This versio
  7. Python中[::-1]的意义
  8. mysql coalesce函数用法_MySQL coalesce函数用法说明(转)
  9. 一个女程序员的创业人生:胆识也是一种能力 作者:秋镇菜
  10. mysql不对称复制数据_mysql UNION all 实现不对称数据统计
  11. 华为Mate 50系列明年亮相:或首发高通骁龙898 4G芯片
  12. Docker安装应用程序(Centos6.5_x64)
  13. 用Adobe Illustrator将位图转为矢量图并上色
  14. 51单片机——舵机的原理及应用
  15. 【小月电子】ALTERA FPGA开发板系统学习教程-LESSON9简易测试系统
  16. 长度测试仪:可测量网线/电话线/光纤等的长度
  17. Mac上doc 转docx
  18. 鸿蒙系统 google应用
  19. stm32——中断优先级管理
  20. 牛年贺岁特辑 | 盘点5G产业看趋势,喜迎牛年谋新局

热门文章

  1. 为什么“ Hello World”是您将编写的最重要的程序
  2. windows 7 folder of system manager 系统文件夹管理员权限的获取方法
  3. java矩形派生正方形_src Step1: 为实验3中定义的矩形类派生一个子类:正方形类 - 下载 - 搜珍网...
  4. XHR如何爬虫_Python爬虫实战之抓取京东苹果手机评价
  5. 口袋超萌服务器维护中,口袋超萌训练师如何升级
  6. [Python]Django中间件
  7. iOS 设置的字体的大小与PS字体大小的关系
  8. 用计算机算鞋码,鞋码怎么计算?鞋子尺码测量图
  9. 你的微信朋友圈变味了!
  10. 2021年化工自动化控制仪表最新解析及化工自动化控制仪表新版试题