目录

模型训练

指标

损失

激活函数

优化器

正则化

其他


模型训练

编译:compile

拟合:fit

过拟合:overfit

欠拟合:underfit

随机初始化:radom initialization

前向传播:foward pass

小批量随机梯度下降:mini-batch stochastic gradient descent,SGD

训练后的量化(post training quantizated)

训练中引入量化(quantization aware training)

权重初始化方案:weight-initialization scheme

优化方案:optimization scheme

目标函数:objective function

反向传播:backpropagation,backward pass,也叫反式微分,reverse-mode differentiation

训练循环:training loop

超参数:hyperparameter

K折验证:K-fold validation

乱序重复K折验证:iterated K-fold validation with shuffling

预训练网络:pretrained network

特征提取:feature extraction

微调模型:fine-tuning

Hebbian学习规则

与BP算法一样,Hebbian学习规则也是一种参数更新的方式。该学习规则:将一个神经元的输入与输出信息进行对比,对该神经元的输入权重参数进行更新。该学习规则使每个神经元独自作战。一个神经元的参数更新,仅仅与它自己的输入与输出数据有关,不考虑整个网络的全局情况。

Hebbian学习规则通常使用双极性激活函数,即激活函数的取值范围是[-1,1],使得输入与输出同号(+或-)时,加大权重,否则,降低权重。

因此,通常,Hebbian学习规则用当前神经元的输入与输出的乘积更新自己的权重。

其中:是第个神经元的输出,是神经元的第个输入。是神经元与第个输入数据之间的权重。

指标

在训练和测试过程中需要监控的指标:metric

精确率:precision

召回率:recall

ROC:接收者操作特征曲线,receiver operating characteristic curve

AUC:接收者操作特征曲线下面积,area under the receiver operating characteristic curve

TP —— True Positive 是指某(些)个正样本被预测判定为正;此种情况可以称作判断为真的正确情况。

TN —— True Negative是指某(些)个负样本被预测判定为负;此种情况可以称作判断为假的正确情况。

FP ——False Positive 是指某(些)个负样本被模型预测为正;此种情况可以称作判断为真的错误情况,或称为误报。

FN——False Negative是指某(些)个正样本被模型预测为负;此种情况可以称作判断为假的错误情况,或称为漏报。

损失

预测误差:prediction error,或损失值,loss value

损失函数:loss function

交叉熵:crossentropy,来自于信息论领域,用于衡量概率分布之间的距离

二元交叉熵:binary crossentropy

分类交叉熵:categorical crossentropy

均方误差:mean-squared error,MSE,也叫L2模损失函数:L2-norm Loss Function

联结主义时序分类:CTC,connectionist temporal classification,也叫连接时序分类

平均绝对误差:MAE

总变差损失:total variation loss

重构损失:reconstruction loss

正则化损失:regularization loss

L1模损失函数:L1-norm Loss Function

回归损失函数:Bounding Box Regression Loss

光滑L1损失函数:SmoothL1Loss

KL散度损失函数:KLDLoss

损失函数缩放:Loss Scaling

缩放因子:Scaling Factor

铰链损失函数:Hinge Loss

激活函数

激活函数:activation function

relu:rectified linear unit,整流线性单元

sigmoid:输出一个0-1范围内的概率值

softmax: 输出多个概率,其和为1

tanh:tanh和 sigmoid 相似,都属于饱和激活函数,区别在于输出值范围由 (0,1) 变为了 (-1,1),可以把 tanh 函数看做是 sigmoid 向下平移和拉伸后的结果。

优化器

优化器:optimizer

Momentum:动量

动量优化:初始时刻动量为0,t时刻的动量等于t-1时刻动量乘以一个系数,加上权重梯度乘以学习率,并用这个动量更新权重

AdaGrad:把历史的权重梯度的分量平方求和,并用这个平方和更新权重

指数移动平均:Exponential Moving Average

RMSProp:引入了梯度平方(又称速度,Velocity)的指数移动平均,用于求梯度在一定时长内的平均。

Adam:整合了动量和速度

正则化

正则化:regularization

权重正则化:weight regularization

L1正则化:L1 regularization

L2正则化:L2 regularization,也叫权重衰减,weight decay

dropout,正则化方法之一

层:layer

密集连接:全连接

密集连接层:densely connected layer,也叫全连接层,fully connected layer或密集层,dense layer

循环层:recurrent layer

权重:weight

参数化:parameterize

参数:parameter

可训练参数:trainable parameter

隐藏单元:hidden unit

堆叠循环层:stacking recurrent layer

双向循环层:bidirectional recurrent layer

卷积层:Convolution Layer,Conv Layer

深度可分离卷积层:depthwise separable convolution layer

输入层:Input Layer

隐藏层:Hidden Layer

输出层:Output Layer

归一化层:Normalization Layer,包括批次归一化,Batch Normalization,组归一化,Group Normalization,实例归一化,Instance Normalization,层归一化,Layer Normalization,局部响应归一化,Local Response Normalization

池化层:Pooling Layer,包括最大池化,Max Pooling,平均池化,Average Pooling,乘幂平均池化,分数池化,Fractional Pooling,自适应池化,Adaptive Pooling,反池化,Unpooling

丢弃层:Dropout Layer

因果卷积层:Causal Convolution Layer

其他

神经网络:neural network

人工神经网络:Artificial Neural Network,ANN

感知机:Perceptron

多层感知机:Multi-layer Perceptron,MLP

深度信念网络:Deep Belief Network,DBN

限制玻尔兹曼机:Restricted Boltzmann Machine,RBM

自编码器:Autoencoder

卷积神经网络:convnet,Convolutional Neural Networks, CNN

神经网络机器翻译模型:Neural Machine Translation,NMT

LeNet,一种卷积神经网络

特征图:feature map

输出特征图:output feature map

过滤器:filter

响应图:response map

滑动:slide

卷积核:convolution kernel

卷积核的感受野:Receptive Field

步幅:stride

填充:padding

步进卷积:strided convolution

转置卷积:Transposed Convolution,又称为反卷积,Deconvolution

扩张卷积:Dilated Convolution,又称空洞卷积,ATrous Convolution

最大池化:max-pooling

unpooling

Unpooling是在CNN中常用的来表示max pooling的逆操作。

鉴于max pooling不可逆,因此使用近似的方式来反转得到max pooling操作之前的原始情况。

简单来说,记住做max pooling的时候的最大item的位置,比如一个3x3的矩阵,max pooling的size为2x2,stride为1,反卷积记住其位置,其余位置至为0就行:

卷积基:convolutional base

循环神经网络:recurrent neural network,RNN

状态:state

环:loop

时间步:timestep

初始状态:initial state

双向RNN:bidirectional RNN

残差连接:residual connection

恒等残差连接:identity residual connection

线性残差连接:linear residual connection

1*1卷积:逐点卷积,pointwise convolution

Xception:极端Inception,extreme Inception,一种卷积神经网络

自标准化神经网络:self-normalizing neural network

字符级的神经语言模型:character-level neural language model

生成式对抗网络:GAN,generative adversarial network

生成器网络:generator network

判别器网络:discriminator network

变分自编码器:VAE,variational autoencoder

卷积神将网络的计算公式为:
N=(W-F+2P)/S+1
其中N:输出大小
W:输入大小
F:卷积核大小
P:填充值的大小
S:步长大小

FCN:Fully Convolutional Networks,全卷积网络

CNN输入图像的尺寸

经典的CNN输入图像的尺寸,是224×224、227×227、256×256和299×299,但也可以是其他尺寸。

VGG16,VGG19和ResNet均接受224×224输入图像,而Inception V3和Xception需要299×299像素输入

BERT:Bidirectional Encoder Representations from Transfomers

宽深模型:Wide & Deep Model

因果卷积模块:Causal Convolution

AmoebaNet:采用进化算法来做神经网络搜索得到的神经网络

深度可分离卷积

正常卷积核是对3个通道同时做卷积。也就是说,3个通道,在一次卷积后,输出一个数。
深度可分离卷积分为两步:

  • 第一步用三个卷积对三个通道分别做卷积,这样在一次卷积后,输出3个数。
  • 这输出的三个数,再通过一个1x1x3的卷积核(pointwise核),得到一个数。

所以深度可分离卷积其实是通过两次卷积实现的。

卷积的权重(Weight/Kernel/Filter)的数据格式一般不同于Tensor或Activation数据,有其特定的排布方式。

权重/卷积核/过滤器(Weight/Kernel/Filter)中有下面维度:

  • I - Input Channels输入通道
  • H - Filter Height卷积核高度
  • W - Filter Width卷积核宽度
  • O - Output Channels输出通道

TensorFlow的卷积conv2d的权重格式是HWIO,也就在tf.nn.conv2d里filters定义的:

神经网络相关的概念和术语相关推荐

  1. 神经网络相关术语_神经网络术语的初学者词汇表

    神经网络相关术语 One of the greatest road-blocks for newcomers to data science and deep learning is the mult ...

  2. 一文详解循环神经网络的基本概念(代码版)

    作者 | 李理 目前就职于环信,即时通讯云平台和全媒体智能客服平台,在环信从事智能客服和智能机器人相关工作,致力于用深度学习来提高智能机器人的性能. 写在前面 由于工作太忙,这个系列文章有一年多没有更 ...

  3. 神经网络相关名词解释

    神经网络相关名词解释 这篇文章的目的是把之前概念理解的名词用公式记忆一下. 1. 正则化 1.0 过拟合 这是正则化主要解决的问题. 过拟合现象主要体现在accuracy rate和cost两方面: ...

  4. oracle基本概念和术语

    oracle基本概念和术语      ChinaITLab收集整理  2006-3-15  保存本文  推荐给好友  QQ上看本站  收藏本站 ---------------------------- ...

  5. 【数据结构】之基本概念和术语

    1.1数据结构的基本概念 1.1.1 基本概念和术语 1.数据 数据是信息的载体,是描述客观事物属性的数.字符及所有能输入到计算机中并被计算机程序识别和处理的符号的集合.数据是计算机程序加工的原料. ...

  6. Kafka基本概念与术语

    本文来说下kafka的基本概念与术语 文章目录 消息队列 kafka架构图 Kafka相关概念及术语 本文小结 消息队列 把数据放到消息队列叫做生产者.从消息队列里边取数据叫做消费者. 消息队列,我们 ...

  7. k8s教程(基础篇)-基本概念和术语

    文章目录 01 资源对象概述 02 集群类 2.1 Master 2.2 Node 2.3 命名空间 03 应用类 3.1 service和pod 3.2 label与标签选择器 3.3 Pod和De ...

  8. 大白话5分钟带你走进人工智能-第33节神经网络和神经元概念(1)

    目录 1.前述 2.神经网络实例与概念 3.神经元结构 4.神经元拓扑总结 5.逻辑回归和神经元神经网络的关系 1.前述 不少小伙伴反应为什么没有神经网络的文章,因为现在那么主流.其实本打算更新完算法 ...

  9. 【数据结构与算法】-6.1图的基本概念和术语

    1 图的基本概念和术语 图:G=(V,E) Graph= (Vertex, Edge) V:顶点(数据元素)的有穷非空集合; E:边的有穷集合. 图可以没有边 无向图:每条边都是无方向的 有向图:每条 ...

  10. [统计学笔记] 必须要掌握的统计学基本概念和术语(更新中)

    必须要掌握的统计学基本概念和术语 统计和处理数据是一门科学.统计学是收集.分析.表述和解释数据,并从数据中得出结论的科学. 要学好统计学必须掌握和理解下面的基本概念和术语: 分类数据 顺序数据 数值型 ...

最新文章

  1. NBT:宏基因组二、三代混合组装软件OPERA-MS
  2. linux下如何产生core,调试core
  3. 收货地址 - 设置默认收货地址
  4. 机器学习笔记十一之降维
  5. 【推荐实践】强化学习在美团“猜你喜欢”的实践
  6. 文件磁盘相关函数[22]-文本文件读写-不同数据类型的写入
  7. 多元函数四则运算的一阶微分公式的存在性与性质
  8. linux英文考试题,linux考试试题附答案
  9. Android之使用自定义华为扫描SDK扫描二维码和识别本地图片
  10. 【数据库自习室#003】Mysql数据库函数
  11. 攻与防--论游戏好玩的本质
  12. 风剑分享“站在上帝视角看数据”,点燃企业大数据梦想与思潮
  13. “金蝶KIS记账王”双11五折特惠
  14. 消息中间件系列 - RabbitMQ
  15. 今天是Knuth的70寿辰
  16. 数据库实验七-触发器的应用
  17. 综艺小王子黄子稻,是否从实力派转为偶像?
  18. 四川大学(新生赛)羊工八刀(为解决)
  19. V.CodeGenerator WPF代码生成器
  20. centos6.x中yum安装nginx

热门文章

  1. Xcode6以后如何用企业证书发布应用
  2. 51单片机12864大液晶屏俄罗斯方块 ROTEUS 和51单片机教程(仿真文件+源代码)
  3. SpringBoot入门,快速搭建简单Web应用环境
  4. 全面了解ADSL,让你上网更轻松
  5. 工业镜头和民用镜头的特点和区别
  6. 美国计算机编程竞赛,USACO美国计算机竞赛
  7. html生日快乐源代码
  8. Delta RPMs disabled because /usr/bin/applydeltarpm not installed.问题解决记录
  9. 爱情不是等你有空才珍惜的
  10. 水晶报表加载本地图片 【BY阿泰】