A:

(1)anchors:锚点。(anchors(锚点)定义在RPN网络中)

B:

(1)bounding box:预测边界框。

(2)Botton-up 3D proposal generation:自底向上的3D预选目标框的生成。

(3)Bin-based 3D Box Generation:基于框(区间)的3d预目标生成。

(4)batch-size: 1次迭代所使用的样本量。

(5)Batches(批次):在训练神经网络的同时,不用一次发送整个输入,我们将输入分成几个随机大小相等的块。与整个数据集一次性馈送到网络时建立的模型相比,批量训练数据使得模型更加广义化。

C:

(1)Canonical 3D Box Refinment:3D目标框的精细优化。

(2)convolution kernel(卷积核):图像处理时,给定输入图像,在输出图像中每一个像素是输入图像中一个小区域中像素的加权平均,其中权值由一个函数定义,这个函数(卷积层的权值)称为卷积核。

D:

(1)Dropout(丢弃)——Dropout 是一种正则化技术,可防止网络过度拟合套。顾名思义,在训练期间,隐藏层中的一定数量的神经元被随机地丢弃。这意味着训练发生在神经网络的不同组合的神经网络的几个架构上。你可以将 Dropout 视为一种综合技术,然后将多个网络的输出用于产生最终输出。

E:

(1)epoch(周期): 1个epoch表示过了1遍训练集中的所有样本。周期被定义为向前和向后传播中所有批次的单次训练迭代。这意味着 1 个周期是整个输入数据的单次向前和向后传递。

(2)Exploding Gradient Problem(激增梯度问题)——这与消失的梯度问题完全相反,激活函数的梯度过大。在反向传播期间,它使特定节点的权重相对于其他节点的权重非常高,这使得它们不重要。这可以通过剪切梯度来轻松解决,使其不超过一定值

F:

(1)foreground point:前景点(前景foreground是你感兴趣的目标对象。背景background正好相反。)

G:

(1)Generalization Ability(泛化能力):是指机器学习算法对新鲜样本的适应能力。 学习的目的是学到隐含在数据背后的规律,对具有同一规律的学习集以外的数据,经过训练的网络也能给出合适的输出,该能力称为泛化能力。

(2)ground truth:真实标签

(3)ground-truth bounding boxes:人为在训练集图像中标出要检测物体的大概范围,也就是人为对数据进行标注的框。

H:

I:

(1)intersection over union( IOU):交并比。

J:

K:

L:

(1)learning_rate(学习率):控制模型的学习进度,即学习率决定了权值更新的速度,设置得太大会使结果超过最优值,太小会使下降速度过慢。

M:

(1)mAP(mean average percision):平均精度。

(2)mask:掩膜
分类的结果叫label。
分割的结果叫mask。
因为分割结果通常会半透明的覆盖在待分割目标上,所以就叫它掩膜吧。
图片中有一个圆形物体,你从一张纸上剪掉一个和该物体一模一样大小的圆,把这张纸蒙在图片上,这时候你只能看见这个圆形物体,这张纸就是mask了。

N:

(1)NMS(Non-Maximum Suppression):非极大值抑制。

NMS即非极大抑制,顾名思义就是抑制不是极大值的元素,搜索局部的极大值。

在物体检测中,NMS 应用十分广泛,其目的是为了清除多余的框,找到最佳的物体检测的位置。

(2)norm(范数):是具有“长度”概念的函数。在线性代数、泛函分析及相关的数学领域,是一个函数,其为向量空间内的所有向量赋予非零的正长度或大小。另一方面,半范数(英语:seminorm)可以为非零的向量赋予零长度。

O:

(1)offset:偏移量

P:

(1)Point Cloud Encoder-Decoder:点云的编码器和解码器

(2)Point-wise Feature vector:点云中各个点的特征(点云特征)

(3)Point -wise:逐点(每个点)

Q:

R:

(1)Receptive Field(感受野):在卷积神经网络中,每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域,如图所示。

(2)Robustness(鲁棒性):鲁棒是Robust的音译,也就是健壮和强壮的意思。它是在异常和危险情况下系统生存的关键。比如说,计算机软件在输入错误、磁盘故障、网络过载或有意攻击情况下,能否不死机、不崩溃,就是该软件的鲁棒性。所谓“鲁棒性”,是指控制系统在一定(结构,大小)的参数摄动下,维持其它某些性能的特性。根据对性能的不同定义,可分为稳定鲁棒性和性能鲁棒性。以闭环系统的鲁棒性作为目标设计得到的固定控制器称为鲁棒控制器。
(3)RPN(RegionProposal Network):区域生成网络。

S:

(1)Selective Search算法:

(2)Supervised pre-training(有监督训练):

T:

(1)Transfer Learning:迁移学习

U:

V:

(1)Vanishing Gradient Problem:消失梯度问题(Vanishing Gradient Problem)——激活函数的梯度非常小的情况下会出现消失梯度问题。在权重乘以这些低梯度时的反向传播过程中,它们往往变得非常小,并且随着网络进一步深入而"消失"。这使得神经网络忘记了长距离依赖。这对循环神经网络来说是一个问题,长期依赖对于网络来说是非常重要的。这可以通过使用不具有小梯度的激活函数 ReLu 来解决。

W:

X:

Y:

Z:

epoch、 iteration和batchsize
深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别:

(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;

(2)iteration:1个iteration等于使用batchsize个样本训练一次;

(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;

举个例子,训练集有1000个样本,batchsize=10,那么:

训练完整个样本集需要:100次iteration,1次epoch。

对于我处理的Dataset, Training Dataset :12个seq_x folder, 每一个folder有149个图片。所以总共有1788个图片。

若batchsize =12, 那么 iteration = 1788 / 12 = 149, epoch可以自己设定。

深度学习中的一些英文解释相关推荐

  1. 收藏 | 深度学习中神经网络的可视化解释!

    点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 本文转自:计算机视觉联盟 第一个卷积神经网络是Alexander ...

  2. 深度 | 理解深度学习中的卷积

    译者按:本文译自 Tim Dettmers 的 Understanding Convolution in Deep Learning.有太多的公开课.教程在反复传颂卷积神经网络的好,却都没有讲什么是「 ...

  3. 理解深度学习中的卷积

    译者按:本文译自 Tim Dettmers 的 Understanding Convolution in Deep Learning.有太多的公开课.教程在反复传颂卷积神经网络的好,却都没有讲什么是「 ...

  4. 干货|一文全解深度学习中的卷积

    来源:1024深度学习 概要:卷积现在可能是深度学习中最重要的概念.正是靠着卷积和卷积神经网络,深度学习才超越了几乎其他所有的机器学习手段. 译自Tim Dettmers的Understanding ...

  5. 卷积为什么如此强大?一文全解深度学习中的卷积

    卷积为什么如此强大?一文全解深度学习中的卷积 2018年05月10日 15:52:41 七月在线实验室 阅读数:17112 作者:Tim Dettmers(Understanding Convolut ...

  6. 卷积为什么如此强大?理解深度学习中的卷积

    译自Tim Dettmers的Understanding Convolution in Deep Learning有太多的公开课.教程在反复传颂卷积神经网络的好,却都没有讲什么是"卷积&qu ...

  7. 卷积在深度学习中的作用(转自http://timdettmers.com/2015/03/26/convolution-deep-learning/)...

    卷积可能是现在深入学习中最重要的概念.卷积网络和卷积网络将深度学习推向了几乎所有机器学习任务的最前沿.但是,卷积如此强大呢?它是如何工作的?在这篇博客文章中,我将解释卷积并将其与其他概念联系起来,以帮 ...

  8. 如何理解深度学习中的卷积?

    原文地址: http://www.yangqiu.cn/aicapital/2382000.html 译自Tim Dettmers的Understanding Convolution in Deep ...

  9. 正则化的通俗解释_干货|深度学习中的正则化技术概述(附Python+keras实现代码)...

    点击上方"AI遇见机器学习",选择"星标"公众号 重磅干货,第一时间送达 介绍 数据科学研究者们最常遇见的问题之一就是怎样避免过拟合.你也许在训练模型的时候也遇 ...

最新文章

  1. php redis ip查找,php+redis实现ip白名单并提供可配置ip页面
  2. python哈夫曼编码注意_Python 算法(2) 哈夫曼编码 Huffman Encoding
  3. 如何从BugFree升级到禅道
  4. 电销机器人价格_箭鱼电销机器人:为什么电话机器人公司不用机器人给你打电话?...
  5. word中图片超出页边距_如何在Word中更改页边距
  6. JEECG Online Coding 开发流程
  7. Nokia n900使用
  8. eclipse反编译后的文件去除注释 /** 123 **/
  9. C语言打印打印ASCLL表
  10. 如何设置无线网络中计算机的ip,无线网络设置方法【详细步骤】
  11. 将一个数组划分成总和相等的两部分
  12. 在Windows中安装配置JDK+Eclipse+Maven
  13. 云南中医药大学计算机与科学技术,2019年云南科学技术厅-云南中医药大学应用基础-云南中医学院.PDF...
  14. FOC电机控制,出售一份基于国产M0核MCU平台
  15. ubuntu20.04设置为中文
  16. wo zai gong si de yi tian
  17. 【C语言程序设计】实验 2
  18. koa--更富有表现力、更健壮的 Web 框架
  19. 《java编程思想》读书笔记【前言】
  20. java 串口 dtr rts_【整理】串口(RS232/RS485等)通讯中RTS/CTS,DTR/DSR的含义详解

热门文章

  1. Multiple substitutions specified in non-positional format; did you mean to add the formatted=”false”
  2. Android 人民币符号在布局中实现的效果不一样的处理方法
  3. 微信小程序点击右下角的图片移动到当前位置
  4. android 的中文意思
  5. sprintf 和strcpy 的差别
  6. MySQL☞dual虚拟表
  7. JMeter自学笔记3-创建自己的第一个测试用例
  8. k8s系列----一个简单的例子
  9. 百度地图轨迹回放,自定义路书,边走边画线
  10. linux 常用命令: