神经网络参数迁移与惯性质量
(0,1)-81*10*2-(1,0)(0,1)
作一个二分类网络分类mnist的0和1,但用这个网络来分类其他对象,比如(0,2),(0,3),(0,4),实现参数迁移。这种操作是否有什么物理意义?
通过固定收敛标准多次测量取平均值的办法计算这个网络分类02,03,04的分类准确率,
得到表格
*01 | *01 | *01 | |
*02 | *03 | *04 | |
δ | 平均准确率p-ave | 平均准确率p-ave | 平均准确率p-ave |
0.5 | 0.512353 | 0.512121 | 0.506664 |
0.4 | 0.627911 | 0.603924 | 0.622176 |
0.3 | 0.673549 | 0.662784 | 0.654716 |
0.2 | 0.712676 | 0.68869 | 0.682039 |
0.1 | 0.692548 | 0.669001 | 0.651714 |
0.01 | 0.730491 | 0.713641 | 0.668127 |
0.001 | 0.723179 | 0.712227 | 0.64577 |
9.00E-04 | 0.718081 | 0.706366 | 0.63909 |
8.00E-04 | 0.71687 | 0.707 | 0.634211 |
7.00E-04 | 0.722214 | 0.714209 | 0.636247 |
6.00E-04 | 0.733733 | 0.726244 | 0.648851 |
5.00E-04 | 0.746641 | 0.745153 | 0.65918 |
4.00E-04 | 0.752255 | 0.753049 | 0.661081 |
3.00E-04 | 0.73962 | 0.738267 | 0.648764 |
2.00E-04 | 0.727032 | 0.702818 | 0.620956 |
1.00E-04 | 0.746646 | 0.743534 | 0.620877 |
9.00E-05 | 0.747875 | 0.745506 | 0.61798 |
8.00E-05 | 0.746586 | 0.744135 | 0.616631 |
7.00E-05 | 0.744785 | 0.745153 | 0.615163 |
6.00E-05 | 0.745402 | 0.747463 | 0.6092 |
5.00E-05 | 0.748634 | 0.75343 | 0.608076 |
4.00E-05 | 0.752413 | 0.758132 | 0.604534 |
3.00E-05 | 0.753641 | 0.744605 | 0.59986 |
2.00E-05 | 0.749476 | 0.730623 | 0.592132 |
1.00E-05 | 0.738791 | 0.68575 | 0.579265 |
把分类准确率画成图
平均分类准确率Pave 02>03>04
按照假设2:
对应不同的两个对象,迭代次数越大,二者的相对速度越大;相对速度越大分类准确率越大。
比如当收敛标准为1e-5的,02的分类准确率为0.738,04的分类准确率为0.579.按照假设2,可以得出02粒子对的相对速度>04粒子对的相对速度。
因为收敛标准是一样的,可以合理假设对这两个粒子对做的功是一样的。因此可以得出02粒子对的质量<04粒子对的质量。
也就是分类准确率越大粒子对质量越小。
因此可以假设网络(0,1)-81*10*2-(1,0)(0,1)构成的分类场形成了一个惯性系统,参数迁移相当于测量其他对象在这个惯性系统里的惯性质量。
就像不同质量的人在电梯里,当电梯上升时感受到的力应该是不同的。
从形态上看4和1最像,2和1的形态差异最大。因此4和1的波函数的等效交叉程度最大,所以粒子对02,03,04在01的惯性系中拥有的惯性质量顺序04>03>02.
或者至少用惯性质量解释参数迁移这件事是逻辑连贯的。
神经网络参数迁移与惯性质量相关推荐
- 神经网络的参数迁移和共同本征态
神经网络的衰变假设:被概率密度表达的粒子A和B彼此互为粒子和环境,在相互作用中被彼此微扰产生衰变,衰变产物是B化A和A化B,网络的分类准确率是两个粒子衰变剩余的算术和pave=Σpr. (A,B)-- ...
- 贝叶斯优化神经网络参数_贝叶斯超参数优化:神经网络,TensorFlow,相预测示例
贝叶斯优化神经网络参数 The purpose of this work is to optimize the neural network model hyper-parameters to est ...
- 神经网络传递函数的选择,卷积神经网络风格迁移
1.在搭建神经网络的时候,如何选择合适的转移函数( 一般来说,神经网络的激励函数有以下几种:阶跃函数 ,准线性函数,双曲正切函数,Sigmoid函数等等,其中sigmoid函数就是你所说的S型函数.以 ...
- 【源码】以GUI的形式实现预训练神经网络的迁移学习
允许用户在不编码的情况下,在图形用户界面中进行预训练神经网络的迁移学习. It allows user to do transfer learning of pre-trained neural ne ...
- 参数迁移表达的第三种形态相互作用
(0,1)---81*30*2---(1,0)(0,1) (x,1) 做一个网络来分类mnist的0和1,然后用这个网络来分类(x,1),让x分别是mnist的0-9.收敛误差是1E-4,重复199 ...
- 【深度学习的数学】绘制2×3×1层带sigmoid激活函数的神经网络感知机输出函数的三维图像(神经网络参数使用正态分布随机数)
阅读博客时,神经网络的输入变量刚好为两个,输出变量为1个,于是想绘制一下输出函数的三维图像是什么样的 代码 # -*- coding: utf-8 -*- """ @Fi ...
- 卷积神经网络参数计算及卷积层输出尺寸计算
一.卷积神经网络参数计算 CNN一个牛逼的地方就在于通过感受野和权值共享减少了神经网络需要训练的参数的个数,所谓权值共享就是同一个Feature Map中神经元权值共享,该Feature Map中的所 ...
- 神经网络风格迁移更新篇
最近发现之前学习到的关于神经网络风格迁移是个原始版本,原来还有更加强悍,更加快速,更加多style的模型.下面我还是附上链接学习.这俩链接附带有很多论文原文,可以稍微看看最新的一些论文.=也是很不错的 ...
- Tensorflow保存神经网络参数有妙招:Saver和Restore
摘要:这篇文章将讲解TensorFlow如何保存变量和神经网络参数,通过Saver保存神经网络,再通过Restore调用训练好的神经网络. 本文分享自华为云社区<[Python人工智能] 十一. ...
最新文章
- gamma函数及相关其分布
- html5 --- canvas绘制网格并画x、y轴
- Vuejs:组件 slot 内容分发
- 【二维差分】Monitor
- 如何区分普通感冒流感和新型冠状病毒肺炎?
- python对excel数据统计_数据分析EPHS(4)-使用Excel和Python计算数列统计值
- python如何输出结果到txt_python 执行结果输出为txt
- 51单片机实现电子时钟代码
- iOS——常用的手势总结
- 彻底解决SP2下ALEXA工具条无法显示(转)
- 海康(hikvision)录像机添加萤石(ezviz)摄像机常见问题(转)
- qq空间个人档html代码,最新整理QQ空间全代码
- 数据分析笔试题|美团点评2020校招
- 手把手教你ZPanelX 10.0.0在window下的汉化
- DTOI 10.24 测试(被爆屠) orz IcePrincess_1968
- 万年历,阴阳历转换。
- 《“ 追梦人” 的逐梦路:探寻大学生创客群体的发展之道》
- cherry 键盘WIN键不生效问题
- 深度学习-根据日志画loss-acc折线图
- 头文件中能否进行函数的定义