用神经网络分类随机数与无理数
这次依然沿用前面的方法分类保留3万位有效数字的无理数,不同的是这次引入的参考系是一个随机数。这个随机数的构造方法是
static int n=100;
public static double[] r100( ) throws IOException, ParseException {double [] rf=new double[n];for(int a=0 ;a<n;a++){Random rand =new Random();double v=rand.nextDouble(); if(v>0.9){rf[a]=1;}}return rf;}
用这个随机数r与其他7个无理数2**0.5,3**0.5,5**0.5,6**0.5,7**0.5,8**0.8,10**0.5去分类。也就是构造7个二分类网络
(r,2**0.5)—100*10*2—(1,0)(0,1)
(r,3**0.5)—100*10*2—(1,0)(0,1)
(r,5**0.5)—100*10*2—(1,0)(0,1)
(r,6**0.5)—100*10*2—(1,0)(0,1)
(r,7**0.5)—100*10*2—(1,0)(0,1)
(r,8**0.5)—100*10*2—(1,0)(0,1)
(r,10**0.5)—100*10*2—(1,0)(0,1)
用固定收敛标准多次迭代的办法比较这几个网络的迭代次数和分类平均准确率有什么区别。
首先比较迭代次数差异
2**0.5 |
3**0.5 |
5**0.5 |
6**0.5 |
7**0.5 |
8**0.5 |
10**0.5 |
|
δ |
迭代次数n |
迭代次数n |
迭代次数n |
迭代次数n |
迭代次数n |
迭代次数n |
迭代次数n |
0.5 |
22.34673 |
19.96482 |
20.66332 |
19.07538 |
18.49749 |
18.46231 |
18.09548 |
0.4 |
14409.85 |
15014.87 |
12815.06 |
10129.33 |
12603.93 |
11875.22 |
18077.17 |
0.3 |
35028.72 |
32047.65 |
29717.22 |
18034.15 |
25041.25 |
33939.94 |
36289.82 |
0.2 |
42659.39 |
41322.12 |
109760.2 |
41358.09 |
33780.94 |
52366.28 |
40687.22 |
0.1 |
45911.62 |
44529.44 |
117732.7 |
45048.94 |
37680.71 |
54433.35 |
43681.97 |
0.01 |
54868.45 |
52751.59 |
129416.3 |
54227.83 |
45951.52 |
64815.69 |
52670.25 |
0.001 |
68823.4 |
66538.42 |
139233.6 |
66585.46 |
58186.8 |
77689.96 |
64697.27 |
9.00E-04 |
68971.86 |
66872.85 |
139878.7 |
67262.89 |
59197.9 |
79016.88 |
65766.91 |
8.00E-04 |
68766.89 |
67560.62 |
141174.1 |
68022.3 |
59302.14 |
79450.78 |
66094.96 |
7.00E-04 |
69558.09 |
67950.58 |
142258.9 |
67626.03 |
59305.86 |
79654.1 |
65712.7 |
6.00E-04 |
70887.83 |
68937.47 |
142158.3 |
69092.25 |
60300.81 |
80694.77 |
66429.6 |
5.00E-04 |
71414.38 |
69118.97 |
142344 |
68606.68 |
60112.23 |
80789.33 |
68025.45 |
4.00E-04 |
71731.17 |
69296.88 |
144901.4 |
70186.79 |
60815.31 |
83214.6 |
68997.38 |
3.00E-04 |
73341.66 |
70768.89 |
142336 |
71919.07 |
62103.98 |
84173.98 |
68821.8 |
2.00E-04 |
73978.64 |
71542.48 |
145687.5 |
71723.17 |
62434.55 |
83597.38 |
69719.92 |
1.00E-04 |
76744.28 |
73438.05 |
145903 |
73635.97 |
64851.73 |
87474.73 |
72190.55 |
将迭代次数画成图
可见迭代次数被清晰的分开了,按照迭代次数越大二者差异越小的比较办法,这几个无理数和随机数r之间的差异大小顺序为
也就表明随机数r和5**0.5的构造上的差异最小,和7**0.5构造上的差异最大。也就是在这几个数里电脑给出的随机数和5**0.5最为接近。
再比较平均分类准确率的差异
2**0.5 |
3**0.5 |
5**0.5 |
6**0.5 |
7**0.5 |
8**0.5 |
10**0.5 |
|
δ |
平均准确率p-ave |
平均准确率p-ave |
平均准确率p-ave |
平均准确率p-ave |
平均准确率p-ave |
平均准确率p-ave |
平均准确率p-ave |
0.5 |
0.499161 |
0.500704 |
0.499598 |
0.499824 |
0.499869 |
0.499407 |
0.49994 |
0.4 |
0.488296 |
0.539126 |
0.504819 |
0.508387 |
0.495191 |
0.522774 |
0.519146 |
0.3 |
0.493789 |
0.537578 |
0.520392 |
0.50909 |
0.506161 |
0.528889 |
0.527759 |
0.2 |
0.529497 |
0.566462 |
0.526402 |
0.525503 |
0.520874 |
0.549809 |
0.547648 |
0.1 |
0.578618 |
0.602658 |
0.554141 |
0.544417 |
0.551276 |
0.584809 |
0.590015 |
0.01 |
0.723322 |
0.711573 |
0.689809 |
0.672794 |
0.660844 |
0.713668 |
0.716849 |
0.001 |
0.865377 |
0.856648 |
0.851211 |
0.856683 |
0.85193 |
0.870462 |
0.855196 |
9.00E-04 |
0.868613 |
0.85802 |
0.854859 |
0.862955 |
0.853362 |
0.873849 |
0.859286 |
8.00E-04 |
0.866804 |
0.859704 |
0.856789 |
0.862995 |
0.856915 |
0.871583 |
0.862457 |
7.00E-04 |
0.870528 |
0.864131 |
0.858231 |
0.87002 |
0.85806 |
0.875131 |
0.864553 |
6.00E-04 |
0.872583 |
0.867307 |
0.864819 |
0.87007 |
0.860196 |
0.87792 |
0.868266 |
5.00E-04 |
0.879513 |
0.871854 |
0.865955 |
0.873668 |
0.865849 |
0.883367 |
0.873482 |
4.00E-04 |
0.881181 |
0.87494 |
0.871935 |
0.879211 |
0.867518 |
0.887302 |
0.877859 |
3.00E-04 |
0.886769 |
0.87909 |
0.879347 |
0.882482 |
0.874065 |
0.890874 |
0.88404 |
2.00E-04 |
0.89405 |
0.886 |
0.886824 |
0.89109 |
0.883829 |
0.897312 |
0.891859 |
1.00E-04 |
0.904055 |
0.896809 |
0.896779 |
0.900467 |
0.891015 |
0.906658 |
0.896759 |
表明随机数r和这几个无理数可以被很高精度的被区分出来。Pave曲线有5条特征较明显的曲线,有4条线纠缠在一起,按大小排序
无理数的数据来源
https://www.wolframalpha.com/input/?i=x%5E2-1
N[sqr(3),30000]
用神经网络分类随机数与无理数相关推荐
- 用神经网络分类无理数2**0.5和3**0.5
(2**0.5,3**0.5)-100*10*2-(1,0)(0,1) 用神经网络分类分类2**0.5和3**0.5,2**0.5和3**0.5分别取3万位有效数字.每10位有效数字构成一张图片,共3 ...
- 用神经网络分类矩阵和矩阵的转置
设A是一个9*9的随机矩阵,让矩阵的每个格子都是一个0到1之间的随机数.A^T是矩阵A的转置.测试集由1000个A和A^T组成,这个网络是否可以收敛并分类? 在收敛误差δ一致的前提下,实验统计了7组收 ...
- 神经网络分类算法是什么,神经网络分类算法简介
人工神经网络分类方法 从20世纪80年代末期,人工神经网络方法开始应用于遥感图像的自动分类. 目前,在遥感图像的自动分类方面,应用和研究比较多的人工神经网络方法主要有以下几种:(1)BP(Back P ...
- 神经网络分类数据表格图,神经网络分类数据表格
1.怎么用spss神经网络来分类数据 用spss神经网络分类数据方法如下: 神经网络算法能够通过大量的历史数据,逐步建立和完善输入变量到输出结果之间的发展路径,也就是神经网络,在这个神经网络中,每条神 ...
- 基于Python实现的神经网络分类MNIST数据集
神经网络分类MNIST数据集 目录 神经网络分类MNIST数据集 1 一 .问题背景 1 1.1 神经网络简介 1 前馈神经网络模型: 1 1.2 MINST 数据说明 4 1.3 TensorFlo ...
- 神经网络如何实现分类,神经网络分类特点区别
人工神经网络分类方法 从20世纪80年代末期,人工神经网络方法开始应用于遥感图像的自动分类. 目前,在遥感图像的自动分类方面,应用和研究比较多的人工神经网络方法主要有以下几种:(1)BP(Back P ...
- 深度学习原理—代码分析线性分类与神经网络分类的区别
https://www.toutiao.com/a6687727778487337476/ 利用sklearn.dataset随机产生数据,随机生成两类数据,用不同的颜色展示出来,如下图: 产生的随机 ...
- 利用循环神经网络生成唐诗_【机器学习】【期末复习】闲聊神经网络 分类
类似于人脑的一种神经递质,有一个信号经过一系列传到有一个输出(单线).既然是网络,应该就是一堆上述带有输入输出的线构成的网络吧. reference: 一文看懂四种基本的神经网络架构www.jian ...
- 对神经网络分类行为的认识二则
分类与自旋 "每一种粒子都具有一个固定的自旋值,永远不变,粒子从来不存在开始转得更快或更慢;以ћ作为度量单位, 宇宙中每个光子的自旋等于每个希格斯玻色子的自旋等于零;自旋是粒子的固有属性,不 ...
最新文章
- python程序设计语言是什么类型的语言-Python 是弱类型的语言 强类型和弱类型的语言区别...
- 转载:CRONTAB格式,命令
- springboot入门知识点(一)
- SAP:2019年会有多么不一样?
- C 语言精髓之变参函数
- mysql游标的用法及作用_Mysql 游标的用法及其作用
- SPHINX安装步骤
- 数据分析的五个阶段及价值
- 前端代码编辑器:sublime text 4 for Mac v4115中文版
- 冲刺阶段站立会议每天任务6
- WebRTC教程 - 使用SIPML5
- 51单片机读取引脚值原理
- 青软实训-锐聘学院-Oracle作业
- 对图像作LUT处理是什么意思
- 五、量子纠错编码的原理
- java爬虫利器Jsoup的使用
- 《中国高等教育学历认证报告》申请中,添加高等学历认证对话框中信息填写完后提示“信息有误”
- Java——常用开发工具
- 百度对site语法的几种情况
- STM32F1模拟iic的GPIO配置(小总结)