分类与自旋

“每一种粒子都具有一个固定的自旋值,永远不变,粒子从来不存在开始转得更快或更慢;以ћ作为度量单位,

宇宙中每个光子的自旋等于每个希格斯玻色子的自旋等于零;自旋是粒子的固有属性,不是那种随着粒子的演化而变化的量(除非它变换成另一种粒子)。

与常规的轨道角动量不同的是,自旋的最小单位是半个ћ而不是一个ћ。电子的自旋为1/2,上夸克的自旋也是1/2。

电子自旋是一个重要的相对论特性(与我们在日常生活中遇到的与旋转物体相关的自旋有着本质的区别)。”

(A,B)---m*n*k---(1,0)(0,1)

制作一个分类A和B的网络,这个网络有两部分组成,A和B两个训练集,m*n*k作为网络,而网络m*n*k有两个态(1,0)和(0,1)。

这一过程运动部分是A和B,但A和B的运动结果是通过网络的两个态来表现的。也就是这个网络的两个态表达了两个对象的运动,我们对同一个对象的观察对应的是两个物体的运动。而显然在神经网络分类的行为中,我们不必知道A与B之间的距离,这就意味着网络m*n*k所体现的A和B之间的运动与A和B之间的距离无关,所以这种运动对网络m*n*k来说是超距的,是瞬时的。

而对这个二分类网络,他只有两个态(1,0)和(0,1)。现在把这两个态理解为自旋的两个方向↑↓。所以综合,发生于A,B与网络m*n*k之间的一种瞬时相互作用最终决定了网络m*n*k的自旋取向。

所以所谓的分类过程就是测量网络自旋取向的过程,如果让A向(1,0)收敛,而让B向(0,1)收敛。然后用A判断网络的自旋取向,则自旋一定是↑是单向的。但如果训练过程是一个瞬时的运动就不能排除A向(0,1)收敛而B向(1,0)收敛的可能,因此判断在状态A时网络的自旋就同时有两种可能↑↓,他们发生的概率是一半对一半。

/***/

寻找形态数轴的不动点

(分类原点,分类对象)---m*n*k---(1,0)(0,1)

也就是寻找一个分类对象与任何分类原点分类,迭代次数都相同。这个分类对象在所有的形态数轴上的位置是一个定值。

在实数数轴上找到一个与1,3,5等距的点是不可能的,因为实数有明确的内在递进规律。在直线上没有到3个点距离都相同的点。

而形态数轴上的点是没有递进规律的,这就意味着这些形态点并不是在一条直线上。所以至少可以合理假设存在与远多于两个形态点等距的不动点。

假如真的有这样全面的分类不动点,就意味着无论什么时候,也无论在哪里看这个不动点,得到的感受总是相同的。这种感受将是无条件的,是时间对称,是恒不变的。

这意味这将人的感受形态化,全面分类不动点对应的形态看起来像是一种感受晶体。不确定这种全面的分类不动点是否真的存在,但局部的分类不动点是广泛存在的,比如电影,音乐,人在看过以后会有某些共同的感受,如果把摞在一起的文字看作是一个形态整体,而我们的理解就是对这个形态整体的认识,所以文字本身不就是一种局部形态不动点吗?

我们把文字仅仅看作是形态,我们可以通过文字交流,显然是因为我们有共同的文字形态数轴。所以从这个角度人与人之间文字的交流不就是在建立基于共同的形态数轴构造局部不动点的过程吗?

对神经网络分类行为的认识二则相关推荐

  1. 深度学习原理—代码分析线性分类与神经网络分类的区别

    https://www.toutiao.com/a6687727778487337476/ 利用sklearn.dataset随机产生数据,随机生成两类数据,用不同的颜色展示出来,如下图: 产生的随机 ...

  2. 利用循环神经网络生成唐诗_【机器学习】【期末复习】闲聊神经网络 分类

    类似于人脑的一种神经递质,有一个信号经过一系列传到有一个输出(单线).既然是网络,应该就是一堆上述带有输入输出的线构成的网络吧. reference: 一文看懂四种基本的神经网络架构​www.jian ...

  3. 用神经网络分类矩阵和矩阵的转置

    设A是一个9*9的随机矩阵,让矩阵的每个格子都是一个0到1之间的随机数.A^T是矩阵A的转置.测试集由1000个A和A^T组成,这个网络是否可以收敛并分类? 在收敛误差δ一致的前提下,实验统计了7组收 ...

  4. 一个与神经网络分类特征旋转不变性有关的实验

    继续用<用神经网络分类两条夹角为θ的直线>的办法分类两条直线. y=x*tanθ和y=x*tan(θ+20) 所不同的是这次让两条直线之间的夹角固定为20,让θ分别等于0,20...340 ...

  5. 用神经网络分类无理数2**0.5和3**0.5

    (2**0.5,3**0.5)-100*10*2-(1,0)(0,1) 用神经网络分类分类2**0.5和3**0.5,2**0.5和3**0.5分别取3万位有效数字.每10位有效数字构成一张图片,共3 ...

  6. 2*2矩阵训练集比例对BP神经网络分类性能影响

    r1 r2     <1 <1 吸引子 c >1 >1 排斥子 p >1 <1 鞍点 a <1 >1 反鞍点 fa 构造一个网络 d2( x(a||fa ...

  7. BP神经网络分类2*2对角矩阵准确率数据汇总

    r1 r2     <1 <1 吸引子 c >1 >1 排斥子 p >1 <1 鞍点 a <1 >1 反鞍点 fa 用c,p,a,fa做训练集,用不同比 ...

  8. TensorFlow2.0(二)--Keras构建神经网络分类模型

    Keras构建分类模型 1. tf.keras简介 2. 利用tf.keras构建神经网络分类模型 2.1 导入相应的库 2.2 数据读取与展示 2.3 数据归一化 2.4 构建模型 2.5 模型的编 ...

  9. 自然语言处理--Keras 实现LSTM循环神经网络分类 IMDB 电影评论数据集

    LSTM 对于循环网络的每一层都引入了状态(state)的概念,状态作为网络的记忆(memory).但什么是记忆呢?记忆将由一个向量来表示,这个向量与元胞中神经元的元素数量相同.记忆单元将是一个由 n ...

最新文章

  1. 编写java程序的常见问题_Java程序的编写与执行、Java新手常见的问题解决
  2. 再谈新浪微博架构——视频观后笔记
  3. JS-随机生成的密码
  4. ThinkPHP redirect 页面重定向使用详解与实例
  5. redis主从配置及无法连接处理
  6. 运算阶乘的代码_【必修1】2.4可以复用的代码
  7. 推荐系统入门实践:世纪佳缘会员推荐
  8. 17、1.7 eclipse使用入门
  9. JAVA 设计模式 装饰者模式
  10. ffmpeg文档8:软件缩放
  11. Python编程实现后剪枝的CART决策树
  12. base64解码成16进制字符串--python3
  13. win7 64位 纯净版旗舰版202104
  14. django 常用static\media\邮箱\富文本编辑器配置(备忘)
  15. windy定义了一种windy数,不含前导零且前两个数字只差至少为2的正整数被称为windy数,求A和B之间windy数的个数
  16. Linux_计划任务
  17. 敏捷转型行动笔记:内部敏捷教练实践
  18. 旋转关节(Revolute Joint)
  19. 提拔!知名教授,副部长级
  20. php word 合并单元格格式,PHPWord 表格居中和合并单元格

热门文章

  1. Matlab中基本统计量的函数
  2. python之装饰器初识
  3. React Native封装Toast与加载Loading组件
  4. CMakeListx.txt 编辑语法学习
  5. SpringMVC的环境搭建
  6. PowerDesigner与SQL Server相连
  7. 2010有道难题练习赛2
  8. 设计模式学习笔记(十)——Decorator装饰模式
  9. C语言中,当计算字符数组长度时,用sizeof 和strlen 的原理及两者的区别
  10. UA MATH566 统计理论5 假设检验简介