TensorFlow案例---概率学中的逆概率
TensorFlow案例---概率学中的逆概率
上一篇博客我们已经安装了TensorFlow,有很多人可能会对机器学习感到害怕,但其实有好多原理我们现在不需要懂,我们先搞清楚TensorFlow有什么作用就行,那么下面我通过一个小的案例来说明TensorFlow是怎么使用的
一.概率学中的逆概率
什么是逆概率
- 我们肯定知道正概率,举个例子就是,箱子里有5个黑球5个白球,那你随机拿到黑球和白球的概率都是50%,那现在我不知道箱子里有多少个黑球白球,那我通过不断的拿球应该如何确定箱子里有多少个黑球白球呢,这就是出名的逆概率
- 其实机器学习很多时候也就是逆概率的问题,我有大量现实例子的情况下,让机器从这些例子中找到共同的特征,例如给一万张猫的图片给机器学习,然后找到共同的特征(两只耳朵,四只脚,有胡须,有毛,有尾巴等特征)
根据逆概率的概念我们再举个其他场景
- y=Ax+B(A、B是常量),这是一条非常简单的数学方程式,有小学基础的人应该都知道。
- 我现在有很多的x和y值,所以问题就是如何通过这些x和y值来得到A和B的值?
那我下面就用TensorFlow来解决这个问题!
二、简单的案例
一些基础信息:
1.系统是ubuntu 16.04 LTS
2.我用的是sublime text3来写的代码
3.Python用的是3.5
4.TensorFlow用的是0.12.0
实例代码
#导入依赖库
import numpy as np #这是Python的一种开源的数值计算扩展,非常强大
import tensorflow as tf #导入tensorflow ##构造数据##
x_data=np.random.rand(100).astype(np.float32) #随机生成100个类型为float32的值
y_data=x_data*0.1+0.3 #定义方程式y=x_data*A+B
##-------####建立TensorFlow神经计算结构##
weight=tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases=tf.Variable(tf.zeros([1]))
y=Weight*x_data+biases
##-------##loss=tf.reduce_mean(tf.square(y-y_data)) #判断与正确值的差距
optimizer=tf.train.GradientDescentOptimizer(0.5) #根据差距进行反向传播修正参数
train=optimizer.minimize(loss) #建立训练器init=tf.initialize_all_variables() #初始化TensorFlow训练结构
sess=tf.Session() #建立TensorFlow训练会话
sess.run(init) #将训练结构装载到会话中for step in range(400): #循环训练400次sess.run(train) #使用训练器根据训练结构进行训练if step%20==0: #每20次打印一次训练结果print(step,sess.run(weight),sess.run(biases)) #训练次数,A值,B值
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
最后的结果图:
TensorFlow案例---概率学中的逆概率相关推荐
- 概率学中,P(A∣B)是什么意思?如何计算?算式意义是什么?
P(A∣B)是条件概率公式,P(A|B) = P(AB)/P(B). P(A|B)--在B条件下 A 的概率.即事件A 在另外一个事件B已经发生条件下的发生概率. P(AB)--事件A.B同时发生的概 ...
- 【文末有福利】破解逆概率的迷思
1 假设你做了一项体检,想检查一下自己是否得了某种病,而体检结果是阳性的.那么,你有多大可能真的得了这种病? 为了明确表述这一问题,我们假设疾病是乳腺癌,你所做的专项体检是乳房X光检测.在这个例子中, ...
- {分享}《Matrix67:信息学竞赛中可能有用的概率学知识》——Monty Hall问题
嗯,能算半篇水文,写得不好请见谅. <信息学竞赛中可能有用的概率学知识> 内容太多了不打算都写,只写一个刚刚搞懂的问题--<Monty Hall问题>. 对于这个问题,十年来涌 ...
- 三国杀中的概率学问题
前言 三国杀是我从小学时就热爱的一款游戏,这种热爱延续至今.现在,我想从纯数学的角度来计算三国杀中的一些概率学问题. 三国杀中的概率学问题 先声明,我不想从实践的角度来作解释,我只想研究这些问题中所蕴 ...
- 为什么计算机专业要学概率统计,计算机类专业概率统计的教学
计算机类专业概率统计的教学 来源:职称阁时间:2018-12-04 11:09热度: 这篇论文主要介绍的是计算机类专业概率统计的教学的相关内容,本文作者就是通过对计算机专业的统计学内容做出详细的阐述与 ...
- python羊车门问题_「羊车门」经典概率题中不换门选中车的概率是多少?
今天用Python求解「羊车门」经典的概率问题,对概率学基础和Python语法的灵活运用有所收货. 本次「羊车门」求解过程采用的是:穷举法计算概率已验证概率学基础理论.期间重点借鉴了'奥卡姆剃刀的博客 ...
- 1.为什么要从古典概率入门概率学《zobol的考研概率论教程》
在入门概率论与数理统计这门课中,刚开始我们都会从古典概率开始学习,为什么要选择它呢?这是因为古典概率作为一种将生活中的事情简化为有限种情况,并假设它们的发生可能差不多的手段,十分的好用且简洁. 这里我 ...
- 游戏计算机概率,不是学霸都不好意思玩游戏了!玩家用高数和概率学计算收益...
大家好,这里是正经游戏,我是正经小弟 都说游戏毁人,其实不然.真正的学霸是无论在什么地方都是学霸,哪怕是玩游戏也能利用高端知识搞出骚操作,甚至能两者结合写出一篇<关于概率学在FGO.炉石传说.碧 ...
- 基于R语言3组以上倾向评分逆概率加权(IPTW)
基于 PS (倾向评分)的IPTW 法首先由Rosenbaum作为一种以模型为基础的直接标准化法提出,属于边际结构模型.简单来说,就是把许多协变量和混杂因素打包成一个概率并进行加权,这样的话,我只用计 ...
- 概率学的创立:Chevalier de Méré问题
在1717年,法国流行这样一个赌博游戏:连续抛掷一个骰子四次,赌是否会出现至少一个1点.经过试验,赌徒Chevalier de Méré发现至少出现一个1点比不出现的几率似乎要稍微大一些.他总是赌&q ...
最新文章
- SLAM综述之Lidar SLAM
- 临时表空间过大解决方法
- [Nova ERROR] InternalError: Nova requires QEMU version 2.5.0 or greater.
- 安装 | MatlabR2021bMac链接及Matlabx运行图基本运行代码与图像
- SAP UI5 初学者教程之十一 :SAP UI5 容器类控件 Page 和 Panel 试读版
- php导出csv_原生PHP实现导出csv格式Excel文件的方法示例【附源码下载】
- 别用Excel做数据可视化了!这款报表工具不比它香100倍?
- HDFS 入门和基本操作
- 随想录(lua源码学习)
- 笔记本安装linux无线网卡,笔记本安装centos7 无线网卡启动不起来,那位大神看看?...
- shufflenet_v1
- 台式计算机怎么关闭无线网络,台式机无线网卡如何关闭
- 自己动手制作植物大战僵尸简单修改器
- mysql存储移动端emoji表情 报错Incorrect string value: '\xF0\x9F\x98\x82'
- 【JS】通过JS实现超市小票打印功能——ActiveX控件
- 蚂蚁研究员玉伯:我的技术人生答案
- 家用千兆路由器排行榜前十名_求家用路由器排名前十名,有哪些比较推荐?
- android 视频美颜代码,Android 关于美颜/滤镜 利用PBO从OpenGL录制视频
- MySQL学习笔记-恶补基础篇
- [Python 高德地图] API调用学习历程(一)