线性回归:w1x1+w2x2+w3x3+......+wnxn+bias(这是一个偏移量),我们采用的算法是:线性回归,策略是:均方误差,优化是:梯度下降API,

1.转准备好实验的数据:100个数据,每一个有一个特征值,所以形成一个【100,1】的列表,在准备一个目标函数:y=0.8x+0.7那么怎么知道为什么是0.8和0.7呢,这是我们假设的

2.建立一个模型,需要我们随机生成两个参数,一个是权重w一个是偏置b , y_predict = x * w + b,需要注意的是这个模型的参数必须要用变量来定义

3.求损失误差,我们求的是均方误差,公式是:((y1-y1')^2+(y2-y2')^2+.......+(y100-y100')^2)/100

4.接下来就是利用梯度下降来优化误差,这个梯度下降是tensorflow里边自己实现的,我们只需要指定一个学习率就行了

Tensorflow运算的API

矩阵运算:tf.matmul(x,w)

平方运算:tf.square(参数1)

均值运算:tf.reduce_mean(参数1)

梯度下降API:  tf.train.GradientDescentOptimizer(learning_rate);这是一个梯度下降优化器,learn_rate一般是method:minimize(loss),返回一个梯度下降的op

importtensorflow as tfimportos

os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'#把报错的这个警告等级降低

defmyLineregression():#1.准备数据,x是100行1列的矩阵,y是一个目标值,100行

x = tf.random_normal([100,1],mean = 1.75,stddev=0.5,name="x_data")

y_true= tf.matmul(x,[[0.7]]) + 0.8 #其中这个0.7和0.8是不知道的,在这里我们假设我们知道了

#2.建立回归模型,1个特征值x 1个权重weight,一个偏置bias,组成:y = x*weight + bias,这里一定是变量

#随机给一个权重和偏置,让他接下来去计算误差函数,然后再去优化,但是前提是必须是变量才能优化

weigth = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0),name='w')#即使是一个数也要表示成矩阵,一行一列表示一个矩阵

bias = tf.Variable(0.0,name='b')

y_predict= tf.matmul(x,weigth) +bias;#3建立损失函数

loss = tf.reduce_mean(tf.square(y_true -y_predict))#4.梯度下降优化损失,learning_rate一般是在0~10,越小越好通常是,最大不要超过10,然后通过minimize()来优化误差函数loss

train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#接下来就要通过会话来运行实现了,但在这之前需要初始化变量的op

init_op =tf.global_variables_initializer()

with tf.Session() as sess:#初始化变量

sess.run(init_op)#打印最先初始化的权重个偏置

print("最先初始化的权重:%f 和 偏置是:%f" %(weigth.eval(),bias.eval()))#最先初始化的权重:-0.475077 和 偏置是:0.000000

##运行优化,这只是训练一次的结果:优化后的权重:0.635607 和 偏置是:0.581311

#sess.run(train_op)

#循环训练,运行优化,优化1000次,越多越精确,越接近我们的假设值

for i in range(1000):

sess.run(train_op)#打印优化后的权重和偏置

print("第%d次优化后的权重:%f 和 偏置是:%f" %(i,weigth.eval(), bias.eval()))returnNoneif __name__ == "__main__":

myLineregression()

.......

那么你可能有一个疑问,为什么weight和bias会一直变化呢,因为他两是tf.Variable类型的,在Variable()最后一个参数是trainable默认是True,如果你指定他是False的话,weight和bias就不会随着我们梯度变化来变化了

我们接下来用变量作用域来实现一下:这样的作用有两个:第一:使得我们的代码更加爽目;第二:使得我们后台显示很流畅,否则可能会有点凌乱

importtensorflow as tfimportos

os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'#把报错的这个警告等级降低

defmyLineregression():

with tf.variable_scope("data"):#1.准备数据,x是100行1列的矩阵,y是一个目标值,100行

x = tf.random_normal([100,1],mean = 1.75,stddev=0.5,name="x_data")

y_true= tf.matmul(x,[[0.7]]) + 0.8 #其中这个0.7和0.8是不知道的,在这里我们假设我们知道了

with tf.variable_scope("model"):#2.建立回归模型,1个特征值x 1个权重weight,一个偏置bias,组成:y = x*weight + bias,这里一定是变量

#随机给一个权重和偏置,让他接下来去计算误差函数,然后再去优化,但是前提是必须是变量才能优化

weigth = tf.Variable(tf.random_normal([1,1],mean=0.0,stddev=1.0),name='w')#即使是一个数也要表示成矩阵,一行一列表示一个矩阵

bias = tf.Variable(0.0,name='b')

y_predict= tf.matmul(x,weigth) +bias;

with tf.variable_scope("loss"):#3建立损失函数

loss = tf.reduce_mean(tf.square(y_true -y_predict))

with tf.variable_scope("Optimizer"):#4.梯度下降优化损失,learning_rate一般是在0~10,越小越好通常是,最大不要超过10,然后通过minimize()来优化误差函数loss

train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#接下来就要通过会话来运行实现了,但在这之前需要初始化变量的op

init_op =tf.global_variables_initializer()

with tf.Session() as sess:#在后台可视化观察图结构

fileWrite = tf.summary.FileWriter("E:/python/day8/temp/summary/text/",graph=sess.graph)#接下来在终端运行tensorboard --logdir="E:/python/day8/temp/summary/text/",就会产生一个网址,在浏览器打开即可

#初始化变量

sess.run(init_op)#打印最先初始化的权重个偏置

print("最先初始化的权重:%f 和 偏置是:%f" %(weigth.eval(),bias.eval()))#最先初始化的权重:-0.475077 和 偏置是:0.000000

##运行优化,这只是训练一次的结果:优化后的权重:0.635607 和 偏置是:0.581311

#sess.run(train_op)

#循环训练,运行优化

for i in range(1000):

sess.run(train_op)#打印优化后的权重和偏置

print("第%d次优化后的权重:%f 和 偏置是:%f" %(i,weigth.eval(), bias.eval()))returnNoneif __name__ == "__main__":

myLineregression()

后台样式:

python线性加权回归_python深度学习-tensorflow实现一个线性回归的案例相关推荐

  1. python线性回归实例 x轴坐标相同_python深度学习-tensorflow实现一个线性回归的案例...

    线性回归:w1x1+w2x2+w3x3+......+wnxn+bias(这是一个偏移量),我们采用的算法是:线性回归,策略是:均方误差,优化是:梯度下降API, 1.转准备好实验的数据:100个数据 ...

  2. python线性加权回归_第二十一章 regression算法——线性回归局部加权回归算法(上)...

    理论部分 回归是统计学中最有力的工具之一.监督学习算法分为分类算法和回归算法两种,其实就是根据类别标签分布类型为离散型.连续性而定义的.顾名思义,分类算法用于离散型分布预测,如KNN.决策树.朴素贝叶 ...

  3. python的顶级高手_Python+深度学习

    自从吉多·范罗苏姆1989年为打发圣诞节假期时间而写下用于编写自动化脚本的Python之后,30多年的时间过去了,随着功能不断完善和版本更新,目前Python已成为最流行的一种编程语言,并被广泛用于开 ...

  4. python未来人工智能主流_python深度学习,未来人工智能三大境界的划分

    原标题:python深度学习,未来人工智能三大境界的划分 仙侠小说想必很多人都看过,里边让小编久久不能忘怀的便是这些修仙之人的境界划分情况.同样,在我们生活当中,清朝学者王国维曾用三句古诗词来诠释人生 ...

  5. 深度学习TensorFlow的55个经典案例

             人工智能大数据与深度学习  公众号: weic2c 本文是TensorFlow实现流行机器学习算法的教程汇集,目标是让读者可以轻松通过清晰简明的案例深入了解 TensorFlow.这 ...

  6. python能做机器人吗_python深度学习 人工智能是做机器人吗?

    我们经常听到"Python"与"人工智能"这两个词, 也很容易混淆这两个词, 那么Python和人工智能到底什么关系呢? Python人工智能工程师待遇怎么样? ...

  7. python如何实现找图_Python深度学习,手把手教你实现「以图搜图」

    随着深度学习的崛起,极大的推动了图像领域的发展,在提取特征这方面而言,神经网络目前有着不可替代的优势.之前文章中我们也介绍了图像检索往往是基于图像的特征比较,看特征匹配的程度有多少,从而检索出相似度高 ...

  8. 【神经网络与深度学习-TensorFlow实践】-中国大学MOOC课程(四)(Python语言基础(2))

    [神经网络与深度学习-TensorFlow实践]-中国大学MOOC课程(四)(Python语言基础(2)) 第4讲 Python语言基础(2) 4.1 内置数据结构 4.1.1 序列数据结构(sequ ...

  9. 【神经网络与深度学习-TensorFlow实践】-中国大学MOOC课程(十二)(人工神经网络(1)))

    [神经网络与深度学习-TensorFlow实践]-中国大学MOOC课程(十二)(人工神经网络(1))) 12 人工神经网络(1) 12.1 神经元与感知机 12.1.1 感知机 12.1.2 Delt ...

最新文章

  1. 20165237 2017-2018-2 《Java程序设计》第5周学习总结
  2. s:textfield format date
  3. Centos7 安装 nginx 服务器的两种方式
  4. (chap3 Http报文内的http信息) HTTP报文格式
  5. ASP.NET中分步骤向导组件Wizard组件的使用
  6. boost::sub_range相关的测试程序
  7. Python第三方库的安装,升级以及版本查看
  8. Fiddler 学习笔记---命令、断点
  9. C++异常处理类与自定义异常处理类
  10. java接口回调学习
  11. matlab 基于小波变换的图像压缩,基于Matlab的小波变换在图像压缩中的应用
  12. 【论文】使用bilstm在中文分词上的SOTA模型
  13. delphi 2010 mysql_Delphi 2010和MySQL
  14. 【HTML期末学生大作业】 制作一个简单HTML保护野生动物老虎网页设计专题(HTML+CSS)
  15. 从零到一,全套搜狗收录教程分享
  16. 阿里云制作加密情书送给女朋友
  17. pygame: libpng warning: iCCP: known incorrect sRGB profile 报错
  18. 什么是创意啊?这才是创意
  19. ZAM 3D 制作简单的3D字幕 流程(二)
  20. 牛视系统怎么做矩阵?牛视系统源码怎么独立部署?

热门文章

  1. 现有exe转为服务_方式01
  2. C# SQLite数据库 访问封装类
  3. POJ 2255 Tree Recovery 二叉树恢复
  4. JavaScript —— 如何判断一个非数字输入
  5. volcanol_Linux_问题汇总系列_1_系统引导过程中到check filesystem时就无法继续引导问题解决方法。...
  6. 程序员的灯下黑:不要忘记你的目标
  7. 2021个人北美秋招总结
  8. CSS Grid 网格布局全解析
  9. 问题 1676: 算法2-8~2-11:链表的基本操作
  10. IDEA代码格式化快捷键(新)