声明:版权所有,转载请联系作者并注明出

from __future__ import print_functionimport tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline# Parameters
learning_rate = 0.01
training_epochs = 1000
display_step = 50# Generate the training data
train_X = np.linspace(-1, 1, 200)
train_Y = 2*train_X + np.random.randn(*train_X.shape)*0.2n_samples = train_X.shape[0]# tf Graph Input
X = tf.placeholder("float")
Y = tf.placeholder("float")# Initialize the variable w and b
W = tf.Variable(np.random.randn(), name="weight")
b = tf.Variable(np.random.randn(), name="bias")# Define the linear model
pred = tf.add(tf.mul(X, W), b)# Mean squared error
cost = tf.reduce_sum(tf.pow(pred-Y, 2))/(2*n_samples)# Build the optimizer
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)# Initializing the variables
init = tf.initialize_all_variables()# Launch the graph
with tf.Session() as sess:sess.run(init)# Fit all training datafor epoch in range(training_epochs):for (x, y) in zip(train_X, train_Y):sess.run(optimizer, feed_dict={X: x, Y: y})# Display logs per epoch stepif (epoch+1) % display_step == 0:c = sess.run(cost, feed_dict={X: train_X, Y:train_Y})print("Epoch:", '%04d' % (epoch+1), "cost=", "{:.9f}".format(c), \"W=", sess.run(W), "b=", sess.run(b))print("Optimization Finished!")training_cost = sess.run(cost, feed_dict={X: train_X, Y: train_Y})print("Training cost=", training_cost, "W=", sess.run(W), "b=", sess.run(b), '\n')# Graphic displayplt.plot(train_X, train_Y, 'ro', label='Original data')plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label='Fitted line')plt.legend()plt.show()# Generate the test datatest_X = np.linspace(-1, 1, 100)test_Y = 2*test_X + np.random.randn(*test_X.shape)*0.2print("Testing... (Mean square loss Comparison)")testing_cost = sess.run(tf.reduce_sum(tf.pow(pred - Y, 2)) / (2 * test_X.shape[0]),feed_dict={X: test_X, Y: test_Y})  # same function as cost aboveprint("Testing cost=", testing_cost)print("Absolute mean square loss difference:", abs(training_cost - testing_cost))plt.plot(test_X, test_Y, 'bo', label='Testing data')plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label='Fitted line')plt.legend()plt.show()
Epoch: 0050 cost= 0.279346764 W= 0.906848 b= -0.289415
Epoch: 0100 cost= 0.190719262 W= 1.08085 b= -0.172213
Epoch: 0150 cost= 0.137108132 W= 1.22794 b= -0.10121
Epoch: 0200 cost= 0.102369718 W= 1.35228 b= -0.058217
Epoch: 0250 cost= 0.078859627 W= 1.45738 b= -0.0322007
Epoch: 0300 cost= 0.062546395 W= 1.5462 b= -0.0164717
Epoch: 0350 cost= 0.051067844 W= 1.62127 b= -0.00697438
Epoch: 0400 cost= 0.042932797 W= 1.68473 b= -0.00125022
Epoch: 0450 cost= 0.037147172 W= 1.73835 b= 0.00219109
Epoch: 0500 cost= 0.033023905 W= 1.78365 b= 0.00425255
Epoch: 0550 cost= 0.030082876 W= 1.82193 b= 0.00548112
Epoch: 0600 cost= 0.027983051 W= 1.85429 b= 0.00620784
Epoch: 0650 cost= 0.026483836 W= 1.88163 b= 0.00663306
Epoch: 0700 cost= 0.025413597 W= 1.90473 b= 0.00687784
Epoch: 0750 cost= 0.024649082 W= 1.92426 b= 0.00701518
Epoch: 0800 cost= 0.024103273 W= 1.94076 b= 0.0070891
Epoch: 0850 cost= 0.023713501 W= 1.95469 b= 0.00712603
Epoch: 0900 cost= 0.023435200 W= 1.96647 b= 0.00714172
Epoch: 0950 cost= 0.023235969 W= 1.97644 b= 0.00714552
Epoch: 1000 cost= 0.023093617 W= 1.98488 b= 0.007143
Optimization Finished!
Training cost= 0.0230936 W= 1.98488 b= 0.007143 

Testing... (Mean square loss Comparison)
Testing cost= 0.0219461
Absolute mean square loss difference: 0.00114749

tensorflow tutorials(一):用tensorflow建立线性回归模型相关推荐

  1. R语言使用lm函数构建简单线性回归模型(建立线性回归模型)、拟合回归直线、使用attributes函数查看线性回归模型的属性信息、获取模型拟合对应的残差值residuals

    R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.使用attributes函数查看线性回归模型的属性信息.获取模型拟合对应的残差值residuals 目录

  2. R语言使用lm函数构建简单线性回归模型(建立线性回归模型)、拟合回归直线、可视化散点图并添加简单线性回归直线、添加模型拟合值数据点、添加拟合值点和实际数据点之间的线段表示残差大小、col参数自定义设置

    R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.可视化散点图并添加简单线性回归直线.添加模型拟合值数据点.添加拟合

  3. Python建立线性回归模型进行房价预测

    Python建立线性回归模型进行房价预测 前期准备 多因子房价预测 实战流程 1.数据加载 2.数据可视化 3.数据预处理 4.模型建立与训练 5.模型预测 6.模型评估 7.房价预测 数据与代码 前 ...

  4. R语言使用lm函数构建简单线性回归模型(建立线性回归模型)、拟合回归直线、使用residuls函数从模型中提取每个样本点的残差值、可视化残差与拟合值之间的散点图来看残差的分布模式

    R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.使用residuls函数从模型中提取每个样本点的残差值.可视化残差与拟合值之间的散点图来看残差的分布模式 目录

  5. R语言使用lm函数构建简单线性回归模型(建立线性回归模型)、拟合回归直线、使用residuls函数从模型中提取每个样本点的残差值、计算残差和和残差平方和

    R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.使用residuls函数从模型中提取每个样本点的残差值.计算残差和和残差平方和 目录

  6. R语言lm函数构建简单线性回归(建立线性回归模型)、拟合回归直线、通过方差分析按变异的来源把结果变量的自由度、平方和、平均平方和进行分解、使用回归平方和与总的平方和计算调整R方指标(调整后的决定系数)

    R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.通过方差分析按变异的来源把结果变量的自由度.平方和.

  7. R语言使用lm函数构建简单线性回归模型(建立线性回归模型)、拟合回归直线、可视化散点图并添加简单线性回归直线、添加模型拟合值数据点、自定义pch参数设置数据点形式

    R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.可视化散点图并添加简单线性回归直线.添加模型拟合值数据点.自定义pch参数设置数据点形式 目录

  8. R语言使用lm函数构建简单线性回归模型(建立线性回归模型)、拟合回归直线、使用plot函数可视化模型诊断图

    R语言使用lm函数构建简单线性回归模型(建立线性回归模型).拟合回归直线.使用plot函数可视化模型诊断图 目录

  9. 使用Python+Pandas+Statsmodels建立线性回归模型预测房价

    [综述] 本文通过使用Python+Pandas+Statsmodels建立简单一元线性回归模型.多元线性回归模型来预测房价. 主要内容来源自网页:https://www.learndatasci.c ...

最新文章

  1. SAP SD基础知识之与FI集成相关的流程与配置
  2. 七、106页第40题(类的继承)
  3. 最常用的15大Eclipse开发快捷键技巧
  4. Linux cron 定时执行任务
  5. Windows下批量删除svn配置文件夹.svn
  6. UIView封装动画--iOS利用系统提供方法来做关键帧动画
  7. BugkuCTF-Crypto题easy_crypto
  8. 为什么我做数据库类的程序要用代码生成器,而且是前前后后,反反复复 [转]...
  9. 数据库系统的维护与优化(二)
  10. JAVA基础之JDK、JRE、JVM关系
  11. LINGO使用教程(一)
  12. 企业使用邮箱的重要性
  13. Access时间日期比较查询的方法总结
  14. 【FFmpeg视频播放器开发】解封装解码流程、常用API和结构体简介(一)
  15. 中职计算机图形图像课程标准,计算机图形与图形图像处理技术的相互结合
  16. oppo开启系统更新服务器,oppo手机系统升级开不了机怎么办
  17. 2022-2028全球COB摄影灯行业调研及趋势分析报告
  18. linux计划定时自动删除目录下文件
  19. 无胁科技-TVD每日漏洞情报-2022-12-14
  20. 日语初级语法复习整合 Day 11 - Day 15 Summary

热门文章

  1. 关联规则----Apriori算法以及代码实现
  2. 详解HDR的三个标准——HLG/HDR10/Dolby Vision
  3. 在中国玩不动的无人便利店,为何在美国风生水起?
  4. 一文读懂物联网 MQTT 协议之实战篇
  5. 交通运输工程学科 Q1期刊影响因子表(统计年:2020 年)
  6. 换脸方法之FaceShifter
  7. 如何评估机器学习模型?
  8. UG/NX10二次开发学习视频目录整理(NXOPEN进阶篇)
  9. Prophet学习(五)季节性、假日效应和回归因子
  10. 【湖南大学个人项目】中小学数学卷子自动生成程序