注意事项:

输入值与真实值都是numpy类型的数据

而网络中的Weights和biases都是tensor object类型的数据

import tensorflow as tf
import numpy as np#定义如何添加一个神经网络层,输入层1个(因为输入数据只有一维),隐藏层10个,输出层1个
'''inputs:输入数据in_size:输入数据的维度out_size:输出数据的维度activation_function:激活函数'''
def add_layer(inputs,in_size,out_size,activation_function=None):Weights=tf.Variable(tf.random_normal([in_size,out_size]))#定义权重向量的行列#Error 1:开始把out_size写成了in_sizebiases=tf.Variable(tf.zeros([1,out_size])+0.10)#初始化权重向量Wx_plus_b=tf.matmul(inputs,Weights)+biasesif activation_function is None:#将传入的参数赋值给activation_function变量outputs=Wx_plus_belse:outputs=activation_function(Wx_plus_b)return outputs#定义数据形式
x_data=np.linspace(-1,1,300)[:,np.newaxis]#???
noise=np.random.normal(0,0.05,x_data.shape)
y_data=0.3*np.square(x_data)-0.5+noise
#Error 2:开始把np写成了tf,所以报了The value of a feed cannot be a tf.Tensor object. Acceptable feed values include numpy list...错误xs=tf.placeholder(tf.float32,[None,1])#[]中的两个数分别表示输入的样本数,输入数据维度;None表示输入多少样本数都ok
ys=tf.placeholder(tf.float32,[None,1])#定义输入层(第一层)
layer1=add_layer(xs,1,10,activation_function=tf.nn.relu)
#定义输出层(预测层)
prediction=add_layer(layer1,10,1,activation_function=None)#开始预测
#定义loss
loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1]))#reduaction_indices是什么意思
optimizer=tf.train.GradientDescentOptimizer(0.1)
train_step=optimizer.minimize(loss)init=tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)for i in range(1000):sess.run(train_step,feed_dict={xs:x_data,ys:y_data})if i%50==0:print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))

第二课:创建三层神经网络解决非线性问题相关推荐

  1. 0.0 目录-深度学习第二课《改善神经网络》-Stanford吴恩达教授

    文章目录 第五课 第四课 第三课 第二课 第一课 第五课 <序列模型> 笔记列表 Week 1 循环序列模型 Week 1 传送门 -> 1.1 为什么选择序列模型 1.2 数学符号 ...

  2. 【PHP MySQL】数据库专题 第二课 创建数据库 表

    [PHP & MySQL]✔️数据库专题✔️ 第二课 创建数据库 & 表 概述 MySQL 安装 MySQL 命令行 数据库创建 创建表 概述 从今天开始, 小白我将带领大家一起来补充 ...

  3. 吴恩达deeplearning.ai系列课程笔记+编程作业(6)第二课 改善深层神经网络-第二周:优化算法 (Optimization algorithms)

    第二门课 改善深层神经网络:超参数调试.正则化以及优化(Improving Deep Neural Networks:Hyperparameter tuning, Regularization and ...

  4. 【原创 深度学习与TensorFlow 动手实践系列 - 2】第二课:传统神经网络

    第二课 传统神经网络 <深度学习>整体结构: 线性回归 -> 神经网络 -> 卷积神经网络(CNN)-> 循环神经网络(RNN)- LSTM 目标分类(人脸识别,物品识别 ...

  5. 第二课.图卷积神经网络

    目录 卷积神经网络 图卷积神经网络 GNN数据集 图的表示 GCN GNN的基准化:Benchmarking Graph Neural Networks 卷积神经网络 在计算机视觉中,卷积网络是一种高 ...

  6. 深度学习——用神经网络解决非线性问题

    参考书籍:<深度学习--基于Python语言和TensorFlow平台> 已知德智育三项成绩,总分大于等于95即可当选三好学生.用1代表是,用0代表否.线性问题是可以传递的,非线性问题则是 ...

  7. 0.0 目录-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    文章目录 第五课 第四课 第三课 第二课 第一课 第五课 <序列模型> 笔记列表 Week 1 循环序列模型 Week 1 传送门 -> 1.1 为什么选择序列模型 1.2 数学符号 ...

  8. 深度学习笔记第二门课 改善深层神经网络 第一周:深度学习的实践层面

    本文是吴恩达老师的深度学习课程[1]笔记部分. 作者:黄海广[2] 主要编写人员:黄海广.林兴木(第四所有底稿,第五课第一二周,第三周前三节).祝彦森:(第三课所有底稿).贺志尧(第五课第三周底稿). ...

  9. 2.10 局部最优的问题-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 2.9 学习率衰减 回到目录 2.11 总结 局部最优的问题 (The Problem of Local Optima) 在深度学习研究早期,人们总是担心优化算法会困在极差的 ...

最新文章

  1. PyTorch、TensorFlow最新版本对比,2021年了你选谁?
  2. 脚踏实地,自强不息——清华大学大数据软件团队2021年度先进个人风采展示
  3. springboot(二):web综合开发
  4. linux基础2-cd、mkdir、touch、umask、chattr、lsattr、SUID/SGID/Sticky Bit
  5. 图像的放大与缩小(2)——双线性插值放大与均值缩小
  6. 二、入门爬虫,爬取百度图片
  7. 基于MapWinGis的开发探索(三)--改善缩放、渲染、显示文本
  8. python赋值语句的一般格式为_[零基础学Python]赋值,简单也不简单
  9. FreeRTOS任务延时函数
  10. 在 Laravel 5 中集成七牛云存储实现云存储功能
  11. matlab算法knn算法,MATLAB KNN算法
  12. 解决安装vc2005运行库时提示Command line option syntax error.Type Command/?for Help
  13. spyder安装matplotlib
  14. 安装ubuntu黑屏,修复分区表
  15. 显示器/电脑屏幕字体出现重影
  16. JMeter性能测试实战
  17. RabbitMQ之业务场景(四):动态创建,删除队列工具类,拿来即用
  18. LayoutManager实现翻页动画
  19. Unable to open JDBC Connection for DDL execution
  20. 中国半导体如何自我救赎

热门文章

  1. CLIENT_ACKNOWLEDGE机制测试
  2. Windows10环境下Ruby安装和配置
  3. Spark SQL中StructField和StructType
  4. 定义一个矩形类Rectangle:(知识点:对象的创建和使用)
  5. # JAVA实现评论功能设计开发
  6. 转载的一片关于Mapper.xml中sql的相关技术点,供以后自己慢慢学习之用
  7. 本地安装青龙面板教程【详细版】2022-5.5
  8. 怎么删掉计算机云u盘,win10系统删除360云u盘图标的方法
  9. 英语表达的收集类游戏
  10. Java基础学习笔记(二)_Java核心技术(进阶)