第二课:创建三层神经网络解决非线性问题
注意事项:
输入值与真实值都是numpy类型的数据
而网络中的Weights和biases都是tensor object类型的数据
import tensorflow as tf
import numpy as np#定义如何添加一个神经网络层,输入层1个(因为输入数据只有一维),隐藏层10个,输出层1个
'''inputs:输入数据in_size:输入数据的维度out_size:输出数据的维度activation_function:激活函数'''
def add_layer(inputs,in_size,out_size,activation_function=None):Weights=tf.Variable(tf.random_normal([in_size,out_size]))#定义权重向量的行列#Error 1:开始把out_size写成了in_sizebiases=tf.Variable(tf.zeros([1,out_size])+0.10)#初始化权重向量Wx_plus_b=tf.matmul(inputs,Weights)+biasesif activation_function is None:#将传入的参数赋值给activation_function变量outputs=Wx_plus_belse:outputs=activation_function(Wx_plus_b)return outputs#定义数据形式
x_data=np.linspace(-1,1,300)[:,np.newaxis]#???
noise=np.random.normal(0,0.05,x_data.shape)
y_data=0.3*np.square(x_data)-0.5+noise
#Error 2:开始把np写成了tf,所以报了The value of a feed cannot be a tf.Tensor object. Acceptable feed values include numpy list...错误xs=tf.placeholder(tf.float32,[None,1])#[]中的两个数分别表示输入的样本数,输入数据维度;None表示输入多少样本数都ok
ys=tf.placeholder(tf.float32,[None,1])#定义输入层(第一层)
layer1=add_layer(xs,1,10,activation_function=tf.nn.relu)
#定义输出层(预测层)
prediction=add_layer(layer1,10,1,activation_function=None)#开始预测
#定义loss
loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1]))#reduaction_indices是什么意思
optimizer=tf.train.GradientDescentOptimizer(0.1)
train_step=optimizer.minimize(loss)init=tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)for i in range(1000):sess.run(train_step,feed_dict={xs:x_data,ys:y_data})if i%50==0:print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))
第二课:创建三层神经网络解决非线性问题相关推荐
- 0.0 目录-深度学习第二课《改善神经网络》-Stanford吴恩达教授
文章目录 第五课 第四课 第三课 第二课 第一课 第五课 <序列模型> 笔记列表 Week 1 循环序列模型 Week 1 传送门 -> 1.1 为什么选择序列模型 1.2 数学符号 ...
- 【PHP MySQL】数据库专题 第二课 创建数据库 表
[PHP & MySQL]✔️数据库专题✔️ 第二课 创建数据库 & 表 概述 MySQL 安装 MySQL 命令行 数据库创建 创建表 概述 从今天开始, 小白我将带领大家一起来补充 ...
- 吴恩达deeplearning.ai系列课程笔记+编程作业(6)第二课 改善深层神经网络-第二周:优化算法 (Optimization algorithms)
第二门课 改善深层神经网络:超参数调试.正则化以及优化(Improving Deep Neural Networks:Hyperparameter tuning, Regularization and ...
- 【原创 深度学习与TensorFlow 动手实践系列 - 2】第二课:传统神经网络
第二课 传统神经网络 <深度学习>整体结构: 线性回归 -> 神经网络 -> 卷积神经网络(CNN)-> 循环神经网络(RNN)- LSTM 目标分类(人脸识别,物品识别 ...
- 第二课.图卷积神经网络
目录 卷积神经网络 图卷积神经网络 GNN数据集 图的表示 GCN GNN的基准化:Benchmarking Graph Neural Networks 卷积神经网络 在计算机视觉中,卷积网络是一种高 ...
- 深度学习——用神经网络解决非线性问题
参考书籍:<深度学习--基于Python语言和TensorFlow平台> 已知德智育三项成绩,总分大于等于95即可当选三好学生.用1代表是,用0代表否.线性问题是可以传递的,非线性问题则是 ...
- 0.0 目录-深度学习第四课《卷积神经网络》-Stanford吴恩达教授
文章目录 第五课 第四课 第三课 第二课 第一课 第五课 <序列模型> 笔记列表 Week 1 循环序列模型 Week 1 传送门 -> 1.1 为什么选择序列模型 1.2 数学符号 ...
- 深度学习笔记第二门课 改善深层神经网络 第一周:深度学习的实践层面
本文是吴恩达老师的深度学习课程[1]笔记部分. 作者:黄海广[2] 主要编写人员:黄海广.林兴木(第四所有底稿,第五课第一二周,第三周前三节).祝彦森:(第三课所有底稿).贺志尧(第五课第三周底稿). ...
- 2.10 局部最优的问题-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
←上一篇 ↓↑ 下一篇→ 2.9 学习率衰减 回到目录 2.11 总结 局部最优的问题 (The Problem of Local Optima) 在深度学习研究早期,人们总是担心优化算法会困在极差的 ...
最新文章
- PyTorch、TensorFlow最新版本对比,2021年了你选谁?
- 脚踏实地,自强不息——清华大学大数据软件团队2021年度先进个人风采展示
- springboot(二):web综合开发
- linux基础2-cd、mkdir、touch、umask、chattr、lsattr、SUID/SGID/Sticky Bit
- 图像的放大与缩小(2)——双线性插值放大与均值缩小
- 二、入门爬虫,爬取百度图片
- 基于MapWinGis的开发探索(三)--改善缩放、渲染、显示文本
- python赋值语句的一般格式为_[零基础学Python]赋值,简单也不简单
- FreeRTOS任务延时函数
- 在 Laravel 5 中集成七牛云存储实现云存储功能
- matlab算法knn算法,MATLAB KNN算法
- 解决安装vc2005运行库时提示Command line option syntax error.Type Command/?for Help
- spyder安装matplotlib
- 安装ubuntu黑屏,修复分区表
- 显示器/电脑屏幕字体出现重影
- JMeter性能测试实战
- RabbitMQ之业务场景(四):动态创建,删除队列工具类,拿来即用
- LayoutManager实现翻页动画
- Unable to open JDBC Connection for DDL execution
- 中国半导体如何自我救赎
热门文章
- CLIENT_ACKNOWLEDGE机制测试
- Windows10环境下Ruby安装和配置
- Spark SQL中StructField和StructType
- 定义一个矩形类Rectangle:(知识点:对象的创建和使用)
- # JAVA实现评论功能设计开发
- 转载的一片关于Mapper.xml中sql的相关技术点,供以后自己慢慢学习之用
- 本地安装青龙面板教程【详细版】2022-5.5
- 怎么删掉计算机云u盘,win10系统删除360云u盘图标的方法
- 英语表达的收集类游戏
- Java基础学习笔记(二)_Java核心技术(进阶)