简单的全连接神经网络(tensorflow实现)
简单的全连接神经网络,网络结构为2-2-1
代码如下:
- #encoding='utf-8'
- """
- created on 2018-08-10
- @author wt
- """
- import tensorflow as tf
- import numpy as np
- learning_rate = 0.01
- n_input = 2
- n_label = 1
- n_hidden = 2
- x = tf.placeholder(tf.float32,[None,n_input])
- y = tf.placeholder(tf.float32,[None,n_label])
- weights = {
- 'h1':tf.Variable(tf.truncated_normal([n_input,n_hidden],stddev=0.1)),
- 'h2':tf.Variable(tf.truncated_normal([n_hidden,n_label],stddev=0.1))
- }
- biases = {
- 'h1':tf.Variable(tf.zeros([n_hidden])),
- 'h2':tf.Variable(tf.zeros([n_label]))
- }
- layer1 = tf.nn.relu(tf.add(tf.matmul(x,weights['h1']),biases['h1']))
- y_pred = tf.nn.tanh(tf.add(tf.matmul(layer1,weights['h2']),biases['h2']))
- loss = tf.reduce_mean((y-y_pred)**2)
- train_step = tf.train.AdamOptimizer(learning_rate).minimize(loss)
- x1 = [[0,0],[0,1],[1,0],[1,1]]
- y1 = [[0],[1],[1],[0]]
- x1 = np.array(x1).astype('float32')
- y1 = np.array(y1).astype('int16')
- with tf.Session() as sess:
- sess.run(tf.global_variables_initializer())
- for i in range(1000):
- sess.run(train_step,feed_dict={x:x1,y:y1})
- print(sess.run(y_pred,feed_dict={x:x1}))
- print(sess.run(layer1,feed_dict={x:x1}))
简单的全连接神经网络(tensorflow实现)相关推荐
- 使用tensorflow实现全连接神经网络的简单示例,含源码
看别人的代码和自己写代码,两种的难度和境界真是不一样.昨天和今天尝试着写一个简单的全连接神经网络,用来学习一个基本的模型,在实现的过程中遇到了不少的坑,虽然我已经明白了其中的原理. 我想了一个教材上面 ...
- 图像识别python cnn_MINIST深度学习识别:python全连接神经网络和pytorch LeNet CNN网络训练实现及比较(一)...
版权声明:本文为博主原创文章,欢迎转载,并请注明出处.联系方式:460356155@qq.com 全连接神经网络是深度学习的基础,理解它就可以掌握深度学习的核心概念:前向传播.反向误差传递.权重.学习 ...
- 【实验记录】EA-MLP(演化算法--全连接神经网络)实验记录
large scale evaluation net -- MLP全连接实验记录 Ⅰ. Experiment detail Ⅱ. Method Vertex Edge DNA Evolution_po ...
- 全连接神经网络基础——正向传播及损失函数
全连接神经网络结构 顾名思义,全连接神经网络指的是上一层网络中的所有神经元都与下一层网络中的所有神经元相连,即上一层网络所有神经元的输出都作为下一层网络所有神经元的输入.一个简单的全连接神经网络结果如 ...
- 深度学习系列:全连接神经网络和BP算法
前言 注:以后我的文章会写在个人博客网站上,本站文章也已被搬运.本文地址: https://xiaodongfan.com/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E ...
- 深度学习2---任意结点数的三层全连接神经网络
上一篇文章:深度学习1-最简单的全连接神经网络 我们完成了一个三层(输入+隐含+输出)且每层都具有两个节点的全连接神经网络的原理分析和代码编写.本篇文章将进一步探讨如何把每层固定的两个节点变成任意个节 ...
- TF之DNN:TF利用简单7个神经元的三层全连接神经网络【2-3-2】实现降低损失到0.000以下
TF之DNN:TF利用简单7个神经元的三层全连接神经网络实现降低损失到0.000以下(输入.隐藏.输出层分别为 2.3 . 2 个神经元) 目录 输出结果 实现代码 输出结果 实现代码 # -*- c ...
- 深度学习框架 TensorFlow:张量、自动求导机制、tf.keras模块(Model、layers、losses、optimizer、metrics)、多层感知机(即多层全连接神经网络 MLP)
日萌社 人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新) 安装 TensorFlow2.CUDA10.cuDNN7.6. ...
- Tensorflow【实战Google深度学习框架】全连接神经网络以及可视化
文章目录 1 可视化 神经网络的二元分类效果 2 全连接神经网络 3 TensorFlow搭建一个全连接神经网络 3.1 读取MNIST数据 3.2 建立占位符 3.3 建立模型 3.4 正确率 3. ...
最新文章
- mutt使用小技巧 指定发件人 添加附件
- Easy ui 多表头 数据结构
- Activity缓存方法。
- 2019年财政收支分析_2019年CPI走势预测与分析
- Python编程基础:第二十三节 嵌套函数调用Nested Functions Calls
- centos找不到chattr命令_一个骚命令防止你的文件被误删除!
- 【学术相关】进高校当老师有多难?非海归非 985 怎么办?
- linuxmint安装开发工具_vscode如何安装在Linuxmint系统_编程开发工具
- android md 控件,Android基本UI控件.md
- strocli64 源码_storcli 简易使用介绍
- Magento: 判断是否为手机浏览 Optimise Web's Mobile Detect Class for Magento
- 深度linux系统反复重启,修复启动
- 一文看懂卷积神经网络
- 一代人的回忆!国产游戏机传奇落幕:官网已无法正常访问
- mvc 执行action 获取html,Mvc--Html.ActionLink()用法
- String replaceAll()
- 一种简便的安装使用 qemu 的方法
- 动态壁纸html怎么设置方法,动态壁纸怎么设置
- 第14章-cpp代码重用(其他继承模板)
- 171023 逆向-BDCTF(Re)