keras添加正则化全连接_TensorFlow keras卷积神经网络 添加L2正则化
model = keras.models.Sequential([
#卷积层1
keras.layers.Conv2D(32,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu,kernel_regularizer=keras.regularizers.l2(0.01)),
#池化层1
keras.layers.MaxPool2D(pool_size=2,strides=2,padding="same"),
#卷积层2
keras.layers.Conv2D(64,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu),
#池化层2
keras.layers.MaxPool2D(pool_size=2,strides=2,padding="same"),
#数据整理
keras.layers.Flatten(),
#1024个,全连接层
keras.layers.Dense(1024,activation=tf.nn.relu),
#100个,全连接层
keras.layers.Dense(100,activation=tf.nn.softmax)
])
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
from tensorflow.python.keras.datasets import cifar100
from tensorflow.python import keras
import tensorflow as tf
class CNNMnist(object):
model = keras.models.Sequential([
#卷积层1
keras.layers.Conv2D(32,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu,kernel_regularizer=keras.regularizers.l2(0.01)),
#池化层1
keras.layers.MaxPool2D(pool_size=2,strides=2,padding="same"),
#卷积层2
keras.layers.Conv2D(64,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu),
#池化层2
keras.layers.MaxPool2D(pool_size=2,strides=2,padding="same"),
#数据整理
keras.layers.Flatten(),
#1024个,全连接层
keras.layers.Dense(1024,activation=tf.nn.relu),
#100个,全连接层
keras.layers.Dense(100,activation=tf.nn.softmax)
])
def __init__(self):
(self.x_train,self.y_train),(self.x_test,self.y_test) = cifar100.load_data()
self.x_train = self.x_train/255.0
self.x_test = self.x_test/255.0
def compile(self):
CNNMnist.model.compile(optimizer=keras.optimizers.Adam(),loss=keras.losses.sparse_categorical_crossentropy,metrics=["accuracy"])
def fit(self):
CNNMnist.model.fit(self.x_train,self.y_train,epochs=1,batch_size=32)
def evaluate(self):
test_loss,test_acc = CNNMnist.model.evaluate(self.x_test,self.y_test)
print(test_loss,test_acc)
if __name__ == '__main__':
cnn = CNNMnist()
print(CNNMnist.model.summary())
cnn.compile()
cnn.fit()
keras添加正则化全连接_TensorFlow keras卷积神经网络 添加L2正则化相关推荐
- 【深度学习】全连接层or卷积层
对于图像处理任务而言,在经过一连串的卷积.池化操作后,最后要接一个全连接层来对提取到的特征进行分类或者回归. 一般前面带卷积操作的被称之为卷积基,后面跟一层或多层全连接层. 卷积神经网络中流动的是3维 ...
- l2正则化python_TensorFlow keras卷积神经网络 添加L2正则化方式
我就废话不多说了,大家还是直接看代码吧! model = keras.models.Sequential([ #卷积层1 keras.layers.Conv2D(32,kernel_size=5,st ...
- 为什么有全连接层的卷积网络输入图片尺寸需要固定的
一句话: 全连接层的一个神经元对应一个输入. 换句话说, 全连接层要求固定的输入维度. 数学推导: 大家都知道, z=wx+b,全连接神经网络结构一旦固定,需要学习的参数w是固定的,例如 输入图像是 ...
- 全连接层替换为卷积层
原博客地址:https://blog.csdn.net/qq_31347869/article/details/89484343 以下为博主个人整理内容 在学习FCN时的一些疑惑 为什么要将全连接层变 ...
- CNN 全连接层与卷积层深刻理解
CNN 全连接层与卷积层 卷积和全连接关系 卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图. 因为用到了所有的局部特征,所以叫全连接 什么是全连接层 全连接层(fully ...
- 卷积神经网络全连接层转换为卷积层获得heatmap
理论部分 转自 http://blog.csdn.net/u010668083/article/details/46650877 实验部分 全连接层换卷积层的出处大约是yahoo的一篇论文" ...
- 全连接层与卷积层(总结)
全连接层与卷积层: 全连接鞥 卷积层 全连接层是使用图像的全局信息,全连接层的权重是固定的,要求输入的feature map的大小也有要求,所以网络开始输入图像的大小要固定.全连接层的每一个节点都有上 ...
- 看图就懂:为什么L1正则化比L2正则化更容易得到稀疏解?为什么L2正则化可以用于防止过拟合?
相信大部分人都见到过,下面的这两张对比图,用来解释为什么L1正则化比L2正则化更容易得到稀疏解,然而很多人会纠结于"怎么证明相切点是在角点上?",呃,不必就纠结于此,请注意结论中的 ...
- keras添加正则化全连接_第16章 Keras使用Dropout正则化防止过拟合
Dropout虽然简单,但可以有效防止过拟合.本章关于如何在Keras中使用Dropout.本章包括: dropout的原理 dropout的使用 在隐层上使用dropout 我们开始吧. 16.1 ...
最新文章
- 2021年大数据ZooKeeper(五):ZooKeeper Java API操作
- 利用 scipy.signal中的spectrogram分析信号的时频联合分布
- 亚马逊:区块链模块化,造币流水线化
- python框架django面试问别人什么问你_django面试会问什么
- 160809325贺彦
- 多图文帖智能封面提取方案
- [物理学与PDEs]第1章第4节 电磁能量和电磁动量, 能量、动量守恒与转化定律 4.3 电磁能量 (动量) 密度, 电磁能量流 (动量流) 密度...
- django 1.8 官方文档翻译: 1-3-1 高级教程:如何编写可重用的应用
- 中国电网计算机面试题目,国家电网面试经验
- 二次规划(QP)求解与序列二次规划(SQP)求解非线性规划问题
- 你的Android HTTPS真的安全吗?
- 2020.01.18【NOIP提高组】模拟B 组——总结——探险者拉罗
- oracle的month函数的使用方法,oracle next_day,add_month函数
- Google at KDD 2020,提出MoSE框架显式建模用户行为序列提升多任务学习效果
- 怎样在python的turtle中输入文字_Python在图片中添加文字的两种方法
- 【51CTO学院】双11抽奖规则
- 【单片机学习笔记】(6):字符串处理函数、变量的三种情况、用函数实现模块化程序设计、晶振与延时、指针
- 字节LastDay,告别十个月的实习生活,流水账与一些思考
- 测试用例的设计方法--比较全的
- android触摸震动原理