Dense(2, activation='softmax') 和 loss='sparse_categorical_crossentropy'
# 或者
Dense(1, activation='sigmoid') 和 loss='binary_crossentropy'
import pandas as pd
from keras.layers import Dense
import numpy as np
from keras.models import Sequential
from keras.utils.np_utils import to_categoricaln_cols = predictors.shape[1]
target_b = to_categorical(target)
model = Sequential()
model.add(Dense(6, activation='relu',input_shape=(n_cols,)  ))
model.add(Dense(2, activation='softmax') )
# 或者# Dense(1, activation='sigmoid') 和 loss='binary_crossentropy'
model.compile(optimizer = 'adam', loss ='sparse_categorical_crossentropy',metrics=   ['accuracy'] )
model.fit(predictors, target_b, validation_split=.3)import pandas as pd
from keras.layers import Dense
import numpy as np
from keras.models import Sequential
from keras.utils.np_utils import to_categoricaln_cols = predictors.shape[1]
#target_b = to_categorical(target)
target = label
model = Sequential()
model.add(Dense(6, activation='relu',input_shape=(n_cols,)  ))
# Dense(2, activation='softmax') 和 loss='sparse_categorical_crossentropy'
# 或者
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer = 'adam', loss ='binary_crossentropy',metrics=   ['accuracy'] )
model.fit(predictors, target_b, validation_split=.3)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)y_train_softmax = to_categorical(y_train) # ont-hot
y_test_softmax = to_categorical(y_test)#---------------------------------
#           Softmax
#---------------------------------
# loss: Softmax Cross Entropy Loss
input_tensor = Input(X.shape[1:])
x = input_tensor
x = Dropout(0.5)(x)
softmax = Dense(2, activation='softmax')
x = softmax(x)
model = Model(input_tensor, x)
model.compile(optimizer=SGD(1e-3),  # lr = 1e-3loss='categorical_crossentropy',metrics=['accuracy'])softmax_weights, softmax_bias = softmax.get_weights()history_softmax = model.fit(X_train, y_train_softmax, batch_size=128, epochs=5,validation_data=(X_test, y_test_softmax))#---------------------------------
#           Sigmoid
#---------------------------------
input_tensor = Input(X.shape[1:])
x = input_tensor
x = Dropout(0.5)(x)
sigmoid = Dense(1, activation='sigmoid')
x = sigmoid(x)
model = Model(input_tensor, x)
model.compile(optimizer=SGD(2e-3),  # lr = 2e-3loss='binary_crossentropy',metrics=['accuracy'])# random init Sigmoid weights
# 随机初始化 Sigmoid 权重
history_sigmoid_2 = model.fit(X_train, y_train, batch_size=128, epochs=5, validation_data=(X_test, y_test))

参考

密集(2)和密集(1)之间的差异作为二元分类CNN的最后一层? - Thinbug在用于图像二进制分类的CNN中,输出的形状是(图像数量,1)还是(图像数量,2)?具体来说,这是CNNhttps://www.thinbug.com/q/50808593

Keras - Softmax 与 Sigmoid 二分类问题分析 - AI备忘录主要分析 Sigmoid 和 Softmax 对于二分类问题,二者之间的差异性.曾涉及到 Sigmoid 和 Softmax 的问题一般用于交叉熵损失函数,如:[1] - 机器学习 - 交叉熵C...https://www.aiuai.cn/aifarm679.html

分类 对应的 全连结层、activation、loss 的选择相关推荐

  1. 神经网络的全连接层_深度神经网络全连接层

    一.概念 全连接层一般在网络的最后部分做分类输出,全连接层的有m个输入和n个输出,每一个输出都和所有的输入相连,相连的权重w都是不一样的,同时每一个输出还有一个bias. 二.前向全连接 假设输入是4 ...

  2. R语言使用keras包实现包含多个全连接层的二分类预测模型:在模型训练过程中动态可视化每个epoch后的loss值以及accuray值

    R语言使用keras包实现包含多个全连接层的二分类预测模型:在模型训练过程中动态可视化每个epoch后的loss值以及accuray值 目录

  3. 卷积神经网络中全连接层、softmax与softmax loss理解

    1.全连接层 假设全连接层前面连接的是一个卷积层,这个卷积层的num output是100,就是卷积之后输出一百张不同的特征图.每个特征的大小是4X4,那么在将这些特征输入给全连接层之前会将这些特征f ...

  4. pytorch实现IMDB数据集情感分类(全连接层的网络、LSTM)

    目录 一.任务描述 二.思路分析 三.准备数据集 3.1 基础dataset的准备 3.2 文本序列化 四.构建模型 4.1 仅有全连接层 4.2 LSTM 4.3 训练和测试 五.完整代码 5.1 ...

  5. PyTorch-05神经网络与全连接(Logistic Regression、交叉熵、交叉熵来优化一个多分类的问题、全连接层(MLP网络层)、激活函数与GPU加速、测试、Visdom可视化)

    PyTorch-05神经网络与全连接(Logistic Regression逻辑回归.交叉熵.交叉熵来优化一个多分类的问题.全连接层(MLP网络层).激活函数与GPU加速.测试(validation ...

  6. keras库的安装及使用,以全连接层和手写数字识别MNIST为例

    1.什么是keras 什么是keras? keras以TensorFlow和Theano作为后端封装,是一个专门用于深度学习的python模块. 包含了全连接层,卷积层,池化层,循环层,嵌入层等等等, ...

  7. 深度学习基础系列| Global Average Pooling是否可以替代全连接层?

    Global Average Pooling(简称GAP,全局池化层)技术最早提出是在这篇论文(第3.2节)中,被认为是可以替代全连接层的一种新技术.在keras发布的经典模型中,可以看到不少模型甚至 ...

  8. 【深度学习】(3) 全连接层、激活函数

    各位同学好,今天和大家分享一下tensorflow2.0深度学习中的相关操作.内容有: (1) 全连接层创建: tf.keras.Sequential(),tf.keras.layers.Dense( ...

  9. 深度学习 卷积层与全连接层权重参数个数的计算

    1.卷积网络实例分析 构建卷积网络如下: from tensorflow.python.keras import datasets, models, layers class CNN(object): ...

最新文章

  1. 腾讯微博快速有效增加广播转播量的方法与技巧
  2. 语音识别框架最新进展——深度全序列卷积神经网络登场
  3. 字符串的全排列(字典序排列)
  4. 燃烧青春和诗意的IT人生
  5. gRPC的通信方式-客户端流式、服务端流式、双向流式在Java的调用示例
  6. WEB前端学习笔记01利用纯CSS书写二级水平导航菜单
  7. java面试题二十四 继承题2
  8. 改ip地址会有什么影响_led显示屏会带来什么负面影响
  9. 创建最原始的XMLHttprequest对象
  10. 服务器虚拟化的毕业设计,云桌面技术研究与应用毕业设计论文+开题报告+翻译+源码...
  11. tcp连接时,BROKEN PIPE错误
  12. iOS:使用block进行类与类,控制器与控制器之间的传值
  13. python下载不了怎么回事_python怎么下载
  14. postsql获取表字段信息SQL
  15. 基于arduino ws2812b简单的渐变代码
  16. 符号函数sgn python_sgn符号函数matlab
  17. python拆分word文档_python-docx处理word文档
  18. 潘丽云:魏尔斯特拉斯的复变函数思想分析(2009)(2011-01-14 22:34:30)
  19. 天猫服饰新推“良品臻选”,请了一群挑剔的女人给服装“挑刺”
  20. 什么蓝牙耳机适合学生党?内行推荐四款适合学生党的蓝牙耳机

热门文章

  1. 计算机网络局域网的组建实验报告,《计算机网络》局域网的组建与测试实验报告...
  2. vim修改sessions存放目录_不拆机直接修改黑群晖的SN和MAC
  3. Windows Media Encode 9简介及SDK
  4. Python之从左到右依次输出数字上每位的数
  5. 核心微生物分析_基因测序找出肠道核心微生物群
  6. 计算机操作 操作鉴定试题及答案,计算机操作员初级试题及答案
  7. 大学计算机实验六实验报告,大学计算机实验6 实验报告.pdf
  8. js创建一个电脑对象,该对象要有颜色、重量、品牌、型号,可以看电影、听音乐、打游戏和敲代码。
  9. 关于Android 12 适配,看这篇就够了
  10. 【爬虫学习】Cookie-淘宝登录