tf.nn.sigmoid_cross_entropy_with_logits 分类
tf.nn.sigmoid_cross_entropy_with_logits(_sentinel=None,,labels=None,logits=None,name=None)
logits和labels必须有相同的类型和大小参数:
_sentinel:内部的并不使用
labels:和logits的shape和type一样
logits:类型为float32或者float64
name:操作的名称,可省返回的是:一个张量,和logits的大小一致。是逻辑损失
sample
import numpy as np
import tensorflow as tflabels=np.array([[1.,0.,0.],[0.,1.,0.],[0.,0.,1.]])
logits=np.array([[11.,8.,7.],[10.,14.,3.],[1.,2.,4.]])y_pred=tf.math.sigmoid(logits)
prob_error1=-labels*tf.math.log(y_pred)-(1-labels)*tf.math.log(1-y_pred)labels1=np.array([[0.,1.,0.],[1.,1.,0.],[0.,0.,1.]])#不一定只属于一个类别
logits1=np.array([[1.,8.,7.],[10.,14.,3.],[1.,2.,4.]])
y_pred1=tf.math.sigmoid(logits1)
prob_error11=-labels1*tf.math.log(y_pred1)-(1-labels1)*tf.math.log(1-y_pred1)with tf.compat.v1.Session() as sess:print("1:")print(sess.run(prob_error1))print("2:")print(sess.run(prob_error11))print("3:")print(sess.run(tf.nn.sigmoid_cross_entropy_with_logits(labels=labels,logits=logits)))print("4:")print(sess.run(tf.nn.sigmoid_cross_entropy_with_logits(labels=labels1,logits=logits1)))
output
1和3,2和4结果一样
1:
[[1.67015613e-05 8.00033541e+00 7.00091147e+00][1.00000454e+01 8.31528373e-07 3.04858735e+00][1.31326169e+00 2.12692801e+00 1.81499279e-02]]
2:
[[1.31326169e+00 3.35406373e-04 7.00091147e+00][4.53988992e-05 8.31528373e-07 3.04858735e+00][1.31326169e+00 2.12692801e+00 1.81499279e-02]]
3:
[[1.67015613e-05 8.00033541e+00 7.00091147e+00][1.00000454e+01 8.31528373e-07 3.04858735e+00][1.31326169e+00 2.12692801e+00 1.81499279e-02]]
4:
[[1.31326169e+00 3.35406373e-04 7.00091147e+00][4.53988992e-05 8.31528373e-07 3.04858735e+00][1.31326169e+00 2.12692801e+00 1.81499279e-02]]
转载于:https://www.cnblogs.com/smallredness/p/11199541.html
tf.nn.sigmoid_cross_entropy_with_logits 分类相关推荐
- tf.nn.sigmoid_cross_entropy_with_logits出现负数
tf.nn.sigmoid_cross_entropy_with_logits 使用这个loss函数,出现loss出现负数的情况,在理论情况下,这个函数应该是不会存在负数的情况,查看这个函数的具体表达 ...
- TensorFlow(七)tf.nn库
##tf.nn,tf.layers, tf.contrib模块有很多功能是重复的 下面是对三个模块的简述: tf.nn :提供神经网络相关操作的支持,包括卷积操作(conv).池化操作(pooling ...
- Tensorflow BatchNormalization详解:4_使用tf.nn.batch_normalization函数实现Batch Normalization操作...
使用tf.nn.batch_normalization函数实现Batch Normalization操作 觉得有用的话,欢迎一起讨论相互学习~Follow Me 参考文献 吴恩达deeplearnin ...
- 深度学习原理与框架-CNN在文本分类的应用 1.tf.nn.embedding_lookup(根据索引数据从数据中取出数据) 2.saver.restore(加载sess参数)...
1. tf.nn.embedding_lookup(W, X) W的维度为[len(vocabulary_list), 128], X的维度为[?, 8],组合后的维度为[?, 8, 128] 代码说 ...
- tf.nn.softmax参数详解以及作用
tf.nn.softmax参数详解以及作用 参考地址:https://zhuanlan.zhihu.com/p/93054123 tf.nn.softmax(logits,axis=None,name ...
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits中的“logits”到底是个什么意思?
tf.nn.softmax_cross_entropy_with_logits中的"logits"到底是个什么意思?_玉来愈宏的随笔-CSDN博客 https://blog.csd ...
- tf.nn.softmax
通过Softmax回归,将logistic的预测二分类的概率的问题推广到了n分类的概率的问题.通过公式 可以看出当月分类的个数变为2时,Softmax回归又退化为logistic回归问题. 下面 ...
- TensorFlow 学习(七) — 常用函数 api、tf.nn、tf.keras
0. 四则运算 平方:tf.square(),开方:tf.sqrt() tf.add().tf.sub().tf.mul().tf.div().tf.mod().tf.abs().tf.neg() 1 ...
- tf.nn.bidirectional_dynamic_rnn()函数详解
转载自:https://blog.csdn.net/zhylhy520/article/details/86364789 首先我们了解一下函数的参数 bidirectional_dynamic_rnn ...
最新文章
- Java学习总结:55(偶对象保存:Map接口)
- haproxy 反向代理 tomcat (https、负载均衡)
- RDKit | 基于Fraggle算法评估化合物的相似性
- 36 如何营造一种活跃的科研气氛/如何培养表达交流能力
- PHP学习总结(4)——PHP入门篇之PHP计算表达式
- td onmouseover=this.style.cursor='hand' onmouseout=this.style.cursor='normal' 小手状
- 计算机专业的书普遍都这么贵,你们都是怎么获取资源的?
- 010Editor逆向及注册机实现
- 6.25考试整理:江城唱晚不老梦棠梨煎雪——题解
- Python3.9标准库math中的函数汇总介绍(53个函数和5个常数)
- 一、C++基础入门之 Windows下C/C++开发环境配置
- ICCV2019——SCRDet Towards More Robust Detection for Small, Cluttered and Rotated Objects
- 肯德基创始人,在1009次失败后...
- Debug | (‘Keyword argument not understood:‘, ‘input‘)
- 笔记本的构造介绍--处理器
- 梦幻西游网页版无法在虚拟机上运行【游戏】【页游】【虚拟机】
- 评标专家和评标专家库管理暂行办法:评标专家享有的权利
- 百胜中国2020年第四季度收入为22.6亿美元,同比增长11%
- DEEPLIZARD强化学习2----预期收益Expected Return
- Java之Excel导出工具类使用教程