用法:

1、tf.summary.scalar

用来显示标量信息,其格式为:

        tf.summary.scalar(tags, values, collections=None, name=None)

例如:tf.summary.scalar('mean', mean)

一般在画loss,accuary时会用到这个函数。

2、tf.summary.histogram

用来显示直方图信息,其格式为:

    tf.summary.histogram(tags, values, collections=None, name=None) 

例如: tf.summary.histogram('histogram', var)

一般用来显示训练过程中变量的分布情况

详述:

 
  1. #collect tensor

  2. tf.summary.scalar('loss',loss)#用于收集一维标量

  3. tf.summary.histogram('weights',W)#用于收集tensor

1. tf.summary.histogram()
将输入的一个任意大小和形状的张量压缩成一个由宽度和数量组成的直方图数据结构.假设输入 [0.5, 1.1, 1.3, 2.2, 2.9, 2.99],则可以创建三个bin,分别包含0-1之间/1-2之间/2-3之间的所有元素,即三个bin中的元素分别为[0.5]/[1.1,1.3]/[2.2,2.9,2.99].
这样,通过可视化张量在不同时间点的直方图来显示某些分布随时间变化的情况

扩展:

  • Summary:所有需要在TensorBoard上展示的统计结果。

  • tf.name_scope():为Graph中的Tensor添加层级,TensorBoard会按照代码指定的层级进行展示,初始状态下只绘制最高层级的效果,点击后可展开层级看到下一层的细节。

  • tf.summary.scalar():添加标量统计结果。

  • tf.summary.histogram():添加任意shape的Tensor,统计这个Tensor的取值分布。

  • tf.summary.merge_all():添加一个操作,代表执行所有summary操作,这样可以避免人工执行每一个summary op。

  • tf.summary.FileWrite:用于将Summary写入磁盘,需要制定存储路径logdir,如果传递了Graph对象,则在Graph Visualization会显示Tensor Shape Information。执行summary op后,将返回结果传递给add_summary()方法即可。

tf.summary.scalar()和tf.summary.histogram相关推荐

  1. tf.nn.softmax_cross_entropy_with_logits 和 tf.contrib.legacy_seq2seq.sequence_loss_by_example 的联系与区别

    文章目录 0.函数介绍 1.区别联系 1.1 tf.nn.softmax_cross_entropy_with_logits 1.2 tf.nn.sparse_softmax_cross_entrop ...

  2. tensorflow2.1学习--tf.keras学习之tf.keras.models.Sequential

    tf.keras.models.Sequential是描述网络层架构的一个api,是顺序的结构即一层一层的描述,但是对于跳跃式的就不行,需要使用自定义层,或者使用类实现 . import tensor ...

  3. tensorflow2.0 环境下的tfrecord读写及tf.io.parse_example和tf.io.parse_single_example的区别

    在文章tfrecord格式的内容解析及样例 中我们已经分析了tfrecord 的内容是什么格式,接下来就要学习tfrecord怎么使用,及tfrecord的读写. 生成tfrecord tfrecor ...

  4. 关于学习tf.random.normal()和tf.random.uniform()的一点小总结

    tf.random.normal(shape,mean=0.0,stddev=1.0)-正态分布 1.shape-可以创建形状为shape的数组 2.mean-均值 3.stddev-标准差,正态分布 ...

  5. tf.dynamic_stitch 和  tf.dynamic_partition

    import tensorflow as tf x=tf.constant([0.1, -1., 5.2, 4.3, -1., 7.4])#判断x里面的元素是否是1 condition_mask=tf ...

  6. TF之RNN:TF的RNN中的常用的两种定义scope的方式get_variable和Variable

    TF之RNN:TF的RNN中的常用的两种定义scope的方式get_variable和Variable 目录 输出结果 代码设计 输出结果 代码设计 # tensorflow中的两种定义scope(命 ...

  7. TF之DNN:TF利用简单7个神经元的三层全连接神经网络【2-3-2】实现降低损失到0.000以下

    TF之DNN:TF利用简单7个神经元的三层全连接神经网络实现降低损失到0.000以下(输入.隐藏.输出层分别为 2.3 . 2 个神经元) 目录 输出结果 实现代码 输出结果 实现代码 # -*- c ...

  8. tensorflow 的 Batch Normalization 实现(tf.nn.moments、tf.nn.batch_normalization)

    tensorflow 在实现 Batch Normalization(各个网络层输出的归一化)时,主要用到以下两个 api: tf.nn.moments(x, axes, name=None, kee ...

  9. TensorFlow数据读取机制:文件队列 tf.train.slice_input_producer和 tf.data.Dataset机制

    TensorFlow数据读取机制:文件队列 tf.train.slice_input_producer和tf.data.Dataset机制 之前写了一篇博客,关于<Tensorflow生成自己的 ...

最新文章

  1. python封装方法有几种_python之--------封装
  2. 蜂鸣器发出7种音阶c语言程序_C语言编程新思路
  3. HTML5的Canvas画图模拟太阳系运转
  4. Java EE拦截器
  5. 我们在程序员节组织了一场游戏,竟还用Python去验证其公平性?
  6. 斯坦福 CS183 YC 创业课系列中文笔记
  7. bzoj2456: mode
  8. 安卓开发—根据顾客预算显示食物信息
  9. doors二次开发-dxl开发
  10. 电脑桌面计算机分区不显示,win10硬盘分区不见了怎么办_win10电脑硬盘分区不见了如何恢复...
  11. Winedt为什么可以用pdfLaTex编译中文(pdfLaTex和XeLaTex的使用)
  12. 软件设计师中级下午题
  13. PHP 报错 Resource temporarily unavailable 无法删除上传的资源
  14. 我安装archlinux的过程总结
  15. 2017前端开发手册三-前端职位描述
  16. 汉字转全拼,简拼组件
  17. 数据库两表联查、多表联查,多重联查
  18. Linux 下使用 tplink wn823N 无线网卡
  19. 身份证号的验证与解析
  20. ipython出现键盘输入错乱问题

热门文章

  1. ValueError: XPath error: Invalid expression in //*[@id=‘info‘]/div/p[1]/test()_Python系列学习笔记
  2. 【最全解析】1050 螺旋矩阵 (25分)
  3. C++编程练习:多态实验——利用抽象类和纯虚函数,编程计算正方体、球体和圆柱体的表面积和体积。
  4. 百度地图标点点击变色_《和平精英》版本爆料第三弹:雪地洞穴开启!组队标点功能升级~...
  5. centos7.6查询不到网卡信息
  6. minigui linux 安装与运行
  7. C/C++内存分配方式 .
  8. mysql 引擎是表级别_Mysql表引擎优化
  9. mq多个消费者消费一个消息_一个普通消费者的米家产品使用感受
  10. linux卸载mariadb数据库,CentOS yum 安装、卸载MariaDB数据库