PyTorch:可视化TensorBoard
PyTorch 1.2.0 版本开始。
安装及更新
pip3 install --upgrade torch torchvision
pip3 install --upgrade tensorboard
Bugs:
1 AttributeError: module 'tensorflow._api.v1.io' has no attribute 'gfile'
出现这个问题的根本原因在于pytorch调了Tensorflow,最后由Tensorflow报出的错误,tensorflow的新版本与旧版本的不兼容。
可以更新tensorflow;或者[AttributeError: module 'tensorflow._api.v1.io' has no attribute 'gfile']
2 tensorboard安装不了与旧版本的不兼容
可指定版本安装pip3 install tensorboard==1.15,或者更新tensorflow到最新。
torch.utils.tensorboard.writer.SummaryWriter(log_dir=None, comment='', purge_step=None, max_queue=10, flush_secs=120, filename_suffix='')
class SummaryWriter(object):
def set_as_default(self):
"""设定默认的 summary writer
亦即让此后出现的所有 summary 写入操作,都默认使用本个 summary writer 实例进行记录"""
def as_default(self):
"""返回一个上下文管理器(配合with使用),记录context中出现的 summary 写入操作"""
def flush(self):
"""强制将缓存中的数据写入到日志文件中"""
def close(self, tensor):
"""强制将缓存中的数据写入到日志文件中,然后关闭 summary writer"""
def init(self):
"""初始化"""
[tf.summary 与 tensorboard]
参数
log_dir (string) – Save directory location. Default is runs/CURRENT_DATETIME_HOSTNAME, which changes after each run.
flush_secs (int) – How often, in seconds, to flush the pending events and summaries to disk. Default is every two minutes.
使用
from torch.utils.tensorboard import SummaryWriter
# folder location: runs/May04_22-14-54_s-MacBook-Pro.local/
writer = SummaryWriter()
# 指定写入目录
sum_writer = SummaryWriter(sumfile)
e.g. sumfile = 'summary_log_dir'+time.strftime("%H%M", time.localtime())
记录 Scalars
我们常用的 loss、accuracy 等都是数值,我们在 Tensorboard 中记录数值的方法也很简单:
add_scalar(tag, scalar_value, global_step=None, walltime=None)
- tag 是这个常数值所属的标签(比如 training_loss 等)。常用的一个方法是将 tag 值设置为 section/plot 的格式,这样 Tensorboard 会按照 section 来给结果分组(下面有例子)。
- global_step 是一个整数,通常是曲线图里的 x 轴,如果不设置则默认一直为 0。注意这里是不存在覆盖的,就是对于同一个 global_step 值,新的值不会覆盖旧的值,而是会同时画到图上。
- walltime 就是记录的时间戳,默认是系统当前时间 time.time()。
# Record training loss from each epoch into the writer
writer.add_scalar(\\'Train/Loss\\', loss.item(), epoch)
sum_writer.add_scalar(tag='Train/Loss', scalar_value=model.loss_data.item() / last_batch_id, global_step=epoch)
# Record loss and accuracy from the test run into the writer
writer.add_scalar(\\'Test/Loss\\', test_loss, epoch)
writer.add_scalar(\\'Test/Accuracy\\', accuracy, epoch)
add_scalars(main_tag, tag_scalar_dict, global_step=None, walltime=None)
多个数值展示在同一个图上。
writer.add_scalars('All/Logloss', {'TrainLogloss': logloss, 'TestLogloss': t_logloss}, epoch)
可视化
cd du_project/test/summary_log_dir
tensorboard --logdir=./sumfile/ --port 6006
Serving TensorBoard on localhost; to expose to the network, use a proxy or pass --bind_all
TensorBoard 2.3.0 at http://localhost:6006/ (Press CTRL+C to quit)
点击http就可以看到可视化界面
-柚子皮-
第三方工具
[《PyTorch 使用 TensorboardX 进行网络可视化》][Pytorch使用tensorboardX可视化。超详细!!!]
《PyTorch 可视化工具 Visdom 介绍》
《使用 Visdom 在 PyTorch 中进行可视化》
from: -柚子皮-
ref: [https://pytorch.org/docs/stable/tensorboard.html]
[PyTorch 自带 TensorBoard 使用教程]
PyTorch:可视化TensorBoard相关推荐
- PyTorch可视化工具-Tensorboard在线查看训练曲线、网络结构图等
1 安装 2 如何调用 3 如何查看 4 实战 4.1 代码调用 4.2 查看 1 SCALARS 训练曲线 2 多次训练曲线对比 3 IMAGES 4 CRSPHS 模型图 5 问题与解决 6 工程 ...
- add函数 pytorch_Pytorch学习记录-Pytorch可视化使用tensorboardX
Pytorch学习记录-Pytorch可视化使用tensorboardX 在很早很早以前(至少一个半月),我做过几节关于tensorboard的学习记录. https://www.jianshu.co ...
- Pytorch学习-tensorboard的使用
Pytorch学习-tensorboard的使用 1 Tensorboard简介 运行机制 安装及测试 2 SummaryWriter实例的使用教程 (1)初始化summaryWriter的方法 (2 ...
- .mb是什么文件_神经网络长什么样不知道? 这有一份简单的 pytorch可视化技巧(1)
神经网络长什么样不知道?这有一份简单的 pytorch可视化技巧(1) 深度学习这几年伴随着硬件性能的进一步提升,人们开始着手于设计更深更复杂的神经网络,有时候我们在开源社区拿到网络模型的时候,做客可 ...
- Pytorch使用Tensorboard记录loss曲线 (Tensorboard学习二)
关于Tensorboard的基本使用方法可以参考:Pytorch 配置 Tensorboard 可视化学习(一) 对于一个基本模型: import torch import torch.nn as n ...
- PyTorch学习笔记(七):PyTorch可视化
PyTorch可视化 往期学习资料推荐: 1.Pytorch实战笔记_GoAI的博客-CSDN博客 2.Pytorch入门教程_GoAI的博客-CSDN博客 本系列目录: PyTorch学习笔记(一) ...
- Pytorch求索(1):pytorch与Tensorboard的结合使用
pytorch与tensorboard结合使用 Tensorboard Tensorboard一般都是作为tf的可视化工具,与tf深度集成,它能够展现tf的网络计算图,绘制图像生成的定量指标图以及附加 ...
- task05 PyTorch可视化
PyTorch可视化 1. 可视化网络结构 使用torchinfo工具包,学习网络结构可视化的方案 import os import numpy as np import torch import t ...
- PyTorch 可视化工具Visdom
参考链接:使用 Visdom 在 PyTorch 中进行可视化 PyTorch 可视化工具 Visdom 介绍 Visd ...
- 卷积神经网络、比较MLPS和CNNS、滤波器、CNN各层的作用、在Pytorch可视化CNN
1.33.卷积神经网络 1.33.1.卷积 和 神经网络 1.33.1.1.比较MLPS和CNNS 1.33.1.2.计算机如何看图像? 1.33.1.3.建立自己的滤波器 1.33.2.完整的卷积神 ...
最新文章
- MongoDB自增主键
- 通风与防排烟工程电子书_暖通、通风、防排烟风管如何做抗震设计呢?
- 深度无盘 连接服务器失败,深度无盘服务器配置
- MIT python 第二课第四十分钟 取最小值的例子
- java.util.regex.PatternSyntaxException: Unexpected internal error near index 1 \ ^
- closehandle()函数
- 数据库数据类型decimal理解
- Logistic回归解析
- 【人工智能】如何Finetune一个小网络到移动端(时空性能分析篇)
- hadoop的伪分布环境配置(2.5.2)
- 三种短链接生成源码-iApp源码
- Android实例开发中按钮(Button)的四种点击方式的实现
- VsCode建立工程
- 直销立法前狼奔豕突 非法传销组织如何转型
- 【预测模型】预测某地区未来 10-20 年按年龄划分的人口结构(PDE模型)
- element-ui中select组件创建条目创建条目为空时报错的解决方案
- 原生Js弹窗插件|web弹出层组件|对话框
- python实现视频ai换脸_python 实现 AI 换脸
- 2021年基金从业资格考试时间及报名时间
- 乌鸦与树(crow)