pytorch中张量的阶数理解

推荐打开2个页面,对比原四阶张量理解各阶的对应关系。

  • 创建一个四阶张量:
import torch
x = torch.linspace(0,71,72).view(2,3,3,4)
print(x)
  • 输出:
tensor([[[[ 0.,  1.,  2.,  3.],[ 4.,  5.,  6.,  7.],[ 8.,  9., 10., 11.]],[[12., 13., 14., 15.],[16., 17., 18., 19.],[20., 21., 22., 23.]],[[24., 25., 26., 27.],[28., 29., 30., 31.],[32., 33., 34., 35.]]],[[[36., 37., 38., 39.],[40., 41., 42., 43.],[44., 45., 46., 47.]],[[48., 49., 50., 51.],[52., 53., 54., 55.],[56., 57., 58., 59.]],[[60., 61., 62., 63.],[64., 65., 66., 67.],[68., 69., 70., 71.]]]])
  • 按第1维显示第1,2个张量:
print(y[0, 0:, 0:, 0:])
print(y[1, 0:, 0:, 0:])

  • 按第1维求和
print(torch.sum(y,dim=0))
tensor([[[ 36.,  38.,  40.,  42.],[ 44.,  46.,  48.,  50.],[ 52.,  54.,  56.,  58.]],[[ 60.,  62.,  64.,  66.],[ 68.,  70.,  72.,  74.],[ 76.,  78.,  80.,  82.]],[[ 84.,  86.,  88.,  90.],[ 92.,  94.,  96.,  98.],[100., 102., 104., 106.]]])
  • 按第2维显示其第1,2,3个张量:
print(y[0:, 0, 0:, 0:])
print(y[0:, 1, 0:, 0:])
print(y[0:, 2, 0:, 0:])

  • 按第2维求和
print(torch.sum(y,dim=1))
tensor([[[ 36.,  39.,  42.,  45.],[ 48.,  51.,  54.,  57.],[ 60.,  63.,  66.,  69.]],[[144., 147., 150., 153.],[156., 159., 162., 165.],[168., 171., 174., 177.]]])
  • 按第3维显示其第1,2,3个张量:
print(y[0:, 0:, 0, 0:])
print(y[0:, 0:, 1, 0:])
print(y[0:, 0:, 2, 0:])

  • 按第3维求和
print(torch.sum(y,dim=2))
tensor([[[ 12.,  15.,  18.,  21.],[ 48.,  51.,  54.,  57.],[ 84.,  87.,  90.,  93.]],[[120., 123., 126., 129.],[156., 159., 162., 165.],[192., 195., 198., 201.]]])
  • 按第4维显示其第1,2,3,4个张量:
print(y[0:, 0:, 0:, 0])
print(y[0:, 0:, 0:, 1])
print(y[0:, 0:, 0:, 2])
print(y[0:, 0:, 0:, 3])

按第4维求和

tensor([[[  6.,  22.,  38.],[ 54.,  70.,  86.],[102., 118., 134.]],[[150., 166., 182.],[198., 214., 230.],[246., 262., 278.]]])

理解

  • 张量的阶数可直接根据 " [ ] "的数量确定
  • 随着张量的阶数增大,张量由外向内延伸
  • 亦可逐阶(由低到高/由外向内)输出
print(y[0, 1, 0])
tensor([12., 13., 14., 15.])

pytorch中张量的阶数理解相关推荐

  1. Pytorch中维度dim的理解使用

    0 引言 pytorch中的维度dim主要被用在torch.softmax和torch.max等等函数中.理清dim的意思对于正确使用这些函数有重要意义. 1 相关博文: Pytorch笔记:维度di ...

  2. pytorch中数组维度的理解

    pytorch中数组维度理解与numpy中类似,pytorch中维度用dim表示,numpy中用axis表示 这里主要想说下维度的变化. dim = x ,表示在第x为上进行操作,那个维度会发生变化. ...

  3. pytorch中gather函数的理解

    官方解释,很清楚了 torch.gather(input,dim,index,out=None) → Tensortorch.gather(input, dim, index, out=None) → ...

  4. 如何得到PyTorch中张量的值?

    1.将张量转换为numpy: x.numpy()[0] 2.使用x.item()从有一个元素的张量中获取Python数

  5. pytorch中torch.manual_seed()的理解

    使用

  6. PyTorch中F.cross_entropy()函数

    对PyTorch中F.cross_entropy()的理解 PyTorch提供了求交叉熵的两个常用函数: 一个是F.cross_entropy(), 另一个是F.nll_entropy(), 是对F. ...

  7. PyTorch中的contiguous解读

    本文讲解了pytorch中contiguous的含义.定义.实现,以及contiguous存在的原因,非contiguous时的解决办法.并对比了numpy中的contiguous. contiguo ...

  8. 实践指南 | 用PyTea检测 PyTorch 中的张量形状错误

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 作者丨陈萍.泽南 来源丨机器之心 编辑丨极市平台 导读 韩国首尔大学 ...

  9. python中tolist_高效的张量操作 Pytorch中就占5种

    PyTorch是一个基于Python的科学包,用于使用一种称为张量的特殊数据类型执行高级操作. 虽然也有其他方式可以实现相同的效果,但今天分享的这5个操作更加方便高效,值得一试. 什么是张量? 张量是 ...

最新文章

  1. 这份工程师简历火了:手磨14nm咖啡,在微软传播性病,90%公司伸橄榄枝
  2. [EOJ]2019 ECNU XCPC March Selection #4
  3. 滴滴为啥值3600亿?看它的数据中台就知道了
  4. 【今晚七点半】:白板与开源
  5. SQL Server索引进阶第十篇:索引的内部结构
  6. mysql数据库二进制_Mysql数据库简单安装(二进制)
  7. mq集群要建传输队列吗_MQ集群配置详细说明
  8. 宿主机为linux、windows分别实现VMware三种方式上网(转)
  9. 卸载sqlserver
  10. Docker新手入门,最全详解看这里!
  11. 响应式微服务 in java 译 十六 Deploying a Microservice in OpenShift
  12. 总结使用SnakeYAML解析与序列化YAML相关
  13. C++ 语言指针 (pointer)
  14. 《变革中的思索》连载三:展望个人电脑的未来之路
  15. java四大名著知乎_给四大名著重新取名……从知乎热帖看畅销书起名套路
  16. 力扣---LeetCode20. 有效的括号(栈)
  17. HTTP 十分钟教程
  18. 我用Python逆向登录世界上最大的游戏平台,steam加密手段有多高明【内附源码】
  19. 【整理】linux学习笔记(4)
  20. 财路网每日原创推送: 新华网:十字路口的区块链

热门文章

  1. 华为年终奖,小员工分百万!任正非:钱给多了,不是人才也变成了人才!
  2. sqlserver查询今日和昨日数据
  3. 《神经科学-探索脑(第2版)》部分笔记
  4. 计算机管理员考核指标库,仓库管理员绩效考核指标.docx
  5. Linux中对mariadb数据库的管理
  6. arcsinx用计算机怎么算,arcsinx求导(arcsinx如何计算)
  7. 04 MySQL多实例部署
  8. 《从你的全世界路过》读后感
  9. 机器学习(9)--神经网络
  10. Maven从私服下载相关jar包报错Could not find artifact问题