1. Tensor 归并运算函数

此类操作会使输出形状小于输入形状,并可以沿着某一维度进行指定操作,如加法, 既可以计算整个 tensor 的和,也可以计算 tensor 每一行或者 每一列的和,

常用归并操作如下表所示:

2. 使用示例

2.1 torch.mean

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [13]: t.mean(a)
Out[13]: tensor(2.5000)In [14]: t.mean(a,dim=0)
Out[14]: tensor([1.5000, 3.5000])In [15]: t.mean(a,dim=1)
Out[15]: tensor([3., 2.])

2.2 torch.sum

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [16]: a.sum()
Out[16]: tensor(10.)In [17]: a.sum(dim=0)
Out[17]: tensor([3., 7.])In [18]: a.sum(dim=1)
Out[18]: tensor([6., 4.])In [19]:

2.3 torch.median

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [19]: a.median()
Out[19]: tensor(2.)In [20]: a.median(dim=0)
Out[20]:
torch.return_types.median(
values=tensor([1., 3.]),
indices=tensor([1, 1]))In [21]: a.median(dim=1)
Out[21]:
torch.return_types.median(
values=tensor([2., 1.]),
indices=tensor([0, 0]))

2.4 torch.mode

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [29]: a.mode()
Out[29]:
torch.return_types.mode(
values=tensor([2., 1.]),
indices=tensor([0, 0]))In [30]: a.mode(dim=0)
Out[30]:
torch.return_types.mode(
values=tensor([1., 3.]),
indices=tensor([1, 1]))In [31]: a.mode(dim=1)
Out[31]:
torch.return_types.mode(
values=tensor([2., 1.]),
indices=tensor([0, 0]))

2.5 torch.norm

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [22]: a.norm()
Out[22]: tensor(5.4772)In [23]: a.norm(dim=0)
Out[23]: tensor([2.2361, 5.0000])In [24]: a.norm(dim=1)
Out[24]: tensor([4.4721, 3.1623])

2.6 torch.dist

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [28]: a.dist(t.Tensor([1,2]))
Out[28]: tensor(2.4495)

2.7 torch.std

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [32]: a.std()
Out[32]: tensor(1.2910)In [33]: a.std(dim=0)
Out[33]: tensor([0.7071, 0.7071])In [34]: a.std(dim=1)
Out[34]: tensor([1.4142, 1.4142])

2.8 torch.var

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [35]: a.var()
Out[35]: tensor(1.6667)In [36]: a.var(dim=0)
Out[36]: tensor([0.5000, 0.5000])In [37]: a.var(dim=1)
Out[37]: tensor([2., 2.])

2.9 torch.cumsum

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [39]: a.cumsum(dim=0)
Out[39]:
tensor([[2., 4.],[3., 7.]])In [40]: a.cumsum(dim=1)
Out[40]:
tensor([[2., 6.],[1., 4.]])

2.10 torch.cumprod

In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [41]: a.cumprod(dim=0)
Out[41]:
tensor([[ 2.,  4.],[ 2., 12.]])In [42]: a.cumprod(dim=1)
Out[42]:
tensor([[2., 8.],[1., 3.]])

PyTorch 笔记(07)— Tensor 的归并运算(torch.mean、sum、median、mode、norm、dist、std、var、cumsum、cumprod)相关推荐

  1. torch的拼接函数_从零开始深度学习Pytorch笔记(13)—— torch.optim

    前文传送门: 从零开始深度学习Pytorch笔记(1)--安装Pytorch 从零开始深度学习Pytorch笔记(2)--张量的创建(上) 从零开始深度学习Pytorch笔记(3)--张量的创建(下) ...

  2. PyTorch 笔记(05)— Tensor 基本运算(torch.abs、torch.add、torch.clamp、torch.div、torch.mul、torch.pow等)

    1. 函数汇总 Tensor 的基本运算会对 tensor 的每一个元素进行操作,此类操作的输入与输出形状一致,常用操作见下表所示. 对于很多操作,例如 div.mul.pow.fmod.等, PyT ...

  3. PyTorch 笔记(02)— 常用创建 Tensor 方法(torch.Tensor、ones、zeros、eye、arange、linspace、rand、randn、new)

    1. Tensor 概念分类 PyTorch 中的张量(Tensor)类似 NumPy 中的 ndarrays,之所以称之为 Tensor 的另一个原因是它可以运行在 GPU 中,以加速运算. 1.1 ...

  4. PyTorch 笔记(09)— Tensor 线性代数计算(torch.trace、torch.diag、torch.mm、torch.dot、torch.inverse逆矩阵、转置)

    1. 常用函数 常用线性表函数如下表所示: 2. 使用示例 2.1 torch.trace In [22]: import torch as tIn [23]: a = t.arange(1, 10) ...

  5. pytorch tensor 初始化_PyTorch简明笔记[1]-Tensor的初始化和基本操作

    听麻麻说,偷偷收藏而不感谢是不礼貌的,至少应该点个赞~我觉得麻麻说的对! 不断地被人安利PyTorch,终于忍不住诱惑决定入坑了. 当初学习TensorFlow的时候,没有系统性地学习.之前TF的英文 ...

  6. 【 线性回归 Linear-Regression torch模块实现与源码详解 深度学习 Pytorch笔记 B站刘二大人(4/10)】

    torch模块实现与源码详解 深度学习 Pytorch笔记 B站刘二大人 深度学习 Pytorch笔记 B站刘二大人(4/10) 介绍 至此开始,深度学习模型构建的预备知识已经完全准备完毕. 从本章开 ...

  7. PyTorch 笔记(19)— Tensor 用 GPU 加速

    在 PyTorch 中以下数据结构分为 CPU 和 GPU 两个版本: Tensor nn.Module (包括常用的 layer .loss function ,以及容器 Sequential 等) ...

  8. PyTorch 笔记(13)— autograd(0.4 之前和之后版本差异)、Tensor(张量)、Gradient(梯度)

    1. 背景简述 torch.autograd 是 PyTorch 中方便用户使用,专门开发的一套自动求导引擎,它能够根据输入和前向传播过程自动构建计算图,并执行反向传播. 计算图是现代深度学习框架 P ...

  9. 【Torch笔记】Tensor 简介与创建方法

    [Torch笔记]Tensor 1 什么是 Tensor? Tensor,又称张量,它是矩阵向任意维度的推广. [Tensor 与 Variable(目前已弃用,但最好了解一下)] Variable ...

最新文章

  1. 手把手教你实现PySpark机器学习项目——回归算法
  2. 价值6.11亿美元的入侵工具无人问津
  3. 【转】 LSD(Line Segment Detector) 直线段检测算法学习~
  4. node-webkit File Dialog
  5. oracle里的查询转换
  6. mysql 全连接问题_mysql 解决全连接问题
  7. ue4材质节点怎么用_UE4材质教程
  8. 关于Myeclipse2017 MemoryAnalyzer的安装
  9. 计算机考研:河南有哪些性价比高的学校?
  10. Codeforces Round #670 (Div. 2)
  11. JAVA学习篇--Java类加载
  12. 微软征询“Xbox支付方式”,选项包括比特币支付
  13. python用正则表达式提取中文_用正则表达式从Python中的字符串中提取数字
  14. 快速开发字段很多的MIS表
  15. SecondaryNamenode配置与NameNode故障恢复
  16. Hibernate配置(核心配置文件.cfg.xml 和映射配置文件.hbm.xml)(对象-关系映射 Object Relational Mapping)
  17. 数字人枫灵Lynn,获得江苏省文化产业周刊关注!
  18. 汕尾python高手_放飞梦想,不问所得
  19. 通信工程考研英语复试专有名词翻译
  20. 大型数据中心维保外包模式的选择

热门文章

  1. Postman使用Date数据类型,Postman发送Date类型数据,Postman模拟前端调用
  2. JS Uncaught SyntaxError:Unexpected identifier异常报错原因及其解决方法
  3. 2022-2028年中国加密货币交易所市场研究及前瞻分析报告
  4. 改变自己,让自己变得更好
  5. centos7httpd服务的搭建
  6. Java,Hello world 欢迎进入Java世界
  7. LeetCode简单题之找出两数组的不同
  8. LeetCode简单题之到目标元素的最小距离
  9. TVM Operator Inventory (TOPI)简介
  10. Camera系列规格参数