PyTorch 笔记(07)— Tensor 的归并运算(torch.mean、sum、median、mode、norm、dist、std、var、cumsum、cumprod)
1. Tensor 归并运算函数
此类操作会使输出形状小于输入形状,并可以沿着某一维度进行指定操作,如加法, 既可以计算整个 tensor
的和,也可以计算 tensor
每一行或者 每一列的和,
常用归并操作如下表所示:
2. 使用示例
2.1 torch.mean
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [13]: t.mean(a)
Out[13]: tensor(2.5000)In [14]: t.mean(a,dim=0)
Out[14]: tensor([1.5000, 3.5000])In [15]: t.mean(a,dim=1)
Out[15]: tensor([3., 2.])
2.2 torch.sum
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [16]: a.sum()
Out[16]: tensor(10.)In [17]: a.sum(dim=0)
Out[17]: tensor([3., 7.])In [18]: a.sum(dim=1)
Out[18]: tensor([6., 4.])In [19]:
2.3 torch.median
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [19]: a.median()
Out[19]: tensor(2.)In [20]: a.median(dim=0)
Out[20]:
torch.return_types.median(
values=tensor([1., 3.]),
indices=tensor([1, 1]))In [21]: a.median(dim=1)
Out[21]:
torch.return_types.median(
values=tensor([2., 1.]),
indices=tensor([0, 0]))
2.4 torch.mode
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [29]: a.mode()
Out[29]:
torch.return_types.mode(
values=tensor([2., 1.]),
indices=tensor([0, 0]))In [30]: a.mode(dim=0)
Out[30]:
torch.return_types.mode(
values=tensor([1., 3.]),
indices=tensor([1, 1]))In [31]: a.mode(dim=1)
Out[31]:
torch.return_types.mode(
values=tensor([2., 1.]),
indices=tensor([0, 0]))
2.5 torch.norm
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [22]: a.norm()
Out[22]: tensor(5.4772)In [23]: a.norm(dim=0)
Out[23]: tensor([2.2361, 5.0000])In [24]: a.norm(dim=1)
Out[24]: tensor([4.4721, 3.1623])
2.6 torch.dist
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [28]: a.dist(t.Tensor([1,2]))
Out[28]: tensor(2.4495)
2.7 torch.std
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [32]: a.std()
Out[32]: tensor(1.2910)In [33]: a.std(dim=0)
Out[33]: tensor([0.7071, 0.7071])In [34]: a.std(dim=1)
Out[34]: tensor([1.4142, 1.4142])
2.8 torch.var
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [35]: a.var()
Out[35]: tensor(1.6667)In [36]: a.var(dim=0)
Out[36]: tensor([0.5000, 0.5000])In [37]: a.var(dim=1)
Out[37]: tensor([2., 2.])
2.9 torch.cumsum
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [39]: a.cumsum(dim=0)
Out[39]:
tensor([[2., 4.],[3., 7.]])In [40]: a.cumsum(dim=1)
Out[40]:
tensor([[2., 6.],[1., 4.]])
2.10 torch.cumprod
In [1]: import torch as tIn [11]: a = t.Tensor([[2,4], [1, 3]])In [12]: a
Out[12]:
tensor([[2., 4.],[1., 3.]])In [41]: a.cumprod(dim=0)
Out[41]:
tensor([[ 2., 4.],[ 2., 12.]])In [42]: a.cumprod(dim=1)
Out[42]:
tensor([[2., 8.],[1., 3.]])
PyTorch 笔记(07)— Tensor 的归并运算(torch.mean、sum、median、mode、norm、dist、std、var、cumsum、cumprod)相关推荐
- torch的拼接函数_从零开始深度学习Pytorch笔记(13)—— torch.optim
前文传送门: 从零开始深度学习Pytorch笔记(1)--安装Pytorch 从零开始深度学习Pytorch笔记(2)--张量的创建(上) 从零开始深度学习Pytorch笔记(3)--张量的创建(下) ...
- PyTorch 笔记(05)— Tensor 基本运算(torch.abs、torch.add、torch.clamp、torch.div、torch.mul、torch.pow等)
1. 函数汇总 Tensor 的基本运算会对 tensor 的每一个元素进行操作,此类操作的输入与输出形状一致,常用操作见下表所示. 对于很多操作,例如 div.mul.pow.fmod.等, PyT ...
- PyTorch 笔记(02)— 常用创建 Tensor 方法(torch.Tensor、ones、zeros、eye、arange、linspace、rand、randn、new)
1. Tensor 概念分类 PyTorch 中的张量(Tensor)类似 NumPy 中的 ndarrays,之所以称之为 Tensor 的另一个原因是它可以运行在 GPU 中,以加速运算. 1.1 ...
- PyTorch 笔记(09)— Tensor 线性代数计算(torch.trace、torch.diag、torch.mm、torch.dot、torch.inverse逆矩阵、转置)
1. 常用函数 常用线性表函数如下表所示: 2. 使用示例 2.1 torch.trace In [22]: import torch as tIn [23]: a = t.arange(1, 10) ...
- pytorch tensor 初始化_PyTorch简明笔记[1]-Tensor的初始化和基本操作
听麻麻说,偷偷收藏而不感谢是不礼貌的,至少应该点个赞~我觉得麻麻说的对! 不断地被人安利PyTorch,终于忍不住诱惑决定入坑了. 当初学习TensorFlow的时候,没有系统性地学习.之前TF的英文 ...
- 【 线性回归 Linear-Regression torch模块实现与源码详解 深度学习 Pytorch笔记 B站刘二大人(4/10)】
torch模块实现与源码详解 深度学习 Pytorch笔记 B站刘二大人 深度学习 Pytorch笔记 B站刘二大人(4/10) 介绍 至此开始,深度学习模型构建的预备知识已经完全准备完毕. 从本章开 ...
- PyTorch 笔记(19)— Tensor 用 GPU 加速
在 PyTorch 中以下数据结构分为 CPU 和 GPU 两个版本: Tensor nn.Module (包括常用的 layer .loss function ,以及容器 Sequential 等) ...
- PyTorch 笔记(13)— autograd(0.4 之前和之后版本差异)、Tensor(张量)、Gradient(梯度)
1. 背景简述 torch.autograd 是 PyTorch 中方便用户使用,专门开发的一套自动求导引擎,它能够根据输入和前向传播过程自动构建计算图,并执行反向传播. 计算图是现代深度学习框架 P ...
- 【Torch笔记】Tensor 简介与创建方法
[Torch笔记]Tensor 1 什么是 Tensor? Tensor,又称张量,它是矩阵向任意维度的推广. [Tensor 与 Variable(目前已弃用,但最好了解一下)] Variable ...
最新文章
- 手把手教你实现PySpark机器学习项目——回归算法
- 价值6.11亿美元的入侵工具无人问津
- 【转】 LSD(Line Segment Detector) 直线段检测算法学习~
- node-webkit File Dialog
- oracle里的查询转换
- mysql 全连接问题_mysql 解决全连接问题
- ue4材质节点怎么用_UE4材质教程
- 关于Myeclipse2017 MemoryAnalyzer的安装
- 计算机考研:河南有哪些性价比高的学校?
- Codeforces Round #670 (Div. 2)
- JAVA学习篇--Java类加载
- 微软征询“Xbox支付方式”,选项包括比特币支付
- python用正则表达式提取中文_用正则表达式从Python中的字符串中提取数字
- 快速开发字段很多的MIS表
- SecondaryNamenode配置与NameNode故障恢复
- Hibernate配置(核心配置文件.cfg.xml 和映射配置文件.hbm.xml)(对象-关系映射 Object Relational Mapping)
- 数字人枫灵Lynn,获得江苏省文化产业周刊关注!
- 汕尾python高手_放飞梦想,不问所得
- 通信工程考研英语复试专有名词翻译
- 大型数据中心维保外包模式的选择
热门文章
- Postman使用Date数据类型,Postman发送Date类型数据,Postman模拟前端调用
- JS Uncaught SyntaxError:Unexpected identifier异常报错原因及其解决方法
- 2022-2028年中国加密货币交易所市场研究及前瞻分析报告
- 改变自己,让自己变得更好
- centos7httpd服务的搭建
- Java,Hello world 欢迎进入Java世界
- LeetCode简单题之找出两数组的不同
- LeetCode简单题之到目标元素的最小距离
- TVM Operator Inventory (TOPI)简介
- Camera系列规格参数