1. torch.cumprod(input, dim, out=None)

说明: 返回输入沿指定维度的累积积。如果输入是一个N元向量,则结果也是一个N元向量,第i个输出元素值为 yi=x1∗x2∗...∗xiy_{i} = x_{1} * x_{2} * ... * x_{i}yi​=x1​∗x2​∗...∗xi​

参数:

  • input(Tensor) ---- 输入张量
  • dim(int) ---- 累积积操作的维度
  • out(Tensor,可选) ---- 结果张量
>>> import numpy as np
>>> import torch
>>> a = np.array([1, 2, 3, 4, 5])
>>> b = torch.from_numpy(a)
>>> b
tensor([1, 2, 3, 4, 5], dtype=torch.int32)
>>> ret = torch.cumprod(b, dim=0)
>>> ret
tensor([  1,   2,   6,  24, 120])
>>> b[2] = 0
>>> b
tensor([1, 2, 0, 4, 5], dtype=torch.int32)
>>> ret1 = torch.cumprod(b, dim=0)
>>> ret1
tensor([1, 2, 0, 0, 0])

2. torch.cumsum(input, dim, out=None)

说明: 返回输入沿指定维度的累积和。例如,如果输入是一个N元向量,则结果也是一个N元向量,第i个输出元素的值为yi=x1+x2+...+xiy_{i} = x_{1} + x_{2} + ... + x_{i}yi​=x1​+x2​+...+xi​

参数:

  • input(Tensor) ---- 输入张量
  • dim(int) ---- 累积和操作的维度
  • out(Tensor,可选的) ---- 结果张量
>>> a = np.array([1, 2, 3, 4, 5])
>>> b = torch.from_numpy(a)
>>> ret = torch.cumsum(b, dim=0)
>>> ret
tensor([ 1,  3,  6, 10, 15])

3. torch.dist(input, other, p=2, out=None)

说明: 返回(input - other) 的p范数

参数:

  • input(Tensor) ---- 左侧输入张量
  • other(Tensor) ---- 右侧输入张量
  • p(float,可选的) ---- 所计算的范数
  • out(Tensor,可选的) ---- 结果张量
>>> x = torch.randn(4)
>>> x
tensor([0.1559, 0.7725, 0.8706, 0.3684])
>>> y = torch.randn(4)
>>> y
tensor([ 1.1464,  0.4444,  1.7968, -1.3197])
>>> torch.dist(x, y, 2)
tensor(2.1900)

4. torch.mean(input)

说明: 返回输入张量所有元素的均值

参数:

  • input(Tensor) ---- 输入张量
>>> a = torch.randn(1, 3)
>>> a
tensor([[-2.0543,  1.6074,  0.2915]])
>>> torch.mean(a)
tensor(-0.0518)

5. torch.mean(input, dim, out=None)

说明: 返回输入张量给定维度dim上每行的均值。

参数:

  • inptu(Tensor) ---- 输入张量
  • dim(int) ---- 操作的维度
  • out(Tensor,可选的) ---- 结果张量
>>> a
tensor([[ 1.2351,  0.7531, -1.2863],[-0.8551, -2.2716,  1.0863],[ 0.0343,  1.9529,  1.4611],[ 1.9935,  0.5430, -0.1580]])
>>> torch.mean(a, 1)
tensor([ 0.2340, -0.6801,  1.1494,  0.7928])
>>> torch.mean(a, 0)
tensor([0.6019, 0.2444, 0.2758])

6. torch.median(input, dim=-1, values=None, indices=None)

说明: 返回输入张量给定维度每行中的中位数,同时返回一个包含中位数的索引的LongTensor。dim值默认为输入张量的最后一维。
注意: 这个函数没有在torch.cuda.Tensor中定义

参数:

  • input(Tensor) ---- 输入张量
  • dim(int) ---- 缩减的维度
  • values(Tensor,可选的) ---- 结果张量
  • indices(Tensor,可选的) ---- 返回的索引结果张量
>>> a = torch.randn(4, 5)
>>> a
tensor([[-0.2479, -0.4734,  0.1368,  0.9601,  2.9435],[ 0.3210,  0.8147,  0.3052, -0.6380,  0.0879],[ 1.9500,  0.0926,  0.6948, -0.9723, -0.2437],[-0.7056, -0.4905, -0.2469,  0.3753,  1.6451]])
>>> torch.median(a, 1)
torch.return_types.median(
values=tensor([ 0.1368,  0.3052,  0.0926, -0.2469]),
indices=tensor([2, 2, 1, 2]))

7. torch.mode(input, dim=-1, values=None, indices=None)

说明: 返回给定维dim上,每行的众数值,同时返回一个LongTensor,包含众数的索引。dim默认为输入张量的最后一维。
参数:

  • input(Tensor) ---- 输入张量
  • dim(int) ---- 缩减的维度
  • values(Tensor,可选的) ---- 结果的张量
  • indices(Tensor,可选的) ---- 返回的索引张量
>>> a = torch.randn(5, 5)
>>> a
tensor([[-1.2427, -0.2035,  0.0828, -0.9490,  0.8610],[-0.5330, -1.0207,  1.2805, -0.2771, -0.1151],[-1.2495,  0.6887, -0.1247,  1.3126, -0.4973],[ 1.3097,  0.1821, -0.9910, -0.0591, -2.0153],[-1.0525, -0.0337,  1.2929,  1.4164,  1.3975]])
>>> torch.mode(a, 1)
torch.return_types.mode(
values=tensor([-1.2427, -1.0207, -1.2495, -2.0153, -1.0525]),
indices=tensor([0, 1, 0, 4, 0]))

8. torch.norm(input, p=2)

说明: 返回输入张量input的p范数

参数:

  • input(Tensor) ---- 输入张量
  • p(float,可选的) ---- 范数计算中的幂指数值
>>> a = torch.randn(1, 3)
>>> a
tensor([[-1.5397, -1.4304, -0.7689]])
>>> torch.norm(a, 3)
tensor(1.9158)

9. torch.norm(input, p, dim, out=None)

说明: 返回输入张量给定维度dim上每行的p范数。
参数:

  • input(Tensor) ---- 输入张量
  • p(float) ---- 范数计算中的幂指数值
  • dim(int) ---- 缩减的维度
  • out(Tenosr,可选的) ---- 结果张量
>>> a = torch.randn(4, 2)
>>> a
tensor([[-0.3436, -0.6034],[-0.2127, -0.0089],[ 1.7678, -1.0787],[-0.9961, -0.2598]])
>>> torch.norm(a, 2, 1)
tensor([0.6944, 0.2129, 2.0709, 1.0294])
>>> torch.norm(a, 0, 1)
tensor([2., 2., 2., 2.])

10. torch.prod(input)

说明: 返回输入张量input所有元素的积

参数:

  • input(Tensor) ---- 输入张量
>>> a = torch.Tensor([1, 2, 3])
>>> torch.prod(a)
tensor(6.)

11. torch.prod(input, dim, out=None)

说明: 返回输入张量给定维度上每行的积。
参数:

  • input(Tenosr) ---- 输入张量
  • dim(int) ---- 缩减的维度
  • out(Tensor,可选的) ---- 结果张量
>>> a = torch.randn(4, 2)
>>> a
tensor([[ 0.0593,  0.3449],[-0.0491,  0.2711],[-0.4155, -1.1968],[-0.6646, -0.9474]])
>>> torch.prod(a, 1)
tensor([ 0.0205, -0.0133,  0.4972,  0.6296])
>>> torch.prod(a, 0)
tensor([-0.0008,  0.1060])

12. torch.std(input)

说明: 返回输入张量input所有元素的标准差
参数:

  • inut(Tensor) ---- 输入张量
>>> a = torch.randn(1, 3)
>>> a
tensor([[-0.2022,  1.9407, -0.1263]])
>>> torch.std(a)
tensor(1.2159)

13. torch.std(input, dim, out=None)

说明: 返回输入张量给定维度上每行的标准差。
参数:

  • input(Tensor) ---- 输入张量
  • dim(int)
>>> a = torch.randn(1, 3)
>>> a
tensor([[ 0.3646,  0.9681, -0.7199]])
>>> torch.std(a)
tensor(0.8554)

14. torch.std(input, dim, out=None)

说明: 返回输入给定维度上每行的标准差。

参数:

  • input(Tensor) ---- 输入张量
  • dim(int) ---- 缩减的维度
  • out(Tensor,可选的) ---- 结果张量
>>> a = torch.randn(4, 4)
>>> a
tensor([[ 0.4083, -2.0872, -2.7175,  0.4151],[-0.1804, -1.9027, -0.6310,  0.3519],[-0.1215,  0.5891,  0.1468, -0.2249],[ 1.3558,  1.2970,  0.1988,  0.1279]])
>>> torch.std(a, dim=1)
tensor([1.6449, 0.9626, 0.3633, 0.6725])

15. torch.sum(input)

说明: 返回输入张量input所有元素的和。

参数:

  • input(Tensor) ---- 输入张量
>>> a = torch.randn(1, 3)
>>> a
tensor([[-1.7710, -0.9921, -0.2817]])
>>> torch.sum(a)
tensor(-3.0449)

16. torch.sum(input, dim, out=None)

说明: 返回输入张量给定维度上每行的和,

参数:

  • input(Tensor) ---- 输入张量
  • dim(int) ---- 缩减的维度
  • out(Tensor, 可选的) ---- 结果张量
>>> a = torch.randn(4, 4)
>>> a
tensor([[-0.6091, -0.5861, -0.2564, -0.3686],[-0.7146,  0.7276, -0.7998,  0.5817],[ 0.7700, -0.7373,  0.1708, -0.0295],[ 2.2606,  1.9379, -0.7269,  0.7523]])
>>> torch.sum(a, 1)
tensor([-1.8202, -0.2051,  0.1741,  4.2239])
>>> torch.sum(a, 0)
tensor([ 1.7069,  1.3422, -1.6123,  0.9359])

17. torch.var(input)

说明: 返回输入张量所有元素的方差

参数:

  • input(Tensor) – 输入张量
>>> a = torch.randn(1, 4)
>>> a
tensor([[-0.7134, -1.1119,  1.0638, -0.0858]])
>>> torch.var(a)
tensor(0.9016)

18. torch.var(input, dim, out=None)

说明: 返回输入张量给定维度上每行的方差

参数:

  • input(Tensor) ---- 输入张量
  • dim(int) ---- 缩减维度
  • out(Tensor,可选的) ---- 结果张量
>>> a = torch.randn(4, 4)
>>> a
tensor([[-0.0977, -0.2619, -0.3367, -0.5301],[ 0.8751, -0.2703,  1.2129,  0.5508],[ 1.1301,  0.6452,  0.5054,  0.3386],[ 0.2502,  1.4547,  1.0562,  0.4640]])
>>> torch.var(a, 1)
tensor([0.0322, 0.4036, 0.1161, 0.3031])

Pytorch学习之torch----Reduction Ops相关推荐

  1. 【Pytorch学习】torch.mm()torch.matmul()和torch.mul()以及torch.spmm()

    目录 1 引言 2 torch.mul(a, b) 3 torch.mm(a, b) 4 torch.matmul() 5 torch.spmm() 参考文献 1 引言   做深度学习过程中免不了使用 ...

  2. pytorch学习 中 torch.squeeze() 和torch.unsqueeze()的用法

    squeeze的用法主要就是对数据的维度进行压缩或者解压. 先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的 ...

  3. PyTorch 学习笔记(六):PyTorch hook 和关于 PyTorch backward 过程的理解 call

    您的位置 首页 PyTorch 学习笔记系列 PyTorch 学习笔记(六):PyTorch hook 和关于 PyTorch backward 过程的理解 发布: 2017年8月4日 7,195阅读 ...

  4. Pytorch学习-torch.max()和min()深度解析

    Pytorch学习-torch.max和min深度解析 max的使用 min同理 dim参数理解 二维张量使用max() 三维张量使用max() max的使用 min同理 参考链接: 参考链接: 对于 ...

  5. pytorch深度学习框架—torch.nn模块(一)

    pytorch深度学习框架-torch.nn模块 torch.nn模块中包括了pytorch中已经准备好的层,方便使用者调用构建的网络.包括了卷积层,池化层,激活函数层,循环层,全连接层. 卷积层 p ...

  6. Pytorch 学习(6):Pytorch中的torch.nn Convolution Layers 卷积层参数初始化

    Pytorch 学习(6):Pytorch中的torch.nn  Convolution Layers  卷积层参数初始化 class Conv1d(_ConvNd):......def __init ...

  7. Pytorch学习 - Task6 PyTorch常见的损失函数和优化器使用

    Pytorch学习 - Task6 PyTorch常见的损失函数和优化器使用 官方参考链接 1. 损失函数 (1)BCELoss 二分类 计算公式 小例子: (2) BCEWithLogitsLoss ...

  8. PyTorch学习笔记(三):PyTorch主要组成模块

    往期学习资料推荐: 1.Pytorch实战笔记_GoAI的博客-CSDN博客 2.Pytorch入门教程_GoAI的博客-CSDN博客 本系列目录: PyTorch学习笔记(一):PyTorch环境安 ...

  9. PyTorch学习笔记2:nn.Module、优化器、模型的保存和加载、TensorBoard

    文章目录 一.nn.Module 1.1 nn.Module的调用 1.2 线性回归的实现 二.损失函数 三.优化器 3.1.1 SGD优化器 3.1.2 Adagrad优化器 3.2 分层学习率 3 ...

  10. 【Pytorch学习笔记2】Pytorch的主要组成模块

    个人笔记,仅用于个人学习与总结 感谢DataWhale开源组织提供的优秀的开源Pytorch学习文档:原文档链接 本文目录 1. Pytorch的主要组成模块 1.1 完成深度学习的必要部分 1.2 ...

最新文章

  1. Openstack_通用技术_RPC 远程异步调用
  2. Java Review - HashMap HashSet 源码解读
  3. DL之FAN:FAN人脸对齐网络(Face Alignment depth Network)的论文简介、案例应用之详细攻略
  4. 开源社区ITGeek介绍
  5. MySql数据库安装修改密码开启远程连接图解
  6. webservice 的datetime不能为null_用.net发布一个简单的webservice
  7. 08 / LiveVideoStack主编观察:开源RTC的机会来了吗?
  8. oracle .bash_profile在哪,oracle 11g 测试用户的 .bash_profile 环境变量,路径设置
  9. 语音识别asr是什么
  10. 华为MA5200G实现radius认证登陆
  11. php网站程序更新功能,运用PHP定时自动更新网站首页HTML的方法
  12. Chrome插件分享—不定期更新
  13. Spring 动态代理
  14. OpenCV MPR.DLL WNetRestoreConnectionA相关问题
  15. matlab按图像边缘抠图_Adobe Photoshop入门教程:零基础学会PS抠图拼贴
  16. jsp里table边框线_JSP表格边框颜色
  17. java 持久监听blockqueue的变化_Curator目录监听
  18. Docker基础之安装部署
  19. 霹雳火s毕老师_$_Java笔记(一)
  20. Apple 公司的电影预告片网站

热门文章

  1. matlab 模拟风,【Matlab实现】风场仿真
  2. MyEclipse使用Maven创建web项目+搭建SSM框架教
  3. 计算机魅力沈阳一日游教案,沈阳版小学信息技术教案五年级上册全册教案
  4. X~N(0,1),如何求E(X^2),E(X^4),E(X^n)
  5. 一份只有做错的人才能做对的作业
  6. 【渝粤教育】国家开放大学2018年秋季 2019T统计学原理 参考试题
  7. php 正态分布数据描述,正态分布-统计百科- 人大经济论坛-经管百科
  8. LeetCode:390. 消除游戏————中等
  9. 海康威视旗下萤石网络上市:首日跌12% 公司市值142亿
  10. 关于HBuilderX的简单介绍