PyTorch 的安装可以到官网 https://pytorch.org/,选择适合自己机器以及安装方式,执行对应的命令即可。
除了安装 PyTorch 之外,建议也安装 torchvision 包。torchvision 包是服务于 PyTorch 深度学习框架的,用来生成图片、视频数据集和一些流行的模型类和预训练模型。

简单来说,torchvisiontorchvision.datasetstorchvision.modelstorchvision.transformstorchvision.utils 四个模块组成。

PyTorch 中的张量(Tensor)类似 NumPy 中的 ndarrays,之所以称之为 Tensor 的另一个原因是它可以运行在 GPU 中,以加速运算。

PyTorch 中的 Tensor 也有自己的数据类型定义方式,常用的如下。

1. Tensor 基本数据类型

1.1 torch.FloatTensor

用于生成数据类型为浮点型的 Tensor,传递给 torch.FloatTensor 的参数可以是一个列表,也可以是一个维度值。

import torcha = torch.FloatTensor(2, 3)
b = torch.FloatTensor([1, 2, 3, 4])

输出结果:

tensor([[2.3489e-37, 4.5835e-41, 2.3489e-37],[4.5835e-41, 4.4842e-44, 0.0000e+00]])tensor([1., 2., 3., 4.])

可以看到,打印输出的两组变量数据类型都显示为浮点型,不同的是,前面的一组是按照我们指定的维度随机生成的浮点型 Tensor 而另外一组是按我们给定的列表生成的浮点型 Tensor

1.2 torch.IntTensor

用于生成数据类型为整型的 Tensor。传递给 torch.IntTensor 的参数可以是一个列表,也可以是一个维度值。

import torcha = torch.IntTensor(2, 3)
b = torch.IntTensor([1, 2, 3, 4])

输出结果:

tensor([[1491430264,      32561, 1491430264],[     32561,  808464432,  808463205]], dtype=torch.int32)
tensor([1, 2, 3, 4], dtype=torch.int32)

可以看出输出的数据类型都为整形(torch.int32

1.3 torch.rand

用于生成数据类型为浮点型且维度指定的随机 Tensor,和在 NumPy 中使用 numpy.rand 生成随机数的方法类似,随机生成的浮点数据在 0~1 区间均匀分布。

import torcha = torch.rand(2, 3)

输出结果:

tensor([[0.6882, 0.4118, 0.2646],[0.0583, 0.2187, 0.8093]])

1.4 torch.randn

用于生成数据类型为浮点型且维度指定的随机 Tensor,和在 NumPy 中使用 numpy.randn 生成随机数的方法类似,随机生成的浮点数的取值满足均值为 0、方差为 1 的正态分布。

import torcha = torch.randn(2, 3)

输出结果:

tensor([[ 0.2214, -0.0139, -0.0720],[ 0.2548, -1.3364,  0.3924]])

1.5 torch.arange

用于生成数据类型为浮点型且自定义起始范围和结束范围的 Tensor,所以传递给 torch.arange 的参数有三个,分别是范围的起始值、范围的结束值和步长,其中,步长用于指定从起始值到结束值的每步的数据间隔。

import torcha = torch.arange(1, 10, 2)

输出结果:

tensor([1, 3, 5, 7, 9])

1.6 torch.zeros

用于生成数据类型为浮点型且维度指定的 Tensor,不过这个浮点型的 Tensor中的元素值全部为 0

import torcha = torch.zeros(2, 3, dtype=torch.int8)
print a

输出结果:

tensor([[0, 0, 0],[0, 0, 0]], dtype=torch.int8)

2. Tensor 基本运算

2.1 torch.abs

将参数传递到 torch.abs 后返回输入参数的绝对值作为输出,输入参数必须是一个 Tensor 数据类型的变量。

import torch
a = torch.randn(2, 3)
print a
b = torch.abs(a)
print b

输出结果:

tensor([[ 0.4873,  0.8172,  0.2003],[ 0.6815,  1.5656, -0.8303]])
tensor([[0.4873, 0.8172, 0.2003],[0.6815, 1.5656, 0.8303]])

2.2 torch.add

将参数传递到 torch.add 后返回输入参数的求和结果作为输出,输入参数既可以全部是 Tensor 数据类型的变量,也可以一个是 Tensor 数据类型的变量,另一个是标量。

a = torch.ones([2, 3])
print a
b = torch.add(a, 10)
print b
c = torch.randn([2, 3])
print c
d = torch.add(a, c)
print d

输出结果:

tensor([[1., 1., 1.],[1., 1., 1.]])
tensor([[11., 11., 11.],[11., 11., 11.]])
tensor([[ 0.4276,  0.4618, -0.9449],[-1.4758, -1.3118, -0.2859]])
tensor([[ 1.4276,  1.4618,  0.0551],[-0.4758, -0.3118,  0.7141]])

2.3 torch.clamp

对输入参数按照自定义的范围进行裁剪,最后将参数裁剪的结果作为输出。所以输入参数一共有三个,分别是需要进行裁剪的 Tensor 数据类型的变量、裁剪的上边界和裁剪的下边界。

具体的裁剪过程是:使用变量中的每个元素分别和裁剪的上边界及裁剪的下边界的值进行比较,如果元素的值小于裁剪的下边界的值,该元素就被重写成裁剪的下边界的值;同理,如果元素的值大于裁剪的上边界的值,该元素就被重写成裁剪的上边界的值。

a = torch.randn(2,3)
print a
b = torch.clamp(a, -0.1, 0.1)
print b

输出结果:

tensor([[-1.0129, -1.3094,  0.4644],[ 1.0542, -0.5259, -0.3575]])
tensor([[-0.1000, -0.1000,  0.1000],[ 0.1000, -0.1000, -0.1000]])

2.4 torch.div

将参数传递到 torch.div 后返回输入参数的求商结果作为输出,同样,参与运算的参数可以全部是 Tensor 数据类型的变量,也可以是 Tensor 数据类型的变量和标量的组合。

a = torch.IntTensor([2,4,6,8,10])
print a
b = torch.div(a, 2)
print b
c = torch.IntTensor([2,4,6,8,10])
d = torch.div(a, c)
print d

输出结果:

tensor([ 2,  4,  6,  8, 10], dtype=torch.int32)
tensor([1, 2, 3, 4, 5], dtype=torch.int32)
tensor([1, 1, 1, 1, 1], dtype=torch.int32)

2.5 torch.mul

将参数传递到 torch.mul 后返回输入参数求积的结果作为输出,参与运算的参数可以全部是 Tensor 数据类型的变量,也可以是 Tensor 数据类型的变量和标量的组合。

a = torch.IntTensor([2,4,6,8,10])
print a
b = torch.mul(a, 2)
print b
c = torch.IntTensor([2,4,6,8,10])
d = torch.mul(a, c)
print d

输出结果:

tensor([ 2,  4,  6,  8, 10], dtype=torch.int32)
tensor([ 4,  8, 12, 16, 20], dtype=torch.int32)
tensor([  4,  16,  36,  64, 100], dtype=torch.int32)

2.6 torch.pow

将参数传递到 torch.pow 后返回输入参数的求幂结果作为输出,参与运算的参数可以全部是 Tensor 数据类型的变量,也可以是 Tensor 数据类型的变量和标量的组合。

a = torch.IntTensor([2,4,6,8,10])
print a
b = torch.pow(a, 2)
print b
c = torch.IntTensor([3,3,3,3,3])
d = torch.pow(a, c)
print d

输出结果:

tensor([ 2,  4,  6,  8, 10], dtype=torch.int32)
tensor([  4,  16,  36,  64, 100], dtype=torch.int32)
tensor([   8,   64,  216,  512, 1000], dtype=torch.int32)

2.7 torch.mm

将参数传递到 torch.mm 后返回输入参数的求积结果作为输出,不过这个求积的方式和之前的 torch.mul 运算方式不太一样, torch.mm 运用矩阵之间的乘法规则进行计算,所以被传入的参数会被当作矩阵进行处理,参数的维度自然也要满足矩阵乘法的前提条件,即前一个矩阵的行数必须和后一个矩阵的列数相等,否则不能进行计算。

a = torch.IntTensor([[1,2,3], [4,5,6]])
print a
b = torch.IntTensor([[1,2], [4,5], [7, 8]])
print b
c = torch.mm(a, b)
print c

输出结果:

tensor([[1, 2, 3],[4, 5, 6]], dtype=torch.int32)
tensor([[1, 2],[4, 5],[7, 8]], dtype=torch.int32)
tensor([[30, 36],[66, 81]], dtype=torch.int32)

2.8 torch.mv

将参数传递到 torch.mv 后返回输入参数的求积结果作为输出,torch.mv 运用矩阵与向量之间的乘法规则进行计算,被传入的参数中的第 1 个参数代表矩阵,第 2 个参数代表向量,顺序不能颠倒。

a = torch.IntTensor([[1,0,0], [0,0,1]])
print a
b = torch.IntTensor([3,3,3])
print b
c = torch.mv(a, b)
print c

输出结果:

tensor([[1, 0, 0],[0, 0, 1]], dtype=torch.int32)
tensor([3, 3, 3], dtype=torch.int32)
tensor([3, 3], dtype=torch.int32)

3. Tensor 与 NumPy

Tensor 可以与 NumPy 相互转化。

  • Tensor 转化为 NumPy
In[2]: import torch
In[3]: a = torch.ones(5)
In[4]: a
Out[4]: tensor([1., 1., 1., 1., 1.])
In[5]: b = a.numpy()
In[6]: b
Out[6]: array([1., 1., 1., 1., 1.], dtype=float32)
  • NumPy 转化为 Tensor
In[7]: import numpy as np
In[8]: a = np.ones(5)
In[9]: a
Out[9]: array([1., 1., 1., 1., 1.])
In[10]: b = torch.from_numpy(a)
In[11]: b
Out[11]: tensor([1., 1., 1., 1., 1.], dtype=torch.float64)

值得注意的是,Torch 中的 Tensor 和 NumPy 中的 Array 共享内存位置,一个改变,另一个也同样改变。注意使用的是 b.add_()

In[15]: b.add_(1)
Out[15]: tensor([2., 2., 2., 2., 2.], dtype=torch.float64)
In[16]: a
Out[16]: array([2., 2., 2., 2., 2.])
In[17]: b
Out[17]: tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

下面看使用 b.add() 发现 b 并没有改变。

In[18]: b.add(2)
Out[18]: tensor([4., 4., 4., 4., 4.], dtype=torch.float64)
In[19]: a
Out[19]: array([2., 2., 2., 2., 2.])
In[20]: b
Out[20]: tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

b.add_()b.add() 的区别
任何操作符都固定地在前面加上 _ 来表示替换。例如:y.copy_(x)y.t_(),都将改变 y。

4. Tensor 用 GPU 加速

Tensor 可以被移动到任何设备中,例如 GPU 以加速运算,使用 .to 方法即可。

x = torch.randn(1)
if torch.cuda.is_available():device = torch.device("cuda")            y = torch.ones_like(x, device=device)    # directly create a tensor on GPUx = x.to(device)                         z = x + yprint(z)print(z.to("cpu", torch.double))

输出:

tensor([ 2.0718], device='cuda:0')
tensor([ 2.0718], dtype=torch.float64)

PyTorch 安装和基本运算— Tensor 的数据类型(浮点型、整型、随机浮点型等)、基本运算(绝对值、求和、裁剪、求商、求积、求幂等)、Tensor 与 Numpy 转换相关推荐

  1. R语言ggplot2可视化:使用scale_y_continous函数自定义指定Y轴的坐标范围以及对应的数值、将坐标轴的数值设置为需要的数据类型(整型、浮点型)

    R语言ggplot2可视化:使用scale_y_continous函数自定义指定Y轴的坐标范围以及对应的数值.将坐标轴的数值设置为需要的数据类型(整型.浮点型) 目录

  2. Python混淆矩阵可视化:plt.colorbar函数自定义颜色条的数值标签、配置不同情况下颜色条的数值范围以及数据类型(整型、浮点型)

    Python混淆矩阵可视化:plt.colorbar函数自定义颜色条的数值标签.配置不同情况下颜色条的数值范围以及数据类型(整型.浮点型) 目录

  3. java数据类型(整型、浮点型、char类型、boolean型、类型转换)

    文章目录 0.思维导图总览 1.整型 2.浮点型 3.char型 4.boolean型 5.java内置常量对应数据类型的取值范围 6.数据类型默认值 7.数值类型之间的转换 (1)定义数据类型后自动 ...

  4. uint是什么数据类型_3. Go语言数据类型:整型与浮点型

    大家好,我是明哥. 由于某些不可抗力,之前该专栏的所有内容都被删除了.因此之后的一段时间内,我会重新发布这些文章,先给已经看过的关注者提个醒. 本文原文:http://golang.iswbm.com ...

  5. php 整形转浮点型,整型与浮点型相互转换

    C语言浮点型转换为整型怎么转换的? 例如 float a=5.75 (int)a 夜影驱动编程小编今天和大家分享出来是5,为什么不是6? C语言有以下几种取整方法: 直接赋值给整数变量.如: int ...

  6. mysql约束条件整型_MySQL 数据类型(整型,浮点型,字符类型,日期类型,枚举和集合) 约束条件 自增...

    存储引擎补充: 不同的应用软件处理不同类型的数据 MySQL5.5版本及以上默认的存储引擎为innodb innodb:支持行锁表锁,外键,事物,安全性更高,教myisam数据更安全 myisam:仅 ...

  7. C++数据类型(整型、浮点型、字符型、字符串型、布尔型)

    文章目录 1 整型 2 sizeof关键字 3 浮点型(实型) 4 字符型 5 转义字符 6 字符串型 7 布尔类型 bool 8 C++数据类型小结 9 数据的输入 C++创建变量或常量时,必须指定 ...

  8. go语言基础-数据类型- 整型,浮点型,布尔型

    基本数据类型 整型和浮点型 字符串 布尔类型 所有的语言都包含这三部分,我们之前学过的shell脚本也一样: 1. 整型和浮点型 package mainimport ("fmt" ...

  9. python2的默认数字类型_伪·从零开始学Python - 2.2.1 基本数据类型 - 整型与浮点型...

    又是好久不见. 数据类型简介 尽管都是0和1的序列,但数据在计算机里的存储方式千差万别.我们考虑存储空间.字节大小.效率.容错性等因素,根据数据的不同,也会让计算机以不同的方式存储数据.这些方式的不同 ...

  10. 数据类型-整型、浮点型、复数

    数据类型 数据类型:整型int,浮点型float,字符串str,列表list,字典dict,布尔值bool 什么是数据类型:衡量/记录事物的状态/特征 什么是类型:不同的数据应该有不同的类型来保存.比 ...

最新文章

  1. 码分复用的matlab仿真,基于matlab的多路时分复用仿真.doc
  2. mybatis中的TypeAliasRegistry
  3. Java Number shortValue()方法与示例
  4. oracle容器部署,Linux docker oracle 部署
  5. 动态规划 —— 求解通配符问题(wildcard)
  6. 5G O-RAN 一体式小基站硬件白盒化的参考架构
  7. 计算机病毒是通过内存传播吗,计算机病毒的工作过程
  8. 荔枝软件如何测试声音,荔枝如何测自己的声音 荔枝测自己的声音方法
  9. java面试题:重写和重载的区别——详解
  10. 大秦帝国部:黑色裂变(上卷)读后感
  11. c语言 快排,C语言 快排函数
  12. 广州计算机行业目前发展趋势,2019年中国广东电子制造业产业发展概况及发展趋势分析[图]...
  13. 使用fiddle处理跨域
  14. 国内外自然语言处理(NLP)研究组
  15. 性能问题从发现到优化一般思路
  16. WIFI6:WLAN 组播转单播原理与测试
  17. 搜索优化—如何在Google搜索引擎上排名靠前Google左侧排名
  18. 收藏的技术资料下载网址
  19. 行泊一体冰火两重天:1000万辆市场释放,量产难题待解
  20. 微博mysql表设计思路

热门文章

  1. 伍六七带你学算法 入门篇——最后一个单词的长度
  2. 2022-2028年中国HDPE膜行业市场研究及投资发展分析报告
  3. flask 学习实战项目实例
  4. 分析两小段c++代码 关于unsigned运算的坑
  5. 【Design pattern】简单工厂过渡策略模式
  6. Google Colab 免费GPU服务器使用教程 挂载云端硬盘
  7. TENSORFLOW变量作用域(VARIABLE SCOPE)
  8. LeetCode简单题之重新分配字符使所有字符串都相等
  9. 通俗易懂的Go协程的引入及GMP模型简介
  10. 交换机应用寻找10个完美的因素