听麻麻说,偷偷收藏而不感谢是不礼貌的,至少应该点个赞~我觉得麻麻说的对!

不断地被人安利PyTorch,终于忍不住诱惑决定入坑了。

当初学习TensorFlow的时候,没有系统性地学习。之前TF的英文官网一直看不了,而中文版的文档又很烂,导致学起来一直不那么爽,每次搭建模型的时候,都要大量的回来查阅文档,对很多基本的用法搞不清楚。

当我翻看PyTorch官网的时候,一下子就爱上了它那清晰的文档和友好的入门指南。所以决定好好地系统性地把PyTorch学一学。所以,记一份适合自己的更加清晰简明的笔记,把基础打牢固,就很有必要了。

这份笔记的目的,主要是方便随时查阅,不必去看详细的冗长的原始文档。也方便跟我一样的小白可以迅速入门,进行实践。

本篇是PyTorch简明笔记第[1]篇.

安装PyTorch应该不用我多说,他们的官网很人性化地给出了各种环境应该怎么安装,网址:https://pytorch.org/get-started/locally/

像我这个破电脑没有GPU,就在CUDA那里选择None,直接在终端运行它提供的命令,就可以安装了。

安装完以后,在python里面试试 import torch,没有报错就安装好了。

一、定义/初始化张量Define tensors

tensor,即“张量”。实际上跟numpy数组、向量、矩阵的格式基本一样。但是是专门针对GPU来设计的,可以运行在GPU上来加快计算效率。

PyTorch中定义tensor,就跟numpy定义矩阵、向量差不多,例如定义一个5×3的tensor,每一项都是0的张量:

x = torch.zeros(5,3)

如果想查看某个tensor的形状的话,使用:

z.size(),或者z.shape,但是前者更常用。下面列举一些常用的定义tensor的方法:

常数初始化:torch.empty(size)返回形状为size的空tensor

torch.zeros(size)全部是0的tensor

torch.zeros_like(input)返回跟input的tensor一个size的全零tensor

torch.ones(size)全部是1的tensor

torch.ones_like(input)返回跟input的tensor一个size的全一tensor

torch.arange(start=0, end, step=1)返回一个从start到end的序列,可以只输入一个end参数,就跟python的range()一样了。实际上PyTorch也有range(),但是这个要被废掉了,替换成arange了

torch.full(size, fill_value)这个有时候比较方便,把fill_value这个数字变成size形状的张量

随机抽样(随机初始化):torch.rand(size) [0,1)内的均匀分布随机数

torch.rand_like(input)返回跟input的tensor一样size的0-1随机数

torch.randn(size)返回标准正太分布N(0,1)的随机数

torch.normal(mean, std, out=None)正态分布。这里注意,mean和std都是tensor,返回的形状由mean和std的形状决定,一般要求两者形状一样。如果,mean缺失,则默认为均值0,如果std缺失,则默认标准差为1.

二、基本操作、运算 Basic operations

1.tensor的切片、合并、变形、抽取操作

(Indexing, Slicing, Joining, Mutating)这里我就简单总结一些重要的tensor基本操作:torch.cat(seq, dim=0, out=None),把一堆tensor丢进去,按照dim指定的维度拼接、堆叠在一起.

比如:

In [70]: x = torch.tensor([[1,2,3]])

In [71]: x

Out[71]: tensor([[1, 2, 3]])

#按第0维度堆叠,对于矩阵,相当于“竖着”堆

In [72]: print(torch.cat((x,x,x),0))

tensor([[1, 2, 3],

[1, 2, 3],

[1, 2, 3]])

#按第1维度堆叠,对于矩阵,相当于“横着”拼

In [73]: print(torch.cat((x,x,x),1))

tensor([[1, 2, 3, 1, 2, 3, 1, 2, 3]])torch.chunk(tensor, chunks, dim=0)把tensor切成块,数量由chunks指定。

例如:

In [74]: a = torch.arange(10)

In [75]: a

Out[75]: tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

In [76]: torch.chunk(a,4)

Out[76]: (tensor([0, 1, 2]), tensor([3, 4, 5]), tensor([6, 7, 8]), tensor([9]))切块还有torch.split(tensor, split_size_or_sections, dim=0)具体区别大家自行查阅文档

按index选择:torch.index_select(input, dim, index, out=None)

按mask选择:torch.masked_select(input, mask, out=None)

经常会使用的“压扁”函数:torch.squeeze(input),压缩成1维。注意,压缩后的tensor和原来的tensor共享地址

改变形状:torch.reshape(input, shape)以及tensor.view(shape).前者是把tensor作为函数的输入,后者是任何tensor的函数。实际上,二者的返回值,都只是让我们从另一种视角看某个tensor,所以不会改变本来的形状,除非你把结果又赋值给原来的tensor。下面给一个例子对比二者的用法:

In [82]: a

Out[82]: tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

# 单纯的调用view函数:

In [83]: a.view(2,5)

Out[83]:

tensor([[0, 1, 2, 3, 4],

[5, 6, 7, 8, 9]])

# a的形状并不会变化

In [84]: print(a)

tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

# 试试reshape函数:

In [86]: torch.reshape(a,[5,2])

Out[86]:

tensor([[0, 1],

[2, 3],

[4, 5],

[6, 7],

[8, 9]])

# a的形状依然不会变化:

In [87]: a

Out[87]: tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

要想让a的形状变化,比如把结果赋值给a,比如a = a.view(2,5)

2.基本数学操作加法直接加:x+y

或者用torch.add(x,y).

实际上,.add()可以接受三个参数:torch.add(input, value, out=None)

out怎么用呢?一般,如果直接torch.add(x,y),那么x,y本身都不会变化的。但是如果设置out=x,那么x就变变成加和后的值。

特别的,若想进行in-place操作,就比方说y加上x,y的值就改变了,就可以用y.add_(x)这样y就直接被改变了。Torch里面所有带“_“的操作,都是in-place的。例如x.copy_(y)乘法:torch.mul(input, other, out=None)用input乘以other

除法:torch.div(input, other, out=None)用input除以other

指数:torch.pow(input, exponent, out=None)

开根号:torch.sqrt(input, out=None)

四舍五入到整数:torch.round(input, out=None)

argmax函数:torch.argmax(input, dim=None, keepdim=False)返回指定维度最大值的序号,dim给定的定义是:the demention to reduce.也就是把dim这个维度的,变成这个维度的最大值的index。例如:

sigmoid函数:torch.sigmoid(input, out=None)

tanh函数:torch.tanh(input, out=None)

torch.abs(input, out=None)取绝对值

torch.ceil(input, out=None)向上取整,等于向下取整+1

torch.clamp(input, min, max, out=None)刀削函数,把输入数据规范在min-max区间,超过范围的用min、max代替

三、Torch Tensor与Numpy的互相转换Tensor→Numpy

直接用.numpy()即可。但是注意,转换后,numpy的变量和原来的tensor会共用底层内存地址,所以如果原来的tensor改变了,numpy变量也会随之改变。参见下面的例子:

In [11]: a = torch.ones(2,4)

In [12]: a

Out[12]:

tensor([[1., 1., 1., 1.],

[1., 1., 1., 1.]])

In [13]: b = a.numpy()

In [14]: b

Out[14]:

array([[1., 1., 1., 1.],

[1., 1., 1., 1.]], dtype=float32)

In [15]: a.add_(1)

Out[15]:

tensor([[2., 2., 2., 2.],

[2., 2., 2., 2.]])

In [16]: b

Out[16]:

array([[2., 2., 2., 2.],

[2., 2., 2., 2.]], dtype=float32)

Numpy→Tensor

用torch.from_numpy()来转换。参见下面例子:

import numpy as np

a = np.ones(5)

b = torch.from_numpy(a)

np.add(a, 1, out=a)

print(a)

print(b)

输出:

[2. 2. 2. 2. 2.]

tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

同样,两者会共用内存地址。好啦,本篇就这么些了,快去练习一下吧!

参考链接:

PyTorch文档:

https://pytorch.org/docs/torch

pytorch tensor 初始化_PyTorch简明笔记[1]-Tensor的初始化和基本操作相关推荐

  1. pytorch梯度下降函数_Pytorch学习笔记6:激活函数/单层感知机/梯度下降求最小值实例...

    #添加到学习笔记2末尾,直接运行.代码意义可以看注释. #需要import以下库 import torch import numpy as np from matplotlib import pypl ...

  2. pytorch tensor 初始化_Pytorch - nn.init 参数初始化方法

    Pytorch 的参数初始化 - 给定非线性函数的推荐增益值(gain value):nonlinearity 非线性函数gain 增益 Linear / Identity1 Conv{1,2,3}D ...

  3. PyTorch基础(一)-----张量(Tensor)

    前言 很多人都会拿PyTorch和Google的Tensorflow进行比较,这个肯定是没有问题的,因为他们是最火的两个深度学习框架了.但是说到PyTorch,其实应该先说Torch. 什么是Torc ...

  4. pytorch默认初始化_PyTorch的初始化

    背景 在使用PyTorch深度学习框架的时候,不管是训练还是测试,代码中引入PyTorch的第一句总是: import torch 在Gemfield前述专栏文章里,我们已经得知,torch/csrc ...

  5. 2021 PyTorch官方实战教程(一)Tensor 详解

    点击上方"AI算法与图像处理",选择加"星标"或"置顶"重磅干货,第一时间送达 这个系列时pytorch官方实战教程,后续会继续更新.. 一 ...

  6. 【Torch笔记】Tensor 简介与创建方法

    [Torch笔记]Tensor 1 什么是 Tensor? Tensor,又称张量,它是矩阵向任意维度的推广. [Tensor 与 Variable(目前已弃用,但最好了解一下)] Variable ...

  7. pytorch中创建多个空的tensor、pycharm从自己写的.py中引用函数下面画红线等问题

    1 pytorch中创建多个空的tensor 神经网络模型搭建中,如果写一些并联的模块,例如inceptionV3等这些具有多个尺度的卷积输出,其结果需要拼接起来,需要使用nn.ModuleList( ...

  8. PyTorch中文文档阅读笔记-day1

    写在开头(重复的) 1.课程来源:torch中文教程1.7版. torch中文文档. 2.笔记目的:个人学习+增强记忆+方便回顾 3.时间:2021年4月29日 4.仅作为个人笔记,如有需要请务必按照 ...

  9. 卷积核权值初始化_Pytorch卷积层手动初始化权值的实例

    由于研究关系需要自己手动给卷积层初始化权值,但是好像博客上提到的相关文章比较少(大部分都只提到使用nn.init里的按照一定分布初始化方法),自己参考了下Pytorch的官方文档,发现有两种方法吧. ...

最新文章

  1. 第八届全球游戏大会(GMGC北京2019)
  2. labelme标注需要精确标注吗_国内需要一个数据标注平台
  3. 后台服务显示右下角弹窗 -- system权限创建用户权限进程
  4. 11.Windows线程切换_线程优先级
  5. java怎么更改id名_java - 尽管ID已更改为_id,但列'_id'不存在
  6. python标准库对象导入语句_Python标准库之Sys模块使用详解
  7. bmp180气压传感器工作原理_各种传感器工作原理汇总
  8. js的正则自定义金额输入验证函数
  9. VB根据窗口标题获取应用程序完整路径
  10. linux MySQL5.7 rpm安装
  11. XHTML下css+div编写
  12. ArcGIS Server中各种服务详解
  13. ps6人脸识别液化工具在哪_Photoshop教学:人脸识别液化功能介绍
  14. windows 查询域名DNS解析
  15. Python办公自动化实践:连接MySQL数据库实现每日定时批量发送报表邮件
  16. 元宇宙来了,用好名字好概念赋能中国制造国际营销的初步构想
  17. python入门小程序:霍兰德人格分析
  18. (转)MTK-开发平台搭建与入门教程
  19. 互联网测试岗位分类_互联网公司职位架构
  20. 【附源码】Java计算机毕业设计民宿客栈管理系统(程序+LW+部署)

热门文章

  1. PHPStorm 配置远程服务器文件夹在本地windows镜像,实现代码自动同步(类似于Samba架构文件同步功能)
  2. 【遥感物候】1983-2012年时间序列中国地区GIMMS 3g NDVI下载(已进行旋转、格式转换、投影变换和裁剪)
  3. C语言试题二十二之定义了3×3的二维数组,并在主函数中赋值。函数的功能使求出数组周边元素的平均值并作为函数值返回给主函数中的s。
  4. Android之解决卸载app后再次安装提示room数据库错误
  5. C语言之malloc和free总结
  6. linux之head命令
  7. windows下面怎么github ssh 公钥,然后克隆项目
  8. bootstrap 开源框架demo_5 个接私活必备的 Java 开源项目!
  9. 如何在Clion中使用C++调用Python代码
  10. mysql mvcc 隔离级别_隔离级别和MVCC