概述
- 一、维度拼接之torch.cat()与torch.stack()
- 二、维度变化之torch.view()
- 三、torch.resize_
- 四、torch.reshape
- 五、维度增加之torch.unsqueeze
- 六、维度交换之torch.permute()与np.transpose()
- 七、通过None和0来增加维度和减少维度
- 总结:
参考链接: https://blog.csdn.net/weicao1990/article/details/93618136
一、维度拼接之torch.cat()与torch.stack()
添加链接描述
Pytorch 维度拼接与维度拆分
torch.cat()按照指定维度拼接张量,除了要拼接那维之外其他维度要相同,所以结果不会增加维度,一维还是一维的,二维还是二维的,一般用在特征图之间的concatenate。
torch.stack()在指定维度上增加一个维度,会增加新的维度,常用在调整常量的维度形状。
import torch
a = torch.rand(4, 32, 8)
b = torch.rand(4, 32, 8)
# 在第一个维度进行拼接
print(torch.cat([a, b], dim = 0).shape)
print(torch.stack([a,b],dim = 0).shape)
a = torch.tensor([1,2,3])
b = torch.tensor([4,5,6])
print(torch.cat([a, b]))
print(torch.stack([a,b]))
结果:
torch.Size([8, 32, 8])
torch.Size([2, 4, 32, 8])
tensor([1, 2, 3, 4, 5, 6])
tensor([[1, 2, 3],
[4, 5, 6]])
二、维度变化之torch.view()
添加链接描述
是pytorch中改变张量shape的函数,相当于numpy中的resize()(可修改原数据长度)与reshape()(需要与原数据长度一致)和tensorflow中的reshape()。
tensor.view(-1)是将张量变成一维。与原tensor共享内存区域,输入的tensor需要是连续的,如果不是需要先contiguous。
x = torch.randn(4, 4)
print(x.size())
y = x.view(16)
print(y.size())
z = x.view(-1, 8)
# -1表示该维度取决于其它维度大小,即(4*4)/ 8
print(z.size())
m = x.view(2, 2, 4) # 也可以变为更多维度
print(m.size())
a = torch.Tensor([[1, 2, 3], [4, 5, 6]]) # 定义一个 2*3 的 Tensor
a = a.view(-1)
print(a)
输出结果为:
torch.Size([4, 4])
torch.Size([16])
torch.Size([2, 8])
torch.Size([2, 2, 4])
tensor([1., 2., 3., 4., 5., 6.])
三、torch.resize_
添加链接描述
改变张量的尺寸
四、torch.reshape
添加链接描述
PyTorch:view() 与 reshape() 区别详解
与torch.resize()函数功能一致,但是是重新复制一遍内存区域,且不需要是连续的,所以torch.reshape() = torch.resize() + torch.resize().contiguous()
五、维度增加之torch.unsqueeze
unsqueeze()用来添加维度
squeeze()用来删除维度为一的维度或者删除指定维度唯一的维度
六、维度交换之torch.permute()与np.transpose()
官方文档 numpy.ndarray.transpose()
官方文档 torch.transpose()
torch.permute()与np.transpose()功能类似,可作用与多维度的维度交换,而torch,transpose()只能作用于两个维度的交换(转置)。不加参数默认是转置,即将所有维度倒过来。
七、通过None和0来增加维度和减少维度
功能类似于unsqueeze与squeeze
pytorch特殊索引切片
import torch
a = torch.tensor([1.4,1.0,1.7])
b = a[None, : ]
c = a[:, None]
print(a.shape)
print(b.shape)
print(c.shape)
结果:
torch.Size([3])
torch.Size([1, 3])
torch.Size([3, 1])
import torch
a = torch.tensor([[1.4,1.0,1.7],[1.7,1.0,1.4]])
b = a[0, : ]
c = a[:, 0]
print(a.shape)
print(b.shape)
print(c.shape)
结果:
torch.Size([2, 3])
torch.Size([3])
torch.Size([2])
总结:
交换维度用torch.permute()或者ndarray.transpose()或者切片。
增加维度用torch.unsqueeze()或者切片加None,j减少维度用squeeze或者切片加0。
import torch
a = torch.tensor([[1,2,3],[4,5,6]])
print(a.shape)
print(a[None].shape)
print(a[None,:].shape)
print(a[None,:,:].shape)
print(a[None,...].shape)
print(a[:,None,:].shape)
print(a[0,:].shape)
结果:
torch.Size([2, 3])
torch.Size([1, 2, 3])
torch.Size([1, 2, 3])
torch.Size([1, 2, 3])
torch.Size([1, 2, 3])
torch.Size([2, 1, 3])
torch.Size([3])
最后
以上就是难过戒指为你收集整理的pytorch学习笔记——张量维度操作一、维度拼接之torch.cat()与torch.stack()二、维度变化之torch.view()三、torch.resize_四、torch.reshape五、维度增加之torch.unsqueeze六、维度交换之torch.permute()与np.transpose()七、通过None和0来增加维度和减少维度总结:的全部内容,希望文章能够帮你解决pytorch学习笔记——张量维度操作一、维度拼接之torch.cat()与torch.stack()二、维度变化之torch.view()三、torch.resize_四、torch.reshape五、维度增加之torch.unsqueeze六、维度交换之torch.permute()与np.transpose()七、通过None和0来增加维度和减少维度总结:所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复