view用法
Tensor.view(*shape) → Tensor
通俗理解:
把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是
连续存储
的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3],[4,5,6]]]还是[1,2,3,4,5,6],因为它们排成一维向量都是6个元素,所以只要view后面的参数一致,得到的结果都是一样的。比如,
a=torch.Tensor([[[1,2,3],[4,5,6]]])
b=torch.Tensor([1,2,3,4,5,6])
print(a.view(1,6))
print(b.view(1,6))
#输出tensor([[1., 2., 3., 4., 5., 6.]])
那和permute的区别呢?
再看一个例子:
import torch
import numpy as np
a=torch.Tensor([[[1,2,3],[4,5,6]]])
view=a.view(3,2)#输入的是shape
permuted=a.permute(2,0,1) #输入的是维度dim
print(f"view函数:\n{view}\n")
print(f"permute函数:\n{permuted}\n")
'''
输出:
view函数:
tensor([[1., 2.],
[3., 4.],
[5., 6.]])
permute函数:
tensor([[[1., 4.]],
[[2., 5.]],
[[3., 6.]]])
'''
与reshape的区别
根据
这篇文章
,在pytorch的最新版本0.4版本中,增加了torch.reshape(),与 numpy.reshape() 的功能类似,大致相当于 tensor.contiguous().view(),这样就省去了对tensor做view()变换前,调用contiguous()的麻烦
这是因为使用view函数之前必须保证tensor是连续存取的,为什么看这里
https://zhuanlan.zhihu.com/p/64551412
版权声明:本文为qq_43678005原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。