Pytorch之view及view_as使用详解
view()函数是在torch.Tensor.view()下的一个函数,可以有tensor调用,也可以有variable调用。
其作用在于返回和原tensor数据个数相同,但size不同的tensor
【Numpy中的size是元素个数,但是在Pytorch中size等价为Numpy中的shape】
view函数的-1参数的作用在于基于另一参数,自动计算该维度的大小
很重要的一点
view函数只能由于contiguous的张量上,具体而言,就是在内存中连续存储的张量。
具体而言,可以参看https://www.nhooo.com/article/177564.htm
所以,当tensor之前调用了transpose,permute函数就会是tensor内存中变得不再连续,就不能调用view函数。
所以,应该提前做tensor.contiguous()的操作
view函数与Pytorch0.4中新增的reshape的区别
reshape函数调用是不依赖于tensor在内存中是不是连续的。
即
reshape≈tensor.contiguous().view
代码
importnumpyasnp importtorch fromtorch.autogradimportVariable x=torch.Tensor(2,2,2) print(x) y=x.view(1,8) print(y) z=x.view(-1,4)#thesize-1isinferredfromotherdimensions print(z) t=x.view(8) print(t)
输出
tensor([[[1.3712e-14,6.4069e+02], [4.3066e+21,1.1824e+22]], [[4.3066e+21,6.3828e+28], [3.8016e-39,0.0000e+00]]]) #x.view(1,8)生成的是[1,8]的张量 tensor([[1.3712e-14,6.4069e+02,4.3066e+21,1.1824e+22,4.3066e+21,6.3828e+28, 3.8016e-39,0.0000e+00]]) #x.view(-1,4)其中-1是在4下的另一个维度的大小,也就是8/4=2,所以生成的是[2,4]的张量 tensor([[1.3712e-14,6.4069e+02,4.3066e+21,1.1824e+22], [4.3066e+21,6.3828e+28,3.8016e-39,0.0000e+00]]) x.view(8)生成的是[8,]的张量,是个数组 tensor([1.3712e-14,6.4069e+02,4.3066e+21,1.1824e+22,4.3066e+21,6.3828e+28, 3.8016e-39,0.0000e+00])
view_as
返回被视作与给定的tensor相同大小的原tensor。等效于:
self.view(tensor.size())
具体用法为:
代码
a=torch.Tensor(2,4) b=a.view_as(torch.Tensor(4,2)) print(b)
输出
tensor([[1.3712e-14,6.4069e+02], [4.3066e+21,1.1824e+22], [4.3066e+21,6.3828e+28], [3.8016e-39,0.0000e+00]])
以上这篇Pytorch之view及view_as使用详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。