对Pytorch中Tensor的各种池化操作解析
AdaptiveAvgPool1d(N)
对一个C*H*W的三维输入Tensor,池化输出为C*H*N,即按照H轴逐行对W轴平均池化
>>>a=torch.ones(2,3,4) >>>a[0,1,2]=0 >>>>a tensor([[[1.,1.,1.,1.], [1.,1.,0.,1.], [1.,1.,1.,1.]], [[1.,1.,1.,1.], [1.,1.,1.,1.], [1.,1.,1.,1.]]]) >>>nn.AdaptiveAvgPool1d(5)(a) tensor([[[1.0000,1.0000,1.0000,1.0000,1.0000], [1.0000,1.0000,0.5000,0.5000,1.0000], [1.0000,1.0000,1.0000,1.0000,1.0000]], [[1.0000,1.0000,1.0000,1.0000,1.0000], [1.0000,1.0000,1.0000,1.0000,1.0000], [1.0000,1.0000,1.0000,1.0000,1.0000]]]) >>>nn.AdaptiveAvgPool1d(1)(a) tensor([[[1.0000], [0.7500], [1.0000]], [[1.0000], [1.0000], [1.0000]]])
AdaptiveAvgPool2d((M,N))
对一个B*C*H*W的四维输入Tensor,池化输出为B*C*M*N,即按照C轴逐通道对H*W平面平均池化
>>>a=torch.ones(2,2,3,4) >>>a[:,:,:,1]=0 >>>a tensor([[[[1.,0.,1.,1.], [1.,0.,1.,1.], [1.,0.,1.,1.]], [[1.,0.,1.,1.], [1.,0.,1.,1.], [1.,0.,1.,1.]]], [[[1.,0.,1.,1.], [1.,0.,1.,1.], [1.,0.,1.,1.]], [[1.,0.,1.,1.], [1.,0.,1.,1.], [1.,0.,1.,1.]]]]) >>>nn.AdaptiveAvgPool2d((1,2))(a) tensor([[[[0.5000,1.0000]], [[0.5000,1.0000]]], [[[0.5000,1.0000]], [[0.5000,1.0000]]]]) >>>nn.AdaptiveAvgPool2d(1)(a) tensor([[[[0.7500]], [[0.7500]]], [[[0.7500]], [[0.7500]]]])
AdaptiveAvgPool3d((M,N,K))
对一个B*C*D*H*W的五维输入Tensor,池化输出为B*C*M*N*K,即按照C轴逐通道对D*H*W平面平均池化
>>>a=torch.ones(1,2,2,3,4) >>>a[0,0,:,:,0:2]=0 >>>a tensor([[[[[0.,0.,1.,1.], [0.,0.,1.,1.], [0.,0.,1.,1.]], [[0.,0.,1.,1.], [0.,0.,1.,1.], [0.,0.,1.,1.]]], [[[1.,1.,1.,1.], [1.,1.,1.,1.], [1.,1.,1.,1.]], [[1.,1.,1.,1.], [1.,1.,1.,1.], [1.,1.,1.,1.]]]]]) >>>nn.AdaptiveAvgPool3d((1,1,2))(a) tensor([[[[[0.,1.]]], [[[1.,1.]]]]]) >>>nn.AdaptiveAvgPool3d(1)(a) tensor([[[[[0.5000]]], [[[1.0000]]]]])
以上这篇对Pytorch中Tensor的各种池化操作解析就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。