pytorch中nn.Conv1d的用法详解
先粘贴一段officialguide:nn.conv1d官方
我一开始被in_channels、out_channels卡住了很久,结果发现就和conv2d是一毛一样的。话不多说,先粘代码(菜鸡的自我修养)
classCNN1d(nn.Module): def__init__(self): super(CNN1d,self).__init__() self.layer1=nn.Sequential( nn.Conv1d(1,100,2), nn.BatchNorm1d(100), nn.ReLU(), nn.MaxPool1d(8)) self.layer2=nn.Sequential( nn.Conv1d(100,50,2), nn.BatchNorm1d(50), nn.ReLU(), nn.MaxPool1d(8)) self.fc=nn.Linear(300,6) defforward(self,x): #input.shape:(16,1,425) out=self.layer1(x) out=out.view(out.size(0),-1) out=self.fc(out) returnout
输入的数据格式是(batch_size,word_vector,sequence_length),我设置的batch=16,特征工程样本是1x425,套用该格式就应该是(16,1,425)。对应nn.Conv1d的in_channels=1,out_channels就是你自己设置的,我选择的是100。
因为我做的是分类场景,所以做完两次一维卷积后还要加上一个线性层。
以上这篇pytorch中nn.Conv1d的用法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。