Pytorch自己加载单通道图片用作数据集训练的实例
pytorch在torchvision包里面有很多的的打包好的数据集,例如minist,Imagenet-12,CIFAR10和CIFAR100。在torchvision的dataset包里面,用的时候直接调用就行了。具体的调用格式可以去看文档(目前好像只有英文的)。网上也有很多源代码。
不过,当我们想利用自己制作的数据集来训练网络模型时,就要有自己的方法了。pytorch在torchvision.dataset包里面封装过一个函数ImageFolder()。这个函数功能很强大,只要你直接将数据集路径保存为例如“train/1/1.jpg,rain/1/2.jpg……”就可以根据根目录“./train”将数据集装载了。
dataset.ImageFolder(root="datapath",transfroms.ToTensor())
但是后来我发现一个问题,就是这个函数加载出来的图像矩阵都是三通道的,并且没有什么参数调用可以让其变为单通道。如果我们要用到单通道数据集(灰度图)的话,比如自己加载Lenet-5模型的数据集,就只能自己写numpy数组再转为pytorch的Tensor()张量了。
接下来是我做的过程:
首先,还是要用到opencv,用灰度图打开一张图片,省事。
#读取图片这里是灰度图 foriteminall_path: img=cv2.imread(item[1],0) img=cv2.resize(img,(28,28)) arr=np.asarray(img,dtype="float32") data_x[i,:,:,:]=arr i+=1 data_y.append(int(item[0])) data_x=data_x/255 data_y=np.asarray(data_y)
其次,pytorch有自己的numpy转Tensor函数,直接转就行了。
data_x=torch.from_numpy(data_x) data_y=torch.from_numpy(data_y)
下一步利用torch.util和torchvision里面的dataLoader函数,就能直接得到和torchvision.dataset里面封装好的包相同的数据集样本了
dataset=dataf.TensorDataset(data_x,data_y) loader=dataf.DataLoader(dataset,batch_size=batchsize,shuffle=True)
最后就是自己建网络设计参数训练了,这部分和文档以及github中的差不多,就不赘述了。
下面是整个程序的源代码,我利用的还是上次的车标识别的数据集,一共分四类,用的是2层卷积核两层全连接。
源代码:
#coding=utf-8
importos
importcv2
importnumpyasnp
importrandom
importtorch
importtorch.nnasnn
importtorch.utils.dataasdataf
fromtorch.autogradimportVariable
importtorch.nn.functionalasF
importtorch.optimasoptim
#训练参数
cuda=False
train_epoch=20
train_lr=0.01
train_momentum=0.5
batchsize=5
#测试训练集路径
test_path="/home/test/"
train_path="/home/train/"
#路径数据
all_path=[]
defload_data(data_path):
signal=os.listdir(data_path)
forfsingalinsignal:
filepath=data_path+fsingal
filename=os.listdir(filepath)
forfnameinfilename:
ffpath=filepath+"/"+fname
path=[fsingal,ffpath]
all_path.append(path)
#设立数据集多大
count=len(all_path)
data_x=np.empty((count,1,28,28),dtype="float32")
data_y=[]
#打乱顺序
random.shuffle(all_path)
i=0;
#读取图片这里是灰度图最后结果是i*i*i*i
#分别表示:batch大小,通道数,像素矩阵
foriteminall_path:
img=cv2.imread(item[1],0)
img=cv2.resize(img,(28,28))
arr=np.asarray(img,dtype="float32")
data_x[i,:,:,:]=arr
i+=1
data_y.append(int(item[0]))
data_x=data_x/255
data_y=np.asarray(data_y)
#lener=len(all_path)
data_x=torch.from_numpy(data_x)
data_y=torch.from_numpy(data_y)
dataset=dataf.TensorDataset(data_x,data_y)
loader=dataf.DataLoader(dataset,batch_size=batchsize,shuffle=True)
returnloader
#printdata_y
train_load=load_data(train_path)
test_load=load_data(test_path)
classL5_NET(nn.Module):
def__init__(self):
super(L5_NET,self).__init__();
#第一层输入1,20个卷积核每个5*5
self.conv1=nn.Conv2d(1,20,kernel_size=5)
#第二层输入20,30个卷积核每个5*5
self.conv2=nn.Conv2d(20,30,kernel_size=5)
#drop函数
self.conv2_drop=nn.Dropout2d()
#全链接层1,展开30*4*4,连接层50个神经元
self.fc1=nn.Linear(30*4*4,50)
#全链接层1,50-4,4为最后的输出分类
self.fc2=nn.Linear(50,4)
#前向传播
defforward(self,x):
#池化层1对于第一层卷积池化,池化核2*2
x=F.relu(F.max_pool2d(self.conv1(x),2))
#池化层2对于第二层卷积池化,池化核2*2
x=F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)),2))
#平铺轴30*4*4个神经元
x=x.view(-1,30*4*4)
#全链接1
x=F.relu(self.fc1(x))
#dropout链接
x=F.dropout(x,training=self.training)
#全链接w
x=self.fc2(x)
#softmax链接返回结果
returnF.log_softmax(x)
model=L5_NET()
ifcuda:
model.cuda()
optimizer=optim.SGD(model.parameters(),lr=train_lr,momentum=train_momentum)
#预测函数
deftrain(epoch):
model.train()
forbatch_idx,(data,target)inenumerate(train_load):
ifcuda:
data,target=data.cuda(),target.cuda()
data,target=Variable(data),Variable(target)
#求导
optimizer.zero_grad()
#训练模型,输出结果
output=model(data)
#在数据集上预测loss
loss=F.nll_loss(output,target)
#反向传播调整参数pytorch直接可以用loss
loss.backward()
#SGD刷新进步
optimizer.step()
#实时输出
ifbatch_idx%10==0:
print('TrainEpoch:{}[{}/{}({:.0f}%)]\tLoss:{:.6f}'.format(
epoch,batch_idx*len(data),len(train_load.dataset),
100.*batch_idx/len(train_load),loss.data[0]))
#
#测试函数
deftest(epoch):
model.eval()
test_loss=0
correct=0
fordata,targetintest_load:
ifcuda:
data,target=data.cuda(),target.cuda()
data,target=Variable(data,volatile=True),Variable(target)
#在测试集上预测
output=model(data)
#计算在测试集上的loss
test_loss+=F.nll_loss(output,target).data[0]
#获得预测的结果
pred=output.data.max(1)[1]#gettheindexofthemaxlog-probability
#如果正确,correct+1
correct+=pred.eq(target.data).cpu().sum()
#loss计算
test_loss=test_loss
test_loss/=len(test_load)
#输出结果
print('\nThe{}epochresult:Averageloss:{:.6f},Accuracy:{}/{}({:.2f}%)\n'.format(
epoch,test_loss,correct,len(test_load.dataset),
100.*correct/len(test_load.dataset)))
forepochinrange(1,train_epoch+1):
train(epoch)
test(epoch)
最后的训练结果和在keras下差不多,不过我训练的时候好像把训练集和测试集弄反了,数目好像测试集比训练集还多,有点尴尬,不过无伤大雅。结果图如下:
以上这篇Pytorch自己加载单通道图片用作数据集训练的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。