pytorch-神经网络拟合曲线实例
代码已经调通,跑出来的效果如下:
#coding=gbk
importtorch
importmatplotlib.pyplotasplt
fromtorch.autogradimportVariable
importtorch.nn.functionalasF
'''
Pytorch是一个拥有强力GPU加速的张量和动态构建网络的库,其主要构建是张量,所以可以把PyTorch当做Numpy
来用,Pytorch的很多操作好比Numpy都是类似的,但是其能够在GPU上运行,所以有着比Numpy快很多倍的速度。
训练完了,发现隐层越大,拟合的速度越是快,拟合的效果越是好
'''
deftrain():
print('------构建数据集------')
#torch.linspace是为了生成连续间断的数据,第一个参数表示起点,第二个参数表示终点,第三个参数表示将这个区间分成平均几份,即生成几个数据
x=torch.unsqueeze(torch.linspace(-1,1,100),dim=1)
#torch.rand返回的是[0,1]之间的均匀分布这里是使用一个计算式子来构造出一个关联结果,当然后期要学的也就是这个式子
y=x.pow(2)+0.2*torch.rand(x.size())
#Variable是将tensor封装了下,用于自动求导使用
x,y=Variable(x),Variable(y)
#绘图展示
plt.scatter(x.data.numpy(),y.data.numpy())
#plt.show()
print('------搭建网络------')
#使用固定的方式继承并重写init和forword两个类
classNet(torch.nn.Module):
def__init__(self,n_feature,n_hidden,n_output):
#初始网络的内部结构
super(Net,self).__init__()
self.hidden=torch.nn.Linear(n_feature,n_hidden)
self.predict=torch.nn.Linear(n_hidden,n_output)
defforward(self,x):
#一次正向行走过程
x=F.relu(self.hidden(x))
x=self.predict(x)
returnx
net=Net(n_feature=1,n_hidden=1000,n_output=1)
print('网络结构为:',net)
print('------启动训练------')
loss_func=F.mse_loss
optimizer=torch.optim.SGD(net.parameters(),lr=0.001)
#使用数据进行正向训练,并对Variable变量进行反向梯度传播启动100次训练
fortinrange(10000):
#使用全量数据进行正向行走
prediction=net(x)
loss=loss_func(prediction,y)
optimizer.zero_grad()#清除上一梯度
loss.backward()#反向传播计算梯度
optimizer.step()#应用梯度
#间隔一段,对训练过程进行可视化展示
ift%5==0:
plt.cla()
plt.scatter(x.data.numpy(),y.data.numpy())#绘制真是曲线
plt.plot(x.data.numpy(),prediction.data.numpy(),'r-',lw=5)
plt.text(0.5,0,'Loss='+str(loss.data[0]),fontdict={'size':20,'color':'red'})
plt.pause(0.1)
plt.ioff()
plt.show()
print('------预测和可视化------')
if__name__=='__main__':
train()
以上这篇pytorch-神经网络拟合曲线实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。