Keras框架中的epoch、bacth、batch size、iteration使用介绍
1、epoch
Keras官方文档中给出的解释是:“简单说,epochs指的就是训练过程接中数据将被“轮”多少次”
(1)释义:
训练过程中当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一个epoch,网络会在每个epoch结束时报告关于模型学习进度的调试信息。
(2)为什么要训练多个epoch,即数据要被“轮”多次
在神经网络中传递完整的数据集一次是不够的,对于有限的数据集(是在批梯度下降情况下),使用一个迭代过程,更新权重一次或者说使用一个epoch是不够的,需要将完整的数据集在同样的神经网络中传递多次,随着epoch次数增加,神经网络中的权重的更新次数也增加,模型从欠拟合变得过拟合。
2、batch
(1)keras官方文档中给出的解释:
深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式:
第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这种称为Batchgradientdescent,批梯度下降
另一种,每看一个数据就算一下损失函数,然后求梯度更新参数,这个称为随机梯度下降,stochasticgradientdescent.这个方法速度比较快,但是收敛性能不太好,可能在最优点附近晃来晃去,hit不到最优点,两次参数的更新也有可能互相抵消掉,造成目标函数震荡的比较剧烈。
为了克服两种方法的缺点,现在一般采用的是一种折中手段,mini-batchgradientdecent,小批的梯度下降,这种方法把数据分为若干个批,按批来更新参数,这样,一个批中的一组数据共同决定了本次梯度的方向,下降起来就不容易跑偏,减少了随机性。另一方面因为批的样本数与整个数据集相比小了很多,计算量也不是很大。
(2)batch_size:
Keras中参数更新是按批进行的,就是小批梯度下降算法,把数据分为若干组,称为batch,按批更新参数,这样,一个批中的一组数据共同决定了本次梯度的方向,一批数据中包含的样本数量称为batch_size。
3、iteration
将数据分为几个batch而不是一次性通过神经网络时,iteration是batch需要完成一个epoch的次数,也就是numberofbatches(区别于batchsize),在一次epoch中numberofbatches=iteration=训练样本总数/batchsize
比如,对于一个有2000个训练样本的数据集,将2000个样本分成大小为500的batch,那么完成一个epoch需要4个iteration
4、batchsize和epoch的选取
(1)训练网络过程中,一个batch中的样本规模大小,即batchsize和epoch个数一起通过影响更新权重的频率定义了网络学习数据的速度。
对于固定的epoch:
(a)在合理范围内,随着batchsize增大,跑完一次epoch所需的迭代数减少,对于相同数据量的处理速度进一步加快,确定的下降方向越准,引起的训练震荡越小。
(b)batchsize过大时,跑完一次epoch所需的迭代数减少,想要达到相同的精度,所花费的时间大大增加了,从而对参数的修正也变得缓慢,batchsize增大到一定程度,其确定的下降方向已经基本不再变化
对于固定的batchsize:
(a)在合理范围内随着epoch的增加,训练集和测试集的误差呈下降趋势,模型的训练有了效果
(b)随着epoch的继续增加,训练集的误差呈下降而测试集的误差呈上升趋势,模型过拟合训练集对测试集性能不好
(2)实验实验,通过实验+经验选取合适的batchsize和epoch
补充知识:keras指定batchsize
具体的测试可以将keras中的第6.4程序
1、Sequential情况下
如果想要指定批次的大小,需要在第一层的输入形状中使用batch_input_shape
而不能使用input_shape,因为input_shape不能指定批次的大小,批次只能为None
input_shape和batch_input_shape。
input_shape不包含批量大小,
batch_input_shape是全情投入的形状,包括批量大小。
2、函数式情况下
Input参数
shape:一个尺寸元组(整数),不包含批量大小。Ashapetuple(integer),notincludingthebatchsize.例如,shape=(32,)表明期望的输入是按批次的32维向量。
batch_shape:一个尺寸元组(整数),包含批量大小。例如,batch_shape=(10,32)表明期望的输入是10个32维向量。
batch_shape=(None,32)表明任意批次大小的32维向量。
以上这篇Keras框架中的epoch、bacth、batchsize、iteration使用介绍就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。