在机器学习中epoch, iteration, batch_size的含义区别
在机器学习中训练模型阶段遇到了这三个参数epoch, iteration, batch_size。batch_size(批大小)指的是在SGD(随机梯度下降法)中选择的一个批次的大小iterations(迭代)指的是训练跑完一个batch_size样本epoch(迭代次数)1个epoch等于使用训练集中的全部样本训练一次learning_rate = 0.001epochs = 60batch_s
·
在机器学习中训练模型阶段遇到了这三个参数epoch, iteration, batch_size。
batch_size(批大小)指的是在SGD(随机梯度下降法)中选择的一个批次的大小
iterations(迭代)指的是训练跑完一个batch_size 样本
epoch(迭代次数)1个epoch等于使用训练集中的全部样本训练一次
learning_rate = 0.001
epochs = 60
batch_size = 100
X,y = dataload()
例如,这里的参数设置,epoch可里理解为模型确定前训练的次数。
batch_size,比如你一次训练中有1200个数据,那么每次送入模型训练的就是1200/100=12个数据。100指的就是送入次数。
iterations就是在一次训练中,需要迭代的次数。
例如,一共1200个训练数据,batch_size=100,那么迭代次数为12,这就是一个epoch的训练周期。
而本例子中,epoch=60就意味着将上述训练重复60次。
参考链接
更多推荐
所有评论(0)