深度学习中iteration、epoch、batchsize的定义
大家学习深度学习的时候,当要训练数据时,总会碰到几个变量:iteration、epoch、batchsize。弄清这几个数据的定义对于能否正确有效进行数据的训练十分重要。iteration:进行训练需要的总共的迭代次数。batchsize:进行一次iteration(迭代)所训练数据的数量。epoch:一次epoch是指将所有数据训练一遍的次数,epoch所代表的数字是指所有数据被训练的总轮数。例
·
大家学习深度学习的时候,当要训练数据时,总会碰到几个变量:iteration、epoch、batchsize。弄清这几个数据的定义对于能否正确有效进行数据的训练十分重要。
iteration:进行训练需要的总共的迭代次数。
batchsize:进行一次iteration(迭代)所训练数据的数量。
epoch:一次epoch是指将所有数据训练一遍的次数,epoch所代表的数字是指所有数据被训练的总轮数。
例如:有49000个数据,计划进行十轮训练,那么epoch=10;一次训练迭代训练100个数据,batchsize=100,训练一轮总共要迭代490次(49000/100=490)。总的iteration=490*10=4900次。
更多推荐
已为社区贡献1条内容
所有评论(0)