tensorflow 术语总结(不断更新)

epoch:一个数据集完整得过一遍叫一个epoch,比如100w个数据,batch_size=100,那么训练1W个batch才是一个epoch

batch_size:由于数据一个一个训练效率太低,所以将若干数据合在一起,称为一个batch,一起训练以提高效率。一个batch中数据的个数称为batch_size

作者: CrazyKK

ex-ACMer@hust,stackoverflow-engineer@sensetime

说点什么

您将是第一位评论人!

提醒
wpDiscuz