unilm Beitv2的自监督预训练是慢的,

4nkexdtk  于 2个月前  发布在  其他
关注(0)|答案(5)|浏览(43)

我的未标记数据上有16000张图片,批量大小设置为32,训练一个周期需要近20分钟,这是什么原因?

h43kikqp

h43kikqp1#

感谢您的关注。
批处理大小32是总批处理大小吗?如果不是,那么总批处理大小是多少?

qmb5sa22

qmb5sa222#

以下是我设置的参数大小:

def get_args():
    parser = argparse.ArgumentParser('BEiT预训练脚本', add_help=False)
    parser.add_argument('--batch_size', default=32, type=int)
    parser.add_argument('--epochs', default=500, type=int)
    parser.add_argument('--save_ckpt_freq', default=100, type=int)
vjhs03f7

vjhs03f73#

ic,你使用了多少张GPU卡?

fcy6dtqo

fcy6dtqo4#

仅使用了一台A40

agyaoht7

agyaoht75#

好的,我们可以提供一个参考点。在我们的实验中,使用16个V100s在ImageNet-1M(128万张图像)上运行需要大约5分钟。

相关问题