请问这是什么原因我的配置如下
ar5n3qh51#
同遇到过,单机单卡跑的话,可以用下面的命令,感觉是pytorch版本或者参数的问题`
python cn_clip/training/main.py--train-data=${train_data}--val-data=${val_data}--resume=${resume}--logs=${output_base_dir}--name=${name}--save-step-frequency=${save_step_frequency}--save-epoch-frequency=${save_epoch_frequency}--log-interval=${log_interval}${report_training_batch_acc}--context-length=${context_length}--warmup=${warmup}--batch-size=${batch_size}--valid-batch-size=${valid_batch_size}--valid-step-interval=${valid_step_interval}--valid-epoch-interval=${valid_epoch_interval}--accum-freq=${accum_freq}--lr=${lr}--wd=${wd}--max-epochs=${max_epochs}--vision-model=${vision_model}${use_augment}--text-model=${text_model}`
1条答案
按热度按时间ar5n3qh51#
同遇到过,单机单卡跑的话,可以用下面的命令,感觉是pytorch版本或者参数的问题
`
单机单卡用下面的命令,不要加分布式参数:
python cn_clip/training/main.py
--train-data=${train_data}
--val-data=${val_data}
--resume=${resume}
--logs=${output_base_dir}
--name=${name}
--save-step-frequency=${save_step_frequency}
--save-epoch-frequency=${save_epoch_frequency}
--log-interval=${log_interval}
${report_training_batch_acc}
--context-length=${context_length}
--warmup=${warmup}
--batch-size=${batch_size}
--valid-batch-size=${valid_batch_size}
--valid-step-interval=${valid_step_interval}
--valid-epoch-interval=${valid_epoch_interval}
--accum-freq=${accum_freq}
--lr=${lr}
--wd=${wd}
--max-epochs=${max_epochs}
--vision-model=${vision_model}
${use_augment}
--text-model=${text_model}
`