不要在Pytorch Lightning中保存 lightning 日志

z5btuh9x  于 2022-11-09  发布在  其他
关注(0)|答案(1)|浏览(439)

我在运行这个代码:

model = CIFAR10Classifier()
trainer = pl.Trainer(max_epochs=50, gpus=1, default_root_dir="..", enable_checkpointing=False)

# trainer.fit(model, train_dataloader, valid_dataloader)

model = CIFAR10Classifier.load_from_checkpoint("../lightning_logs/cifar10_classifier/checkpoints/epoch=49-step=35150.ckpt")
model.eval()

# preds = trainer.predict(model, dataloaders=test_dataloader, return_predictions=True)

p = trainer.test(model, dataloaders=test_dataloader)
print(p)

当我运行trainer.test时,它会在lightning_logs文件夹中创建额外的version_x文件夹,这是我不想要的。我可以以任何方式重用它们吗?如果不能,那么有什么方法可以禁止它创建这些文件夹吗?还有,当我试验训练循环时,我不想保存任何检查点。有什么解决方法吗?

rhfm7lfc

rhfm7lfc1#

您可以使用Trainer选项enable_checkpointing * 禁用检查点 *:

trainer = Trainer(enable_checkpointing=False)

或者使用load_from_checkpoint通过检查点 * 恢复培训 *:

model = MyLightningModule.load_from_checkpoint("/path/to/checkpoint.ckpt")

# disable randomness, dropout, etc...

model.eval()

# predict with the model

y_hat = model(x)

相关问题