PaddleHub 求问怎么基于安装模型做finetune

o7jaxewo  于 6个月前  发布在  其他
关注(0)|答案(7)|浏览(64)
比如通过hub install deeplabv3p_xception65_humanseg==1.1.1安装了deeplabv3p_xception65_humanseg,想对它进行finetune。
多谢!
tuwxkamq

tuwxkamq1#

726 (评论)

@Steffy-zxf

xdyibdwo

xdyibdwo2#

该模型目前还不支持finetune功能,近期我们会给出deeplabv3p和ocrnet支持finetune的模型,敬请期待。

1cosmwyk

1cosmwyk3#

好的,模型能否finetune取决于哪些因素?会提供支持finetune的deeplabv3p_xception65_humanseg吗?

9udxz4iz

9udxz4iz4#

目前支持finetune的模型主要有以下几个:

7ivaypg9

7ivaypg95#

好的,请看这个 https://aistudio.baidu.com/aistudio/projectdetail/475345
这里的py文件应该包含了支持finetune需要的额外的代码。而且这里的HumanSeg-server和deeplabv3p_xception65_humanseg应该是相同的模型,于是我把
!python train.py --model_type HumanSegServer
--save_dir output/
--data_dir data/mini_supervisely
--train_list data/mini_supervisely/train.txt
--val_list data/mini_supervisely/val.txt
--pretrained_weights pretrained_weights/humanseg_server_ckpt
--batch_size 8
--learning_rate 0.001
--num_epochs 10
--image_shape 512 512
改成了:
!python train.py --model_type HumanSegServer
--save_dir output/
--data_dir data/mini_supervisely
--train_list data/mini_supervisely/train.txt
--val_list data/mini_supervisely/val.txt
--pretrained_weights ~/.paddlehub/modules/deeplabv3p_xception65_humanseg/deeplabv3p_xception65_humanseg_model/
--batch_size 8
--learning_rate 0.001
--num_epochs 10
--image_shape 512 512
因为deeplabv3p_xception65_humanseg这个模型对我的数据效果好,所以我打算用这个模型当pretrained_weights,这么改了也能训练,但是是出来的miou只有0.3。所以请帮我看下这样做对吗?附件是训练输出。
output.txt

bakd9h0s

bakd9h0s6#

您好,这部分应该是PaddleSeg的模型。您可以到PaddleSeg的GitHub仓库提issue,以获得更准确的回复。

相关问题