已关闭,此问题需要更focused。目前不接受答复。
**想改善这个问题吗?**更新问题,使其仅通过editing this post关注一个问题。
15小时前关门了。
Improve this question
我试着训练两个模型。问题是一种倒退;设置如下:
网络F和G。F将输入x转换为特征向量F(x),G取F(x)并给予G(F(x))这会导致一些问题:
1,因为G的输入= F的输出,当F收敛时,我需要停止F并继续训练G,我“锁定”F的方式是:把loss.backward和optimizer.step放在if()语句下,这是否和我想的一样?(锁F,保持训练G)
2在“总参数= 2 * 样本数+输入维数”的规则下,“总参数”应该适用于“F的参数+G的参数”还是F和G分别适用?(即,如果总参数= 10,F和G应该各有10个参数,还是它们的参数数加起来应该是10?)
3我有单独的优化器,调度器,以及两个模型的早期停止。我看到一个优化器可以更新两个模型的参数,但是我不确定什么时候应该这样做/不应该这样做。我在交叉验证中得到了很好的拟合,但是当我进行测试时,我得到了F和G的超拟合
1条答案
按热度按时间c3frrgcw1#
取决于模型类型/似乎您锁定了功能,然后再升级/您是否使用参数来销售产品?
“我看到一个优化器可以更新两个模型的参数,但我不确定何时执行/不执行此操作”
关于这一点,当特征丢失的输出是期望的结果时,停止训练并拟合模型。