我是使用源码安装的cn_clip,然后执行了下面代码
for i in range(10):
embedding = model.encode_text(text)
结果都不一样
调试进去看model.encode_text方法,发现387行的self.bert跑出来的结果每次都不一样
应该怎么调整参数来保证相同的text产生相同的embedding
我是使用源码安装的cn_clip,然后执行了下面代码
for i in range(10):
embedding = model.encode_text(text)
结果都不一样
调试进去看model.encode_text方法,发现387行的self.bert跑出来的结果每次都不一样
应该怎么调整参数来保证相同的text产生相同的embedding
2条答案
按热度按时间ws51t4hk1#
模型忘记设置
elif()
了吧。。。4nkexdtk2#
模型忘记设置
eval()
了吧。。。是的,调试到内部时候发现是有一层dropout的问题,
eval()
之后就固定了