你好!OPTForCausalLM
在 opt_modelling.py
中没有将 prefix
传递给 OPTModel
,尽管它是一个位置参数。
text-generation-inference/server/text_generation_server/models/custom_modeling/opt_modeling.py
第751行到第764行
| | classOPTForCausalLM(OPTPreTrainedModel): |
| | def__init__(self, prefix, config, weights): |
| | super().init(config) |
| | |
| | ifnotprefix: |
| | prefix="model" |
| | else: |
| | prefix=f"{prefix}.model" |
| | |
| | self.model=OPTModel(config, weights) |
| | |
| | self.lm_head=SpeculativeHead.load( |
| | config, prefix=f"{prefix}.decoder.embed_tokens", weights=weights |
| | ) |
text-generation-inference/server/text_generation_server/models/custom_modeling/opt_modeling.py
第694行到第698行
| | classOPTModel(OPTPreTrainedModel): |
| | def__init__(self, prefix: str, config: OPTConfig, weights): |
| | super().init(config) |
| | self.decoder=OPTDecoder(prefix, config, weights) |
| | # Initialize weights and apply final processing |
1条答案
按热度按时间nxowjjhe1#
除了在v2.1.1中,OPT的嵌入是通过以下代码加载的:
text-generation-inference/server/text_generation_server/models/custom_modeling/opt_modeling.py
第440行到第442行:
| | self.embed_tokens=TensorParallelEmbedding( |
| | prefix="model.decoder.embed_tokens", weights=weights |
| | ) |
这会引发以下错误:
尽管主分支上的最新更改似乎仍然会引发错误,因为
CausalLM
将前缀设置为""
,在text-generation-inference/server/text_generation_server/models/causal_lm.py第556行到第557行:
| | prefix="" |
| | model=model_class(prefix, config, weights) |
前缀变为
"model.decoder.embed_tokens"
。