FinGPT 错误:在AutoModel.from_pretrained中,需要Accelerate和bitsandbytes库,但它们已经安装,

np8igboo  于 6个月前  发布在  其他
关注(0)|答案(3)|浏览(121)

在运行 "FinGPT_Training_LoRA_with_ChatGLM2_6B_for_Beginners.ipynb" 时出现了以下错误,但已经安装了 Accelerate 和 bitsandbytes 包。是否做错了什么?

错误信息如下:

ImportError: Using `load_in_8bit=True` requires Accelerate: `pip install accelerate` and the latest version of bitsandbytes `pip install -i https://test.pypi.org/simple/ bitsandbytes` or pip install bitsandbytes `" 2261 ) 2263 if torch_dtype is None: 2264 # We force the` dtype `to be float16, this is a requirement from` bitsandbytes `2265 logger.info( 2266 f"Overriding torch_dtype={torch_dtype} with` torch_dtype=torch.float16 `due to " 2267 "requirements of` bitsandbytes` to enable model loading in 8-bit or 4-bit. Pass your own torch_dtype to specify the dtype of the remaining non-linear layers or pass torch_dtype=torch.float16 to remove this warning.

答案:根据错误信息,你需要安装最新版本的 bitsandbytes 包。请尝试运行以下命令来安装或更新 bitsandbytes 包:

pip install --upgrade bitsandbytes
tcomlyy6

tcomlyy61#

我已经编辑了上面的内容,希望能提供更多细节。需要帮助吗?

iswrvxsc

iswrvxsc2#

我遇到了相同的问题,通过运行
pip install transformers==4.32.0
并重启会话解决了这个问题。

vawmfj5a

vawmfj5a3#

你需要重新开始这个会话。你也可以参考这个仓库,里面有我写的更详细的解释。

相关问题