Baichuan-7B [BUG] 我下载了huggingface上的baichuan7b模型,使用里面的测试程序测试发现CUDA错误,

lsmd5eda  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(86)

所需先决条件

系统信息

从 transformers 导入 AutoModelForCausalLM,AutoTokenizer

import os
os.environ["CUDA_VISIBLE_DEVICES"] = '0,1,2,3'
tokenizer = AutoTokenizer.from_pretrained("./", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("./", device_map="auto", trust_remote_code=True)
inputs = tokenizer('登鹳雀楼->王之涣
夜雨寄北->', return_tensors='pt')

# inputs = inputs.to('cuda:2')

pred = model.generate(**inputs, max_new_tokens=16,repetition_penalty=1.1)
print(tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))

问题描述

可复现示例代码

Python 代码片段:
命令行:
额外依赖项:
重现步骤:

Traceback

  • 无响应*

预期行为

  • 无响应*

其他上下文

  • 无响应*

检查清单

  • 我已经提供了所有相关和必要的信息。
  • 我已经为这个问题选择了一个合适的标题。
mlmc2os5

mlmc2os51#

我找了好几处pad_token_id 查看都是0 但是就是报错,有没有大佬帮忙解决下

相关问题