ollama Make "pull" support more than one model

hi3rlvi2  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(22)

"ollama pull" 目前仅支持一个参数。然而,在设置新服务器或批量更新 LLMs 时,我们需要进行一批 LLM 拉取。如果命令支持多个模型作为参数,将会非常方便。例如:

ollama pull deepseek-coder-v2 phi3:14b codestral

而不是:

for i in deepseek-coder-v2 phi3:14b codestral
do
 ollama pull $i
done

这也意味着可以将任务交给 nohup 并将其置于后台运行,对于较长时间的下载,它可以简单地作为后台任务运行,直到所有模型都被拉取。

slhcrj9b

slhcrj9b1#

在较慢的互联网连接下,我经常无法完成一个下载...即使在高速宽带上,我也偶尔会在接近结尾时卡住(对于剩余的百分比会变得非常缓慢)
我对如何在多个同时拉取的情况下管理部分文件以及如果其中一个失败(部分文件丢失?)?此外,在Windows 10中,单个拉取会完全阻塞带宽;由于每个拉取的许多并行连接,我甚至无法正常打开网站(可能是因为联合获取模式)。
我们是否有改进这些挑战的方法?这将有助于这个功能,我想。

相关问题