问题:在Windows Server上运行Ollama时遇到了问题。几天前设置似乎还可以正常工作,我能够下载多个模型。但今天尝试通过在powershell中输入"Ollama Run {model name}"来下载模型后,立即出现了一个错误:"Error: pull model manifest: 200: stream error: stream ID 3; NO_ERROR; received from peer"。请问如何进一步诊断这个问题?
操作系统
Windows
GPU
Nvidia
CPU
- 无响应*
Ollama版本
0.1.41
3条答案
按热度按时间edqdpe6u1#
你好Ziptron,
o4tp2gmn2#
这实际上是我在企业环境中提供的互联网连接的一个问题。互联网连接被阻止了。当我们移除所有阻止器时,下载就可以工作了。
piah890a3#
@ziptron Ollama在您的PC或服务器上本地运行,因此在安装过程完成后,Ollama不需要互联网。