ollama 我的网络太慢,无法下载模型,

mepcadol  于 2个月前  发布在  其他
关注(0)|答案(4)|浏览(39)

问题:我总是遇到相同的错误,如何解决?

答案:这个问题是由于TLS握手超时导致的。你可以尝试从外部下载llama3,然后将其与ollama一起使用。具体操作如下:

  1. 从外部下载llama3的压缩包,例如从GitHub或其他可信赖的来源下载。
  2. 解压下载的压缩包,得到llama3的可执行文件。
  3. 将llama3的可执行文件复制到ollama的安装目录下。
  4. 在运行ollama时,使用--executable参数指定llama3的可执行文件路径,例如:ollama run --executable "C:\path\to\llama3"(请将C:\path\to\llama3替换为实际的文件路径)。

希望这个方法能帮助你解决问题。

swvgeqrz

swvgeqrz1#

我们目前没有正式的方法来实现这个功能,但你可以查看模型存储的位置并手动传输文件。https://github.com/ollama/ollama/blob/main/docs/faq.md#where-are-models-stored

9cbw7uwe

9cbw7uwe2#

我也遇到了同样的问题,请问您是否已经解决了这个问题并有合适的解决方案?

hec6srdp

hec6srdp3#

我也遇到过这个问题。我认为Cloudflare可能导致了这个问题,中国的网络可能被屏蔽了。

2skhul33

2skhul334#

大家好,我们正在处理这些问题,并与我们的边缘合作伙伴一起尝试新的解决方案。如果您有时间,请考虑帮助我们测试这个方法是否有效!我们正在尽可能多地收集反馈意见,并需要您的帮助!

相关问题