问题是什么?
在更新到1.29版本后,我失去了通过ngrok(或类似工具,如zrok)访问我正在运行的ollama示例的能力。Ollama在通过代理(ngrok)接收到请求时返回403响应,而正确地响应来自本地主机的请求。
你期望看到什么?
Ngrok应该正常工作
重现问题的步骤
安装最新版本的ollama
安装ngrok/zrok
zrok共享公共localhost:11434
是否最近有更改引入了这个问题?
- 无响应*
OS
Linux
架构
x86
平台
- 无响应*
Ollama版本
1.29
GPU
- 无响应*
GPU信息
- 无响应*
CPU
- 无响应*
其他软件
- 无响应*
7条答案
按热度按时间rekjcdws1#
Did you try command in the faq ?
ngrok http 11434 --host-header="localhost:11434"
2w3rbyxf2#
同样的,CloudFlare隧道也存在这个问题。我将Ollama降级到1.2.8版本后,问题又解决了。
ergxz8rk3#
你好,@freQuensy23-coder 和 @projetosfsi。我已经在FAQ中添加了关于使用Ollama与隧道工具的部分:
希望这能帮到你!
0yg35tkg4#
Just hit the same issue using Tailscale's serve command . Unfortunately it doesn't have an easy flag to rewrite the Host header.
bis0qfac5#
无论如何让zrok正常工作?
--host-header在zrok上不起作用
ngrok是付费的,有限制
zrok是开源的
ljsrvy3e6#
我遇到了与Pagekite相同的403问题。
klh5stk17#
你好,@quantumalchemy@josh,抱歉你遇到了这个问题。我会努力修复主机验证,以免这个问题影响到你。
同时,对于Zrok,你可以使用他们的新Caddy实现,并使用如下的Caddyfile:
参见 https://blog.openziti.io/zrok-with-the-power-of-caddy