我有一个这样的代码。我正在启动它。我得到一个ngrok链接。
!pip install aiohttp pyngrok
import os
import asyncio
from aiohttp import ClientSession
# Set LD_LIBRARY_PATH so the system NVIDIA library becomes preferred
# over the built-in library. This is particularly important for
# Google Colab which installs older drivers
os.environ.update({'LD_LIBRARY_PATH': '/usr/lib64-nvidia'})
async def run(cmd):
'''
run is a helper function to run subcommands asynchronously.
'''
print('>>> starting', *cmd)
p = await asyncio.subprocess.create_subprocess_exec(
*cmd,
stdout=asyncio.subprocess.PIPE,
stderr=asyncio.subprocess.PIPE,
)
async def pipe(lines):
async for line in lines:
print(line.strip().decode('utf-8'))
await asyncio.gather(
pipe(p.stdout),
pipe(p.stderr),
)
await asyncio.gather(
run(['ollama', 'serve']),
run(['ngrok', 'http', '--log', 'stderr', '11434']),
)
字符串
我正在跟进,但下面是在页面上
的数据
我该如何解决这个问题?在此之前,我做了以下操作
!choco install ngrok
!ngrok config add-authtoken -----
!curl https://ollama.ai/install.sh | sh
!command -v systemctl >/dev/null && sudo systemctl stop ollama
2条答案
按热度按时间ujv3wf0j1#
添加此
字符串
w51jfk4q2#
@sergey Mate,ngrok link没有任何问题。正如它所说的,
ollama
正在运行。所以一切都很好,已经为您设置好了。您正在colab上作为远程服务器运行ollama
,现在您可以在本地机器上超级轻松地使用它,它只会使用colab计算资源,而不是本地机器。让我解释一下(以我有限的知识),以便任何人都可以了解正在发生的事情。在您的案例中,它启动了
ollama
服务,并使用ngrok
公开了一个端点,该端点可用于与ollama
示例进行远程通信。与oobabooga
开发的text-generation-webui
不同,text-generation-webui
是一个用于大型语言模型的Web用户界面,ollama
是一个命令行聊天机器人,可以在几乎任何地方轻松使用大型语言模型。这是完整的指南。首先在Colab上运行此操作
字符串
然后在你的机器上只需要简单地运行下面的命令,你可以使用任何你想要的模型。我用
dolphin-mistral
作为例子在Linux上:
型
在Mac上:
型