正如标题所说,如果我们希望在前端允许模型切换,那么拥有这些信息将会很好,这样我们就可以过滤掉嵌入式模型。
5sxhfpxr1#
@Hansson0728 would you mind sharing an examples that show how you expect to see it in the response payload. Example response is here
csbfibhn2#
我会说一些类似这样的话:
` { "name": "codellama:13b", "modified_at": "2023-11-04T14:56:49.277302595-07:00", "size": 7365960935, "digest": "9f438cb9cd581fc025612d27f7c1a6669ff83a8bb0ed86c94fcf4c5440555697", "details": { "format": "gguf", "family": "llama", "families": null, "Type": 'LLM' ('Embedding') "parameter_size": "13B", "quantization_level": "Q4_0" } },`
ut6juiuv3#
我会说类似这样的话:
$x_{1a_0b_1}^{x}$
我建议也包含一个“能力”属性,作为一个标签列表,描述模型的能力:
$x_{1a_1b_1}^{x}$
由于现在ollama包括了支持图片的模型,比如llava UI,所以应该知道用户是否被允许向模型发送图片。
llycmphe4#
同时,我发现这已经在ollama的最新版本中完成。因此,这个请求可以关闭了:D
iecba09b5#
同时,我发现这个功能已经在ollama的最新版本中实现了。所以,这个问题可以关闭了:D@it-s 你好。你能告诉我哪个版本的Ollama已经实现了这个功能吗?我在Ollama的最新版本中没有看到这个功能被实现。
5条答案
按热度按时间5sxhfpxr1#
@Hansson0728 would you mind sharing an examples that show how you expect to see it in the response payload. Example response is here
csbfibhn2#
我会说一些类似这样的话:
ut6juiuv3#
我会说类似这样的话:
$x_{1a_0b_1}^{x}$
我建议也包含一个“能力”属性,作为一个标签列表,描述模型的能力:
$x_{1a_1b_1}^{x}$
由于现在ollama包括了支持图片的模型,比如llava UI,所以应该知道用户是否被允许向模型发送图片。
llycmphe4#
同时,我发现这已经在ollama的最新版本中完成。因此,这个请求可以关闭了:D
iecba09b5#
同时,我发现这个功能已经在ollama的最新版本中实现了。所以,这个问题可以关闭了:D
@it-s 你好。你能告诉我哪个版本的Ollama已经实现了这个功能吗?我在Ollama的最新版本中没有看到这个功能被实现。