ollama Api /tags应包含用于嵌入模型或LLM的类型,

y3bcpkx1  于 2个月前  发布在  其他
关注(0)|答案(5)|浏览(28)

正如标题所说,如果我们希望在前端允许模型切换,那么拥有这些信息将会很好,这样我们就可以过滤掉嵌入式模型。

5sxhfpxr

5sxhfpxr1#

@Hansson0728 would you mind sharing an examples that show how you expect to see it in the response payload. Example response is here

csbfibhn

csbfibhn2#

我会说一些类似这样的话:

`    {
      "name": "codellama:13b",
      "modified_at": "2023-11-04T14:56:49.277302595-07:00",
      "size": 7365960935,
      "digest": "9f438cb9cd581fc025612d27f7c1a6669ff83a8bb0ed86c94fcf4c5440555697",
      "details": {
        "format": "gguf",
        "family": "llama",
        "families": null,
        "Type": 'LLM' ('Embedding')
        "parameter_size": "13B",
        "quantization_level": "Q4_0"
      }
    },`
ut6juiuv

ut6juiuv3#

我会说类似这样的话:

$x_{1a_0b_1}^{x}$

我建议也包含一个“能力”属性,作为一个标签列表,描述模型的能力:

$x_{1a_1b_1}^{x}$

由于现在ollama包括了支持图片的模型,比如llava UI,所以应该知道用户是否被允许向模型发送图片。

llycmphe

llycmphe4#

同时,我发现这已经在ollama的最新版本中完成。因此,这个请求可以关闭了:D

iecba09b

iecba09b5#

同时,我发现这个功能已经在ollama的最新版本中实现了。所以,这个问题可以关闭了:D
@it-s 你好。你能告诉我哪个版本的Ollama已经实现了这个功能吗?我在Ollama的最新版本中没有看到这个功能被实现。

相关问题