text-generation-inference 功能请求:为添加其他API端点添加文档和示例,

wqnecbli  于 22天前  发布在  其他
关注(0)|答案(3)|浏览(21)

功能需求

我希望能够使用支持有界输出的指南或其他库,与HF端点一起使用。
参考:A guidance language for controlling large language models.

动机

我想要使用类似guidance这样的库,通过HF推理端点进行受限制的生成,这样我们就可以使用超过本地计算能力的更大模型。

你的贡献

不知道如何开始为现有的TGI配置添加API端点。

jrcvhitl

jrcvhitl1#

你好,@michael-conrad 🙌
我们通过 outlines 在 TGI 中提供了结构化生成支持。
这会解决你的问题吗?
文档:https://huggingface.co/docs/text-generation-inference/basic_tutorials/using_guidance

zte4gxcn

zte4gxcn3#

好的,谢谢你指出这个问题👍
有一件事可能需要澄清的是,TGI和推理端点之间是相互独立的。它们是两个独立的东西。

  • TGI是一个LLM服务器,可以部署在推理端点上,也可以部署为容器到其他云提供商。
  • 你可以将自己的容器部署到推理端点上,TGI只是人们最常用的一个。

所以在这种情况下,我认为添加一个自定义的Inference Handler(也在指导问题中链接)是正确的方法。就本身而言,TGI没有配置来添加新的端点。
这有道理吗?

相关问题