ollama Jamba 1.5型号

wj8zmpe1  于 3个月前  发布在  其他
关注(0)|答案(2)|浏览(65)

Jamba 1.5开放模型家族:市场上最长的256K有效上下文窗口,Jamba 1.5模型可以提高关键企业应用程序的质量,如长篇文档摘要和分析,以及代理和RAG工作流。

**速度:**在长上下文上最多可提高2.5倍的速度,在同类大小中速度最快。
**质量:**Jamba 1.5 Mini是同类模型中最强健的模型,其Arena Hard基准得分为46.1分,超过了Mixtral 8x22B和Command-R+等较大模型。Jamba 1.5 Large得分为65.4分,超过了Llama 3.1 70B和405B。
**多语言支持:**除了英语外,模型还支持西班牙语、法语、葡萄牙语、意大利语、荷兰语、德语、阿拉伯语和希伯来语。

开发者友好:Jamba原生支持结构化的JSON输出、函数调用、处理文档对象和生成引文。

**开放供构建者使用:**两个模型均可立即从Hugging Face下载(即将推出主要框架LangChain和LlamaIndex)。
**随时随地部署:**除了AI21 Studio,模型还可在云合作伙伴Google Cloud Vertex AI、Microsoft Azure、NVIDIA NIM以及即将推出的Amazon Bedrock、Databricks Marketplace、Snowflake Cortex、Together.AI以及私有本地部署和VPC部署中使用。

nnt7mjpx

nnt7mjpx1#

请在Ollama - Jamba 1.5上部署。

lo8azlld

lo8azlld2#

在llama.cpp中等待支持:ggerganov/llama.cpp#6372
Matthew Berman在AI21的Studio playground中测试了jamba-1.5-large,但它并不令人印象深刻。

相关问题