你好,奥拉马团队。请问在仓库中是否可以找到ilsp/Meltemi-7B-Instruct-v1-GGUF模型?非常感谢!
qyyhg6bp1#
ILSP团队已经将模型推送到Ollama1。
hkmswyz62#
非常感谢。一般来说,有没有关于如何微调模型并用Ollama运行的链接?
2024年4月23日,凌晨3点14分,Kim Hallberg ***@***.***>写道:ilsp团队已经将模型推送到Ollama1 x-msg://1/#user-content-fn-1-3b97ae8dc36c7ce2926c41838204816d。
脚注:↩ x-msg://1/#user-content-fnref-1-3b97ae8dc36c7ce2926c41838204816d — 直接回复此电子邮件,查看GitHub上的评论<#3832 (comment)>,或取消订阅< https://github.com/notifications/unsubscribe-auth/AKIY77LCGLVOHDOB4WMVDBTY6WRXDAVCNFSM6AAAAABGTTZF36VHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMZDANZRGE2TQMBWGM >。您收到此邮件是因为您创建了该线程。
dphi5xsq3#
一般来说,有没有关于如何微调模型并用OLLAMA运行的最佳方法的链接?很遗憾,我无法提供帮助。我从未微调过模型,所以对此主题没有有用的信息可以提供。
os8fio9y4#
你好Kim,谢谢你的理解。在请求将模型添加到Ollama存储库之前,是否有可能有一个你想测试的模型?这个过程应该是怎样的?
祝好,Andreas Stylianou
6ie5vjzr5#
模型架构是否应该由llama.cpp支持。后端Ollama使用的是哪个,然后你可以按照import documentation的步骤在Ollama中运行模型。如果模型创建者拥有允许重新分发的许可证,你可以将自己推送到Ollama注册表。
5条答案
按热度按时间qyyhg6bp1#
ILSP团队已经将模型推送到Ollama1。
脚注
hkmswyz62#
非常感谢。一般来说,有没有关于如何微调模型并用Ollama运行的链接?
2024年4月23日,凌晨3点14分,Kim Hallberg ***@***.***>写道:ilsp团队已经将模型推送到Ollama1 x-msg://1/#user-content-fn-1-3b97ae8dc36c7ce2926c41838204816d。
脚注:
↩ x-msg://1/#user-content-fnref-1-3b97ae8dc36c7ce2926c41838204816d — 直接回复此电子邮件,查看GitHub上的评论<#3832 (comment)>,或取消订阅< https://github.com/notifications/unsubscribe-auth/AKIY77LCGLVOHDOB4WMVDBTY6WRXDAVCNFSM6AAAAABGTTZF36VHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMZDANZRGE2TQMBWGM >。您收到此邮件是因为您创建了该线程。
dphi5xsq3#
一般来说,有没有关于如何微调模型并用OLLAMA运行的最佳方法的链接?
很遗憾,我无法提供帮助。我从未微调过模型,所以对此主题没有有用的信息可以提供。
os8fio9y4#
你好Kim,谢谢你的理解。在请求将模型添加到Ollama存储库之前,是否有可能有一个你想测试的模型?这个过程应该是怎样的?
祝好,Andreas Stylianou
6ie5vjzr5#
模型架构是否应该由llama.cpp支持。后端Ollama使用的是哪个,然后你可以按照import documentation的步骤在Ollama中运行模型。如果模型创建者拥有允许重新分发的许可证,你可以将自己推送到Ollama注册表。