-
Notifications
You must be signed in to change notification settings - Fork 530
[Feature] 可以支持embedding模型吗,类似于xinference的功能 #1927
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Comments
可否提供一个 embedding 模型的 list?我们先调研下看看 |
@AllentDan Could you investigate this feature? |
如果支持embedding模型,最好也能支持reranker模型。可以参考:mudler/LocalAI#2121 |
我们需要调研下,看好不好支持,以及怎么支持。 |
@jxfruit 你是想用 lmdeploy 加速 embeddings 模型的推理,是吧 |
I will check the implementations of fastchat and xinference. |
如果可以支持的话当然最好了,我目前最大诉求就是能支持推理就行,不用加速,以后做加速也可以 |
@jxfruit 用过 fastchat 的 embedding 服务吗?先确定一下,类 llama 模型的 embedding 是否符合你需求。目前我这边使用了几个支持 embedding 模型的开源框架,主要是 bert,T5 和 llama。llama 模型只有 fastchat 支持。 update: |
fastchat 没有用过,我们目前对具体的模型还没有诉求。但是看了一些,目前还是主要考虑xinference,建议参考下xinference这个项目呢,从Langchain-Chatchat项目里摘过来的一个本地部署框架的对比: |
附议,这样的话一所有部署任务一个框架就统一了. |
looking forward to supporting embedding model soon.... |
Hi, folks, |
Motivation
具体场景就是,想利用lmdeploy提供超快的推理能力,然后用一个私有化的知识库工具langchain-chatchat,这个需要embedding模型支持,所以看下大佬们有没有这方面的规划
Related resources
No response
Additional context
No response
The text was updated successfully, but these errors were encountered: