Replies: 2 comments 3 replies
-
1不会,因为Vicuna效果没有达到预期 |
Beta Was this translation helpful? Give feedback.
3 replies
-
多卡部署 from utils import load_model_on_gpus 即可将模型部署到两张 GPU 上进行推理。你可以将 num_gpus 改为你希望使用的 GPU 数。默认是均匀切分的,你也可以传入 device_map 参数来自己指定。 如果有什么不懂的就不要问我,因为我也不懂啊 https://blog.csdn.net/chenhepg/article/details/130454751 是团子花心的 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
看到网上说Vicuna能够达到GPT4的90%水平,但是闻达集成的Vicuna模型是CPU版本,有机会增加GPU支持吗?
再有,目前主要用途建立本地知识库,用于学术资料的整理。由于默认的提示词用的中文,不同模型在中英情况下,表现差异很大,可能提供整体环境的中英选项吗,包括提示词以及知识库建构。
另外,多显卡的支持,如python3 -m fastchat.serve.cli --model-path /path/to/model/weights --num-gpus 2,能否实现呢
Beta Was this translation helpful? Give feedback.
All reactions