-
Notifications
You must be signed in to change notification settings - Fork 119
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
部署 CodeShell-7B-Chat 的 硬件需求? #56
Comments
反正我在GPU上布了一个codeshell-7B-Chat,用的是V100,显存用了18-19个g, cpu没怎么用 |
|
1.12g显存 跑6b模型不够,我试了一下显存至少16-18g吧。 |
1.12g显存 跑6b模型不够,我试了一下显存至少16-18g吧。
|
batchsize我不清楚,用vs插件访问,也可以用docker部署,改配置的时候就把ip改成你部模型的ip,端口就是你的映射端口,比如上面那个就是9090,就能访问了 |
用docker部署,24G直接崩了,6B模型怎么会用这么大的内存? |
我docker部署显存8G,内存16G跑不起来 The argument |
@wxfvf 你在加载模型的地方看看 是加载float32的模型还是float16的模型 6B模型加载 fp16 x2 = 12G至少能加载 fp32 模型x4 = 24G至少能加载 所以直接崩了内存,这个模型好像默认用fp32 我服了。 load的地方 torch_dtype=torch.float16 我改完之后内存降了,要么就是你推的时候太长的tokens? 占用了过多的kv cache。 |
一开始用vs插件上的官方参数直接跑不起来,添加了 --dtype bfloat16 后还是崩,又改了token长度 --max-total-tokens 4098 --max-input-length 2048 ,终于跑起来了,显存占了18、19G左右。 |
@wxfvf @MeJerry215 |
我想在公司内部搭建一套 CodeShell-7B-Chat ,大概用户数量200~300 ,请问需要多大的内存和显卡?
The text was updated successfully, but these errors were encountered: