-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问训练结束还要准备什么 #50
Comments
|
我训练之后的模型文件就是27G,我的数据集是问答对所以对训练脚本的数据处理做了一点修改,训练完得到的这个pt文件我转成了.bin格式的权重。我加载这个模型就会提示缺少configuration_baichuan.py这种文件,我把baichuan-2-13B的对应文件复制过来加载模型会提示部分权重未使用 |
不能直接改后缀 , deepspeed 权重需要通过下面转换下 |
|
我好像知道问题出在哪了,我想请问一下我用的是自制的数据集,是不是数据集的格式得跟data文件夹的示例数据格式相同,我的数据集格式是这种:{ |
可以看下readme 的 datasample , 或者 data文件夹下的例子。 |
好的,谢谢您 |
您好我想请问一下,我修改了fine-tune.py中的peft_config = LoraConfig( |
你用的哪个脚本做的推理? |
我用的fine-tune.py做的训练,cli_demo.py做的加载和推理,我用了AutoPeftModelForCausalLM来加载模型,之前默认的r=1 lora_alpha=32训练之后的模型可以正常加载,修改了这两个参数训练之后的模型就出现了尺寸问题 |
推理脚本代码 贴一下,我看看 |
from transformers import AutoTokenizer model_id = "/data/fyf/Baichuan2-main/fine-tune/outputr8a16-1" model = model.to(device) while True:
|
不能直接加载,名字有点区别, 回头加一个权重转换脚本 |
要转换为.bin格式嘛,那为什么r=1 ,lora_alpha=32的时候直接就能加载 |
不是不是, 就是权重key ,不是文件名字 , 有时间我加一下。 |
deep_export --mode=hf --src adapter_model.bin --dst=. |
我对13B模型lora微调之后,只获得了如下的文件,我将.pt文件转成了.bin模型,但是其他的configuration_baichuan.py,generation_config.json, modeling_baichuan.py都使用原来的好像不可以,请问是要针对微调后的模型自行修改吗
The text was updated successfully, but these errors were encountered: