-
Notifications
You must be signed in to change notification settings - Fork 4.8k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
ChatGLM3-6b合并lora微调模型后,通过ChatGLM3-6b官方代码载入该合并后权重后对话内容和效果与没微调一样.. #1752
Comments
@hiyouga 非常感谢你的回复,#1307 (comment) 我的表述也许不是很清楚,以下是我的复现结果图: |
我也碰到完全一样的问题 |
和你情况一下,微调以后chat可以看到效果,导出模型以后加载进去,没有微调效果 |
我也是同样的问题 |
1、llamafactory lora微调我用的数据是 self_cognition.json,把里面的<>全部删掉,web chat 测试通过以后导出模型
4、启动 langchain chatchat 指定模型名 --model-name 模型名 5、langchain chatchat 测试正常
|
好的谢谢,llamafactory有api脚本,我在chatchat中使用目前是通过这个api,你提供的这个方法我试试,感谢感谢 |
@dreammax2010 你好 我按照你的方法做了 为什么web chat 测试通过,但是langchan-chatchat还是无效 ==============================Langchain-Chatchat Configuration============================== 当前使用的分词器:ChineseRecursiveTextSplitter |
@dreammax2010 chatglm2确实可以 |
解决了吗? 用chatglm3-6b进行lora处理后,导出模型测试,出现同样的问题。按照楼上的几种方式修改后,web demo可以正常回答,但完全和微调前一样,微调没有效果。 |
|
@BillowJiangCloud 格式应改为default_system=(“”),你看一下是否改正确了,新版本我测试了,这么修改使用没问题 |
请问你怎么使用(通过哪种方式?感谢回答!)
|
@GhostMeng 现在我们更新了 template,默认的 chatglm3 template 不会携带系统提示词,而 chatglm3_system template 才会携带 |
请问您解决这个问题了吗?就是微调导出模型后没有效果 |
我在使用LLaMA-Factory微调qwen2.5 7b的时候,也遇到了这样的问题,微调后,直接使用webui加载微调后的模型进行测试,微调是有效果的,但是用webui导出或者用指令导出后,都没有微调效果了,最后将学习率调大、学习次数变多了之后,再次微调导出之后,用qwen2.5官方的 python cli_demo.py 运行,就有微调效果了。参考一下呢 |
1、合并权重log(感觉这里不太正常吖)
2、导出权重后参考这个方法替换了对应文件
3、没合并前用web端的chat载入微调模型和原始权重模型有微调效果
这个问题是什么导致的啊?感谢感谢
The text was updated successfully, but these errors were encountered: