Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

为什么我用c-eavl测试chatglm2-6B 在zero-shot 下的分数很低? #53

Open
EdisonWujr opened this issue Aug 21, 2023 · 5 comments

Comments

@EdisonWujr
Copy link

image
为什么我用c-eavl测试chatglm2-6B 在zero-shot 下的分数很低?并且使用cot的模式,分数也没有提升。

@EdisonWujr
Copy link
Author

补充一下,用few-shot cot模式的话,评分就接近官方

@1014670860
Copy link

补充一下,用few-shot cot模式的话,评分就接近官方

请问一下是怎么测评的, 看README也不清楚, --model-name 写本地地址也不行,

@ssssmy
Copy link

ssssmy commented Sep 12, 2023

@1014670860 在chatglm文件中写你本地的模型地址。不过我不知道怎么运行test测试,只可以跑dev

@Flywolfs
Copy link

是不是和代码里这行代码有关系?
choice_score = [score[167], score[333], score[251], score[416]]
我看代码好像这个chatglm的评估是适用于chatglm-6b,并没有适配chatglm2-6b。因为两个版本的模型词表不一样

@Flywolfs
Copy link

image 为什么我用c-eavl测试chatglm2-6B 在zero-shot 下的分数很低?并且使用cot的模式,分数也没有提升。
这个问题确认了,如果使用chatglm2-6b进行测试的话,使用zeroshot时,chatglm.py的145行需要改成:
choice_score = [score[316], score[347], score[319], score[367]]才能对应到新版本的词表

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants