-
Notifications
You must be signed in to change notification settings - Fork 6
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于训练的一些疑问? #25
Comments
并没有采取特别的训练方法, 可能是因为我们控制了learning rate在一个较低的水平(1e-6)。 Qwen2VL本身可能已经训练过大量GUI数据了,在我们scaling数据时并没有像InternVL-4B那样有显著的GUI能力提升,而是较缓慢地提升能力。 |
请问在pre-training和Fine-tuning阶段,对于qwen2-vl,您是采用全参数调整,还是lora训练呢,有没有对于某些层进行冻结什么的操作吗? 还有就是我看论文中原始的qwen2-vl 7B在screenSpot数据集上成绩就很高,但是我实际测试的时候,按照SeeClick的prompt提问,效果其实比较差,这是什么原因呀? |
用的是全参数训练,没有进行freeze操作。 prompt_origin = "Identify the object in the image that belong to \"<|object_ref_start|>{}<|object_ref_end|>\". The output should be a point in the format (x, y), where x, y are the relative coordinate of the object. The relative coordinates should be within the range [0, 1000]" (注意输出的是归一化后的相对坐标,需要更改评测代码) |
奥奥,您的测试都是采用的point-grounding吗,没有采用bbox-grounding吗? 还有您在两个阶段训练的时候,数据集有使用通用数据集吗,还是只使用了GUI数据集呀? |
不是,只是对没训练过的模型使用了point-grounding,这样测出来的基线会更高一些。实际测试时我们的7B模型使用的是bbox-grounding。数据集中只使用了GUI相关数据。 |
非常感谢您的回复,我再去实验一下^_^ |
您好,我采用您给的prompt,使用qwen2-vl-7B的原始模型,在screenspot上测试,效果虽然比您在论文里面的差一点点,但是总体提升非常明显。我有两个问题请教一下
|
|
感谢回复!!! |
您好,在测试的过程中发现,您提供的Qwen2_vl_7b模型遗忘问题很少,在千问官方提供的例子上仍然有特别好的效果,遗忘不明显;同时在ScreenSpot数据集上的效果非常有竞争力,请问您是用了什么特殊的训练方法吗?
The text was updated successfully, but these errors were encountered: