Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

请问为什么我BL+IADM for RGBT Crowd Counting训练准确率达不到这么高。 #2

Open
lyccol opened this issue Aug 27, 2021 · 11 comments

Comments

@lyccol
Copy link

lyccol commented Aug 27, 2021

谢谢大佬提供的代码,我在复现的时候遇到了些问题。

我使用的单张3090,其他全部使用默认参数进行直接训练。训练过程为:

...................
08-27 08:31:48 -----Epoch 197/199-----
08-27 08:33:28 Epoch 197 Train, Loss: 6.54, GAME0: 3.61 MSE: 7.36, Cost 99.3 sec
08-27 08:33:43 Epoch 197 Val200, GAME0 10.53 GAME1 15.08 GAME2 19.54 GAME3 27.40 MSE 17.58 Re 0.1624,
08-27 08:33:43 *** Best Val GAME0 10.531 GAME3 27.315 model epoch 197
08-27 08:34:38 Epoch 197 Test800, GAME0 17.60 GAME1 21.88 GAME2 26.41 GAME3 34.43 MSE 30.26 Re 0.2425,
08-27 08:34:38 -----Epoch 198/199-----
08-27 08:36:18 Epoch 198 Train, Loss: 6.21, GAME0: 3.40 MSE: 6.97, Cost 99.9 sec
08-27 08:36:34 Epoch 198 Val200, GAME0 12.27 GAME1 16.63 GAME2 20.74 GAME3 29.18 MSE 24.31 Re 0.1924,
08-27 08:36:34 -----Epoch 199/199-----
08-27 08:38:15 Epoch 199 Train, Loss: 6.49, GAME0: 3.68 MSE: 6.53, Cost 101.2 sec
08-27 08:38:30 Epoch 199 Val200, GAME0 10.66 GAME1 15.33 GAME2 19.65 GAME3 27.63 MSE 15.74 Re 0.1970,

./test.sh

testing...
/root/anaconda3/lib/python3.7/site-packages/torch/nn/functional.py:3672: UserWarning: nn.functional.upsample_bilinear is deprecated. Use nn.functional.interpolate instead.
warnings.warn("nn.functional.upsample_bilinear is deprecated. Use nn.functional.interpolate instead.")
Test800, GAME0 17.60 GAME1 21.88 GAME2 26.41 GAME3 34.43 MSE 30.26 Re 0.2425,

结果只有17.6。请问是否为我实验参数的问题。

@chen-judge
Copy link
Owner

谢谢关注我们的工作。参数初始化、样本增强等有一定随机性,可以再跑几次试试。我们后来也有跑出比paper更好的结果。

@lyccol
Copy link
Author

lyccol commented Aug 27, 2021

感谢感谢,不好意思,还想确认一下,请问一下实验默认的参数是给,模型BL+IADM 和 RGBT-CC这个数据集用的嘛?

例如
gpu数量为1
batch-size : 1
lr :1e-5
weight-deay= 1e-4

离投稿不到两周,有点着急复现,实在打扰了。

@lyccol
Copy link
Author

lyccol commented Aug 27, 2021

谢谢 在后面又训练了几十个epoch之后,达到了文中的效果

@gaiyi7788
Copy link

您好,我想询问一下您有没有试过大一点的batchsize。我一开始用比较大的batchsize训练效果一直很差,看到您这条以后改回1发现loss下降的更好,不知道您有没有过类似的测试,希望可以交流一下,感谢!

@chen-judge
Copy link
Owner

您好,我想询问一下您有没有试过大一点的batchsize。我一开始用比较大的batchsize训练效果一直很差,看到您这条以后改回1发现loss下降的更好,不知道您有没有过类似的测试,希望可以交流一下,感谢!

您好,我没有用其他batchsize做实验,为1的时候确实更容易优化

@gaiyi7788
Copy link

您好,我想询问一下您有没有试过大一点的batchsize。我一开始用比较大的batchsize训练效果一直很差,看到您这条以后改回1发现loss下降的更好,不知道您有没有过类似的测试,希望可以交流一下,感谢!

您好,我没有用其他batchsize做实验,为1的时候确实更容易优化

好的,非常感谢

@SDarknessZX
Copy link

想问一下密度图的可视化代码可以发一下吗,我的邮箱893646282@qq.com感激不尽!

@Joeyqq016
Copy link

想问一下密度图的可视化代码可以发一下吗,我的邮箱893646282@qq.com感激不尽!

您好,可以分享一下您改进之后的密度图可视化的代码嘛?我的邮箱joeyhu016@gmail.com。非常感谢!

@7ran
Copy link

7ran commented Feb 22, 2023

谢谢 在后面又训练了几十个epoch之后,达到了文中的效果

您好,请问您可以提供一下密度图可视化代码吗,谢谢!

@Kane-Joshua
Copy link

您好,可以分享一下您改进之后的密度图可视化的代码嘛?我的邮箱kanemjo@gmail.com。非常感谢!

@chen-judge
Copy link
Owner

关于密度图可视化,请参考另一个issue #8 (comment)

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

7 participants