We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
作者您好,非常感谢您提供的代码,我在自己的三个建筑物数据集上进行实验时,发现levelset的表现差异很大,loss_levelset这项损失在来同一个城市的两个数据集上无法下降,即使后来将batchsize设置为4,初始学习率设置为0.00125时都无法下降,因此在这两个数据集上的map相比全监督的方法低30%,即使是边界框的map也比全监督实例分割方法的边界框map低30%。而在来自另一个城市的数据集上精度可以和全监督的方法媲美。请问这可能是什么原因造成的呢?
The text was updated successfully, but these errors were encountered:
关于数据集和训练的详细情况在上述的表格中 ↑↑↑ 训练时,只对这些参数进行了设置,其余都保持默认参数:
D1,D2和D3上的loss情况和map分别如下图所示: D1:
D2:
D3;
Sorry, something went wrong.
@lin1061991611 你好,问题解决了吗? 可以尝试添加 warmup的策略。 训练刚开始 让模型只采用projection loss,使其保证快速收敛 且模型收敛方向正确,训练后期 采用level set进一步的细致优化。
@lin1061991611 老哥,请问下,你是怎么训练的,我训练之后准确率一直很低只有1%,还是用它的数据,请问你们是怎么操作的,有做啥修改吗?
No branches or pull requests
作者您好,非常感谢您提供的代码,我在自己的三个建筑物数据集上进行实验时,发现levelset的表现差异很大,loss_levelset这项损失在来同一个城市的两个数据集上无法下降,即使后来将batchsize设置为4,初始学习率设置为0.00125时都无法下降,因此在这两个数据集上的map相比全监督的方法低30%,即使是边界框的map也比全监督实例分割方法的边界框map低30%。而在来自另一个城市的数据集上精度可以和全监督的方法媲美。请问这可能是什么原因造成的呢?
The text was updated successfully, but these errors were encountered: