-
Notifications
You must be signed in to change notification settings - Fork 5.6k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[Fluid] Migrate Fluid Distributed Kernels to PHI #55716
Comments
|
|
|
|
@GhostScreaming fused_softmax_mask_upper_triangle 的任务, fused_softmax_mask_upper_triangle_grad 需要一并迁移吗? |
嗯嗯,对应的反向算子也默认是需要迁移的。 |
|
random_routing、prune_gate_by_capacity、assign_pos、fused_softmax_mask_upper_triangle 无需迁移 XPU,因为这些算子原本就没有 XPU 的Kernel。也无需迁移 InferShape,因为不涉及到undefined的注册数据类型,无需用InferMeta推导出 dtype 信息 |
|
distributed_fused_lamb 这个算子在上一期中已经迁移过了可以划掉了 @luotao1 |
|
|
distributed_fused_lamb_init算子原本就没有 XPU 的Kernel,无须迁移xpu。不涉及到undefined的注册数据类型,无需用InferMeta推导出 dtype 信息,无须迁移InferShape |
|
limit_by_capacity 无需迁移 XPU 和 InferShape |
Fluid下分布式算子迁移已完成,感谢参与的小伙伴们!
欢迎继续参与快乐开源的其他任务! |
问题描述 Please describe your issue
大家好,当前Fluid下分布式算子由于未完全迁移到新的PHI算子体系,无法具备PHI下函数式算子注册时"记录自身输入输出属性“的能力,在分布式场景也就无法使用框架新的通信模块和调度系统,给分布式训练调试、优化等工作带来较大的负担。我们一共收集了17个需要迁移的算子,欢迎大家提交PR一起对这些算子做迁移改造。
更多详细介绍见 Call-for-Contributions: Fluid算子函数式迁移专项, 本issue用于跟踪记录该项目下各个算子的迁移改造进度。
注:
待迁移算子列表(整体进度 15/16)
distributed_fused_lambThe text was updated successfully, but these errors were encountered: