We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
(此 ISSUE 为 PaddlePaddle Hackathon 第三期活动的任务 ISSUE,更多详见 【PaddlePaddle Hackathon 第三期】任务总览)
为飞桨框架一系列算子增加支持的数据类型,提交流程请参考 算子数据类型扩展&提交流程,开发请参考 贡献指南,请注意:算子数据类型扩展是针对飞桨已有的算子,因此可以只在必要情况下提供设计文档。 任务列表如下:
技术标签:深度学习框架,C++,CUDA
任务难度:基础
详细描述:由于 sum 类运算直接采用 float16 累加会有溢出风险,因此该功能要求为 cumsum 算子注册 float16 类型,同时改写算子 Kernel,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
详细描述:由于 sum 类运算直接采用 float16 累加会有溢出风险,因此该功能要求为 logcumsumexp 算子注册 float16 类型,同时改写算子 Kernel,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:由于 sum 类运算直接采用 float16 累加会有溢出风险,因此该功能要求为 logsumexp 算子注册 float16 类型,同时改写算子 Kernel,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:elementwise 类的部分算子未支持 float16 类型,因此该功能要求为这类算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务难度:进阶
详细描述:group_norm 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:linear_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:nearest_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:bilinear_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:trilinear_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:bicubic_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:depthwise_conv2d 和depthwise_conv2d_transpose 前反向算子未支持 float16 类型,2个算子共用同一套实现,因此该功能要求为算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
详细描述:deformable_conv_v1 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
The text was updated successfully, but these errors were encountered:
Ligoml
No branches or pull requests
(此 ISSUE 为 PaddlePaddle Hackathon 第三期活动的任务 ISSUE,更多详见 【PaddlePaddle Hackathon 第三期】任务总览)
为飞桨框架一系列算子增加支持的数据类型,提交流程请参考 算子数据类型扩展&提交流程,开发请参考 贡献指南,请注意:算子数据类型扩展是针对飞桨已有的算子,因此可以只在必要情况下提供设计文档。 任务列表如下:
No.45:为 Paddle cumsum 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:基础
详细描述:由于 sum 类运算直接采用 float16 累加会有溢出风险,因此该功能要求为 cumsum 算子注册 float16 类型,同时改写算子 Kernel,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.46:为 Paddle logcumsumexp 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:基础
详细描述:由于 sum 类运算直接采用 float16 累加会有溢出风险,因此该功能要求为 logcumsumexp 算子注册 float16 类型,同时改写算子 Kernel,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.47:为 Paddle logsumexp 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:基础
详细描述:由于 sum 类运算直接采用 float16 累加会有溢出风险,因此该功能要求为 logsumexp 算子注册 float16 类型,同时改写算子 Kernel,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.48:为 Paddle elementwise 系列算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:基础
详细描述:elementwise 类的部分算子未支持 float16 类型,因此该功能要求为这类算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.49:为 Paddle group_norm 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:进阶
详细描述:group_norm 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.50:为 Paddle linear_interp_v2 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:进阶
详细描述:linear_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.51:为 Paddle nearest_interp_v2 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:进阶
详细描述:nearest_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.52:为 Paddle bilinear_interp_v2 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:进阶
详细描述:bilinear_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.53:为 Paddle trilinear_interp_v2 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:进阶
详细描述:trilinear_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.54:为 Paddle bicubic_interp_v2 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:进阶
详细描述:bicubic_interp_v2 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.55:为 Paddle depthwise_conv2d 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:进阶
详细描述:depthwise_conv2d 和depthwise_conv2d_transpose 前反向算子未支持 float16 类型,2个算子共用同一套实现,因此该功能要求为算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
No.56:为 Paddle deformable_conv_v1 算子实现 float16 数据类型支持
技术标签:深度学习框架,C++,CUDA
任务难度:进阶
详细描述:deformable_conv_v1 前反向算子未支持 float16 类型,因此该功能要求为该算子注册 float16 类型,同时改写算子实现,使得 float16 下精度与期望结果的误差不超过 1e-3,并且性能不差于使用 float32 类型计算。
任务提交:
合入标准
技术要求
答疑交流
The text was updated successfully, but these errors were encountered: