We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
我这边使用的yolov5的pth模型,转化成onnx之后,通过paddle-lite (2.13rc0)与 X2Paddle(1.4.1) 转化成了nb文件,试图部署在安卓环境下,报错
使用的命令是 x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model --to_lite=True --lite_valid_places=arm --lite_model_type=naive_buffer 不知道是什么问题?以及问一句,这种转化方式的分辨率是和onnx一致么?精度是多少呢?可以自己定义精度么?
The text was updated successfully, but these errors were encountered:
您好,从报错信息来看,得不到有用的信息。 您可以使用x2paddle先保存成paddle的pd_model模型在cpu上运行看看,排除x2paddle的转换问题后,再使用paddle lite的opt工具将pdmodel转换为nb模型放在安卓环境运行。
转换方式的分辨率一般是与ONNX一致的,精度默认是fp32。 如果自己定义精度,可参考https://www.paddlepaddle.org.cn/lite/v2.12/demo_guides/android_app_demo.html ,使用fp16精度进行部署。
Sorry, something went wrong.
可以使用x2paddle先保存成paddle的pd_model模型在cpu上运行 这步我之前验证了(用python),没有问题的。 paddle lite的opt工具将pdmodel转换为nb模型 这个就是用paddle官方C++代码,加载成功,调用就会崩溃,是在rk3588+麒麟系统上做的。 关于精度,我知道enable_fp16 设置为 ON,但是直接转化有个参数可以用INT8的精度,不知道这个是不是可以
您好,请问你的问题是否被解决
您好,如果没有进一步的问题,我先把这个issue关闭了。如果还有问题,您随时可以 Reopen。
shentanyue
No branches or pull requests
我这边使用的yolov5的pth模型,转化成onnx之后,通过paddle-lite (2.13rc0)与 X2Paddle(1.4.1) 转化成了nb文件,试图部署在安卓环境下,报错
使用的命令是 x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model --to_lite=True --lite_valid_places=arm --lite_model_type=naive_buffer 不知道是什么问题?以及问一句,这种转化方式的分辨率是和onnx一致么?精度是多少呢?可以自己定义精度么?
The text was updated successfully, but these errors were encountered: