欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 会展 > yolov5-6.2 在 rk3399pro 上的移植

yolov5-6.2 在 rk3399pro 上的移植

2025/7/9 15:48:54 来源:https://blog.csdn.net/zhaotun123/article/details/142065015  浏览:    关键词:yolov5-6.2 在 rk3399pro 上的移植

文章目录

    • 一、搭建yolov5环境
    • 二、导出onnx模型
    • 三、安装 rknn-toolkit
    • 四、通过netron 查看 yolov5s.onnx 输出节点
    • 五、创建 onnx2rknn.py 文件
    • 六、通过toolkit将onnx转换为rknn模型
    • 七、在rk3399pro开发板上运行rknn模型

一、搭建yolov5环境

从yolov5官方仓库 ultralytics/yolov5/releases 中下载 yolov5-6.2 代码。
解压后,修改 requirements.txt :
1、将第12行 torch>=1.7.0 改为 torch==1.9.0
因为只有 pytorch 1.8.0 或 1.9.0 版本才能正常导出模型
2、删除第28、29行 onnx>=1.9.0 前的 # 号,否则无法导出onnx模型;
执行

pip install -r requirement.txt

验证环境是否搭建成功

python detect.py

二、导出onnx模型

1、进入 yolov5-6.2/models ,将 yolo.py 文件中 class Detect 中的 forward 函数,修改如下

def forward(self, x):z = []  # inference outputfor i in range(self.nl):x[i] = self.m[i](x[i])  # convreturn x[0],x[1],x[2]

在这里插入图片描述
2、进入 yolov5-6.2 主目录,执行以下命令导出onnx模型

python export.py --weights yolov5s.pt --img 640 --batch 1 --opset 12 --include onnx

执行成功后,将在 yolov5s.pt 同目录生成 yolov5s.onnx 文件

三、安装 rknn-toolkit

1、下载docker版本的toolkit
从 rockchip-linux/rknn-toolkit 下载 docker版本的toolkit,提取码:rknn
在这里插入图片描述
这里下载的是 1.7.3 版本
在这里插入图片描述
2、在安装有docker的linux服务器上导入上述toolkit

docker load --input rknn-toolkit-1.7.3-docker.tar.gz

导入完成后执行 docker images,将看到 toolkit-1.7.3 镜像
在这里插入图片描述
执行以下命令,进入docker

docker run -t -i --privileged -v $PWD:/test rknn-toolkit:1.7.3 /bin/bash

其中 -v $PWD:/test 是指把当前目录映射到docker容器的/test目录内,这样当要和docker容器内部进行文件传输时,只需把需要传输的文件放到当前目录,就能在 docker 容器内的 /test 目录看到,反之亦然。
执行成功后,将自动进入docker容器内
在这里插入图片描述
可以看到已经有一个 test 目录,test 目录的内容就是服务器当前目录的内容。

四、通过netron 查看 yolov5s.onnx 输出节点

先安装后 netron,然后netron打开上述第二步导出的 yolov5s.onnx 模型,点击左上角图标,即可看到输出节点信息
在这里插入图片描述
可以看到这里的输出节点分别是: output、327、328,记住这几个输出节点,下一步导出rknn时将用到

五、创建 onnx2rknn.py 文件

在该文件中指定onnx_model路径,platform,以及 rknn.load_onnx 时一定要指定上一步查看的输出节点信息

from rknn.api import RKNN
ONNX_MODEL = 'yolov5s.onnx'
platform = "rk3399pro"
RKNN_MODEL = 'yolov5s_{}_out_opt.rknn'.format(platform)
if __name__ == '__main__':add_perm = False # 如果设置成True,则将模型输入layout修改成NHWC# Create RKNN objectrknn = RKNN(verbose=True)# pre-process configprint('--> config model')rknn.config(batch_size=1, mean_values=[[0, 0, 0]], std_values=[[255, 255, 255]], reorder_channel='0 1 2', target_platform=[platform], force_builtin_perm=add_perm, output_optimize=1)print('done')# Load tensorflow modelprint('--> Loading model')ret = rknn.load_onnx(model=ONNX_MODEL,outputs=['output', '327', '328'])# 这里一定要根据onnx模型输出节点进行修改if ret != 0:print('Load onnx model failed!')exit(ret)print('done')# Build modelprint('--> Building model')ret = rknn.build(do_quantization=True, dataset='./dataset.txt')if ret != 0:print('Build rkmodel failed!')exit(ret)print('done')# rknn.export_rknn_precompile_model(RKNN_MODEL)rknn.export_rknn(RKNN_MODEL)rknn.release()

六、通过toolkit将onnx转换为rknn模型

1、将上述第二步导出的 yolov5s.onnx 模型以及 第五步创建的 onnx2rknn.py 放到服务器当前目录,即映射到docker容器内/test目录的目录;
2、进入docker容器内,执行

cp /test/yolov5s.onnx /examples/onnx/yolov5/
cp /test/onnx2rknn.py /examples/onnx/yolov5/
cd /examples/onnx/yolov5/
python onnx2rknn.py
cp yolov5s_rk3399pro_out_opt.rknn /test

执行完成后将生成相应的 yolov5s_rk3399pro_out_opt.rknn 模型
在这里插入图片描述

七、在rk3399pro开发板上运行rknn模型

1、下载 airockchip/RK3399Pro_npu,将其放到 rk3399pro 开发板上;
2、如有必要,根据说明更新NPU驱动,只需要替换相应的boot.img 即可;
3、进入 RK3399Pro_npu-main/rknn-api/examples/c_demos/rknn_yolov5_demo 目录,执行以下命令

cd RK3399Pro_npu-main/rknn-api/examples/c_demos/rknn_yolov5_demo
mkdir build
cd build
cmake -DCMAKE_C_COMPILER=/usr/bin/gcc -DCMAKE_CXX_COMPILER=/usr/bin/g++ ..
make -j4

执行成功后,将在build目录生成可执行程序 rknn_yolov5_demo
4、将上述第六步导出的yolov5s_rk3399pro_out_opt.rknn模型上传到rk3399pro的
RK3399Pro_npu-main/rknn-api/examples/c_demos/rknn_yolov5_demo/model 目录
5、在RK3399Pro_npu-main/rknn-api/examples/c_demos/rknn_yolov5_demo创建以下运行脚本 run_demo.sh

export LD_LIBRARY_PATH=./lib/
./build/rknn_yolov5_demo  model/yolov5s_rk3399pro_out_opt.rknn  model/bus.bmp

6、执行脚本

./run_demo.sh

正常将输出预测信息
在这里插入图片描述
可视化结果如图所示
在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词