最近拿到一块CORE-3399PRO-JD4开发板,要在上面部署AI应用。这块板子搭载Rockchip RK3399Pro处理器,采用双核 Cortex-A72+四核 Cortex-A53构架,主频高达 1.8GHz,集成四核Mali-T864 GPU,并内置高性能NPU,号称性能优异。但是实际过程中,发现发热严重,要使用NPU需要把算法移植到Rockchip提供的RKNN-Toolkit开发套件。按照官方文档把板子刷成了ubuntu18.4,然后安装了RKNN,打算把现有模型转换一下,结果发现:
- 适配的tensorflow版本较低(RKNN 1.3 支持tensorflow 1.10.1),2.0版本的模型无法转换。
- ONNX版本模型转换失败,应该也是版本不对
- pytorch干脆没有迁移到板子上,官方例程都跑不起来。
实在没办法,只能先不用NPU把应用跑起来试试。这里把编译在ARM Ubuntu18.04上编译pytorch和opencv的过程记录一下。
编译PyTorch
在开发板上编译,需要先安装编译工具链(要联网)。因为开始编译前我已经折腾这块板子好多天了,下面列出的依赖可能不是全部。
1 | sudo apt-get install libopenblas-dev libblas-dev m4 cmake cython |
然后安装python依赖,我这里使用的是python3.6。
1 | pip3 install numpy pyyaml cyphon |
从gitbub拿下来pytorch源码,submodule update 过程必不可少。
1 | git clone --recursive https://github.com/pytorch/pytorch |
配置环境变量
1 | export NO_CUDA=1 #不适用cuda |
需要注意的是MAX_JOBS是并行编译的最大线程数。(虽然CORE-3399PRO-JD4 这块板子是6核CPU,可以支持6线程编译,但是它只有4GB内存,编译一些复杂模块时,GCC会耗尽内存崩溃。我的经验是先用4线程或6线程编译,遇到GCC崩溃,再改回单线程编译,耗内存的模块编译过之后再改回6线程编译。)
开始编译
1 | #打包成whl,打包成功后这个文件在dist目录里面 |
安装编译好的wheel包
1 | cd dist |
编译TorchVision
先安装编译依赖
1 | sudo apt-get install libjpeg-dev libavcodec-dev libavformat-dev libswscale-dev |
从gitbub clone 代码
1 | git clone https://github.com/pytorch/vision.git |
开始编译
1 | #打包成whl |
安装
1 | cd dist |
编译OpenCV
ubuntu 18.04 可以直接用 apt
安装opencv 3.2,但是我们之前的一个应用至少需要3.3版本,所以也需要重新编译。
首先安装工具链
1 | sudo apt-get install build-essential cmake git libgtk2.0-dev pkg-config libavcodec-dev libavformat-dev libswscale-dev |
下载OpenCV和opencv_conrib 源码
1 | wget -O opencv-3.3.0.zip https://github.com/opencv/opencv/archive/3.3.0.zip |
配置cmake
1 | mkdir build |
开始编译
1 | make -j 4 |
打包和安装
1 | make package |
软件包下载
由于是在开发板上编译,PyTorch花费了大概4个小时,OpenCV也需要1个小时。我把编译好的包上传到了github,有需要的可以直接下载: