【Qualcomm】高通SNPE框架的使用 | 原始模型转换为量化的DLC文件 | 在Android的DSP端运行模型
目录
① 激活snpe环境
② 设置环境变量
③ 模型转换
④ run
首先,默认SNPE工具已经下载并且Setup相关工作均已完成。同时,拥有原始模型文件,本文使用的模型文件为SNPE 框架示例的inception_v3_2016_08_28_frozen.pb
文件
。image_file_list.txt文件的内容为raw图片数据的路径。 target_raw_list.txt
文件的内容是
raw
图片数据
在
Android
设备的实际
路径
。
①
激活
snpe
环境
conda activate snpe
② 设置环境变量
source ${SNPE_ROOT}/bin/envsetup.sh
这将设置/更新以下环境变量:
- SNPE_ROOT
- PYTHONPATH
- PATH
- LD_LIBRARY_PATH
③ 模型转换
# snpe-tensorflow-to-dlc工具将TensorFlow模型转换为等效的Qualcomm® Neural Processing SDK DLC文件。
# 下面的命令将一个Inception v3 TensorFlow模型转换为Qualcomm®Neural Processing SDK DLC文件。
snpe-tensorflow-to-dlc --input_network $SNPE_ROOT/examples/Models/InceptionV3/tensorflow/inception_v3_2016_08_28_frozen.pb \
--input_dim input "1,299,299,3" --out_node "InceptionV3/Predictions/Reshape_1" \
--output_path inception_v3.dlc
量化需要另一个步骤。snpe-dlc-quantize工具用于将模型量化为支持的定点格式之一。
# 例如,下面的命令将把一个Inception v3 DLC文件转换成一个量化的Inception v3 DLC文件。
snpe-dlc-quantize --input_dlc inception_v3.dlc --input_list image_file_list.txt
--output_dlc inception_v3_quantized.dlc
④ run
Run on Android
Platform
设置SNPE_TARGET_ARCH:
export SNPE_TARGET_ARCH=aarch64-android
PUSH库和二进制文件:
将Qualcomm®Neural Processing SDK库和snpe-net-run可执行文件推送到Android目标上的/data/local/tmp/snpeexample。“SNPE_TARGET_DSPARCH”设置为目标Android设备的DSP架构。
export SNPE_TARGET_ARCH=aarch64-android
export SNPE_TARGET_DSPARCH=hexagon-v73
adb shell "mkdir -p /data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/bin"
adb shell "mkdir -p /data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/lib"
adb shell "mkdir -p /data/local/tmp/snpeexample/dsp/lib"
adb push $SNPE_ROOT/lib/$SNPE_TARGET_ARCH/*.so \
/data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/lib
adb push $SNPE_ROOT/lib/$SNPE_TARGET_DSPARCH/unsigned/*.so \
/data/local/tmp/snpeexample/dsp/lib
adb push $SNPE_ROOT/bin/$SNPE_TARGET_ARCH/snpe-net-run \
/data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/bin
PUSH模型相关数据到Android:
cd $SNPE_ROOT/examples/Models/InceptionV3
mkdir data/rawfiles && cp data/cropped/*.raw data/rawfiles/
adb shell "mkdir -p /data/local/tmp/inception_v3"
adb push data/rawfiles /data/local/tmp/inception_v3/cropped
adb push data/target_raw_list.txt /data/local/tmp/inception_v3
adb push dlc/inception_v3_quantized.dlc /data/local/tmp/inception_v3
rm -rf data/rawfiles
RUN模型:使用DSP Runtime
需要--use_dsp选项。
注意,额外的环境变量ADSP_LIBRARY_PATH必须设置为使用DSP。
adb shell
export SNPE_TARGET_ARCH=aarch64-android
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/lib
export PATH=$PATH:/data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/bin
export ADSP_LIBRARY_PATH="/data/local/tmp/snpeexample/dsp/lib;/system/lib/rfsa/adsp;/system/vendor/lib/rfsa/adsp;/dsp"
cd /data/local/tmp/inception_v3
snpe-net-run --container inception_v3_quantized.dlc --input_list target_raw_list.txt --use_dsp
exit
在run完模型后将结果pull到本地host。
adb pull /data/local/tmp/inception_v3/output output_android_dsp
python3 scripts/show_inceptionv3_classifications_snpe.py -i data/target_raw_list.txt \
-o output_android_dsp/ \
-l data/imagenet_slim_labels.txt
输出应该如下所示,显示所有图像的分类结果。
Classification results
cropped/notice_sign.raw 0.175781 459 brass
cropped/plastic_cup.raw 0.976562 648 measuring cup
cropped/chairs.raw 0.285156 832 studio couch
cropped/trash_bin.raw 0.773438 413 ashcan
至此,本文分享的内容就结束啦。