|
我的问题是我使用x-cube-ai对我的onnx模型进行分析验证,我发现量化前后onnx模型他的flash,ram占用下降的似乎并不明显,我量化使用的工具是onnx_runtime,量化方式是静态QDQ的方式,以model_1为例,量化前total flash为138.89kb但量化后我的flash反而升高了为157.49kb,我看主要的原因是量化前后flash几乎没什么变化,产生这种情况的原因是因为我的量化方式与x-cube-ai支持的int8量化不兼容吗?官方有专用的量化工具吗?
|
将.sfi文件下载到STM32H753时报错
【板卡申请】一个初中生的边缘节点项目:从 MP1x 到 MP2x 的升级求助
请问我的CubeMX为什么初始界面没有ai选项,进去之后也没有addnetwork?
STM32H523CEU6的Pin41和Pin42能否作为USART6使用?
stm32H743 SAI作为从机问题???
H563ZI DA 认证失败
stm32H743使用CubeMxAi导入模型文件,需要将测试数据进行识别,不知道如何传入参数
关于外部事件(EXTI0)触发SPI读取数据
STM32Cube.AI 工具优化模型
——STM32H747XG下载一次仿真器就检测不到,运行不能正常 原理图是否有问
微信公众号
手机版
ST公司目前并没有提供单独的模型量化工具,都是集成在ST Edge AI / X-CUBE-AI生态工具链里。ST EdgeAI core支持:
支持 8-bit quantized neural network
支持 ONNX QDQ
支持 静态量化
支持量化相关配置与校准流程
支持量化模型分析、验证和部署
关于你的问题,建议检查核对下面因素:
1:确认量化脚本是否严格符合ST 推荐配置:
quant_format=QuantFormat.QDQ
activation_type=QuantType.QInt8
weight_type=QuantType.QInt8
per_channel=True
optimize_model=True
2:确认当前ONNX 的opset,检查是不是 opset13。
3:量化前做下简化
详细内容可以阅读下面站点:
Quantized model support