你的浏览器版本过低,可能导致网站不能正常访问!
为了你能正常使用网站功能,请使用这些浏览器。

x-cube-ai的compression压缩选项和量化

[复制链接]
Jack shu 提问时间:2026-4-21 10:00 / 未解决

我的问题是我使用x-cube-ai对我的onnx模型进行分析验证,我发现量化前后onnx模型他的flash,ram占用下降的似乎并不明显,我量化使用的工具是onnx_runtime,量化方式是静态QDQ的方式,以model_1为例,量化前total flash为138.89kb但量化后我的flash反而升高了为157.49kb,我看主要的原因是量化前后flash几乎没什么变化,产生这种情况的原因是因为我的量化方式与x-cube-ai支持的int8量化不兼容吗?官方有专用的量化工具吗?

image.pngimage.pngnetwork_model_1.onnx1.png

qdq_st_network_model_1.onnx.png

收藏 评论1 发布时间:2026-4-21 10:00

举报

1个回答
xmshao 回答时间:4 小时前

ST公司目前并没有提供单独的模型量化工具,都是集成在ST Edge AI / X-CUBE-AI生态工具链里。ST EdgeAI core支持:

支持 8-bit quantized neural network

支持 ONNX QDQ

支持 静态量化

支持量化相关配置与校准流程

支持量化模型分析、验证和部署

关于你的问题,建议检查核对下面因素:

1:确认量化脚本是否严格符合ST 推荐配置:

quant_format=QuantFormat.QDQ

activation_type=QuantType.QInt8

weight_type=QuantType.QInt8

per_channel=True

optimize_model=True

2:确认当前ONNX 的opset,检查是不是 opset13。

3:量化前做下简化

详细内容可以阅读下面站点:

Quantized model support

所属标签

相似问题

官网相关资源

关于
我们是谁
投资者关系
意法半导体可持续发展举措
创新与技术
意法半导体官网
联系我们
联系ST分支机构
寻找销售人员和分销渠道
社区
媒体中心
活动与培训
隐私策略
隐私策略
Cookies管理
行使您的权利
官方最新发布
STM32N6 AI生态系统
STM32MCU,MPU高性能GUI
ST ACEPACK电源模块
意法半导体生物传感器
STM32Cube扩展软件包
关注我们
st-img 微信公众号
st-img 手机版