你的浏览器版本过低,可能导致网站不能正常访问!
为了你能正常使用网站功能,请使用这些浏览器。

STM32N6通过X-CUBE-AI部署模型到工程后,如何调用API函数接口?

[复制链接]
大ぃ妖怪 提问时间:2025-9-29 00:44 / 未解决

模型已经通过X-CUBE-AI部署到工程内部,

void MX_X_CUBE_AI_Process(void)

{

/ USER CODE BEGIN 6 / LL_ATON_RT_RetValues_t ll_aton_rt_ret = LL_ATON_RT_DONE;

const LL_Buffer_InfoTypeDef * ibuffersInfos = NN_Interface_Default.input_buffers_info();

const LL_Buffer_InfoTypeDef * obuffersInfos = NN_Interface_Default.output_buffers_info();

buffer_in = (uint8_t *)LL_Buffer_addr_start(&ibuffersInfos[0]);

buffer_out = (uint8_t *)LL_Buffer_addr_start(&obuffersInfos[0]);

LL_ATON_RT_RuntimeInit();

// run 10 inferences

for (int inferenceNb = 0; inferenceNb<10; ++inferenceNb) {

/ ------------- /

/ - Inference - /

/ ------------- /

/ Pre-process and fill the input buffer /

//_pre_process(buffer_in);

/ Perform the inference /

LL_ATON_RT_Init_Network(&NN_Instance_Default); // Initialize passed network instance object

do {

/ Execute first/next step /

ll_aton_rt_ret = LL_ATON_RT_RunEpochBlock(&NN_Instance_Default);

/ Wait for next event /

if (ll_aton_rt_ret == LL_ATON_RT_WFE) {

LL_ATON_OSAL_WFE();

}

} while (ll_aton_rt_ret != LL_ATON_RT_DONE);

/ Post-process the output buffer /

/ Invalidate the associated CPU cache region if requested /

//_post_process(buffer_out);

LL_ATON_RT_DeInit_Network(&NN_Instance_Default);

/ -------------------- /

/ - End of Inference - /

/ -------------------- / }

LL_ATON_RT_RuntimeDeInit();

/ USER CODE END 6 / }

看到MX_X_CUBE_AI_Process函数,那些函数是设置输入数据缓冲区和输出数据缓冲区?有没有对应的API接口文档

收藏 评论0 发布时间:2025-9-29 00:44

举报

0个回答

所属标签

相似问题

官网相关资源

关于
我们是谁
投资者关系
意法半导体可持续发展举措
创新与技术
意法半导体官网
联系我们
联系ST分支机构
寻找销售人员和分销渠道
社区
媒体中心
活动与培训
隐私策略
隐私策略
Cookies管理
行使您的权利
官方最新发布
STM32N6 AI生态系统
STM32MCU,MPU高性能GUI
ST ACEPACK电源模块
意法半导体生物传感器
STM32Cube扩展软件包
关注我们
st-img 微信公众号
st-img 手机版