|
模型已经通过X-CUBE-AI部署到工程内部, void MX_X_CUBE_AI_Process(void) { / USER CODE BEGIN 6 / LL_ATON_RT_RetValues_t ll_aton_rt_ret = LL_ATON_RT_DONE; const LL_Buffer_InfoTypeDef * ibuffersInfos = NN_Interface_Default.input_buffers_info(); const LL_Buffer_InfoTypeDef * obuffersInfos = NN_Interface_Default.output_buffers_info(); buffer_in = (uint8_t *)LL_Buffer_addr_start(&ibuffersInfos[0]); buffer_out = (uint8_t *)LL_Buffer_addr_start(&obuffersInfos[0]); LL_ATON_RT_RuntimeInit(); // run 10 inferences for (int inferenceNb = 0; inferenceNb<10; ++inferenceNb) { / ------------- / / - Inference - / / ------------- / / Pre-process and fill the input buffer / //_pre_process(buffer_in); / Perform the inference / LL_ATON_RT_Init_Network(&NN_Instance_Default); // Initialize passed network instance object do { / Execute first/next step / ll_aton_rt_ret = LL_ATON_RT_RunEpochBlock(&NN_Instance_Default); / Wait for next event / if (ll_aton_rt_ret == LL_ATON_RT_WFE) {
} } while (ll_aton_rt_ret != LL_ATON_RT_DONE); / Post-process the output buffer / / Invalidate the associated CPU cache region if requested / //_post_process(buffer_out); LL_ATON_RT_DeInit_Network(&NN_Instance_Default); / -------------------- / / - End of Inference - / / -------------------- / } LL_ATON_RT_RuntimeDeInit(); / USER CODE END 6 / } 看到MX_X_CUBE_AI_Process函数,那些函数是设置输入数据缓冲区和输出数据缓冲区?有没有对应的API接口文档 |
STM32N647的ADC-DMA模式
STM32N6的BOOT问题
STM32N6的CSI接收mipi信号时,进入数据线错误控制中断
请问 模型中用了torch.mul()算子,将模型保存为onnx格式,上传到ST Edge AI 解析失败,这个问题怎么解决?
x-cube-ai的compression压缩选项和量化
GPDMA+NVIC+ADC采集(ADF采集)
STMN6求教:是否可以移植人脸识别模型,检测图形中是谁的能力?
YOLOv8模型已经通过X-CUBE-AI部署在STM32N6上,如何处理模型的输出数据???
如何同时部署多个模型
【板卡申请】一个初中生的边缘节点项目:从 MP1x 到 MP2x 的升级求助
微信公众号
手机版