
希望论坛支持 一下markdown,我的很多程序readme都是markdown写的。 最近ST弄了个创意大赛,我参加了AI组,今天特意分享了我的测试流程。markdown写的,所以凑合看。希望各位参加比赛的顺利完成,我在疫区所以官方H7-DISCO板子收不到,等![]() 测试记录,不详细描述怎么做的,一是我觉得手把手教别人怎么做,简直是害了别人,特别是学生,二是深度学习确实所需要知识点比较多,没办法展开。 板子玩的开心就行!!! 9 \, [# Q, L0 D- l/ Q2 A" B, p # cifar10 在 nucleo STM32F767 平台的 测试6 @7 n; V1 x2 q1 M/ F ## 软件配置 ### win10 1. cubeMX 5.6.0 2. MDK 5.29a 3. cubemx扩展包--cube.AI 5.0.0 ### ubuntu16.04 6 {1 y Z! B# A. ^ 1. tensorflow 2.1.0 (内含keras) 2. python 2.7 (ubuntu16.04 自带) 3. cifar10 训练数据 ## 硬件配置 1. nucleo F767& t5 ]. A: n/ p4 [. y9 R. t 2. 自制扩展板 3. SD卡# i$ a' s# T* n; q 4. 扩展板 连接 ST-Link RX TX 引脚的杜邦线1 [1 |" c- P* `6 Y* I3 }% v0 f ) j$ _8 b, ?3 g' j( j4 x) N ## 测试步骤 ( U( D6 B8 [. o9 V6 ? * 在 ubuntu16.04 的操作不叙述" W) R+ D ?+ E% }+ c * 直接将转换的模型(模型约4MB),利用cubemx转换,暂称为STM32_AI_Model。 ![]() ![]() " E, M7 w% N5 ^1 X6 ] * 模型参数存储在W25Q128中,系统初始化时,QSPI进行内存映射,方便STM32_AI_Model读取模型参数。 * SD卡中读取29张测试图片均来自互联网,利用bmpconvST转换并缩小至32*32分辨率。, \9 D% G Y ]1 y3 u0 E * RGB每个通道需要进行预处理,即R/255 G/255 B/2557 y; f( t1 c/ U# Z1 C7 P/ i( U * 图片在STM32_AI_Model的模型输入数据组织应为:; t* ^; n5 n& z H3 H2 ?! B+ W9 e5 Q | R1 | G1 | B1 | R2 | G2 | B2 | ... | * 循环从SD卡读取BMPt图片,显示在LTCD驱动的屏幕上,经过STM32_AI_Model推理后的结果,串口打印出来。, s. B" V7 y$ F 推理结果的数据组织为: | C1 | C2 | C3 | C4 | ... | C10 |,每一哥数据代表对应种类的可能性。% \: X4 _2 M( S) m3 k9 j4 B 0 q$ @/ l# k7 `* x0 w8 L8 i1 J * 可能性最大的即为推理最有可能的种类,cifar10即十种。 ## 测试结果 u4 f N* X" ]% |) Y8 k ### 串口打印:7 I, \5 ]3 z+ V2 W, C, O8 N sd_card_mount_ok airplane: 1.000 ** e+ @( m' s( r$ T airplane: 1.000 *( }$ h9 u4 z _( a! |9 t automobile: 0.998 * automobile: 1.000 *5 y# E2 ~. j0 t airplane: 1.000 x3 u0 e y: s# f5 `# M* Y c dog: 0.584 x bird: 1.000 *! m( c- ~) a1 z; ]8 z: d# @/ o dog: 0.999 x R6 ^, r: W3 L: c6 ?5 b4 E" u7 m dog: 0.874 x 2 b6 P+ c- q4 H' q/ n, Q frog: 1.000 x ` W6 \/ b: A cat: 0.993 * dog: 0.764 x deer: 1.000 *$ {, z/ k! _% e6 u# M airplane: 0.906 x dog: 1.000 *: T4 h# E! Y; c1 k5 J, y dog: 0.999 *: P2 x+ l& o, {3 D deer: 0.810 x% j3 V* b3 d, I- h bird: 1.000 x, |. m/ c" G2 x, O9 [" B( J$ _ frog: 0.688 * w7 N) N2 G- N% F) I" \ frog: 1.000 * horse: 1.000 *& l5 D0 X- K6 E/ e2 K0 f horse: 1.000 *# E) j3 o3 u9 R3 D$ I horse: 1.000 * ship: 0.664 *# s' P! k, v& H: o( |6 v* z ship: 1.000 *7 X" g" c- B; k% Q, }( j ship: 1.000 *6 R0 B5 x, V; X5 ]5 n5 ]5 Y6 k0 [, N Y truck: 1.000 *+ E( e# s3 W/ X; ?, J& s$ ^ ship: 0.658 x truck: 1.000 *8 C! |+ L+ Z2 I/ X% f  ![]() ![]() ; a4 [$ ~/ K3 |' V# w9 r! k ### 测试准确率2 P2 r6 Z7 N4 G+ u; d7 z/ j * `# _- x. h) q+ D- B- I1 Y * 19/29*100%=65.5% ' T% z) r8 i% l z; j6 p ### 测试总结1 @; Q- G& O) _$ ? * 图片中比较常见的东西模型很容易辨认,图片第二行第三个是青蛙头上有一个蜗牛,辨认错了,还有四只猫居然只对了一只,其余的比较正常,毕竟图片分辨率不高。4 v7 a Y! `& f7 D, V3 R" u * 由于我是用的深度学习模型是cifar10测试准确率比较高的,所以模型比较大,计算复杂,STM32F7推理时间约四五秒。 0 P9 W; b" ^# N' `# D0 K( O% S 9 [' Z, v! Y9 m4 o: T/ f |
【STM32N6570-DK评测】1.开箱测评
【STM32N6570-DK评测】1.你好N6
实战经验 | STM32 AI Model Zoo 的安装及实例介绍
【STM32H7S78-DK评测】移植AI框架TensorFlow【DSP指令加速篇】
【STM32H7S78-DK评测】移植AI框架TensorFlow【下篇】
【STM32H7S78-DK评测】移植AI框架TensorFlow Lite【上篇】
【STM32H7S78-DK评测】移植边缘AI推理框架——TFLM(TensorFlow Lite for Microcontrollers)上篇
破解边缘AI硬件与软件挑战,意法半导体解读三大创新要点
意法半导体助力企业产品智能化,加快边缘人工智能应用
STM32不至于芯,2023济南站研讨会
@楼主,只是想告知一下Markdown的编辑器已经就位,欢迎楼主输出更多关于AI方面的见解
两年了,很少逛论坛了
哈哈, 欢迎多回来逛逛,提提宝贵意见% K# Y* [1 V& `