
希望论坛支持 一下markdown,我的很多程序readme都是markdown写的。 最近ST弄了个创意大赛,我参加了AI组,今天特意分享了我的测试流程。markdown写的,所以凑合看。希望各位参加比赛的顺利完成,我在疫区所以官方H7-DISCO板子收不到,等![]() 测试记录,不详细描述怎么做的,一是我觉得手把手教别人怎么做,简直是害了别人,特别是学生,二是深度学习确实所需要知识点比较多,没办法展开。6 z& ]) U8 K+ w 板子玩的开心就行!!! # cifar10 在 nucleo STM32F767 平台的 测试' o9 W5 j# X3 m ## 软件配置0 S E, n4 U7 [% N' E1 S/ [ ### win108 C% j* t( d0 {: l+ }" U# S! C* o% H 1. cubeMX 5.6.0: T- g3 s# r1 k0 l$ A 2. MDK 5.29a 3. cubemx扩展包--cube.AI 5.0.0, w) z- k* n& S$ m, {- G ### ubuntu16.04 " u8 `8 t# S/ w( W# v0 ^% m) ? 1. tensorflow 2.1.0 (内含keras) 2. python 2.7 (ubuntu16.04 自带)- _% n' S3 J2 p. ?! @2 | 3. cifar10 训练数据2 @9 |9 q8 y% ~ q# L/ w+ u 4 X9 ] l5 S% E9 | ## 硬件配置 1. nucleo F767% B& P; N+ s7 s# l4 L3 t7 i6 g 2. 自制扩展板 3. SD卡 4. 扩展板 连接 ST-Link RX TX 引脚的杜邦线4 A. g) M4 @7 P4 { 9 [8 u! Y/ G+ y. U6 `1 L6 K ## 测试步骤 % m& j2 B& r( S% |, C' c* m * 在 ubuntu16.04 的操作不叙述 * 直接将转换的模型(模型约4MB),利用cubemx转换,暂称为STM32_AI_Model。 ![]() ![]() 1 x( L* F! @5 F * 模型参数存储在W25Q128中,系统初始化时,QSPI进行内存映射,方便STM32_AI_Model读取模型参数。 * SD卡中读取29张测试图片均来自互联网,利用bmpconvST转换并缩小至32*32分辨率。+ K6 U4 O s1 k* N7 j$ V2 E/ o- S * RGB每个通道需要进行预处理,即R/255 G/255 B/255, [% f( g, q! s6 K% L4 b1 p * 图片在STM32_AI_Model的模型输入数据组织应为:+ l! \3 c$ r% ~6 u9 V- c | R1 | G1 | B1 | R2 | G2 | B2 | ... | * 循环从SD卡读取BMPt图片,显示在LTCD驱动的屏幕上,经过STM32_AI_Model推理后的结果,串口打印出来。 推理结果的数据组织为:: V9 T* ^+ H: ?; q- } | C1 | C2 | C3 | C4 | ... | C10 |,每一哥数据代表对应种类的可能性。 # ^5 V+ d: a! P; D/ y4 F * 可能性最大的即为推理最有可能的种类,cifar10即十种。! \4 ` V# }2 \$ k2 { ## 测试结果, i6 v* e4 {, E. R# g ### 串口打印:9 u& z) y- j( j( p& m sd_card_mount_ok airplane: 1.000 * airplane: 1.000 * automobile: 0.998 * automobile: 1.000 * airplane: 1.000 x5 ~: E6 i! W0 T5 k! O dog: 0.584 x bird: 1.000 * dog: 0.999 x0 Q2 W2 m( S( K8 X7 P dog: 0.874 x frog: 1.000 x% }! r) a' J8 [% f; O5 Z cat: 0.993 *" D9 Z7 ~7 o0 t+ c7 w dog: 0.764 x deer: 1.000 * airplane: 0.906 x+ f4 |: M2 x, F1 y dog: 1.000 *% b i) U- h/ p" Z7 v7 i) B dog: 0.999 *2 N M; x- V7 p8 c5 M deer: 0.810 x- m0 q8 k, N9 X bird: 1.000 x frog: 0.688 * frog: 1.000 * horse: 1.000 */ B( l& m' Q. k# F horse: 1.000 *7 {1 E" f2 k" a horse: 1.000 * ship: 0.664 * ship: 1.000 *8 Y t- I u7 U! | \ ship: 1.000 *7 Z" b6 ^1 U. z8 f# C1 b truck: 1.000 * ship: 0.658 x truck: 1.000 *( |8 p: }4 j8 ?. V& M- }  ![]() ![]() + w2 H8 @. E) Y4 F2 p* V ### 测试准确率 * 19/29*100%=65.5%) B3 D2 Q3 {& j2 \ ### 测试总结 * 图片中比较常见的东西模型很容易辨认,图片第二行第三个是青蛙头上有一个蜗牛,辨认错了,还有四只猫居然只对了一只,其余的比较正常,毕竟图片分辨率不高。7 R$ B5 k/ ]! m" c1 p6 ]6 M+ R8 E; i) @ * 由于我是用的深度学习模型是cifar10测试准确率比较高的,所以模型比较大,计算复杂,STM32F7推理时间约四五秒。" ?0 R {+ x8 {( c0 k8 W. ?0 Q+ _ 3 }# j+ o8 V; c |
【STM32N6570-DK评测】1.开箱测评
【STM32N6570-DK评测】1.你好N6
实战经验 | STM32 AI Model Zoo 的安装及实例介绍
【STM32H7S78-DK评测】移植AI框架TensorFlow【DSP指令加速篇】
【STM32H7S78-DK评测】移植AI框架TensorFlow【下篇】
【STM32H7S78-DK评测】移植AI框架TensorFlow Lite【上篇】
【STM32H7S78-DK评测】移植边缘AI推理框架——TFLM(TensorFlow Lite for Microcontrollers)上篇
破解边缘AI硬件与软件挑战,意法半导体解读三大创新要点
意法半导体助力企业产品智能化,加快边缘人工智能应用
STM32不至于芯,2023济南站研讨会
@楼主,只是想告知一下Markdown的编辑器已经就位,欢迎楼主输出更多关于AI方面的见解
两年了,很少逛论坛了
哈哈, 欢迎多回来逛逛,提提宝贵意见