锦鲤不能白拿啊,回馈社区写三篇cubeMX的AI教程 。最终实现前几天所发布的图片(https://www.stmcu.org.cn/module/forum/thread-620501-1-1.html),先介绍CNN和LeNet。& `. e5 n- e* L/ B4 j9 N! D6 p CNN并不复杂,主要是由卷积操作(对于电子出身的我们,这个不熟起码也听说过)+激活和池化(pooling),,几个层不断连接。最后输出到全连接和softmax,产生一个输出,这个输出是一个向量,向量长度和我们的分类个数一致。 先介绍卷积操作: 注意卷积操作改变了输入矩阵的大小(4x3 -> 3x2),少了一行一列。在这里会有另外一个操作 补零(padding),在缺少的一行一列上补零。6 t# p: B% q J8 j* H 激活函数,整流线性单元 (ReLU)。一个图就可以看清楚。 % d" w( n! r+ { 池化:池化很容易理解, . S, ?) ^) W# I8 Z& B 全连接和softmax都比较容易理解,大家可以参考博客等。图片均来自网络和deep learning book(深度学习圣经级教科书) ; v" z6 y2 D3 h& a- | g LeNet-5(没记错的话是lecun所创建的网络)是一个较简单的卷积神经网络。下图显示了其结构:输入的二维图像(28x28 8bits gray),先经过两次卷积层到池化层,再经过全连接层,最后使用softmax分类作为输出层。) R0 e& ^" ]# _4 H) E* `0 o8 L6 [ " n n1 ~ n8 K# e , x$ |* T4 ]9 u7 i) W7 t/ B5 H 本次AI model移植采用了caffe 训练模型,cubemx ai组件来翻译,需要caffemodel和lenet网络结构描述文件(prototxt)。1 |- D% C+ \& A0 C, N: H 下篇跳过caffe(网上大量教程资源,不赘述),直接来到移植和代码详解。 |
【STM32H7S78-DK评测】移植AI框架TensorFlow【DSP指令加速篇】
【STM32H7S78-DK评测】移植AI框架TensorFlow【下篇】
【STM32H7S78-DK评测】移植AI框架TensorFlow Lite【上篇】
【STM32H7S78-DK评测】移植边缘AI推理框架——TFLM(TensorFlow Lite for Microcontrollers)上篇
破解边缘AI硬件与软件挑战,意法半导体解读三大创新要点
意法半导体助力企业产品智能化,加快边缘人工智能应用
STM32不至于芯,2023济南站研讨会
ST机器学习汽车解决方案
Cube.AI和NanoEdge AI具备哪些优秀的功能
边缘AI领域,ST可以提供哪些软硬件支持
Tensorflow上手有点难度。
' f9 y, o' K M
这个链接没内容了