人工智能算法在过去几年极为火热,广泛应用于计算机视觉、语音识别、推荐算法以及智能机器人等领域;调研发现,工程师为了提高神经网络的准确度,一般采用更深层的神经网络,导致模型参数越来越多,该方法虽然能够极为快速、准确的进行人脸识别,但是对硬件的要求也越来越高。然而实际工程应用中需要考虑底层设备的硬件资源、功耗特性等,使用中需要将模型进行适当的裁剪,具体如下所示:
附1:人工智能在科研领域的应用:室友在中国香港读博期间,课题组成员将深度学习与分子动力学模拟相结合,做了一些势函数相关的工作。第一感觉是鄂维南老师的影响力好广,港大David J. Srolovitz课题组那边也在用相关成果,距离在纯粹的科研领域竟然不是问题,?~
附2:深度学习的持续火热,也带动了传统智能算法的工程落地:同样是旋转设备故障诊断这块,2015年课题组就做相关研究,没想到现在还有部分创业公司继续奔赴该领域;
依据项目的实际需求,综合考虑是网络的准确度、速度和规模等指标,选择合适的网络模型。其中现有开源模型对 ImageNet 数据集的识别效果如图2所示:
模型参数以及规模如下图所示:
实际工程应用中,我们可以利用迁移学习对深度学习网络进行微调,通过少量的数据对模型参数优化,进而快速到达图像识别的目的,具体的流程框架如下图所示:
参数设置主要由:1.模型网络调整:图像类别(NumFilters)、卷积核的大小(FilterSize)以及分类器的修改;2.训练参数设置: WeightLearnRateFactor 、BiasLearnRateFactor、InitialLearnRate、ValidationFrequency、MaxEpochs以及MiniBatchSize等,具体训练结果如图5所示:
调研发现,当前底层嵌入式端能够支持Keras、TFLite以及ONNX格式,因此项目中我们将训练好的模型转化为 ONNX™(开放式神经网络交换)格式,所需的命令具体如下所示:
filename = "squeezenet.onnx";
exportONNXNetwork(trainedNetwork_1,filename)
clc;
I=imread('C:\Temp\matlab\matlab\face_recognition\MOV_1692_174.jpg');
I = imresize(I, [227 227]);
[YPred,probs] = classify(trainedNetwork_1,I);
imshow(I)
label = YPred;
title(string(label) + ", " + num2str(100*max(probs),3) + "%");
过去对于人工神经网络极为熟悉,其数学上的本质属于通过迭代求解函数极值的问题,近年来,深度学习的出现解决了图像处理、语音识别等高维问题,但是从如何从数学的角度去解释工程中存在的各种现象?感觉对于该类基础问题,力学、数学等专业的老师还挺擅长,背后需要用到各种张量分析。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。