基于优化卷积神经网络结构的交通标志识别
2023-07-27
来源:小侦探旅游网
Journal of Computer Applications ISSN 1001.9081 2017.02.10 计算机应用,2017,37(2):530—534 文章编号:1001—9081(2017)02-0530—05 CODEN JYIIDU http://www.joca.cn DOI:10.11772/j.issn.1001—9081.2017.02.0530 基于优化卷积神经网络结构的交通标志识别 王晓斌 ,黄金杰 ,刘文举 (1.哈尔滨理工大学自动化学院,哈尔滨150080; 2.中国科学院自动化研究所,北京100190) ( 通信作者电子邮箱1wj@nlpr.ia.ac.an) 摘要:现有算法对交通标志进行识别时,存在训练时间短但识别率低,或-/e, ̄'l率高但训练时间长的问题。为此, 综合批量归一化(BN)方法、逐层贪婪预训练(GLP)方法,以及把分类器换成支持向量机(SVM)这三种方法对卷积神 经网络(CNN)结构进行优化,提出基于优化CNN结构的交通标志识别算法。其中:BN方法可以用来改变中间层的数 据分布情况,把卷积层输出数据归一化为均值为0、方差为1,从而提高训练收敛速度,减少训练时间;GLP方法则是先 训练第一层卷积网络,训练完把参数保留,继续训练第二层,保留参数,直到把所有卷积层训练完毕,这样可以有效提 高卷积网络识别率;SVM分类器只专注于那些分类错误的样本,对已经分类正确的样本不再处理,从而提高了训练速 度。使用德国交通标志识别数据库进行训练和识别,新算法的训练时间相对于传统CNN训练时间减少了20.67%, 其识别率达到了98.24%。所提算法通过对传统CNN结构进行优化,极大地缩短了训练时间,并具有较高的识别率。 关键词:卷积神经网络;批量归一化;贪婪预训练;支持向量机 中图分类号:TP391.41 文献标志码:A Trafifc sign recognition based on optimized convolutional neural network architecture WANG Xiaobin .HUANG Jinjie .LIU Wenju ’ (1.School ofAutomation,Harbin University ofScience and Technology,Harbin Heilongiiang 150080,China; 2.Institute ofAutomation,Chinese Academy ofSciences,Beijing 100190,China) Abstract:In the existing algorithms for trafifc sign recognition,sometimes the training time is short but the recognition rate is low,and other times the recognition rate is high but the training time is long.To resolve these problems,the Convolutional Neural Network(CNN)architecture was optimized by using Batch Normalization(BN)method,Greedy L町eI— Wise Pretraining(GLP)method and replacing classiifer with Support Vector Machine(SVM),and a new trafifc sign recognition algorithm based on optimized CNN architecture was proposed.BN method was used to change the data distirbution of the middle layer,and the output data of convolutional layer was normalized to the mean value of 0 and the varinace value of 1,thus accelerating the training convergence and reducing the training time.By using the GLP method,the first layer of convolutional network was trained with its parameters preserved when the training was over,then the second layer was also  ̄ained with the parameters preserved until all the convolution layers were trained completely.The GLP method can effectively improve the recognition rate of the convolutional network.The SVM classiifer only focused on the samples with error classification and no longer processed the correct samples,thus speeding up the training.The experiments were conducted on Germany traffic sign recognition benchmark,the results showed that compared with the traditional CNN,the training time of the new algorithm was reduced by 20.67%.and the recognition rate of the new algorithm reached 98.24%.The experimentla results prove that the new algorithm greatly shortens the training time and reached a hiSh recognition rate by optimizing the structure of the traditional CNN. Key words:Convolutional Neurla Network(CNN);batch normalization;Greedy Layer—wise Pretraining(GLP);Support Vector Machine(SVM) 0 引言 程中,交通标志识别往往是在复杂的室外交通环境下进行的, 比一般静止的事物识别更难,主要体现在:复杂多变的光照条 随着我国经济的发展,交通越来越发达,同时随着私家车 件;背景环境干扰;交通标志遮挡;交通标志位置倾斜…。受 的增多,交通事故频发,安全驾驶问题越来越突出,于是智能 干扰图例如图1所示。为了解决这些问题,大量的复杂算法 交通系统应运而生。交通标志识别是智能交通系统的重要组 被提出,造成识别率高但训练速度过慢,或者训练速度快但识 成部分,在交通安全运行方面具有重大的现实意义,它能够减 别率低的问题,因此交通标志快速训练与准确识别是迫切需 少驾驶员的驾驶疲劳,更好地保证出行安全。在汽车运行过 要解决的问题。 收稿日期:2016-07—28;修回日期:2016・09—21。 基金项目:国家自然科学基金资助项目(61573357,61503382,61403370,61273267)。 作者简介:王晓斌(1990一),男。山东潍坊人,硕士研究生,主要研究方向:图像识别、目标检测;黄金杰(1967一),男,山东莱阳人,教授, 博士,主要研究方向:智能建模、优化控制、模式识别;刘文举(196o一),男,北京人,教授,博士,主要研究方向:机器学习、语音增强、语音识别、 声源定位、声音事件检测、图像识别。 第2期 王晓斌等:基于优化卷积神经网络结构的交通标志识别 53l 目前已经有很多传统分类器,包括支持向量机(Support 与每个神经元全连接,就会有n×/7,×m个参数,导致参数灾 难,训练会非常困难,因此必须想办法减少参数。对于CNN 来说,一幅1 000×1 000像素的图像,如果局部感受野范围是 50×50,那么仅仅会有50×50个参数,这是一种特征,如果要 识别一种图像,可以设计100个滤波器,参数也仅仅是50× 50×100,所以参数大幅减少,训练速度也会大大加快。 CNN结构由输入层、卷积层和采样层组成。图2所示是 交通标志识别CNN结构,在图中,输入的是交通标志的图像, 先经过第一层卷积c1,滤波器个数是8个大小为5×5,形成 Vector Machine,SVM) 一、贝I1-r斯分类器 j、随机森林分类器等 被用于交通标志识别。这些方法均先利用典型的特征描述方 法如尺度不变特征变换(Scale—Invariant Feature Transform, SIFT) 、加速鲁棒特征(Speeded Up Robust Feature, SURF)[5 7、方向梯度直方图(Histogram of Oriented Gradient, HOG) 等对训练样本进行低层次特征提取,包含角点、边缘、 纹理等,然后对这些特征进行训练分类操作。这些特征描述方 法主要是由人工设计的,设计它们需要大量的时间,尽管这些 算法训练时间很短,但是识别率很低,不能实现准确应用。 深度学习是目前在目标识别方面应用最多的方法。深度 8个特征映射图,每个特征映射图大小为44;然后再经过采样 层s2,使用的采样核大小为2×2,得到8个特征图,特征图大 小是22;第二卷积层C3产生l4个特征图,卷积核大小3×3, 产生l4个特征图大小是20;再经过采样,采样核大小是2× 2,产生14个特征图,每个特征图大小是lO,把14个特征图压 缩成一维连接起来与c5层120个神经元全连接;最后一层是 分类器,采用全连接方式进行分类输出。这就是一个完整的 卷积神经网络结构。 学习的实质是通过构建具有很多隐层的机器学习模型和训练 数据,自发地学习更高层次的特征,从而最终提升分类或预测 的准确性。和传统的学习方法相比,深度学习更能够刻画数 据丰富的内在信息。本文主要使用卷积神经网络 (Convolutional Neurla Network.CNN) 方法。 输入 囟 西 苗 诗 囟C5:120输出 卷积 采样 卷积 采样 图2卷积神经网络结构 Fig.2 Architecture of CNN 图1受干扰图例 Fig.1 Examples of interfered signs 1.2卷积神经网络的训练 CNN是受生物的视觉系统启发而形成的,是一个多层的 神经网络结构,每个卷积层由一个滤波器层、一个非线性层、 一CNN的训练过程主要采用的是反向传播算法,首先输入 数据,进行前向计算,然后再反向计算误差,并对误差求各个 权值和偏置的偏导数,依靠这个偏导数调整各个权值和偏差。 在开始训练前,所有的权值都应该用不同的随机数进行初始 化。选取的随机数应较小,以保证网络不会因权值过大而进 入饱和状态,从而导致训练失败;“不同”则用来保证网络可 以正常地学习。下面是用交通标志训练CNN的过程: 第一阶段,向前传播阶段: 1)从交通标志样本中选取一部分标志输入网络;n¨¨¨U 连 接 2)通过前向算法计算相应的实际输出标志类别。 n¨¨¨¨¨ 全 莲 个空间采样层组成。CNN的主要优点就是可以将数据直 接输入CNN模型而不进行任何处理,它可以自动学习图像特 征,并且具有很强的鲁棒性。Ciresan等 提出了多列卷积神 经网络算法,一共有25个卷积网络结构,每个卷积网络用不 同的方法进行训练,结果取25个网络的平均值,之后用这个 模型对测试集进行测试;Sermanet等 提出了多规模卷积网 络,把卷积网络的第二层特征和第三层特征联合送入全连接 层进行分类;Krizhevsky等 “ 提出用深度卷积神经网络对图 片进行分类。在图像数据库比赛中,这些算法都获得了比较 高的识别率;但是这些算法的共同缺点是训练时间过长,需要 第二阶段,向后传播阶段: 1)把前面计算的实际类别与真实交通标志类别进行比 较,求偏差; 2)按极小化误差的方法反向传播调整权矩阵。 下面是具体的公式推导: 1)卷积层。 大量的计算资源,其中Ciresan等 提出的方法训练时间达到 37 h,浪费了大量资源。 针对上述方法的缺点,本文对CNN结构进行了优化,包 括加入批量归一化(Batch—Normalization,BN)… 层,使用逐层 贪婪预训练(Greedy Layer—wise Pretraining,GLP)方法 进 a)卷积计算。假设第z层为卷积层,第z+1层为下采样 层,则第z层第 个特征图 的计算公式如下: =行训练,同时在最后的分类层使用支持向量机(SVM)进行分 类。其中GLP能够提高识别率,BN和SVM能够加速深度学 习训练过程。 f(∑ : £E + ) 其中: 表示在z层(卷积层)中的第 个特征图;肘 表示被选 择的输入图集合; 号实质是让卷积核k在第2—1层所有关 联的特征图上作卷积运算,然后求和,再加上一个偏置参数 6,用激活函数.厂(・)最终得到激励值的过程。 b)残差计算。卷积层的下一层是下采样层,采用的是一 对一非重叠采样,故残差计算更为简单。第z层第 个特征图 的残差计算公式如下: l 卷积神经网络 1.1卷积神经网络结构 CNN的两大优点就是局部感受野和权值共享。在传统 的神经网络结构中,一般都是全连接,导致参数非常巨大,训 练困难,速度很慢。比如一幅n×n像素图像输入全连接网 络,如果第一层神经元个数是m个,因为是全连接,每个像素 ;= f+ Jif (“;)。up( f+】)) 其中:第z层为卷积层,第f+l层为下采样层,下采样层与卷 532 计算机应用 第37卷 积层是一一对应的;up(x)是将第l+1层的大小扩展为和第2 此BN算法的关键之处就是引入参数y和 ,公式为: = 层大小一样;下采样层中的权重全都等于JB(一个常量); f (・)表示激活函数,(・)的偏导数;“。”表示每个元素相乘。 c)梯度计算。偏置参数b的导数为: aE ,f、 一abi “ 参数k的导数为: 0E ( )w(pl ) 其中: 表示第z层第 个特征图与第l一1层第i个特征图相 连所对应的核,是一个矩阵;(p: ) 表示 : 中的区域块。 2)采样层。 a)卷积计算。设第f层为下采样层,第2—1层为卷积层, 由于是一对一采样,假设采样大小为2×2,故计算公式为: ;=,(卢;down(x ̄ )+西 ) 其中:down(x)是将x中2×2的大小中像素值进行求和。计算 过程为对上一层卷积层2×2大小进行求和然后乘以权重 . 再加上一个偏置,再求取激活函数。 b)残差计算。在计算下采样层梯度时,需要找到残差图 中给定像素对应于上一层的残差图中哪个区域块,这样才可 以将残差反向传播回来。另外,需要乘以输入区域块和输出 像素之间连接的权值,这个权值实际上就是卷积核的权值。 上述过程可以使用下面的Matlab函数公式实现: f_f (“;)。cony2( l“,rot180( ), full ) 其中:第z层为下采样层,第Z+1层为卷积层。 C)梯度计算。偏置6的导数,其公式的推导过程与卷积层 一样。权重口的导数计算公式如下: =down(x ̄ ) aE ( 。 )一 2 加速训练模块和识别率模块 2.1 加速训练模块——批量归一化方法 交通标志识别主要使用CNN方法,CNN学习过程本质就 是为了学习数据分布,深度卷积网络的训练是一个复杂的过 程,只要网络的前面几层发生微小的改变,后面几层就会被累 积放大下去。一旦网络某一层的输人数据的分布发生改变, 那么这一层网络就需要学习这个新的数据分布。训练过程 中,训练数据的每一层分布一直在发生变化,并且每一层所需 要的学习率不一样,通常需要使用最小的那个学习率才能保 证损失函数有效下降,因此将会影响网络的训练速度。而BN 算法就是要解决在训练过程中,中间层数据分布发生变化的 情况,BN算法使每一层的数据都归一化为均值为0、标准差 为1,使数据稳定,因此可以使用较大的学习率进行训练,使 网络加快收敛,提高训练速度。BN算法主要使用如下公式进 行归一化: )_ 一(1) 、 其中E[x ]指的是每一批训练数据 ’的平均值;分母就是 每一批数据 的一个标准差。后面的处理也将利用式(1) 对某一个层网络的输入数据作归一化处理。需要注意的是,训 练过程中采用批量随机梯度下降方法。 如果是仅仅使用式(1)对网络某一层输出数据作归一 化,然后再送入下一层,会影响到本层网络学习到的特征。因 ‘ 王‘ + 。其中:;‘ 表示归一化为均值为0、标准差为1 的数据;y和P的作用是用来保持模型的表达能力,例如,在 sigmoid激活函数的中间部分,函数近似于一个线性函数,使 用BN后会使归一化后的数据仅分布在线性部分,使模型泛 化能力变差,引入 和卢使数据不仅分布在线性部分,也可以 分布在非线性部分,增加模型的泛化能力。当 似 :  ̄/Var[ ‘ ],卢 =EEx‘ ]时,完全可以恢复出原始的某 一层数据。 和P需要利用反向传播算法进行训练求出。下面 公式是BN层的数据归一化过程: 1 m 一 , 1 1 m, 、, 一 ( — )‘ Xi一 Xi+一— =;=== oB 8 Y +_ f+P BNr.日( ) 其中:输入值是 。, :,…, ,m是批量化的数目; 口是均值, 是方差;.), =BNr.8( )是输出。 2.2识别率模块——逐层贪婪训练 逐层贪婪预训练是一个层网络预训练结构,逐层贪婪算 法的主要思路是每次只训练网络中的一层,即首先训练一个 只含一个卷积层的网络,仅当这层网络训练结束之后才开始 训练一个有两个卷积层的网络,以此类推。在每一步中,把已 经训练好的前k一1层固定,然后增加第k层(也就是将已经 训练好的前k一1的输出作为输入)。每一层的训练是有监督 的(例如,将每一步的分类误差作为目标函数),这些各层单 独训练所得到的权重被用来初始化最终的深度网络的权重, 然后对整个网络进行“微调”(即把所有层放在一起来优化有 标签训练集上的训练误差),这就是一个完整的逐层贪婪预 训练(GLP)过程。 3 实验与分析 本次实验所用的计算机配置是CPU Xeon 2.60 GHz, centos 6.5操作系统,同时还使用了K40c显卡内存12 GB来 加速训练。 3.1数据准备 本次实验使用德国交通标志数据集(German Trafifc Sign Recognition Benchmark,GTSRB) ,该数据集包含43类从德 国真实交通环境中采集的交通标志,整个数据集共51 839幅 交通标志图像,其中训练集39209幅,测试集12630幅,每幅 图像只包含一个交通标志;且数据集中包括大量低分辨率、不 同光照强度、局部遮挡、视角倾斜、运动模糊等各种不利条件 下的图像,能够较全面地反映现实情况,以及算法的应用能 力。GTSRB数据集包括六个大类:限速标志、其他禁令标志、 解除禁令标志、指示标志、警告标志、其他标志。 由于数据集中的原始图像每幅图像只包含一个交通标 志,而且有10%的冗余边,每个图像大小尺寸并不一样,为了 提高识别率,需对其进行预处理。即先参考交通标志说明文 件把图片中10%的冗余边剪除,使交通标志充满整个图像; 然后将图像进行旋转、平移和绽放,旋转角度为一5。和5。, 左、右各平移4个像素,缩放因子为0.9和1.1,扩展成 155517张图片。这样更有利于训练过程,同时对测试集进行 更好的预测。接着将RGB图像转化成灰度图像。笔者进行 第2期 王晓斌等:基于优化卷积神经网络结构的交通标志识别 533 了相关实验,发现RGB图像识别率和灰度图像识别率大体一 致,因此为了提高计算速度,使用灰度图像进行实验。由于本 他参数两个网络结构完全相同。结果显示:使用BN算法前 的训练时间为716.74 min,而使用BN算法后的训练时间为 文使用的是卷积神经网络方法,所有的图像都必须大小一致, 所以按照以往的经验把所有的图像都转化成48×48大小。 卷积神经网络方法具有很强的鲁棒性,因此并没有使用具体 的去噪方法进行去噪。 3.2网络结构选择 568.6 arin。可以看出,在网络结构中加入BN层后,训练时间 变短,原因在于:1)BN算法对卷积后的输出数据进行了归一 化操作,使它们的均值为0、方差为1,因此不必像以前那样迁 就维度规模,可以使用大的学习率对网络结构进行训练,收敛 加快,达到最优的训练时间也就变短;2)归一化后使得更多 一在进行实验之前需要了解多少层卷积结构才能使识别率 最高,因为对于深度学习而言,随着层数增加,结构能力越强, 将会导致数据过拟合;但如果层数太少,结构能力太弱,又会 导致数据欠拟合。这两者都会导致训练错误率和测试错误率 的权重分界面落在了数据中,降低了过度拟合的可能性,因此 些防止过拟合但会降低速度的方法,例如dropout和权重衰 减就可以不使用或者降低其权重,从而提高训练速度。 3.4识别率对比 升高。为了选择卷积层数,使用逐层增加的方法,直到随着层 数增加,识别率不再明显变化,就可以确定最优层数。这里使 用的数据还是德国交通标志数据库,分为训练集和测试集。 在选择之前,每一层滤波器都是使用108个,滤波器随机初始 化,实验结果如图3所示。从图3中可以看出,随着层数增加 识别率逐渐增加,随后不变或者下降。因此关于卷积神经网 络结构选择三层最为合适,识别率也最高。 而关于滤波器个数选择,同样也是先参考文献[9—10], 选择默认卷积层数为3层,然后在这个基础上再进行实验,结 果如表1所示。从表1可以看出,尽管滤波器越多正确率越 高,但是如果选择90.108—108结构,会因为滤波器过多而使 得计算复杂,训练时间过长。综合考虑,选择90-108—108,其 中90代表第一层滤波器个数,以此类推。 蒋 罱 网络层数 图3识别率随层数变化曲线 Fig.3 Curve of recognition rate varied with the number of layers 表l滤波器个数与正确率的关系 Tab.1 Relationship between the number of filters and correct rate 尺寸 正确率/% 尺寸 正确率/% 5O.9O 130 95.83 108—130.150 96.41 90 108—108 96.22 130.160—190 96.57 在选择好层数和滤波器个数后,在本次实验中使用隐层层 数为1;参考文献[14],本次实验使用隐层神经元个数为500。 3.3训练速度对比 本次实验设计的网络结构是三层卷积神经网络、一个隐 层和一个分类层,分类层分别使用softmax和SVM分类器,网 络训练时间分别是830.38 min和664.91 rain。可以看出,使 用SVM训练时间明显比softmax训练时间短,因为对于 softmax来说,当某类的概率已经大于0.9时,这就意味着分 类正确,然而损失函数会继续计算,直到概率接近1,这样会 造成计算资源的浪费;而SVM分类器只专注于那些分类错误 的样本,对已经分类正确的样本不再处理,从而能大幅提高训 练速度,同时还能提高模型的泛化能力,提高识别率。因此后 续实验中的分类层采用SVM分类器。 接下来实验使用的网络结构包括三个卷积层、两个隐层 和一个分类层;而对比结构也是三层卷积网络结构,只是每一 层卷积后都使用BN算法,然后是两个隐层和一个分类层,其 为了验证加入逐层贪婪预训练(GLP)方法后比优化前 的三层卷积网络更优,设计两个结构完全一致的网络,均包括 三层卷积、一个隐层和一个分类层,只是在训练方法上不同。 结果显示:优化前的识别率为97.36%,优化后的识别率为 98.03%。可以看出,使用GLP方法的识别率比优化前的三 层卷积识别率要高。在训练深层网络时,经常会遇到局部极 值问题或者梯度弥散问题,当使用反向传播方法计算导数时, 随着网络深度的增加,反向传播的梯度(从输出层到网络的 最初几层)的幅度值会急剧地减小,结果就造成了整体的损 失函数相对于最初几层的权重的导数非常小。这样,当使用 梯度下降法时,最初几层的权重变化非常缓慢,以至于它们不 能够从样本中进行有效的学习。因此,当使用贪婪预训练方 法时。相比随机初始化而言,各层初始权重会位于参数空间中 较好的位置上,然后可以从这些位置出发进一步微调权重。 从经验上来说,以这些位置为起点开始梯度下降更有可能收 敛到比较好的局部极值点,从而使用逐层贪婪训练方法能够 更好地训练网络,使网络达到最优。 尽管本文算法还没有达到官网公布的最优识别率,但是 该算法对原始卷积神经网络进行了优化,用逐层贪婪方法预 训练网络,使网络跳出局部极值;而且在卷积网络中加入BN 层,把原来的softmax分类器换成了SVM分类器,极大地缩减 了训练时间,能快速收敛到最优值。 图4是本次实验训练测试曲线,可以看出,网络在测试之 前参数已经训练到稳定状态,证明结论是可信的。虽然 Ciresan等 提出的Committee of CNNs算法有很高的识别率, 然而该网络需要用4块GPU训练37 h,训练前需进行大量的 预处理,操作复杂;而Random Forests算法、ANN算法、SVM 算法尽管训练时间短,但识别率并不是很高(各算法的识别 率对比如表2所示)。因此本文算法解决了识别率低、训练时 间长的问题。交通标志识别错误部分,主要是由自然条件比 较差、分辨率太低造成的,今后应该加强数据预处理,使数据 更加清晰,易于识别。 暴 epoch次数 图4训练测试曲线 Fig.4 Curve of training and testing 534 表2各算法识别率对比 Tab.2 Comparison of recognition rates of diferent algorithms计算机应用 % % 第37卷 issue:Advances in Neural Networks Research——IJCNN'03,2003, 16(5/6):555—559. [8] CIRE ̄AN D,MEIER U,MASCI J,et a1.Multi-column deep neu— ral network for traffm sign classification【j].Neural Networks, 2012,32:333—338. 算法 SVM ANN Random Forests 识别率 81.47 89.63 96.14 算法 Cony+GLP+BN+SVM Committee of CNNs 识别率 98.24 99.46 [9】 SERMANET P,LeCUN Y.Traffic sign recognition with multi—scale convolutional networks【C】//UCNN 201 1:Proceedings of the 201 1 4 结语 本文提出了基于优化卷积神经网络结构的交通标志识别 算法,并在德国交通标志识别数据库上进行实验,实验结果表 International Joint Conference on Neural Networks.Piscataway,NJ: IEEE.2011:2809—2813. 【10】 KmZHEVSKY A,SU咧 vFR I,HINTON G E.ImageNet classi— ifcation with deep convolutional neurla networks【J].Advances in 明该算法可以提高交通标志的训练速度,同时提高识别率。 本文算法主要对卷积神经网络结构进行了三部分的优化:第 在每一层卷积后面加入了批量归一化层;第二使用逐层贪 一Neural Information Processing Systems,2012,25(2):1097—1105. 【11】 IOFFE S,SZEGEDY C.Batch normalization:accelerating deep network training by reducing internal covariate shit【C】//ICML f2015:Proceedings of The 32nd International Conference on Ma— chine Learning.New York:ACM,2015:448—456. 。婪预训练方法对网络结构进行训练;第三使用支持向量机进 行分类。下一步工作的目标是在更复杂的背景中,首先准确 地检测出交通标志,然后再识别出交通标志,真正实现交通标 志的实时检测与识别。 【12】 BENGIO Y,LAMBLIN P,POPOVICI D,et a1.Greedy layer-wise training of deep networks[C】//NIPS 6:Proceedings of the 19th International Conference on Advances in Neurl Iafornmation Pro. eessing Systems.Cambridge.MA:Mrr Press.2007:153—160. 参考文献(References) 【11 杨心.基于卷积神经网络的交通标识识别研究与应用【D】.大 连:大连理工大学,2014:3—4.(YANG X.Research and appli- cation of traffic sign recognition based on convolutional neural net- 【13】HOUBEN S,STALLKAMP J,SALMEN J,et a1.Detection of rtaf- itc signs in real—world images:the German traffic sign detection work【D】.Dalin:Daalian University of Technology,2014:3—4.) f 21 GREENHALGH J,MIRMEHDI M.Real—time detection and recog- nition of road traffic sins【J].IEEE Tragnsactions on Intelligent benchmark[C]//IJCNN 2013:Proceedings of he t2013 Interoa— tional Joint Conference on Neural Networks.Washington,DC: IEEE Computer Society,2013:715—722. Transportation Systems,2012,13(4):1498—1506. f31 MEUTER M,NUNNY C,GORMER S M,et a1.A decision fusion 【14】QIAN R,ZHANG B,YUE Y,et a1.Robust chinese traffic sign detection and recognition with deep convolutional ncural network and reasoning module for a traffic sign recognition system【J】.IEEE Trnsactiaons on Intelligent Trnsportaation Systems,201 1,12(4): 1126—1134 [C]//ICNC 2015:Proceedings of the 2015 International Con ̄r- ence on Natural Computation.Washington,DC:IEEE Computer Society,2015:791—796. 【4】LOWE D G.Distinctive image features from scale—invariant key— points『J】.International Journal of Computer Vision,2004,60 (2):91—110. 『5 1 BAY H,TUYTELAARS T,VAN GOOL L.SURF:Speeded Up Robust Features『C1//ECCV 2006:Proceedings of he t9th Eum- pean Conference on Computer Vision,LNCS 3951.Berlin: Springer—Verlag,2006:404-417. This work is partially supported by the National Natural Science Foun— dation of China(61573357,61503382,61403370,61273267). WANG Xiaobin,bom in 1990,M.S.candidate.His research interests include image recognition,object detection. HUANG Jinjie,born in 1967,Ph.D.,professor.His research interests include intelligent modeling,optimization control,pattern recog— nition. f 61 DALAL N,TRIGGS B.Histograms of oriented gradients for human detection『C1//CVPR D5:Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington.DC:IEEE Computer Society,2005,1:886—893. 【7】 MATSUGU M,MORI K,MITARI Y,et a1.Subject independent fa。 cil expressiaon recognition with robust face detection using a convo。 LIU Wenju,born in 1960,Ph.D.,professor.His research inter- ests include machine learning,speech enhancement,speech recognition, sound source localization,sound event detection,image recognition. lutional neural network【J 1.Neural Networks一2003 Special (上接第529页) [18】 FANG H—L,ROSS P,CORNE D.A promising genetic algorithm approach to j0b・shop scheduling,re—scheduling and open。shop scheduling problems【C】//Proceedings of the 5th International Conference on Genetic Algorithms.San Mateo,CA:Morgan Kauf- maria Publishers,1993:375—382. This work is partilly supposed by the Sciaentiic Researfch Fund by Shaanxi Provincial Education Department(15JK131 1),Research Start—up Fund for Doctor of Xi’an Polytechnic University(BS1301),Innovation Fund for Graduate Students of Xi’n Polaytechnic University(CX201628). SONG Shuanjun,born in 1974,Ph.D. associate professor.His research interests include optimization of production system,supply chain management. 【19】 MORAD N,ZALZALA A M S.Genetic algorithms in integrated process planning and scheduling【J】.Journal of Intelligent Manu。 facturing,1999,10(2):169—179. [20】 FUJI N,INOUE R,UEDA K.Integration of process planning and YANG Peili.born in 1992,M.S.candidate.Her research interests include optimization of production system. SHI Wenli,born in 1991,M.S.candidate.Her research interests include supply chain management. scheduling using muhi—Agent learning【C】//Proceedings of the 41st CIRP Conference on Manufacturing Systems.Berlin:Springer- Verlag,2008:297—300.