职场文秘网

首页 > 心得体会 > 学习材料 / 正文

基于知识蒸馏的目标检测模型增量深度学习方法

2023-03-18 08:40:20

方维维,陈爱方,孟 娜,程虎威,王清立

(北京交通大学 计算机与信息技术学院,北京 100044)

随着物联网及4G/5G技术的发展,位于网络边缘的设备数量呈爆炸式增长趋势。同时,网络边缘产生的数据量也在急剧增加。传统云计算模式需要通过网络将大量数据发送到云计算中心进行处理,从而导致网络传输带宽的负载量增加,进而造成推理时延增加,因此无法完成自动驾驶、增强现实等需要获取实时检测结果的计算任务。由于传统云计算方式存在以上问题,数据在网络边缘设备上进行处理的边缘计算新模式具有低延迟、低带宽和高安全性等特点[1–2],更适用于满足目标检测应用需求。

最早提出的目标检测模型如Viola–Jones(VJ)检测器[3]等均是基于手工特征实现。随着手工设计特征的模型性能趋于饱和,基于深度学习的目标检测RCNN[4]、Fast R-CNN[5]和Faster R-CNN[6]开始出现,其中Faster R-CNN以端到端的方式完成推理。为了加速模型推理,YOLO[7]系列算法被提出。为了获得精度和速度的平衡,SSD[8]算法被提出。为取消锚框的使用,近年来研究人员提出了基于关键点检测的算法CornerNet和CenterNet等[9]。传统的目标检测之类的深度学习方法通常建立在模型训练前所有数据均已完全获得的前提条件下,然而在实际边缘计算应用中,新的数据样本和新的数据类别往往是逐渐产生、积累和获得的。所以,传统方法都会面临一个挑战—灾难性遗忘,即当接收到新数据时,模型会趋向于拟合新数据而欠拟合旧数据。

为了解决上述挑战,越来越多的研究开始关注增量学习(incremental learning, IL)[10]这一主题。

增量学习方法能够不断地从新样本中学习到新知识,同时也会保存大部分之前已学习的旧知识。目前的增量学习方法主要包括基于参数回放、基于动态网络和基于正则化3大类。基于参数回放的方法主要思想是从旧类数据集中挑选出重要数据进行保存,利用保存的部分旧类数据和所有新类数据完成模型的训练,例如:iCaRL[10]中先使用特征均值衡量旧类数据的重要性,再保存靠近特征均值的旧类数据;
Wang[11]、Kemker[12]等在宽度或深度维度上扩大模型或者训练多个模型,来增加模型的表示能力,以避免模型在新数据上的过拟合;
为这些新的数据和类别独立地训练新的模型固然可行,但模型的部署将会给资源受限的边缘设备带来非常大的计算资源开销和管理维护成本。基于动态网络的方法为每个类的执行固定不同的前馈通路,例如,PackNet[13]算法中利用权重剪枝技术为每个类挑选出最优的前馈通路,但是需要进行多次剪枝和重训练,导致计算成本增加。基于正则化的方法主要对神经网络的权值更新施加约束,例如:LwF[14]、LwM[15]中使用知识蒸馏技术延缓旧类知识的遗忘;
Chen等[16]将增量学习方法用于目标检测领域。此类基于正则化的方法采用的知识蒸馏技术中,学生模型只学习了教师模型最后的logits知识,而教师模型的中间层特征图的知识大部分无法学习到,这使得大模型无法部署或部署在边缘设备上无法获得好的性能。

因此,针对上述问题及输入数据样本成批更新替换且边缘设备硬件资源受限的应用场景,本文提出了一种高效的基于多中间层知识蒸馏的增量学习方法ILMIL。首先,ILMIL将在旧数据上训练好的模型权重迁移到教师网络,并将压缩后的模型作为学生网络。其次,教师网络通过设计的存储多个网络中间层知识的MFRRK蒸馏指标来训练学生网络,最终得到一个存储友好的高性能学生模型。该方法可在有效降低模型计算和存储开销的前提下,缓解已有知识的灾难性遗忘现象,并维持可接受的推理精度。

1.1 总体流程

本文使用的目标检测模型是基于VGG16[17]的Faster R-CNN,原因如下:1)实现了端到端的检测流程,在两阶段目标检测模型中具有较高的检测速度;
2)相比于YOLO和SSD等常用模型,具有较高的检测精度;
3)其区域建议网络(region proposal network,RPN)设计包含有目标定位信息,有助于缓解增量学习过程中旧类知识的遗忘。

图1展示了本文提出的ILMIL方法的总体结构。本文采用“教师–学生(T–S)”知识蒸馏架构[18],数据集划分为旧类Do和新类Dn,其中,旧类数据集的标签中仅含有旧类目标Co,新类数据集的标签中仅含有新类目标Cn,且Co∩Cn=∅。使用Do训练得到教师模型,将其复制一份得到初始的学生模型。在增量学习过程中,使用Dn训练学生模型,同时,教师模型的指导降低其对旧知识的遗忘速度,最终使得学生模型可以识别所有的目标C=Co∪Cn。如图1所示,一般情况下该增量学习过程可通过步骤①、②和⑤完成。如考虑到边缘设备的资源,对目标检测模型的执行速度和模型大小有进一步的要求,则可选择在获得教师模型后进行适度的剪枝压缩,即通过步骤①、③、④和⑤完成。

图1 ILMIL方法概述Fig.1 Overview of the ILMIL approach

1.2 知识蒸馏指标和方法设计

1.2.1 知识蒸馏指标

本文提出一种新的知识蒸馏指标MFRRK(multilayer feature map, RPN and RCN knowledge),其融合了多个中间层的特征图信息、RPN,以及分类和回归网络(classification and regression network,RCN)。在现有的文献[17]研究中,将Faster R-CNN特征提取模块VGG16的卷积层部分划分为Stage1、Stage2、Stage3、Stage4和Stage5。在增量学习中,教师模型中间层的特征图包含了大量的旧类信息,通过最小化学生模型和教师模型特征图之间的差异,可帮助学生模型有效地保留旧类知识,因此,将特征提取模块的特征图信息作为蒸馏知识所考虑的指标之一。对于不同深度的特征图,提取出的信息侧重点不同,其中:越靠近图片输入层的特征图越关注具体的图像细节特征,比如纹理特征;
越远离输入层的特征图越关注图像的语义信息,即抽象信息。所以,与传统相关知识蒸馏技术[14,16]不同的是,本文在选取该部分指标时,除选取Stage5模块的输出特征图外,还选取了Stage4模块的输出特征图。通过向教师模型学习不同层次的特征图知识,使学生模型可以学习到旧类目标的细节信息和语义信息,从而缓解学生模型对旧类知识的遗忘现象。与现有的利用知识蒸馏完成增量学习方法[13,19]相同的是,本文采用的知识蒸馏方法也使用了RPN和RCN的输出信息,其中:RPN包含了目标建议;
RCN针对每一个目标建议,再给出类别评分和空间位置调整向量。

1.2.2 知识蒸馏方法

式中,T4、T5和S4、S5分别为教师网络T和学生网络S的Stage4和Stage5的输出特征图。

式(2)和(3)中:令*号代表soft和hard,分类损失L*–cls均为交叉熵损失,如式(5)所示;
回归损失L*–reg均为平滑L1损失,如式(6)所示。

2.整合。课程整合是超越不同知识体系,以关注共同要素的方式安排学习的课程开发活动,目的是减少知识的分割和学科间的隔离,把受教育者所需要的不同知识体系统一联合起来,传授对人类和环境的连贯一致的看法。课程整合的方法有开发关联课程和跨学科课程两种。教学中,笔者主要采用了开发跨学科课程。如周杰伦的《青花瓷》就可以与相关美术、语文内容整合,通过美术作品感受青花瓷的曼妙和美丽,通过语文朗读以及理解感受歌词的魅力和意境。

式中,p和q分别为两个离散概率分布,t和v分别为两组不同的目标框位置标注,m和n分别为类别和目标框的总数,smoothL1()表达式为:

1.3 基于知识蒸馏的模型训练流程

如图1所示,为了在原有的旧类知识基础上融入新的知识,同时避免灾难性遗忘,基于第1.2节中定义的指标和方法进行增量模型训练,流程如下:

1)训练教师模型T。与旧类数据集相对应,教师模型的输出层神经元个数为|Co|+1,其中,|Co|为旧类目标的个数,“1”为背景类。将训练完毕后的以上模型作为教师模型T和初始的学生模型。

2)构建学生模型S。将拷贝得到的学生模型输出层神经元个数修改为C+1,其中,C为总目标数量,“1”表示背景类。随机初始化输出层中新添加神经元的权重。修改后的学生模型S将参与蒸馏训练。

3)增量训练。基于1)中的T和2)中的S构成T–S知识蒸馏架构,进行第1.2.2节中提出的蒸馏方法完成增量模型训练。

1.4 结合剪枝压缩的模型增量训练流程

通过第1.3节所述增量训练流程所得到的学生模型的总体计算和存储开销与原教师模型几乎相同,避免了独立训练和使用多个检测不同种类目标的模型所带来的较高资源开销。但是,边缘侧设备往往资源较为受限。为有效降低推理过程中的计算和存储开销,可在知识蒸馏前对教师模型执行基于剪枝技术的压缩操作,即图1中的步骤③。

本文在模型压缩阶段使用的是基于L1范数的通道剪枝算法[20],主要原因如下:1)通道剪枝属于结构化剪枝,其实现不依赖于任何稀疏卷积计算库和专门设计的硬件;
2)实现较为简单,表征通道重要性的L1范数值可以直接通过计算获得,无需额外操作;
3)该剪枝算法可以在压缩的同时,有效地维持原模型的推理精度[20]。

2.1 实验环境

使用Python 3.6.9开发语言在PyTorch 1.1.0深度学习框架上进行模型构建和实验,选择PASCAL VOC 2007作为数据集,该数据集共包含了20个类别的图像数据。训练过程中,使用了随机梯度下降法(SGD)作为反向传播算法,SGD的动量为0.9,初始学习率为0.000 1。在对未压缩模型的增量训练中,共迭代20轮次,其中,每迭代10轮次,学习率下降为当前的0.1倍;
在对压缩后模型的增量训练中,共迭代30轮次,其中,每迭代5轮次,学习率下降为当前的0.5倍。本文采用mAP(mean average precision)[21]衡量模型准确度,采用FLOPS(floating point operations per second)衡量模型的计算量。

2.2 对未压缩模型的增量训练

为了验证本文方法在新类出现时的有效性,设置了不同的实验,其中涉及到的实验组别及训练方法含义如表1所示。

表1 实验组别Tab.1 Experiment groups

1)单次增加一个类

为了验证本文提出的方法在单次增加一个新类别时的有效性,一次性使用前19个类训练教师网络,再加入第20个类进行训练。图2展示了未压缩模型单次增加一个类的mAP的对比实验结果。如图2所示:对学生模型微调后,旧类的mAP从70.8降到18.4。与其他指标和方法对比,本文提出的增量学习方法在旧类别目标和总目标上均维持了最高的mAP,降低了灾难性遗忘问题对旧类别的影响,同时获得了较高的新类别mAP。

图2 单次增加一个类的实验结果Fig.2 Experimental results of adding a class

2)单次增加多个类

图3展示了未压缩模型单次增加多个类的mAP的对比实验结果。如图3所示,未进行知识蒸馏的训练中旧类的mAP从72.1降为7.2。本文提出的增量学习方法得到的实验结果在总目标的mAP结果上达到了最优,同时在旧类和新类上的检测mAP也优于绝大多数方法,验证本文提出的方法在单次增加多个新类别时的有效性。

图3 单次增加多个类的实验结果Fig.3 Experimental results of adding multiple classes

3)逐步增加多个类

使用前一次训练(如+D(16))得到模型作为当前训练的教师模型(如+D(17))。表2展示了未压缩模型逐步增加多个类的mAP的对比实验结果。

表2 逐步增加多个类的实验结果Tab.2 Experimental results of gradually adding multiple classes

如表2所示,直接训练会造成灾难性遗忘问题,旧类别目标的mAP从17.1快速降到8.8,总目标从17.9快速降到10.0。与其他方法相比,本文提出的增量学习方法在逐步增加多个类时,维持了相对较高的旧类、新类和总目标mAP,旧类的mAP在59.5~70.7之间,新类的mAP在27.4~42.3之间,而总目标mAP在58.6以上,这说明提出的ILMIL方法使学生模型额外学习到了教师模型的中间层Stage4、Stage5的特征知识,以及本文设计的目标函数所包含的硬损失、软损失和提示损失起到了关键作用。

4)超参数γ的影响

图4展示了超参数γ的不同取值对mAP的影响。γ作为超参数对式(1)中的提示损失和其他损失进行平衡,从而影响学生模型在各个类别上的检测mAP。以单次增加一个类为例进行实验。如图4所示:将γ设为1时,蒸馏训练既使学生模型没有忘记旧类的知识,也学习到了新类的信息;
模型对旧类和总类的检测mAP最高,对新类的检测mAP居中。因此本文实验中均将该参数值设定为1。

图4 参数γ的影响Fig.4 Influence of parameter γ

2.3 对压缩后模型的增量训练

1)构建学生模型

构建了4个不同压缩率的模型,图5以单次增加一个类为例,展示了1个原始模型和4个压缩模型的参数量和计算量。两个实验场景使用的原始模型和压缩模型的参数量和计算量与图5中的数据一致。其中,GFLOPS(giga floating point operations per second)表示109FLOPS。

如图5所示:原始模型的参数量为130.48 MB,计算量为728.32 GFLOPS。学生模型1的压缩比例为18.2%,其参数量为106.8 MB,计算量为616.3 GFLOPS;
学生模型2的压缩比例为29.9%;
学生模型3的压缩比例为35.6%,参数量和计算量逐步降低;
学生模型4具有最大的压缩比例46.8%,其参数量为69.4 MB,计算量为406.8 GFLOPS。

图5 模型参数量和计算量Fig.5 Amount of model parameters and computation

2)单次增加一个类

图6展示了非压缩模型与4个学生模型对应的压缩率取值,以及在增加一个类后对应的mAP的实验结果。如图6所示:非压缩模型在旧类、新类和总类上的检测mAP均最高。随着压缩比例不断升高,压缩模型在各类上的检测精度均在缓慢降低,其中,以总类mAP为例,非压缩模型为68.7,最低压缩比例为18.2%的模型1为65.7,最高压缩比例为46.8%的模型4为59.4。总体来看,利用第1.4节介绍的增量训练流程既可有效降低目标检测模型的复杂度,也可有效缓解对旧类别知识的灾难性遗忘现象,在一定mAP损失内,采用的模型压缩方法极大地降低了模型的大小。

图6 压缩后增加一个类的实验结果Fig.6 Experimental results of adding a class after compression

3)单次增加多个类

图7展示了非压缩模型与4个学生模型对应的压缩率取值,以及在增加多个类后对应的mAP的实验结果。如图7所示:随着模型压缩比例的增大,在各类上的检测mAP总体呈下降趋势。从各模型对总类的检测mAP来看,非压缩模型为61.5,最低压缩比例为18.2%的模型1为61.3,最高压缩比例为46.8%的模型4为59.8。总体来看,在目标检测模型复杂度降低的同时,压缩后的模型的mAP损失降低在可接收范围内,只有0.2~1.7,且在增量过程中有效缓解了灾难性遗忘现象,说明本文所提出的增量学习方法在压缩率较大,模型参数量减少的情况下,依然能有效地学习到教师模型的中间层信息,保证了模型的性能。

图7 压缩后增加多个类的实验结果Fig.7 Experimental results of adding multiple classes after compression

在具备目标检测能力的物联网设备不断增加,从而导致网络边缘数据爆炸式增长的场景下,针对目标检测实际应用中深度学习所需的训练数据及其类别难以一次性完全获得的实际问题,考虑到网络边缘设备的资源限制,本文提出了一种基于知识蒸馏的目标检测模型增量深度学习方法。首先,提出了包含多个网络中间层知识的蒸馏指标;
然后,在此基础上提出了相应的增量模型训练方法,该方法可进一步与模型剪枝压缩技术相结合来适应边缘设备的资源能力;
最后,基于PASCAL VOC 2007目标检测数据集进行了在多种不同增量组合方式和模型训练方式下的对比实验。实验结果表明,本文所提出的增量学习方法能够有效地避免和缓解灾难性遗忘现象的发生,维持较高的目标检测性能。通过与剪枝技术相结合,可进一步减少模型参数大小和计算总量,便于在边缘设备上部署和使用。对于未来的研究工作:一个方向是,准备通过在更多的DNN模型和目标检测数据集中的评估来完善ILMIL的方法设计;
另一个方向是,采用ILMIL方法解决其他相关类型的任务,例如,在图像分类[22]中结合内存高效的增量学习方法[23]和推理高效的早期退出[24]方法来解决遗忘问题,以及结合少样本学习来完成图像分割[25]中的增量学习任务等等。

猜你喜欢 增量目标检测 导弹增量式自适应容错控制系统设计北京航空航天大学学报(2022年5期)2022-06-06提质和增量之间的“辩证”当代陕西(2022年6期)2022-04-19“不等式”检测题中学生数理化·七年级数学人教版(2021年6期)2021-11-22“一元一次不等式”检测题中学生数理化·七年级数学人教版(2021年6期)2021-11-22“一元一次不等式组”检测题中学生数理化·七年级数学人教版(2021年6期)2021-11-22全现款操作,年增量1千万!这家GMP渔药厂为何这么牛?当代水产(2021年8期)2021-11-04“价增量减”型应用题点拨中学生数理化·中考版(2019年9期)2019-11-25小波变换在PCB缺陷检测中的应用海峡科技与产业(2016年3期)2016-05-17新目标七年级(下)Unit 3练习(一)中学英语之友·上(2008年2期)2008-04-01新目标七年级(下)Unit 4练习(一)中学英语之友·上(2008年2期)2008-04-01

Tags: 蒸馏   增量   学习方法  

搜索
网站分类
标签列表