基于改进Swin Transformer的舰船目标实例分割算法
Ship target instance segmentation algorithm based on improved Swin Transformer
通讯作者: 钱坤
收稿日期: 2022-05-9
基金资助: |
|
Received: 2022-05-9
作者简介 About authors
钱坤(1986—),男,助理讲师,博士研究生,主要研究方向为图像处理、模式识别 。
李晨瑄(1996—),女,博士研究生,主要研究方向为图像处理、模式识别 。
陈美杉(1991—),女,助理工程师,博士研究生,主要研究方向为作战仿真推演 。
郭继伟(1977—),男,讲师,硕士,主要研究方向为战役学 。
潘磊(1979—),男,讲师,硕士,主要研究方向为战役学 。
针对反舰武器图像制导目标实例分割精度低, 模型中上下文语义交互不充分, 特征融合推理速度慢, 数据集难易样本不均衡导致训练效果差等问题, 提出了一种基于改进滑动窗口的Transformer(shifted windows Transformer, Swin Transformer)的舰船目标实例分割算法。设计了局部增强感知模块用以拓展感受野, 加强语义交互能力; 采用反向特征金字塔网络进行特征融合, 提高算法处理速度; 使用在线困难样例挖掘, 改善数据集样本不均衡问题, 提升网络训练效果。实验结果表明, 改进后的算法相较基线算法在分割准确率上提升了1.5%, 在处理速度上提高了1.3%, 兼具精度和速度优势。
关键词:
Aiming at the problems of low segmentation accuracy of image guidance target instances of anti-ship weapons, insufficient semantic interaction of model context, slow inference speed of feature fusion, imbalance of hard and easy samples of data sets and poor training effect, an instance segmentation algorithm of ship target based on improved Swin Transformer is proposed. The local enhanced sensing block is designed to expand the receptive field and strengthen the ability of semantic interaction. The reverse feature pyramid network is used for feature fusion to improve the processing speed of the algorithm. Online Hard Example Mining is used to improve the sample imbalance of data set and improve the effect of network convergence. The experimental results show that, compared with the baseline algorithm, the improved algorithm improves the segmentation accuracy by 1.5% and the processing speed by 1.3%, with both accuracy and speed advantages.
Keywords:
本文引用格式
钱坤, 李晨瑄, 陈美杉, 郭继伟, 潘磊.
QIAN Kun.
0 引言
近年来, 随着计算机图形算力的爆发式增长和人工智能算法的长足进步, 计算机视觉领域进入了新的技术时代, 图像分割作为计算机视觉的重要分支, 是根据一定的规则将图像中的像素分成不同的部分, 并添加相应标签, 可以视为是图像分类识别向像素级的延伸, 而其中的实例分割兼具了目标检测和语义分割的双重任务, 在实现上更具挑战意义和实用价值。目前, 实例分割已经广泛应用于汽车自动驾驶、智能辅助医疗和遥感影像判读等民用领域。在军事应用上, 实例分割也是精确制导、侦察监视等研究领域的核心问题, 对于推进军事现代化和信息化有着重要意义[1]。
早期的实例分割受益于目标检测相关研究成果的延伸, Hariharan等首次使用同时检测和分割算法[2]通过生成建议框、特征提取、区域分类与改良等步骤同时完成了检测和分割操作。He等人提出的掩模区域卷积神经网络(mask region-convolutional neural network, Mask R-CNN)[3]是一种功能强大的基线算法, 通过添加预测兴趣区域的语义分割分支能够高效地完成实例分割任务, 也引领了后续一系列改进算法的产生, 如掩模评分区域卷积神经网络(mask scoring R-CNN, MS R-CNN)[4]、边界保持Mask R-CNN(boundary-preserving Mask R-CNN, BMask R-CNN)[5]等。Long等人提出的全卷积网络(fully convolutional networks, FCN)[6]是一种端到端的图像分割方法, 通过使用全卷积网络、反卷积层和跳跃连接实现了图像分割, 成为该领域的代表性算法。为进一步提升FCN算法的精度, Bolya等人提出了只看系数算法(you only look at coefficients, YOLACT)[7], 该算法通过两个并行的子网络来实现实例分割, 一个用来得到类似FCN的分割原型图, 另一个用来得到检测框, 然后融合原型图和检测框后得到掩码, 其在处理速度上实现了突破, 成为首个能够完成实时实例分割的算法, 随后的YOLACT++算法[8]继续优化了算法结构和执行效率, 进一步提升了算法速度和精度。
近两年来, 发轫于自然语言处理(natural language processing, NLP)的Transformer[9]模型在计算视觉领域大放异彩, 在实例分割研究中相较传统CNN展现出了极强的竞争力。基于Transformer的实例分割算法[10]是首个基于Transformer的实例分割框架, 通过使用循环细化策略进行检测和分割, 为实例分割提供了新角度。随后的基于Transformer的图像分割算法[11], 使用Transformer预测每个实例类别, 并动态生成具有多个分割的掩码级上采样模块, 该算法与原始Transformer相比在运算速度和资源开销上更具优势。基于滑动窗口的Transformer(shifted windows Transformer, Swin Transformer)[12]实例分割算法, 使用滑动窗口策略和层级化设计, 其将注意力计算限制在一个窗口中, 旨在引入与CNN卷积类似的局部性操作, 并显著降低计算量, 进一步提高了实例分割的速度和精度。随着对Swin Transformer模型研究的不断深入, 如何在保持较低运算开销条件下尽量充分地实现上下文信息的交互, 如何理解算法中自注意力机制的作用方式以及如何对其他模块进行优化等问题的提出, 为进一步提升Swin Transformer模型性能提供了可能的方向。
海战场舰船目标精确识别与分割是反舰导弹末段图像制导的核心问题, 对于舰船目标的检测识别算法很多, 但细化至像素级的实例分割研究相对较少, 已有研究也多是针对合成孔径雷达(synthetic aperture radar, SAR)图像进行实例分割[13], 而SAR图像多为高空俯视视角, 从俯视视角得到的舰船轮廓相对单一, 对于数据集的准备和训练也相对容易。目前, 现役主战反舰导弹为保证隐蔽突防的成功率, 多采用低飞掠海攻击模式, 从舰船侧视角接近目标时, 舰船目标的尺度和角度变化更加剧烈, 因此对于算法的要求也更高。为进一步提升海战场目标检测能力, 实现精确化打击, 对于将一般的目标检测识别延伸细化至像素级精度的实例分割, 有着很强的实战意义。
本文提出了一种将改进Swin Transformer作为骨干网络的舰船目标实例分割算法, 在Swin Transformer模块前增加了局部增强感知模块, 旨在提高网络的上下文信息交互能力并拓展感受野, 提高分割精度; 在特征融合中使用反向特征金字塔(reverse feature pyramid, RevFP)网络, 在优化分割准确率的同时进一步提升图像处理速度; 使用在线困难样例挖掘方法, 改善自制数据集难易样本失衡问题, 优化算法在小样本数据集条件下的训练效果; 在经过自制的舰船目标数据集训练后, 相关实验结果表明, 算法能够实现多角度、多尺度舰船目标实例分割, 分割边缘清晰准确, 相较基线算法兼具精度和速度优势。
1 基于Swin Transformer的实例分割算法
1.1 Transformer模型结构
Transformer模型最先在NLP任务中被广泛应用, 在NLP任务中需要编码器抽取很多特征。其中, 首先需要考虑的就是每个词的上下文语义, 因为每个词的具体含义都跟上下文强相关, 而上下文又分为方向和距离两个属性, 传统的循环神经网络(recurrent neural network, RNN)[14]只能对句子进行单向编码, CNN只能对短句进行编码, 而Transformer既可以同时编码双向语义, 又能够抽取长距离特征, 所以在上下文语义抽取方面要优于RNN和CNN。NLP任务需要抽取的第二种特征是序列的顺序, 在这方面Transformer的表现一般介于RNN和CNN之间。NLP任务对计算速度是比较敏感的, 由于RNN无法并行处理序列信息, 因此表现最差, CNN和Transformer都可以进行并行计算, 但Transformer模型结构稍显复杂, 所以在速度方面稍逊CNN。综上, 由于Transformer在效果和速度方面性能表现均衡, 所以在NLP任务中很快便脱颖而出, 之后随着研究的深入, Transformer被引入其他任务中, 均有不俗表现, 已隐隐呈现出成为高效的通用计算架构的趋势。
Transformer模型是一种典型的编码器-解码器结构, 其中最为重要是多头自注意力(multi-head self-attention, MSA), 残差连接和归一化(add & layer normalization, Add & LN)以及前馈网络3个模块。MSA负责将输入投影到不同空间, 得到Q、K、V这3个矩阵, 投影操作是避免后续矩阵Q和V直接进行点积操作, 并使输入的每个部分能够融合上下文的语义, 增加多样性, 之后再进行注意力的计算。在Add & LN模块中先对注意力计算的输出进行投影和随机舍弃运算, 加上原始输入后再进行LN操作, 添加原始输入是参考了残差连接的思想, 相当于在求导时增加了一个恒等项, 达到避免发生梯度消失的目的。同时, 归一化的做法在神经网络中主要起到提升网络泛化性的作用, 另外, 将归一化设置在激活函数之前, 也能够有效避免数据落入饱和区, 进一步减少梯度消失的情况。前馈网络模块主要作用是给Transformer提供非线性变换, 提升拟合能力, 在这一过程中选择了高斯误差线性单元(Gaussian error linear unit, GeLU)函数[15]作为激活函数, 因为GeLU函数引入了正则思想, 越小的值越有可能被舍弃, 相当于线性修正单元函数(rectified linear units, ReLU)[16]和随机舍弃的综合, 因为ReLU函数的值只有0和1, 所以单纯使用ReLU就缺乏这样的随机性。
1.2 基于Swin Transformer的实例分割算法原理
Swin Transformer的创新性思想主要表现在层次性、局部性以及平移不变性。层次性体现在特征提取阶段使用了类似CNN中的层次化构建方法, 对输入图像分别进行4倍、8倍和16倍的下采样, 得到多尺度特征图。局部性主要体现在自注意力计算过程中, 将计算约束在划分好的局部非重叠窗口内进行, 使得算法复杂度从此前的和图像大小的平方关系变成了线性关系, 大幅降低了计算量, 提升了算法效率。在前后两层的Transformer模块中, 非重叠窗口的划分相比前一层做了半个窗口的偏移, 这样使得上下两个窗口的信息得到了有效交互, 相比于CNN中常见的滑动窗口设计, 保持了平移不变性的同时也没有造成准确率的降低。
Swin Transformer的算法流程大致如下, 输入图像为H×W大小的RGB(red, gree, blue)三通道图像, 首先通过图块分割模块进行分块操作, 分为4×4大小的图块, 之后沿3个通道方向进行展平, 展平后大小为4×4×3=48, 所以通过图块分割后图像由[H, W, 3]变为[H/4, W/4, 48], 而后通过线性嵌入模块对每个像素通道数据进行线性变换, 得到[H/4, W/4, C], 以上操作均通过二维卷积实现, 具体结构如图 1所示。
图1
随后数据进入Swin Transformer模块, 经归一化后, 进入窗口多头自注意力(windows multi-head self-attention, W-MSA)计算模块, 将图像块进一步划分成互不重叠的区域, 并在区域内计算自注意力; 多层感知机(multilayer perceptron, MLP)是一个使用GeLU函数作为激活函数的前馈网络, 旨在完成非线性变换, 提升算法拟合能力。由于在W-MSA中, 只会在每个窗口内进行自注意力计算, 所以窗口与窗口之间是无法进行信息传递的。为此, 引入了偏移(shifted W-MSA, SW-MSA)模块, 在第L层划分互不重叠窗口后, 在第L+1层内偏移半个窗口距离重新划分窗口, 使得不同层中有部分窗口的信息得以交互, 以上操作可以归结为第一阶段, Swin Transformer模块结构如图 2所示。
图2
为了得到多尺度的特征信息, 还需要构建一个层级式结构, Swin Transformer网络中设计了图块拼接模块, 来实现类似CNN中池化操作, 经过拼接过后图像的宽高尺寸减半, 通道数翻倍, 而后再通过Swin Transformer模块, 这样的结构以串联的形式相连, 即图 1中的第2阶段到第4阶段。
为应对不同需求, Swin Transformer实现了网络结构的系列化, 其网络由简单到复杂依次是Swin-Ting, Swin-Small, Swin-Baes和Swin-Large, 网络越复杂性能越强, 但相应的计算开销也越大, 图 1就是以Swin-Ting为例绘制的。
2 基于改进Swin Transformer的舰船目标实例分割算法
2.1 算法框架
本算法使用Swin Transformer作为骨干网络, 完成特征提取工作, 图像进入图像分割模块后形成序列化小块, 并沿通道方向展平, 通过线性嵌入模块完成线性到非线性再到线性的3次变换; 在进入Swin Transformer块前, 先通过局部增强感知(local enhanced sensing, LES)模块, 旨在进一步抑制无效特征, 增强有效参数, 提高上下文信息之间的交互; 在特征融合阶段使用RevFP网络[17], 在采用局部融合操作的同时, 集成高级与低级特征, 获得更好的融合效果和更低的延迟; 在网络的训练阶段, 使用在线困难样例挖掘(online hard example mining, OHEM)[18]方法, 解决自制数据集难易样本不均衡, 训练效果不理想的问题, 通过设置负样本池反复迭代, 使算法在小样本数据集上获得更好的效果; 最后使用基于Mask R-CNN的检测头, 完成实例分割任务。算法整体框架如图 3所示。
图3
2.2 局部增强感知模块
在Swin Transformer模型中, 为了在与图像大小成线性关系的计算复杂度下尽可能地实现上下文语义信息的“全局”范围交互, 在层次化结构中使用偏移窗口方案来实现不同窗口间的信息交互。但实际上, 每次偏移半个窗格, 在空间上依然存在大量上下文信息不能很好地交流, 为此, 本文提出了在Swin Transformer模块前插入一个局部增强感知模块, 旨在进一步提升信息交互能力, 拓展感受野尺寸, 具体结构如图 4所示。
图4
图4
带有LES模块的Swin Transformer骨干网络结构
Fig.4
Swin Transformer backbone network structure with LES block
在Swin Transformer中数据流由向量构成, 数据首先进行特征向量的重新投影, 形成多维空间特征映射, 然后通过并行的空洞卷积(dilated convolution, DConv)[23]分支, 其中, 每个支路中核大小为1×1的普通卷积旨在降低通道数, 3条分支的空洞卷积扩张率分别为r=1, r=3和r=5, 根据空洞卷积卷积核计算公式K=(r-1)(k-1)+k。其中, K为空洞卷积卷积核尺寸, r为扩张率, k为常规卷积卷积核尺寸, 由此分别获得3×3, 7×7和11×11大小的感受野, 利用DConv来增加感受野尺寸并不以牺牲特征分辨率为代价, 且可以在不同的尺度上对大范围的上下文信息进行良好编码, 使特征图获取更精确的语义与定位信息, 有效增强尺度、角度剧烈变化时的舰船目标识别分割的鲁棒性[24]。
数据通过3条扩张率不同的空洞卷积分支, X为输入特征, Y为输出特征, 3条支路的输出如下所示:
式中: Conv为卷积核为k的普通卷积运算; DConv为扩张率为r的DConv运算。
通过并行的3条支路后, 输出特征经通道拼接, 通过GeLU激活函数, 并采用残差网络思想, 增加跳跃连接, 随后输出至Swin Transformer模块。
2.3 基于RevFP网络的特征融合
在特征融合阶段, 特征金字塔网络[25](feature pyramid networks, FPN)是目前最为常用的选择, 其结构如图 5(a)所示。后续相关研究提出了多种不同的架构, 如路径聚合网络(path-aggregation network, PANet)[26], 双向FPN(bi-directional FPN, BiFPN)[27]等, 这些方法使用了不同形式的双向特征融合。相关实验表明, 以上改进结构均能有效改善网络性能, 已在目标检测、实例分割领域得到了广泛应用, 但这些网络通常是以固定顺序堆叠特征金字塔, 更长的信息链路, 会降低推理速度。此外, 由于FPN中仅在近邻层级特征进行了局部融合, 这就导致非相邻特征的语义信息会被稀释。文献[17]提出了RevFP网络, 这是一种利用局部双向特征融合的简化的双向金字塔推理架构, 相比于其他双向金字塔架构, RevFP具有更好的性能、更小巧的模型和更低的延迟, RevFP结构如图 5(b)所示。
图5
传统的FPN网络采用自顶向下的方式将高层特征传递至低层特征, 底层特征包含丰富的几何性状信息, 而高层特征则包含更多的语义信息, FPN网络的信息传递可以描述为如下形式:
为进一步促进高效的双向特征融合, 在RevFP网络中采用局部融合操作同时集成高级与低级特征:
式中:Ci为特征提取骨干提取的特征,i为阶段数,即图像特征分辨率减半的次数。如C3表示特征提取第3阶段,输出为原图像1/8尺寸的特征图,对应融合后的输出记作Pi。
2.4 在线困难样例挖掘
在线困难样例挖掘主要用于解决数据样本不均衡或简单样本过多的问题。通常情况下, 在训练网络的最后阶段, 当前的网络模型会对所有训练集中的样本进行测试, 逐个分析其当前的损失函数值, 并将样本按照置信概率误差进行降序排列, 其中误差较大的样本就是所谓的困难样例。
在理想状态下, 一个数据集的难易样例设置应该是相对平衡的, 但在小规模或自制数据集中, 样本难易不平衡的现象几乎普遍存在。比如掠海攻击视角, 舰船目标角度变化明显, 导致相同部位在不同角度上观察变化巨大; 再如, 数据集规模较小时, 对于某类目标的特征学习不够, 会导致损失函数和训练效果退化。为提高数据集利用效率和算法精度, 受数据增强和在线困难样例挖掘思想启发, 设置了负样本检测池, 在训练20轮后, 将每批次检测准确率小于0.5的样本置于负样本检测池中, 累计64个负样本后, 将其重新投入网络进行训练, 反复迭代以改进算法对于困难样本的特征提取能力。
3 实验结果
3.1 实验环境及数据集
为模拟反舰武器掠海攻击模式末段图像制导呈现的影像, 选用文献[28]提出的基于水平或低视角的舰船目标数据集, 数据集共有1 554幅图像, 作战舰艇区分航空母舰和驱逐舰, 分别有636幅和741幅, 民用船只包含渔船、液化天然气船、集装箱船、快艇、帆船等类别, 共558幅, 由于网络支持多分辨率图像训练, 所以没有统一图像大小, 所有图像大小介于500×680至1 280×960之间。
为强化反舰武器打击效果, 标注过程中将舰体主体作为重点标注目标, 舰体外缘突出的垂直天线、舰炮炮管等细长状目标, 以及甲板栏杆、雷达天线等存在较大间隙的目标不作为舰船主体进行标注, 标注示例如图 6所示。
图6
表1 数据集标注信息统计表
Table 1
标准类别 | 数据集总数 | 标注数量 | 航空母舰 | 驱逐舰 | 民用船舶 |
数量/幅 | 1 554 | 1 052 | 636 | 741 | 558 |
占比/% | - | 100 | 60.5 | 70.4 | 53.0 |
算法依托深度学习主流开源框架PyTorch, 使用NVIDIA CUDA GPU加速神经网络的训练和推断, 具体实验环境如表 2所示。
表2 实验环境
Table 2
项目 | 硬件指标(软件版本) |
操作系统 | Windows10 |
CPU | i7-9700 3.00 GHz |
GPU | NVIDIA 2060 SUPER 8GB |
内存/GB | 16 |
加速环境 | CUDA v11.0、CuDNN v7.6 |
PyTorch版本 | 1.7 |
Python版本 | 3.8.5 |
3.2 评价指标
在图像实例分割研究中, 常用MS COCO数据集中的一些评价指标来衡量算法的优劣, 最主要的指标是平均精度(average precision, AP), 表示对某一类目标检测精度, AP由交并比(intersection-over union, IoU)定义, IoU表示两个实例掩码的重叠度。其他比较重要的性能指标还有参数量和帧率(frame per second, FPS), 参数量由网络模型结构确定, 单位为M, FPS主要用来衡量算法执行的速度, 常用的评价指标如表 3所示。
表3 MS COCO数据集主要评价指标
Table 3
评价指标 | 含义 |
APsegm | IoU=0.50:0.05:0.95 |
mAPsegm | 所有类别AP的平均值 |
AP50segm | IoU=0.50 |
AP75segm | IoU=0.75 |
参数量 | 网络参数量 |
帧率/PFS | 每秒内可以处理的图像数量 |
3.3 实验结果与分析
将网络在舰船目标数据集上进行训练, 待网络收敛后, 得到改进后的网络模型和相应的权重文件, 为验证算法性能, 在相同实验平台和训练数据条件下, 选择5个经典的实例分割算法进行性能对比, 分别是FCN、Mask R-CNN、级联Mask R-CNN(Cascade Mask R-CNN)、YOLACT++算法和以Swin-Ting为骨干网络的Swin Transformer算法。由于本文算法的骨干网络是在Swin-Ting基础上改进而来, 所以在实验对比对象的选择上也尽可能选择网络模型大小相近的算法进行对比, 具体实验结果如表 4所示。
表4 算法对比结果
Table 4
实验将使用原始Swin-Ting作为骨干网络, 用FPN进行特征融合, 不采用在线困难样例挖掘方法辅助训练的算法作为基线算法。实验结果表明, 本文算法对比基线算法, 在不显著增加模型大小的情况下, 分割精度获得了有效提升, 其中在mAPsegm, AP50segm和AP75segm等指标上分别提高1.5%, 0.5%和1.9%, 证明了对网络的改进能够进一步提升Swin Transformer的实际性能。对比以ResNet-50为骨干网络的3种算法, 在mAP, AP50和AP75等指标上至少提升了6.0%, 1.7%和11.5%, 凸显出Swin Transformer网络的优越性; 相较以VGG16为骨干网络的FCN算法优势更为明显。在处理速度上, YOLACT++表现依旧强势, 是唯一能够达到实时实例分割的算法, 而其他算法在图像处理速度上的整体差距不大, 本文算法得益于RevFP融合网络低延迟的特性, 对比以原Swin-Ting为骨干网络的Mask R-CNN算法, 在FPS指标上小幅提升了1.3%。
图7
3.4 消融实验
为验证不同模块对于实例分割算法的影响, 设计了消融实验, 消融实验依然以原始Swin-Ting+FPN, 且无OHEM辅助训练的算法作为基线算法进行对比。6组消融实验是单一模块或两两模块的组合算法, 最后一组是本文的完整算法, 即改进Swin-Ting+RevFP+OHEM, 具体实验结果如表 5所示。其中, “×”表示未使用该模块; “√”表示使用了该模块进行改进优化。
表5 消融实验数据
Table 5
算法 | LES | RevFP | OHEM | mAPsegm/% | FPS |
基线算法 | × | × | × | 73.9 | 15.3 |
消融实验1 | √ | × | × | 74.8 | 15.0 |
消融实验2 | × | √ | × | 74.3 | 15.7 |
消融实验3 | × | × | √ | 74.6 | 15.3 |
消融实验4 | √ | √ | × | 75.1 | 15.4 |
消融实验5 | √ | × | √ | 75.1 | 15.0 |
消融实验6 | × | √ | √ | 74.8 | 15.7 |
本文算法 | √ | √ | √ | 75.4 | 15.5 |
实验结果表明, 单一或组合模块的改进在分割准确度或处理速度上大多可以产生正向优化效果, 证明对原始基线算法的改进是有效的。其中, LES模块对于网络分割准确度的提升比较明显, 但也会相应增加一定计算开销, 降低图像处理速度; RevFP模块的主要贡献在于对算法处理速度的提升, 对准确度的提升相对有限; 在基线算法基础上单独应用OHEM方法即可对算法精度有一定提升, 证明了数据集的样本难易平衡性能够直接影响网络训练效果, 在规模较小的数据集上能够取得相对优异的训练效果, 这对于样本容量和质量比较有限的自制数据集有着重要意义。为进一步验证OHEM方法在该方面的作用, 还进行了60%和80%训练集的实验, 结果如表 6所示。
表6 不同规模训练集训练效果对照实验结果
Table 6
算法 | 训练集大小 | mAP |
基线算法 | 60 | 61.8 |
80 | 68.1 | |
100 | 73.9 | |
消融实验3 | 60 | 63.0 |
80 | 69.0 | |
100 | 74.6 |
实验结果表明, 在数据集样本容量相同情况下, 使用了OHEM方法进行训练的Swin-T网络训练结果均优于基线算法, 在80%数据集条件下, mAP高出0.9%, 在60%数据集条件下, mAP高出1.2%, 在数据集容量有限的情况下, 优势有扩大趋势。
4 结束语
传统舰船目标识别多使用检测框标示出目标, 为将目标识别延伸至像素级别, 本文提出了一种基于改进Swin Transformer的舰船目标实例分割算法, 可以实现多尺度, 多角度, 基于掠海攻击视角的多类别舰船目标实例分割, 算法分割精度、速度均优于基线算法, 结合消融实验, 论证了对算法改进的有效性。
(1) 针对传统Swin Transformer模型存在图像上下文信息交互不充分的问题, 设计了由并行DConv分支组成的局部增强模块, 拓展感受野尺寸和语义交互能力, 使算法mAP提高0.9%。
(2) 针对传统FPN特征融合网络存在非相邻的特征语义信息被稀释的问题, 使用RevFP网络进行替代, 在分割精度和速度上均有不同程度提升。
(3) 针对自制数据集样本数量较少, 样本难易程度不平衡导致的训练结果不佳的问题, 使用OHEM方法反复迭代以改善训练效果, 切实提升了小样本数据集的训练效果。
下一阶段的研究重点是进一步提高网络模型的特征提取能力, 并建立样本数量更大的舰船目标数据集, 重点解决复杂岛岸背景下的舰船目标识别或实例分割问题。同时, 将算法迁移至嵌入式平台端, 对弹载平台的分割效果进行实验验证。
参考文献
基于深度学习的实例分割研究综述
[J].
A survey of instance segmentation research based on deep learning
[J].
Fully convolutional networks for semantic segmentation
[J].
YOLACT++: better real-time instance segmentation
[J].DOI:10.1109/TPAMI.2020.3014297 [本文引用: 2]
DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs
[J].DOI:10.1109/TPAMI.2017.2699184
基于深浅层特征融合的舰船要害关键点检测算法
[J].
Key-points detection algorithm based on fusion of deep and shallow features for warship's vital part
[J].
基于YOLOv5的舰船目标及关键部位检测算法
[J].
Ship target and key parts detection algorithm based on YOLOv5
[J].
/
〈 |
|
〉 |
