CMC 特刊文章合辑 | 机器视觉检测和智能识别

2025-01-24ASPCMS社区 - fjmyhfvclm

本期合辑主要分享来自东北大学宋克臣副教授、广岛大学胡少鹏副教授、沈阳工业大学温馨副教授共同主持的截刊特刊“机器视觉检测和智能识别”中的精选文章。

特刊全部文章可以通过以下链接访问:https://www.techscience.com/cmc/special_detail/machine-vision-detection。欢迎大家阅读参考。

️1. SAM时代:它能分割任何工业表面缺陷吗?

️Title: SAM Era: Can It Segment Any Industrial Surface Defects?

️Citation: K. Song, W. Cui, H. Yu, X. Li, and Y. Yan, “SAM Era: Can It Segment Any Industrial Surface Defects?,” Comput. Mater. Contin., vol. 78, no. 3, pp. 3953-3969, 2024. https://doi.org/10.32604/cmc.2024.048451

️摘要:Segment Anything Model (SAM) 是一种跨时代的计算机视觉领域的基础视觉模型,在通用物体分割方面表现出色。Segment Anything 的诞生是朝着创建通用智能模型迈出的突破性一步。由于在通用物体分割中的优越表现,它迅速引起了广泛关注和兴趣。这使得 SAM 在工业表面缺陷分割中尤为具有吸引力,尤其是在训练数据有限的复杂工业场景中。然而,它在特定工业场景下的分割能力尚不明确。因此,在本研究中,选择了三种具有代表性且复杂的工业表面缺陷检测场景,分别是钢带表面缺陷、瓷砖表面缺陷和轨道表面缺陷,来评估 SAM 的分割性能。结果表明,尽管 SAM 在通用物体分割方面具有巨大潜力,但在复杂工业场景中未能实现令人满意的表现。测试结果可以在以下网址查阅:https://github.com/VDT-2048/SAM-IS。

️2. 基于改进YOLOv5m网络模型的小目标车辆实时检测算法

️Title: A Real-Time Small Target Vehicle Detection Algorithm with an Improved YOLOv5m Network Model

️Citation: Y. Du and X. Jiang, “A Real-Time Small Target Vehicle Detection Algorithm with an Improved YOLOv5m Network Model,” Comput. Mater. Contin., vol. 78, no. 1, pp. 303-327, 2024. https://doi.org/10.32604/cmc.2023.046068

️摘要:为了应对现有车辆物体检测算法在高复杂性、较差实时性和小目标车辆检测率低等方面的挑战,本文提出了一种基于YOLOv5m的实时轻量化架构。首先,在网络的特征融合层引入了一种轻量化的上采样操作符——内容感知特征重组(CARAFE),以最大化提取小目标车辆的深层次特征,从而减少漏检率和误检率。其次,增加了一个针对小目标的新预测层,并重新设计了特征融合网络,以增强小目标的检测能力。最后,本文应用L1正则化对改进后的网络进行训练,并通过剪枝和微调操作去除冗余通道,减少计算量和参数复杂度,提升网络的检测效率。训练使用了VisDrone2019-DET数据集。实验结果表明,所提出的算法分别减少了63.8%和65.8%的参数和计算量,平均检测精度提高了5.15%,检测速度达到了每秒47帧,满足实时性要求。与现有方法(包括YOLOv5m和经典车辆检测算法)相比,我们的方法在边缘计算中实现了更高的精度和更快的检测速度,尤其在实时检测小目标车辆方面表现突出。

️3. 基于注意机制和改进YOLOv7的水下目标检测算法

️Title: An Underwater Target Detection Algorithm Based on Attention Mechanism and Improved YOLOv7

️Citation: L. Ren, Z. Li, X. He, L. Kong, and Y. Zhang, “An Underwater Target Detection Algorithm Based on Attention Mechanism and Improved YOLOv7,” Comput. Mater. Contin., vol. 78, no. 2, pp. 2829-2845, 2024. https://doi.org/10.32604/cmc.2024.047028

️摘要:在水下机器人执行目标检测任务的过程中,由于水下图像的颜色失真和质量不均,导致模型在特征提取阶段遇到较大困难,容易出现误检、漏检和准确率差等问题。因此,本文提出了CER-YOLOv7 (CBAM-EIOU-RepVGG-YOLOv7) 水下目标检测算法。为提高算法在特征提取阶段从空间和通道两个维度保留有效特征的能力,我们在骨干网络中加入了卷积块注意力模块(CBAM)。同时,在骨干网络中插入了重参数化视觉几何组(RepVGG)模块,以提升训练和推理能力。此外,我们还采用了高效交并比(EIoU)损失作为定位损失函数,以减少算法的误检率和漏检率。CER-YOLOv7算法在UPRC(水下机器人原型竞赛)数据集上的实验结果显示,该算法的mAP(平均精度均值)得分为86.1%,相比YOLOv7提高了2.2%。通过消融实验和对比实验验证了CER-YOLOv7的可行性和有效性,证明其更适合用于水下目标检测。

️4. 基于改进YOLOv8s算法的无人船识别

️Title: Unmanned Ship Identification Based on Improved YOLOv8s Algorithm

️Citation: C. Wu, J. Lei, W. Liu, M. Ren, and L. Ran, “Unmanned Ship Identification Based on Improved YOLOv8s Algorithm,” Comput. Mater. Contin., vol. 78, no. 3, pp. 3071-3088, 2024. https://doi.org/10.32604/cmc.2023.047062

️摘要:针对红外船舶图像中的低对比度、船舶尺寸分布不均匀以及缺乏纹理细节等缺陷,这些问题可能导致无人船舶漏检和检测速度慢,本文提出了一种基于改进YOLOv8算法(R_YOLO)的红外船舶检测模型。该算法结合了高效多尺度注意力机制(EMA)、高效重参数化广义特征提取模块(CSPStage)、小目标检测头、排斥损失函数(Repulsion Loss)和上下文聚合模块(CABlock),旨在提升模型在多尺度目标检测中的能力以及推理速度。该算法在两个船舶数据集上进行了详细验证。综合实验结果表明,在红外数据集中,YOLOv8s算法在多项性能指标上均有所提升。具体来说,与基准算法相比,mAP(0.5)提高了3.1%,召回率提高了5.4%,mAP (0.5:0.95)提高了2.2%。同时,在参数量不到基准算法的五分之一的情况下,mAP (0.5)和每秒帧数(FPS)分别较CAA_YOLO算法提高了1.7%和超过3倍。最后,在可见光数据集上的评估指标显示,平均提升了4.5%。

️5. C2Net-YOLOv5:一种基于双向Res2Net的交通标志检测算法

️Title: C2Net-YOLOv5: A Bidirectional Res2Net-Based Traffic Sign Detection Algorithm

️Citation: X. Wang, Y. Tian, K. Zheng, and C. Liu, “C2Net-YOLOv5: A Bidirectional Res2Net-Based Traffic Sign Detection Algorithm,” Comput. Mater. Contin., vol. 77, no. 2, pp. 1949-1965, 2023. https://doi.org/10.32604/cmc.2023.042224

️摘要:智能交通系统(ITS)和自动驾驶(AD)的快速发展凸显了准确高效地检测交通标志的重要性。然而,一些缺点,如平衡准确性与实时性能,仍然制约着交通标志检测算法在ITS和AD领域的应用。针对这一问题,本文提出了一种基于双向Res2Net架构的交通标志检测算法,以实现准确性与速度之间的更好平衡。本文引入了一种增强的骨干网络模块——C2Net,采用升级版双向Res2Net架构,旨在缓解特征提取过程中的信息丢失,并实现信息互补。此外,本文在架构的通道注意力机制中引入了压缩与激励(squeeze-and-excitation)注意力机制,对输入特征图进行通道级特征校正,从而有效保留有价值的特征并去除非必要特征。为验证所提方法的有效性,进行了系列消融实验,并通过两个不同的数据集进行了性能评估:清华-腾讯100K (Tsinghua-Tencent 100K)和CSUST 2025中国交通标志检测基准数据集(CCTSDB 2025)。在TT100K数据集上,该方法分别取得了83.3%的精度、79.3%的召回率和84.2%的mAP0.5分数;在CCTSDB 2025数据集上,分别取得了91.49%的精度、73.79%的召回率和81.03%的mAP0.5分数。实验结果表明,所提方法相比于传统模型(如更快的基于区域的卷积神经网络、单次多框检测器和YOLOv5)具有更优的性能。

️6. 基于深度特征选择和鲸鱼优化算法的路面裂缝自动检测

️Title: Automated Pavement Crack Detection Using Deep Feature Selection and Whale Optimization Algorithm

️Citation: S. Alshawabkeh, L. Wu, D. Dong, Y. Cheng, L. Li, and M. Alanaqreh, “Automated Pavement Crack Detection Using Deep Feature Selection and Whale Optimization Algorithm,” Comput. Mater. Contin., vol. 77, no. 1, pp. 63-77, 2023.

https://doi.org/10.32604/cmc.2023.042183

️摘要:路面裂缝检测在确保道路安全和减少维修费用方面起着至关重要的作用。近年来,深度学习技术在路面裂缝检测中取得了令人鼓舞的成果,但如何选择相关特征进行分类仍然是一个挑战。为此,本研究提出了一种新的路面裂缝检测方法,结合了深度学习用于特征提取、鲸鱼优化算法(WOA)用于特征选择和随机森林(RF)用于分类。模型的性能通过准确率、召回率、精确度、F1分数和接收器操作特征曲线下面积(AUC)进行了评估。研究结果表明,集成RF的ResNet-18架构(模型2)在所有评估指标上都优于基准模型1。然而,我们提出的模型,结合了ResNet-18、WOA和RF,相比其他两个模型,取得了显著更高的准确率、召回率、精确度和F1分数。这些结果凸显了将RF和WOA集成到ResNet-18中用于路面裂缝检测应用的有效性。我们将所提方法应用于路面图像数据集,达到了97.16%的准确率和0.984的AUC。实验结果表明,该方法超越了现有的路面裂缝检测方法,为自动识别路面裂缝提供了一个有前景的解决方案。通过利用该方法,可以更有效地识别潜在的安全隐患,从而及时进行维修和保养。最后,本研究的结果还强调了将RF和WOA与深度学习相结合用于路面裂缝检测的潜力,为道路管理部门提供了做出有关道路基础设施维护决策所需的工具。

️7. 基于改进YOLOv8s算法的无人机通用航空人车识别

️Title: Unmanned Aerial Vehicles General Aerial Person-Vehicle Recognition Based on Improved YOLOv8s Algorithm

️Citation: Z. Liu, “Unmanned Aerial Vehicles General Aerial Person-Vehicle Recognition Based on Improved YOLOv8s Algorithm,” Comput. Mater. Contin., vol. 78, no. 3, pp. 3787-3803, 2024. https://doi.org/10.32604/cmc.2024.048998

️摘要:考虑到无人机在不同航拍高度下成像尺寸的变化,以及光照和天气等因素的影响,这些因素可能导致模型的漏检和误检,本文提出了一种基于改进轻量级YOLOv8s算法的综合检测模型,适用于自然光和红外场景(L_YOLO)。该算法提出了一种特殊的特征金字塔网络(SFPN)结构,并用特殊的可变形卷积特征提取模块(SDCN)替代了大部分的颈部特征提取模块。此外,模型经过修剪以去除冗余通道。最后,集成了基于最小点距离的交并比非极大值抑制算法(MPDIOU_NMS),用于消除冗余检测框,并在红外航拍数据集和Visdrone2019数据集上进行了全面验证。实验结果表明,当参数数量和浮点运算量分别减少30%和20%时,红外数据集上的mAP (0.5)提高了1.2%,mAP(0.5:0.95)提高了4.8%。最终,在Visdrone2019数据集上,mAP的平均提升为12.4%,准确率和召回率分别提高了9.2%和3.6%。

️8. 机器学习和深度学习方法在农业航空摄影光谱图像分类中的应用的系统文献综述

️Title: A Systematic Literature Review of Machine Learning and Deep Learning Approaches for Spectral Image Classification in Agricultural Applications Using Aerial Photography

️Citation: U. Khan et al., “A Systematic Literature Review of Machine Learning and Deep Learning Approaches for Spectral Image Classification in Agricultural Applications Using Aerial Photography,” Comput. Mater. Contin., vol. 78, no. 3, pp. 2967-3000, 2024. https://doi.org/10.32604/cmc.2024.045101

️摘要:最近,关于光谱图像的科学研究引起了显著关注。这些图像有潜力彻底改变数字摄影行业,尤其是在通过无人机进行的航拍中,已吸引了大量关注。一个令人鼓舞的方面是它们与机器学习和深度学习算法的结合,这些算法在图像分类中已展示出卓越的成果。由于这种强大的结合,光谱图像的应用在各个领域得到了迅猛增长,农业是其中一个主要受益的领域。本文提供了一项广泛的调查,涵盖了多光谱和高光谱图像,重点讨论它们在农业各个领域的分类应用,包括植物、谷物、水果和蔬菜。通过细致审视主要研究,我们深入探讨了多光谱和高光谱图像在具体农业领域中的实际应用。此外,我们还关注了在农业背景下,如何利用机器学习技术有效地对高光谱图像进行分类。我们的研究结果表明,深度学习和支持向量机已成为农业中高光谱图像分类的广泛应用方法。然而,我们也揭示了使用光谱图像时存在的各种问题和局限性。本文的全面分析旨在为当前农业中光谱成像的现状及其未来发展潜力提供宝贵的见解。

️CMC期刊简介

️CMC-Computers, Materials & Continua期刊是一本经过同行评审的开源性期刊,期刊发表计算机网络、人工智能、大数据管理、软件工程、多媒体、网络安全、物联网、材料基因组、集成材料科学、数据分析、建模以及现代功能和多功能材料的设计和制造工程等计算机学科和计算材料科学领域的原创研究论文。新型高性能计算方法、大数据分析以及推动材料技术发展的人工智能尤其受欢迎。目前CMC期刊被收录在一些世界主要引文数据库里,如SCI, Scopus, EI Compendex, Google Scholar等等。

️主编:

️Prof. Ankit Agrawal

Northwestern University, USA

️Prof.Timon Rabczuk

Bauhaus University Weimar, GERMANY

️Prof. Guoren Wang

Beijing Institute of Technology, CHINA

版权声明: 本文由Tech Science Press 南京办公室负责编译。中文内容仅供参考,一切内容以英文原版为准。如需转载,请回复“转载”联系小编。

全部评论