对无纺布进行瑕疵检测,可以帮助企业提升生产效率,节约成本,但是基于CNN的目标检测算法受限于卷积核的局部特性,缺乏对图像的全局建模,对尺度变化范围大的瑕疵检出效果不理想。因此,提出了基于Swin Transformer和YOLOv5的无纺布瑕疵检测方法,并引入了CBAM注意力机制,同时微调了预测目标框的anchor尺寸;在自制数据集上对所提方法的有效性进行了验证。结果表明,通过其强大的自我注意力对特征进行编码、解码,网络可以获得更大的感受野,充分联系上下文关系;Swin的基于特征金字塔的分层构建结构与YOLOv5的neck设计十分相似,可以帮助网络在多尺度特征图上对目标进行预测;网络对重要信息的关注度得到了提高;通过Mosaic和MixUp数据增强丰富了数据分布;模型的鲁棒性和对无纺布的检测性能得到提高,回归预测结果更精准。