改进的yolov5目标检测-yolov5替换骨干网络-yolo剪枝(TensorRT及NCNN部署)

YOLOv5_0">YOLOv5改进点

在这里插入图片描述

  • 2022.10.30 复现TPH-YOLOv5

  • 2022.10.31 完成替换backbone为Ghostnet

  • 2022.11.02 完成替换backbone为Shufflenetv2

  • 2022.11.05 完成替换backbone为Mobilenetv3Small
    在这里插入图片描述

  • 2022.11.10 完成EagleEye对YOLOv5系列剪枝支持

  • 2022.11.14 完成MQBench对YOLOv5系列量化支持

  • 2022.11.16 完成替换backbone为EfficientNetLite-0

  • 2022.11.26 完成替换backbone为PP-LCNet-1x

  • 2022.12.12 完成SwinTrans-YOLOv5(C3STR)

  • 2022.12.15 完成Slimming对YOLOv5系列剪枝支持

Requirements

pip install -r requirements.txt

YOLOs_26">Multi-Backbone Substitution for YOLOs

1、Base Model

Train on Visdrone DataSet (Input size is 608)

No.ModelmAPmAP@50Parameters(M)GFLOPs
1YOLOv5n13.026.201.784.2
2YOLOv5s18.434.007.0515.9
3YOLOv5m21.637.8020.9148.2
4YOLOv5l23.239.7046.19108.1
5YOLOv5x24.340.8086.28204.4

2、高精度模型

YOLOv5_httpsimgblogcsdnimgcndirect70a250dfae384fdeb246c21480b75367png_42">A、TPH-YOLOv5 在这里插入图片描述

Train on Visdrone DataSet (6-7 size is 640,8 size is 1536)

No.ModelmAPmAP@50Parameters(M)GFLOPs
6YOLOv5xP230.049.2990.96314.2
7YOLOv5xP2 CBAM30.149.4091.31315.1
8YOLOv5x-TPH40.763.00112.97270.8
用法:
nohup python train.py --data VisDrone.yaml --weights yolov5n.pt --cfg models/yolov5n.yaml --epochs 300 --batch-size 8 --img 608 --device 0,1 --sync-bn >> yolov5n.txt &
组成部分:

P2 Head、CBAM、TPH、BiFPN、SPP

在这里插入图片描述

1、TransBlock的数量会根据YOLO规模的不同而改变,标准结构作用于YOLOv5m

2、当YOLOv5x为主体与标准结构的区别是:(1)首先去掉14和19的CBAM模块(2)降低与P2关联的通道数(128)(3)在输出头之前会添加SPP模块,注意SPP的kernel随着P的像素减小而减小(4)在CBAM之后进行输出(5)只保留backbone以及最后一层输出的TransBlock(6)采用BiFPN作为neck

3、更改不同Loss分支的权重:如下图,当训练集的分类与置信度损失还在下降时,验证集的分类与置信度损失开始反弹,说明出现了过拟合,需要降低这两个任务的权重

消融实验如下:

boxclsobjacc
0.050.51.037.90
0.050.30.738.00
0.050.20.437.5
YOLOv5httpsimgblogcsdnimgcndirect254b2e25b1b244afbe2f624349fe64c4png_82">B、SwinTrans-YOLOv5在这里插入图片描述
pip install timm
Usage:
python train.py --data VisDrone.yaml --weights yolov5x.pt --cfg models/accModels/yolov5xP2CBAM-Swin-BiFPN-SPP.yaml --hyp data/hyps/hyp.visdrone.yaml --epochs 60 --batch-size 4 --img 1536 --nohalf

(1)Window size由7替换为检测任务常用分辨率的公约数8

(2)create_mask封装为函数,由在init函数执行变为在forward函数执行

(3)若分辨率小于window size或不是其公倍数时,在其右侧和底部Padding

debug:在计算完之后需要反padding回去,否则与cv2支路的img_size无法对齐

(4)forward函数前后对输入输出reshape

(5)验证C3STR时,需要手动关闭默认模型在half精度下验证(–nohalf

3、Slighter Model

Train on Visdrone DataSet (1 size is 608,2-6 size is 640)

NoModelmAPmAP@50Parameters(M)GFLOPsTrainCost(h)Memory Cost(G)PT FileFPS@CPU
1YOLOv5l23.239.746.19108.1
2YOLOv5l-GhostNet18.433.824.2742.427.444.97PekingUni Cloud
3YOLOv5l-ShuffleNetV216.4831.121.2740.510.982.41PekingUni Cloud
4YOLOv5l-MobileNetv3Small16.5531.220.3838.410.195.30PekingUni Cloud
5YOLOv5l-EfficientNetLite019.123523.0143.913.942.04PekingUni Cloud
6YOLOv5l-PP-LCNet17.6332.821.6441.718.521.66PekingUni Cloud
YOLOv5_119">A、GhostNet-YOLOv5

(1)为保持一致性,下采样的DW的kernel_size均等于3

(2)neck部分与head部分沿用YOLOv5l原结构

(3)中间通道人为设定(expand)

YOLOv5_130">B、ShuffleNetV2-YOLOv5

在这里插入图片描述

(1)Focus Layer不利于芯片部署,频繁的slice操作会让缓存占用严重

(2)避免多次使用C3 Leyer以及高通道的C3 Layer(违背G1与G3准则)

(3)中间通道不变

YOLOv5_139">C、MobileNetv3Small-YOLOv5

在这里插入图片描述

(1)原文结构,部分使用Hard-Swish激活函数以及SE模块

(2)Neck与head部分嫁接YOLOv5l原结构

(3)中间通道人为设定(expand)

YOLOv5_148">D、EfficientNetLite0-YOLOv5

在这里插入图片描述

(1)使用Lite0结构,且不使用SE模块

(2)针对dropout_connect_rate,手动赋值(随着idx_stage变大而变大)

(3)中间通道一律*6(expand)

YOLOv5_160">E、PP-LCNet-YOLOv5

在这里插入图片描述

(1)使用PP-LCNet-1x结构,在网络末端使用SE以及5*5卷积核

(2)SeBlock压缩维度为原1/16

(3)中间通道不变

YOLOs_171">Pruning for YOLOs

ModelmAPmAP@50Parameters(M)GFLOPsFPS@CPU
YOLOv5s18.4347.0515.9
YOLOv5n1326.21.784.2
YOLOv5s-EagleEye@0.614.327.94.599.6

1、Prune Strategy

(1)基于YOLOv5块状结构设计,对Conv、C3、SPP(F)模块进行剪枝,具体来说有以下:

  • Conv模块的输出通道数
  • C3模块中cv2块和cv3块的输出通道数
  • C3模块中若干个bottleneck中的cv1块的输出通道数

(2)八倍通道剪枝(outchannel = 8*n)

(3)ShortCut、concat皆合并剪枝

2、Prune Tools

(1)EagleEye

EagleEye: Fast Sub-net Evaluation for Efficient Neural Network Pruning

基于搜索的通道剪枝方法,核心思想是随机搜索到大量符合目标约束的子网,然后快速更新校准BN层的均值与方差参数,并在验证集上测试校准后全部子网的精度。精度最高的子网拥有最好的架构,经微调恢复后能达到较高的精度。

Usage
  1. 正常训练模型
python train.py --data data/VisDrone.yaml --imgsz 640 --weights yolov5s.pt --cfg models/prunModels/yolov5s-pruning.yaml --device 0

(注意训练其他模型,参考/prunModels/yolov5s-pruning.yaml进行修改,目前已支持v6架构)

  1. 搜索最优子网
python pruneEagleEye.py --weights path_to_trained_yolov5_model --cfg models/prunModels/yolov5s-pruning.yaml --data data/VisDrone.yaml --path path_to_pruned_yolov5_yaml --max_iter maximum number of arch search --remain_ratio the whole FLOPs remain ratio --delta 0.02
  1. 微调恢复精度
python train.py --data data/VisDrone.yaml --imgsz 640 --weights path_to_Eaglepruned_yolov5_model --cfg path_to_pruned_yolov5_yaml --device 0
(2)Network Slimming

Learning Efficient Convolutional Networks through Network Slimming

Usage
  1. 模型BatchNorm Layer \gamma 稀疏化训练
python train.py --data data/VisDrone.yaml --imgsz 640 --weights yolov5s.pt --cfg models/prunModels/yolov5s-pruning.yaml --device 0 --sparse

(注意训练其他模型,参考/prunModels/yolov5s-pruning.yaml进行修改,目前已支持v6架构)

  1. BatchNorm Layer剪枝
python pruneSlim.py --weights path_to_sparsed_yolov5_model --cfg models/prunModels/yolov5s-pruning.yaml --data data/VisDrone.yaml --path path_to_pruned_yolov5_yaml --global_percent 0.6 --device 3
  1. 微调恢复精度
python train.py --data data/VisDrone.yaml --imgsz 640 --weights path_to_Slimpruned_yolov5_model --cfg path_to_pruned_yolov5_yaml --device 0

YOLOs_248">Quantize Aware Training for YOLOs

MQBench是实际硬件部署下评估量化算法的框架,进行各种适合于硬件部署的量化训练(QAT)

Requirements

  • PyTorch == 1.8.1

Install MQBench Lib

由于MQBench目前还在不断更新,选择0.0.2稳定版本作为本仓库的量化库。

git clone https://github.com/ZLkanyo009/MQBench.git
cd MQBench
python setup.py build
python setup.py install

Usage

训练脚本实例:

python train.py --data VisDrone.yaml --weights yolov5n.pt --cfg models/yolov5n.yaml --epochs 300 --batch-size 8 --img 608 --nosave --device 0,1 --sync-bn --quantize --BackendType NNIE

Deploy

目前已支持TensorRT及NCNN部署,详见deploy

To do

  • Multibackbone: MobileNetV3-small
  • Multibackbone: ShuffleNetV2
  • Multibackbone: GhostNet
  • Multibackbone: EfficientNet-Lite0
  • Multibackbone: PP-LCNet
  • Multibackbone: TPH-YOLOv5
  • Module: SwinTrans(C3STR)
  • Module: Deformable Convolution
  • Pruner: Network Slimming
  • Pruner: EagleEye
  • Pruner: OneShot (L1, L2, FPGM), ADMM, NetAdapt, Gradual, End2End
  • Quantization: MQBench
  • Knowledge Distillation

http://www.niftyadmin.cn/n/5314644.html

相关文章

python_数据可视化_pandas_导入excel数据

目录 1.1导入库 1.2读取excel文件 1.3读取excel,指定sheet2工作表 1.4指定行索引 1.5指定列索引 1.6指定导入列 案例速览: 1.1导入库 import pandas as pd 1.2读取excel文件 pd.read_excel(文件路径) data pd.read_excel(D:/desktop/TestExcel…

【低照度图像增强系列(3)】EnlightenGAN算法详解与代码实现

前言 ☀️ 在低照度场景下进行目标检测任务,常存在图像RGB特征信息少、提取特征困难、目标识别和定位精度低等问题,给检测带来一定的难度。 🌻使用图像增强模块对原始图像进行画质提升,恢复各类图像信息,再使用目标检…

2024 年 API 管理新趋势预测

本文译自:What Will Be the API Management Trends for 2024? 原文链接:What Will Be the API Management Trends for 2024? - The New Stack 原文作者:Kenn Hussey 预计到 2030 年末,API 管理 市场的规模将增长六倍&…

设计模式之状态模式【行为型模式】

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档> 学习的最大理由是想摆脱平庸,早一天就多一份人生的精彩;迟一天就多一天平庸的困扰。各位小伙伴,如果您: 想系统/深入学习某…

BERT Intro

继续NLP的学习,看完理论之后再看看实践,然后就可以上手去kaggle做那个入门的project了orz。 参考: 1810.04805.pdf (arxiv.org) BERT 论文逐段精读【论文精读】_哔哩哔哩_bilibili (强推!)2023李宏毅讲解大模型鼻祖BERT,一小时…

2024年江苏省职业院校技能大赛高职学生组软件测试任务四 单元测试题目

2024年江苏省职业院校技能大赛高职学生组软件测试任务四 单元测试 任务要求 题目1:任意输入2个正整数值分别存入x、y中,据此完成下述分析:若x≤0或y≤0,则提示:“输入不符合要求。”;若2值相同&#xff0…

端到端自动驾驶

自动驾驶主要流程:感知->预测->规划 预测是预测周围目标(车、行人、动物等)的轨迹,规划是规划自车的运动轨迹。 UniAD[CVPR 2023]: 使用transformer架构,统一自动驾驶流程,完成所有检测&#xff0c…

Spark理论知识—1

1、Spark集群开发 spark集群运行时需要使用hdfs存储日志 9870端口 /export/server/hadoop/sbin/start-dfs.sh # 手动退出安全模式 hdfs dfsadmin -safemode forceExit 使用yarn进行资源调度服务 8088端口 /export/server/hadoop/sbin/start-yarn.sh 执行到这里我问一个问题 为什…