有不少小伙伴和我交流YOLO改进的时候,都说YOLOv7的网络配置文件长达104层,改起来很费力,数层数都要数很久,还很容易出错,而且基于YOLOv5代码架构,Debug起来也确实比较费时,所以博主对YOLOv7网络配置进行了一个结构改造,一个 🚀极致简洁直观的YOLOv7网络配置结构🚀(强烈推荐) 独家首发原创!
💡:该结构只有 24层配置,强烈推荐!🌟🌟🌟🌟🌟,直观性直逼YOLOv5的网络配置文件,可以更清晰更方便更快的改进YOLOv7
💡:比起官方的YOLOv7配置,减少了70多层,大大降低了改进难度,本博客内含·极致版YOLOv7架构的改进源代码·跟着步骤直接操作即可
💡YOLOv7极致简约模型,配置只有24层,和官方YOLOv7模型一模一样,完全对齐官方的参数量、计算量、精度mAP、Loss!!!之后的改进完全可以基于这个 极致版YOLOv7 去作为Baseline,效率提升10倍,更快替换主干网络、融合网络,以下是极致版YOLOv7结构
极致版🔗-改进代码链接👉:全网独家首发|YOLOv7改进方式提升(代码二),使得改进难度下降,将网络配置层数从104层极致压缩到24层,更清晰更方便更快的改进YOLOv7,完全对齐官方YOLOv7网络模型数据
文章目录
-
- @[toc]
- 层数直观对比图
- 核心代码
- 网络配置架构改进前后 对比(各项指标对齐)
-
- 一、层数配置对比,极致压缩到24层
-
- 改进后(24层!!!)
- 改进前(104层)
- 参数量、计算量一致
-
- 改进后
- 改进前
- 结论:保持一致
- 精度、Loss一致
-
- 改进后
- 改进前
- 结论:保持一致
文章目录
-
- @[toc]
- 层数直观对比图
- 核心代码
- 网络配置架构改进前后 对比(各项指标对齐)
-
- 一、层数配置对比,极致压缩到24层
-
- 改进后(24层!!!)
- 改进前(104层)
- 参数量、计算量一致
-
- 改进后
- 改进前
- 结论:保持一致
- 精度、Loss一致
-
- 改进后
- 改进前
- 结论:保持一致
层数直观对比图
缩减80层,减少数层数的时间!!
核心代码
改进代码 在第二篇文章,链接:
【链接】极致版🔗-改进代码👉:全网独家首发|YOLOv7改进方式提升(代码二),使得改进难度下降,将网络配置层数从104层极致压缩到24层,更清晰更方便更快的改进YOLOv7,完全对齐官方YOLOv7网络模型数据
网络配置架构改进前后 对比(各项指标对齐)
各项直逼对齐,改进YOLOv7,完全可以将这个配置作为原始baseline配置去进行更改!
一、层数配置对比,极致压缩到24层
改进后(24层!!!)
只有24层!!!,直观性直逼YOLOv5的网络配置文件
Model Summary: 37622682 parameters, 37622682 gradients, 106.5 GFLOPS
改进前(104层)
Model Summary: 37622682 parameters, 37622682 gradients, 106.5 GFLOPS
参数量、计算量一致
改进后
Model Summary: 37622682 parameters, 37622682 gradients, 106.5 GFLOPS
改进前
Model Summary: 37622682 parameters, 37622682 gradients, 106.5 GFLOPS
结论:保持一致
精度、Loss一致
改进后
Epoch gpu_mem box obj cls total labels img_size
0/0 0G 0.08807 0.1532 0.5709 0.8122 6 160: 100%|██████████████████████████████████| 64/64 [00:30<00:00, 2.11it/s]
Class Images Labels P R mAP@.5 mAP@.5:.95: 100%|██████████████████████| 32/32 [02:01<00:00, 3.79s/it]
all 128 929 5.86e-06 0.00469 2.67e-06 4.79e-07
改进前
Epoch gpu_mem box obj cls total labels img_size
0/0 0G 0.08807 0.1532 0.5709 0.8122 6 160: 100%|██████████████████████████████████| 64/64 [00:29<00:00, 2.19it/s]
Class Images Labels P R mAP@.5 mAP@.5:.95: 100%|██████████████████████| 32/32 [02:03<00:00, 3.85s/it]
all 128 929 5.86e-06 0.00469 2.67e-06 4.79e-07
近期评论