Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >干货 | YOLOv7目标检测论文解读与推理演示

干货 | YOLOv7目标检测论文解读与推理演示

作者头像
Color Space
发布于 2022-09-26 02:22:28
发布于 2022-09-26 02:22:28
5.7K00
代码可运行
举报
运行总次数:0
代码可运行

导读

本文主要介绍简化的YOLOv7论文解读和推理测试以及YOLOv7与 YOLO系列的其他目标检测器的比较。(公众号:OpenCV与AI深度学习

背景介绍 YOLOv7是YOLO系列中最先进的新型目标检测器。根据论文所述,它是迄今为止最快、最准确的实时目标检测器,最好的模型获得了56.8%的平均精度(AP),这是所有已知目标检测器中最高的,各种模型的速度范围在 5~160 FPS。

本文主要介绍简化的YOLOv7论文解读和推理测试以及YOLOv7与 YOLO系列的其他目标检测器的比较。

YOLOv7通过将性能提升一个档次建立了重要的基准。从YOLOv4开始在极短的时间内,我们看到YOLO家族的新成员接踵而至。每个版本都引入了一些新的东西来提高性能。早些时候,我们已经详细讨论了以前的 YOLO 版本。在下面查看YOLO 系列介绍:https://learnopencv.com/category/yolo/

YOLO的一般架构 YOLO架构基于FCNN(全卷积神经网络),然而,基于Transformer的版本最近也被添加到了YOLO 系列中。我们将在另一篇文章中讨论基于 Transformer 的检测器。现在,让我们关注基于FCNN的 YOLO 目标检测器。 YOLO 框架具有三个主要组件:
  • Backbone
  • Head
  • Neck

Backbone主要提取图像的基本特征,并通过Neck将它们馈送到HeadNeck收集由Backbone提取的特征图并创建特征金字塔。最后,头部由具有最终检测的输出层组成。下表显示了YOLOv3、YOLOv4和YOLOv5 的总体架构。

YOLOv7有什么新功能? YOLOv7通过引入多项架构改革提高了速度和准确性。与Scaled YOLOv4类似,YOLOv7主干不使用 ImageNet预训练的主干。相反,模型完全使用 COCO 数据集进行训练。由于YOLOv7是由Scaled YOLOv4 的同一作者编写的,因此可以预料到这种相似性。YOLOv7 论文中引入了以下主要变化,我们将一一进行介绍:
  • 架构改革
    • E-ELAN(扩展高效层聚合网络)
    • 基于串联模型的模型缩放
  • 可训练的 BoF(赠品袋)
    • 计划重新参数化卷积
    • 粗为辅助,细为Lead Loss

YOLOv7架构 该架构源自 YOLOv4、Scaled YOLOv4 和 YOLO-R。以这些模型为基础,进行了进一步的实验以开发新的和改进的 YOLOv7。 【1】YOLOv7论文中的E-ELAN(Extended Efficient Layer Aggregation Network) E-ELAN是 YOLOv7主干中的计算块。它从先前对网络效率的研究中汲取灵感。它是通过分析以下影响速度和准确性的因素而设计的。
  • 内存访问成本
  • 输入输出通道比
  • 元素明智的操作
  • 激活
  • 渐变路径


提出的E-ELAN使用expand、shuffle、merge cardinality来实现在不破坏原有梯度路径的情况下不断增强网络学习能力的能力。


简单来说,E-ELAN 架构使框架能够更好地学习。它基于 ELAN 计算块。在撰写本文时,ELAN 论文尚未发表。我们将通过添加 ELAN 的详细信息来更新帖子(https://github.com/WongKinYiu/yolov7/issues/17#issuecomment-1179831969)

【2】YOLOv7中的复合模型缩放 不同的应用需要不同的模型。虽然有些人需要高度准确的模型,但有些人优先考虑速度。执行模型缩放以适应这些要求并使其适合各种计算设备。 在缩放模型大小时,会考虑以下参数:
  • 分辨率(输入图像的大小)
  • 宽度(通道数)
  • 深度(网络层数)
  • 阶段(特征金字塔的数量)

NAS(Network Architecture Search)是一种常用的模型缩放方法。研究人员使用它来迭代参数以找到最佳比例因子。但是,像 NAS 这样的方法会进行参数特定的缩放。在这种情况下,比例因子是独立的。 YOLOv7论文的作者表明,它可以通过复合模型缩放方法进一步优化。在这里,对于基于连接的模型,宽度和深度是连贯地缩放的。

YOLOv7可训练的Bag of FreeBies BoF或Bag of Freebies 是在不增加训练成本的情况下提高模型性能的方法。YOLOv7引入了以下 BoF 方法。 【1】计划重参数化卷积 重新参数化是训练后用于改进模型的一种技术。它增加了训练时间,但提高了推理结果。有两种类型的重新参数化用于最终确定模型,模型级和模块级集成。 模型级别的重新参数化可以通过以下两种方式完成。
  • 使用不同的训练数据但相同的设置,训练多个模型。然后平均它们的权重以获得最终模型。
  • 取不同时期模型权重的平均值。

最近,模块级别的重新参数化在研究中获得了很大的关注。在这种方法中,模型训练过程被分成多个模块。输出被集成以获得最终模型。YOLOv7 论文中的作者展示了执行模块级集成的最佳方法(如下所示)。

在上图中,E-ELAN 计算块的 3×3 卷积层被替换为 RepConv 层。我们通过切换或替换 RepConv、3×3 Conv 和 Identity 连接的位置来进行实验。上面显示的残余旁路箭头是一个身份连接。它只不过是一个 1×1 的卷积层。我们可以看到有效的配置和无效的配置。在RepVGG 论文中查看有关 RepConv 的更多信息。 包括 RepConv,YOLOv7 还对 Conv-BN(Convolution Batch Normalization)、OREPA(Online Convolutional Re-parameterization)和 YOLO-R 进行了重新参数化,以获得最佳结果。

【2】Coarse for Auxiliary and Fine for Lead loss 正如你现在已经知道的那样,YOLO 架构包括主干、颈部和头部。头部包含预测的输出。YOLOv7 不以单头为限。它有多个头可以做任何想做的事情。是不是很有趣? 然而,这并不是第一次引入多头框架。深度监督是 DL 模型使用的一种技术,它使用多个头。在 YOLOv7 中,负责最终输出的 head 称为Lead Head。而中间层用来辅助训练的头叫做辅助头。 在辅助损失的帮助下,辅助头的权重被更新。它允许深度监督并且模型学习得更好。这些概念与Lead Head和Label Assigner 密切相关。 标签分配器是一种将网络预测结果与基本事实一起考虑然后分配软标签的机制。需要注意的是,标签分配器不会生成硬标签,而是生成软标签和粗标签。 Lead Head Guided Label Assigner 封装了以下三个概念。
  • Lead Head
  • Auxiliary Head
  • Soft Label Assigner

YOLOv7 网络中的 Lead Head 预测最终结果。基于这些最终结果生成软标签。重要的部分是基于生成的相同软标签计算前导头和辅助头的损失。最终,两个头部都使用软标签进行训练。如上图左图所示。 有人可能会问,“为什么要使用软标签?”。作者在论文中说得很好: “之所以这样做,是因为lead head具有比较强的学习能力,所以由它生成的软标签应该更能代表源数据和目标之间的分布和相关性。……通过让较浅的辅助头直接学习领头人学习过的信息,领头人将更能专注于学习尚未学习的残留信息。” 现在,进入从粗到细的标签,如上图右图所示。实际上,在上述过程中,生成了两组不同的软标签。

  • 精细标签用于训练训练 lead head
  • 粗略标签用于训练辅助头部

精细标签与直接生成的软标签相同。然而,为了生成粗略的标签,更多的网格被视为正目标。这是通过放宽正样本分配过程的约束来完成的。

YOLOv7的实验和结果 所有 YOLOv7 模型在 5 FPS 到 160 FPS 范围内的速度和精度都超过了之前的目标检测器。下图很好地说明了 YOLOv7 模型与其他模型相比的平均精度 (AP) 和速度。

从上图可以看出,从 YOLOv7 开始,无论是速度还是准确率,其他模型都无法与 YOLOv7 竞争。


注意:我们进一步讨论的结果来自YOLOv7 论文,其中所有推理实验都是在 Tesla V100 GPU 上完成的。所有 AP 结果都是在 COCO 验证或测试集上完成的。

【1】mAP 比较:YOLOv7 与其他模型

上述结果大多根据一组特定模型的一系列参数组合在一起。

  • 从 YOLOv7-Tiny 模型开始,它是家族中最小的模型,参数刚刚超过 600 万。它的验证 AP 为 35.2%,击败了具有相似参数的 YOLOv4-Tiny 模型。
  • 具有近 3700 万个参数的 YOLOv7 正常模型提供了 51.2% 的 AP,再次击败了具有更多参数的 YOLOv4 和 YOLOR 的变体。
  • YOLO7 系列中较大的型号,YOLOv7-X、YOLOv7-E6、YOLOv7-D6 和 YOLOv7-E6E。所有这些都击败了各自的 YOLOR 模型,它们的参数数量相似或更少,AP 分别为 52.9%、55.9%、56.3% 和 56.8%。

现在,YOLOv7超越的不仅仅是YOLOv4和YOLOR模型。将验证 AP 与具有相同范围内参数的YOLOv5和 YOLOv7 模型进行比较,很明显 YOLOv7 也击败了所有 YOLOv5 模型。

【2】FPS 比较:YOLOv7 与其他模型

‍ YOLOv7 论文中的表 2提供了 YOLOv7 与其他模型的 FPS 的全面比较,以及尽可能在 COCO 测试集上的 AP 比较。

已经确定 YOLOv7 在 5 FPS 到 160 FPS 的范围内具有最高的 FPS 和 mAP。所有 FPS 比较均在 Tesla V100 GPU 上完成。

YOLOv7-E6 模型(上面突出显示)在 V100 GPU 上以 56 FPS 运行,测试 AP 为 56%。这超过了基于变压器的SWIN_L Cascade-Mask R-CNN模型(9.2 FPS,53.9% AP)和基于卷积的ConvNeXt-XL(8.6 FPS,55.2% AP)。这很重要,因为其他两种型号即使在 A100 GPU 上也提供更少的 FPS,与 V100 GPU 相比,A100 GPU 更强大。

值得注意的是,没有一个 YOLOv7 模型适用于移动设备/移动 CPU(如作者在论文中所述)。

YOLOv7-Tiny、YOLOv7 和 YOLOv7-W6 分别用于边缘 GPU、普通(消费者)GPU 和云 GPU。这意味着 YOLOv7-E6 和 YOLOv7-D6 以及 YOLOv7-E6E 也仅适用于高端云 GPU。尽管如此,所有 YOLOv7 模型在 Tesla V100 GPU 上的运行速度都超过了 30 FPS,超过了实时 FPS。

上述实验结果表明,YOLOv7 模型在速度和准确度上确实优于目标检测器。

YOLOv7目标检测推理 现在,让我们进入博文中令人兴奋的部分,即使用 YOLOv7 对视频进行推理。我们将使用 YOLOv7 和 YOLOv7-Tiny 模型运行推理。除此之外,我们还将将结果与 YOLOv5 和 YOLOv4 模型的结果进行比较。


注意:此处显示的所有推理结果均在具有6 GB GTX 1060(笔记本 GPU)、第 8 代 i7 CPU 和 16 GB RAM 的机器上运行。


如果您打算在自己的视频上运行对象检测推理实验,则必须使用以下命令克隆 YOLOv7 GitHub 存储库。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
git clone https://github.com/WongKinYiu/yolov7.git

然后,您可以使用 detect.py 脚本对您选择的视频进行推理。您还需要从此处下载yolov7-tiny.pt和yolov7.pt预训练模型。

在这里,我们将对描述以下三种不同场景的三个视频进行推理。

  • 第一个视频是测试 YOLOv7 物体检测模型在小而远的物体上的表现。
  • 第二个视频有很多人描绘了一个拥挤的场景。
  • 第三个视频是许多 YOLO 模型(v4、v5 和 v7)在检测对象时犯了同样的一般错误的视频。

此处的 YOLOv7 结果针对所有三个视频的Tiny和Normal模型一起显示。这将帮助我们以简单的方式比较每个结果的结果。

让我们看看使用 YOLOv7-Tiny(顶部)和 YOLOv7(底部)模型对第一个视频的检测推理结果。以下命令分别用于使用 Tiny 和 Normal 模型运行推理。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
python detect.py --source ../inference_data/video_1.mp4 --weights yolov7-tiny.pt --name video_tiny_1 --view-img
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
python detect.py --source ../inference_data/video_1.mp4 --weights yolov7.pt --name video_1 --view-img

我们可以立即看到 YOLOv7-Tiny 模型的局限性。它无法检测到非常遥远和小的汽车、摩托车和人。YOLOv7 模型能够更好地检测这些物体。但这不是故事的全部。虽然 YOLO7-Tiny 的表现不是那么好,但它比 YOLOv7 快得多。虽然 YOLOv7 提供大约 19 FPS 的速度,但 YOLOv7-Tiny 能够以大约 42 FPS 的速度运行它,这远高于实时速度。

现在,让我们看看描述拥挤场景的第二个视频的结果。我们使用与上面相同的命令,但根据视频路径和名称更改 –source 和 –name 标志的值。

与 YOLOv7-Tiny 模型相比,YOLOv7 模型能够以更少的波动和更高的信心检测到人。不仅如此,YOLOv7-Tiny 还错过了一些红绿灯和远处的人。

现在让我们对最终视频进行推理,该视频显示了所有 YOLOv7 模型中的一些一般故障案例。

我们可以看到两个模型中的一些普遍错误:

  • 检测其他路标作为停车标志。
  • 将禁止的道路符号错误地检测为人。

正如我们稍后将看到的,上述两个错误在 YOLOv4 和 YOLOv5 中很常见。

尽管 YOLO7-Tiny 比 YOLOv7 模型犯的错误更多,但它的速度要快得多。平均而言,YOLOv7-Tiny 的运行速度超过 40 FPS,而 YOLOv7 模型的运行速度略高于 20 FPS。

YOLOv4、YOLOv5-Large、YOLOv7模型比较 以下三个视频展示了其中一个视频上 YOLOv4、YOLOv5-Large 和 YOLOv7 模型(从上到下)的比较。这将使我们对每个模型在各种场景中的表现有一个适当的定性概念。

下表显示了三个视频中三个模型的不同变体的 FPS 和运行时间。

YOLOv7简单总结 至此,我们结束了对 YOLOv7 的介绍,本文内容简单总结如下:
  • YOLO 的一般架构由 Backbone、Neck 和 Head 组成。
  • YOLOv7 的架构改革。
    • E-ELAN
    • YOLOv7 中的复合模型缩放
  • YOLOv7 中可训练的免费赠品包。
    • YOLOv7 中的重新参数化
    • 粗为辅助,细为Lead Loss
  • 如何使用 YOLOv7 GitHub 存储库运行目标检测推理。
  • YOLOv7 在速度和准确度上超过了所有实时目标检测器。
  • FPS:5 – 165
  • mAP:51.4% – 56.8%
  • YOLOv7 减少了 40% 的参数和 50% 的计算,但提高了性能。

参考链接:

1. https://learnopencv.com/yolov7-object-detection-paper-explanation-and-inference/

2. YOLOv7论文:https://arxiv.org/pdf/2207.02696.pdf

3. YOLOv7 GitHub:https://github.com/WongKinYiu/yolov7

—THE END—

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-08-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 OpenCV与AI深度学习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Yolov7:最新最快的实时检测框架,最详细分析解释(附源代码)
关注并星标 从此不迷路 计算机视觉研究院 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 论文地址:https://arxiv.org/pdf/2207.02696.pdf 代码地址:https://github.com/WongKinYiu/yolov7 计算机视觉研究院专栏 作者:Edison_G YOLOv7相同体量下比YOLOv5精度更高,速度快120%(FPS),比YOLOX快180%(FPS),比Dual-Swin-T快1200%(FPS),比ConvN
计算机视觉研究院
2022/07/12
1.9K0
Yolov7:最新最快的实时检测框架,最详细分析解释(附源代码)
YOLOv7上线:无需预训练,5-160 FPS内超越所有目标检测器
机器之心报道 编辑:小舟、泽南 在 5-160 FPS 范围内速度和精度超过所有已知目标检测器。 在 YOLOv6 推出后不到两个星期,提出 YOLOv4 的团队就发布了更新一代的版本。 本周三,YOLOv7 的论文被提交到了预印版论文平台 arXiv 上,其三位作者 Chien-Yao Wang、Alexey Bochkovskiy 和 Hong-Yuan Mark Liao 是 YOLOv4 的原班人马。 论文链接:https://arxiv.org/abs/2207.02696 GitHub 链接:
机器之心
2022/07/12
10.3K0
YOLOv7上线:无需预训练,5-160 FPS内超越所有目标检测器
YOLOv7速度精度超越其他变体,大神AB发推,网友:还得是你!|开源
点击上方↑↑↑“OpenCV学堂”关注我来源:公众号 量子位 授权 前脚美团刚发布YOLOv6, YOLO官方团队又放出新版本。 曾参与YOLO项目维护的大神Alexey Bochkovskiy在推特上声称: 官方版YOLOv7比以下版本的精度和速度都要好。 在论文中,团队详细对比了YOLOv7和其他变体的性能对比,并介绍v7版本的新变化。 话不多说,YOLOv7有多强一起来看实验结果。 速度、精度都超越其他变体 论文中,实验以之前版本的YOLO和最先进的目标检测模型作为基准。 表格是YOLOv7模型在
OpenCV学堂
2022/07/12
1.4K0
YOLOv7速度精度超越其他变体,大神AB发推,网友:还得是你!|开源
【目标检测】YOLOv7理论简介+实践测试
YOLOv7由YOLOv4的作者团队提出,其论文一作也是YOLOR的作者。 论文的风格也和YOLOR一样,比较难懂,因此这里的理论部分也不做仔细研究,仅对论文提出的几个创新点进行翻译概括。
zstar
2022/09/19
1.6K0
【目标检测】YOLOv7理论简介+实践测试
YOLOv7论文讲解和代码复现
YOLO v7论文(YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors)被收录于计算机视觉顶会CVPR2023,这也是时隔 6 年,YOLOv 系列再登顶会 CVPR!我们知道CVPR是计算机视觉方面的三大顶级会议之一,上一次被收录还是YOLO v2,这也可以看到YOLO v7很强大,也被很多人所认可。
Srlua
2024/11/28
2450
YOLOv7论文讲解和代码复现
YOLO系列算法全家桶——YOLOv1-YOLOv9详细介绍 !!
YOLO系列的核心思想就是把目标检测转变为一个回归问题,利用整张图片作为网络的输入,通过神经网络,得到边界框的位置及其所属的类别。
JOYCE_Leo16
2024/04/09
33.9K1
YOLO系列算法全家桶——YOLOv1-YOLOv9详细介绍 !!
RCS-YOLO | 比YOLOv7精度提高了2.6%,推理速度提高了60%
本文首发于 【集智书童】,白名单账号转载请自觉植入本公众号名片并注明来源,非白名单账号请先申请权限,违者必究。
集智书童公众号
2023/09/04
1.7K0
RCS-YOLO | 比YOLOv7精度提高了2.6%,推理速度提高了60%
YOLO 系列目标检测大合集
YOLO(You Only Look Once,你只看一次)是一系列开创性的实时目标检测模型,它们彻底改变了计算机视觉领域。由Joseph Redmon开发,后续版本由不同研究人员迭代,YOLO模型以其在图像中检测对象的高速度和准确性而闻名。以下是对每个YOLO版本的详细查看:
小白学视觉
2024/11/01
5410
YOLO 系列目标检测大合集
FedPylot,联邦学习框架下的YOLOv7实时目标检测与隐私保护研究!
智能交通系统(ITS)有望通过提高安全性、优化交通流量、减少车辆排放和燃油消耗以及提供信息娱乐服务来 Reshape 流动性。这种转变得益于机器学习(ML)和车辆与一切(V2X)通信技术的进步,促进了车辆网络、行人和基础设施之间的无缝合作,产生了大量数据,并整合成一个统一的车辆互联网(IoV)[1]。为了实现数据共享,IoV依赖于最先进的无线网络技术,这些技术可以提供远距离、低延迟、可靠和安全的传输[2]。
集智书童公众号
2024/06/14
1.5K1
FedPylot,联邦学习框架下的YOLOv7实时目标检测与隐私保护研究!
YOLOv6:又快又准的目标检测框架开源啦
总第518篇 2022年 第035篇 近日,美团视觉智能部研发了一款致力于工业应用的目标检测框架 YOLOv6,能够同时专注于检测的精度和推理效率。在研发过程中,视觉智能部不断进行了探索和优化,同时吸取借鉴了学术界和工业界的一些前沿进展和科研成果。在目标检测权威数据集 COCO 上的实验结果显示,YOLOv6 在检测精度和速度方面均超越其他同体量的算法,同时支持多种不同平台的部署,极大简化工程部署时的适配工作。特此开源,希望能帮助到更多的同学。 1. 概述 精度与速度远超 YOLOv5 和 YOLOX 的
美团技术团队
2022/06/27
2.7K0
YOLOv6:又快又准的目标检测框架开源啦
PP-YOLOv2开源,你的目标检测器又该升级了!性能超越YOLOv5且推理耗时保持不变
本文是百度的研究员对PP-YOLO的一次升级,从PP-YOLO出发,通过增量消融方式逐步添加有助于性能提升且不增加推理耗时的措施,取得了更佳的性能(49.5%mAP)-速度(69FPS)均衡,并优于YOLOv4与YOLOv5。 >>加入极市CV技术交流群,走在计算机视觉的最前沿
Color Space
2021/05/18
1.5K0
PP-YOLOv2开源,你的目标检测器又该升级了!性能超越YOLOv5且推理耗时保持不变
人员摔倒识别预警系统 人员跌倒检测系统
人员摔倒识别预警系统 人员跌倒检测系统基于yolov7网络模型计算机识别技术,人员摔倒识别预警系统 人员跌倒检测系统对画面中人员摔倒进行实时检测识别抓拍告警。YOLOv7 的策略是使用组卷积来扩展计算块的通道和基数。研究者将对计算层的所有计算块应用相同的组参数和通道乘数。然后,每个计算块计算出的特征图会根据设置的组参数 g 被打乱成 g 个组,再将它们连接在一起。此时,每组特征图的通道数将与原始架构中的通道数相同。最后,该方法添加 g 组特征图来执行 merge cardinality。除了保持原有的 ELAN 设计架构,E-ELAN 还可以引导不同组的计算块学习更多样化的特征。
燧机科技
2023/03/06
9240
人员摔倒识别预警系统 人员跌倒检测系统
AI动作异常行为分析监测系统
AI动作异常行为分析监测系统通过python+yolov7网络模型深度学习技术,AI动作异常行为分析监测系统对现场人员人体动作操作行为以及穿戴情况是否合规进行实时监测。YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器。并在V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。此外, YOLOv7 的在速度和精度上的表现也优于 YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5、DETR 等多种目标检测器。
燧机科技
2023/02/08
7860
AI动作异常行为分析监测系统
YOLO系列介绍(三)
YOLOV7 是 YOLOV4 的原班人马于 2022 年提出的最新的 YOLO 版本。 YOLOv7 的在速度和精度上的表现也优于 YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5、DETR 等多种目标检测器。
算法之名
2022/11/16
3.4K0
YOLO系列介绍(三)
实用目标检测器 | 性能超YoloV5,推理耗时不变(附github源码)
在实际应用场景中,有效性与高效性对于目标检测器非常重要。为了满足这两个问题,研究者全面评估了现有的改进的集合,以提高PP-YOLO的性能,同时几乎保持推理时间不变。
3D视觉工坊
2021/05/18
2.5K0
实用目标检测器 | 性能超YoloV5,推理耗时不变(附github源码)
ai皮带跑偏撕裂监测系统功能
ai皮带跑偏撕裂监测系统功能基于yolov7网络模型人工智能视觉技术,ai皮带跑偏撕裂监测系统功能自动识别现场画面中传送皮带撕裂、跑偏、偏移等情况,ai皮带跑偏撕裂监测系统功能立即告警抓拍存档同步回传后台。YOLO 的核心思想就是把目标检测转变成一个回归问题,利用整张图作为网络的输入,仅仅经过一个神经网络,得到bounding box(边界框) 的位置及其所属的类别。YOLOv7 的发展方向与当前主流的实时目标检测器不同,研究团队希望它能够同时支持移动 GPU 和从边缘到云端的 GPU 设备。除了架构优化之外,该研究提出的方法还专注于训练过程的优化,将重点放在了一些优化模块和优化方法上。这可能会增加训练成本以提高目标检测的准确性,但不会增加推理成本。研究者将提出的模块和优化方法称为可训练的「bag-of-freebies」。
燧机科技
2023/05/08
4090
ai皮带跑偏撕裂监测系统功能
YOLO系列的落地 | YOLOv7+注意力机制在农业上的应用
随着技术的发展,监控设备在农业中发挥着巨大的作用。有多种方法可以监测个体动物的行为,例如插入芯片记录生理数据、使用可穿戴传感器和(热)成像技术。一些方法使用附着在鸟类脚上的可穿戴传感器来测量它们的活动,但这可能会对受监测的动物产生额外影响。特别是,在商业环境中,技术限制和高成本导致这种方法的可行性低。
集智书童公众号
2023/02/26
2.8K0
YOLO系列的落地 | YOLOv7+注意力机制在农业上的应用
校园安全AI视频行为分析系统
校园安全AI视频行为分析系统以yolov7网络模型算法为核心,对现场画面中打架、异常跌倒、攀爬翻墙、违规闯入行为主动识别预警存档。YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器。相对于其他类型的工具,YOLOv7-E6 目标检测器(56 FPS V100,55.9% AP)比基于 transformer 的检测器 SWINL Cascade-Mask R-CNN(9.2 FPS A100,53.9% AP)速度上高出 509%,精度高出 2%,比基于卷积的检测器 ConvNeXt-XL Cascade-Mask R-CNN (8.6 FPS A100, 55.2% AP) 速度高出 551%,精度高出 0.7%。并在V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。
燧机科技
2023/04/17
5220
校园安全AI视频行为分析系统
AI课堂教学质量评估系统算法
AI课堂教学质量评估系统算法通过yolov7网络模型框架利用摄像头和人脸识别技术,AI课堂教学质量评估系统算法实时监测学生的上课表情和课堂行为。同时,还结合语音识别技术和听课专注度分析算法,对学生的听课专注度进行评估,生成教学质量报告,并提供针对性的改进建议,帮助教师发现问题并进行针对性的改进,提升教学效果。AI课堂教学质量评估系统算法之所以选择yolov7框架模型,相对于其他类型的工具,YOLOv7-E6 目标检测器(56 FPS V100,55.9% AP)比基于 transformer 的检测器 SWINL Cascade-Mask R-CNN(9.2 FPS A100,53.9% AP)速度上高出 509%,精度高出 2%,比基于卷积的检测器 ConvNeXt-XL Cascade-Mask R-CNN (8.6 FPS A100, 55.2% AP) 速度高出 551%,精度高出 0.7%。
燧机科技
2023/09/10
7910
AI课堂教学质量评估系统算法
YOLO 系目标检测算法家族全景图!
YOLO目标检测算法诞生于2015年6月,从出生的那一天起就是“高精度、高效率、高实用性”目标检测算法的代名词。
CV君
2020/08/04
1.8K0
YOLO 系目标检测算法家族全景图!
推荐阅读
相关推荐
Yolov7:最新最快的实时检测框架,最详细分析解释(附源代码)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验