首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

深度学习目标检测指南:如何过滤不感兴趣的分类及添加新分类?

该博文缘起于一位网友向原作者请教的两个关于目标检测的问题: 如何过滤或忽略我不感兴趣的类? 如何在目标检测模型中添加新的类?这是否可行?...在这基础上,我们将会使用 OpenCV 运行实时深度学习目标检测模型。 在不改动网络结构和重新训练模型的前提下,我将会演示如何能够忽略和过滤你不感兴趣的目标类别。...具体如何训练你自定义的深度学习目标检测模型(包括微调和重新训练),本文不涉及这样的高级主题,但是,可以参考以下部分来帮助你入门。 ▌总结 在今天的博客中,我大致介绍了涉及深度学习目标检测的复杂问题。...我们也可以重新训练基础网络,不过这通常需要训练很长的时间,目标检测模型才能达到合理的精度。 在大多数情况下,你应该从预先训练好的基础模型入手,而不是重新训练。...一旦我们深入了解深度学习目标检测模型之后,我们就可以在 OpenCV 中在运行实时目标检测模型。 我还演示了怎样做才能过滤或忽略你不感兴趣的类标签。

2.2K20

深度学习目标检测指南:如何过滤不感兴趣的分类及添加新分类?

该博文缘起于一位网友向原作者请教的两个关于目标检测的问题: 如何过滤或忽略我不感兴趣的类? 如何在目标检测模型中添加新的类?这是否可行?...在这基础上,我们将会使用 OpenCV 运行实时深度学习目标检测模型。 在不改动网络结构和重新训练模型的前提下,我将会演示如何能够忽略和过滤你不感兴趣的目标类别。...具体如何训练你自定义的深度学习目标检测模型(包括微调和重新训练),本文不涉及这样的高级主题,但是,可以参考以下部分来帮助你入门。 ▌总结 在今天的博客中,我大致介绍了涉及深度学习目标检测的复杂问题。...我们也可以重新训练基础网络,不过这通常需要训练很长的时间,目标检测模型才能达到合理的精度。 在大多数情况下,你应该从预先训练好的基础模型入手,而不是重新训练。...一旦我们深入了解深度学习目标检测模型之后,我们就可以在 OpenCV 中在运行实时目标检测模型。 我还演示了怎样做才能过滤或忽略你不感兴趣的类标签。

2.1K30
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    自定义对象检测问题:使用TensorFlow追踪星球大战中的千年隼号宇宙飞船

    千年隼号宇宙飞船的检测 以下图片都使用Watson视觉识别默认分类器被作了相同的标记。第一张图,是先通过一个对象检测模型运行的。...我希望能够检测到电影“星球大战”中的千年隼号宇宙飞船和一些TIE战斗机。这篇文章将会实现我的这一想法。 给图片注释 你需要收集很多图片和注释。注释包括指定对象的坐标和对应的标签。...星球大战”的模型,我收集了308张图片,每张图片包括两个或三个对象。...但是如果你想用你自己的数据创建一个模型,你需要将你的训练图像添加到images中,添加你的XML注释到annotations/xmls中,更新trainval.txt和label_map.pbtxt。...下载一个基本模型 从头开始训练对象探测器需要耗费几天的时间,即使你使用了多个GPU。为了加快训练速度,我们将一个对象检测器训练在一个不同的数据集,并且重新使用它的一些参数来初始化我们的新模型。

    1.2K50

    【干货】手把手教你用苹果Core ML和Swift开发人脸目标识别APP

    我没有时间去找到并且标记太多TSwift的图像,但是我可以利用从这些模型中提取出来的特征,通过修改最后的几层来训练数以百万计的图像,并将它们应用到我的分类任务中(检测TSwift)。...您可以通过云端控制台来浏览机器学习引擎的“作业”部分,这一部分可以验证您的作业是否运行正确,并且可以检查作业的日志。 ?...▌第3步:部署模型进行预测 ---- ---- 将模型部署到机器学习引擎我需要将我的模型检查点转换为ProtoBuf。 在我的训练过程中,我可以看到从几个检查点保存的文件: ?...首先,在我的Swift客户端中,我添加了一个按钮,供用户访问设备照片库。用户选择照片后,会自动将图像上载到云端存储: ? 接下来,我编写了上传到我的项目的云存储触发的Firebase数据库。...最后,在我的iOS应用程序中,可以监听图像Firestore路径的更新。如果检测到,我会下载图像,并与检测分数一起显示在应用程序中。这个函数将替换上面第一个Swift代码片段中的注释: ?

    14.9K60

    独家 | COVID-19:利用Opencv, KerasTensorflow和深度学习进行口罩检测

    ),然后将模型序列化到磁盘; 部署:训练完口罩检测器后,加载训练好的口罩检测器,进行人脸检测,然后将人脸分类为戴口罩或不戴口罩。...我们的目标是训练一个自定义的深度学习模型,以检测一个人是否佩戴口罩。 注意:为方便起见,我将Prajna创建的数据集包含在本教程的“下载”部分中。 如何制作口罩数据集?...如果把用于生成“戴口罩”数据集的图片也加入到“无口罩”数据中,训练出来的模型将产生严重偏差,且无法很好地泛化。为了避免这些问题,我们应该花点时间收集没有带口罩的新的例子。...使用OpenCV在实时视频流中实现我们的COVID-19口罩检测器 至此,我们知道可以对静态图像应用口罩检测了,但是在实时视频流该如何做呢? 我们的COVID-19口罩检测模型是否可以实时运行?...可以看到我们的口罩检测器能够实时运行(并且准确预测)。

    1.8K11

    Python 数据科学入门教程:TensorFlow 目标检测

    这个 API 可以用于检测图像和/或视频中的对象,带有使用边界框,使用可用的一些预先训练好的模型,或者你自己可以训练的模型(API 也变得更容易)。...将这些数据分解成训练/测试样本 从这些分割生成 TF 记录 为所选模型设置.config文件(你可以从头自己开始训练,但是我们将使用迁移学习) 训练 从新的训练模型导出图形 实时检测自定义对象!...这只是拆分训练/测试和命名文件的有用的东西。 继续并创建一个数据目录,然后运行它来创建这两个文件。 接下来,在主对象检测目录中创建一个训练目录。...五、训练自定义对象检测器 欢迎阅读 TensorFlow 对象检测 API 系列教程的第 5 部分。在本教程的这一部分,我们将训练我们的对象检测模型,来检测我们的自定义对象。...我们可以使用预训练的模型,然后使用迁移学习来习得一个新的对象,或者我们可以从头开始习得新的对象。迁移学习的好处是训练可能更快,你需要的数据可能少得多。出于这个原因,我们将在这里执行迁移学习。

    1.4K30

    TensorFlow 智能移动项目:1~5

    然后,我们将向您展示如何在 iOS 应用中使用预训练的对象检测模型以及重新训练的模型。...重新训练预训练模型以执行更具体的检测任务 快速安装和示例 执行以下步骤来安装和运行对象检测推断: 在第 1 章,“移动 TensorFlow 入门”中创建的 TensorFlow 源根中,获取 TensorFlow...但是有时候,您可能需要使用自己的带标注的数据集(在您特别感兴趣的对象或对象部分周围带有边界框)并重新训练现有模型,以便它可以更准确地检测不同的对象类别集合。...向 iOS 应用添加对象检测功能 现在执行以下步骤以将模型文件,标签文件和代码添加到应用,并运行以查看实际的对象检测: 拖放上一节中的三个物体检测模型图ssd_mobilenet_v1_frozen_inference_graph.pb...YOLO 模型添加到 iOS 应用 添加以下代码以将输入图像处理到张量中以馈送到输入节点,并在加载了 YOLO 模型图的情况下运行 TensorFlow 会话以生成检测输出: tensorflow::

    4.5K20

    手把手教你从零起步构建自己的图像搜索模型

    模型的预测过程运行速度快(因为是单独的前向计算),但是我们每次添加了新的图片到图片训练集中就需要重新训练一个新的模型。...文本 此外,我们加载已在 Wikipedia 上预训练的单词嵌入(本教程将使用 GloVe 模型中的单词嵌入)。我们将使用这些向量将文本合并到我们的语义搜索中。...半监督搜索 解决此问题的常用方法是首先使用对象检测模型,检测我们的猫,然后对原始图像的裁剪版本进行图像搜索。 这增加了巨大的计算开销,如果可能的话我们希望避免这种开销。...图像 文本 两个世界的碰撞融合 现在让我们创建一个混合模型,可以实现从单词到图像,反之亦然。 在本教程的第一课中,我们将训练我们的模型,并从一篇名为 DeViSE. 的优秀论文中汲取了灵感。...一旦我们的模型训练完成,我们就可以从上面获得 GloVe 的单词索引,并通过运行数据集中的所有图像,将它保存到磁盘,构建新的关于我们的图像特征的快速索引。

    66430

    数据科学家目标检测实例分割指南

    使用在ImageNet数据集上已经训练好的卷积神经网络模型作为固定的特征提取器,移除最后一层全连接层(这一层的输出是针对像imageNet一样有一千种类别的分类任务),然后训练这个网络模型的其他部分作为新数据集的特征提取器...这里我们先假设图片上只有猫这一个物体 3.对象检测:分类与定位的一般情况:在实际情况下,我们不知道一张图片上有多少个物体,所以我们能不能检测并用锚框框选出图片上的所有物体呢?...如你所见,以上这四者之间既有一些相同之处但也有一些不同之处,这篇文章中,我将重点介绍对象检测以及实例分割,因为他们最有趣。我将介绍四种著名的对象检测技术,以及他们随时间与新思想的发展取得的进展。...每组 4 个值对其中一个 K 类的细化边界框位置进行编码。 ? 新想法 因此,基本的想法是必须只在图像中运行一次卷积,而不是在 R-CNN 中运行这么多卷积网络。...区域建议网络怎么工作的? 本文的主要思想之一是锚点想法。锚点是固定边界框,放置在整个图像中,其大小和比率不同,将用于在首次预测对象位置时参考。因此,首先,我们在图像上定义锚点中心 ?

    1.1K41

    使用 RetinaNet 进行航空影像目标检测

    在存在大量简单的背景示例的情况下,focal loss能够训练高度精确的密集目标检测器。...但是,我也意识到,有时我想要为实验创建图像的子样本,或者有不同的train-test split等。当时,在不更改配置文件的情况下,在执行脚本时可以选择更快地传递这些参数。...在第18行,我们将预处理过的图片送进模型中,返回预测的边框坐标,以及每个边框属于每个标签的概率值。在上述代码的最后一行,根据原始图像的大小重新调整边框的坐标。 接着,遍历模型输出的每个检测结果。...当置信度的阈值为0.5时,这个模型在测试集上的平均正确率为0.71。我在整个数据集上(3748张图片)恢复模型的训练,继续迭代10次后平均值正确率增加为0.74。...接下来,我们构建了徐那联模型所必须的训练/测试数据集。用适当的参数对模型进行训练,然后将训练后的模型转换为评价和预测模型。我们创建了另一个脚本,在要提交的测试集进行检测并将结果保存到磁盘中。

    2.1K10

    第十九章 应用实例:图片文字识别(Application Example: Photo OCR)

    滑动窗口是一项用来从图像中抽取对象的技术。假使我们需要在一张图片中识别行人,首先要做的是用许多固定尺寸的图片来训练一个能够准确识别行人的模型。然后我们用之前训练识别行人的模型时所采用的图片尺寸(?...那个绿色的框,在将整个图片遍历完后,我们会使用一个更大的绿框重新进行图片的遍历)在我们要进行行人识别的图片上进行剪裁,然后识别到一个行人后将剪裁得到的切片交给模型,让模型判断是否为行人,然后在图片上滑动剪裁区域重新进行剪裁...,将新剪裁的切片也交给模型进行判断,如此循环直至将图片全部检测完。...放大剪裁的区域,再以新的尺寸对图片进行剪裁,将新剪裁的切片按比例缩小至模型所采纳的尺寸,交给模型进行判断,如此循环。 ? ? ?...这个问题可以通过上限分析来回答。 回到我们的文字识别应用中,我们的流程图如下: ?

    1.4K40

    模型训练太慢?来试试用这个方法提速吧!

    我刚刚为一名客户完成了一个服装图片分类的iOS 应用程序开发的项目——在类似这样的项目里,迁移学习是一种非常有用的工具 为了有效地部分重训练神经网络,迁移学习是一种很好的方法。...图2:转移学习神经网络模型的模型架构,红色表示固定的权重和偏差,绿色表示仅训练最终层的权重和偏差。 在转学习中,我们从整个网络的预训练权重开始。...然后我们将权重固定到最后一层,并在我们训练新数据时让该层中的权重发生变化。 如图所示,我们保持红色连接固定,现在只重新训练最后一层绿色连接。 转移效率 转移学习的两个主要好处: 1....现在我们知道 InceptionV3 至少可以确认我正在吃什么,让我们看看我们是否可以使用基础数据表示重新训练并学习新的分类方案。 如上所述,我们希望冻结模型的前 n-1 层,然后重新训练最后一层。...在这种情况下,初始模型已经学习了任何图像输入的 2048 维表示,其中我们可以将这些 2048 维度视为表示对分类必不可少的图像的关键组件。

    3.3K11

    有人一周内清理了PASCAL数据集中的17120张图像,将mAP提高了13%

    我们已经针对 28.900 (OD) 和 1.320 (Class) 潜在错误任务运行了目标检测和类别审查。 AI CS 可以让你发现潜在问题。...在整个工作过程中,我们对模型进行了多次迭代,试图为任务找到最佳超参数。...无论如何,这样的结果会让我们的实验更有趣。让我们看看是否可以在不调整模型参数的情况下,通过改进数据来获得所需的指标值。...在更新的 PASCAL 上训练的自定义模型 在这里,我们采用相同的图像进行训练和验证,以训练以下模型作为基线。唯一的区别是拆分中的数据更好(添加了更多标签并修复了一些标签)。...因此尽管在原始数据集中添加了 6600 个标签,但在训练 / 测试拆分中,我们只得到了大约 3000 个新标签和大约 190 个修复标签。

    58930

    如何极大效率地提高你训练模型的速度?

    我刚刚为一名客户完成了一个服装图片分类的iOS 应用程序开发的项目——在类似这样的项目里,迁移学习是一种非常有用的工具 为了有效地部分重训练神经网络,迁移学习是一种很好的方法。...图2:转移学习神经网络模型的模型架构,红色表示固定的权重和偏差,绿色表示仅训练最终层的权重和偏差。 在转学习中,我们从整个网络的预训练权重开始。...现在我们知道InceptionV3至少可以确认我正在吃什么,让我们看看我们是否可以使用基础数据表示重新训练并学习新的分类方案。 如上所述,我们希望冻结模型的前n-1层,然后重新训练最后一层。...在这种情况下,初始模型已经学习了任何图像输入的2048维表示,其中我们可以将这些2048维度视为表示对分类必不可少的图像的关键组件。...我们使用2因为我们将重新训练一个新的模型来学习区分猫和狗 - 所以我们只有2个图像类。 将此替换为你希望分类的许多类。

    2.2K50

    【2021GTC】NVIDIA Tao工具包即将发布的新功能(剧透篇)

    对于智能医院,检测和识别动作可以帮助了解患者是否需要医疗护理;在工厂车间,这可以帮助监控任务或工厂工人;从自主零售店中,行动识别可以帮助了解购物者拿起一件物品是将其放入购物车还是将其放回货架。...我们在一个包含一百张图片和五百张图片的小数据集上进行了一些实验,在应用离线增强和在线增强时,我们用了一小百张图像数据集来看看我们可以提高多少准确度,对于一百张图像实验在没有任何增强的情况下,主要平均精度只能达到...您还可以找到两个现有模型来添加新类。假设您将建立检测人和面孔的模型,现在我们想用它来查看人是否戴头盔,想想工人安全用例。您想检测工人是否戴安全帽的地方,例如建筑工地或工厂。...可以使用 Tao toolkit inference 进行检测头盔数据集下预先标记的人和面部类别。现在您可以将人物和面部注释添加到现有头盔数据集中,用户完成数据集以在 Tao 中训练您的新模型。...我们已经看到,许多组织在收集数据和标记数据方面都遇到了麻烦。例如。如果您有一张包含人、汽车和其他物体的图片,并且您想训练一个可以检测人的模型,则必须在每张图片中标记这些物体。

    53010

    详述车道检测的艰难探索:从透视变换到深度图像分割(附代码)

    图14:一张模拟车的输入图像 这个问题的答案是整条道路,因为Udacity模拟器里没有隔离出多条车道,但是我想知道我是否可以使用迁移学习来将模型的注意力集中在车道上。...我希望利用这个项目20000张数据集的基础上,添加一些用于车道检测的新数据,并进行一些额外的训练,希望能有更好的激活效果。...一种完全卷积方法 我感觉这些方法行不通,所以开始寻找一种新的方法。最近我看到一些小组在处理汽车拍摄的图像时采取图像分割的方法:将一个给定的图像分成如道路、汽车、人行道和建筑物等等多类对象。...图15:作为新标签的车道图像 在这里,我重新整理了数据集: 在原始数据集中有1,420张图像(在10帧中取1帧操作后),并删除了227个不能合适标注的图像; 在弯曲道路的视频中,一共有1636张图像,我从中挑选了...因为在郊区或部分公路不会标记车道线,所以这种模型有更强的推广性; 扩展模型,用来检测更多的对象。类比于图像分割,可以添加车辆和行人检测的功能。

    2.6K70

    使用Tensorflow对象检测在安卓手机上“寻找”皮卡丘

    本文的目的是描述我在训练自己的自定义对象检测模型时所采取的步骤,并展示我的皮卡丘检测技能,以便你可以自己尝试。首先,我将从程序包的介绍开始。...因此,TensorFlow提供了几个配置文件(下方),只需要很少的更改就可以使其在新的训练环境中工作。我使用的模型是ssd_mobilenet_v1_coco_11_06_2017。...每次训练产生一个新的检查点时,评估工具将使用给定目录中可用的图像进行预测(在我的例子中,我使用了来自测试集中的图像)。...结果 在训练阶段结束时,该模型的精确度为87%,总损失为0.67。然而,在训练过程中,模型的精确度最高达到了95%。尽管如此,精确度最高的模型并没有达到我预期设想的结果。...如果一切顺利的话,应用启动,找到你的对象的一些图片,看看这个模型是否能够检测到它们。以下是我在手机上做的一些检测: ? 穿着和服的皮卡丘 ? 几个皮卡丘。

    2.1K50

    【SSD目标检测】3:训练自己的数据集「建议收藏」

    /tfrecords_ Jetbrains全家桶1年46,售后保障稳定 4、重新训练模型的代码微调说明 第六步:修改训练数据shape——打开datasets文件夹中的pascalvoc_2007...,密码:ge3x;下载完成解压后存入checkpoint文件中; 最后一步:重新训练模型——打开train_ssd_network.py文件,依次点击:run、Edit Configuration,在...loss,我的数据集总共就20张图片,进行4.8W次训练用了将近一个小时,我的配置是GTX1060的单显卡; 1、在日志中,选取最后一次生成模型作为测试模型进行测试; 2、在demo文件夹下放入测试图片...; 3、最后在notebooks文件夹下建立demo_test.py测试文件,代码如下: 4、注意第48行,导入的新模型的名称是否正确; # -*- coding:utf-8 -*- # -*- author...# 是否复用,目前我们没有在训练所以为None reuse = True if 'ssd_net' in locals() else None # 调出基于VGG神经网络的SSD模型对象,注意这是一个自定义类对象

    2.6K20

    X射线图像中的目标检测

    我们训练了8种不同的目标检测模型。 用于训练的图像为7200个正样本,在这个项目中,我们没有将负样本添加到我们的训练集中,因为检测模型会将不属于真实边界框的图像区域作为负样本。...此外网络添加了横向连接,连接重建的层和相应的特征图,以帮助检测器更好的预测目标位置。整个特征金字塔在所有层上都具有丰富的语义,并且可以在不牺牲特征表征、速度、内存的情况下快速构建。...5 评估 目标检测模型包含两个主要任务:第一个任务是分类任务,用来判断图片中是否包含我们感兴趣的对象;第二个任务是定位任务,用来确定图像中我们感兴趣对象的位置。...我们不需要显示测量真实负样本,因为上面的其他措施可以在相反的方向执行类似的功能。 精确度是我们模型检测感兴趣对象的能力,召回率是我们的模型可以找到我们感兴趣对象的所有相关边界框的能力。...未来工作: (1)为了提高目标检测模型的准确性,我们需要添加更多‘正’图,未来也可以将一些负样本整合到训练集中。

    1.6K20

    花一周清理PASCAL数据集的17120图像,将mAP提高13%

    我们已经针对 28.900 (OD) 和 1.320 (Class) 潜在错误任务运行了目标检测和类别审查。 AI CS 可以让你发现潜在问题。...在整个工作过程中,我们对模型进行了多次迭代,试图为任务找到最佳超参数。...无论如何,这样的结果会让我们的实验更有趣。让我们看看是否可以在不调整模型参数的情况下,通过改进数据来获得所需的指标值。...在更新的 PASCAL 上训练的自定义模型 在这里,我们采用相同的图像进行训练和验证,以训练以下模型作为基线。唯一的区别是拆分中的数据更好(添加了更多标签并修复了一些标签)。...因此尽管在原始数据集中添加了 6600 个标签,但在训练 / 测试拆分中,我们只得到了大约 3000 个新标签和大约 190 个修复标签。

    44930
    领券