首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

禁用图像目标的扩展跟踪

是指在计算机视觉领域中,通过禁用图像目标的扩展跟踪算法来停止对特定目标的跟踪。扩展跟踪是一种目标跟踪技术,它通过在连续帧中检测和跟踪目标来实现目标的持续追踪。

禁用图像目标的扩展跟踪可以用于多种场景,例如:

  1. 隐私保护:在一些场景中,可能需要对特定目标进行隐私保护,禁用图像目标的扩展跟踪可以有效地停止对目标的跟踪,从而保护目标的隐私。
  2. 目标变化:当目标发生形态变化、遮挡或离开视野时,扩展跟踪算法可能无法准确跟踪目标。禁用图像目标的扩展跟踪可以在这些情况下停止跟踪,避免错误的跟踪结果。
  3. 资源优化:扩展跟踪算法通常需要大量的计算资源来实时跟踪目标。禁用图像目标的扩展跟踪可以在不需要跟踪时停止算法的运行,从而节省计算资源。

腾讯云提供了一系列与图像处理相关的产品,可以用于禁用图像目标的扩展跟踪的应用场景:

  1. 腾讯云图像处理(https://cloud.tencent.com/product/ti):提供了丰富的图像处理功能,包括图像识别、图像分割、图像合成等,可以用于对图像目标进行处理和分析。
  2. 腾讯云人工智能(https://cloud.tencent.com/product/ai):提供了强大的人工智能服务,包括图像识别、目标检测、人脸识别等,可以用于对图像目标进行智能化的处理和分析。
  3. 腾讯云视频处理(https://cloud.tencent.com/product/vod):提供了视频处理和分析的能力,可以用于对视频中的图像目标进行处理和分析。

通过结合腾讯云的图像处理、人工智能和视频处理等产品,可以实现禁用图像目标的扩展跟踪的需求,并提供高效、准确的图像处理和分析能力。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

【目标跟踪】开源 | ROFT:一种卡尔曼滤波方法,从RGB-D图像流中快速、精确的跟踪6D目标的姿态和速度

备注:研究方向+地点+学校/公司+昵称,更快通过申请,长按加细分领域技术交流群,目前有细分领域:图像分割、图像目标检测、论文写作、车道检测、模型优化、目标跟踪、SLAM、点云处理(分割检测)、深度学习。...Piga 内容提要 6D目标姿态跟踪在机器人和计算机视觉领域已经得到了广泛的研究。最有前途的解决方案,利用深度神经网络和/或过滤和优化,在标准基准上表现出显著的性能。...在这种情况下,跟踪性能会显著下降,特别是对于那些不能实现实时性能并引入不可忽略延迟的方法。在本文中,我们介绍了ROFT,一种卡尔曼滤波方法,用于从RGB-D图像流中跟踪6D目标的姿态和速度。...通过利用实时光流,ROFT同步低帧率卷积神经网络的延迟输出,例如使用RGB-D输入流进行分割和6D目标位姿估计,以实现快速、精确的6D目标位姿和速度跟踪。...结果表明,我们的方法优于先进的6D目标姿态跟踪方法,同时也提供6D目标速度跟踪。作为补充资料,还提供了一段演示实验的录象。 主要框架及实验结果

69410

自动驾驶车辆在结构化场景中基于HD-Map由粗到精语义定位

,最小化成本可以定义为成本地图上地标的投影光度误差,在附加车轮里程计信息的情况下,通过滑动窗口方案中的位姿图优化计算最终位姿,最后,跟踪丢失恢复模块负责在跟踪阶段发生故障时重新初始化系统,该系统运行图如图...图1 基于高精地图的视觉定位运行效果 主要贡献: 通过利用语义分割和高精地图,提出了一个完整的视觉定位系统,包括初始化、跟踪跟踪丢失恢复模块。 我们的解决方案可灵活处理单摄像头和多摄像头系统。...,此外,由于成像比例与车辆高度密切相关,车道标记投影将扩展图像边界或收缩到具有错误车辆高度的图像中心,因此,如果没有标志牌或标杆,则优化阶段不包括侧倾角度和车辆纵向位置。...(b)前相机在系统中禁用 总结 在本文中,我们提出了一种基于视觉的定位系统,该系统使用轮速里程计、普通汽车配备的消费级GPS、高精地图和摄像头。...该系统能够处理单和多摄像头传感器设置定位,并且证明了我们的系统对不同的环境条件和驾驶场景的变化具有鲁棒性,并获得了准确的定位结果。

1.3K30
  • 多视觉异步SLAM系统

    在插入第二个KMF之后,在建图期间创建来自其他相机图像的地图点。 D、 跟踪跟踪期间,我们通过将传入的多帧MFi与最近的KMF进行匹配来估计其连续姿态。...然后决定是否应选择MFi作为KMF,用于地图优化和未来跟踪。 1) 特征匹配:对于新MF中的每个图像,我们将其在参考KMF中的参考图像识别为由相同相机或共享重叠视野的任何相机捕获的图像。...为了简单起见,我们禁用循环关闭。表III显示了所有指标的性能提升,更多的摄像头覆盖更广的视野。 4) 环路闭合:我们首先研究了多个摄像头对环路检测的影响。...5) 运行耗时:与单或立体SLAM方法不同,异步多视图SLAM需要处理多个相机图像。这为整个SLAM流程的复杂性引入了一个线性乘数,包括特征提取、跟踪、捆集调整和闭合回路。...总结 本文解决了具有异步快门的多相机SLAM问题,我们的框架将输入图像分组为异步多帧,并使用三次B样条连续时间运动模型将基于特征的SLAM扩展到异步多视图设配置。

    95520

    轻舟智航“轻、快、高效”的高级感知技术加速无人车上路!

    本文结合全景分割,单深度估计,点云的运动估计,红绿灯识别和基于点云的 3D 物体跟踪等典型感知任务,对轻舟智航的高效感知技术进行分析和解读。 1....Case 2:基于自监督学习的单深度估计 单深度估计是指从单个相机获取的图像中估计出每一个像素的深度信息。由于真实世界图像的深度信息标注非常困难,目前很多方法都借助自监督学习来解决。...下图左侧所示是一种经典的自监督单深度估计模型。其输入包括前后两帧图像,即目标图像,和取自目标图像相邻帧的源图像。...上图所示为单深度估计的实验对比,其中 PackNet 是 CVPR'20 提出的深度估计模型,可以看到研究团队设计的模型相比该模型有明显性能提高,尤其是对运动目标的深度估计。...图(b)是轻舟智航提出的数据驱动的跟踪方法,绿色框表示的是模型的核心模块。在该模型中,同时处理多目标跟踪中的三个最基本的任务:(1)更新跟踪标的位置;(2)创建新的轨迹;(3)剔除失效的轨迹。

    1.2K20

    漫谈 SLAM 技术(上)

    前端完成数据关联,相当于VO(视觉里程计),研究帧与帧之间变换关系,主要完成实时的位姿跟踪,对输入的图像进行处理,计算姿态变化,同时也检测并处理闭环,当有IMU信息时,也可以参与融合计算(视觉惯性里程计...采用滤波器的SLAM,如下图(a),估计n时刻的相机位姿Tn需要使用地图中所有路标的信息,而且每帧都需要更新这些路标的状态,随着新的路标的不断加入,状态矩阵的规模增长迅速,导致计算和求解耗时越来越严重,...具体而言,姿态跟踪线程不修改地图,只是利用已知地图来快速跟踪;而建图线程专注于地图的建立、维护和更新。即使建立地图线程耗时稍长,姿态跟踪线程仍然有地图可以跟踪(如果设备还在已建成的地图范围内)。...基于三维模型,DTAM 既能允许AR应用中的虚拟物体与场景发生物理碰撞,又能保证在特征缺失、图像模糊等情况下稳定地直接跟踪。DTAM采用逆深度(Inverse Depth)12方式表达深度。...DTAM 对特征缺失、图像模糊有很好的鲁棒性,但由于DTAM 为每个像素都恢复稠密的深度图, 并且采用全局优化,因此计算量很大,即使采用GPU 加速, 模型的扩展效率仍然较低。

    11.1K44

    一文全览深度学习在计算机视觉领域的应用

    扩展: 4....跟踪(特别例子:人体姿态/骨架); 目标跟踪是一个递推估计问题,根据以前的图像帧目标的信息推算当前目标的位置甚至大小/姿态。...单目标不会考虑目标之间的干扰和耦合,而多目标跟踪会考虑目标的出现,消失以及相互交互和制约,保证跟踪各个目标的唯一性是算法设计的前提。...基于以上特点,跟踪可以用CNN或者RNN模型求解,跟踪标的描述本身就是NN模型的优势,检测也罢,分割或者识别也罢,都不是问题。...先看一个单目标跟踪的CNN模型: 这个展示的模型是一个基于R-CNN检测模型扩展的单目标跟踪方法: 多目标跟踪模型有这么一个例子: 下面是一个基于RNN的多目标跟踪模型:

    82340

    SLAM技术概述_SRAM工艺

    前端完成数据关联,相当于VO(视觉里程计),研究帧与帧之间变换关系,主要完成实时的位姿跟踪,对输入的图像进行处理,计算姿态变化,同时也检测并处理闭环,当有IMU信息时,也可以参与融合计算(视觉惯性里程计...采用滤波器的SLAM,如下图(a),估计n时刻的相机位姿Tn需要使用地图中所有路标的信息,而且每帧都需要更新这些路标的状态,随着新的路标的不断加入,状态矩阵的规模增长迅速,导致计算和求解耗时越来越严重,...具体而言,姿态跟踪线程不修改地图,只是利用已知地图来快速跟踪;而建图线程专注于地图的建立、维护和更新。即使建立地图线程耗时稍长,姿态跟踪线程仍然有地图可以跟踪(如果设备还在已建成的地图范围内)。...基于三维模型,DTAM 既能允许AR应用中的虚拟物体与场景发生物理碰撞,又能保证在特征缺失、图像模糊等情况下稳定地直接跟踪。DTAM采用逆深度(Inverse Depth)[12]方式表达深度。...DTAM 对特征缺失、图像模糊有很好的鲁棒性,但由于DTAM 为每个像素都恢复稠密的深度图, 并且采用全局优化,因此计算量很大,即使采用GPU 加速, 模型的扩展效率仍然较低。

    88830

    【收藏】深度学习在计算机视觉领域的应用一览!超全总结!

    3、跟踪(特别例子:人体姿态/骨架) 目标跟踪是一个递推估计问题,根据以前的图像帧目标的信息推算当前目标的位置甚至大小/姿态。...跟踪的困难在于目标的遮挡(分部分还是全部),背景复杂(相似目标存在),快速(fast)以及突变(agile)运动等等。比如,跟踪人脸,当转90度成侧脸时就会有以上这些问题。...单目标不会考虑目标之间的干扰和耦合,而多目标跟踪会考虑目标的出现,消失以及相互交互和制约,保证跟踪各个目标的唯一性是算法设计的前提。...基于以上特点,跟踪可以用CNN或者RNN模型求解,跟踪标的描述本身就是NN模型的优势,检测也罢,分割或者识别也罢,都不是问题。...这个展示的模型是一个基于R-CNN检测模型扩展的单目标跟踪方法: 多目标跟踪模型有这么一个例子: 下面是一个基于RNN的多目标跟踪模型: 补充一个基于RGB图像和3-D点云的目标跟踪

    98920

    针对自主泊车的多相机视觉惯导同时定位与建图方案

    该系统基于Kimera的基础上进行了扩展,具体包括: (i) 支持多摄像头和外部里程计信息; (ii) 实现稳健的单或多摄像头闭环检测; (iii) 针对自主泊车应用实现了高效的地平面建图; 对Kimera...然后,使用OpenCV 中的工具对图像数据进行处理,以检测特征点(goodFeaturesToTrack),并在帧之间进行特征点跟踪。...然后,在跟踪的特征点上应用5点RANSAC算法,以去除每个关键帧上的异常值;关键帧的触发取决于跟踪到的图像特征的数量和质量。除了视觉和惯导数据外,我们还使用车轮里程计测量数据。...这是因为2D和3D特征之间通常只有很少的匹配(主要是由于基于3D地标的地图的稀疏性),因此在RANSAC之后只有很少的内点。...实验 表格I显示了我们对Kimera-VIO进行单扩展的性能情况,比较了每个独立摄像头的性能。我们使用一次只运行一个摄像头的方式运行了每个数据集,所有数据集都使用相同的IMU数据。

    54130

    Ground-VIO:在线标定相机-地面参数的单目视觉惯性里程计

    方程(1)和(3)揭示了在已知相机-地面几何关系的情况下,可以即时恢复图像上地面特征的度量尺度(逆深度)。 通过结合(1)和(3),相机-地面几何关系可以应用于VSLAM/VIO中以约束地标的深度。...其中,Rˆ , pˆ是通过IMU积分估计的相对姿态,结合公式(7)和(8),可以在透视图像或鸟瞰图像上对地面特征进行预测,从而将光流跟踪的搜索区域限制在几个像素范围内,从而大大提高了跟踪性能。...在Ground-VIO中选择在鸟瞰图像上提取和跟踪特征,原因是鸟瞰图像的“变形”较小,并且具有更好的跟踪一致性。实际上,KLT光流跟踪无法保证尺度和旋转不变性,如图5所示的失败案例。 图5。...图6展示了在鸟瞰图像上通过IMU辅助特征预测进行地面特征跟踪的示例,此外使用基于单应矩阵的RANSAC方法来高效检测异常的特征跟踪。...一旦获得足够数量的低于不确定性阈值的地面地标,将这些地标的观测结果堆叠在一起,以估计C-G参数,遵循以下步骤: 在完成C-G参数的初始化后,地面特征处理模块将被启用,以实现更好的跟踪准确性,同时,相机

    72720

    一文了解动态场景中的SLAM的研究现状

    MonoDOS通过两种方式对常规SLAM进行扩展。其一,具有对象感知功能,不仅可以检测跟踪关键点,还可以检测跟踪具有语义含义的对象。其次,它可以处理带有动态对象的场景并跟踪对象运动。...首先,需要从单个图像帧中提取对象,就相当于常规SLAM系统中的关键点(例如ORB-SLAM中的ORB特征点)提取阶段。该阶段将给出2D或3D对象检测结果。现阶段单3D对象检测取得了很大进展。...通过SLAM进行3D对象检测、轨迹跟踪以及速度估计 S3DOT:用于自动驾驶的基于立体视觉的语义3D对象和自我运动跟踪(ECCV 2018) 这篇文章的研究虽然是基于立体声视频流的,但该框架可以扩展到单...这篇文章的主要贡献是展示了利用视频提取和跟踪3D对象,而这些对象在单个图像上很难检测到。 ?...如果观测点在经过运动预测后地标的投影范围内,那么关键点观察值与地标相关的概率与描述符相似度成正比。 对象-对象匹配:同样属于多级概率。

    4.2K20

    以点代物,同时执行目标检测和跟踪,这个新方法破解目标跟踪难题

    此外,CenterTrack 很容易扩展到单 3D 跟踪,只需恢复额外的 3D 属性即可。...事实上,数据增强方案足以让模型学会基于静态图像跟踪目标。也就是说,在没有实时视频输入的情况下,CenterTrack 模型可以在静态图像数据集上成功训练。 CenterTrack 是完全局部的方法。...研究者进一步将该方法应用于 nuScenes 数据集 [3],执行单 3D 目标跟踪。以 22 FPS 运行时,该单跟踪器的性能达到了 28.3% AMOTA@0.2,是基线的 3 倍。...该模型以当前帧、前一个帧和一张基于跟踪目标中心渲染得到的图作为输入,生成当前帧的中心检测图、目标边界框尺寸图和一张偏移图。测试时,将目标的尺寸和偏移从热图峰值中提取出来。...在 nuScenes 数据集上,该研究的单跟踪方法可实现 28.3%的 AMOTA@0.2 和 4.6%的 AMOTA @1,大大超过单基线方法 [38,46]。 ?

    88530

    VDO-SLAM :一种动态目标感知的视觉SLAM系统

    使用公式(6),目标的三维点通过重投影对应到图像Ik中二维点的误差项为: ? 通过最小化(误差项)的方法可以找到最优解: ?...该系统由图像预处理、跟踪和建图三个主要部分组成。 系统的输入是双目图像或RGB-D图像。...虽然本系统最初设计为RGB-D系统,但为了充分利用基于图像的语义信息,我们采用了单相机的单幅图像深度估计来获取深度信息。...我们的“基于学习的单”系统是单目的,因为系统只使用RGB图像作为输入,而估计问题是利用RGB- D数据的,图像的深度是通过单幅图像深度估计得到的。 4.1预处理 这个模块需要满足两个挑战问题。...首先对输入图像进行预处理,生成实例级位姿分割和密集光流。然后,对预处理后的图像跟踪静态背景结构和动态位姿的特征。

    1.7K21

    无人水面艇自主回收中的导航定位技术分析

    在此阶段,单相机目标跟踪区域大于设定阈值,可以准确检测出吊绳上光学标记特征点,并根据定位算法给出光学标记中心的三维坐标,以此得出吊绳较为精确的位置信息。...与此同时,由于TOF深度相机采集图像目标区域较小,单独使用检测误差较大,所以将单相机检测的目标区域(ROI)发送给TOF深度相机,之后深度相机从单相机提供的ROI中处理该部分点云区域,以此输出更高精度的吊绳位置信息...在此阶段,由于无人艇与吊绳距离的逐渐缩小,单目视觉更容易失去对目标的跟踪,如果发生这种情况且此时GNSS信号有输出,则系统切换到INS/GNSS/DVL的导航模式下。...整个算法过程如图4所示,主要包括:图像预处理、目标检测与跟踪、特征点检测与跟踪、位姿求取、相对位置获取。利用n个目标已知特征点估计目标位姿属于PnP问题。...此外,由于单相机视场角有限,在吊绳距离较近时,容易失去对目标的跟踪

    73400

    最新综述:基于深度学习方式的单物体姿态估计与跟踪

    为了更深入的介绍,本文的研究范围仅限于以单RGB/RGBD数据为输入的方法,包括实例级单目标姿态检测、类别级单目标姿态检测和单目标姿态跟踪三类主要任务。...数据集介绍 实例级单目标姿态估计与跟踪数据集:主要包括经典的Linemod、YCB等数据集~ 类别级单目标姿态估计与跟踪数据集:主要包括KITTI3D、Apolloscape等开源数据集~ ?...一般来说,我们将基于深度学习的方法分为五大类:直接方法、基于关键点的方法、基于密集坐标的方法、基于细化的方法和自监督方法,五类方法对应的最新算法以及对应性能如表3和表4所示: ? ?...类别级单三维目标检测对于自主驾驶场景具有重要意义。它更关注平移预测的精度,而旋转预测的精度可以相应放宽。激光雷达采集的点云和单RGB图像是最常用的数据格式。...单目标姿态跟踪 在本节中,我们将介绍单物体姿态跟踪方法。根据CAD模型是否可用,将相关方法分为实例级单目标姿态跟踪和类别级单目标姿态跟踪。整体示意图如图8所示: ?

    1.2K30

    多目标跟踪新范式:CenterTrack

    多目标跟踪FairMOT的烦恼) 此外,CenterTrack 很容易扩展到单 3D 跟踪,只需恢复额外的 3D 属性即可。...事实上,数据增强方案足以让模型学会基于静态图像跟踪目标。也就是说,在没有实时视频输入的情况下,CenterTrack 模型可以在静态图像数据集上成功训练。 CenterTrack 是完全局部的方法。...研究者进一步将该方法应用于 nuScenes 数据集 [3],执行单 3D 目标跟踪。以 22 FPS 运行时,该单跟踪器的性能达到了 28.3% AMOTA@0.2,是基线的 3 倍。...该模型以当前帧、前一个帧和一张基于跟踪目标中心渲染得到的图作为输入,生成当前帧的中心检测图、目标边界框尺寸图和一张偏移图。测试时,将目标的尺寸和偏移从热图峰值中提取出来。...在 nuScenes 数据集上,该研究的单跟踪方法可实现 28.3%的 AMOTA@0.2 和 4.6%的 AMOTA @1,大大超过单基线方法 [38,46]。 ?

    1.8K21

    PL-VINS:实时基于点线的单惯导SLAM系统

    该表显示了具有代表性的单VINS方法与点、线或平面方法的比较。 本文提出了一种新的方案,它扩展了传统的SfM算法,使之适用于立体相机和LiDAR传感器。...2) 激光雷达数据被用来排除无效的图像匹配,进一步加强了方案的可靠性。 3) 通过联合立体相机和激光雷达的共同的数据,扩展了我们先前提出的联合优化方案,提高了所建模型的精度和一致性。...在此基础上,提出了一些基于优化的工作,其中,VINS Mono似乎是一个单VINS基准,因为它具有很高的鲁棒性,特征跟踪使用Lucas-Kanade跟踪器(KLT),回环闭合使用DBoW2,4自由度姿态图优化和地图合并...它最近被扩展到立体视觉和立体+惯导。值得注意的是,目前的工作大多采用ShiTomasi作为特征提取工具,KLT作为特征跟踪器,这些工作可能会在具有挑战性的场景中产生低精度的点特征提取。...对于相机捕获的输入帧(RGB图像),在图像中并行地检测、跟踪和优化点和线特征。这里使用Shi-Tomasi来检测点特征,KLT来跟踪,基于RANSAC的几何约束来保留最佳的点和线。

    2.4K30

    端到端多摄像头跟踪:引入多摄像头跟踪Transformer(MCTR) !

    迄今为止,多摄像头跟踪的主导方法主要是启发式技术,包括行人重识别、单跟踪、透视图估计和聚类等组件的融合。...MCTR维护了一组独立的轨迹嵌入,它们包含跨所有视图的跟踪标的全球化信息,与DETR目标嵌入,这些嵌入包含局部、视点特定信息,是不同的。...近年来,端到端跟踪方法如出现,扩展了基于 Query 的目标检测用于跟踪[7]。...例如,MOTR[50],MOTRv2[53]和TrackFormer [29]传播跟踪 Query 跨帧,迭代更新它们与图像特征进行长期检测和跟踪。...这些表示概括了单个视图内部目标的必要信息,用于生成边界框预测、类别预测,并告知下游模块。跟踪模块维护一组跟踪表示。跟踪表示包含关于每个目标的全局信息,在摄像机视图之间用于保持一致和连贯的物体身份。

    28610

    AR设备单目视觉惯导SLAM算法综述与评价

    此外,AR应用应尽量减少图像跟踪丢失的频率,并能够从故障的丢失状态中快速准确地恢复,以获得良好的AR体验。...对于单惯性SLAM,通过IMU的数据来恢复和优化单SLAM中的绝对尺度问题,所以VI-SLAM结合了视觉测量和惯性测量的方式,可视为是VSLAM的扩展方法。...并且用于图像跟踪的前端部分也不尽相同。一些方法利用关键点匹配来优化重投影误差。也有一些方法直接使用图像像素最小化光度误差。这里将介绍一些有代表性的单VSLAM/VI-SLAM方法。...1 基于滤波的SLAM MonoSLAM是最早的单VSLAM系统之一。由于它使用扩展卡尔曼滤波器来解决相机姿态问题,所以它是一个基于滤波的SLAM系统。...VI-SLAM的跟踪精度的对比 ? 初始化的时间对比 ? 重定位的耗时对比 总结 现有的单VSLAM和VI-SLAM方法,选择了8个有代表性的系统对我们的基准进行定量评估。

    1.4K21

    DSP-SLAM:具有深度形状先验的面向对象SLAM

    通过语义实例分割检测目标,并通过一种新的二阶优化算法,以特定类别的深度形状嵌入作为先验估计目标的形状和姿态。我们的对象感知捆集调整构建姿势图,以联合优化相机姿势、对象位置和特征点。...其次,尽管Node-SLAM也在实时SLAM系统中纳入了形状先验知识,但它使用稠密的深度图像进行形状优化,而DSP-SLAM可以仅使用RGB单图像流进行计算,并且每个对象只需要50个3D点即可获得准确的形状估计...系统概述:DSP-SLAM输入单或双目的实时图像流,推断对象mask,并输出特征点和稠密对象的联合地图,稀疏SLAM主模块提供每帧相机姿势和3D点云,在每个关键帧处,使用三维曲面一致性和渲染深度损失的组合...稀疏SLAM框架:ORB-SLAM2用作跟踪和建图主框架,这是一种基于特征的SLAM框架,可对单或双目序列进行操作,当跟踪线程根据对应关系以帧速率估计相机姿态时,建图线程通过重建三维地标来构建稀疏地图...左:输入RGB图像。中间:带DSP-SLAM的结果 右:带自动标记的结果。 各种方法的相机跟踪精度比较结果 当每个对象使用不同数量的激光雷达点(N=250、50、10)时,对象重建结果。

    1.5K30
    领券