首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

云视觉模型图像找不到相似性

基础概念

云视觉模型图像相似性是指通过云端的计算机视觉技术,对图像进行特征提取和比较,以识别出与目标图像相似的其他图像。这种技术通常基于深度学习模型,如卷积神经网络(CNN),来提取图像的特征向量,然后通过计算特征向量之间的距离来判断图像的相似性。

相关优势

  1. 高效性:云视觉模型可以利用云端强大的计算能力,快速处理大量图像数据。
  2. 准确性:基于深度学习的模型能够提取复杂的图像特征,提高相似性匹配的准确性。
  3. 可扩展性:云服务可以根据需求动态调整资源,适应不同规模的图像处理任务。
  4. 易用性:用户可以通过简单的API调用,轻松实现图像相似性搜索。

类型

  1. 基于特征的相似性搜索:提取图像特征后,通过计算特征向量之间的距离(如欧氏距离、余弦相似度等)来寻找相似图像。
  2. 基于内容的相似性搜索:直接比较图像内容,如颜色、纹理、形状等,而不仅仅是特征向量。
  3. 基于深度学习的相似性搜索:利用预训练的深度学习模型,如VGG、ResNet等,提取图像特征并进行相似性匹配。

应用场景

  1. 图像检索:在海量图像库中快速找到相似的图像。
  2. 版权保护:检测图像是否被侵权使用。
  3. 广告推荐:根据用户的浏览历史,推荐相似内容的广告。
  4. 社交媒体:自动识别并标记相似的照片。

可能遇到的问题及解决方法

问题:图像找不到相似性

原因

  1. 特征提取不足:使用的模型可能无法有效提取图像的关键特征。
  2. 数据质量问题:训练数据集可能不够丰富或存在偏差。
  3. 计算资源限制:云服务的计算资源可能不足以处理复杂的图像特征提取任务。
  4. 参数配置不当:模型参数或相似性度量方法可能未优化。

解决方法

  1. 选择更强大的模型:使用预训练的深度学习模型,如VGG16、ResNet50等,这些模型在图像特征提取方面表现更好。
  2. 增加训练数据:收集更多样化的图像数据,以提高模型的泛化能力。
  3. 优化计算资源:根据需求调整云服务的资源配置,确保有足够的计算能力。
  4. 调整参数配置:优化模型参数和相似性度量方法,例如使用更合适的距离度量(如余弦相似度)。

示例代码

以下是一个简单的Python示例,使用预训练的VGG16模型进行图像相似性搜索:

代码语言:txt
复制
import numpy as np
from tensorflow.keras.applications.vgg16 import VGG16, preprocess_input
from tensorflow.keras.preprocessing import image
from sklearn.metrics.pairwise import cosine_similarity

# 加载预训练的VGG16模型
model = VGG16(weights='imagenet', include_top=False)

# 加载目标图像和待比较图像
target_img_path = 'path_to_target_image.jpg'
compare_img_path = 'path_to_compare_image.jpg'

# 预处理图像
target_img = image.load_img(target_img_path, target_size=(224, 224))
compare_img = image.load_img(compare_img_path, target_size=(224, 224))

target_img_data = image.img_to_array(target_img)
compare_img_data = image.img_to_array(compare_img)

target_img_data = np.expand_dims(target_img_data, axis=0)
compare_img_data = np.expand_dims(compare_img_data, axis=0)

target_img_data = preprocess_input(target_img_data)
compare_img_data = preprocess_input(compare_img_data)

# 提取图像特征
target_features = model.predict(target_img_data)
compare_features = model.predict(compare_img_data)

# 计算相似性
similarity = cosine_similarity(target_features.reshape(1, -1), compare_features.reshape(1, -1))

print(f'Similarity: {similarity[0][0]}')

参考链接

通过以上方法,可以有效解决云视觉模型图像找不到相似性的问题。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

通用视觉框架OpenMMLab图像分类与基础视觉模型

y=F_{\Theta^{*}}(X) 在训练集上达到最高正确率 预测 对于新图像 \hat{X} ,用训练好的模型预测其 类别,即 \hat{y}=F_{\Theta^{*}}(\...hat{X}) 传统方法:设计图像特征(1990s~2000s) 特征工程的天花板 在ImageNet 图像识别挑战赛里,2010 和2011 年的冠军队伍都使用了经典的视觉方法,基于手工设计的特征+...从特征工程到特征学习 层次化特征的实现方式 AlexNet 的诞生& 深度学习时代的开始 在2012 年的竞赛中,来自多伦多大学的团队首次使用深度学习方法,一举将错误率降低至15.3% ,而传统视觉算法的性能已经达到瓶颈...图像分类的数学表示 模型设计:设计适合图像的 _Θ • 卷积神经网络 • 轻量化卷积神经网络 • 神经结构搜索 • Transformer 模型学习:求解一组好的参数Θ • 监督学习...:基于标注数据学习 • 损失函数 • 随机梯度下降算法 • 视觉模型常用训练技巧 • 自监督学习:基于无标注的数据学习 AlexNet (2012) 第一个成功实现大规模图像模型,在ImageNet

76120

FIDAVL:基于视觉语言模型的假图像检测与归因 !

备注好友:方向-学校/公司-姓名/昵称 作者提出了FIDAVL:使用视觉语言模型进行虚假图像检测。FIDAVL是一种新颖而高效的多任务方法,灵感来源于视觉和语言处理的协同作用。...利用零样本学习的益处,FIDAVL利用视觉和语言之间的互补性以及软提示调优策略来检测虚假图像并准确地将其归因于其原始来源模型。...为解决这些问题,作者提出了一种新的单步多任务方法FIDAVL,该方法将合成图像检测和归因置于统一的框架内。采用视觉语言方法,FIDAVL利用视觉和语言模型之间的协同效应以及软适应策略。...这些分数主要通过与参考文本进行比较来评估机器生成文本的质量,测量文本相似性的各种方面,如n-gram(连续词组)。此外,准确性和F1分数的包含为FIDAVL在合成图像归因任务中的性能提供了全面的了解。...这可能归因于无条件扩散模型(如LDM)与基于GAN的生成模型相似性,这给准确归因带来了挑战。

9510
  • 使用10几行Python代码,快速建立视觉模型识别图像

    视觉 进化的作用,让人类对图像的处理非常高效。 这里,我给你展示一张照片。 如果我这样问你: 你能否分辨出图片中哪个是猫,哪个是狗? 你可能立即会觉得自己遭受到了莫大的侮辱。...没有机器对图像的辨识,能做到吗? 你的好友可能(不止一次)给你演示如何用新买的iPhone X做面部识别解锁了吧?没有机器对图像的辨识,能做到吗?...没有机器对图像的辨识,能做到吗? 你可能一下子觉得有些迷茫了——这难道是奇迹? 不是。 计算机所做的,是学习。 通过学习足够数量的样本,机器可以从数据中自己构建模型。其中,可能涉及大量的判断准则。...然后,我们让TuriCreate读取所有的图像文件,并且存储到data数据框。...= test_data['label']][0]['path'] 然后,我们把图像读取到img变量。

    2.3K90

    探索 GPTCache|GPT-4 将开启多模态 AI 时代,GPTCache + Milvus 带来省钱秘籍

    根据 OpenAI 发布的信息,科技界万众期待的 GPT-4 模型支持视觉输入,能够实现更强大的功能,将 GPT-4(https://openai.com/gpt-4) 与图像生成模型相结合可发挥巨大潜力...我们还可以在聊天机器人中加入图像描述生成的能力,从而优化用户体验,将视觉交互和对话无缝衔接起来。...然后,为了保证返回的文本描述质量,评估器会额外判断输入图像和从缓存中检索的图像或文本描述之间的相关性或相似性。...评估图像相似性时,系统会使用预训练的视觉模型,如 ResNet 或ViT 等将图像转换成向量。 此外,像 CLIP 这样的文本-图像多模态模型,也可以用于直接衡量图像和文本之间的相似性。...第二步,系统利用 Milvus 进行相似性搜索,从缓存中检索潜在的相似音频。如果在评估后找不到相似的答案时,系统会调用自动语音识别(ASR)模型或服务。

    30220

    2024年5月计算机视觉论文推荐:包括扩散模型视觉语言模型图像编辑和生成、视频处理和生成以及图像识别等各个主题

    我们今天总结下2024年5月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展,包括扩散模型视觉语言模型图像编辑和生成、视频处理和生成以及图像识别等各个主题。...对视觉语言模型(vlm)日益增长的研究是由大型语言模型和VIT的改进所驱动的。尽管在这个主题上有大量的文献,但论文观察到,关于vlm设计的关键决策通常是不合理的。...通过严格的训练,从头开始开发了一个1b级的语言模型,使用LLaVA范式进行模态对齐,得到了一个轻量级但功能强大的多模态视觉语言模型。...基于blob表示,开发了一个基于blob的文本到图像扩散模型,称为BlobGEN,用于合成生成,并且引入了一个新的掩码交叉注意力模块来解决blob表示和视觉特征之间的融合问题。...Grounding DINO 1.5 Pro模型通过扩展模型架构,集成增强的视觉骨干,并将训练数据集扩展到超过2000万张带有注释的图像,从而实现更丰富的语义理解,从而改进了其前身。

    31410

    . | 基于视觉和语言的基础模型,用于病理图像分析

    OpenPath是迄今为止最大的公开可用的病理图像集,带有文本描述的注释。然后,作者利用这个大规模的结构化病理图像-文本对集,开发了一个多功能的病理图像和语言人工智能基础模型。...模型训练 与其他仅基于分类标签训练的监督学习和分割病理模型不同,自然语言文本富含语义和相关知识,这可以进一步增强对图像的理解并促进多个下游应用。...在研究中,作者使用对比学习将预训练的对比语言-图像预训练(CLIP)模型在OpenPath上进行微调。在训练阶段,PLIP模型从文本编码器和图像编码器生成两个嵌入向量(如图1e所示)。...结论 计算机视觉和自然语言处理领域机器学习的快速进展依赖于标注数据。与其他领域不同,标注病理图像非常昂贵且繁琐,需要高水平的领域专业知识和多年的专业教育。...在这项研究中,作者基于OpenPath开发了PLIP,通过微调视觉-语言表示和学习的最新模型

    69560

    【源头活水】最新月份计算机视觉论文推荐:包括扩散模型视觉语言模型图像编辑和生成、视频处理和生成以及图像识别等各个主题!

    视觉语言模型(vlm)日益增长的研究是由大型语言模型和VIT的改进所驱动的。尽管在这个主题上有大量的文献,但论文观察到,关于vlm设计的关键决策通常是不合理的。...通过严格的训练,从头开始开发了一个1b级的语言模型,使用LLaVA范式进行模态对齐,得到了一个轻量级但功能强大的多模态视觉语言模型。...现有的文本到图像模型难以遵循复杂的文本提示,因此需要额外的接地输入以获得更好的可控性。...基于blob表示,开发了一个基于blob的文本到图像扩散模型,称为BlobGEN,用于合成生成,并且引入了一个新的掩码交叉注意力模块来解决blob表示和视觉特征之间的融合问题。...Grounding DINO 1.5 Pro模型通过扩展模型架构,集成增强的视觉骨干,并将训练数据集扩展到超过2000万张带有注释的图像,从而实现更丰富的语义理解,从而改进了其前身。

    13010

    ​VLSM-Adapter | 轻量级适配器,加速医学图像分割的视觉语言模型

    基于大规模开放领域图像和文本对训练的视觉语言模型(VLMs)已 recently 被用于开发视觉语言分割模型(VLSMs),该模型允许在推理过程中提供文本提示以指导图像分割。...我们引入了一种新的适配器 VLSM-Adapter,它可以通过 transformer 编码器微调预训练的视觉语言分割模型。...最近引入的基础视觉语言模型(VLMs)可以从大规模图像-文本对中学习强大的联合表示,并且可以适应包括密集预测任务(如语义分割)在内的广泛任务,以开发视觉语言分割模型(VLSMs),在推理过程中可以提供文本提示以指导图像分割...最流行的VLM,广泛适应以创建不同的VLSMs,是对抗性语言-图像预训练(CLIP)[21],它使用独立的视觉和语言编码器。...VL-Adapter[26]重复使用预训练的VLMs进行视觉-文本任务,如图像字幕和视觉问答。尽管已经提出了几种基于VLM的分类任务的方法,但还没有研究过用于端到端训练的VLSMs的适配器。

    11110

    深度学习行人重识别综述与展望,TPAMI 2021 最新文章

    作者 | 叶茫 武汉大学 编辑 | CV君 报道 | 我爱计算机视觉(微信id:aicvml) 摘要:行人重识别(Person Re-Identification,简称Re-ID),是一种利用计算机视觉技术来检索图像或者视频序列中是否存在特定行人的...没有预先检测或跟踪好的行人图片/视频; 无监督和半监督学习,标注数据有限或者无标注的新场景; 噪声标注的数据,即使有标注,但是数据采集和标注过程中存在噪声或错误; 一些其他 Open-set 场景,查询行人找不到...(如local patch相似性等); 无监督域自适应 Re-ID:包括一些目标域图像数据生成和一些目标域监督信息挖掘等方式。...下载1 在「3D视觉工坊」公众号后台回复:3D视觉,即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点后处理、多视图几何等方向。...下载2 在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总,即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点处理相关源码、立体匹配源码、单目、双目3D检测、基于点

    1.8K32

    业界 | 44篇论文强势进击CVPR 2018,商汤科技的研究员都在做哪些研究?

    能够处理无序三维点数据的新算法不断涌现,三维检测、三维分割等问题的精度与效率均在快速提升中。...这次的投稿是将深度神经网络与传统概率图模型相结合,以样本之间的相似性为对象构建条件随机场,约束行人特征的学习过程。 C:我的研究方向是底层计算机视觉,包括图像和视频等画质增强,超分率,去噪等。...D:我引入了经典图模型中的条件随机场模型。条件随机场是一种能够描述变量之间依赖关系的数学工具,与深度学习结合在图像语义分割等问题中已经得到了一定的应用。...而这篇论文提出的方法以不同图像之间的相似性作为随机变量,建立了不同样本之间相似性的依赖关系进行特征学习。...D:为什么在这篇论文中要提出群组相似性的概念而使用 CRF 建模? 因为图像之间的相似性本身很难定义。

    44830

    Let’s Make-It-3D!上交&微软最新开源2D转3D生成研究,Star超过1k星

    而今,恰如人类,一些卓越的图像生成模型,如Stable Diffusion和Midjourney,同样拥有丰富的视觉先验知识,展现出高质量的图像生成效果。...基于这样的观察,研究员们提出假设:一个高质量预训练图像生成模型具有和人类一样的能力,即可以从一个真实或AI生成的图像中推理出3D内容。...在参考视角下对渲染图和参考图施加像素级别的约束,在新视角下利用来自预训练扩散模型的先验信息度量图像和文本之间的相似性。...因此,为了增强生成几何模型和图片的相关程度,论文额外约束了在扩散过程中的去噪图和参考图之间 的图像相似性,即约束了图像之间的 CLIP 编码距离。这一方法进一步有效提升了生成模型和图片的相似程度。...点渲染采用了基于 UNet 结构的 Deferred-Renderer (延迟渲染器),并同样使用来自预训练扩散模型的先验信息优化产生遮挡区域的精细纹理。

    49620

    NeurIPS 2019论文解读:学习一个模仿小鼠视觉系统的CNN

    相似性矩阵:图中的点表示横坐标对应的图像和纵坐标对应的图像让小鼠产生的神经信号的详细程度,浅色的点表示相似程度较高,也就是在生物视觉系统看来它们是更相似的两张图像;深色的点表示相似程度较低 CNN 训练...作者们选用了一个 18 层的 ResNet 模型作为要模仿小鼠的 CNN 模型主干,要让它在学习图像分类任务的同时,模仿小鼠视觉系统的激活模式。...在结果对比部分,作者们首先把带有相似性损失训练的「生物视觉 CNN」(基于 ResNet18)和正常训练的几个模型做对比,而且是在转换为灰度的 CIFAR 图像上进行测试。...在包含了多种对抗性攻击方法的对抗性图像识别测试中,「生物视觉 CNN」的表现也远好于其他的模型。...作者们认为,未来如果能让人工神经网络的视觉表征和生物视觉系统中 V1 以上的视觉皮层之间的相似性进一步提高的话,模型的鲁棒性、泛化性表现也能跟着继续提高。

    39820

    上交&微软 | Make-it-3D:diffusion+NeRF从单张图像生成高保真的三维物体!

    论文的方法名为:Make-It-3D,采用两阶段优化pipeline:第一阶段通过在前景视图中结合参考图像的约束和新视图中的扩散先验来优化神经辐射场;第二阶段将粗略模型转化为纹理点,并利用参考图像的高质量纹理...有了文本提示 y ,可以在Stable Diffusion的潜空间上执行 \mathcal{L}_{\text {SDS }} (利用text conditioned扩散模型作为3D感知先验),度量图像和给定文本提示符之间的相似性...结合LSDS和LCLIP-D,论文的扩散先验确保了生成的3D模型视觉上是吸引人的和可信的,同时也符合给定的图像(见图3)。...Point-E,基于图像的点生成模型 3D-Photo,深度图像配准和修复方法 Qualitative comparison 图7 与两种基于扩散的三维内容创建模型Dreamfusion和Point-E...论文使用以下指标来评估这两个方面: LPIPS,评估在参考视图上的重建质量 上下文距离,测量新视角渲染和参考之间的像素级相似性 CLIP分数,评估新视角与参考之间的语义相似性 表1和表2显示,论文的方法在参考视图和新视角质量方面明显优于

    94540

    资源 | 图像配对数据集TTL:展现人类和机器判断图像相似性的差异

    选自arXiv 作者:Amir Rosenfeld等 机器之心编译 参与:刘晓坤、李泽南 人类对图像相似性的知觉判断依赖于丰富的内部表征,现有的计算机视觉技术应用的信号类型可能过于狭隘。...本文介绍了新型图像配对数据集 TTL,该数据集收集了很多人类在视觉上认为很相似的图像,而深度学习模型无法通过特征提取重构出相似的配对。该结果为未来的图像表征研究指出了新的方向。...网站链接:http://memebase.cheezburger.com/totallylookslike 作者以图像检索任务的形式,评估了多个当前最佳模型在该数据集上的表现,并将结果与人类的相似性判断行为进行了对比...虽然在一些实验中为深度学习模型设置了很好的条件,它们仍然无法正确地重构出人类选择的匹配图像。 ? 图 3:(a)各种当前最佳模型的基于余弦和 L2 距离的图像检索的每张图像召回率的对比。...知觉相似性适用于卡通面部和真实面部的相似性判断(前 3 行),还有面部表情的灵活迁移(第 4 行)、局部区域的视觉相似性(最后两行,第 5 行的人的头发和蜘蛛腿相似,第 6 行的人的头发和海浪相似)。

    74360

    卷积神经网络如何进行图像识别的

    神经网络应用于图像识别的另一个会出现的问题是:过拟合。简单地说,过拟合一般发生在模型过于贴合训练数据的情况下。...对于任意图像,像素之间的距离与其相似性有很强的关系,而卷积神经网络的设计正是利用了这一特点。这意味着,对于给定图像,两个距离较近的像素相比于距离较远的像素更为相似。...技术上来讲,卷积神经网络通过对神经元之间的连接根据相似性进行过滤,使图像处理在计算层面可控。...Google视觉 Google视觉是使用REST API搭建的视觉识别API。它基于开源的TensorFlow框架。它可以检测到独立的人脸或物体,并且包含十分全面的标签集。...同时,和Google视觉一样,它也提供了大量花哨的特性,包括NSFW以及OCR检测。 Clarif.ai Clarif.ai也是一个使用REST API的初创图像识别服务。

    67920

    CVPR 2018 | 逆视觉问答任务:一种根据回答与图像想问题的模型

    选自arXiv 作者:Feng Liu等人 机器之心编译 参与:李诗萌、路 一般而言,视觉问答都是输入图像和问题,并期望机器能给出合理的回答。...而最近东南大学的研究者提出一种反视觉问答的模型,即给定回答与图像期待机器能提出合理的问题。...图像描述 [31]、可视化问答 [2]、自然语言对象检索 [20] 和「可视化图灵测试」[11] 等都存在要求丰富的视觉理解、语言理解以及知识表征和推理能力的多模态 AI 挑战。...本文的贡献如下:(1)为高等多模态视觉语言理解的挑战引入新颖的 iVQA 问题。(2)提出了基于 iVQA 模型的多模态动态注意力机制。...iVQA 任务的目的是生成与所给图像和答案相关的问题。由于与问题相比答案所含信息更少,且问题可学习的偏差更少,因此与 VQA 模型相比,iVQA 模型需要更好地理解图像才能成功。

    75100

    小白系列(3)| 计算机视觉之直接视觉跟踪

    现在我们已经为目标对象采用了外观模型,我们需要对它在场景中的运动进行建模。这意味着跟踪问题找到了运动模型合适的参数。运动模型的参数的优化就代表着目标对象的参考图像与原始图像之间的相似性最大化。...因此,给定前一帧运动模型的参数向量 ,我们的任务是找到与参考和当前图像最匹配的新向量。 3.1 相似性函数 这里面有一个很有意思的问题。参考图像和当前图像的最佳匹配项究竟是什么?...在下面的示例中,我们可以看到前两个图像之间的相似性应该大于后两个图像之间的相似性。 为了计算模板和原始图像之间的相似性,使用了几个相似性函数。...) 因此,对于跟踪,我们需要为目标对象选择一个外观模型、一个运动模型和一个相似性函数,以便判断参考图像与视频中原始图像的相似程度。...假设绿色部分是参考图像,并且我们要检查与原始图像(蓝色部分)的相似性。我们将通过移动蓝色矩形以匹配绿色矩形来计算 SSD,我们将减去这两个图像。然后,我们计算误差平方并进行求和。

    61420

    图本检索的Zero-Shot超过CLIP模型!FILIP用细粒度的后期交互获得更好的预训练效率。

    ▊ 写在前面 无监督的大规模视觉语言预训练在各种下游任务上显示出不错的进步。现有方法通常通过每个模态的全局特征的相似性来模拟跨模态交互,或者通过视觉和文本token的交叉/自注意力来模拟细粒度交互。...他们从互联网上收集的数以百万计的图像-文本对中学习视觉和文本表示,并显示出卓越的zero-shot能力和鲁棒性。这些模型的核心技术在于通过双流模型图像和文本进行全局对比对齐。...i幅图像和第j幅文本的相似性和。...然后,使用图像中所有非填充token的平均token最大相似性作为图像与文本的相似性。...图像和文本增强 为了获得模型更好的泛化和数据效率,作者在预训练阶段对图像和文本进行数据增强,以构建更多的图像-文本对。对于视觉端,作者采用了AutoAugment。

    1.4K10

    微软提出VLMo:用“模态混合专家”进行统一的视觉语言预训练!即将开源!

    但它需要联合编码所有可能的图像-文本对来计算检索任务的相似性分数。二次时间复杂度导致的推理速度比线性的双编码器模型的推理速度要慢得多。...j对文本的图像对文本的相似性, image.png 表示文本对图像相似性。...image.png 表示第i文本和第j个图像的归一化向量,σ是学习的温度参数。 image.png 是Softmax标准化的相似性。利用图像到文本和文本到图像相似性上的交叉熵损失来训练模型。...如上图所示,作者首先对仅图像数据进行视觉预训练,然后对只对文本数据进行语言预训练,以学习一般的图像和文本表示。该模型用于初始化视觉语言预训练,以学习视觉和语言信息的对齐。...在推理过程中,需要计算所有图像和文本的表示,然后使用点积获得所有可能的图像-文本对的图像到文本和文本到图像相似性得分。单独的编码比基于融合编码器的模型能够实现更快的推理速度。

    1.2K10

    【AIDL专栏】鲁继文:面向视觉内容理解的深度度量学习

    深度度量学习在视觉内容理解,尤其是各种高层视觉任务分析方面有很多应用。 一、视觉内容理解 视觉内容理解是指如何从图像和视频中提取有用信息,帮助我们更好地理解视觉目标内容。该领域一个重要应用是视觉识别。...所以在典型的视觉理解任务中,如何有效的计算视觉目标的相似性是很重要的指标。传统的欧式距离或余弦距离弱点在于无法有效描述数据的语义信息。...此时如何有效描述样本之间的相似性就显得尤为关键。 ?...此方法缺点在于找不到度量的学习过程。而深度学习最大的优点在于能够对数据进行有效的非线性建模,所以把深度学习思想引入到度量学习里,就有了深度度量学习。...关键在于数据量的大小,如果数据足够多,可以把网络设计得深一点,如果数据比较少,相对轻量的模型更合适。

    1K10
    领券