首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【计算机视觉——RCNN目标检测系列】一、选择性搜索详解

在刚刚过去的一个学期里,基本水逆了一整个学期,这学期基本没干什么活,就跟RCNN杠上了。首先是看论文,然后是网上找tensorflow写好的源码。但是,可惜的是网上给出的源码基本上是RCNN的主要作者Ross Girshick大神的代码,不同数据集换了下。因此为了理解源码,RCNN的处理过程,费劲去装了个ubuntu和win10的双系统并在Ubuntu上安装caffe,这就花费了近2周的时间。快速研究完RCNN的caffe源码之后,才转过来手写Fast RCNN的tensorflow版本的代码,这也花费了大量的时间,从踩坑到填坑再到踩坑。RCNN不是很好实现,SVM至今还没怎么看懂。接下来将会陆续更新RCNN->Fast RCNN->Faster RCNN系列的文章。在这篇文章中,主要讲解RCNN与Fast RCNN中获取图片中物体真实目标检测框的算法——选择性搜索算法。

01
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    将公平注入AI:机器学习模型即使在不公平数据上训练也能产生公平输出

    来源:ScienceAI本文约1800字,建议阅读9分钟如何迫使深度度量学习模型首先学习好的特征? 如果使用不平衡的数据集训练机器学习模型,比如一个包含远多于肤色较浅的人的图像的数据集,则当模型部署在现实世界中时,该模型的预测存在严重风险。 但这只是问题的一部分。麻省理工学院的研究人员发现,在图像识别任务中流行的机器学习模型在对不平衡数据进行训练时实际上会编码偏差。即使使用最先进的公平性提升技术,甚至在使用平衡数据集重新训练模型时,模型中的这种偏差也无法在以后修复。 因此,研究人员想出了一种技术,将公平性

    02

    将公平注入AI:机器学习模型即使在不公平数据上训练也能产生公平输出

    大数据文摘转载自数据派THU 如果使用不平衡的数据集训练机器学习模型,比如一个包含远多于肤色较浅的人的图像的数据集,则当模型部署在现实世界中时,该模型的预测存在严重风险。 但这只是问题的一部分。麻省理工学院的研究人员发现,在图像识别任务中流行的机器学习模型在对不平衡数据进行训练时实际上会编码偏差。即使使用最先进的公平性提升技术,甚至在使用平衡数据集重新训练模型时,模型中的这种偏差也无法在以后修复。 因此,研究人员想出了一种技术,将公平性直接引入模型的内部表示本身。这使模型即使在不公平数据上进行训练也能产生公

    02

    每日论文速递 | Embedding间的余弦相似度真的能反映相似性吗?

    摘要:余弦相似度是两个向量之间角度的余弦值,或者说是两个向量归一化之间的点积。一种流行的应用是通过将余弦相似度应用于学习到的低维特征嵌入来量化高维对象之间的语义相似性。在实践中,这可能比嵌入向量之间的非归一化点积效果更好,但有时也会更糟。为了深入了解这一经验观察结果,我们研究了由正则化线性模型推导出的嵌入,其中的闭式解法有助于分析。我们通过分析推导出余弦相似性如何产生任意的、因此毫无意义的 "相似性"。对于某些线性模型,相似性甚至不是唯一的,而对于其他模型,相似性则受正则化的隐性控制。我们讨论了线性模型之外的影响:在学习深度模型时,我们采用了不同的正则化组合;在计算所得到的嵌入的余弦相似度时,这些正则化组合会产生隐含的、意想不到的影响,使结果变得不透明,甚至可能是任意的。基于这些见解,我们提醒大家不要盲目使用余弦相似度,并概述了替代方法。

    01

    初学数据挖掘——相似性度量(一)

    好久没有写这个了。也就是在去年到今年这个时间段里,同时决定好几件事情。第一:考研。第二:以后方向就是大数据或者是叫数据挖掘。这两件事当然是有联系的,第一件事就是考研考到北京,接着研究生的方向就是数据挖掘了吧。在一边准备考研的同时,还必须得一边准备着数据挖掘方面的知识。无奈本科前三年这方面接触得极少,只好利用现在的时间来恶补了。   不久前买了一边《集体智慧编程》,开篇即开始讲算法,或者是整本书都是在讲算法,而第一个算法就是——相似度度量。这个在现在用得非常多,在QQ音乐等音乐播放器上有类似“猜你喜欢”,

    08

    AI眼中的世界是什么样子?谷歌新研究找到了机器的视觉概念

    随着机器学习模型广泛用于制定重要决策,可解释性成为研究领域的重要主题。目前大多数解释方法通过特征重要性得分来提供解释,即识别每个输入中重要的特征。然而,如何系统性地总结和解释每个样本的特征重要性得分是很有难度的。近日,来自斯坦福大学和谷歌大脑的研究人员为基于概念的解释提出了一些原则和要求,它们超出了每个样本的特征(per-sample feature),而是在整个数据集上识别更高层次的人类可理解概念。研究者开发了一种可以自动提取视觉概念的新型算法 ACE。该研究进行了一系列系统性实验,表明 ACE 算法可发现人类可理解的概念,这些概念与神经网络的预测结果一致且非常重要。

    03

    AI眼中的世界是什么样子?谷歌新研究找到了机器的视觉概念

    随着机器学习模型广泛用于制定重要决策,可解释性成为研究领域的重要主题。目前大多数解释方法通过特征重要性得分来提供解释,即识别每个输入中重要的特征。然而,如何系统性地总结和解释每个样本的特征重要性得分是很有难度的。近日,来自斯坦福大学和谷歌大脑的研究人员为基于概念的解释提出了一些原则和要求,它们超出了每个样本的特征(per-sample feature),而是在整个数据集上识别更高层次的人类可理解概念。研究者开发了一种可以自动提取视觉概念的新型算法 ACE。该研究进行了一系列系统性实验,表明 ACE 算法可发现人类可理解的概念,这些概念与神经网络的预测结果一致且非常重要。

    01

    【翻译】HyNet: Learning Local Descriptor with Hybrid Similarity Measure and Triplet Loss

    最近的研究表明,局部描述符学习得益于L2归一化的使用,然而,文献中缺乏对这种效应的深入分析。在本文中,我们研究了L2归一化如何影响训练期间的反向传播描述符梯度。根据我们的观察,我们提出了一个新的局部描述符HyNet,它可以在匹配方面带来最先进的结果。HyNet引入了一种混合相似性度量,用于度量三态边际损失,一个正则化项约束描述符范数,以及一种新的网络体系结构,该体系结构对所有中间特征映射和输出描述符执行L2正则化。在包括补丁匹配、验证和检索在内的标准基准上,HyNet大大超过了以前的方法,并且在3D重建任务上优于完整的端到端方法。代码和模型可在https://github.com/yuruntian/HyNet上找到。

    02

    社交网络的度中心性与协调的神经活动有关

    趋同处理可能是促进社会联系的一个因素。我们使用神经成像和网络分析来调查大一学生在观看自然的视听刺激(即视频)时社交网络地位(通过度中心性测量)和神经相似性之间的联系。参与社交网络研究的学生有119名;其中63人参与了神经成像研究。我们发现,在与高级解读和社会认知相关的脑区(例如,默认模式网络),高度中心性的个体彼此间以及与同龄人之间有相似的神经反应,而低度中心性的个体表现出更多样化的反应。被试自我报告对刺激的享受程度和感兴趣程度遵循类似的模式,但这些数据并没有改变我们的主要结果。这些发现表明,对外部刺激的神经处理过程在高度中心性的个体中是相似的,但在低度中心性的个体中是特殊的。本文发表在Nature Communications杂志。

    02

    J. Med. Chem. | 生物属性中对分子生成模型进行基准测试

    今天为大家介绍的是来自Liwei Liu,Tingjun Hou和Yu Kang团队的一篇论文。基于深度学习的分子生成模型因其生成具有新颖结构和理想理化属性的分子的能力而受到越来越多的关注。然而,这些模型的评估,特别是在生物学背景下的评估,仍然不足。为了解决现有度量标准的局限性并模拟实际应用场景,作者构建了RediscMol基准测试,它包括从5个激酶和3个GPCR数据集中提取的活性分子。作者引入了一组重新发现和相似性相关的度量标准,以评估8个代表性的生成模型的性能。基于RediscMol基准测试的发现与之前的评估结果不同。CharRNN、VAE和Reinvent在重现已知活性分子方面表现出更强的能力,而RNNAttn、TransVAE和GraphAF尽管在常用的分布学习度量标准上表现突出,但在这方面存在困难。作者的评估框架可能为在现实世界药物设计场景中推进生成模型提供宝贵的指导。

    01
    领券