首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

ICML2020 | Self-PU learning:把三个自监督技巧扔进PU learning

今天给大家介绍的是德州农工大学Xuxi Chen等人在ICML2020上发表的一篇名为“Self-PU: Self Boosted and Calibrated Positive-Unlabeled Training”的文章。许多现实世界的应用领域必须解决Positive-Unlabeled (PU) learning问题,即从大量的无标记数据和少数有标记的正示例中训练一个二分类器。虽然目前最先进的方法采用了重要性重加权来设计各种风险估计器,但它们忽略了模型本身的学习能力,而这本来可以提供可靠的监督。这促使作者提出了一种新型的Self-PU learning框架,该框架将PU learning与self-training无缝结合。self- PU learning包含了三个self导向的模块:自适应地发现和增强确信的正/负例子的self-paced训练算法; self-calibrated实例感知损失;以及一个引入教师-学生学习作为PU学习有效正则化的self-distillation方案。作者在通用PU learning基准(MNIST和CIFAR-10)上展示了Self-PU的最先进性能,与最新的竞争对手相比具有优势。此外,还研究了PU学习在现实世界中的应用,即对阿尔茨海默病的脑图像进行分类。与现有方法相比,Self-PU在著名的阿尔茨海默病神经成像(ADNI)数据库上获得了显著改进的结果。

03
领券