首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Memory-augmented Deep Autoencoder for Unsupervised Anomaly D

    深度自编码在异常检测中得到了广泛的应用。通过对正常数据的训练,期望自编码器对异常输入产生比正常输入更高的重构误差,以此作为识别异常的判据。然而,这一假设在实践中并不总是成立。有人观察到,有时自动编码器“概括”得很好,也能很好地重建异常,导致异常的漏检。为了减轻基于自编码器的异常检测的这个缺点,我们建议使用内存模块来增加自编码器,并开发一种改进的自编码器,称为内存增强自编码器,即MemAE。对于给定的输入,MemAE首先从编码器获取编码,然后将其作为查询来检索与重构最相关的内存项。在训练阶段,内存内容被更新,并被鼓励表示正常数据的原型元素。在测试阶段,学习记忆是固定的,从正常数据中选取少量记忆记录进行重构。因此,重建将趋向于接近一个正常的样本。从而增强异常的重构误差,用于异常检测。MemAE没有对数据类型的假设,因此适用于不同的任务。在各种数据集上的实验证明了该备忘录具有良好的泛化性和较高的有效性。

    01

    零样本学习超越CLIP!谷歌提出首个多模态稀疏化模型LIMoE,还能降低计算成本

    明敏 发自 凹非寺 量子位 | 公众号 QbitAI 多模态模型常见,但是基于稀疏化的还是头一个。 谷歌带来最新成果LIMoE,首次将稀疏化方法用在了图像文本混合模型上。 要知道,随着大模型参数呈指数级增加,训练成本也是一路飙升。 所以如何降低训练成本,成为了目前学界重点关注的一个问题。 谷歌想到的办法,不是拼硬件,而是从模型本身入手。 利用稀疏化的方法,让每次输入只需激活部分网络就能完成任务。 它们在模型内部设置了很多“专家”,每个“专家”只需处理对应部分的输入,根据任务情况按需使用“专家”就好。 这样一

    01
    领券