首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

One-Shot Unsupervised Cross Domain Translation

给出一个来自领域A的单一图像x和一组来自领域B的图像,我们的任务是生成x在B中的类似物。我们认为,这项任务可能是一项关键的人工智能能力,它强调了认知代理在这个世界上的行动能力,并提出了经验证据,表明现有的无监督领域翻译方法在这项任务上失败。我们的方法遵循一个两步过程。首先,为领域B训练一个变异自动编码器。然后,给定新的样本x,我们通过调整接近图像的层来创建A域的变异自动编码器,以便直接适应x,而只间接适应其他层。我们的实验表明,当对一个样本x进行训练时,新方法和现有的领域转移方法一样好,当这些方法享受来自领域A的大量训练样本时。我们的代码可在https://github.com/sagiebenaim/OneShotTranslation 公开。

02

教程 | 拟合目标函数后验分布的调参利器:贝叶斯优化

选自Medium等 机器之心编译 参与:蒋思源 如何优化机器学习的超参数一直是一个难题,我们在模型训练中经常需要花费大量的精力来调节超参数而获得更好的性能。因此,贝叶斯优化利用先验知识逼近未知目标函数的后验分布从而调节超参数就变得十分重要了。本文简单介绍了贝叶斯优化的基本思想和概念,更详细的推导可查看文末提供的论文。 超参数 超参数是指模型在训练过程中并不能直接从数据学到的参数。比如说随机梯度下降算法中的学习速率,出于计算复杂度和算法效率等,我们并不能从数据中直接学习一个比较不错的学习速度。但学习速率却又是

05
领券