首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

推导和实现:全面解析高斯过程中的函数最优化(附代码&公式)

本文从理论推导和实现详细地介绍了高斯过程,并提供了用它来近似求未知函数最优解的方法。 高斯过程可以被认为是一种机器学习算法,它利用点与点之间同质性的度量作为核函数,以从输入的训练数据预测未知点的值。本文从理论推导和实现详细地介绍了高斯过程,并在后面提供了用它来近似求未知函数最优解的方法。 我们回顾了高斯过程(GP)拟合数据所需的数学和代码,最后得出一个常用应用的 demo——通过高斯过程搜索法快速实现函数最小化。下面的动图演示了这种方法的动态过程,其中红色的点是从红色曲线采样的样本。使用这些样本,我们试图

04

非线性回归中的Levenberg-Marquardt算法理论和代码实现

看到一堆点后试图绘制某种趋势的曲线的人。每个人都有这种想法。当只有几个点并且我绘制的曲线只是一条直线时,这很容易。但是每次我加更多的点,或者当我要找的曲线与直线不同时,它就会变得越来越难。在这种情况下,曲线拟合过程可以解决我所有的问题。输入一堆点并找到“完全”匹配趋势的曲线是令人兴奋的。但这如何工作?为什么拟合直线与拟合奇怪形状的曲线并不相同。每个人都熟悉线性最小二乘法,但是,当我们尝试匹配的表达式不是线性时,会发生什么?这使我开始了一段数学文章之旅,stack overflow发布了[1]一些深奥的数学表达式(至少对我来说是这样的!),以及一个关于发现算法的有趣故事。这是我试图用最简单而有效的方式来解释这一切。

02

教程 | 拟合目标函数后验分布的调参利器:贝叶斯优化

选自Medium等 机器之心编译 参与:蒋思源 如何优化机器学习的超参数一直是一个难题,我们在模型训练中经常需要花费大量的精力来调节超参数而获得更好的性能。因此,贝叶斯优化利用先验知识逼近未知目标函数的后验分布从而调节超参数就变得十分重要了。本文简单介绍了贝叶斯优化的基本思想和概念,更详细的推导可查看文末提供的论文。 超参数 超参数是指模型在训练过程中并不能直接从数据学到的参数。比如说随机梯度下降算法中的学习速率,出于计算复杂度和算法效率等,我们并不能从数据中直接学习一个比较不错的学习速度。但学习速率却又是

05
领券