首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

[学术前沿] 带约束的多目标优化问题取得突破性进展!(附代码下载)

最近,广东省数字信号与图像处理技术重点实验室主任范衠教授的博士研究生李文姬与南京航空航天大学蔡昕烨教授、西安交通大学李辉教授(MOEA/D发明人之一)、汕头大学韦才敏教授、香港城市大学张青富(Qingfu Zhang)教授(进化计算领域顶级学者,IEEE Fellow)、密歇根州立大学Kalyanmoy Deb教授(进化计算领域顶级学者,IEEE Fellow)和美国BEACON国家科技中心主任Erik Goodman教授共同完成的论文《Difficulty Adjustable and Scalable Constrained Multi-objective Test Problem Toolkit》被进化计算领域知名期刊、SCI(计算科学理论与方法)1区期刊《Evolutionary Computation》录用。论文的第一作者是汕头大学范衠教授,通讯作者是南京航空航天大学蔡昕烨教授。

04

算法设计策略----回溯法和分枝限界法

显示约束和解空间:规定每个分量xi取值的约束条件称为显式约束。对给定的一个问题,显示约束规定了所有可能的元组,他们组成问题的候选解集,被称为该问题实例的解空间。 隐式约束和判定函数:隐式约束给出了判定一个候选解是否为可行解的条件。一般需要从问题描述的隐式约束出发,设计一个判定函数,程序根据判定函数判断一个解是否为可行解。 最优解和目标函数:目标函数,也称代价函数,用来衡量每个可行解的优劣。使目标函数取得最大(小)值的可行解为问题的最优解。 剪枝函数:为了提高搜索效率,在搜索过程中使用约束函数,可以避免无谓地

00

支持向量机1--线性SVM用于分类原理

在机器学习中,支持向量机(SVM,也叫支持向量网络),是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。是由Vapnik与同事(Boser等,1992;Guyon等,1993;Vapnik等,1997)在AT&T贝尔实验室开发。支持向量机是基于统计学习框架与由Chervonenkis(1974)和Vapnik(1982,1995)提出Vapnik–Chervonenkis理论上的最强大的预测方法之一。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。

04

十张图解释机器学习

3.奥卡姆剃刀:贝叶斯推理表现出奥卡姆剃刀原理了。 这个图给出了为什么复杂的模型会变得不那么可能了。 水平轴表示可能的数据集D的空间。贝叶斯定理奖励模型的比例与他们预测发生的数据有多少有关系。 这些预测通过D上的归一化概率分布来量化。给出模型H i,P(D | H i)的数据的概率被称为H i的证据。 简单模型H1仅仅会产生有限范围的预测,如P(D | H1)所示; 具有例如比H1更多的自由参数的更强大的模型H2能够预测更多种类的数据集。 然而,这意味着H2不像H1那样强烈地预测区域C1中的数据集。假设已将相等的先验概率分配给两个模型。 然后,如果数据集落在区域C1中,则较不强大的模型H1将是更有可能的模型。

01
领券