首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Michael阿明学习之路

    Feature Engineering 特征工程 4. Feature Selection

    经过各种编码和特征生成后,通常会拥有成百上千个特征。这可能导致两个问题: 首先,拥有的特征越多,就越有可能过拟合 其次,拥有的特征越多,训练模型和优化超参数所需的时间就越长。 使用较少的特征可以加快预测速度,但会降低预测准确率 为了解决这些问题,使用特征选择技术来为模型保留最丰富的特征 1. 返回 K 个最佳特征 图片.png F-value测量特征变量和目标之间的线性相关性。 0.0 13.0 22.0 0.0 0.0 31.0 739.0 0.0 3 0.0 0.0 0.0 0.0 2012.0 0.0 13.0 22.0 0.0 0.0 31.0 907.0 0.0 4 L1 regularization L1正则 单变量方法在做出选择决定时一次只考虑一个特征 相反,我们可以通过将所有特征包括在具有L1正则化的线性模型中来使用所有特征进行特征筛选 与惩罚系数平方的 L2

    80310发布于 2020-07-13
  • 来自专栏全栈程序员必看

    特征工程

    1.特征工程 特征归一化 问:为什么需要对数值类型的特征做归一化? 分析解答: 为了消除数据特征之间的量纲影响,对特征进行归一化处理,使得不同指标之间具有可比性。 2.类别型特征 类别型特征指在有限选项内取值的特征。 3 高维组合特征的处理 问题:什么是组合特征?如何处理高维组合特征? 为了提高复杂关系的拟合能力,在特征工程中疆场会把一阶离散特征两两组合,构成高阶组合特征。 将组合的特征分别用k维的低维向量表示。 4 组合特征 问题:怎样有效找到组合特征? 基于决策树的特征组合寻找方法。 给定原始输入该如何有效地构造决策树? 深度学习模型提供了一种自动地进行特征工程的方式,模型中的每个隐层都可以认为对应着不同抽象层次的特征

    59420发布于 2021-05-20
  • 来自专栏小明的博客

    特征工程

    数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。 特征工程本质是一项工程活动,目的是最大限度地从原始数据中提取特征以供算法和模型使用。 4特征,度为 2 的多项式转换公式如下: 特征选择 特征选择的好处:更容易理解,减少训练周期和避免维度诅咒。 通常来说,从两个方面考虑来选择特征特征是否发散: 如果一个特征不发散,例如方差接近于 0,也就是说样本在这个特征上基本上没有差异,这个特征对于样本的区分并没有什么用。 信息增益度量:特征f的信息增益定义为使用特征f的先验不确定性与期望的后验不确性之间的差异。若特征f1的信息增益大于特征f2的信息增益,则认为特征f1优于特征f2。 它的主要思想是在不同的数据子集和特征子集上运行特征选择算法,不断的重复,最终汇总特征选择结果,比如可以统计某个特征被认为是重要特征的频率(被选为重要特征的次数除以它所在的子集被测试的次数)。

    1.2K20编辑于 2022-09-06
  • 来自专栏用户画像

    特征工程

    特征工程是用数学转换的方法将原始输入数据转换为用于机器学习模型的新特征特征工程提高了机器学习模型的准确度和计算效率,体现在以下五个方面 1、把原始数据转换成与目标相关的数据 我们可以使用特征工程对原始数据进行转换,使其更接近目标变量,转换后的特征对目标更有预测性。 4、创建更容易解释的特征 特征工程使机器学习的从业者能够创建更易于解释和实用的特征。通常,使用机器学习发现数据中的模式,对于产生精确的预测十分有用,但会遇到模型的可解释性和模型的最终应用的一些限制。 引自《机器学习实战》 在机器学习应用领域中,特征工程扮演着非常重要的角色,可以说特征工程是机器学习应用的基础。 在机器学习应用中,特征工程介于“数据”和“模型”之间,特征工程是使用数据的专业领域知识创建能够使机器学习算法工作的特征的过程,而好的数据胜于多的数据。

    86310发布于 2019-08-29
  • 来自专栏mathor

    特征工程

    这次特征工程主要是以天池的一个二手车交易价格预测比赛出发进行学习 特征工程和数据清洗转换是比赛中至关重要的一块,因为数据和特征决定了机器学习的上限,而算法和模型只是逼近这个上限而已,所以特征工程的好坏往往决定着最后的结果 特征工程一般包括特征构造,特征选择,降维等步骤,但是它一般是和数据清洗转换放在一块,也有的把这两块统称为特征工程,因为两者联系实在是密切(你中有我,我中有你的景象) 通过数据清洗和转换,我们能够更好地表示出潜在问题的特征 5/15、4/15、3/15、2/15、1/15。 通过上面的步骤,我们已经把特征工程做完了。简单的梳理一下,首先构造的是时间特征,构造了使用时间,是否报废,使用时间分箱,是否淡旺季等特征。 总结 梳理一下上面的知识:特征工程和数据清洗分不开,特征工程部分包括特征构造,特征筛选和降维等技术,特征构造部分,我们需要发散思维,根据背景尽可能的构造特征出来,挖掘数据的潜在信息,当然,构造的时候,不同字段的特征得分开处理

    62620发布于 2020-03-31
  • 来自专栏机器学习算法原理与实践

    特征工程特征表达

              在特征工程特征选择中,我们讲到了特征选择的一些要点。本篇我们继续讨论特征工程,不过会重点关注于特征表达部分,即如果对某一个特征的具体表现形式做处理。 4. 离散特征的离散化处理    离散特征有时间也不能直接使用,需要先进行转化。比如最常见的,如果特征的取值是高,中和低,那么就算你需要的是离散值,也是没法直接使用的。    比如我们用训练集的所有连续值和标签输出来训练GBDT,最后得到的GBDT模型有两颗决策树,第一颗决策树有三个叶子节点,第二颗决策树有4个叶子节点。 如果某一个样本在第一颗决策树会落在第二个叶子节点,在第二颗决策树落在第4颗叶子节点,那么它的编码就是0,1,0,0,0,0,1,一共七个离散特征,其中会有两个取值为1的位置,分别对应每颗决策树中样本落点的位置 小结        本文总结了特征表达的一些具体方法, 但是特征表达的方法便不止于上文中的方法,毕竟这是工程实践。但是上文中的方法是比较普遍的,希望可以给大家一些帮助和启发。

    1K30发布于 2018-08-07
  • 来自专栏算法channel

    BAT面试题4:简单聊聊特征工程

    【问】简单聊聊特征工程? ? 好的。随着大数据时代的到来,特征工程发挥着越来越重要的作用。 那么什么是特征工程呢,简单说,就是发现对因变量y有明显影响作用的特征,通常称自变量x为特征特征工程的目的是发现重要特征。 一般来说,特征工程大体上可以分为三个方面,一是特征构造,二是特征选择,,三是特征生成。三个方面当中,最重要的是特征选择,我们先简单说一下,特征构造和特征生成,后面再说特征选择。 当然一个特征工程当中并不一定涉及到这三个方面。那么接下来,先说特征构造。 顾名思义,特征构造就是构造出来新的特征,一般都是通过对原有的特征进行四则运算产生新的特征。 utm_source=copy 附特征工程完整任务图: ? 引用自: https://www.julyedu.com/question/big/kp_id/23/ques_id/1058

    1.7K20发布于 2018-10-23
  • 来自专栏机器学习算法原理与实践

    特征工程特征选择

        特征工程是数据分析中最耗时间和精力的一部分工作,它不像算法和模型那样是确定的步骤,更多是工程上的经验和权衡。因此没有统一的方法。这里只是对一些常用的方法做一个总结。本文关注于特征选择部分。 特征的来源     在做数据分析的时候,特征的来源一般有两块,一块是业务已经整理好各种特征数据,我们需要去找出适合我们问题需要的特征;另一块是我们从业务特征中自己去寻找高级数据特征。 这个特征集合有时候也可能很大,在尝试降维之前,我们有必要用特征工程的方法去选择出较重要的特征结合,这些方法不会用到领域知识,而仅仅是统计学的方法。     最简单的方法就是方差筛选。 寻找高级特征     在我们拿到已有的特征后,我们还可以根据需要寻找到更多的高级特征。比如有车的路程特征和时间间隔特征,我们就可以得到车的平均速度这个二级特征。 个人经验是,聚类的时候高级特征尽量少一点,分类回归的时候高级特征适度的多一点。 4. 特征选择小结     特征选择是特征工程的第一步,它关系到我们机器学习算法的上限。

    1.3K20发布于 2018-08-07
  • 来自专栏算法研习社

    特征工程(中)- 特征表达

    类别型特征:取离散值,表示没有比较关系的类型。 比如,血型有A型、B型、AB型和O型4种,它们各自为一个独立类型。 序列型特征:取离散值,表示有比较关系的类型。 模型需求 如果你在公司负责建模调优,那你对负责特征工程的同事,会有什么样的需求呢?换言之,你希望他们给你什么样的特征呢? 应该不外乎这么几点,类型匹配、特征准确性、特征完备性和方便模型训练。 比如,对类型1、2、3和4,可以分别编码为(1 0 0 0)、(0 1 0 0)、(0 0 1 0)和(0 0 0 1)。 为了缩短编码的长度,也可以采用二进制编码,则同样的这4个类型,可以分别编码为(0 0 1)、(0 1 0)、(0 1 1)和(1 0 0)。 对文中提到的归一化,我们认为也是特征表达的一个方面,但这个问题不太核心,且限于篇幅,不再详述。下篇文章将是特征工程系列的最后一篇,届时会讨论特征评估的问题。

    89830发布于 2020-07-21
  • 来自专栏光城(guangcity)

    特征工程特征关联

    特征工程特征关联 0.说在前面 1.皮尔逊 2.pointbiserialr系数 3.Spearman's 系数 4.总结 5.作者的话 0.说在前面 昨天学习了seaborn绘制图形 ,以及单变量与多变量之间的绘图,那么今天从统计学角度实战分析在处理特征工程过程中所涉及的三个相关系数(具体的三个系数数学推导,在后续更新)。 针对连续变量,我们在做特征工程时,需要做的便是皮尔逊系数分析! 由于运行的结果众多,这里拿一个说明,如上图所示,pearsonr系数为0.7,说明与price的关联程度很强,那么在提取特征时,就得着重关注! Spearman相关条件: 1.xy不服从双变量正态分布 2.总体分布类型未知 3.数据本身有不确定值 4.等级资料。

    1.7K20发布于 2019-09-20
  • 来自专栏机器学习AI算法工程

    特征工程(四): 类别特征

    线性相关特征,就像我们一样在tfidf中发现,有点烦人,因为它意味着训练线性模型不会是唯一的。 特征的不同线性组合可以做出同样的预测,所以我们需要跳过额外条件的来理解特征对预测的影响。 该第i个特征的系数等于平均响应之间的差异第i类别的值和参考类别的平均值。 表5-4:线性回归学得的系数 ? Effect编码 分类变量编码的另一种变体称为Effect编码。 哈希编码 当有很多特征时,存储特征向量可能占用很多空间。 特征散列将原始特征向量压缩为m维通过对特征ID应用散列函数来创建矢量。 然而,因为它是一种特征工程技术,而不是一种建模或优化方法,所以没有关于该主题的研究论文。 完整的数据集包含4,0428,967个观测值,其中有2,686,408个独特的设备。 Avazu竞赛使用广告数据来预测点击率,但我们将使用它来演示如何bin计数可以大大减少大的特征空间流数据量。

    3.9K20发布于 2019-10-28
  • 来自专栏算法研习社

    特征工程(下 )- 特征评估

    作者丨stephenDC 编辑丨Zandy 作者会在本文中结合自己在视频推荐方面的工作经验,着重从工程实现方面,讲述如何对特征进行评估的问题。 特征工程的最终目的是提供给模型做预测,因此只要特征在模型上表现的好就够了。这话一点儿没错,但倘若特征的表现不如人意呢?我们有没有办法提前发现问题,或者说如果最后不得不推倒重来,怎么找到改进的方向。 所以,这种方法从原理上决定了,对没有被播放过或刚上线不久未被用户充分选择的视频,因为得到的特征会不准确,都无法覆盖。 特征维度 在实际工程实现的时候,特征的维度是一个非常重要的考虑因素。 作者曾经基于Spark mllib来做特征工程,后来发现mllib有一个致命的缺陷,就是只实现了数据分布式,而没有实现参数分布式。 没有这些相关同事的工作,特征工程就是巧妇难为无米之炊了。 小结 本文在“特征选择”和“特征表达”的基础上,聊了一下特征评估的问题。至此,特征工程系列终于结束。

    1.7K20发布于 2020-07-21
  • 来自专栏算法研习社

    特征工程(上)- 特征选择

    机器学习问题,始于构建特征特征质量的好坏,直接影响到最终的模型结果。 构建特征是一个很大的工程,总体来讲包括“特征选择”、“特征表达”和“特征评估”3个部分。 我们也按这3个部分,并结合自己的具体实践,用3篇文章来和大家聊一下特征工程的相关问题。 本篇文章,我们讨论一下特征选择。特征选择指的是,在全部的特征中,挑选出对最终的机器学习任务有用的特征。 在进行特征选择时,可以丢弃那些方差特别小的特征。 子集选择 基于模型,我们也可以用子集选择的思路来选取特征。假设特征的维度为N,要从中选出n个(n < N)特征,目标是让模型在选出的特征上效果最好。 如果我们先从N个特征中选出一个最好的特征,然后让其余的N-1个特征分别与第一次选出的特征进行组合,从N-1个二元特征组合中选出最优组合。之后,再次在上次的基础上,添加一个新的特征,考虑3个特征的组合。

    1.1K20发布于 2020-07-21
  • 来自专栏AI 算法笔记

    特征工程特征缩放&特征编码

    建议收藏好好阅读 机器学习入门系列(2)--如何构建一个完整的机器学习项目 第五篇 该系列的前四篇文章: 机器学习入门系列(2)--如何构建一个完整的机器学习项目(一) 机器学习数据集的获取和测试集的构建方法 特征工程之数据预处理 (上) 特征工程之数据预处理(下) 本篇文章会继续介绍特征工程的内容,这次会介绍特征缩放和特征编码,前者主要是归一化和正则化,用于消除量纲关系的影响,后者包括了序号编码、独热编码等,主要是处理类别型、文本型以及连续型特征 优点:模型简单 缺点:特征工程比较困难,但一旦有成功的经验就可以推广,并且可以很多人并行研究。 对于非线性模型(比如深度学习),通常使用“少量连续特征+复杂模型”。 优点:不需要复杂的特征工程 缺点:模型复杂 分桶 1.离散化的常用方法是分桶: 将所有样本在连续的数值属性 j 的取值从小到大排列。 然后从小到大依次选择分桶边界。 ---- 参考: 《百面机器学习》第一章 特征工程 https://blog.csdn.net/dream_angel_z/article/details/49388733#commentBox https

    1.6K20发布于 2019-08-16
  • 来自专栏AI 算法笔记

    特征工程(完)

    (上) 特征工程之数据预处理(下) 特征工程特征缩放&特征编码 这也是特征工程系列最后一篇文章,介绍特征提取、特征选择、特征构建三个工作,通常特征工程被认为分为这三方面的内容,只是我将前面的数据&特征预处理部分都加入到这个系列 4.常见的特征选择方法分为以下三种,主要区别在于特征选择部分是否使用后续的学习器。 生成特征向量。 4.LBP 特征 局部二值模式(LBP)是一种描述图像局部纹理的特征算子,它具有旋转不变性和灰度不变性的优点。 ---- 小结 特征工程这个内容加上本文总共写了四篇文章,从数据预处理,处理缺失值、异常值,类别不平衡和数据扩充问题,到特征缩放、特征编码,以及本文的特征选择、特征提取和特征构造,基本包含了特征工程涉及的内容 实际上是在对于《hands-on-ml-with-sklearn-and-tf》第二章数据准备部分的总结,刚好涉及到特征工程内容,所以打算好好做个总结,没想到这部分内容真的不少,而对于特征工程,我的经验其实不算很丰富

    1.1K20发布于 2019-08-16
  • 来自专栏机器学习算法原理与实践

    特征工程特征预处理

        在前面我们分别讨论了特征工程中的特征选择与特征表达,本文我们来讨论特征预处理的相关问题。主要包括特征的归一化和标准化,异常特征样本清洗与样本数据不平衡问题的处理。 1. 具体的方法是求出样本特征x的均值mean和标准差std,然后用(x-mean)/std来代替原特征。这样特征就变成了均值为0,方差为1了。 max-min标准化:也称为离差标准化,预处理后使特征值映射到[0,1]之间。具体的方法是求出样本特征x的最大值max和最小值min,然后用(x-min)/(max-min)来代替原特征。 image.png     此外,经常我们还会用到中心化,主要是在PCA降维的时候,此时我们求出特征x的平均值mean后,用x-mean代替原特征,也就是特征的均值变成了0, 但是方差并不改变。 4. 结语     特征工程系列终于写完了,这个系列的知识比较零散,更偏向工程方法,所以不像算法那么紧凑,写的也不是很好,希望大家批评指正。如果有其他好的特征工程方法需要补充的,欢迎留言评论。

    2K40发布于 2018-08-07
  • 来自专栏1996

    特征工程之类别特征

    (见表5-3) 表5-3 三个不同城市的公寓价格数据集 id city Rent 0 SF 3999 1 SF 4000 2 SF 4001 3 NYC 3499 4 NYC 3500 5 NYC 3501 表5-4:线性回归学得的系数 id x1 x2 x3 b one-hot 166.67 666.67 -833.33 3333.33 dummy coding 0 500 -1000 3500 Effect 图5-2 哈希编码 当有很多特征时,存储特征向量可能占用很多空间。特征散列将原始特征向量压缩为m维通过对特征ID应用散列函数来创建矢量。 business_id'].unique().tolist()[0:5] 输出:['9yKzy9PApeiPPOUJEtnvkg', 'ZRJwVLyzEJq1VAihDhYiow', '6oRAC4uyJCsJl1X0WZpVSA ', '_1QQZuf4zZOyFCvXc0o6Vg', '6ozycU1RpktNG2-1BroVtw'] print(f.toarray()) 输出:array([[0., 0., 0., ...

    1.1K10编辑于 2022-09-23
  • 来自专栏机器学习AI算法工程

    特征工程(一):

    这并不意味着不再需要特征工程。好的特征不仅代表数据的显著方面,而且符合模型的假设。因此,转换常常是必要的。数字特征工程技术是基础。当原始数据被转换为数字特征时,它们可以被应用。 (严格地说,这将是目标工程,而不是特征工程。)对数变换,这是一种功率变换,将变量的分布接近高斯。另一个解决方案是第5章讨论的bin计数方法。 示例2-4 演示如何计算 Yelp 商户评论数的十等分, 图2-5 覆盖直方图上的十等分。这就更清楚地说明了对更小的计数的歪斜。 例子 2-4。计算 Yelp 商户评论数的十分位数 ? ? 输入特征的极大变化会导致模型训练算法的数值稳定性问题。在这些情况下,标准化功能是个好主意。第4章将详细介绍处理自然文本时的特征缩放,包括使用示例。 交互特征 简单的成对交互特征是两个特征的积。 因此,所有道路最终都会指向某种数字特征工程技术。

    1.4K30发布于 2019-10-28
  • 来自专栏vincent随笔

    特征工程笔记

    虽然说特征工程很大程度上是经验工程,跟具体业务相关,但是我们可以根据一些思路来进行,以下是我在实践过程中总结出来的一些思路,希望能给大家带来一点启发。 散点图 scatter 分布图(seaborn.distplot) 热力图+协方差矩阵 heatmap 对比图 PairGrid 使用完热力图后将与目标属性最相关的几个属性做一个对比图,两两对比 1.特征构建 根据相关领域的经验和概览得到的信息,决定怎么对属性进行组合比较合适 原始属性 四则运算 求和 求增幅 求众数,方差,极差 特征交叉组合 特征随机组合,然后使用PCA降维 对结构化属性进行组合(四则运算 加权融合 对不同的特征采用不同的权重 数值归一化 数值重新赋值 将连续数值分段,进行离散化(one hot编码 TF-IDF编码) 3.特征选择 主成分分析(PCA) 因子分析 机器学习获取特征重要性分数 根据方差选择,选择方差大于一定阈值的特征(方差太小说明该特征的区别不明显)

    30310发布于 2021-08-18
  • 来自专栏Soul Joy Hub

    pyspark 特征工程

    曾经在15、16年那会儿使用Spark做机器学习,那时候pyspark并不成熟,做特征工程主要还是写scala。 后来进入阿里工作,特征处理基本上使用PAI 可视化特征工程组件+ODPS SQL,复杂的话才会自己写python处理。最近重新学习了下pyspark,笔记下如何使用pyspark做特征工程。 我们使用movielens的数据进行,oneHotEncoder、multiHotEncoder和Numerical features的特征处理。 .| Comedy|Romance| | 4|Waiting to Exhale... |Comedy|Drama|Romance| 4|(1001,[4],[1.0])| | 5|Father of the Bri...| Comedy

    2.3K10发布于 2021-03-20
领券