首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    特征工程

    1.特征工程 特征归一化 问:为什么需要对数值类型的特征做归一化? 分析解答: 为了消除数据特征之间的量纲影响,对特征进行归一化处理,使得不同指标之间具有可比性。 2.类别型特征 类别型特征指在有限选项内取值的特征。 3 高维组合特征的处理 问题:什么是组合特征?如何处理高维组合特征? 为了提高复杂关系的拟合能力,在特征工程中疆场会把一阶离散特征两两组合,构成高阶组合特征。 将组合的特征分别用k维的低维向量表示。 4 组合特征 问题:怎样有效找到组合特征? 基于决策树的特征组合寻找方法。 给定原始输入该如何有效地构造决策树? 深度学习模型提供了一种自动地进行特征工程的方式,模型中的每个隐层都可以认为对应着不同抽象层次的特征

    59420发布于 2021-05-20
  • 来自专栏小明的博客

    特征工程

    数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。 特征工程本质是一项工程活动,目的是最大限度地从原始数据中提取特征以供算法和模型使用。 通常来说,从两个方面考虑来选择特征特征是否发散: 如果一个特征不发散,例如方差接近于 0,也就是说样本在这个特征上基本上没有差异,这个特征对于样本的区分并没有什么用。 信息增益度量:特征f的信息增益定义为使用特征f的先验不确定性与期望的后验不确性之间的差异。若特征f1的信息增益大于特征f2的信息增益,则认为特征f1优于特征f2。 它的主要思想是在不同的数据子集和特征子集上运行特征选择算法,不断的重复,最终汇总特征选择结果,比如可以统计某个特征被认为是重要特征的频率(被选为重要特征的次数除以它所在的子集被测试的次数)。 决策树生成的过程也就是特征选择的过程。 特征选择可以使用ITMO_FS,它是一个特征选择库,它可以为 ML 模型进行特征选择。拥有的观察值越少,就越需要谨慎处理过多的特征,以避免过度拟合。

    1.2K20编辑于 2022-09-06
  • 来自专栏机器学习/数据可视化

    8种数值变量的特征工程方法

    公众号:尤而小屋编辑:Peter作者:Peter大家好,我是Peter~本文主要介绍处理数值变量特征工程,将介绍使用Python的Scikit-Learn库、Numpy等工具处理数值的高级特征工程技术, 特征工程特征工程通常涉及对现有数据应用转换,以生成或修改数据,这些转换后的数据在机器学习和数据科学的语境下用于训练模型,从而提高模型性能。 特征工程优势特征优化是提升机器学习模型质量的核心要素,尤其在分析复杂数据集时。有针对性地应用特征工程技术可带来以下优势:揭示数据中的潜在模式:此技术能够发现初步观察中不易察觉的隐藏关系和结构。 接下来,我们将介绍一些实用的特征工程技术:1、归一化归一化(也称为缩放)可能是数据科学家学习的第一个数值特征工程技术。这种方法通过减去平均值并除以标准差来调整变量。 它能够将任意函数应用于数据,作为预处理或特征工程管道的一部分。

    33200编辑于 2025-05-09
  • 来自专栏用户画像

    特征工程

    特征工程是用数学转换的方法将原始输入数据转换为用于机器学习模型的新特征特征工程提高了机器学习模型的准确度和计算效率,体现在以下五个方面 1、把原始数据转换成与目标相关的数据 我们可以使用特征工程对原始数据进行转换,使其更接近目标变量,转换后的特征对目标更有预测性。 更进一步,位置信息转换成收入和人口密度的特征工程,可使我们估计这些位置衍生出的特征哪一个更为重要。 3、使用非结构化的数据源 特征工程可使我们在机器学习模型中使用非结构化的数据源。 引自《机器学习实战》 在机器学习应用领域中,特征工程扮演着非常重要的角色,可以说特征工程是机器学习应用的基础。 在机器学习应用中,特征工程介于“数据”和“模型”之间,特征工程是使用数据的专业领域知识创建能够使机器学习算法工作的特征的过程,而好的数据胜于多的数据。

    86310发布于 2019-08-29
  • 来自专栏mathor

    特征工程

    这次特征工程主要是以天池的一个二手车交易价格预测比赛出发进行学习 特征工程和数据清洗转换是比赛中至关重要的一块,因为数据和特征决定了机器学习的上限,而算法和模型只是逼近这个上限而已,所以特征工程的好坏往往决定着最后的结果 特征工程一般包括特征构造,特征选择,降维等步骤,但是它一般是和数据清洗转换放在一块,也有的把这两块统称为特征工程,因为两者联系实在是密切(你中有我,我中有你的景象) 通过数据清洗和转换,我们能够更好地表示出潜在问题的特征 通过上面的步骤,我们已经把特征工程做完了。简单的梳理一下,首先构造的是时间特征,构造了使用时间,是否报废,使用时间分箱,是否淡旺季等特征。 经过上面两个步骤就可以发现一些结论: 根据与price的线性相关关系来看的话,我们可以考虑正负相关0.6以上的特征, v_std, v_12, v_0, v_8, estivalue_price_average 总结 梳理一下上面的知识:特征工程和数据清洗分不开,特征工程部分包括特征构造,特征筛选和降维等技术,特征构造部分,我们需要发散思维,根据背景尽可能的构造特征出来,挖掘数据的潜在信息,当然,构造的时候,不同字段的特征得分开处理

    62620发布于 2020-03-31
  • 来自专栏机器学习算法原理与实践

    特征工程特征表达

              在特征工程特征选择中,我们讲到了特征选择的一些要点。本篇我们继续讨论特征工程,不过会重点关注于特征表达部分,即如果对某一个特征的具体表现形式做处理。 主要包括缺失值处理,特殊的特征处理比如时间和地理位置处理,离散特征的连续化和离散化处理,连续特征的离散化处理几个方面。 1. 对地理特征,比如“广州市天河区XX街道XX号”,这样的特征我们应该如何使用呢?处理成离散值和连续值都是可以的。如果是处理成离散值,则需要转化为多个离散特征,比如城市名特征,区县特征,街道特征等。 比如对于用户的ID这个特征,如果要使用独热编码,则维度会爆炸,如果使用特征嵌入就维度低很多了。对于每个要嵌入的特征,我们会有一个特征嵌入矩阵,这个矩阵的行很大,对应我们该特征的数目。 小结        本文总结了特征表达的一些具体方法, 但是特征表达的方法便不止于上文中的方法,毕竟这是工程实践。但是上文中的方法是比较普遍的,希望可以给大家一些帮助和启发。

    1K30发布于 2018-08-07
  • 来自专栏算法研习社

    特征工程(中)- 特征表达

    在本篇中我们聊一下特征表达(或者说特征编码)的问题,即从这些选定的维度,如何去刻画特定的对象。 01 特征表达要考虑哪些方面? 从一个完整的机器学习任务来看,在选择完特征之后,特征表达的任务就是要将一个个的样本抽象成数值向量,供机器学习模型使用。因此,特征表达就要兼顾特征属性和模型需求这两个方面。 特征属性 特征按其取值类型不同,可以简单分为连续型和离散型。而离散型特征,又可以分为类别型和序列型。下面依次简要说明。 连续型特征:取值为连续实数的特征。 比如,身高,175.4cm。 模型需求 如果你在公司负责建模调优,那你对负责特征工程的同事,会有什么样的需求呢?换言之,你希望他们给你什么样的特征呢? 应该不外乎这么几点,类型匹配、特征准确性、特征完备性和方便模型训练。 对文中提到的归一化,我们认为也是特征表达的一个方面,但这个问题不太核心,且限于篇幅,不再详述。下篇文章将是特征工程系列的最后一篇,届时会讨论特征评估的问题。

    89830发布于 2020-07-21
  • 来自专栏机器学习算法原理与实践

    特征工程特征选择

        特征工程是数据分析中最耗时间和精力的一部分工作,它不像算法和模型那样是确定的步骤,更多是工程上的经验和权衡。因此没有统一的方法。这里只是对一些常用的方法做一个总结。本文关注于特征选择部分。 特征的来源     在做数据分析的时候,特征的来源一般有两块,一块是业务已经整理好各种特征数据,我们需要去找出适合我们问题需要的特征;另一块是我们从业务特征中自己去寻找高级数据特征。 这个特征集合有时候也可能很大,在尝试降维之前,我们有必要用特征工程的方法去选择出较重要的特征结合,这些方法不会用到领域知识,而仅仅是统计学的方法。     最简单的方法就是方差筛选。 寻找高级特征     在我们拿到已有的特征后,我们还可以根据需要寻找到更多的高级特征。比如有车的路程特征和时间间隔特征,我们就可以得到车的平均速度这个二级特征。 个人经验是,聚类的时候高级特征尽量少一点,分类回归的时候高级特征适度的多一点。 4. 特征选择小结     特征选择是特征工程的第一步,它关系到我们机器学习算法的上限。

    1.3K20发布于 2018-08-07
  • 来自专栏光城(guangcity)

    特征工程特征关联

    特征工程特征关联 0.说在前面 1.皮尔逊 2.pointbiserialr系数 3.Spearman's 系数 4.总结 5.作者的话 0.说在前面 昨天学习了seaborn绘制图形 ,以及单变量与多变量之间的绘图,那么今天从统计学角度实战分析在处理特征工程过程中所涉及的三个相关系数(具体的三个系数数学推导,在后续更新)。 在这里吧,我们可以注意到以下几种特征都是连续变量: lat long sqft_above sqft_basement sqft_living sqft_lot yr_built yr_renovated 针对连续变量,我们在做特征工程时,需要做的便是皮尔逊系数分析! 由于运行的结果众多,这里拿一个说明,如上图所示,pearsonr系数为0.7,说明与price的关联程度很强,那么在提取特征时,就得着重关注!

    1.7K20发布于 2019-09-20
  • 来自专栏机器学习AI算法工程

    特征工程(四): 类别特征

    线性相关特征,就像我们一样在tfidf中发现,有点烦人,因为它意味着训练线性模型不会是唯一的。 特征的不同线性组合可以做出同样的预测,所以我们需要跳过额外条件的来理解特征对预测的影响。 虚拟编码通过仅使用表示中的k-1个特征来消除额外的自由度。 公共汽车下面有一个特征,由全零矢量表示。 这被称为参考类别。 哈希编码 当有很多特征时,存储特征向量可能占用很多空间。 特征散列将原始特征向量压缩为m维通过对特征ID应用散列函数来创建矢量。 散列特征的一个缺点是散列特征是聚合的原始特征,不再可解释。 在这个例子中,我们将使用Yelp评论数据集来演示存储和,解释性使用的为sklearn的库FeatureHasher。 然而,因为它是一种特征工程技术,而不是一种建模或优化方法,所以没有关于该主题的研究论文。

    3.9K20发布于 2019-10-28
  • 来自专栏算法研习社

    特征工程(下 )- 特征评估

    作者丨stephenDC 编辑丨Zandy 作者会在本文中结合自己在视频推荐方面的工作经验,着重从工程实现方面,讲述如何对特征进行评估的问题。 特征工程的最终目的是提供给模型做预测,因此只要特征在模型上表现的好就够了。这话一点儿没错,但倘若特征的表现不如人意呢?我们有没有办法提前发现问题,或者说如果最后不得不推倒重来,怎么找到改进的方向。 所以,这种方法从原理上决定了,对没有被播放过或刚上线不久未被用户充分选择的视频,因为得到的特征会不准确,都无法覆盖。 特征维度 在实际工程实现的时候,特征的维度是一个非常重要的考虑因素。 作者曾经基于Spark mllib来做特征工程,后来发现mllib有一个致命的缺陷,就是只实现了数据分布式,而没有实现参数分布式。 没有这些相关同事的工作,特征工程就是巧妇难为无米之炊了。 小结 本文在“特征选择”和“特征表达”的基础上,聊了一下特征评估的问题。至此,特征工程系列终于结束。

    1.7K20发布于 2020-07-21
  • 来自专栏算法研习社

    特征工程(上)- 特征选择

    机器学习问题,始于构建特征特征质量的好坏,直接影响到最终的模型结果。 构建特征是一个很大的工程,总体来讲包括“特征选择”、“特征表达”和“特征评估”3个部分。 我们也按这3个部分,并结合自己的具体实践,用3篇文章来和大家聊一下特征工程的相关问题。 本篇文章,我们讨论一下特征选择。特征选择指的是,在全部的特征中,挑选出对最终的机器学习任务有用的特征。 在进行特征选择时,可以丢弃那些方差特别小的特征。 子集选择 基于模型,我们也可以用子集选择的思路来选取特征。假设特征的维度为N,要从中选出n个(n < N)特征,目标是让模型在选出的特征上效果最好。 如果我们先从N个特征中选出一个最好的特征,然后让其余的N-1个特征分别与第一次选出的特征进行组合,从N-1个二元特征组合中选出最优组合。之后,再次在上次的基础上,添加一个新的特征,考虑3个特征的组合。

    1.1K20发布于 2020-07-21
  • 来自专栏AI 算法笔记

    特征工程特征缩放&特征编码

    (上) 特征工程之数据预处理(下) 本篇文章会继续介绍特征工程的内容,这次会介绍特征缩放和特征编码,前者主要是归一化和正则化,用于消除量纲关系的影响,后者包括了序号编码、独热编码等,主要是处理类别型、文本型以及连续型特征 优点:模型简单 缺点:特征工程比较困难,但一旦有成功的经验就可以推广,并且可以很多人并行研究。 对于非线性模型(比如深度学习),通常使用“少量连续特征+复杂模型”。 优点:不需要复杂的特征工程 缺点:模型复杂 分桶 1.离散化的常用方法是分桶: 将所有样本在连续的数值属性 j 的取值从小到大排列。 然后从小到大依次选择分桶边界。 %AE%E9%A2%84%E5%A4%84%E7%90%86/ https://gofisher.github.io/2018/06/20/%E6%95%B0%E6%8D%AE%E6%8E%A2%E7% /www.huaxiaozhuan.com/%E7%BB%9F%E8%AE%A1%E5%AD%A6%E4%B9%A0/chapters/8_feature_selection.html

    1.6K20发布于 2019-08-16
  • 来自专栏AI 算法笔记

    特征工程(完)

    (上) 特征工程之数据预处理(下) 特征工程特征缩放&特征编码 这也是特征工程系列最后一篇文章,介绍特征提取、特征选择、特征构建三个工作,通常特征工程被认为分为这三方面的内容,只是我将前面的数据&特征预处理部分都加入到这个系列 LBP 特征描述的是一种灰度范围内的图像处理操作技术,针对的是输入为 8 位或者 16 位的灰度图像。 ---- 小结 特征工程这个内容加上本文总共写了四篇文章,从数据预处理,处理缺失值、异常值,类别不平衡和数据扩充问题,到特征缩放、特征编码,以及本文的特征选择、特征提取和特征构造,基本包含了特征工程涉及的内容 %AE%E9%A2%84%E5%A4%84%E7%90%86/ https://gofisher.github.io/2018/06/20/%E6%95%B0%E6%8D%AE%E6%8E%A2%E7% /www.huaxiaozhuan.com/%E7%BB%9F%E8%AE%A1%E5%AD%A6%E4%B9%A0/chapters/8_feature_selection.html Scikit-learn

    1.1K20发布于 2019-08-16
  • 来自专栏机器学习算法原理与实践

    特征工程特征预处理

        在前面我们分别讨论了特征工程中的特征选择与特征表达,本文我们来讨论特征预处理的相关问题。主要包括特征的归一化和标准化,异常特征样本清洗与样本数据不平衡问题的处理。 1. 具体的方法是求出样本特征x的均值mean和标准差std,然后用(x-mean)/std来代替原特征。这样特征就变成了均值为0,方差为1了。 max-min标准化:也称为离差标准化,预处理后使特征值映射到[0,1]之间。具体的方法是求出样本特征x的最大值max和最小值min,然后用(x-min)/(max-min)来代替原特征。 image.png     此外,经常我们还会用到中心化,主要是在PCA降维的时候,此时我们求出特征x的平均值mean后,用x-mean代替原特征,也就是特征的均值变成了0, 但是方差并不改变。 结语     特征工程系列终于写完了,这个系列的知识比较零散,更偏向工程方法,所以不像算法那么紧凑,写的也不是很好,希望大家批评指正。如果有其他好的特征工程方法需要补充的,欢迎留言评论。

    2K40发布于 2018-08-07
  • 来自专栏1996

    特征工程之类别特征

    类别特征 一个类别特征,见名思义,就是用来表达一种类别或标签。比如,一个类别特征能够表达世界上的主要城市,一年四季,或者说一个公司的产品(石油、路程、技术)。 每个位都是一个特征。因此是一个绝对的具有k个可能类别的变量被编码为长度为k的特征向量。 city Rent 0 SF 3999 1 SF 4000 2 SF 4001 3 NYC 3499 4 NYC 3500 5 NYC 3501 6 Seattle 2499 7 Seattle 2500 8 图5-2 哈希编码 当有很多特征时,存储特征向量可能占用很多空间。特征散列将原始特征向量压缩为m维通过对特征ID应用散列函数来创建矢量。 这确保了内部产品之间散列特征与原始特征的期望值相同。

    1.1K10编辑于 2022-09-23
  • 来自专栏机器学习AI算法工程

    特征工程(一):

    这并不意味着不再需要特征工程。好的特征不仅代表数据的显著方面,而且符合模型的假设。因此,转换常常是必要的。数字特征工程技术是基础。当原始数据被转换为数字特征时,它们可以被应用。 (严格地说,这将是目标工程,而不是特征工程。)对数变换,这是一种功率变换,将变量的分布接近高斯。另一个解决方案是第5章讨论的bin计数方法。 目的是利用这些特征来预测文章在社交媒体上的用分享数量表示的流行度。在本例中, 我们将只关注一个特征——文章中的单词数。图2-8 显示了对数转换前后特征的直方图。 但是特征本身的计算可能很昂贵,这增加了模型评分阶段的计算成本。手工制作(或机器学习)的复杂特征的好例子可以在第8章有关图像特征中找到。现在让我们看看一些特征选择技巧。 因此,所有道路最终都会指向某种数字特征工程技术。

    1.4K30发布于 2019-10-28
  • 来自专栏vincent随笔

    特征工程笔记

    虽然说特征工程很大程度上是经验工程,跟具体业务相关,但是我们可以根据一些思路来进行,以下是我在实践过程中总结出来的一些思路,希望能给大家带来一点启发。 散点图 scatter 分布图(seaborn.distplot) 热力图+协方差矩阵 heatmap 对比图 PairGrid 使用完热力图后将与目标属性最相关的几个属性做一个对比图,两两对比 1.特征构建 根据相关领域的经验和概览得到的信息,决定怎么对属性进行组合比较合适 原始属性 四则运算 求和 求增幅 求众数,方差,极差 特征交叉组合 特征随机组合,然后使用PCA降维 对结构化属性进行组合(四则运算 加权融合 对不同的特征采用不同的权重 数值归一化 数值重新赋值 将连续数值分段,进行离散化(one hot编码 TF-IDF编码) 3.特征选择 主成分分析(PCA) 因子分析 机器学习获取特征重要性分数 根据方差选择,选择方差大于一定阈值的特征(方差太小说明该特征的区别不明显)

    30310发布于 2021-08-18
  • 来自专栏Soul Joy Hub

    pyspark 特征工程

    曾经在15、16年那会儿使用Spark做机器学习,那时候pyspark并不成熟,做特征工程主要还是写scala。 后来进入阿里工作,特征处理基本上使用PAI 可视化特征工程组件+ODPS SQL,复杂的话才会自己写python处理。最近重新学习了下pyspark,笔记下如何使用pyspark做特征工程。 我们使用movielens的数据进行,oneHotEncoder、multiHotEncoder和Numerical features的特征处理。

    2.3K10发布于 2021-03-20
  • 来自专栏人工智能从业者资格

    2.1.3 特征工程

    特征工程是什么?数据和特征决定了机器学习的上限,模型和算法只是逼近这个上限。 特征工程定义特征工程是指在机器学习中,在数据准备阶段之后,在构建模型和算法训练之前,对已经经过预处理的原始数据进一步提取和选择(数据的)(对本次任务)有效的特征,以供模型和算法来使用。 顾名思义,特征工程是一种工程活动,有很多对数据的处理在一定程度上都可以算法是特征工程,比方说数据清洗、数据选择、数据构造、数据提取等。所谓数据的特征,被抽象出来的信息,可以被机器或人类加以利用和识别。 机器学习如何识别人脸,我们需要为机器学习汇总和整理好人脸的特征,交给机器来学习,这就是特征工程需要做的事情。本质对数据的降维把“数据样本”拆解为“多个特征的组合”的过程就是降维的过程。 特征工程的基本方法特征工程非常依赖实践,在项目实战中学习特征工程才最有效。

    44630编辑于 2023-01-01
领券