腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
是否
可以
在
scikit-learn
决策树
中
设置
拆
分值
的
精度
?
、
、
当访问
决策树
中
节点
的
tree_.threshold时,类型似乎是float。有没有办法将阈值
的
“
精度
”
设置
为整型?
在
我
的
例子
中
,这些特征都是整数值,因此不需要对以这种
精度
定义
的
值进行拆分。
浏览 7
提问于2017-06-14
得票数 1
回答已采纳
1
回答
从Python
中
的
数据学习二进制决策图(BDDs)
、
、
、
是否
有可能从数据中学习二元决策图(BDD)(就像以机器学习
的
方式一样)?如果是这样的话,是怎么做
的
?背景:我
在
Python语言中看到过一些工具来完成这项任务,例如,使用
scikit-learn
的
决策树
(DTs),但我还没有看到任何用于BDD
的
工具。 举个例子,我想做
的
事情如下: ? N对应于计数,例如,您
可以
使用后者来计算
精度
。请注意,这不是cut sets矩阵。
在
中间,您会
浏览 54
提问于2021-02-12
得票数 1
1
回答
Spark MLlib
中
的
决策树
可以
返回每个样本预测
的
叶索引吗?
、
、
我
在
Spark MLlib中使用Scala
中
的
决策树
。
是否
有一个实现
的
方法
可以
返回每个样本被预测为
的
叶
的
索引?非常感谢。
浏览 0
提问于2018-04-12
得票数 1
1
回答
在
设置
决策树
的
深度时,需要考虑哪些因素?
、
在
scikit学习
中
,
在
实例化
决策树
时要
设置
的
参数之一是最大深度。
在
设置
决策树
的
深度时,需要考虑哪些因素?更大
的
深度通常会带来更高
的
精度
吗?
浏览 0
提问于2019-08-21
得票数 0
回答已采纳
3
回答
是否
可以
在
scikit-learn
中
打印
决策树
?
、
有没有办法
在
scikit-learn
中
打印经过训练
的
决策树
?我想为我
的
论文训练一棵
决策树
,我想把这棵树
的
图片放在论文中。这有可能吗?
浏览 0
提问于2014-08-13
得票数 15
回答已采纳
1
回答
如何在
决策树
中指定拆分?
、
我正在尝试训练一个
决策树
分类器,用于使用
scikit-learn
提供
的
函数来评估棒球运动员。然而,我想提前“预先指定”或“强制”一些分裂,基于我所知道
的
关于专家思考方式
的
真实情况(无论如何,这些都需要合并)。例如,我想基于击球平均值> .300强制拆分。一个相关
的
问题是--我
是否
可以
“预加载”以前训练过
的
决策树
模型,并在随后
的
训练
中
仅仅“更新”它?或者,decisio树分类器
浏览 2
提问于2017-10-05
得票数 1
6
回答
使用Python具有一个(或多个)参数
的
多输出回归或分类器
、
、
我用Python
的
Scikit-learn
库编写了一个简单
的
线性回归和
决策树
分类器代码来预测结果。效果很好。我
的
问题是,
是否
有一种方法
可以
向后进行,根据估算
的
结果预测参数值
的
最佳组合(参数,其中
精度
将是最好
的
)。或者我
可以
这样问,
是否
有分类、回归或其他类型
的
算法(
决策树
、支持向量机、KNN、Logistic回归、线性回归、多项式
浏览 0
提问于2019-06-08
得票数 10
回答已采纳
1
回答
学习区间
的
并集
、
、
、
假设我有N个一维点xi和它们
的
标签yi = 1/0。我想学习一组k区间,这样,当标签1被赋予这些区间中
的
所有点时,误差就会最小化。随着k
的
增加,情况会变得更加复杂。
在
scikit-learn
中有没有一些通用
的
算法来做这件事,或者对
决策树
算法做了一些修改?直接
的
决策树
算法不会起作用,因为你不能控制k,只能控制深度,并且分支
的
顺序可能导致最终
的
区间集不是最优
的
。如果有必要,
浏览 1
提问于2015-05-11
得票数 1
1
回答
树分类器
的
极高
精度
度量
、
、
、
、
我正在做一个项目,把总统辩论推文分为中立
的
、积极
的
和消极
的
。(不是当前辩论数据集)。我正在使用Decision trees,Decision tree ensemble和AdaBoost进行训练。问题是,我得到了百分之百
的
准确性,这是非常奇怪和不可能
的
。 我拥有的数据以bag-of-words模型
的
形式出现。词汇表
中
的
每个单词由0/1表示,具体取决于该单词
是否
出现在每条推特
中
。我已经把问题末尾
的</
浏览 2
提问于2016-10-31
得票数 0
回答已采纳
2
回答
tree.DecisionTreeRegressor是模型树还是回归树?
、
、
、
我
的
理解是:
在
回归树
中
:每片叶子
的
目标值计算为训练期间到达该叶
的
实例
的
目标值
的
平均值。
在
模型树
中
:每个叶
的
值是一个线性函数,它使用特征
的
子集,通过对
在
训练期间到达该叶
的
实例执行线性回归来确定。是科学工具
中
的
tree.DecisionTreeRegressor -学习回归树还是模型树
浏览 11
提问于2014-06-02
得票数 2
回答已采纳
2
回答
在
随机森林中,所有的
决策树
是否
都被赋予相同
的
优先级?
、
、
、
在
随机森林算法
中
,使用随机选择
的
特征( $log_2 n$ +1,其中n=数
的
特征数)生成m(例如)
决策树
数。从测试数据中选择任何样本
的
标签是根据这些
决策树
的
投票数来选择
的
。但这些
决策树
的
准确性不同(相当明显)。我
的
问题是,为什么我们要对所有的
决策树
给予同样
的
优先权?如果一个
决策树
在
预测测试样本
的</e
浏览 0
提问于2018-05-30
得票数 7
1
回答
什么
决策树
算法用于科学学习
中
的
随机森林分类器
、
、
在
标题中,我想知道在哪里
可以
检查RandomForestClassifier
在
scikit-learn
中使用了哪些
决策树
算法。它在“属性”( attributes base_estimator_ = DecisionTreeClassifier )
中
写道,那么
在
“科学学习”
中
的
DecisionTreeClassifier后面是“购物车”,那么这是我
的
答案吗?
浏览 0
提问于2020-11-14
得票数 1
回答已采纳
1
回答
有没有一种方法
可以
用
决策树
/随机森林进行迁移学习?
、
、
、
有没有一种方法
可以
用
决策树
或随机森林模型进行迁移学习?具体地说,我想知道
在
Python语言中
是否
有一种好
的
简单
的
方法来实现这一点,使用
Scikit-learn
训练
的
模型。我所能想到
的
就是
在
原始数据集上训练一个随机森林,当新数据到达时,训练新
的
树并将其添加到您
的
模型
中
。然而,我想知道这是不是一个好
的
方法,
是否
有其他更好
的<
浏览 340
提问于2021-05-11
得票数 3
2
回答
字符串作为
决策树
/随机森林中
的
特征
、
、
我是机器学习
的
新手!我如何处理这样
的
场景,我
可以
通过某种机制将字符串转换为数字,例如python
中
的
哈希。但我想知道
在
决策树
问题中如何处理字符串<
浏览 4
提问于2015-02-25
得票数 3
1
回答
如何解释one-hot编码用于
决策树
后
的
特征重要性
、
、
我知道
决策树
有基尼系数计算
的
feature_importance属性,它
可以
用来检查哪些特征更重要。但是,对于
scikit-learn
或Spark
中
的
应用程序,它只接受数字属性,所以我必须将字符串属性转换为数字属性,然后对其进行one-hot编码器。当特征被放入
决策树
模型时,它是0-1编码
的
,而不是原始格式,我
的
问题是,如何解释原始属性
的
特征重要性?
在
尝试解释特性重要性时,我应该避免使用one-ho
浏览 2
提问于2016-10-14
得票数 11
1
回答
在
python
中
不进行编码
的
多类MultiOutput分类
、
、
、
、
经过研究,我发现对这类数据最合适
的
算法是一个
决策树
或一个随机forrest分类器! 有没有其他python库
可以</
浏览 0
提问于2017-07-18
得票数 1
回答已采纳
1
回答
C4.5
决策树
算法不能提高准确率
、
、
、
我使用10折交叉验证
在
Weka
中
运行了C4.5剪枝算法。我注意到,未修剪
的
树比修剪
的
树具有更高
的
测试
精度
。我不明白为什么修剪树不能提高测试
的
准确性?
浏览 18
提问于2017-02-05
得票数 0
1
回答
在
使用类似分类器
的
决策树
之前,我们应该把独立
的
连续变量(特征)转换成分类变量吗?
、
、
、
、
假设我有一个因变量来预测“态度”,它
可以
有三个值“正/负/中性”。我有以下自变量或特征-年龄,身高,性别,收入等。我试图预测态度
的
决策树
分类器。态度~年龄+身高+性别+收入(
决策树
)这是过度适应
的
问题吗?
是否
应该将连续变量转换为范畴变量(如范围类)?
浏览 0
提问于2016-07-10
得票数 1
回答已采纳
1
回答
在生产中学习
决策树
、
、
我正在构建一个
决策树
模型,该模型将用于生产。永远不要对不受信任
的
数据进行解密,因为它可能导致
在
加载时执行恶意代码。虽然使用一个版本
的
scikit-learn
保存
的
模型可能在其他版本中加载,但这是完全不受支
浏览 0
提问于2018-06-22
得票数 2
回答已采纳
1
回答
如何在scikit
中
过拟合
决策树
-故意学习?
、
我希望训练一棵深度最小、节点总数最少
的
决策树
,使这些n样本
的
训练准确率达到100%。
在
最坏
的
情况下,这意味着每个样本都有一个叶节点。
在
Scikit-Learn
的
DecisionTreeClassifier实现1
中
,有没有一些参数
的
配置
可以
让我实现这一点?
浏览 0
提问于2020-11-24
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
女娲造人番外篇-决策树
机器学习集成算法:XGBoost思想
Python机器学习:通过scikit-learn实现集成算法
python在Scikit-learn中用决策树和随机森林预测NBA获胜者
AdaBoost项目实战:参数择优与泛化能力
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券