腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6274)
视频
沙龙
1
回答
为什么
随机
森林
的
大
小会
随着
训练样本
的
数量
而
增加
?
、
、
、
、
在过去
的
几个月里,我一直在定期训练sklearn Random Forest。我注意到,当使用joblib将模型导出到文件时,文件大小急剧
增加
-从2.5 GB
增加
到11 GB。所有参数都保持不变,训练特征
的
数量
也保持不变。唯一
的
区别是训练数据中
的
示例
数量
增加
了。 假设参数保持不变,并且估计器
的
数量
和每棵树
的
深度都是指定
的
,那么
为什么
增加<
浏览 15
提问于2019-01-05
得票数 0
1
回答
为什么
在
随机
森林
中,当树木
数量
增加
时,均方误差会减小?
、
、
、
、
我使用
随机
森林
对响应变量进行建模。当我查看OOB图时,均方误差
随着
树木
数量
的
增加
而
直线下降。对这种下降
的
解释是什么?
浏览 78
提问于2019-05-11
得票数 0
1
回答
如何估计
随机
林算法
的
内存使用量?
、
、
、
我正在尝试用caret来拟合
随机
森林
模型。我
的
训练数据重量为129 My,我在Google上用8核和52 on计算这个数据。经过几个小时
的
训练,当我期望得到一个结果时,令我惊讶
的
是,我唯一得到
的
是以下错误: 不过,我
的
google云实例有52 it内存,所以我决定检查其中有多少是免费
的
因此,假设在训练结束时不能分配2GB,那么训练
随机
林中使用
的
似乎是4
浏览 0
提问于2019-04-02
得票数 8
1
回答
所有的数据阳极127.0.0.1:50010都是坏
的
。正在中止
、
、
、
、
我正在使用Hadoop上
的
(org.apache.mahout.classifier.df.mapreduce.BuildForest)实现从ApacheMahout0.9 PartialBuilderorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:2987) datanode日志文件中没有明显
的
错误作业跟踪器只是重复在datanode日志中找到
的
错误。故障发生前几分钟出现
的
一个错误是EOF错误,这可能是Par
浏览 2
提问于2014-12-10
得票数 1
回答已采纳
1
回答
梁算例中
的
伴随成本
常说伴随法
的
计算量不随设计变量
的
增加
而
增加
。然而,似乎
增加
问题
的
规模应该会带来一些计算上
的
影响。例如,通过
增加
在示例中输入
的
元素
的
数量
,有限元矩阵
的
大
小会
增加
,并且应该有更多
的
相关计算成本。那么,
为什么
说伴随
的
成本是
随着
设计变量
的
增
浏览 0
提问于2018-08-11
得票数 2
回答已采纳
1
回答
使用weka对传感器数据进行分类
、
、
、
我正在处理一个分类问题,它有不同
的
传感器。每个传感器收集一组数值。例如,我有三个传感器A、B、C。我可以定义5个从所有传感器收集
的
数据作为一个实例吗?例如,A
的
一个实例是{1,2,3,4,5,6,7},B
的
一个实例是{3,434,534,213,55,4,7)。C{424,24,24,13,24,5,6}。 非常感谢你花时
浏览 0
提问于2013-06-25
得票数 1
回答已采纳
2
回答
相关特征和分类精度
、
、
、
我想问大家一个关于相关特征(变量)如何影响机器学习算法
的
分类精度
的
问题。对于相关特征,我指的是它们之间
的
相关性,
而
不是与目标类之间
的
相关性(即几何图形
的
周长和面积,或者教育水平和平均收入)。在我看来,相关特征对分类算法
的
准确性有负面影响,我想说
的
是,因为相关性使其中之一变得无用。真的是这样吗?问题会
随着
分类算法类型
的
不同
而
改变吗?任何关于论文和讲座
的
建议都是受欢迎
的</em
浏览 2
提问于2013-02-11
得票数 38
1
回答
随机
森林
随着
树数
的
增加
而
变坏。
、
、
我
的
R代码,一个图像和数据在这里:观察者呈现一个微弱
的
图像(contrast=,con),掩埋在噪声中,或者只是噪声。他评价他
的
自信(rating),认为他
的
脸是存在
的
。这张脸要么是倒置
的
(invert=1),要么不是在每组100个试验中(一个文件)。我使用对比度(预测矩阵x
的
第一列)和像素(其余列)来预测y。对于我
的
应用程序来说,关键是我在最后有一个“重要图像”,它显示了每个像素对决策y
的
贡献。我有1000个试验(y长度)和4248
浏览 2
提问于2015-10-22
得票数 0
回答已采纳
1
回答
在textfield中动画字体大小
的
变化
、
我想动画字体大小在文本框内
的
数量
变化。用例:我有一个文本框,最初我有一个
大
的
文本,
随着
数量
的
增加
,我想减少字体大小和动画
的
变化。例如:在android计算器中,
随着
表达式大小
的
增长,表达式
的
字体大
小会
缩小,并且会有动画效果。我想要有这样
的
效果。我是新手,怎么才能达到这样
的
效果呢?我已经试过使用动画容器了。
浏览 1
提问于2019-03-13
得票数 0
1
回答
Keras或Tensorflow有内置
的
NaN保护吗?
、
我不明白
的
是,当我通过它运行数据(计算)时,输出不是NaN。为了确保权重确实连接到输出,我更改了它
的
值,输出也发生了变化。就我
的
问题而言:当我将权重从NaN更改为0.0时,我得到了相同
的
输出(与NaN相同,但与其他值不同)。这怎麽可能?
浏览 0
提问于2019-07-13
得票数 0
1
回答
目标检测-如何使用CNN检测和提取特征,并使用分类器对其进行分类?
、
、
、
我有一个图像分类问题,其中类
的
数量
随着
时间
的
推移
而
增加
,当创建一个新类时,我只用新类
的
图像训练模型。我知道用CNN是不可能做到这一点
的
,所以为了解决这个问题,我确实转移了学习,我使用了Keras预训练模型来提取图像
的
特征,但我没有用新
的
层替换最后一层(用于分类),而是使用了能够
增加
类
数量
的
随机
森林
。我使用在imagenet数据集
浏览 97
提问于2018-06-26
得票数 2
1
回答
不同尺寸多个测试集RMSE
的
比较
、
、
、
我拥有的数据是一个时间序列数据(股票回报),我正在训练一个
随机
森林
回归者。观察总数= 2499我
的
意思是,
随着
窗口大小
的
增加
,测试集
的
大
小会
减少。窗口大小为500,测试集大小为1999。我认为同样
的
浏览 0
提问于2021-08-13
得票数 0
1
回答
亚马逊红移规模
增加
、
、
我已经将数据从一个表插入到另一个表,插入数据后,表
的
大小
随着
实际大小
的
增加
而
增加
到30 me,
而
stats_off也
增加
到了100。有人能告诉我
为什么
表
的
大
小会
增加
,以及如何减少表
的
stats_off吗?
浏览 5
提问于2021-12-31
得票数 0
1
回答
如何理解不同机器学习模型
的
性能?
、
这些模型分别是线性回归(LR)、贝叶斯岭(BR)、最近邻(NN)、
随机
森林
(RF)和支持向量机(SVM)回归。测试数据集的确定系数(R2)用来表示经过训练
的
机器学习模型
的
性能。📷 我们可以看到最大
的
。这些模型
的
精度依次为: RF>BR~LR~SVM>NN。前8位特征要求获得较好
的
射频精度,之后
的
精度几乎与顶级功能
的
数量
无关。BR、LR和SVM
的
性能
随着
顶级特征
数
浏览 0
提问于2020-06-16
得票数 1
回答已采纳
1
回答
分类模型中
的
random_state参数
、
、
、
、
有人能解释
为什么
random_state参数对模型有如此
大
的
影响吗?我有一个RandomForestClassifier模型,并希望设置random_state (可再现性),但是根据我使用
的
值,我在总体评估指标(F1评分)上得到了非常不同
的
值。例如,我尝试用100个不同
的
random_state值来拟合相同
的
模型,在训练广告测试之后,最小
的
F1是0.64516129,最大
的
是0.808823529)。这是一个巨大
的
浏览 2
提问于2016-03-11
得票数 2
回答已采纳
2
回答
重叠相依时间序列,ML问题方法
、
、
、
以下是问题
的
简化描述:
随着
交付时间
的
临近,这个
数量
可能会发生变化(如下图所示)。这看起来很简单,但需求周之间有很高
的
相关性。例如,如果一个
数量
减少了一周,那么周围
的
一周可能会
增加
。 我目前正在使用
随机
森林
回归,图像中显示
的
属性和结果
浏览 1
提问于2020-10-21
得票数 1
2
回答
Python/SKlearn:使用KFold会产生
大
的
ROC_AUC变量
、
、
、
基于业务部门提供给我们
的
数据,我使用sklearn决策树算法来确定一个二进制分类问题
的
ROC_AUC。0.6240.5220.5850.6290.5890.592 如果ROC_AUC变得更好(“接近1&q
浏览 1
提问于2018-02-12
得票数 0
1
回答
随机
森林
决策树
的
高度
增加
到25,测试精度也
增加
、
、
、
、
我有一个~16k
的
数据集,正在进行0/1
的
二进制分类。当我在
随机
森林
中进行超参数网格搜索时,我
的
训练和测试精度
随着
深度
的
增加
而
增加
,最优深度为25。我得到
的
测试精度高达97%,没有数据泄漏,因为有三组训练,测试和valid.My数据有大约10 features.Is,这很好,因为我通常看到树
的
最大深度为10。
浏览 0
提问于2018-08-06
得票数 0
1
回答
迭代捕获和改进机器学习模型
的
工作流
我正在使用多种机器学习方法(支持向量回归、
随机
森林
回归和通过scikit- learning进行
的
knn回归),并想知道如何确定哪种方法最适合于递增地递增我
的
训练样本
10,000条记录。我
的
训练数据大小大约是80k记录,我
的
测试数据集大约是30k记录。我从10k记录开始训练我
的
每一个模型,因为我工作
的
系统核心非常有限(并且运行在不同大陆
的
VM上),所以我不能简单地开始一个培训课程,然后离开几个小时。
随着</e
浏览 0
提问于2019-08-30
得票数 2
1
回答
基于树
的
算法
的
在线学习/持续学习
、
、
、
、
我在
随机
森林
/XGBoost/LightGBM上遇到任何一种迭代学习
的
例子,每次应用n_tree/n_estimators/num_boost_rounds时,它都会不断
增加
.fit()对新批数据
的
估计器
的
数量
它们中
的
大多数似乎依赖迭代学习来对无法同时加载到内存中
的
非常
大
的
数据集进行培训。但是,我希望实现一个持续学习管道(使用LightGBM;Python),
浏览 0
提问于2022-09-13
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
随机森林分类工具
随机森林算法介绍
随机森林概述
Deep Forest 算法解读
Python机器学习:通过scikit-learn实现集成算法
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券