腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
适合
的
xgboost
模型
对象
中
检索
超
参数
、
有没有一种方法可以
从
拟合
的
xgboost
对象
中
检索
用于训练
模型
的
超
参数
。更具体地说,我想知道
模型
中使用
的
估计器(即树)
的
数量。由于我使用
的
是提前停止,因此n_estimator
参数
不会给出
模型
中最终
的
估计器数量。
浏览 21
提问于2021-10-20
得票数 0
1
回答
SageMaker
XGBoost
超
参数
调优与
XGBoost
python包
、
、
我正在尝试对
xgboost
模型
进行
超
参数
调整。max_parallel_jobs=3,并获得具有以下
超
参数
集
的
最佳
模型
,并意识到
从
后者获得
的
结果比
从
SageMaker获
浏览 2
提问于2020-02-27
得票数 0
2
回答
利用Google引擎和
XGBoost
优化
超
参数
、
、
、
我正在尝试复制此中报告
的
超
参数
优化示例,但我希望在我
的
培训应用程序中使用scikit学习
XGBoost
而不是tensorflow。使用
XGBoost
运行培训应用程序
的
内容:
XGBoost
是否有一种将训练指标返回给ML引擎
的
方法?对于tensorflow来说
浏览 0
提问于2018-10-05
得票数 0
回答已采纳
1
回答
从
mlflow 1.9 PyFuncModel
模型
中提取特性重要性
、
、
顶层:如何
从
保存在mlflow
中
的
PyFuncModel
中
的
xgboost
模型
中提取特性重要性? 我使用
浏览 2
提问于2022-01-13
得票数 0
2
回答
如何优化
XGBoost
性能精度?
、
我
的
数据集有6552行和34个特征
的
形状。优化XGBClassifier
参数
的
推荐方法是什么,因为我使用默认值(即model=XGBClassifier() )创建了
模型
。在找到最优预测值之前,我是否应该使用蛮力循环某些
参数
中
的
值?在这种情况下,推荐什么?
浏览 0
提问于2018-03-14
得票数 4
回答已采纳
1
回答
如何在python
中
获取xgb.train
的
超
参数
、
、
xgb.train是用于在Python
中
训练
xgboost
模型
的
低级API。当我使用XGBClassifier (它是一个包装器)并在对
模型
进行训练时调用xgb.train时,我可以打印XGBClassifier
对象
并打印
超
参数
。在使用xgb.train时,我不知道如何在训练后检查
参数
bst = xgb.train(params, dtrain) bst.params # does not work!
浏览 4
提问于2021-11-03
得票数 3
回答已采纳
1
回答
梯度boosting
中
的
少量估计量
、
、
、
、
我正在调整一个回归梯度助推
模型
,以确定适当
的
超
参数
使用4倍交叉验证。更具体地说,我使用
XGBoost
和lightGBM作为
模型
,使用贝叶斯优化算法进行
超
参数
搜索(hyperopt)。
超
参数
之一,在每个
模型
所使用
的
估计器数中被调优。在第一轮测试
中
,我
从
估计量在100到300之间开始。
超
参数
优化算法
的</e
浏览 0
提问于2020-02-24
得票数 4
1
回答
如何打印
适合
的
XGBoost
模型
的
超
参数
?
、
、
如果我在数据上安装了一个
XGBoost
模型
,并且没有设置任何
参数
(都是默认
参数
),那么如何打印这些设置呢?xgb_outofbox = XGBClassifier(random_state=0).fit(X_train, y_train) 我想给像xgb_outofbox.params_这样
的
东西打电话,但这不起作用对于这个简单
的
问题,我找不到任何答案。
浏览 12
提问于2022-03-11
得票数 4
1
回答
xgboost
max_depth=1
的
极限代表什么?
在n_estimators很大和max_depth=1
的
极限下,是否变成了线性
模型
? 在我
的
数据集上,一个网格搜索发现max_depth是1,所以我想知道我是否应该构建一个线性
模型
。
浏览 0
提问于2018-12-19
得票数 5
1
回答
整洁
模型
中
XGBoost
的
L2正则化
我正在使用tidymodels包来使用
XGBoost
模型
。我
的
模型
是 boost_tree(mtry = tune(), trees = 1000, learn_rate = tune()) %>% set_mode('classification') 我想知道应该把L2正则化
超
参数
λ放在哪
浏览 24
提问于2021-07-07
得票数 0
3
回答
XGBoost
在Sagemaker
中
的
功能重要性
、
我已经使用Amazon Sagemaker构建了一个
XGBoost
模型
,但我找不到任何可以帮助我解释该
模型
并验证它是否学习了正确
的
依赖关系
的
东西。通常,我们可以通过python API (https://
xgboost
.readthedocs.io/en/latest/python/python_api.html)
中
的
get_fscore()函数看到
XGBoost
的<
浏览 18
提问于2019-04-11
得票数 4
回答已采纳
2
回答
如何找出构建
模型
所基于
的
xgboost
库
的
版本
、
我有一个问题:假设我有一个
xgboost
模型
,有人训练它并将其转换为.pickle格式。我将使用这个
模型
,我需要找出这个
模型
是在哪个版本
的
xgboost
上构建
的
。我该怎么做呢?
浏览 12
提问于2021-11-22
得票数 0
1
回答
xgb.cv似乎只使用训练数据进行xfold验证?
、
、
我对R
中
的
ml和尝试构建一个10倍交叉验证
的
xgboost
模型
是相当陌生
的
。我在这里看到了文档: https://www.rdocumentation.org/packages/
xgboost
/versions/1.1.1.1/topics/xgb.cv 然而,在这个示例
中
,它纯粹使用训练数据任何使用过这个包的人都能帮助我理解这个交叉验证
模型
是如何测试<e
浏览 22
提问于2020-07-24
得票数 0
回答已采纳
1
回答
当数据大小被缩放时,最佳
的
超
参数
是否保持不变?
、
、
、
我目前遇到
的
问题是,我
的
数据集由28亿行组成,我把它作为一个Pyspark数据框架。保持数据
的
总体分布,并将其缩小到6,000万或7,000万行,这样就可以作为Pandas数据帧使用现在,我
浏览 0
提问于2022-07-18
得票数 1
1
回答
基于粒子群算法
的
R神经网络训练
、
、
我已经知道了所有关于神经网络
的
R包( neuralnet,AMORE等),但这些包
中
没有一个包括PSO训练(只有反向传播)。 想法?谢谢你
的
帮助。
浏览 2
提问于2012-04-25
得票数 6
4
回答
XGBoost
输出趋向极端
、
、
、
、
目前,我正在使用
XGBoost
进行风险预测,它似乎在二元分类部门做得很好,但概率输出却相去甚远,即将观测
中
的
特征值更改很小,可以使概率输出
从
0.5提高到0.99。我几乎看不到0.6到0.8范围内
的
输出。在所有情况下,概率都小于0.99或1。 我知道培训后校准方法,如普拉特比例和Logistic校正,但我想知道,如果有什么我可以调整在
XGBoost
的
培训过程。我使用FFI从不同
的
语言调用
XGBoost
,所以如果我可以修复这个问题,而不引
浏览 0
提问于2018-01-24
得票数 18
1
回答
卡雷特“火车”或特殊包裹
我看到在卡雷特
的
“列车”函数中有一个
XGBoost
包和一个
XGBoost
选项。这两种选择有什么不同,是因为它们提供了不同
的
设置吗?更普遍地说,如何在使用"train“函数和方法
的
独立包之间作出选择?
浏览 0
提问于2019-08-19
得票数 1
回答已采纳
1
回答
从
Python
中
的
H2OXGBoostEstimator
模型
中提取原生
xgboost
模型
、
、
、
有没有可能用Python语言
从
H2OXGBoostEstimator
模型
中提取原生
的
xgboost
模型
pickle文件,然后由原始
的
XGBoost
Python API读取?谢谢!
浏览 0
提问于2018-09-27
得票数 1
1
回答
如何使用AWS SageMaker进行外部
XGBoost
超
参数
调优?
、
、
、
我现在拥有的是: 一个完全用Python构建
的
二进制分类应用程序,其中
xgboost
是ML
模型
。这里,
xgboost
有一组
从
SageMaker获得
的
优化
的
超
参数
。一个SageMaker笔记本,用于启动
xgboost
的
超
参数
调优作业。然后,我在Python应用程序
中
手动复制和粘贴
超
参数
到
xgboost
浏览 2
提问于2019-09-19
得票数 0
1
回答
首先要做
的
是:自动化
的
xgboost
模型
参数
调优(Hyperopt)或特性选择(boruta)
、
、
、
、
我通过从数据集不同部分创建
的
许多小
的
xgboost
模型
来对客户进行分类。由于很难手动支持许多
模型
,所以我决定通过Hyperopt自动调整
超
参数
,并通过Boruta进行特性选择。你能告诉我,首先应该做什么:
超
参数
调优还是功能选择?另一方面,这并不重要。在功能选择之后,功能
的
数量
从
2500个减少到100个(实际上,我有50个真实特性,5个分类功能通过OneHotEncoding转到2400个)。 如果需
浏览 2
提问于2020-07-09
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
你知道机器学习中的模型参数和超参数之间的区别吗?
XGBoost缺失值引发的问题及其深度分析
几行代码搞定ML模型,低代码机器学习Python库正式开源
对比TensorFlow提升树与XGBoost:我们该使用怎样的梯度提升方法
交叉验证和超参数调整:如何优化你的机器学习模型
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券