腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(8685)
视频
沙龙
1
回答
H2o AutoML能否从Sagemaker平台上的GPU实例中获益?
gpu
、
h2o
、
amazon-sagemaker
、
automl
我正在
使用
Sagemaker笔记本实例与H2o AutoML一起运行一些项目,我想知道H2o AutoML是否可以从GPU Sagemaker实例中受益,如果可以,我应该如何配置笔记本?
浏览 18
提问于2019-09-06
得票数 2
回答已采纳
1
回答
如
何在
训练
XGBoost
模型
时
使用
图形
处理器
?
python
、
gpu
、
xgboost
我一直在尝试在Jupyter Notebook中
训练
一个
XGBoost
模型
。我通过以下命令安装了
XGboost
(GPU): git clone — recursive https://github.com/dmlc/
xgboost
mkdir build-DUSE_CUDA=ON make -j 但是每当我尝试
训练
模型
而不是model.fit
时
,内核都会在几分钟后重新启动。
浏览 23
提问于2020-01-23
得票数 3
2
回答
既然TensorflowJS可以通过WebGL
使用
图形
处理器
,我为什么还需要nVIDIA
图形
处理器
呢?
tensorflow
、
machine-learning
、
deep-learning
、
gpgpu
、
tensorflow.js
因此,TensorFlowJS可以
使用
WebGL进行
图形
处理器
计算和
训练
深度学习
模型
。为什么这不比在nVIDIA
图形
处理器
上
使用
CUDA更受欢迎呢?大多数试图建立机器学习
模型
原型的人都喜欢在他们的个人电脑上这样做,但如果我们没有一台配备nVIDIA
图形
处理器
的电脑,我们中的许多人都会求助于昂贵的云服务,
如
亚马逊网络服务(尽管最近谷歌Colab提供了帮助)来进行机器学习
训练<
浏览 68
提问于2021-09-06
得票数 1
回答已采纳
1
回答
XGBoost
培训时间似乎太长
python
、
machine-learning
、
xgboost
、
training-data
我正在尝试
使用
XGBoost
包在Python语言中
训练
xgboost
分类器。我在分类器的所有参数上
使用
默认值,我的
训练
集有大约16,000个元素和每个元素的180,000个特征。我没有
使用
gpu来
训练
模型
,但尽管如此,
训练
过程已经花费了五个多小时,而且还在继续。我有32 I7的内存和6核的英特尔I7。我想知道现在是不是用我拥有的数据量
训练
这个分类器的正常时间,因为我听说有人在几分钟内
训练</
浏览 69
提问于2020-01-06
得票数 1
1
回答
如何将经过
训练
的
xgboost
基
模型
参数加载到
xgboost
中?
python
、
scikit-learn
、
xgboost
在Python中
使用
基础API (即
xgboost
.train(args))
训练
和保存
xgboost
模型
时
,我们可以
使用
.save_model()保存参数: import
xgboost
model我的目标是将一个经过
训练
的
xgboost
模型
(
使用
Learning API
训练
)加载到
xgboost
Scikit-Learn API中作为一个合适
浏览 100
提问于2021-07-15
得票数 0
1
回答
如
何在
xgboost
中找到分类树的残差
classification
、
xgboost
、
gbm
所以,在阅读和看了很多陈天琪和童贺的论文和演讲之后,我就明白了这种直觉。但是在现实中,如果您有一个数据集,那么如何根据上一轮树的残差来匹配另一个分类树呢?📷在那之后,我该如何称重他们才能组成一个整体?
浏览 0
提问于2018-02-13
得票数 0
2
回答
可以从本地内核
使用
TPU吗?
tpu
我正在尝试用TPU
训练
一个
模型
,但我必须
使用
Google Colab或类似的平台吗?
浏览 19
提问于2020-12-09
得票数 0
2
回答
用GPU
训练
H2O
模型
和用CPU进行预测是可能的吗?
gpu
、
cpu
、
h2o
对于培训速度来说,最好能用GPU
训练
H2O
模型
,获取
模型
文件,然后在没有GPU的机器上进行预测。从理论上看,这似乎是可能的,但在H2O版本3.13.0.341中,除了
XGBoost
模型
之外,这似乎不会发生。当我运行gpustat -cup
时
,我可以看到GPU在我
训练
H2O的
XGBoost
模型
时
发挥作用。这种情况不会发生在DL,DRF,GLM或GBM中。如果浮点大小的差异(16、32、64)可能导致一些不一致,更不用说
浏览 5
提问于2017-07-24
得票数 2
回答已采纳
3
回答
Python培训和星火部署
python-3.x
、
scala
、
apache-spark-mllib
、
xgboost
、
apache-spark-ml
是否有可能在python中
训练
XGboost
模型
,并
使用
保存的
模型
在火花环境中进行预测?也就是说,我想要能够
训练
的
XGboost
模型
使用
学习,保存
模型
。在火花中加载保存的
模型
,并在火花中进行预测。当我
训练
和预测
XGBoost
的不同绑定时,我会看到以下问题。在
训练
过程中,我将在python中
使用
,而在预测mllib中将
使用
浏览 2
提问于2019-10-21
得票数 1
2
回答
GPU/TPU上的PyCaret方法
jupyter-notebook
、
gpu
、
cpu
、
kaggle
、
pycaret
如
何在
图形
处理器
上运行setup()或compare_models()?在PyCaret中有内置的方法吗?
浏览 64
提问于2021-05-18
得票数 1
回答已采纳
1
回答
如
何在
python中获取xgb.train的超参数
python
、
xgboost
、
xgbclassifier
xgb.train是用于在Python中
训练
xgboost
模型
的低级API。当我
使用
XGBClassifier (它是一个包装器)并在对
模型
进行
训练
时调用xgb.train
时
,我可以打印XGBClassifier对象并打印超参数。在
使用
xgb.train
时
,我不知道如
何在
训练
后检查参数 bst = xgb.train(params, dtrain) bst.params # does
浏览 4
提问于2021-11-03
得票数 3
回答已采纳
1
回答
XGBoost
best max_depth=1
xgboost
我
使用
xgboost
来
训练
分类
模型
。GridCVSearch提供了最好的max_depth=1,这意味着我的成百上千的树在一个节点上被分割。这是否意味着我处理的问题/数据集可以
使用
简单的
模型
来分离,并且我不需要
使用
复杂的
模型
,
如
xgboost
?一般来说,如果所有树的深度都为1,那么
xgboost
是否比SVM/logistic回归等简单
模型
提供了更好的预测? 谢谢
浏览 76
提问于2019-02-28
得票数 2
1
回答
将用python
训练
的
xgboost
模型
加载到scala
python
、
scala
、
scikit-learn
、
xgboost
我
使用
sklearn api
训练
了一个
模型
,并保存了
模型
。from
xgboost
.sklearn import XGBClassifiermodel.fit(X_train, y_train)model.save_model("trained_model.model") 然后,我
浏览 3
提问于2017-09-06
得票数 4
回答已采纳
1
回答
Sagemaker中
XGBoost
分类数据集的矢量化
python
、
vectorization
、
xgboost
、
amazon-sagemaker
当我们
使用
AWS内置
模型
(
如
(container = sagemaker.image_uris.retrieve("
xgboost
", region, "1.2-1")) )
训练
XGB
模型
时
, 根据我的理解,培训工作需要
训练
和验证的数值向量。该
模型
只处理浮点数,(在Sagemaker之外,我可以
使用
TFIDF来向量化我的特性并构造一个DMatrix),但是这种方法似乎不受Sag
浏览 0
提问于2021-07-21
得票数 0
1
回答
停止基于eval_metric的
xgboost
r
、
machine-learning
、
xgboost
、
boosting
基于领域知识,我知道当eval_metric (根据
训练
数据进行评估)超过某个特定值
时
,
xgboost
是过拟合的。我只想在特定的轮次上采用拟合的
模型
,不再继续。这里有一个例子可以更好地用问题来解释。(
使用
xgboost
帮助文档附带的玩具示例并
使用
默认的eval_metric)data(agaricus.train, package=
浏览 17
提问于2017-01-24
得票数 0
1
回答
经过PyTorch
训练
的
模型
可以在GPU和TPU之间传输吗?
pytorch
、
gpu
、
tpu
在
使用
图形
处理器
训练
PyTorch
模型
后,我可以
使用
保存的权重在TPU上继续
训练
模型
吗?
浏览 6
提问于2021-09-25
得票数 0
0
回答
如
何在
iOS中运行Tensorflow对象检测API
模型
?
ios
、
tensorflow
、
neural-network
、
coreml
我刚刚
训练
了一个
模型
,结果令人满意,并且我有了frozen_inference_graph.pb。我该如
何在
iOS上运行它呢?它在固态硬盘Mobilenet V1上进行了
训练
,如果有帮助的话。最好是
使用
图形
处理器
(我知道tensorflow API不能在iOS上这样做),但是先把它放在CPU上就太好了。
浏览 1
提问于2017-12-07
得票数 1
3
回答
如
何在
Google Colab中拍摄和恢复另一个虚拟机上的
模型
训练
快照?
python
、
tensorflow
、
deep-learning
、
pytorch
、
google-colaboratory
根据谷歌colab的说法,有一个12小
时
的用于在
图形
处理器
上
训练
DL
模型
。其他人在过去也有过类似的,但是当超过12小
时
的限制
时
,如
何在
训练
中途保存和加载
模型
,包括保存已经完成的纪元数/保存其他参数,还没有明确的答案。
浏览 1
提问于2018-10-09
得票数 1
1
回答
在Google Colab中
使用
多个GPU的Tensorflow中的分布式
训练
tensorflow
、
gpu
、
distributed-computing
、
google-colaboratory
我正在
使用
Google Colab和Python3来实现一个带有定制的、分布式的
训练
循环的神经网络,
如
本指南中所述: 在“创建分发变量和
图形
策略”部分的指南中,有一些代码的图片,这些代码基本上设置了一个“MirroredStrategy”,然后打印生成的
模型
副本的数量,请参见下面的内容。据我所知,输出表明MirroredStrategy只创建了
模型
的一个副本,因此,只有一个GPU将用于
训练
模型
。我的问题是: Google Colab是否仅限于在单个GP
浏览 8
提问于2019-09-19
得票数 5
2
回答
Keras在前2个时期
使用
GPU,然后停止
使用
它
tensorflow
、
keras
、
deep-learning
、
gpu
现在,当我
使用
训练
生成器进行model.fit_generator
时
,
模型
使用
图形
处理器
并在前两个时期快速
训练
(
图形
处理器
内存已满,
图形
处理器
易失性
使用
率在50%左右波动很好)。然而,在第三个时期之后,GPU易失性
使用
率为0%,并且时期花费了20倍的时间。 这里发生了什么事?
浏览 2
提问于2020-04-18
得票数 0
点击加载更多
相关
资讯
Python机器学习(六)-XGBoost调参
CPU与GPU角色的互换对人工智能领域会产生新的体系结构的变化
聊聊XGBoost CatBoost LightGBM RF GBDT
LightGBM 一个快速的梯度提升框架!
XGBoost资料汇总,以及它背后的故事
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券