腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
没有
GPU
进行
开发
的
情况下
运行
RAPIDS
?
、
、
有
没有
办法
在
没有
GPU
的
情况下
运行
RAPIDS
?我通常在
没有
GPU
的
小型本地计算机上
进行
开发
,然后将代码推送到功能强大
的
远程服务器上以供实际使用。像TensorFlow这样
的
东西允许
在
CPU和
GPU
之间
进行
切换,这取决于它们是否可用。同样
的
事情也可以用<em
浏览 20
提问于2019-09-06
得票数 2
3
回答
火花急流-操作不被
GPU
版本所取代
、
、
我刚接触过
Rapids
,很难理解支持
的
操作。AAACACCGCCGT| 3| [3]|提到collect_list只受窗口支持,据我所知,这就是我
在
代码中所做
的
但是,查看查询计划,很容易看到collect_list不是由
GPU
执行
的
: scala> x.withColumn("source_seqs", collect_list("source_
浏览 0
提问于2021-05-20
得票数 1
回答已采纳
1
回答
如何从ML库(如DataFrame或Tensorflow )访问
GPU
中
的
火花PyTorch数据
、
、
、
、
目前,我正在研究如何使用ApacheSpark3.0和
Rapids
加速。
在
官方
的
spark-
rapids
文档中,我遇到了,它声明:
在
某些
情况下
,您可能希望访问
GPU
上
的
原始数据,最好不要复制它。这方面的一个用例是
在
进行
特征提取之后将数据导出到ML框架。对我来说,这听起来好像可以使
GPU
上已经可以从上游
的
Spark进程中获得
的
数据直接提供给诸如Tensorflo
浏览 4
提问于2021-01-04
得票数 1
回答已采纳
2
回答
火花急流不加载( CSV不支持文件格式错误,拼板
没有
错误)
、
、
我正在使用一个带有2xNVidia A100
GPU
的
Ubuntu20.04.4服务器。Spark (3.3.0)正常工作,但是当我试图通过
RAPIDS
使用
GPU
时,它只是一直
在
等待,而
没有
加载数据。我试着以CSV和parquet文件
的
形式加载数据,但是失败了。我正在调用
GPU
的当前方式如下所示,尽管我尝试了许多在互联网上可以找到
的
组合。我还使用spark-submit提交作业,这导致了如下所示
的
问题。如能帮助纠正这
浏览 7
提问于2022-08-08
得票数 0
回答已采纳
1
回答
ModuleNotFoundError: google中
没有
名为“cudf”
的
模块
、
我尝试导入cudf并获得以下错误:<ipython-input-2-4d311da055f8> in <module>()我遗漏了什么?
浏览 4
提问于2020-08-05
得票数 1
回答已采纳
1
回答
运行
pyspark时获取Java输出
、
、
、
当我
在
Ubuntu上
的
Jupyter Notebook中
运行
PySpark时,我有时会遇到Java失败
的
问题。我为什么需要这些日志
的
例子是,例如,我试图
在
DGX-1机器上
的
PySpark上
运行
Rapids
,但它在初始化Spark Context时以类似abo
的
Java崩溃而结束。这不是导致这些错误
的
唯一原因,但这段代码很容易
在
我这边导致这些错误。",script) con
浏览 7
提问于2021-02-02
得票数 0
1
回答
你能在同一个conda环境中安装
Rapids
0.16和TF 2.2吗?
、
、
我尝试过,但总是遇到冲突。
浏览 2
提问于2020-11-27
得票数 0
2
回答
如何在管道中使用
RAPIDS
来加速由容器分隔
的
模块
、
、
、
、
我们有一个功能,允许用户通过UI界面拖放一个模块,形成一个数据处理管道,如读取数据、
进行
预处理、
进行
分类训练等。拖放后,这些模块将按顺序执行。每个模块将启动一个容器(通过k8s)
运行
,前一个模块处理
的
结果以文件
的
形式保存到cephfs中,下一个模块读取该文件,然后执行操作。这个序列化/反序列化过程很慢。我们计划使用
RAPIDS
来加速这个管道:通过将数据放在
GPU
MEM中来改善模块间
的
数据交换。使用cuDF/cuML而不是Panda
浏览 2
提问于2019-04-03
得票数 4
1
回答
在
Ubuntu上安装CUDA +
RAPIDS
-“
没有
可用
的
内核映像”
、
、
、
我正在尝试开始使用CUDA +
RAPIDS
。为此,我使用Ubuntu18.04和NVIDIA Tesla K80
在
Google Compute上启动了一个虚拟机。下面是我为了安装软件而
运行
的
命令: wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/cuda-ubuntu1804numpy pandas scikit-learn mat
浏览 49
提问于2019-09-01
得票数 0
1
回答
scala急流使用不透明
的
UDF对单个列生成另一列数据
、
、
、
、
我试图熟悉使用Scala
的
(3.3)
的
-based计算。
在
能够使用
GPU
方面的主要争论似乎来自UDF
的
黑匣子性质。一个自动
的
解决方案是。但在有循环
的
情况下
,它是行不通
的
。如果是这样的话,至少
在
某些
情况下
,即使火花代码
没有
变化,
GPU
的
性能也是可以获得
的
,即使在数据大小远高于
GPU
内存
的
<em
浏览 16
提问于2022-07-27
得票数 1
回答已采纳
1
回答
如何强制Google使用
GPU
(使用外部包确保
GPU
被使用)?
、
、
、
因此,我使用谷歌Colab,因为我有一些功能,我需要执行
的
时间太长,
在
我
的
cpu。我已经将
运行
时设置为
GPU
附加程序,但是当我
运行
单元时,仍然会收到这样
的
消息:“警告:您连接到
GPU
运行
时,但
没有
利用
GPU
”。 我知道这意味着我正在
运行
的
代码只是使用我
的
cpu。然而,使用我
的
cpu,这个函数需要几个小时才能执行。这就是为什么我想
浏览 13
提问于2022-08-10
得票数 0
1
回答
采用NVIDIA SLI
的
TensorFlow容器中
的
图形处理器内存
、
、
我已经用两个RTX 2070 SUPER NVIDIA
GPU
构建了一台机器学习计算机,该
GPU
连接到Windows操作系统
的
SLI Bridge (
在
NVIDIA控制面板中验证了SLI)。我已经使用http://ai-benchmark.com/alpha对系统
进行
了基准测试,并获得了令人印象深刻
的
结果。为了充分利用使用
GPU
完成科学任务(cuDF)
的
库,我创建了一个TensorFlow Linux容器: https:&
浏览 29
提问于2020-04-30
得票数 0
回答已采纳
2
回答
有
没有
一种
在
windows上
运行
RAPIDS
的
方法?
、
我正试图
在
windows电脑上
运行
Nvidia急流,但
没有
任何运气。我已经为windows安装了停靠桌面,并下载了急流图像。已经安装了Cuda 10.0,而Nvidia-容器-工具箱
没有
安装,我还没能让它
运行
。有什么想法或指导吗?
浏览 1
提问于2019-10-30
得票数 8
回答已采纳
4
回答
在
Googe笔记本上安装
RAPIDS
库
、
我想知道我是否可以
在
谷歌
的
笔记本电脑上安装库(完全
在
GPU
上执行机器学习任务)? 我做了一些研究,但我一直找不到办法.
浏览 3
提问于2018-12-17
得票数 2
回答已采纳
2
回答
解释失败
的
conda安装
的
包请求冲突
、
、
、
、
=0.14Determining conflicts: 0%|it/s]Package numba conflicts for:
rapids
=0.14 -> cudf
浏览 8
提问于2020-07-30
得票数 1
回答已采纳
1
回答
Python用于训练机器学习模型时
的
记忆错误
、
、
、
、
我正在使用python 3与nvidia急流,以加快机器学习培训使用孜然库和
GPU
。这是我用来训练孜然模型
的
代码。2调用cuMemAlloc
在
CUDA_ERROR_OUT_OF_MEMORY中
的
结果 encoded_d
浏览 0
提问于2019-06-06
得票数 1
2
回答
急流提供了达斯克
没有
的东西?
、
、
、
、
我想了解什么是达斯克和急流之间
的
区别,什么是急流提供
的
好处,达克
没有
。 急流内部是否使用dask代码?如果是这样的话,那为什么我们有达斯克,因为即使是达斯克也可以与
GPU
进行
交互。
浏览 3
提问于2020-03-18
得票数 8
回答已采纳
1
回答
Dask-快速数据移动和内存不足问题
、
、
、
我
在
我
的
项目中使用了dask (2021.3.0)和
rapids
(0.18)。在这个过程中,我
在
CPU上执行预处理任务,然后将预处理后
的
数据传输到
GPU
进行
K均值聚类。但在这个过程中,我遇到了以下问题: 1个工作任务中
的
1个失败: std::bad_alloc: CUDA错误:
GPU
内存不足(
在
完全使用~/envs/include/rmm/mr/device
浏览 9
提问于2021-03-19
得票数 0
1
回答
Kaggle Notebook环境下无法导入cuxfilter包
、
、
、
我正在使用一个>5 5GB
的
CSV文件,用于Kaggle中
的
竞争。我正在使用cudf和cuml
进行
数据预处理和机器学习。但对于可视化,我
的
计划是使用Plotly使用
GPU
加速可视化。由于Kaggle docker还
没有
包含
Rapids
,所以我使用以下数据集来安装它。 但我无法
在
Kaggle笔记本中导入"cuxfilter“包,即使
在
使用上述数据集安装
rapids
之后。import cuxfilter
浏览 3
提问于2020-10-13
得票数 0
1
回答
cuML RandomForestClassifier: CUDA错误与文档示例
、
、
、
我试图
在
木星笔记本上
运行
这个例子,这个例子找到了,并复制了下一篇cuML关于分类
的
介绍--它在6000以下
的
n_samples中
运行
良好(这个参数指示生成
的
数据集
的
行数)from请注意: 将n_features从10增加到5000,而n_samples = 5000
运行
得非常好。因此,这似乎是数据集
的
行数,而不是列数
的
问题。
在
机器上可用
的
2个
G
浏览 4
提问于2021-06-03
得票数 0
点击加载更多
相关
资讯
研究人员开发机器学习算法,使其在没有负面数据的情况下进行分类
无需验证师:如何让大型语言模型在没有答案检查者的情况下进行更好的推理
在没有构建系统的情况下编写 Javascript|Linux 中国
Blockchain技术能否在没有加密货币的情况下生存?
使用GaLore在本地GPU进行高效的LLM调优
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券