我安装了sabayon linux并尝试安装pycuda,但是当我尝试时,我收到了以下错误
su -c“”
在src/cpp/cuda.cpp:1:0: src/cpp/cuda.hpp:12:18:致命错误: cuda.h:没有终止这样的文件或目录编译。错误:命令“x86_64-pc-linux-gnu-g++”失败,退出状态为1
我必须指出,我可以用库达编译。
同样的事情也发生了,当我尝试
sudo -E sh -c“”
我的.bashrc是:
# Put your fun stuff here.
export PATH=~/bin:$PATH
export PATH=$
我正在尝试遵循中的示例,我使用了Ubuntu18.04.3LTS,clangVersion9.0.0-2,我拥有的设备是(来自deviceQuery输出的片段):
Detected 1 CUDA Capable device(s)
Device 0: "Quadro P520"
CUDA Driver Version / Runtime Version 10.2 / 10.2
CUDA Capability Major/Minor version number: 6.1
我执行了命令:
clang++-9 --verbose --cuda-pa
当我用cmake编译我的cuda代码时,我似乎无法得到以下警告:
cc1: warning: command line option ‘-std=c++11’ is valid for C++/ObjC++ but not for C [enabled by default]
我已经将问题简化为编译,而不是我的源代码。下面是一个简化(但有效)的示例:
main.cu:
#include <iostream>
int main(void) {
std::cout << "test" << std::endl;
}
CMakeLists
系统: Ubuntu 11.10 x86_64 CUDA: v2.1
当我尝试编写一个像matrixMul这样的示例程序时,我得到了大量的错误,其中大多数是“未知的类型名称‘size_t’”。我已确保将/usr/local/cuda/bin放入我的路径中,并将/usr/local/cuda/lib放入/etc/ld.so.conf.d中的.conf中。
你知道为什么我会收到这些错误吗?
matrixMul$ make emu=1
In file included from /tmp/tmpxft_00004089_00000000-1_matrixMul.cudafe1.stub.c:5:0,
我在我的Ubuntu 12.10 64位上安装了Cuda5。我有一台GTX 675M,所以我用大黄蜂在我的cuda设备上运行应用程序。我正在通过大黄蜂运行nsight (optirun):
frederico@zeus:~$ optirun /usr/local/cuda/libnsight/nsight
它工作得很好,我可以编译和执行应用程序。问题是,当我尝试在nsight中使用cuda-gdb时,当单击调试按钮时,我得到了以下错误:
No source available for "main() at 0x403c6f"
但是如果我尝试在控制台上使用cuda-gdb,它可
当我编译我的java程序时,我得到了这个错误:
error: Class names, 'EnumDevices', are only accepted if annotation
processing is explicitly requested
1 error
这是java代码(我在Ubuntu上运行)。
import jcuda.CUDA;
import jcuda.driver.CUdevprop;
import jcuda.driver.types.CUdevice;
public class EnumDevices {
public st
我正在我的Linux上安装OpenMPIv1.8.8和CUDA v7.5。我测试过数据自动化系统,它起作用,测试了OpenMPI,它也起作用了。但是,当我试图将它们合并到程序中时,会遇到一个错误:无法找到cuda.h文件。这是我的场景:
我的程序源代码包括这些.h文件
include "cuda.h" include "mpi.h"
我运行命令:mpicc <filePath> -o test And error appear:cuda.h:没有这样的文件或目录#包括“cuda.h”
omp_info给我:mca:mpi:base:param:mpi
我试着用CUDA写一个GPU程序。下面是我的函数:
__global__ static void
histogram_gpu(int * hist_out, unsigned char * img_in, int img_size, int nbr_bin){
int i;
const int bid = blockIdx.x;
const int tid = threadIdx.x;
// for ( i = 0; i < img_size; i ++){
// hist_out[img_in[i]] ++;
// }
f
当我运行make命令在Linux64bit下完成一个CUDA程序时,我会收到以下错误消息:
error: cutil.h: No such file or directory
我找到了一些答案,但都没有用。
在makefile中,有一个CUDA_SDK_PATH,但是在CUDA入门指南中找不到任何有用的SDK:
我应该如何设置为CUDA-SDK-PATH__?
我一直在尝试安装OpenMP 4.5卸载到Nvidia GPU版本的gcc有一段时间,到目前为止,没有成功,虽然我正在接近。
这一次,我遵循进行了两个更改:第一,我指定了gcc的主干版本,而不是7.2;其次,根据github存储库,nvptx-tools中包含了nvptx-newlib,所以我删除了脚本的这一部分。为了便于参考,原始脚本是
#!/bin/sh
#
# Build GCC with support for offloading to NVIDIA GPUs.
#
work_dir=$HOME/offload/wrk
install_dir=$HOME/offload/
我正在运行cuda-memcheck来调试代码,输出如下所示
========= Program hit cudaErrorCudartUnloading (error 29) due to "driver shutting down" on CUDA API call to cudaFree.
========= Saved host backtrace up to driver entry point at error
========= Host Frame:/usr/lib/x86_64-linux-gnu/libcuda.so.1 [0x2e40d3
我试图用Intel编译器作为主机编译器来编译cuda程序。cuda程序是用C++编写的,使用了c++11特性。如果我使用默认主机编译器g++,那么它运行良好。但是我想尝试英特尔编译器,因为在g++中可能存在性能问题。
我使用的编译器是CUDA 7.5和Intel 16.0.3。它们是最新的编译器,所以它们都支持c++11特性。
下面是我用一个小测试文件所做的尝试:
nvcc -std=c++11 -ccbin=icpc -Xcompiler=-std=c++11 test.cu -o test
这是输出:
nvcc warning : The -c++11 flag is not suppor
我正试图在CUDA支持下编译项目。在没有CUDA支持的情况下,我编译它的时候,它运行得很好。但是,当我使用CUDA支持编译时,我会得到链接器错误。为了编译这个项目,我的环境是Ubuntu18.04LTS 64位,使用GCC-4.8和NVCC6.0.
链接器错误:
/usr/bin/x86_64-linux-gnu-ld: obj/cu/network/cuda/cudanetwork.o: relocation R_X86_64_32S against `.bss' can not be used when making a PIE object; recompile with -fP