我想在windows 10上安装Spark2.1.1,我使用了中提到的一步一步的指南C:\>”spark\spark-2.1.1-bin-hadoop2.7\bin\spark-shell”The system cannot find the path specified.我正在一个虚拟盒上的Windows 10机器
从我到目前为止所做的研究来看,试图在Windows上使用Spark似乎是一个常见的问题,而且通常与设置错误的路径有关。在Windows7(64位)中,尝试从命令提示符运行spark-shell返回The system cannot find the path specified。但是,我可以在可能的目录中运行相同的命令(尽管有一些错误),这使我相信这是一个路径问题,就像其他大多数关
我希望在我的Windows10机器上安装PySpark,但一直无法正确指定PYSPARK_SUBMIT_ARGS参数。这是我从gitbash运行"pyspark“命令时看到的错误: $ pyspark
set PYSPARK_SUBMIT_ARGS="--name" "PySparkShell" "pyspark-shell在我的.bashrc文件中,我的路径当前指定为: e
我现在在Windows电脑上启动火花壳有困难了.我正在使用的Spark版本是1.5.2预为Hadoop2.4或更高版本构建的。我认为火花-贝类. and可以在没有任何配置的情况下直接运行,因为它是预先构建的,我不知道是什么问题使我无法正确启动火花。除了打印出来的错误消息外,我还可以在命令行上执行一些基本的scala命令,但显然这里出了问题。(Shell.java:445)
at org.apache.hadoop.ut