首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >ImportError:没有名为scipy.stats._continuous_distns的模块

ImportError:没有名为scipy.stats._continuous_distns的模块
EN

Stack Overflow用户
提问于 2019-11-19 22:34:10
回答 1查看 331关注 0票数 1

我有一个火花作业,它最后使用saveAsTable将数据写入到内部表w/ a给定的名称中。

dataframe是使用不同的步骤创建的,其中一个步骤是在one中使用" beta“方法,其中我通过=>从scipy.stats导入beta导入它。它运行在google云w/ 20工作节点上,但是我得到了下面的错误,它在抱怨the包,

代码语言:javascript
运行
复制
  Caused by: org.apache.spark.SparkException: 
  Job aborted due to stage failure: 
  Task 14 in stage 7.0 failed 4 times, most recent failure: 
  Lost task 14.3 in stage 7.0 (TID 518, name-w-3.c.somenames.internal, 
  executor 23): org.apache.spark.api.python.PythonException: Traceback (most recent call last):
  File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/worker.py", line 364, in main
  func, profiler, deserializer, serializer = read_command(pickleSer, infile)
  File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/worker.py", line 69, in read_command
  command = serializer._read_with_length(file)
  File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/serializers.py", line 172, in 
  _read_with_length
  return self.loads(obj)
  File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/serializers.py", line 583, in loads
  return pickle.loads(obj)
  ImportError: No module named scipy.stats._continuous_distns

有什么想法或解决办法吗?

我也试图通过图书馆的火花工作:

代码语言:javascript
运行
复制
"spark.driver.extraLibraryPath" : "/usr/lib/spark/python/lib/pyspark.zip",
"spark.driver.extraClassPath" :"/usr/lib/spark/python/lib/pyspark.zip" 
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-11-20 03:10:24

该库是否安装在集群中的所有节点上?您可以简单地做一个

代码语言:javascript
运行
复制
pip install --user scipy

我在AWS EMR中使用了引导操作,在Google云上也应该有类似的方法

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58943859

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档