我正在尝试在pyspark databricks环境中使用spark_df_profiling。我得到了以下错误。
> pip install spark_df_profilingfrom datetime import datetime
import spark_df_profiling
df = sql("select * from ab.data").cache()ImportError: No module named 'spark_df_profiling'
---------------------------------------------------------------------------
ImportError Traceback (most recent call last)
<command-2036534138125494> in <module>()
1 from datetime import datetime
----> 2 import spark_df_profiling我该如何解决这个问题?
发布于 2019-07-31 09:51:51
对于Databricks,最好使用dbutils.library.installPyPI方法来安装包。
dbutils.library.installPyPI("spark_df_profiling")
import spark_df_profilinghttps://stackoverflow.com/questions/57281932
复制相似问题