腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2670)
视频
沙龙
2
回答
pyspark
分组
映射
IllegalArgumentException
错误
、
例如: from
pyspark
.sql import SparkSession return pdf.assign(v=v - v.mean()) df.groupby("id").apply(subtract_mean).show() 给了我一个
错误
, most recent failure: Lost task 44.0 in stage 7.0 (TID 128,
浏览 55
提问于2020-01-01
得票数 3
1
回答
Spark2.x中无法加载Logistic回归模型
、
但是,在加载模型时,将面临以下问题from
pyspark
.ml.classification import LogisticRegressionModel
错误
消息:Settingget_return_value py4j.protocol.Py
浏览 0
提问于2018-10-03
得票数 1
回答已采纳
1
回答
实例化'org.apache.spark.sql.hive.HiveExternalCatalog‘时出错
、
我无法从
Pyspark
运行配置单元查询。我尝试将hive-site.xml复制到spark的conf中,但还是抛出了同样的
错误
完全
错误
Traceback (most recent call last): File "/usr/local/spark-2.4.0/python/
pyspark
/sql/context.py&
浏览 202
提问于2020-04-07
得票数 2
10
回答
星星之火2.1 -实例化HiveSessionState时出错
使用Spark2.1的新安装,我在执行
pyspark
命令时得到了一个
错误
。Traceback (most recent call last):
浏览 7
提问于2017-03-22
得票数 9
回答已采纳
1
回答
我在创建SparkSession时获取
IllegalArgumentException
、
、
我在spark 2.1.0和python 2.7上使用
pyspark
和jupyter笔记本。我正在尝试使用下面的代码创建一个新的SparkSession;from
pyspark
import SparkConf .getOrCreate() sqlContext = S
浏览 4
提问于2017-02-10
得票数 2
1
回答
如何修复从Azure blob加载数据时的
错误
?
df = spark.read.load('abfs[s]://folder/a_p_c_w.csv')但是越来越少的
错误
。有人能帮帮我吗。
IllegalArgumentException
: java.net.URISyntaxException: Illegal character in scheme name Traceback (most recent call las
浏览 9
提问于2022-01-12
得票数 0
1
回答
Pandas它是否保持组中行的顺序?
、
、
我正在使用pandas_udf在
pyspark
中创建一个
分组
映射
(拆分-应用-组合模式) UDF,并且我需要知道在传递给UDF时是否保持行的顺序(我的转换取决于每个组的行的顺序)。
浏览 1
提问于2020-04-25
得票数 1
回答已采纳
1
回答
预期为: file:///‘的
IllegalArgumentException
: U’‘Wrong: file://spark-warehouse,
、
、
、
我正在尝试使用
PySpark
将Postgres数据库加载到Spark中:from
pyspark
import SparkConfdf = sqlContext.read.jdbc(url=url, table='myTable', properties=properties) 我得到了下面的
错误
QueryExecutionException(s.split
浏览 19
提问于2016-09-16
得票数 3
1
回答
pyspark
.sql.utils.
IllegalArgumentException
、
、
sample_files/column_containing_JSON_data.csv :来自F:/spark/sample_files/column_containing_JSON_data.csv的路径名
pyspark
.sql.utils.
IllegalArgumentException
不是一个有效的
pyspark
.sql.utils.
IllegalArgumentException
文件名。我给出了本地输入文件路径(如下所示),但它正在尝试访问path(/F:
浏览 2
提问于2021-07-23
得票数 0
2
回答
读取多个json文件时出错
Pyspark
、
我正在尝试将大约300个单独的json文件读取到
pyspark
中。我可以只读一个,但是一旦我使用了通配符,它就会出错:我已经尝试应用了以下代码:from
pyspark
import SparkContext, SparkConf sc = SparkContext(appName='a
浏览 1
提问于2019-07-25
得票数 0
1
回答
pyspark
.sql.utils.
IllegalArgumentException
: U‘java.net.UnnownHostException: user’
、
、
我是
Pyspark
的新手,我正在试着做一个简单的计数。然而,它给了我这个
错误
。文本文件在hdfs中。代码:>>> mydata.count()Traceback (most recent calllast): File &qu
浏览 0
提问于2016-10-24
得票数 7
1
回答
计算带有点‘’的数据帧列的approxQuantile。
我无法计算列名称中包含点的
pyspark
数据帧的approxQuantile。数据帧模式是 root |-- col.dot: double (nullable = true) 那我就不能 df.approxQuantile(('`col.dot`'), [0.5], 0.25) 导致
错误
:
pyspark
.sql.utils.
IllegalArgumentException
:‘字段"col.dot“不存在。\n可用字段: col.dot’ 我也试过 df.approxQuantile((&
浏览 7
提问于2019-06-12
得票数 1
3
回答
将
pyspark
groupedData对象转换为spark Dataframe
我必须在
pyspark
数据帧上进行2级
分组
。我的试探性的:grouped_df.groupby(["C"]).count()'GroupedData' object has no attribute 'groupby' 我想我应该首先将
分组
的对象转换为
pySpark
DF。
浏览 2
提问于2017-10-18
得票数 7
回答已采纳
1
回答
Pyspark
错误
java.lang.
IllegalArgumentException
、
、
(F.col('filled_serie'))) 1258 Py4JJavaError: An error occ
浏览 0
提问于2018-09-16
得票数 2
1
回答
从决策树回归器中拟合训练数据会导致崩溃
、
、
尝试在一些训练数据上实现决策树回归算法,但是当我调用fit()时,会得到一个
错误
。DecisionTreeRegressor(featuresCol="features", labelCol="_11") 生成
错误
_fit_java(dataset) File "/opt/spark/python/
pyspark
/ml/wrapper.py",
浏览 2
提问于2019-10-04
得票数 0
回答已采纳
1
回答
使用选项(没有Spack包)启动火花放电时出错
、
有人能告诉我为什么我会收到下面的
错误
吗?根据火花放电-卡桑德拉连接器的自述,下面我正在尝试的东西应该可以工作(没有星火包): $
pyspark
_egg=&qu
浏览 3
提问于2016-01-10
得票数 5
回答已采纳
1
回答
线程"main“中出现异常:java.lang.
IllegalArgumentException
不支持任何应用程序选项
在
pyspark
中配置jupyter notebook时,它有一些
错误
:在.bashrc文件中:export
PYSPARK
_DRIVER_PYTHON=jupyter当我输入
pyspark
时,它显示[C 13:51:52.029 Notebo
浏览 2
提问于2017-06-25
得票数 0
1
回答
Spark.sql和sqlContext.sql
、
我尝试从sqlCtx.read.format加载数据,在实例化sqlCtx.read.format
错误
的同时,我得到了"
IllegalArgumentException
: U“
错误
,但是当我使用spark.read.formatimport osimport pandas as pdimport osimport refrom
pyspark</e
浏览 3
提问于2017-03-15
得票数 3
回答已采纳
2
回答
将
PySpark
数据存储在SQL数据库中的Synapse中会出现
错误
"
IllegalArgumentException
: KrbException:无法找到默认领域“
、
、
、
forwardSparkAzureStorageCredentials", "true")\ .save()
IllegalArgumentException
: KrbException: Cannot locate default realm------------------------------------------------------
浏览 12
提问于2022-06-21
得票数 1
回答已采纳
5
回答
为什么火花放电不能找到蜂箱连接到亚稳态,请设置spark.sql.hive.metastore.jars?
、
我使用的是一个带有两个节点的ApacheSparkVersion2.0.0独立集群,而且我还没有安装hive.I在创建dataframe时得到了以下
错误
。from
pyspark
import SparkContextsqlContext = SQLContext(sc)----> 1 sqlContext.createDataFrame(l).collect() /home/mok
浏览 3
提问于2016-08-27
得票数 9
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
ARP映射错误处理案例分享
Power BI分组统计优化:解决总计错误的问题
【Fusioncloud】fusioncloud6.3.1扩容AZ时候网络自动分组、调整物理网络平面映射关系失败
一文读懂PySpark数据框
一文读懂 PySpark 数据框
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券