腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(503)
视频
沙龙
1
回答
将
3mn
行
数据
帧
从
Spark
上
传到
BigQuery
时
出错
(
使用
谷歌
连接器
)
、
、
在pyspark中执行完脚本后,我尝试
使用
将
数据
帧
保存到
BigQuery
中。尽管它在<1mn
行
的情况下运行得很流畅,但在运行
3mn
行时会返回错误(尽管
数据
结构完全相同)。我的代码遵循google示例(但修改为我的项目/
数据
集/
数据
帧
):output_dataset
浏览 22
提问于2016-08-19
得票数 2
3
回答
以高效的方式
从
BigQuery
读取到
Spark
?
、
、
、
当
使用
从
BigQuery
读取
数据
时
,我发现它首先将所有
数据
复制到Google Cloud Storage。然后
将
这些
数据
并行读取到
Spark
中,但当读取大表
时
,复制
数据
阶段需要很长时间。那么有没有更有效的方法
将
数据
从
BigQuery
读取到
Spark
中呢? 另一个问题:
从
BigQuery
浏览 6
提问于2017-01-04
得票数 7
回答已采纳
1
回答
从
bigquery
导入到google sheets限制为10k
行
我正在尝试
从
google
bigquery
导入一个表格到google sheets。
数据
>
数据
连接器
>大查询,但当我导入它
时
,它显示限制为10,000
行
。 有没有办法超过这一限制?
浏览 1
提问于2020-07-06
得票数 0
2
回答
通过Apps脚本的大查询API --我在一个较大的表上得到一个错误,但是在一个较小的表上工作。通过应用程序脚本有大小限制吗?
、
、
我正在
使用
Apps脚本向
BigQuery
发送查询var request = { 'FROM bigquerytest-282720.test
浏览 1
提问于2020-07-09
得票数 0
1
回答
使用
BigQuery
提取Google Analytics
数据
并在SQL Server中加载
、
、
、
、
我必须
使用
BigQuery
从
Google Analytics中提取
数据
,并将JSON加载到SQL Server。我知道我们可以在C#中调用GS,在JSON中流式传输
数据
,并将其上
传到
Google Storage中,然后
使用
GSUTIL.exe
将
JSON文件
从
GS复制到
BigQuery
服务器进行处理。我的问题是- 有没有一种方法可以直接
将
JSON流式传输到ETL服务器,而不是上
传到
G
浏览 14
提问于2017-01-24
得票数 0
1
回答
从
python上载到
BigQuery
时
,某些
行
出现ASCII0错误
、
、
我正在做一个
从
API到Google
BigQuery
环境的ETL。在尝试
使用
pandas_gbq.to_gbq()
将
熊猫
数据
帧
上
传到
bigquery
时
,我遇到了这个错误: google.api_core.exceptions.BadRequest: 400 Error在检查了我收到此错误的
行
之后,我找不到ASCII符号。我只在Dataframe中的几行中得到了这个错误,所有其他行都可以上载而不会
出错
浏览 31
提问于2021-10-11
得票数 3
1
回答
无法在Jupyter笔记本中绘制Pandas
数据
帧
、
、
我正在
使用
Spark
-
BigQuery
连接器
从
BigQuery
读取
数据
。我正在尝试获取这些
数据
的一个子集并绘制它,但是每当我尝试运行该命令
时
,内核都会断开/重新连接。我所做的与GitHub
上
的以下tutorial非常相似。我把
数据
读到了
Spark
Dataframe。然后,我
将
数据
帧
转换为Pandas
数据</e
浏览 12
提问于2020-04-20
得票数 1
回答已采纳
1
回答
使用
google maps engine
连接器
将
空间图层
从
QGIS上
传到
mapsengine
时
出现HTTP错误400
、
、
我安装了用于QGIS的“
谷歌
地图引擎
连接器
”-plugin,以便
将
点
数据
上
传到
mapsengine以生成嵌入到网站中的地图。我
使用
QGIS的原因是因为这个接口是因为我可以直接链接到我的postgis
数据
库,这比
从
mapsengine接口工作要方便得多。我的问题:每次尝试
将
地图
从
QGIS上
传到
我的mapsengine配置文件
时
,我都会收到一个错误: “获取
时
浏览 1
提问于2014-07-22
得票数 3
1
回答
从
文件系统中填充Properties对象
、
、
、
、
TL:DR或者,是否有一种方法可以
将
星火
数据
帧
行
转换为一组文本键/值对( Scala会理解)?全面问题: 属性文件不是本地的,它位于Databricks集群
上
。尝试
从
"dbfs:/“或"/dbfs”读取文件
时
,在
使用
scala.io.Source库
时
找不到文件。不过,我能够将该文件读
浏览 4
提问于2020-12-29
得票数 1
回答已采纳
1
回答
在PySpark中写入
BigQuery
表
时
的.partitionBy('id')
、
、
我正在把一个表格
从
BigQuery
读到
Spark
。现在,我想将结果
数据
帧
中的
行
根据id写到
BigQuery
中的不同表中。如果我正在写文本文件,我将
使用
write.partitionBy('id'),当我写到
BigQuery
时
,我能做什么?() 我在考虑按id分组/分区,然后
使用
python API for
BigQuery
为每个组创建一个新的表,然后<
浏览 1
提问于2019-11-19
得票数 0
2
回答
用于NRT
数据
应用的Google
、
、
、
、
同时,
数据
将
通过用于分析和ML的流和批处理(持久)管道提供。 我读到了
谷歌
云DataFlow,云存储,
BigQuery
和Pub。这可能不像部署双向tcp/ip应用程序那样高效(我担心
使用
http
时
的延迟),该应用程序可以
浏览 2
提问于2016-02-16
得票数 0
1
回答
如何复制源
Spark
模式的空状态并将其强制到目标
Spark
?
、
、
、
、
我在用
数据
库。对于较小的
数据
集,它工作得很好。对于较大的
数据
集来说,
使用
collect()函数代替rdd转换显然要糟糕得多。我要指出的是,我在这里要做的唯一一件事是
从
源模式复制空性部分,并在目标中相应地更改它,以便最终的dataframe。附加上下文:我之所以需要这样做,是因为我需要
使用
Spark
连接器
将
df_final写入(附加)到
谷歌
BigQuery
表。因此,即使我的
Spark
浏览 1
提问于2021-12-27
得票数 0
回答已采纳
3
回答
从
火花错误插入到CosmosDB
、
、
、
、
经过与
Spark
连接器
的长期斗争,我能够
从
CosmosDB收集中读取
数据
.现在,我想做相反的(插入),但发现了另一个障碍。下面是我要介绍的示例:。flights =
spark
.read.format("com.microsoft.azure.cosmosdb.
spark
").options(快速搜索后,我尝试
浏览 7
提问于2018-04-05
得票数 4
2
回答
从
Google
BigQuery
中提取
数据
的刷新需要花费很长时间。
、
我们对
BigQuery
<-> Tableau服务器与live 的结合感到非常满意。但是,我们现在希望在Tableau
上
使用
数据
提取程序(500 to )(因为这个
数据
源不太大,而且
使用
非常频繁)。这类似于
将
BigQuery
表缓慢导出到单个文件,这可以通过
使用
“雏菊链”选项()来解决。不幸的是,我们不能
使用
类似的逻辑与Google
BigQuery
数据
提取刷新在Tabl
浏览 5
提问于2016-01-04
得票数 4
1
回答
在
spark
中重新分区
数据
帧
不起作用
我有一个cassandra
数据
库,其中有大约400万条记录。我有3个
从
机器和一个驱动程序。我想将这些
数据
加载到
spark
memory中,并对其进行处理。当我执行以下操作
时
,它会读取一个
从
机器中的所有
数据
(6 Gb中的300MB),而所有其他
从
机器的内存都是未
使用
的。我
将
数据
帧
修复为3
帧
,但
数据
仍然在一台机器
上
。因此,由于每个作
浏览 0
提问于2015-09-25
得票数 0
1
回答
R到
BigQuery
数据
上传错误
、
我
使用
R包"bigrquery“
将
数据
从
R
数据
帧
上
传到
现有的
BigQuery
表中,如下所示:
BigQuery
似乎在自动检测
数据
格式,错误地认为NewID列实际
上
是一个字符串,它的值类似于"0048
浏览 0
提问于2018-07-05
得票数 3
回答已采纳
1
回答
Cassandra
Spark
慢写
、
、
、
、
我正在
使用
Spark
Cassandra
连接器
和python中的
数据
帧
制作一个小的
Spark
应用程序,但我的写入速度非常慢。然后我
将
结果写回cassandra (大约5000万
行
): result.write.format("org.apache.
spark
.sql.cassandra").mode('append').options(table="moviescores",
浏览 1
提问于2017-03-29
得票数 4
1
回答
将不带返回值的Python Lambda函数转换为Pyspark
、
、
、
、
在迭代期间,它将字符串、最佳匹配和相似度以及其他一些信息写入
bigquery
。没有返回值,因为该函数的目的是向
bigquery
数据
集中插入一
行
。这个过程需要相当长的时间,这就是为什么我想
使用
Pyspark和Dataproc来加速这个过程。
将
熊猫
数据
帧
转换为
spark
很容易。我在注册udf
时
遇到了问题,因为它没有返回值,而pyspark需要一个返回值。此外,我不知道如何
将
python中的'
浏览 16
提问于2019-07-19
得票数 2
回答已采纳
1
回答
Spark
To Cassandra:
将
没有空值的稀疏
行
写到Cassandra
、
、
、
、
问:如何高效地
将
Spark
DataFrame中包含值的列写入Cassanrda?
数据
帧
,但
数据
帧
中的每一
行
都非常稀疏-除了两个键值之外,特定
行
可能只有4到5个“描述符”(列0->299)具有一个值。我目前正在
将
Spark
dataframe转换为RDD,并
使用
saveRdd来写入
数据
。 这是可行的,但是当没有值
时
,"null“被存储在列中。未设置
浏览 0
提问于2018-11-06
得票数 2
2
回答
触发本地rdd写入到本地Cassandra DB
、
、
、
我有一个DSE集群,集群中的每个节点都在运行
spark
和Cassandra。 当我
从
Cassandra加载
数据
到
spark
rdd并在Rdd
上
执行一些操作
时
,我知道
数据
将
分布到多个节点中。在我的例子中,我想把这些rdds
从
每个节点直接写到它的本地Cassandra dB表中,有没有办法做到这一点。如果我执行普通的rdd收集,来自
spark
节点的所有
数据
将被合并,并返回到带有驱动程序的节点。我不希望发
浏览 3
提问于2020-10-20
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券