腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
从
spark
创建
数据
并将
数据
写入
Bigquery
分区表
、
、
我们是否可以在
Bigquery
中动态
创建
一个
分区表
(具有整数类型),并从
spark
向其中加载
数据
提前感谢
浏览 13
提问于2020-06-04
得票数 2
1
回答
从
pyspark中删除
bigquery
表
、
我正在编写脚本,
从
mongodb读取
数据
,解析
spark
中的
数据
并将
其
写入
Bigquery
。我有一个用例,其中基于集合,我需要更新/重新
创建
bigquery
表。但是我无法找到确切的api来删除
bigquery
表 我使用库将
数据
写入
/追加到
bigquery
,但找不到足够的文档来重新
创建
表。还查看了谷歌的大
数据
互
浏览 0
提问于2019-06-29
得票数 0
回答已采纳
1
回答
Dataproc:使用
BigQuery
读写
数据
时使用PySpark时的错误
、
、
、
我正在尝试
从
用户管理的朱庇特笔记本实例中读取一些
BigQuery
数据
(ID:my-project.mydatabase.mytable原始名称受保护),在工作台中。"my_temp_bucket_name") \ .save("my-project.mynewdatabase.mytable")Py4JJavaErr
浏览 15
提问于2022-08-09
得票数 1
回答已采纳
2
回答
当
数据
存储在对象存储中时,
从
Spark
SQL访问配置单元表
、
、
我使用
spark
dataframe编写器将
数据
写入
IBM Cloud Object Storage中的内部hive表,格式为parquet。因此,我的配置单元元存储在HDP集群中,我正在从HDP集群运行
spark
作业。此
spark
作业将
数据
以parquet格式
写入
IBM COS。(通过partitionBy)时,我无法直接
从
spark
sql访问
数据
spark
.sql("select
浏览 40
提问于2018-12-18
得票数 0
2
回答
Google火花放电-
BigQuery
连接器是超慢的
、
、
、
我尝试使用将100 k行
写入
Bigquery
。 我的行是由两个大字符串组成的。200到250个单词),许多单个字串,和一些
数据
类型(最大)。深度2,内部
数据
很少),总共约35个字段。我在字符串上做了一些处理,对于100 k行,它几乎是即时的,但是当涉及到将
数据
写入
BQ时,问题就出现了。我做了一些调查,因为我使用的是间接
写入
,
数据
首先写在GCS上,然后再通过BQ读取。读作业大约需要花费。20秒,这意味着对GCS的
写入
操作只需要50分钟就
浏览 15
提问于2022-10-03
得票数 3
回答已采纳
1
回答
为什么需要临时的GCS存储桶才能将
数据
写入
到
BigQuery
: pyspark
、
、
、
最近,我遇到了一个问题,当我使用pyspark将
数据
写入
BigQuery
中时。这里是:
spark
.conf.set('temporaryGcsBucket', bucket) 我认为在Biquery中为像Hive这
浏览 6
提问于2021-06-11
得票数 1
回答已采纳
1
回答
BigQueryStorage读取API的排序顺序
、
、
如标题所述,是否存在使用存储读取API构造的读取流读取
数据
的排序顺序?如我所知,分区和聚类键是否有任何排序,如果使用群集,则分区中的
数据
存储在集群块中?
浏览 9
提问于2022-06-09
得票数 1
1
回答
用Dataproc无服务器
从
BigQuery
数据
表编写PySpark表
、
、
摘要:我无法获得星火
数据
并将
其
写入
BigQuery
表。详细信息:我正在Dataproc中运行一个无服务器的批处理作业,直接
从
BigQuery
/ Cloud读取
数据
,进行一些特性工程
并将
其保存在
Bigquery
上。of 16 partitions have failed, aborting 22/10/08 08:13:21 WARN BigQueryDirectDataSourceWriterConte
浏览 24
提问于2022-10-08
得票数 2
回答已采纳
2
回答
云
数据
流作业从一个
Bigquery
项目读取并
写入
另一个
BigQuery
项目
、
、
、
、
我正在GCP上实现一个云
数据
流作业,需要处理2个GCP项目。输入和输出都是
Bigquery
分区表
。我现在遇到的问题是,我必须
从
项目A中读取
数据
并将
其
写入
项目B。
浏览 6
提问于2020-05-08
得票数 0
回答已采纳
2
回答
是否使用特定的时间戳列将CSV导入
BigQuery
上的已
分区表
?
我想要将一个大型csv导入到一个
bigquery
分区表
中,该表具有一个timestamp类型的列,该列实际上是某个事务的日期,问题是当我加载
数据
时,它会将所有内容都导入到今天日期的一个分区中。
浏览 0
提问于2016-07-05
得票数 1
1
回答
查询表附加的
BigQuery
配额限制是否适用?
、
在我的C#应用程序中,我使用定期添加到
分区表
table1。目前,这种情况每天只发生在50-100人之间。显然,我可以写一个脚本,试着在24小时内完成附加操作1001次,看看我是否达到了配额,但我希望我能够简单地
从
文档中读到这一点,并且毫不含糊地理解。 有没有人
从
第一手的经验中知道这到底是怎么回事?
浏览 4
提问于2019-10-02
得票数 2
回答已采纳
1
回答
从
BigQuery
读取字符串空值时出现问题
、
、
、
、
目前,我正在使用
spark
从
大表中读取
数据
,
并将
其作为csv
写入
存储桶。我面临的一个问题是,
spark
不能正确地
从
bq读取空字符串值。# Load data from
BigQuery
. .option('table', <bq_dataset> +\bq
浏览 3
提问于2020-05-12
得票数 0
2
回答
spark
连接
bigquery
的身份认证问题?
、
、
、
、
我是一个初学者;我要用
spark
/pyspark连接
bigquery
读取
数据
,但是卡在了身份认证这道关卡;我有身份认证文件:ios-app.json文件,格式是:{ "client_x509_cert_url": *******************请问我该如何写身份认证的
spark
浏览 204
提问于2023-09-13
2
回答
bigquery
存储API:可以直接将AVRO文件流/保存到吗?
、
、
、
、
我想导出一个90 TB的
BigQuery
表到。根据的说法,
BigQuery
存储API (beta)应该是因为与其他方法相关联的导出规模配额(例如ExtractBytesPerDay)。该表是按日期划分的,每个分区占300 GB.我有一个运行在GCP上的Python笔记本,它通过这个
从
改编的脚本运行分区(并行)。from google.cloud import
bigquery
_storage_v1 ta
浏览 4
提问于2020-05-20
得票数 1
1
回答
DateTime在
BigQuery
中的
数据
类型
、
我有一个
分区表
,其中一个列是DateTime类型的,而该表是在同一列上分区的。根据星星之火-
bigquery
文档,相应的
Spark
类型是字符串类型。我试着做同样的事情,但是我得到了
数据
类型不匹配的问题。df.withColumn("createdDate", lit(nowPST.toLocalDateTime().toString()));Caused by: com.google.cloud.
spark
.
bigquery
.repackaged.com.g
浏览 2
提问于2021-01-04
得票数 0
2
回答
如何用
BigQuery
连接器
从
java
spark
中读取
BigQuery
表
、
、
、
我正在尝试通过
spark
java代码读取
bigquery
表,如下所示:19/01/14 10:52:01 INFO com.samelamin.
spark
.
bigquery
.BigQueryClientExecuting query selec
浏览 1
提问于2019-01-14
得票数 1
1
回答
在大查询中更改
分区表
模式
我在大型查询中有一个
分区表
,我想要更改该表的模式。.* EXCEPT (columnName)) AS whatever) FROM `a:b.c`'SELECTPARTITIONTIME) as partition_idGROUP BY _PARTITIONTIME是否可以更改表的模式
并将
其分区保留在
BigQuery
中?
浏览 2
提问于2020-06-11
得票数 0
1
回答
从
数据
流插入
BigQuery
流-无结果
、
、
我有一个
数据
流管道,它从PubSub Lite读取消息,
并将
数据
流式传输到
BigQuery
表中。该表按天进行分区。使用以下命令查询表时:
BigQuery
withTimePartitioning(new TimePartitioning().setType("DAY").setField("
浏览 4
提问于2021-10-14
得票数 2
1
回答
Google :复制日期
分区表
所需的分区规范
我正在尝试将一天的
数据
从一个日期
分区表
复制到一个我还没有
创建
的新的日期
分区表
中。我希望
BigQuery
能够像通常对非日期分区的情况一样,为我
创建
日期分区的目标表。使用
BigQuery
CLI,下面是我的命令:下面是该命令的输出: cp操作中的
BigQuery
错误:错误处理作业‘myproject:bqjob_bqj
浏览 7
提问于2017-06-16
得票数 5
回答已采纳
1
回答
BigQuery
分区表
(白天)它不分区- python
、
、
在
创建
数据
并将
数据
插入到
BigQuery
上的
分区表
时,我遇到了问题。 我的脚本每天下载一些关于过去7天的
数据
。我将它们保存在一个dataframe中,然后将它们加载到一个大查询
分区表
中。昨天,脚本将前7天的
数据
保存到
BigQuery
表中(在2022-02-14和2022-02-20之间)。今天,它保存了7天前的
数据
( 2022-02-15和2022-02-21之间),但已经没有昨天保存的前7天的<e
浏览 6
提问于2022-02-22
得票数 0
点击加载更多
相关
资讯
第八篇|Spark SQL百万级数据批量读写入MySQL
大数据框架之从Hadoop到Spark详解
《从0到1学习Flink》——Flink 写入数据到 Kafka
从Hadoop到Spark,看大数据框架发展之路
Spark简史:从AMP lab到大数据王者
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券