腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
数据流
的
DLP
从
GCS
读取
并
写入
BigQuery
-
只有
50
%
的
数据
写入
BigQuery
、
、
、
、
我最近启动了一个
数据流
作业,
从
GCS
加载
数据
,通过
DLP
的
标识模板运行它,并将屏蔽
的
数据
写入
BigQuery
。我找不到谷歌提供
的
用于批处理
的
模板,因此
使用
了流模板(参考:link)。我看到
只有
50
%
的
行被
写入
目标
BigQuery
表。管道上有一天没有任何活动,即使它处于运行状态
浏览 30
提问于2020-08-22
得票数 0
2
回答
波束
数据流
流水线表创建Sink作为来自
GCS
的
Bigquery
、
、
、
我想创建beam
数据流
作业来
从
GCS
加载
数据
到
Bigquery
,我将在
GCS
的
不同文件夹中有100s
的
文件,可以在
GCS
的
不同文件夹中加载文件,是否可以在beam代码中创建源
数据
集和表。我
的
最终目标是创建管道,将
数据
从
GCS
加载到
Bigquery
,谢谢。
浏览 10
提问于2021-02-23
得票数 0
回答已采纳
3
回答
谷歌
数据流
每项作业是否有BT写原子?
也许我是个糟糕
的
探索者,但我在文档中找不到答案,所以我只想在这里试试运气。我知道写
GCS
似乎不是原子
的
,在作业运行
的
过程中会产生部分输出分区。但是,我已经尝试过通过
数据流
将
数据
转储到BQ中,并且在作业声称成功之前,输
浏览 6
提问于2016-08-05
得票数 1
回答已采纳
1
回答
如何
使用
Google工具和javascript存储和提供优惠券
、
、
需要存储在某个地方(
bigquery
?)在那里我可以请求并发送给用户。用户应该只能得到一个唯一
的
代码,这是事先没有
使用
的
。提前感谢
浏览 4
提问于2021-04-13
得票数 0
回答已采纳
1
回答
设计
、
我们需要您对以下场景
的
数据流
设计提供指导。 需求:我们需要构建一个
数据流
作业来
读取
数据流
MS
数据
库
并
写入
Bigquery
。我们需要
数据流
作业作为输入“表名列表”(源表和目标表名称)来
读取
和
写入
数据
。问题:在每天
的
日程安排中,
数据流
是否可以将表列表(即
50
个表名)作为输入,并将
数据
从</
浏览 4
提问于2021-12-13
得票数 -1
1
回答
使用
数据流
避免
BigQuery
存储API
的
会话关闭
、
、
我正在实现一个ETL作业,它将非分区
的
BigQuery
表迁移到分区
的
表。为此,我
使用
了来自
BigQuery
的
Storage。这将创建许多要从其中提取
数据
的
会话。为了将
BigQuery
写入
路由到正确
的
分区,我
使用
了File方法。由于30天
的
限制,流插入是不可行
的
。存储写API似乎是有限
的
,识别分区。 通过驻留到File方法,<em
浏览 4
提问于2022-09-12
得票数 1
1
回答
直接将
BigQuery
查询结果
写入
GCS
--是否有可能?
、
、
我尝试了bq命令行工具,但它似乎无法直接将结果
写入
GCS
。我能看到
的
唯一方法就是: 我正在寻找一种直接将结果
写入
GCS
的
方法。
浏览 4
提问于2016-08-10
得票数 2
回答已采纳
1
回答
使用
google
数据流
读取
保存在google存储中
的
vis普通文本文件
的
压缩文件时,性能相对较差。
、
我
使用
从
云存储中
读取
一个11.57GB
的
文件,并将它们
写入
谷歌
BigQuery
。花费了大约12分钟和30名工人。然后,我压缩了相同
的
文件(大小现在变为1.06GB),然后再
使用
google
从
谷歌存储中
读取
它们,并将它们
写入
BigQuery
。现在用了大约31分钟和同样
的
30名工人。除了第一个
数据流
作业中
的
输入文件被解压缩外,两个<
浏览 3
提问于2016-08-06
得票数 0
回答已采纳
1
回答
当有多个源时,Google不能同时
读取
超过3个输入压缩文件
、
、
、
实验1:我
使用
TextIO
读取
每天
的
压缩文件,应用简单
的
ParDo转换来准备TableRow对象,
并
使用
BigQueryIO直接将它们
写入
BigQuery
。因此,基本上有30对平行
的
不相连
的
源和汇被创造出来。但我发现,在任何时候,
只有
3个文件被
读取
、转换和
写入
BigQuery
。所有这30个TextIO源都是并行
读取
的</
浏览 3
提问于2016-08-16
得票数 1
回答已采纳
1
回答
使用
BigQueryIO
写入
大(>20KB)记录
从
文档中看不清楚这一点,但看起来执行了流
写入
,这反过来又是?如果没有,那么将大行导入
BigQuery
的
推荐工作流程是什么?我想我可以运行DataFlow ETL
并
使用
Te
浏览 1
提问于2015-04-14
得票数 2
1
回答
google云
数据流
中
的
动态分区?
、
我
使用
数据流
处理存储在
GCS
中
的
文件,
并
写入
Bigquery
表。以下是我
的
要求: 我正在考虑
浏览 1
提问于2015-03-20
得票数 4
1
回答
Google Dataprep与消息代理
的
集成
、
、
可以在Dataprep Job中
读取
表单Kafka或Google Pub/Sub吗?如果是这样的话,当在visual studio (减去购买或下载工具
的
能力)上编辑示例时(减去购买或下载工具
的
能力),而调试生产流程(相同
的
“类型”
数据
“)是在这些工具(在我们最喜欢
的
IDE上编码Scala/Java )之外
的
任何工具上执行时,我应该期待什么”最佳实践“部署考虑因素?
浏览 1
提问于2018-09-12
得票数 0
1
回答
Google Cloud Dataflow作业失败
、
、
自从开启自动伸缩以来,我们
的
一些云
数据流
作业已经开始失败。我在失败
的
作业中收到以下错误:这是此错误
的
作业id : 2016-01-26_12_02_19-127372689340916618772016-01-27_12_02_52-11776322710903149175 编辑:我关闭了自动缩放,今天早上运行
的
作业仍然运行得很慢。
浏览 2
提问于2016-01-28
得票数 1
1
回答
google
数据流
写入
bigquery
表性能
我将处理
数据
和输出
的
性能与
Bigquery
表和文件进行了比较,差异是显著
的
:
写入
13个文件需要7分钟,
写入
13个
bigquery
表需要超过60分钟; 试着理解这是预期
的
结果,还是我做得不对?在
写入
bigquer
浏览 1
提问于2015-04-17
得票数 1
3
回答
如何
从
云
数据
存储迁移到云Spanner?
、
、
、
我正在查看
数据流
,以尝试将
数据
从
Datastore导出到Spanner。扳手似乎只接受通过
数据流
连接器
的
avro文件。我能找到
的
唯一
数据流
模板是
从
数据
存储到文本文件。并且
数据
存储区导出服务仅导出为levelDB格式。任何线索都会很有帮助,谢谢!
浏览 59
提问于2019-05-03
得票数 0
回答已采纳
1
回答
使用
数据流
从
大查询中提取
数据
的
问题[ apache beam ]
、
、
、
我需要
使用
Dataflow
从
BigQuery
表中提取
数据
,然后写到
GCS
。
数据流
是
使用
apache (Java)构建
的
。
数据流
从
BigQuery
中提取出来,第一次完美地
写入
到
GCS
中。但是,当第二个
数据流
在第一个管道成功执行后
从
同一表中提取
数据
时,它并不是
从
Big Query中提取任何<em
浏览 0
提问于2020-01-12
得票数 1
回答已采纳
2
回答
使用
数据流
管道(python)将多个Json zip文件
从
GCS
加载到
BigQuery
、
、
、
我正在寻找帮助设计一个用python编写
的
数据流
管道,以
读取
存储在
GCS
上
的
多部分压缩Json文件,以加载到
BigQuery
。源无法为我们提供文件/表
的
架构。因此,我正在寻找一个自动检测选项。如下所示: autodetect=True, source_format=
bigquery
.SourceFormat.NEWLINE_DELIMI
浏览 25
提问于2021-02-17
得票数 1
1
回答
PubSub到
BigQuery
-
数据流
/波束模板在Python中?
、
、
、
、
是否有任何Python模板/脚本(现有的或路线图)供
数据流
/光束
从
PubSub
读取
和
写入
BigQuery
?根据GCP文档,这里
只有
一个Java模板..。 谢谢!
浏览 88
提问于2021-02-21
得票数 1
回答已采纳
2
回答
如何将DeltaLake文件
从
GCS
包含到
BigQuery
、
、
、
、
是否有库/连接器可直接将存储在Google (
GCS
)中
的
文件导入到
BigQuery
?我已经成功地
使用
Spark作为中介编写了
BigQuery
表,但是我找不到--任何直接连接器或
BigQuery
库--如果不通过spark 进行转换就可以做到这一点。Update 1:我尝试
使用
正式
的
连接器,但是缺少关于如何指向
BigQuery
中
的
特定项目的文档,所以我只能将DeltaLake文件
从
G
浏览 3
提问于2021-10-27
得票数 2
回答已采纳
1
回答
BigQuery
AEAD函数密钥集管理
的
最佳实践
、
、
、
我
的
目标是构建一个基于
BigQuery
的
安全解决方案。我
使用
由CMEK保护
的
BigQuery
表。另外,我有一个
数据流
作业,它可以在表中
写入
数据
。它用一个AEAD函数加密一些值。我用Tableau
从
BigQuery
读取
数据
。
并
使用
AEAD函数解密一些值。 我需要一种安全可靠
的
方法,用于与AEAD一起
使用<
浏览 0
提问于2020-10-17
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券