腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
有没有
一种
方法
可以
使用
BigQuery
视图
作为
数据流
的
输入
?
google-bigquery
、
google-cloud-dataflow
我知道
数据流
可以
使用
BigQuery
表(或
BigQuery
表
的
SQL式查询)进行
输入
,但是是否
可以
将保存
的
视图
作为
数据流
的
输入
?
浏览 10
提问于2017-07-12
得票数 2
1
回答
结合
使用
数据流
和BigQueryIO.Write.Method.STORAGE_WRITE_API
的
示例
google-cloud-dataflow
当前
的
数据流
文档和参考模板(参见下面的链接)
使用
BigQueryIO.Write.Method.STREAMING_INSERTS
作为
BigQuery
的
输入
方法
。DataflowTemplates/blob/HEAD/src/main/java/com/google/cloud/teleport/templates/PubSubToBigQue
浏览 24
提问于2021-08-11
得票数 0
1
回答
如何在Google
数据流
模板中
使用
正则表达式?
google-cloud-platform
、
google-cloud-storage
、
google-cloud-dataflow
、
dataflow
使用
数据流
模板,即云存储文本到
BigQuery
(流)模板,过去
可以
将"inputFilePattern“(即:您想要处理
的
文本
的
云存储位置)描述为正则表达式。例如,您
可以
输入
gs://my-bucket/my- files /file-to-upload*
作为
参数,然后所有以"file-to-upload“开头
的
文件都将被流式传输。不幸
的
浏览 11
提问于2020-09-08
得票数 0
2
回答
发布/订阅csv数据到
数据流
到
BigQuery
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
apache-beam
、
google-cloud-pubsub
我
的
渠道是IoTCore ->发布/订阅->
数据流
->
BigQuery
。最初,我得到
的
数据是Json格式
的
,管道工作正常。现在我需要转到csv,问题是我
使用
的
Google定义
的
数据流
模板
使用
Json
输入
而不是csv。
有没有
一种
简单
的
方法
通过
数据流
将csv数据从发布/订阅传
浏览 27
提问于2021-01-03
得票数 0
回答已采纳
2
回答
云存储新增文件时触发
数据流
作业
google-cloud-storage
、
google-cloud-dataflow
、
google-cloud-functions
我希望在向存储存储桶添加新文件时触发
数据流
作业,以便处理新数据并将新数据添加到
BigQuery
表中。我看到云通过存储桶中
的
更改来运行,但我还没有找到
使用
启动
数据流
作业
的
方法
。
有没有
一种
方法
可以
使用
云函数来实现这一点,或者是否有其他
方法
来实现预期
的
结果(在将文件添加到存储存储桶时将新数据插入到
BigQuery
中)?
浏览 6
提问于2016-04-02
得票数 2
回答已采纳
1
回答
在Apache Beam中
使用
无界PCollections从MongoDB changeStream读取数据
mongodb
、
architecture
、
google-cloud-dataflow
、
apache-beam
、
data-warehouse
我正在为我
的
公司设计
一种
新
的
方法
来从多个MongoDB数据库中流式传输数据,执行一些任意
的
初始转换,并将它们汇聚到
BigQuery
中。有各种需求,但关键
的
是速度和在某些字段到达数据仓库之前省略或编辑这些字段
的
能力。我们
使用
数据流
基本上做到了这一点: MongoDB -> Dataflow (Apache Beam, Python) ->
BigQuery
我们基本上只需要等待collec
浏览 20
提问于2020-01-02
得票数 3
1
回答
设计
google-cloud-platform
、
google-cloud-dataflow
我们需要您对以下场景
的
数据流
设计提供指导。 需求:我们需要构建一个
数据流
作业来读取
数据流
MS数据库并写入
Bigquery
。我们需要
数据流
作业
作为
输入
“表名列表”(源表和目标表名称)来读取和写入数据。问题:在每天
的
日程安排中,
数据流
是否
可以
将表列表(即50个表名)
作为
输入
,并将数据从源复制到目标,还是将其设计为50个独立
的
数据流
作
浏览 4
提问于2021-12-13
得票数 -1
3
回答
在
数据流
管道中写入
BigQuery
时捕获失败
python
、
google-bigquery
、
google-cloud-dataflow
、
google-cloud-pubsub
我有一个从PubSub主题读取事件数据
的
数据流
管道。当收到消息时,我执行一个转换步骤,将事件数据与我想要
的
BigQuery
模式相匹配。但是,如果创建
的
输入
不符合模式,则会遇到问题。
有没有
一种
方法
可以
尝试写到
BigQuery
,如果这样做失败了,用原始
的
输入
做其他
的
事情?或者,是否有
一种
方法
可以
尝
浏览 4
提问于2018-05-08
得票数 4
1
回答
从
数据流
作业创建云sql表
java
、
google-cloud-dataflow
、
apache-beam
、
google-cloud-sql
有一个将表数据从
BigQuery
复制到CloudSql
的
管道。 云SQL表
的
创建发生在
数据流
之外。 现在我们需要在
数据流
中创建表。 我有表格要创建在GCS存储桶中
作为
.sql文件。下面是将表从BQ复制到sql
的
代码片段。insert_query) p.run();
有没有
一种
浏览 75
提问于2021-09-20
得票数 1
回答已采纳
1
回答
PCollection to Array -如何在WriteToText PTransform中动态
输入
头?
python
、
google-cloud-dataflow
、
apache-beam
我正在
使用
运行在dataflow runner上
的
Apache beam 2.19编写一个
数据流
作业。我正在尝试将包含嵌套和重复字段
的
BigQuery
输入
转换为平面化
的
CSV。BQ
输入
是
使用
递归
方法
展平
的
。我需要将扁平化
的
格式写入CSV文件,这不是问题,除非我需要将字典键
作为
头文件传递。我
可以
将header转换为pvalue singelton,
浏览 8
提问于2020-05-20
得票数 0
1
回答
BigQuery
AEAD函数密钥集管理
的
最佳实践
google-cloud-platform
、
google-bigquery
、
tableau-api
、
dataflow
我
的
目标是构建一个基于
BigQuery
的
安全解决方案。我
使用
由CMEK保护
的
BigQuery
表。另外,我有一个
数据流
作业,它
可以
在表中写入数据。它用一个AEAD函数加密一些值。我用Tableau从
BigQuery
读取数据。并
使用
AEAD函数解密一些值。 我需要
一种
安全可靠
的
方法
,用于与AEAD一起
使用
的
密钥集管理。加密期间,应该
浏览 0
提问于2020-10-17
得票数 0
回答已采纳
0
回答
如何在
数据流
工作进程上强制安装google-cloud-
bigquery
==0.28.0
google-bigquery
、
google-cloud-dataflow
我很难让最新版本
的
bigquery
在
数据流
工作者上工作。
有没有
人能建议一下,怎样才是更简单
的
方法
呢?
使用
google-cloud-
bigquery
==0.28.0
的
setup.py将无法在工作进程启动时安装工作流。从这个链接
可以
看到:,google-cloud-
bigquery
0.25.0,这是目前
数据流
支持
的
最新版本,它非常笨重,效率也很低。如果你有什么建议,请
浏览 0
提问于2018-07-14
得票数 1
回答已采纳
1
回答
气流DAG -如何首先检查BQ (必要时删除),然后运行
数据流
作业?
python
、
google-cloud-platform
、
google-bigquery
、
airflow
、
google-cloud-composer
我查看了其他气流操作符,但在运行
数据流
作业之前,我希望在DAG中有两个任务: 如果文件ID已经出现在
bigquery
表中(从
数据流
作业输出转换数据
的
表),删除它,然后运行
数据流
作业,这样我就有了最新
的
信息。我知道
一种
选择就是添加一个时间戳,并且只
使用
最新<
浏览 0
提问于2019-01-09
得票数 3
回答已采纳
2
回答
对于
数据流
,BigqueryIO.write()和
bigquery
.insertAll()
方法
哪个更好
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
dataflow
我正在开发java代码,以便从GCS读取记录并插入到BQ表中,从成本和性能
的
角度来看,哪个BigqueryIO.write()或
bigquery
.insertAll()
方法
更好。
浏览 0
提问于2019-03-05
得票数 1
2
回答
使用
多字符分隔符将存储在谷歌云存储上
的
数据加载到
BigQuery
google-bigquery
、
google-cloud-storage
、
google-cloud-platform
、
google-cloud-dataflow
我想将带有多个字符分隔符
的
数据加载到
BigQuery
。BQ load命令当前不支持多个字符分隔符。它只支持单个字符分隔符,如'|‘、'$’、'~‘等 我知道有
一种
数据流
方法
,它将从这些文件中读取数据并写入
BigQuery
。但是我有大量
的
小文件(每个文件400MB),它们必须写入一个单独
的
表分区(分区编号在700左右)。这种
方法
在处理
数据流
时速度很慢,因为我当前必须启动一个不同
的<
浏览 22
提问于2016-08-11
得票数 3
回答已采纳
3
回答
SSIS:如何读取WebSphere MQ、转换和写入平面文件?
ssis
、
ibm-mq
我已经编写了一个脚本任务来读取数据,并且
可以
将其输出到变量或文本文件。但是我想
使用
它
作为
数据流
步骤
的
输入
,并转换数据。最终目标是平面文件。
有没有
办法将变量
作为
源读取到
数据流
步骤中?我
可以
将MQ数据写入文本文件,然后读取
数据流
中
的
文本文件,但这似乎有很大
的
开销。或者我
可以
跳过
数据流
,在一个脚本中编写所有的转换(但是为什么要在第一
浏览 0
提问于2012-02-27
得票数 1
回答已采纳
1
回答
使用
google
数据流
读取保存在google存储中
的
vis普通文本文件
的
压缩文件时,性能相对较差。
google-cloud-storage
、
google-cloud-dataflow
我
使用
从云存储中读取一个11.57GB
的
文件,并将它们写入谷歌
BigQuery
。花费了大约12分钟和30名工人。然后,我压缩了相同
的
文件(大小现在变为1.06GB),然后再
使用
google从谷歌存储中读取它们,并将它们写入
BigQuery
。现在用了大约31分钟和同样
的
30名工人。除了第一个
数据流
作业中
的
输入
文件被解压缩外,两个
数据流
作业都有相同
的
管道选项,但是
输入
浏览 3
提问于2016-08-06
得票数 0
回答已采纳
1
回答
我收到来自我
的
数据流
作业
的
错误消息“查询超出了第1层
的
资源限制。需要第3层或更高层”
google-bigquery
、
google-cloud-dataflow
我从
BigQuery
查询数据
的
数据流
作业失败,出现错误: Query exceeded resource limits for tier 1. Tier 3 or higher required.同样
的
Dataflow作业与我
的
另一个项目一起工作,我无法确定如何在Dataflow API中设置层。
浏览 0
提问于2017-03-25
得票数 0
1
回答
如何为google
数据流
作业设置分阶段、预驱动程序?
java
、
google-cloud-dataflow
、
apache-beam
、
google-cloud-bigtable
、
bigtable
假设我们有一个
数据流
工作:我想知道在ApacheBeam&DataFlow中实现这一目的
的
“惯用”
方法
是什么。
浏览 6
提问于2022-07-08
得票数 -1
回答已采纳
2
回答
将
BigQuery
联邦表
作为
数据源在
数据流
中读取会引发一个错误
google-bigquery
、
google-cloud-dataflow
我在
BigQuery
中有一个联邦源代码,它指向GCS中
的
一些CSV文件。当我尝试将联邦
BigQuery
表
作为
Dataflow管道
的
源读取时,它会引发以下错误: 1226 [main] ERROR com.google.cloud.dataflow.sdk.util.BigQueryTableRowIterator- Error reading from
BigQuery
table Federated_test_dataflow of dataset CPT_7414_PLAYG
浏览 5
提问于2016-03-24
得票数 4
回答已采纳
点击加载更多
相关
资讯
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
BigQuery如何结合数据与AI实现企业转型
单向数据流和双向数据绑定
MVVM设计模式在Android编程中的应用
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券