腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3012)
视频
沙龙
1
回答
有办法定制
谷歌
提供
的
云
数据流
模板
吗?
、
、
、
我有一个要求,我需要创建一个
数据流
作业,该作业将通过过滤将作为json数据一部分
的
属性
的
消息,将数据从Google
PubSub
主题传输到
BigQuery
表。
使用
谷歌
提供
的
模板
,我可以
使用
谷歌
提供
的
"
PubSub
to
BigQuery
“
模板
,但这不允许对数据进行过滤。 有办法定制<
浏览 0
提问于2018-11-27
得票数 2
1
回答
如何通过
谷歌
提供
的
PubSub
to
BigQuery
数据流
模板
使用
现有的
PubSub
订阅
、
我正在尝试
使用
谷歌
提供
的
模板
PubSub
to
BigQuery
设置一个
数据流
作业。我看到一个用于指定
云
发布/订阅输入主题
的
选项,但我没有看到任何用于在GCP控制台UI中指定发布/订阅输入订阅
的
选项。 如果我
提供
了主题,job会自动创建一个订阅来读取所
提供
的
主题中
的
消息。这样做
的
问题是,在<
浏览 3
提问于2018-01-12
得票数 3
回答已采纳
1
回答
云
数据流
:如
何在
PubSub
to
BigQuery
中
使用
谷歌
提供
的
模板
、
、
我正在
使用
PubSub
来捕获实时数据。然后
使用
GCP
数据流
将
数据流
式传输到
BigQuery
中
。我正在
使用
Java进行
数据流
。目前,我正在将字符串格式
的
消息发送到
PubSub
(这里
浏览 18
提问于2018-02-21
得票数 0
2
回答
如何
使用
Google
提供
的
数据流
模板
更改默认网络
我正在尝试
使用
谷歌
提供
的
模板
PubSub
to
BigQuery
设置一个
数据流
作业。,我在启动时得到了这个错误:我认为
谷歌
提供
的
模板
是硬编码
的</em
浏览 12
提问于2018-02-01
得票数 1
回答已采纳
2
回答
公开Google
云
Pub/Sub主题?
、
我想玩和处理
中
的
消息。在Pub/Sub
中
是否有任何公共数据提要可供我开始
使用
?在Dataflow 示例
中
,输入是从,gs://dataflow-samples/shakespeare/kinglear.txt
中
的
文件
中
读取
的
。
浏览 0
提问于2016-08-09
得票数 5
回答已采纳
1
回答
在CREATE
中
为
Pubsub
源指定不支持
的
架构
、
、
、
、
继我在
谷歌
中找到
的
之后,我尝试做一个示例设置,在
pubsub
中发布消息,并
使用
dataflow sql将其加载到
bigquery
表
中
。但是,当我创建
数据流
作业时,会出现以下错误: 启动SQL作业
的
无效/不受支持
的
参数:数据目录
中
的
无效表规范:在为
Pubsub
主题创建TABLE.CREATE表
中
为
Pubsub
源指定
的
不
浏览 11
提问于2022-07-07
得票数 0
1
回答
从
数据流
插入
BigQuery
流-无结果
、
、
我有一个
数据流
管道,它从
PubSub
Lite读取消息,并将
数据流
式传输到
BigQuery
表
中
。该表按天进行分区。
使用
以下命令查询表时:
BigQuery
我
的
管道已经运行了整整一周,在过去
的
两天里我得到了同样
的
结果。然而,对于202
浏览 4
提问于2021-10-14
得票数 2
1
回答
如何获取单个PubsubMessage
的
MessageID以将其保存在
BigQuery
中
以用于PubsubToBigQuery事件
数据流
作业?
、
、
、
我
使用
谷歌
模板
为同一个创建了一个PubsubToBigQuery
数据流
,用于存储我
的
事件日志。如何实现这一目标?
浏览 0
提问于2019-06-12
得票数 0
2
回答
使用
云
函数(从google
云
存储到
bigquery
)实现批处理自动化--缺少一些东西
、
、
、
、
我想要实现
的
:每次我上传一个文件到
云
存储,它将自动被写入
BigQuery
。但是他们不一起工作。如何让
云
函数触发来激活
数据流
部分?这是一个脚本,还是只是一些设置,我错过了? 缺少一些东西把它们连接起来。我对此比较陌生,我一直在寻找这方面的教程,但我不知道我是否一直在搜索错误
的
关键字,我找不到任何相关<em
浏览 7
提问于2021-03-03
得票数 0
回答已采纳
1
回答
服务帐户执行批处理
数据流
作业
、
、
、
我需要
使用
服务帐户执行
数据流
作业,我遵循
的
是在同一平台中
提供
的
一个非常简单和基本
的
示例字数。根据这一点,GCP需要拥有
数据流
工作者权限
的
服务帐户才能执行我
的
作业。即使我已经设置了所需
的
权限,当错误仍然出现时,weir部分就会出现: 有人能解释这种奇怪
的
行为吗?非常感谢
浏览 2
提问于2020-02-02
得票数 0
1
回答
如何自定义GCP
数据流
模板
?
、
我打算在写入
云
存储之前,
使用
带有少量定制
的
Pub/Sub to Text Files on Cloud Storage
数据流
模板
,例如处理(消息)
PubSub
消息。它
使用
的
参数将与Pub/Sub to Text Files on Cloud Storage完全相同 从documentation我了解到,我可以
使用
谷歌
提供
的
模板
之一,也可以创建
浏览 37
提问于2020-09-28
得票数 1
回答已采纳
1
回答
计算总管道延迟(
云
函数->发布/订阅->
数据流
-> BQ)
、
、
、
、
我目前在GCP中有一个管道,它
使用
云
函数摄取数据,将其存入
PubSub
,在
数据流
中进行处理,最后将其插入到
BigQuery
中
。我正在尝试计算平均消息从
云
函数摄取到
BigQuery
需要多长时间(包括插入时间)。 我了解Stackdriver指标/仪表板以及GCP
的
API仪表板。我很想简单地将每个服务
的
所有延迟值相加,但我不确定它是否涵盖了我无法控制
的
延迟值(例如,插入到BQ,从
数据流
浏览 2
提问于2019-11-21
得票数 0
1
回答
从HTTP端点提取数据时与Cloud
的
利弊
、
、
、
、
这是一个设计方法问题,我们试图在Apache / Google和Cloud之间选择最佳选项,从HTTP (源)中提取数据,然后将它们向下放到Google
BigQuery
(接收器)。传统上,我们
使用
谷歌
数据流
( Google )实现类似的功能,其中
的
源是
谷歌
存储桶
中
的
文件或
谷歌
PubSub
中
的
消息,等等。在这些情况下,数据以“推”
的
方式到达,因此<em
浏览 5
提问于2022-11-10
得票数 0
1
回答
从Google cloud
数据流
收集应用程序指标
、
在
谷歌
云
数据流
/光束
中
,我们可以
使用
这个Metrics API收集应用程序指标,并且可以
使用
另一个API在应用程序
中
查询它。但我需要将这些指标持久化到
Bigquery
/Prometheus
中
,以实现实时监控和警报机制。请建议如
何在
谷歌
云
数据流
中
实现这一点。
浏览 33
提问于2020-01-14
得票数 0
回答已采纳
1
回答
如何
使用
部署管理器在GCP
中
启用
云
调度器API、
pubsub
、
bigquery
、桶API、
云
构建API和
云
功能?
、
、
、
我已经编写了一个部署管理器
模板
,它将在新项目中部署
云
调度器、
pubsub
、
bigquery
、桶、
云
构建、
云
功能。因此,当我们第一次部署时,它会出现一个错误,因为默认情况下,在新项目中,这些服务
的
API是禁用
的
。那么,我
的
问题是如何
使用
部署管理器在GCP
中
启用
云
调度器API、
pubsub
、
bigquery
、桶API、
云
构建API和
浏览 4
提问于2022-06-13
得票数 2
回答已采纳
1
回答
在
数据流
python
中
在运行时向“beam.io.BigQuerySource”
提供
“查询”参数
、
、
TLDR:我希望每个月
使用
dataflow API和
模板
使用
不同
的
查询运行beam.io.BigQuerySource。我想
使用
Dataflow API来自动化这个批处理管道
的
运行,
使用
云
函数、
pubsub
事件、
云
调度器。 我
的
query_bq函数在编译和创建
数据
浏览 1
提问于2020-06-29
得票数 1
回答已采纳
1
回答
如
何在
Google
数据流
模板
中
使用
正则表达式?
、
、
、
使用
数据流
模板
,即
云
存储文本到
BigQuery
(流)
模板
,过去可以将"inputFilePattern“(即:您想要处理
的
文本
的
云
存储位置)描述为正则表达式。例如,您可以输入gs://my-bucket/my- files /file-to-upload*作为参数,然后所有以"file-to-upload“开头
的
文件都将被流式传输。不幸
的
浏览 11
提问于2020-09-08
得票数 0
3
回答
是否可以将Kafka与
谷歌
云
数据流
结合
使用
?
、
、
我有两个问题 1)我想
使用
Kafka和Google
云
数据流
管道程序。在我
的
管道程序
中
,我想读取卡夫卡
的
数据,有可能吗?2)我创建了启用了
BigQuery
的
实例,现在我想启用
Pubsub
,我能做什么呢?
浏览 0
提问于2015-04-27
得票数 0
回答已采纳
1
回答
云
数据流
:
使用
谷歌
提供
的
带有多个json条目的
PubSub
to
BigQuery
模板
、
、
我
使用
谷歌
提供
的
模板
从
PubSub
转到
BigQuery
,没有进行任何定制。我尝试将多个条目(行)放入到队列
的
单个json有效负载
中
,然后让DataFlow
模板
将所有条目(行)插入到
BigQuery
表
中
。我已经尝试
提供
一个换行符分隔
的
json有效负载,就像通过控制台将数据加载到
BigQuery
中
时所需要
的
浏览 1
提问于2018-03-17
得票数 0
1
回答
未经许可
使用
气流到
bigquery
的
ETL / cloud
、
、
、
、
我已经用python完成了从MySql到
bigQuery
的
ETL,但是由于我没有连接/ cloud
的
权限,我必须在最后一个日期之前转储数据和分区,这样做很容易,但并不值得,因为花很多时间,我想
使用
从MySql/mongo到
bigQuery
的
气流,而不
使用
google存储/ cloud,这是可能
的
吗?
浏览 0
提问于2019-10-31
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券