腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(744)
视频
沙龙
1
回答
有办法定制
谷歌
提供
的
云
数据流
模板
吗?
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
google-cloud-pubsub
我有一个要求,我需要创建一个
数据流
作业,该作业将
通过
过滤将作为json数据一部分
的
属性
的
消息,将数据从Google
PubSub
主题传输到
BigQuery
表。
使用
谷歌
提供
的
模板
,我可以
使用
谷歌
提供
的
"
PubSub
to
BigQuery
“
模板
,但这不允许对数据进行过
浏览 0
提问于2018-11-27
得票数 2
2
回答
Google /Sub到
BigQuery
模板
主题
订阅
google-cloud-dataflow
、
google-cloud-pubsub
当创建新
的
Dataflow Pub/Sub到
BigQuery
模板
时,可以指定
PubSub
topic。似乎无法
提供
现
有的
PubSub
subscription,相反,每当
数据流
模板
运行时都会创建一个新
的
订阅
。就我所理解
的
PubSub
模型而言,确保我们继续从主题
的
同一位置读取数据
的
唯一方法是重用相同
的
<
浏览 0
提问于2018-09-18
得票数 2
回答已采纳
1
回答
如何
通过
谷歌
提供
的
PubSub
to
BigQuery
数据流
模板
使用
现
有的
PubSub
订阅
google-cloud-dataflow
、
google-cloud-pubsub
我正在尝试
使用
谷歌
提供
的
模板
PubSub
to
BigQuery
设置一个
数据流
作业。我看到一个用于指定云发布/
订阅
输入主题
的
选项,但我没有看到任何用于在GCP控制台UI中指定发布/
订阅
输入
订阅
的
选项。 如果我
提供
了主题,job会自动创建一个
订阅
来读取所
提供
的
主题中
的
浏览 3
提问于2018-01-12
得票数 3
回答已采纳
1
回答
如何
在
数据流
管道中实现PubSubIO中
的
流量控制设置
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
apache-beam
、
google-cloud-pubsub
在我们
的
应用程序中,我们在
数据流
管道中
使用
PubsubIO从
PubSub
读取数据。下面是代码。table", ParDo.of(new ReadRawdataFromBiqueryTable())); 但是,当我们在此管道中附加
BigQuery
读取时,由于
BigQuery
读取速度较慢,因为我们在ParDo中执行此操作,似乎在
PubSub
订阅
服务器中实现了一些默认
的
流控制设置,因此
浏览 12
提问于2020-03-25
得票数 1
1
回答
从
数据流
插入
BigQuery
流-无结果
google-bigquery
、
google-cloud-dataflow
、
google-cloud-pubsublite
我有一个
数据流
管道,它从
PubSub
Lite读取消息,并将
数据流
式传输到
BigQuery
表中。该表按天进行分区。
使用
以下命令查询表时:
BigQuery
我
的
管道已经运行了整整一周,在过去
的
两天里我得到了同样
的
结果。然而,对于2021-10-11和之
浏览 4
提问于2021-10-14
得票数 2
1
回答
如何
获取单个PubsubMessage
的
MessageID以将其保存在
BigQuery
中以用于PubsubToBigQuery事件
数据流
作业?
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
google-cloud-pubsub
我
使用
谷歌
模板
为同一个创建了一个PubsubToBigQuery
数据流
,用于存储我
的
事件日志。
如何
实现这一目标?
浏览 0
提问于2019-06-12
得票数 0
1
回答
处理流经发布
订阅
到
Bigquery
的
记录
的
unique_id和时间戳特性
python-3.6
、
google-cloud-pubsub
我正在尝试构建一个流/批处理管道,它从发布/
订阅
中读取事件,并
使用
python3.6将它们写入
BigQuery
根据文档,云发布/
订阅
会为每条消息分配唯一
的
message_id和timestamp,用于检测
订阅
者收到
的
重复消息(https://cloud.google.com/
pubsub
/docs/faq) 要求如下: 1)消息可以以任意顺序传入(异步消息) 2)唯一Id
浏览 13
提问于2019-10-16
得票数 0
1
回答
订阅
-由于缺少权限而无法创建
google-cloud-platform
、
google-bigquery
、
google-cloud-pubsub
在创建
pubsub
订阅
时,我会得到一个错误(红色,下图)。错误出现在
订阅
创建视图中:第一个问题--为什么这个错误首先会出现?我解决这个问题
的
尝试之一是尝试首先创建标准
订阅
,然后
通过
使用
这样
的
命令:gcloud
pubsub
subscriptions add-iam-policy-binding EventIngestSubscription/roles/
bigquery
.dataEd
浏览 17
提问于2022-09-15
得票数 0
回答已采纳
1
回答
从google
pubsub
到spark streaming
的
数据摄取速度很慢
apache-spark
、
google-bigquery
、
spark-streaming
、
google-cloud-pubsub
、
google-cloud-dataproc
我正在
使用
google cloud Dataproc Spark集群来运行Spark streaming作业,该作业从多个
PubSub
订阅
中读取数据并写入
BigQuery
。我已经在
数据流
中实现了每秒100万个元素
的
速度,但我想用Dataproc做同样
的
事情。我尝试了Dataproc
的
自动缩放选项,也尝试了在
数据流
上工作
的
相同
的
波束管道代码。如果我增加
订阅
的
数量,那
浏览 5
提问于2019-07-22
得票数 3
2
回答
公开Google云Pub/Sub主题?
google-cloud-platform
、
google-cloud-pubsub
我想玩和处理中
的
消息。在Pub/Sub中是否有任何公共数据提要可供我开始
使用
?在Dataflow 示例中,输入是从,gs://dataflow-samples/shakespeare/kinglear.txt中
的
文件中读取
的
。
浏览 0
提问于2016-08-09
得票数 5
回答已采纳
2
回答
如何
使用
Google
提供
的
数据流
模板
更改默认网络
google-cloud-dataflow
我正在尝试
使用
谷歌
提供
的
模板
PubSub
to
BigQuery
设置一个
数据流
作业。,我在启动时得到了这个错误:我认为
谷歌
提供
的
模板
是硬编码
的</em
浏览 12
提问于2018-02-01
得票数 1
回答已采纳
1
回答
数据流
模板
Cloud /Sub主题与
BigQuery
订阅
google-cloud-platform
、
google-cloud-dataflow
、
google-cloud-pubsub
我正在建立一个概念
的
简单证明,以学习Google中
的
一些概念,特别是
PubSub
和Dataflow。我有一个
PubSub
主题greetingconst escapeHtml = require('escape-html');似乎有两个<e
浏览 0
提问于2019-05-16
得票数 7
1
回答
基于Google Cloud平台
的
物联网实时流处理
google-cloud-platform
、
iot
、
google-cloud-pubsub
、
gcp
、
google-cloud-iot
我关注
的
是
通过
GCD发布/
订阅
的
物联网实时流处理,云
数据流
和
通过
BigQuery
.I执行分析。我正在寻求
如何
实现这一点
的
帮助。
浏览 2
提问于2017-06-15
得票数 1
1
回答
谷歌
云
数据流
:在
PubSub
流模式下,TextIO.Read
使用
大量
的
vCPU时间
streaming
、
google-cloud-platform
、
google-cloud-dataflow
、
google-cloud-pubsub
我正在
使用
Google Cloud Platform将数据从Azure服务器传输到
BigQuery
表(从功能上讲,工作得很好很顺利)。管道看起来像这样:PCollection<StringmetaLine = p.apply(TextIO.Read.named("FetchMetadata") .f
浏览 8
提问于2017-03-14
得票数 0
1
回答
云
数据流
:
使用
谷歌
提供
的
带有多个json条目的
PubSub
to
BigQuery
模板
google-bigquery
、
google-cloud-dataflow
、
google-cloud-pubsub
我
使用
谷歌
提供
的
模板
从
PubSub
转到
BigQuery
,没有进行任何定制。我尝试将多个条目(行)放入到队列
的
单个json有效负载中,然后让DataFlow
模板
将所有条目(行)插入到
BigQuery
表中。我已经尝试
提供
一个换行符分隔
的
json有效负载,就像
通过
控制台将数据加载到
BigQuery
中时所需要
的
一样。但是,我只能获得要插
浏览 1
提问于2018-03-17
得票数 0
2
回答
在Java中将protobuf转换为
bigquery
java
、
google-bigquery
、
protocol-buffers
、
google-cloud-dataflow
我们将protobuf与GCP
的
pubsub
和dataflow一起
使用
。我们
使用
单个proto文件定义发送到
pubsub
的
数据以及
bigquery
模式。发布者-(发送原型) ->发布
订阅
->
数据流
-(写入)->
bigquery
有时dataflow会做一些表面上
的
更改,但它主要是将字段从protobuf复制到
bigquery
。我
的
问题是,有没有
浏览 1
提问于2020-11-19
得票数 2
2
回答
Google Dataflow能否连接到API数据源并将数据插入大查询
google-cloud-platform
、
google-cloud-dataflow
、
apache-beam
我们正在探索
的
用例中,我们可能不得不摄取SCADA/PIMS设备生成
的
数据。出于安全原因,我们不允许直接连接到OT设备或数据源。因此,该数据具有REST,可用于
使用
数据。请建议是否可以
使用
Dataflow或GCP
的
任何其他服务来捕获这些数据,并将其放入大型查询或任何其他相关目标服务中。如有可能,请分享关于此类要求
的
任何相关文件/链接。
浏览 2
提问于2022-04-22
得票数 1
2
回答
将
pubsub
主题作为arugument
提供
时出现
数据流
错误
python
、
apache-beam
我有一个问题,我正在
使用
python创建
数据流
模板
,该
模板
在启动新
的
数据流
作业时需要接受3个用户定义
的
参数。问题出现在beam.io.gcp.
pubsub
.WriteToPubSub()中,我试图从ValueProvider
提供
主题名称,根据
谷歌
文档,在创建
模板
时需要
使用
该名称: https://cloud.google.com/dataflow
浏览 20
提问于2020-05-02
得票数 1
3
回答
将数据从Oracle Golden馈送到Big Query
的
最佳方式是什么
google-cloud-platform
、
google-bigquery
、
google-cloud-pubsub
、
oracle-golden-gate
做这件事最好
的
方法是什么?来自Oracle Golden
的
数据可以直接流到
BigQuery
中吗?或者我们需要一些连接器吗? 请建议最好
的
方法来做这件事?
浏览 20
提问于2020-07-05
得票数 0
1
回答
使用
PubSubIO读取
数据流
的
速度非常慢
google-bigquery
、
google-cloud-platform
、
google-cloud-dataflow
、
google-cloud-pubsub
、
apache-beam
我在
使用
从
PubSub
读取和写入
BigQuery
的
数据流
管道时遇到了一些问题。它在更新之前运行正常,现在即使我将我
的
流
浏览 3
提问于2017-08-19
得票数 0
点击加载更多
相关
资讯
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
PubSub可以帮助减轻网站压力
JavaWeb项目架构之Kafka分布式日志队列
Cloud IoT Core 现已面向公众发布
9012年了,我不允许你还不会玩IPFS!
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券