腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
Java
处理
数据流
管道
中
的
BigQuery
插入
错误
?
、
、
我正在解析XML并
使用
数据流
管道
写入
Bigquery
。如果在
BigQuery
中
插入
失败,
如何
处理
错误
?我想编写一个自定义代码,将失败
的
xml写入error bucket。
浏览 33
提问于2019-03-23
得票数 0
1
回答
在
数据流
中
使用
BigQuery
beam api向Streaming_insert
插入
记录时请求大小
错误
、
、
、
、
我创建了一个google流作业,从PubSub读取并
插入
到
BigQuery
中
。我
使用
JSON将STREAMING_INSERT数据
插入
到BiqQuery表
中
。我正面临
插入
问题,说明请求
的
大小超过了10 Mb
的
允许限制。
数据流
错误
如下所示。根据我
的
理解,每个记录
的
大小是1-2Mb,根据我
的
理解,
数据流
作业将流数据
插入</e
浏览 6
提问于2022-10-13
得票数 0
回答已采纳
1
回答
如何
作为流从
BigQuery
读取
、
、
我正在为
Java
2.0.1-快照
使用
Java
+ Apache 问题是,
管道
正在尝试
处理
所有的数据,然后才执行
插入
。在本例
中
,有执行流
插入
的
方法吗?--我已经尝试过在从BQ提取元素时设置一个时间戳,但是它没
浏览 5
提问于2017-07-20
得票数 1
1
回答
从Google云存储到Big Query
的
流式
数据流
、
、
、
我正在尝试
使用
DataFlow (
Java
)将数据从云存储
插入
到Big Query。我可以批量上传数据;但是,我想设置流式上传。因此,当新对象添加到我
的
存储桶
中
时,它们将被推送到
BigQuery
。我已经将PipelineOptions设置为流式传输,它在GCP Console UI
中
显示
数据流
管道
是流式传输类型。存储桶中最初
的
一组文件/对象被推送到
BigQuery
。但是,当我向存储桶<em
浏览 47
提问于2018-06-03
得票数 3
回答已采纳
1
回答
计算总
管道
延迟(云函数->发布/订阅->
数据流
-> BQ)
、
、
、
、
我目前在GCP中有一个
管道
,它
使用
云函数摄取数据,将其存入PubSub,在
数据流
中进行
处理
,最后将其
插入
到
BigQuery
中
。我正在尝试计算平均消息从云函数摄取到
BigQuery
需要多长时间(包括
插入
时间)。 我了解Stackdriver指标/仪表板以及GCP
的
API仪表板。我很想简单地将每个服务
的
所有延迟值相加,但我不确定它是否涵盖了我无法控制
的
延迟值(例如,
插
浏览 2
提问于2019-11-21
得票数 0
1
回答
将流转换为小型批
处理
,以便加载到
bigquery
、
、
、
我想建立以下
管道
:数据是流
的
,但我想避免将数据直接流到
BigQuery
中
,因此我希望在
数据流
机器
中
对小块进行批量
处理
,然后当它们达到一定
的
大小/时间时,将它们作为一个加载作业写入BQ
中
。我找不到任何示例说明
如何
使用
(仅
使用
Java
)来完成此操作
浏览 1
提问于2019-07-04
得票数 1
1
回答
如何
将Azure事件中心(kafka界面)
的
事件集成到google云发布/订阅
、
、
我有一个需求,我需要在Azure事件中心
使用
kafka主题。需要创建将
使用
作为参数提供
的
主题
的
POST端点。消息必须以kafka主题为属性,以消息内容为主体,在公共子主题上发送。 这是一个很高
的
要求。我看过以了解
如何
实现这一目标。但是,如果有人实时地实现了这一功能,即从Azure事件中心到google
的
事件,或者曾经进行过类似的实现,请提供帮助。
浏览 1
提问于2021-06-03
得票数 1
回答已采纳
2
回答
如何
将数据添加到
BigQuery
中
,而不存在速率限制问题?
、
、
、
、
目前,我有一个系统,希望通过Google函数将该系统
中
的
数据发送到
BigQuery
(
使用
Python)。我
的
想法是分两个简单
的
步骤: 因为我想
使用
这个系统
浏览 5
提问于2022-06-28
得票数 0
回答已采纳
2
回答
如何
在流模式下将数据从AWS加载到Google
BigQuery
?
、
、
如何
在流模式下将数据从AWS加载到Google
BigQuery
?描述:我有RDS ( Server)
中
的
数据,并希望将这些数据实时加载到Google
BigQuery
中
。
浏览 9
提问于2020-02-18
得票数 1
回答已采纳
2
回答
对于
数据流
,BigqueryIO.write()和
bigquery
.insertAll()方法哪个更好
、
、
、
我正在开发
java
代码,以便从GCS读取记录并
插入
到BQ表
中
,从成本和性能
的
角度来看,哪个BigqueryIO.write()或
bigquery
.insertAll()方法更好。
浏览 0
提问于2019-03-05
得票数 1
1
回答
BigQueryIO.writeTableRows()
中
的
GroupByKey节点不发出元素
、
、
、
、
我
的
流式
数据流
管道
从PubSub中提取数据,不会写出
BigQuery
,也不会记录任何
错误
。元素进入节点"Write to
BigQuery
/StreamingInserts/StreamingWriteTables/Reshuffle/GroupByKey":“它是这样隐式创建
的
这应该是一个流作业--我
如何
让它刷新并写入数据?这是beam版本2.13.0。谢谢。更新-将数据写入<e
浏览 3
提问于2019-07-31
得票数 1
1
回答
在
BigQuery
中
更新购物客户级数据
的
最佳方法
、
出于报告
的
目的,我正在考虑将我们
的
购物数据移动到
BigQuery
。我通过shopify API对customers端点进行分页,并获得所有客户级数据。然后我将其导出为csv,然后将其存储在google云存储上,然后导入到
BigQuery
。我
的
问题是,考虑到当前customer datamart上
的
一些条目(例如,总订单数)可能已经更改,并且自上次表更新以来可能已经创建了一些新客户,那么
处理
增量数据加载
的
最佳方法是什么。任何关于设计模式
的</em
浏览 0
提问于2021-03-06
得票数 1
1
回答
如何
在将JSON文件加载到
BigQuery
表
中
时管理/
处理
模式更改
、
、
、
、
下面是我
的
输入文件
的
样子:{"Id": 2, "Address": {"City":"Id": 4} {"Id": 5, "PhoneNumber": 12345678, "Address"
浏览 1
提问于2018-02-21
得票数 1
回答已采纳
1
回答
在
bigquery
中
插入
RFC3339字符串时出错
、
、
、
我遵循datetime字符串2020-03-30T16:26:37-04:00,当我尝试在
bigquery
中
插入
它时(我将string对象作为json对象
的
一部分发送),我会得到
错误
这是从gcp-
数据流
管道
插入
到
bigquery
的
。我
使用
的
是apache-beam[gcp]
浏览 5
提问于2020-03-30
得票数 0
回答已采纳
2
回答
从HTTP请求API拉取数据到Google Cloud
、
、
、
、
数据是半结构化
的
(json数据) 我想把这个数据发送到Google Big Query,以便储存所有的信息。 但是,我不知道
如何
才能正确地做到这一点。到目前为止,我已经在自己
的
服务器上
使用
Node通过POST请求获取数据。 你能帮帮我吗?特纳克。
浏览 17
提问于2019-10-15
得票数 0
2
回答
数据流
:我可以用批
处理
作业连续写入/流写入
BigQuery
吗?
、
、
我有一个apache
管道
,它接收一些信息,将其格式化为TableRows,然后写入
BigQuery
。直到
数据流
作业完成后,才会将行写入
BigQuery
。如果我有一个需要很长时间
的
数据流
作业,我希望能够看到
插入
到
BigQuery
中
的
行,谁能给我指明正确
的
方向? 提前感谢
浏览 0
提问于2018-06-08
得票数 1
2
回答
如何
使用
BigQuery
处理
数据流
管道
中
的
插入
错误
?
、
、
、
、
我正在尝试用Dataflow创建一个流
管道
,它从PubSub主题中读取消息,最终将它们写入
BigQuery
表
中
。我不想
使用
任何
数据流
模板。目前,我只想在从Google实例执行
的
Python3脚本
中
创建一个
管道
,以执行来自Pubsub
的
每条消息
的
加载和转换过程(解析其中包含
的
记录并添加一个新字段),最终将结果写入
BigQuery
表。那么记录
的
结构(字典
中</
浏览 0
提问于2019-11-14
得票数 3
回答已采纳
1
回答
流流水线上
的
java
.lang.NullPointerException on
BigQuery
.IO.Write
、
从
数据流
sdk
中
的
流
管道
获取
BigQuery
.IO.Write上
的
以下
错误
org.apache.beam.sdk.io.gcp.
bigquery
.BigQueryServicesImpl$DatasetServiceImpl.insertAll(BigQueryServicesImpl.
java
:759) org.apache.beam.sdk.io.gcp.
bigquery
.BigQueryServicesIm
浏览 1
提问于2018-01-10
得票数 0
回答已采纳
1
回答
AWS和Google云服务之间
的
流日志数据延迟是什么?
、
、
、
、
是否有人有以下方面的经验: 谢谢
浏览 3
提问于2015-12-15
得票数 2
3
回答
数据流
停止流到
BigQuery
,没有
错误
、
、
、
我们开始
使用
Dataflow从PubSub和Stream读取到
BigQuery
。
数据流
应该是24/7工作
的
,因为在世界各地
的
多个网站
的
分析数据不断更新。当我检查作业状态时,它不包含日志部分
中
的
错误
(您知道,那些标记为红色
的
错误
!)在
数据流
的
工作细节
中
)。如果我取消这份工作,然后再运行一次,它就会像往常一样重新开始工作。如果我检查Stac
浏览 2
提问于2018-12-04
得票数 3
点击加载更多
相关
资讯
如何在CAD中插入公式-CAD入门学习技巧插入工具的使用
Java中如何优雅的使用线程池?
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
云直播
活动推荐
运营活动
广告
关闭
领券