腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(205)
视频
沙龙
1
回答
在
数据流
作业
将
数据流式
传
输到
BigQuery
期间
,
无法
将
json
序列
化为
表
行
json
、
google-bigquery
、
javascript-objects
、
google-cloud-dataflow
、
user-defined-functions
我正在使用
数据流
作业
模板
将
数据
从发布/订阅订阅
流式
传
输到
BigQuery
。从每个
JSON
文件中,我需要转换这些值并一次
将
多个
表
行
输出到一个BQ
表
中。到达Pub/Sub的
JSON
消息的简化版本如下: {"a":{"k1":v1, "k2":v2}, "b":{&quo
浏览 19
提问于2021-07-22
得票数 0
回答已采纳
1
回答
使用Java
将
JSON
流式
传
输到
BigQuery
中
java
、
json
、
google-bigquery
我正在尝试使用类似于教程的Java驱动程序
将
数据流式
传
输到
BigQuery
,该教程
将
数据
从地图插入到
BigQuery
表
中。支持
在
插入时
将
行
指定为
JSON
,所以我想知道是否可以使用
JSON
驱动程序
将
JSON
流式
传
输到
bigquery
,而不必使用如下示例所示的映射。; rowCo
浏览 6
提问于2017-08-01
得票数 0
回答已采纳
2
回答
对于
数据流
,BigqueryIO.write()和
bigquery
.insertAll()方法哪个更好
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
dataflow
我正在开发java代码,以便从GCS读取记录并插入到BQ
表
中,从成本和性能的角度来看,哪个BigqueryIO.write()或
bigquery
.insertAll()方法更好。
浏览 0
提问于2019-03-05
得票数 1
1
回答
通过云函数插入
BigQuery
不起作用
google-cloud-platform
、
google-bigquery
、
google-cloud-functions
、
google-publisher-tag
我将以下
json
插入到预先创建的
BigQuery
表
中。4, "Exercise_Calories_Burned": 876,} const PubSubMessage = event.data;
浏览 3
提问于2018-11-14
得票数 3
1
回答
使用GCP
数据流
PubSub to
BigQuery
模板时的表列名称问题
google-cloud-platform
、
google-bigquery
、
google-cloud-messaging
、
google-cloud-dataflow
背景:发布/订阅消息中的一些字段名包含破折号(-),我
无法
控制这些破折号,并且
数据流
模板似乎期望
在
目标
BigQuery
表
中使用完全相同的字段名。BQ的一个限制是不允
浏览 0
提问于2019-08-01
得票数 0
1
回答
基于Google Cloud平台的物联网实时流处理
google-cloud-platform
、
iot
、
google-cloud-pubsub
、
gcp
、
google-cloud-iot
我关注的是通过GCD发布/订阅的物联网实时流处理,云
数据流
和通过
BigQuery
.I执行分析。我正在寻求如何实现这一点的帮助。
浏览 2
提问于2017-06-15
得票数 1
0
回答
如何在
BigQuery
插入错误时崩溃/停止DataFlow发布/订阅摄取
google-bigquery
、
google-cloud-dataflow
、
google-cloud-pubsub
来自发布/订阅的事件是使用TableRowJsonCoder通过PubsubIO.Read.Bound<TableRow>读取的
JSON
,并使用BigQueryIO.Write.Bound直接
流式
传
输到
如果从PubSub接收的事件/
行
中的字段不是目标
BigQuery
表
中的列,则DataFlow
作业
会在运行时记录IOExceptions,声明它
无法
插入行,但似乎会确认这些消息并继续运行。相反,我想要做的是停止接收来自发布&
浏览 5
提问于2017-06-10
得票数 5
回答已采纳
2
回答
调度删除BQ
表
google-bigquery
、
google-cloud-dataprep
我
将
数据流式
传
输到
BQ中,每天我
在
Dataprep中运行一个计划的
作业
,该
作业
需要24小时的
数据
,并修改一些
数据
,并在BQ
数据
集中创建一个包含24小时
数据
的新
表
。但是,原始
表
保持不变,并继续收集
数据
。我想要做的是
在
dataprep制作副本之后删除
表
中的所有
行
,以便收集新的24小时
数据流
我如何
浏览 2
提问于2018-11-28
得票数 0
1
回答
使用
BigQuery
提取Google Analytics
数据
并在SQL Server中加载
c#
、
sql-server
、
json
、
ssis
、
google-bigquery
我必须使用
BigQuery
从Google Analytics中提取
数据
,并将
JSON
加载到SQL Server。我知道我们可以
在
C#中调用GS,
在
JSON
中
流式
传输
数据
,并将其上传到Google Storage中,然后使用GSUTIL.exe
将
JSON
文件从GS复制到
BigQuery
服务器进行处理。读取
JSON
并将其加载到SQL server中。有没有一种方法可以直
浏览 14
提问于2017-01-24
得票数 0
1
回答
如何在标准SQL
BigQuery
中解析
JSON
?
sql
、
json
、
google-bigquery
在
将
一些
json
数据流式
传
输到
BQ中之后,我们有一个如下所示的记录: "{\"Type\": \"Some_type\", \"Identification\": {\"Name\": \"First我尝试了https://cloud.google.com/
bigquery
/docs/reference/standard-sql&
浏览 8
提问于2019-02-25
得票数 4
回答已采纳
1
回答
在
GKE上插入
BigQuery
流失败
go
、
google-cloud-platform
、
google-bigquery
、
google-kubernetes-engine
我们有一个拥有3x n2-highcpu-8节点的GKE集群,用GO编写的web应用程序可以扩展到3个实例(每个节点1个),
将
所有请求都使用流传
输到
BigQuery
,我注意到了非常奇怪的行为:
在
高应用程序使用率
期间
,应用程序启动的3个实例中有2个
在
流式
写入时100%失败,错误是仅写入“超过上下文截止日期”,而当我删除这2个pod时,它们又开始接收流量,旧的1开始失败,出现“上下文截止日期超过”,而新的2中有1个成功地继续写入
数据
我查看了
Big
浏览 19
提问于2020-12-04
得票数 0
回答已采纳
1
回答
如果在
作业
运行
期间
删除了GCloud
数据流
,则重新创建
BigQuery
表
。
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
apache-beam
我已经设置了一个GCloud
数据流
管道,它使用来自Pub/Sub订阅的消息,将它们转换为
表
行
,并将这些
行
写入相应的
BigQuery
表
。
表
目的地是根据Pub/Sub消息的内容确定的,偶尔会导致
表
还不存在,必须先创建
表
的情况。为此,我使用create CREATE_IF_NEEDED,它工作得很好。但是,我注意到,如果在
数据流
作业
仍在运行时手动删除
BigQuery
中
浏览 1
提问于2020-03-21
得票数 0
回答已采纳
1
回答
从
数据流
插入到
BigQuery
之前验证
行
google-bigquery
、
google-cloud-dataflow
根据,在从
数据流
将
数据
加载到
BigQuery
时,目前
无法
设置maxBadRecords配置。建议
在
将
数据流
作业
中的
行
插入
BigQuery
之前验证它们。如果我有TableSchema和TableRow,如何确保
行
可以安全地插入到
表
中? 必须有一种比迭代模式中的字段、查看它们的类型和查看
行
中值的类更简单的方法来实现这一点,对吗?这似乎很容易出错,而且
浏览 3
提问于2016-02-03
得票数 10
回答已采纳
1
回答
如何最好地缓存
bigquery
表
以快速查找单个
行
?
google-cloud-platform
、
google-cloud-firestore
、
google-bigquery
、
google-cloud-dataflow
我
在
bigquery
中有一个原始
数据
表
,它有数亿
行
。我每24小时运行一次预定的查询,以生成一些聚合,从而生成一个标有3300万
行
(6gb)的表格,但可能会缓慢增长到大约是当前大小的两倍。我可以设想几个策略: 1)
将
agg
表
的转储安排到GCS。启动
数据流
作业
,
将
gcs转储的内容流到pubsub。创建一个无服务器函数来侦听pubsub,并将
行
插入到防火墙中。2)
在
计算
浏览 2
提问于2019-09-30
得票数 0
回答已采纳
1
回答
BigQuery
上的增量
作业
缺少记录
google-bigquery
、
google-cloud-dataflow
、
apache-beam
我正面临一个奇怪的问题,一个小的增量任务,它是我
在
一个流
BigQuery
表
上用Apache光束实现的。我正在
将
数据流式
传
输到
BigQuery
表
中,并且每小时我都会运行一个
作业
,将该
流式
传输
表
中的任何新记录复制到一个协调
表
中。增量是建立
在
我
在
流
表
中介绍的CreateDatetime列之上的。一旦记录被加载到流
表
中
浏览 0
提问于2017-10-09
得票数 0
2
回答
从
数据流
在
BigQuery
中插入
数据
google-bigquery
、
google-cloud-dataflow
、
dataflow
以前,我有PCollection formattedResults;,我使用以下代码
在
大型查询中插入行:PCollection<TableRow.withWriteDisposition(BigQueryIO.Write.WriteDisposition.WRITE_APPEND)); 所有的行都是直接插入到
BigQuery
但是现在我已经开始动态地识别
表
名和它的行了,所以我创建了PCollection,如下所示:(String将是
表
名
浏览 3
提问于2016-08-05
得票数 0
2
回答
由于templateSuffix,InsertAll失败
google-bigquery
我正在尝试使用templateSuffix
将
数据流式
传
输到
BigQuery
中的
表
。'rows': [{ 'ignoreUnknownValues': True, 'arguments': []
浏览 0
提问于2016-10-29
得票数 1
2
回答
BigQuery
:从CSV加载,跳过列
python
、
csv
、
google-bigquery
假设我有一个包含现有
数据
的
表
,其模式如下:{ 'name' : 'Field2', 'type' : 'STRING' }Field1,Field2...我们通过创建一个新
作业
来加载
数据
,直接从(GCS)加载C
浏览 4
提问于2014-09-08
得票数 5
回答已采纳
1
回答
从
数据流
插入
BigQuery
流-无结果
google-bigquery
、
google-cloud-dataflow
、
google-cloud-pubsublite
我有一个
数据流
管道,它从PubSub Lite读取消息,并将
数据流式
传
输到
BigQuery
表
中。该
表
按天进行分区。使用以下命令查询
表
时:
BigQuery
withTimePartitioning(new TimePartitioning().setType("
浏览 4
提问于2021-10-14
得票数 2
3
回答
在
BigQuery
中将
数据流
到旋转日志
表
中
google-bigquery
我想用
BigQuery
将
一些时间
序列
数据
输入insertAll,但只保留最后3个月(比方说),以避免无限制的存储成本。通常的答案是,但是AFAICT需要预先创建每个这样的
表
。我打算直接从一个只具有
bigquery
.insertdata作用域的令牌授权的非安全客户端中流
数据
,这样他们就
无法
自己创建每日表。我能想到的唯一解决方案是运行一个安全的每日cron
作业
来创建
表
--这并不理想,尤其是如果它不正确地触发
数据<
浏览 10
提问于2015-11-08
得票数 2
回答已采纳
点击加载更多
相关
资讯
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
Python编程:序列化和反序列化
Python3内置模块之json编解码方法小结
Python编程:文件读写
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券