腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
使用
流式
插入
插入
的
控制台
从
BigQuery
中
删除
数据
google-cloud-platform
、
google-bigquery
我已经
使用
流
插入
(insertAll)将一些
数据
插入
到我
的
表
中
,以测试代码
的
工作方式。现在,我希望
从
表
中
删除
该
数据
。我
使用
了以下查询: DELETE FROM MY_DATASET.my_Table WHERE someColumn like 'XYZ%' 并得到以下错误: UPDATE or DELETE statement
浏览 24
提问于2020-10-17
得票数 1
回答已采纳
1
回答
使用
AVRO格式
的
BiqQuery流
插入
python
、
google-bigquery
、
google-cloud-platform
、
avro
有没有办法
使用
流式
插入
将AVRO格式
的
数据
插入
到
BigQuery
中
?如果是,我们
使用
的
是,但似乎不支持。仅支持json类型。我是不是遗漏了什么?有没有一种方法可以<e
浏览 14
提问于2017-01-31
得票数 2
回答已采纳
2
回答
对于
数据
流,BigqueryIO.write()和
bigquery
.insertAll()方法哪个更好
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
dataflow
我正在开发java代码,以便
从
GCS读取记录并
插入
到BQ表
中
,
从
成本和性能
的
角度来看,哪个BigqueryIO.write()或
bigquery
.insertAll()方法更好。
浏览 0
提问于2019-03-05
得票数 1
1
回答
BigQuery
python客户端
使用
流API
删除
一些行
google-cloud-platform
、
google-bigquery
、
google-cloud-python
我
使用
流式
应用编程接口(
BigQuery
Python客户端
的
insert_row函数)将大约一百万个
数据
项
插入
到
BigQuery
中
,但是有一些
数据
丢失,大约10,000个
数据
项在
插入
时丢失。有没有可能
BigQuery
会丢弃一些
数据
?因为没有任何
插入
错误(或任何错误)。
浏览 63
提问于2018-12-03
得票数 0
1
回答
如何截断临时表?
google-bigquery
为了保持列
的
唯一性,我
的
几个客户将
数据
流式
传输到BQ
中
的
临时表(如果不存在于主表
中
,则重试2次,间隔10分钟),并
使用
另一个cron作业每隔几分钟将临时表合并到一个列分区表
中
。如果临时表被合并到主表
中
,我需要截断它,但似乎我
的
客户端一直都在
流式
传输
数据
。这里有什么推荐吗?
浏览 2
提问于2018-07-22
得票数 1
1
回答
使用
Java将JSON
流式
传输到
BigQuery
中
java
、
json
、
google-bigquery
我正在尝试
使用
类似于教程
的
Java驱动程序将
数据
流式
传输到
BigQuery
,该教程将
数据
从
地图
插入
到
BigQuery
表
中
。支持在
插入
时将行指定为JSON,所以我想知道是否可以
使用
JSON驱动程序将JSON
流式
传输到
bigquery
,而不必
使用
如下示例所示
的
映射。; rowContent.put("re
浏览 6
提问于2017-08-01
得票数 0
回答已采纳
2
回答
从
HTTP请求API拉取
数据
到Google Cloud
api
、
google-app-engine
、
google-bigquery
、
cloud
、
google-cloud-storage
我有一个应用程序,
从
API发送
数据
给我。
数据
是半结构化
的
(json
数据
) 我想把这个
数据
发送到Google Big Query,以便储存所有的信息。 但是,我不知道如何才能正确地做到这一点。到目前为止,我已经在自己
的
服务器上
使用
Node通过POST请求获取
数据
。 你能帮帮我吗?特纳克。
浏览 17
提问于2019-10-15
得票数 0
1
回答
用于重复
数据
删除
的
Apache ->
BigQuery
- insertId不起作用
google-bigquery
、
apache-beam
我将
数据
从
卡夫卡
流式
传输到
BigQuery
,
使用
的
是带有谷歌
数据
流运行器
的
阿帕奇光束。我想
使用
insertId进行重复
数据
删除
,我在谷歌文档中找到了这一点。但是,即使这些
插入
在几秒钟内发生,我仍然可以看到许多具有相同insertId
的
行。现在我在想,也许我没有正确
使用
API来利用BQ提供
的
流式
插入</e
浏览 1
提问于2017-09-25
得票数 1
1
回答
从
Google云存储到Big Query
的
流式
数据
流
google-cloud-platform
、
google-bigquery
、
google-cloud-storage
、
google-cloud-dataflow
我正在尝试
使用
DataFlow (Java)将
数据
从
云存储
插入
到Big Query。我可以批量上传
数据
;但是,我想设置
流式
上传。因此,当新对象添加到我
的
存储桶
中
时,它们将被推送到
BigQuery
。我已经将PipelineOptions设置为
流式
传输,它在GCP Console UI
中
显示
数据
流管道是
流式
传输类型。存储桶中最初
的
一组文件/
浏览 47
提问于2018-06-03
得票数 3
回答已采纳
1
回答
GCP -
使用
Google Cloud Function和Python将
数据
从
REST API
插入
/加载到
BigQuery
python
、
google-cloud-platform
、
google-bigquery
、
google-cloud-functions
是否可以
使用
云函数将带有json输出
的
rest api
中
的
数据
直接
插入
/
流式
传输到gcp
中
的
bigquery
?做了一些研究,但它总是要求放在GCS存储桶
中
,然后创建云函数将
数据
加载到
bigquery
。 提前谢谢。
浏览 19
提问于2020-06-25
得票数 1
1
回答
BigQuery
:此表
的
表dml insert操作太多
python
、
google-bigquery
我正在尝试通过Python客户端将不同计算机(n=20)上
的
超过2亿条记录导入到我
的
BigQuery
表
中
。每台计算机每10秒运行一次作业(多行) from google.cloud import
bigquery
os.environ["GOOGLE_APPLICATION_CREDENTIALSfor err in results: print(err) 但我得到以下错误: google.api_core.exceptions.Forbidden: 403超
浏览 50
提问于2021-02-28
得票数 1
回答已采纳
1
回答
使用
Google Cloud Functions进行
流式
插入
/更新
google-cloud-platform
、
google-cloud-functions
这是关于
使用
google云函数
的
流
数据
插入
/更新。我
使用
Salesforce作为源
数据
库,并希望对谷歌
BigQuery
表进行
流式
插入
/更新。我
的
插入
部分工作得很好,但我如何能够进行更新,因为流
数据
首先被
插入
到流缓冲区
中
,这将不允许在30分钟左右
的
时间内执行DML操作。这方面的任何帮助都将不胜感激。
浏览 21
提问于2019-06-04
得票数 1
回答已采纳
1
回答
使用
本机Insert查询将
数据
插入
到
BigQuery
中
java
、
google-cloud-platform
、
google-bigquery
我
使用
BigQuery
的
InsertAll方法将行
插入
到InsertAll
中
。一切都很顺利。但是,当我们试图
从
JAVA代码
中
更新同一行时,会出现以下错误, 我
使用
INSERT查询
插入
一行,
浏览 2
提问于2020-09-30
得票数 0
回答已采纳
3
回答
删除
大查询表
中
的
所有行
google-bigquery
我有一个用于单元测试
的
表,我在其中运行一些代码,查询表,检查
数据
是否已成功添加,然后
删除
表
的
全部内容。 我该如何
删除
表
中
的
每一行? 我宁愿不必重新创建这个表。
浏览 15
提问于2019-09-08
得票数 1
2
回答
如何
使用
流insertAll在
BigQuery
中
插入
38000条记录?
google-cloud-platform
、
google-bigquery
、
streaming
、
spring-cloud-gcp-bigquery
我正在尝试
使用
流式
insertAll方法在
BigQuery
中
插入
38000条记录。但首先我得到
的
错误是:com.google.cloud.
bigquery
.BigQueryException: Read timed out
bigquery
= bigqueryOptions.getDefaultInstance().getService();Insert op
浏览 5
提问于2021-02-18
得票数 2
1
回答
数据
流因
BigQuery
而失败
google-cloud-platform
、
google-bigquery
数据
流因
BigQuery
而失败在日志
中
,"1行
插入
失败“ 就这样。
浏览 10
提问于2018-07-27
得票数 0
1
回答
BigQuery
INSERT DML语句限制
google-bigquery
我正在查看这里
的
BigQuery
数据
,我发现INSERT和UPDATE
的
限制是1000次操作/day / 。这个限制是只在
使用
BigQuery
的
WebUI时有效,还是在
使用
流式
API每秒
插入
数千个查询时也是一个限制? 或者文档已经过时了?
浏览 2
提问于2017-05-25
得票数 0
1
回答
BigTable是否适合非常频繁地
插入
单行?
google-cloud-bigtable
、
bigtable
我们有一个流解决方案,它从
BigQuery
主题获取消息,并
使用
DataFlow将每条消息
流式
传输到pubsub表
中
。这是
BigQuery
的
一个非常合适
的
用例。我们还希望获取这些消息
的
一个子集,并使它们在BigTable
中
可用。我
的
想法是,我们可以
使用
云函数
从
pubsub主题中读取每条所需
的
消息,然后调用
BigQuery
API将一行
插入<
浏览 3
提问于2021-06-23
得票数 0
1
回答
将查询结果保存到
BigQuery
中
的
表
的
成本?
google-bigquery
我很好奇有一个python (QueryJobConfig)可以设置目标表来保存查询结果,所以为了节省这种开销,在GCP
中
需要花费多少?为了明确起见,保存查询结果可能会被视为
插入
,因此,如果我经常
使用
此方法更新表,那么执行流
插入
将花费很大
的
成本。
浏览 3
提问于2020-04-20
得票数 0
回答已采纳
2
回答
通过加载作业(非
流式
处理)
插入
到
BigQuery
google-bigquery
、
google-cloud-dataflow
我希望
使用
数据
流将
数据
加载到
使用
的
BigQuery
表
中
,而不是
流式
处理(对于我们
的
用例,
流式
处理
的
成本太高)。我看到Dataflow SDK内置了对通过BQ流
插入
数据
的
支持,但我在Dataflow SDK
中
找不到任何开箱即用
的
支持加载作业
的
功能。以下是一些问题: 1) Dataflow SDK
浏览 0
提问于2015-06-17
得票数 3
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券