腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
是否
可以
将
数据流
中
BigQuery
加载
配置
中
的
setSchemaUpdateOptions
(
ALLOW_FIELD_ADDITION
)
与
内置
BigQueryIO.Write
一起
使用
?
java
、
google-bigquery
、
google-cloud-dataflow
我想
使用
允许我在执行
加载
作业时更新
BigQuery
模式
的
。 我
使用
的
是
数据流
和软件开发工具包
中
的
内置
BigQueryIO.write
。我看到
使用
来自
BigQuery
应用编程接口
的
JobConfigurationLoad.
setSchemaUpdateOptions
(
ALLOW_FIELD_ADDITION
)是可
浏览 4
提问于2017-07-27
得票数 0
回答已采纳
1
回答
PHP-如何在PHP SchemaUpdateOption库中将
ALLOW_FIELD_ADDITION
配置
为
ALLOW_FIELD_ADDITION
php
、
google-bigquery
我正在
使用
BigQuery
PHP库,但是我不知道如何
将
insertRows()函数
配置
为
ALLOW_FIELD_ADDITION
,以便允许动态地向模式
中
添加列。$
bigQuery
= new BigQueryCli
浏览 1
提问于2019-05-02
得票数 0
回答已采纳
1
回答
PCollection<Entity>到PCollection<TableRows>
google-app-engine
、
google-bigquery
、
google-cloud-dataflow
我试图
使用
Dataflow查询数据存储
中
的
所有类型,并将它们写入
BigQuery
中
的
日期分段分区
中
。DatastoreIO.read()
的
阅读部分很简单,给了我一个PCollection<Entity>。
BigQuery
需要一个PCollection<TableRow>,我能隐式地从一个转换到另一个吗?我
的
数据涉及一些不可预测
的
字段(例如,嵌入属性
中
浏览 6
提问于2017-06-23
得票数 0
回答已采纳
2
回答
对于
数据流
,
BigqueryIO.write
()和
bigquery
.insertAll()方法哪个更好
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
dataflow
我正在开发java代码,以便从GCS读取记录并插入到BQ表
中
,从成本和性能
的
角度来看,哪个
BigqueryIO.write
()或
bigquery
.insertAll()方法更好。
浏览 0
提问于2019-03-05
得票数 1
3
回答
谷歌
数据流
每项作业
是否
有BT写原子?
google-cloud-dataflow
也许我是个糟糕
的
探索者,但我在文档
中
找不到答案,所以我只想在这里试试运气。我知道写GCS似乎不是原子
的
,在作业运行
的
过程中会产生部分输出分区。但是,我已经尝试过通过
数据流
将
数据转储到BQ
中<
浏览 6
提问于2016-08-05
得票数 1
回答已采纳
1
回答
云
数据流
、PubSub和
Bigquery
问题
java
、
google-bigquery
、
google-cloud-dataflow
、
publish-subscribe
、
google-cloud-pubsub
我想
使用
Cloud Dataflow、PubSub和
Bigquery
将
tableRow写入发布订阅消息,然后将它们写入
Bigquery
。我希望表名、项目id和数据集id是动态
的
。
浏览 0
提问于2018-07-15
得票数 0
2
回答
通过
加载
作业(非流式处理)插入到
BigQuery
google-bigquery
、
google-cloud-dataflow
我希望
使用
数据流
将
数据
加载
到
使用
的
BigQuery
表
中
,而不是流式处理(对于我们
的
用例,流式处理
的
成本太高)。我看到Dataflow SDK
内置
了对通过BQ流插入数据
的
支持,但我在Dataflow SDK
中
找不到任何开箱即用
的
支持
加载
作业
的
功能。以下是一些问题: 1) Dataflow SDK
是否</e
浏览 0
提问于2015-06-17
得票数 3
1
回答
在beam.io.writetobigquery中
使用
模式更新选项
google-bigquery
、
apache-beam
、
google-dataflow
我正在
使用
apache apache
数据流
将
一堆日志文件
加载
到
BigQuery
中
。通过向文件添加新列,文件格式
可以
在一段时间内更改。我看到架构更新选项ALLOW_FILED_ADDITION。下面是我
的
WriteToBQ步骤: | 'write to
bigquery
' >> beam.io.WriteToBigQuery('project:datasetId.tableId', ,
浏览 34
提问于2020-10-14
得票数 0
2
回答
BigQueryIO -不能将DynamicDestination
与
CREATE_IF_NEEDED
一起
用于无界PCollection和FILE_LOADS
google-cloud-platform
、
google-bigquery
、
google-cloud-dataflow
、
apache-beam
我
的
工作流程: KAFKA ->
数据流
->
BigQuery
.withCreateDisposition(CreateDisposition.CREATE_IF_NE
浏览 1
提问于2018-03-12
得票数 6
3
回答
BigQuery
联邦数据源
的
API
配置
ruby-on-rails
、
ruby
、
google-cloud-platform
、
google-bigquery
、
google-cloud-storage
我有以下
配置
,
可以
很好地
将
一堆文件
加载
到
BigQuery
中
: 'configuration'=> { 'sourceUris'=> 'gs_*', 'fields'=> fields_array
浏览 0
提问于2018-03-22
得票数 0
回答已采纳
2
回答
使用
多字符分隔符
将
存储在谷歌云存储上
的
数据
加载
到
BigQuery
google-bigquery
、
google-cloud-storage
、
google-cloud-platform
、
google-cloud-dataflow
我想将带有多个字符分隔符
的
数据
加载
到
BigQuery
。BQ load命令当前不支持多个字符分隔符。它只支持单个字符分隔符,如'|‘、'$’、'~‘等 我知道有一种
数据流
方法,它将从这些文件
中
读取数据并写入
BigQuery
。但是我有大量
的
小文件(每个文件400MB),它们必须写入一个单独
的
表分区(分区编号在700左右)。这种方法在处理
数据流
时速度很慢,因为我当前必须启动一个不同
的
数
浏览 22
提问于2016-08-11
得票数 3
回答已采纳
1
回答
如何
使用
云编写器运行
数据流
作业
python
、
airflow
、
google-cloud-dataflow
、
apache-beam
、
google-cloud-composer
我知道Apache,我
可以
使用
它创建管道,我也知道Composer
中
的
哪个操作符来运行
数据流
作业,我只想知道如何
将
普通
的
apache代码转换成
数据流
作业,这样我就
可以
使用
Composer运行它,我需要什么样
的
设置,我需要什么
配置
,我没有发现Google非常有用,请帮帮我。我
的
要求是从云存储
中
读取csv文件,并
使用
数据流<
浏览 2
提问于2021-02-16
得票数 2
1
回答
bigquery
在巨大数据负载期间
的
束流处理失败
google-bigquery
、
google-cloud-dataflow
我最近开始
使用
Apache。我肯定我漏掉了什么东西。我需要从一个非常庞大
的
数据库
加载
到
bigquery
。这些桌子很大。我编写了示例波束作业,以从简单
的
表中
加载
最小
的
行。如何
使用
JDBCIO从表中
加载
n行数?我
是否
可以
像在传统
的
数据迁移作业中一样,批量
加载
这些数据呢? 我
可以
从数据库
中
批量读取数据并将其成批写入
bigq
浏览 1
提问于2017-06-29
得票数 0
1
回答
如何在第三方
BigQuery
中进行请求,并定期在谷歌API上
加载
结果?我应该
使用
哪些google服务?
google-cloud-platform
、
google-bigquery
、
data-integration
我需要从第三方应用程序接口获取数据,并在谷歌
BigQuery
中
摄取它。也许,我需要通过google服务实现这个过程
的
自动化,以便定期完成这个过程。我正在尝试
使用
Cloud Functions,但它需要一个触发器。我也读过关于App Engine
的
文章,但我相信不适合只有一个函数来发出拉取请求。另一个疑问是:我
是否
需要将数据
加载
到云存储
中
,或者
是否
可以
直接将其
加载
到
BigQuery
?
浏览 17
提问于2019-08-24
得票数 1
回答已采纳
1
回答
将
Google Cloud Dataprep连接到自动化管道
中
的
AutoML表
google-cloud-platform
、
google-cloud-dataprep
如何将
使用
GCP Dataprep完成
的
数据预处理连接到AutoML工作流? Dataprep允许您
使用
GUI进行一些数据预处理,并将
数据流
配方
与
预处理任务
一起
导出。此外,您还
可以
将
数据写回到导出
的
文件
中
,返回到GCS或
BigQuery
。但是,如何
将
所有部分连接起来,使其成为自动部署
的
AI平台模型
的
一部分?生成
的
多通道管道可能如
浏览 20
提问于2019-07-15
得票数 0
1
回答
Google /Sub到Dataflow,避免重复
使用
记录ID
google-bigquery
、
google-cloud-platform
、
google-cloud-dataflow
、
google-cloud-pubsub
、
spotify-scio
我正在尝试构建一个流
数据流
作业,它从Pub/Sub读取事件并将它们写入
BigQuery
。根据文档,如果
使用
记录ID,Dataflow
可以
检测重复
的
消息传递(请参阅:)我错过了什么吗?编辑:Message .data(new String(Base64.encodeBase64(json.ge
浏览 6
提问于2017-02-01
得票数 4
1
回答
bigquery
通配符表查询
的
“兼容”模式
google-bigquery
为此,
使用
legacy SQL需要多个由UNION连接
的
SELECT语句,并为以前
的
表
中
不存在
的
新字段提供虚拟空占位符。我有100个组合查询要构建和执行。我
可以
编写这个脚本,但我希望
使用
Standard SQL通配符表代替。然而,我在上读到: 为了执行
使用
通配符表
的
标准SQL查询,
BigQuery
会自动推断该表
的
架构。
BigQuery
使用
最近创建
的</e
浏览 7
提问于2018-01-04
得票数 0
1
回答
Apache梁/
数据流
-流水线
中
各步骤之间
的
延迟
java
、
google-cloud-dataflow
、
apache-beam
我
使用
Aapche Beam (带有
数据流
运行程序)下载二进制文件(天气预报,大约300个文件),然后解码它们,然后
将
结果存储为CSV,然后
将
CSV
加载
到
BigQuery
中
。----------- ------------------------------- ----
浏览 0
提问于2018-02-13
得票数 2
回答已采纳
3
回答
BigQuery
是否
加密磁盘上
的
数据?
encryption
、
google-bigquery
我试图找到这个问题
的
答案,但只找到了一些轶事。谷歌
是否
对存储在
BigQuery
上
的
数据进行加密?如果是的话,
使用
了哪些加密机制?
浏览 3
提问于2014-10-10
得票数 2
回答已采纳
1
回答
加快从云SQL导入
BigQuery
查询作业
的
速度
google-cloud-platform
、
google-bigquery
、
google-cloud-sql
作为
使用
联邦查询
将
Cloud SQL表迁移到
BigQuery
的
一部分,我正在执行一个查询,以生成一个大小约为1TB(几十亿行)
的
新
BigQuery
表。我
使用
SQL客户端提交查询作业,在查询
中
我从Cloud
BigQuery
数据库表中选择all并
使用
EXTERNAL_QUERY。我看到PostgreSQL出口是20Mb/秒,
与
需要半天
的
工作一致。如果我考虑一些更分布式<em
浏览 14
提问于2021-01-06
得票数 0
点击加载更多
相关
资讯
谷歌推出Bigtable联邦查询,实现零ETL数据分析
使用Java部署训练好的Keras深度学习模型
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
这可能是北半球最暖的Kafka Connect数据管道教程:2
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券