腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
数据流
将
数据
插入
到
BigQuery
中
使用
端
输出
将
表
从
具有
不同
模式
的
同一
文件
中
分离出来
、
、
、
、
timestamp": "2020-08-22T23:00:48.000", }} 我需要首先将
数据
插入
Bigquery
表
: Staging.emp ID、姓名、薪水 1,ABC,20000 2、XYZ、30000 我还需要将ID、时间戳(加载时间戳)和
文件
名
插入
到
一个单独
的
<
浏览 12
提问于2020-08-29
得票数 0
回答已采纳
2
回答
对于
数据流
,BigqueryIO.write()和
bigquery
.insertAll()方法哪个更好
、
、
、
我正在开发java代码,以便
从
GCS读取记录并
插入
到
BQ
表
中
,
从
成本和性能
的
角度来看,哪个BigqueryIO.write()或
bigquery
.insertAll()方法更好。
浏览 0
提问于2019-03-05
得票数 1
1
回答
基于sk-学习模型
的
大查询预测
、
、
我在我
的
本地机器上创建了一个滑雪板模型。然后我就把它上传到google存储上了。我已经创建了一个模型和版本在人工智能平台上
使用
相同
的
模型。它正在为在线预测工作。现在,我希望执行批处理预测,并将
数据
存储
到
大查询
中
,比如每次执行预测时它都会更新大查询
表
。 有人能建议我怎么做吗?
浏览 1
提问于2019-07-15
得票数 0
回答已采纳
1
回答
处理
数据流
到BigQury流时
模式
中
的
更改
、
、
、
我有一个需求,我应该能够在运行时修改
BigQuery
模式
,同时
从
PubSub流到
BigQuery
。我浏览了几个链接,比如: 谢谢。
浏览 0
提问于2019-09-12
得票数 0
回答已采纳
1
回答
在
数据流
中
使用
BigQuery
beam api向Streaming_insert
插入
记录时请求大小错误
、
、
、
、
我创建了一个google流作业,
从
PubSub读取并
插入
到
BigQuery
中
。我
使用
JSON
将
STREAMING_INSERT
数据
插入
到
BiqQuery
表
中
。我正面临
插入
问题,说明请求
的
大小超过了10 Mb
的
允许限制。
数据流
错误如下所示。根据我
的
理解,每个记录
的
大小是1-2M
浏览 6
提问于2022-10-13
得票数 0
回答已采纳
2
回答
从
URL
到
BigQuery
的
GCP云函数与ETL
数据流
、
、
、
、
我正在
使用
下面的ETL管道
将
数据
输入
BigQuery
。
数据
源是.csv & .xls
文件
,来自每日下午3点发布
的
网址云调度程序在下午3:05向云发布/子主题发布消息Pub/Sub推送/触发订阅者-云函数在触发时,这些云函数(python )
从
URL下载
文件
,执行转换(清理、格式化、聚合和过滤)并将其上传到
BigQuery
。在GCP
中
是否有一种更干净
的</
浏览 4
提问于2022-07-27
得票数 1
2
回答
云存储新增
文件
时触发
数据流
作业
、
、
我希望在向存储存储桶添加新
文件
时触发
数据流
作业,以便处理新
数据
并将新
数据
添加到
BigQuery
表
中
。我看到云通过存储桶
中
的
更改来运行,但我还没有找到
使用
启动
数据流
作业
的
方法。有没有一种方法可以
使用
云函数来实现这一点,或者是否有其他方法来实现预期
的
结果(在
将
文件
添加到存储存储桶时
将
新
数据
浏览 6
提问于2016-04-02
得票数 2
回答已采纳
2
回答
将
BigQuery
联邦
表
作为
数据
源在
数据流
中
读取会引发一个错误
、
我在
BigQuery
中有一个联邦源代码,它指向GCS
中
的
一些CSV
文件
。当我尝试
将
联邦
BigQuery
表
作为Dataflow管道
的
源读取时,它会引发以下错误: 1226 [main] ERROR com.google.cloud.dataflow.sdk.util.BigQueryTableRowIterator- Error reading from
BigQuery
table Federated_test_dataflo
浏览 5
提问于2016-03-24
得票数 4
回答已采纳
2
回答
当
使用
引用
数据
时,流分析不会生成
到
SQL
表
的
输出
、
、
、
我最近正在
使用
ASA,我试图
使用
引用
数据
将
ASA流直接
插入
到
SQL
表
中
。我
的
开发基于这篇MS文章:。 在事件集线器后面,有一个单一
的
streams组件,其中我根据属性设备类型
将
流重定向
到
浏览 0
提问于2018-08-29
得票数 1
回答已采纳
1
回答
用Java在BiqQuery
中
创建
数据
加载
表
、
根据这里
的
文档:,
BigQuery
应该可以根据
数据
创建
表
。
将
数据
加载到
BigQuery
中
时,可以
将
数据
加载到新
的
表
或分区
中
,可以
将
数据
附加到现有的
表
或分区,也可以覆盖
表
或分区。在加载
数据
之前,不需要创建空
表
。您可以创建新
表
并同时加载<e
浏览 1
提问于2018-09-25
得票数 0
1
回答
气流DAG -如何首先检查BQ (必要时删除),然后运行
数据流
作业?
、
、
、
、
我正在
使用
composer为到达到
BigQuery
的
GCS
文件
编排ETL。我有一个云函数,它在
文件
到达时触发进程,云函数
将
文件
名/位置传递给DAG。在我
的
DAG
中
,我有两个任务: 1)
使用
DataflowPythonOperator运行
数据流
作业,该作业读取GCS
中
的
文本
中
的
数据
,并将其转换为BQ,2
浏览 0
提问于2019-01-09
得票数 3
回答已采纳
1
回答
是否有用于Bigtable IO连接器
的
Apache Beam DynamicDestinations?
、
、
、
对于BigtableIO,是否有相同
的
实现或解决方法? events.apply(BigTableIO.
浏览 11
提问于2019-10-07
得票数 0
2
回答
使用
多字符分隔符
将
存储在谷歌云存储上
的
数据
加载到
BigQuery
、
、
、
我想将带有多个字符分隔符
的
数据
加载到
BigQuery
。BQ load命令当前不支持多个字符分隔符。它只支持单个字符分隔符,如'|‘、'$’、'~‘等 我知道有一种
数据流
方法,它将从这些
文件
中
读取
数据
并写入
BigQuery
。但是我有大量
的
小
文件
(每个
文件
400MB),它们必须写入一个单独
的
表
分区(分区编号在700左右)。这种方法在处理<
浏览 22
提问于2016-08-11
得票数 3
回答已采纳
1
回答
如何
将
Azure事件中心(kafka界面)
的
事件集成
到
google云发布/订阅
、
、
我有一个需求,我需要在Azure事件中心
使用
kafka主题。需要创建将
使用
作为参数提供
的
主题
的
POST端点。消息必须以kafka主题为属性,以消息内容为主体,在公共子主题上发送。 这是一个很高
的
要求。但是,如果有人实时地实现了这一功能,即从Azure事件中心到google
的
事件,或者曾经进行过类似的实现,请提供帮助。
浏览 1
提问于2021-06-03
得票数 1
回答已采纳
2
回答
波束
数据流
流水线
表
创建Sink作为来自GCS
的
Bigquery
、
、
、
我想创建beam
数据流
作业来
从
GCS加载
数据
到
Bigquery
,我将在GCS
的
不同
文件
夹中有100s
的
文件
,可以在GCS
的
不同
文件
夹中加载
文件
,是否可以在beam代码
中
创建源
数据
集和
表
。我
的
最终目标是创建管道,
将
数据
从
GC
浏览 10
提问于2021-02-23
得票数 0
回答已采纳
2
回答
BigQuery
中
不同
文件
格式加载
的
比较
、
我们目前通过csv或直接通过流式API
将
大部分
数据
加载到
BigQuery
中
。然而,我想知道是否有可用
的
基准(或者Google工程师可以在答案
中
告诉我)加载
不同
格式
的
效率如何比较。例如,如果我们有相同
的
100行
数据
,
BigQuery
是否显示与加载它有任何性能差异: 我相信其中一个答案将是“为什么你不测试它”,但我们希望,在架构转换器或重写我
浏览 1
提问于2018-03-14
得票数 1
回答已采纳
2
回答
从
HTTP请求API拉取
数据
到
Google Cloud
、
、
、
、
我有一个应用程序,
从
API发送
数据
给我。
数据
是半结构化
的
(json
数据
) 我想把这个
数据
发送到Google Big Query,以便储存所有的信息。 但是,我不知道如何才能正确地做到这一点。到目前为止,我已经在自己
的
服务器上
使用
Node通过POST请求获取
数据
。 你能帮帮我吗?特纳克。
浏览 17
提问于2019-10-15
得票数 0
3
回答
转置和
插入
大型可变列
数据
文件
到
SQL Server时
的
性能问题
、
、
、
我目前正在做一个项目,我们有一个大型
的
数据
仓库,每天
从
许多
不同
的
来源导入几GB
的
数据
。我们有许多
不同
格式和结构
的
文件
都被导入
到
几个基
表
中
,然后我们通过存储
的
procs转置/透视这些基
表
。我们不能
使用
SSIS
文件
连接管理器,因为
不同
文件
的</
浏览 0
提问于2010-06-25
得票数 1
回答已采纳
1
回答
Bigquery
如何
从
数据流
中
删除记录
、
、
我需要从
数据流
中
更新和删除
BigQuery
中
的
记录。
数据
来自Pubsub,并带有标识动作Insert、Update、Delete (I,U,D)
的
标志。
插入
不是问题。 有更新和删除
的
建议吗?
浏览 3
提问于2020-03-19
得票数 3
2
回答
流到BQ分区
表
中
、
我正在尝试
使用
数据流
来流到BQ分区
表
中
。
文件
说: 在
将
行
插入
日期分区
表
中
时,我可以看到这种情况。是否有一种方法可以设置要
插入
的
行
的
分区时间,以便
BigQuery
可以推断正确
的
分区?
浏览 1
提问于2016-07-28
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
KSQL:Apache Kafka的开源Streaming SQL引擎
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
如何在SQL Server中将表从一个数据库复制到另一个数据库
热门
标签
更多标签
云服务器
ICP备案
即时通信 IM
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券