腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Airflow Composer
删除
特定
的
xcom键
、
我正在通过Airflow并行编排多个
数据流
作业
。流水线执行
中
的
任务之一是推送唯一
的
xcom键来存储每个流水线
的
临时值,该临时值用于向
Bigquery
表
中
插入一个值。数据加载
完成后
,我需要清除特定
的
xcom密钥。我不想
删除
仍在并行运行
的
其他
数据流
作业
可能生成
的
其他xcom键。它们是清除特定xcom密钥
的<
浏览 3
提问于2021-09-05
得票数 0
3
回答
谷歌
数据流
每项
作业
是否有BT写原子?
也许我是个糟糕
的
探索者,但我
在
文档
中
找不到答案,所以我只想在这里试试运气。我知道写GCS似乎不是原子
的
,
在
作业
运行
的
过程中会产
浏览 6
提问于2016-08-05
得票数 1
回答已采纳
1
回答
在
数据流
作业
中
的
所有
步骤
完成后
删除
bigquery
表
、
有没有办法只
在
批处理
数据流
管道
中
的
所有
步骤
都成功之后才
删除
bigquery
表
?
浏览 5
提问于2017-01-21
得票数 1
回答已采纳
2
回答
数据流
:我可以用批处理
作业
连续写入/流写入
BigQuery
吗?
、
、
我有一个apache管道,它接收一些信息,将其格式化为TableRows,然后写入
BigQuery
。直到
数据流
作业
完成后
,才会将行写入
BigQuery
。如果我有一个需要很长时间
的
数据流
作业
,我希望能够看到插入到
BigQuery
中
的
行,谁能给我指明正确
的
方向? 提前感谢
浏览 0
提问于2018-06-08
得票数 1
2
回答
只
在
大查询
作业
完成后
触发
数据流
的
方法
、
、
、
实际上,对我
的
数据执行以下
步骤
:我知道Google函数
的
BigQuery
α触发器,但我 不知道是不是一个好主意,从我看到<
浏览 0
提问于2019-11-21
得票数 2
回答已采纳
1
回答
如何使用Google工具和javascript存储和提供优惠券
、
、
需要存储
在
某个地方(
bigquery
?)在那里我可以请求并发送给用户。用户应该只能得到一个唯一
的
代码,这是事先没有使用
的
。提前感谢
浏览 4
提问于2021-04-13
得票数 0
回答已采纳
1
回答
大查询
中
的
WRITE_TRUNCATE行为
、
关于大查询
中
的
WRITE_TRUNCATE行为,我有一个问题。 我有一个大
的
查询
表
(T1),我会定期添加日志数据(每一行日志行)。我希望有一个
数据流
作业
(D1),它从这个
表
中
读取、
删除
任何重复
的
行并执行其他数据清理操作,然后将其输出到另一个大型查询
表
(T2),替换该
表
中
可能已经存在
的
任何数据。我相信我可以通过在
数据流
作业
浏览 0
提问于2017-09-13
得票数 5
回答已采纳
1
回答
气流DAG -如何首先检查BQ (必要时
删除
),然后运行
数据流
作业
?
、
、
、
、
在
我
的
DAG
中
,我有两个任务: 1)使用DataflowPythonOperator运行
数据流
作业
,该
作业
读取GCS
中
的
文本
中
的
数据,并将其转换为BQ,2)根据
作业
失败或成功与否将文件移动到失败/成功桶每个文件都有一个文件ID,它是
bigquery
表
中
的
一个列。有时,一个文件会被编辑一两次(它不是一个经常被编辑
浏览 0
提问于2019-01-09
得票数 3
回答已采纳
1
回答
通过windows服务
在
BigQuery
表
中
插入记录
、
、
、
、
出于测试目的,我能够从
BigQuery
表
中
获取数据,以检查我
的
BigQuery
服务和Windows之间
的
通信。但是这个服务基本上是从MSSQL server
中
获取记录,然后一个接一个地向
BigQuery
中
的
目标
表
插入或追加一条记录。我不想使用CSV或JSON文件作为数据源。有没有办法做到这一点?
浏览 0
提问于2012-10-30
得票数 0
回答已采纳
3
回答
当
作业
完成时,不会
删除
从Dataflow - JSON文件写入
BigQuery
的
内容。
我们
的
数据流
作业
之一将其输出写入
BigQuery
。我对如何在底层实现这一点
的
理解是,Dataflow实际上以JSON格式将结果(切分)写入GCS,然后启动一个
BigQuery
加载
作业
来导入该数据。但是,我们已经注意到,一些JSON文件
在
作业
之后不会被
删除
,不管它是成功还是失败。错误消息
中
没有警告或建议不会
删除
文件。当我们注意到这一点时,我们看了一看我们
的
桶,它有数
浏览 5
提问于2015-05-12
得票数 6
回答已采纳
2
回答
通过加载
作业
(非流式处理)插入到
BigQuery
、
我希望使用
数据流
将数据加载到使用
的
BigQuery
表
中
,而不是流式处理(对于我们
的
用例,流式处理
的
成本太高)。我看到Dataflow SDK内置了对通过BQ流插入数据
的
支持,但我
在
Dataflow SDK
中
找不到任何开箱即用
的
支持加载
作业
的
功能。以下是一些问题: 1) Dataflow SDK是否支持
BigQuery
load
作业</em
浏览 0
提问于2015-06-17
得票数 3
1
回答
如果在
作业
运行期间
删除
了GCloud
数据流
,则重新创建
BigQuery
表
。
、
、
、
我已经设置了一个GCloud
数据流
管道,它使用来自Pub/Sub订阅
的
消息,将它们转换为
表
行,并将这些行写入相应
的
BigQuery
表
。
表
目的地是根据Pub/Sub消息
的
内容确定
的
,偶尔会导致
表
还不存在,必须先创建
表
的
情况。为此,我使用create CREATE_IF_NEEDED,它工作得很好。但是,我注意到,如果在
数据流
作业
浏览 1
提问于2020-03-21
得票数 0
回答已采纳
1
回答
执行google
数据流
作业
时获取HTTP传输错误
在
执行
数据流
作业
时,我得到了一个持续
的
错误:
BigQuery
导入
作业
"dataflow_job_838656419“失败。,:
BigQuery
为"TestProject”项目中
的
数据集"TestDataSet“
中
的
表
"TestTable”创建导入
作业
。,:
BigQuery
执行失败。:HTTP传输错误:消息:无效值:字符串
浏览 4
提问于2016-08-29
得票数 1
回答已采纳
1
回答
设计
、
我们需要您对以下场景
的
数据流
设计提供指导。 需求:我们需要构建一个
数据流
作业
来读取
数据流
MS数据库并写入
Bigquery
。我们需要
数据流
作业
作为输入“
表
名列表”(源
表
和目标
表
名称)来读取和写入数据。问题:
在
每天
的
日程安排
中
,
数据流
是否可以将表列表(即50个
表
名)作为输入,并将数据从源复制到目标,还是将其设计为5
浏览 4
提问于2021-12-13
得票数 -1
2
回答
紧跟在BigQueryIO.write()操作之后执行进程
、
我有一个
BigQuery
表
作为接收器
的
管道。
在
将数据写入
BigQuery
之后,我需要执行一些
步骤
。这些
步骤
包括对该
表
执行查询,从该
表
中
读取数据并将其写入到另一个
表
中
。如果上述操作都不起作用,是否可以从正在运行
的
管道
中
浏览 2
提问于2017-10-03
得票数 2
1
回答
在
作业
中
读取bigtable上
的
大型查询
表
花费
的
时间太长
、
、
、
我有一个
数据流
作业
,它从
bigquery
表
(
在
大
表
之上创建)读取。
数据流
作业
是使用java
中
的
自定义模板创建
的
。我需要处理
bigquery
的
大约5亿条记录。我面临
的
问题甚至是读取100万条记录,大查询读取需要26分钟,
数据流
工作需要36分钟。
在
大查询
中
读取太慢。 任何关于如何提高阅读性能<em
浏览 10
提问于2022-12-02
得票数 1
1
回答
使用
数据流
避免
BigQuery
存储API
的
会话关闭
、
、
我正在实现一个ETL
作业
,它将非分区
的
BigQuery
表
迁移到分区
的
表
。为此,我使用了来自
BigQuery
的
Storage。这将创建许多要从其中提取数据
的
会话。为了将
BigQuery
写入路由到正确
的
分区,我使用了File方法。由于30天
的
限制,流插入是不可行
的
。存储写API似乎是有限
的
,识别分区。 通过驻留到File方法,数据将被写入GCS。<e
浏览 4
提问于2022-09-12
得票数 1
1
回答
数据流
进程挂起
、
、
我正在
数据流
上运行批处理
作业
,从
BigQuery
进行查询。当我使用DirectRunner时,一切正常,结果被写到一个新
的
BigQuery
表
中
。web UI
中
的
图表显示
作业
已开始。前3步显示"Running",其余3步显示"not started“。
所有
步骤
都没有显示任何转换
的
记录(即,输出集合都显示'-')。日志
浏览 13
提问于2018-02-07
得票数 1
回答已采纳
1
回答
气流1.10.14 SubdagOperator出现死锁问题失败
、
我遇到了一个问题,有多个任务
的
SubDagOperator
在
死锁问题上失败了。 问题语句:我们有一个任务要
删除
Bigquery
中
的
>1000个
表
。为此,我们使用
的
是BigQueryTableDeleteOperator,因为我们有>1000个
表
,我们已经将代码包装在subdagOperator下,以获得更干净
的
UI。,就像和
中
给出
的
那样,但是在这种情况下,子all操作符
浏览 10
提问于2021-12-07
得票数 0
1
回答
我收到来自我
的
数据流
作业
的
错误消息“查询超出了第1层
的
资源限制。需要第3层或更高层”
、
我从
BigQuery
查询数据
的
数据流
作业
失败,出现错误: Query exceeded resource limits for tier 1. Tier 3 or higher required.同样
的
Dataflow
作业
与我
的
另一个项目一起工作,我无法确定如何在Dataflow API
中
设置层。
浏览 0
提问于2017-03-25
得票数 0
点击加载更多
相关
资讯
在Excel中快速删除工作表中的空行
在Boss直聘中删除对话的图文步骤
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
热门
标签
更多标签
云服务器
ICP备案
即时通信 IM
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券