腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Airflow
2.0中
使用
Taskflow
API
传递
论点
我
使用
REST
API
将参数
传递
给基于任务流的Dag。看看在这个论坛上提出的类似问题,下面似乎是访问
传递
的参数的常见方式。schedule_interval=None, start_date=days_ago(2), params=None) """ [here](https://<
浏览 29
提问于2021-01-07
得票数 6
1
回答
如何将op_kwargs
传递
给气流
TaskFlow
DAG和任务?
、
from datetime import datetimefrom typing import Dict schedule_interval='@once',def example_
taskflow
_
api
301.27, "1002": 433.21, "1003": v
浏览 16
提问于2022-08-21
得票数 0
1
回答
在
apache
airflow
API
(
TaskFlow
)中
使用
edgemodifier标签
、
在
使用
Apache
Airflow
的
TaskFlow
API
定义DAG时,有什么方法可以
使用
airflow
.utils.edgemodifier.Label吗?
在
格式中,您可以引入
在
UI图形视图中可见的标签。有没有办法做到这一点?
浏览 5
提问于2021-06-30
得票数 0
1
回答
使用
Airflow
2
Taskflow
API
定义DAG时出现问题
、
我用
airflow
2
Taskflow
API
创建了一个DAG: plot_files(cf, i, int(max_parallel_plot_tasks)) >> upi 如何
使用
Taskflow
API</em
浏览 8
提问于2021-02-26
得票数 0
1
回答
在
气流2.0任务流
API
中定义复杂的工作流依赖
、
定义如下: schedule_interval=None,def
airflow
_
taskflow
_
api
_daglivy_task.output, new_date_time['new_cur_date_time'])
airflow</e
浏览 3
提问于2021-03-11
得票数 3
1
回答
在
气流2中利用装饰器创建动态任务
、
我可以通过将来自任务的数据存储
在
一个临时文件中,然后在下一个任务中读取它--但是我希望仅
使用
气流资源来解决这个问题。from
airflow
.decorators import dag, task def extract',} def tuto
浏览 1
提问于2022-01-19
得票数 0
1
回答
for循环
AirFlow
生成的任务之间的依赖关系
、
示例:from
airflow
.operators.python_operator import PythonOperator tables = {
浏览 2
提问于2022-02-14
得票数 0
回答已采纳
1
回答
气流基于任务返回值创建新任务
、
如何从气流任务中获取xcom,并
使用
这些值创建其他任务。
浏览 9
提问于2022-11-10
得票数 0
回答已采纳
4
回答
气流2.0
API
响应403禁止
、
无论我是否提供web服务器用户名密码,
在
curl或postman中都会收到相同的403错误消息。curl -X POST --user "admin:blabla" "http://10.0.0.3:7863/
api
/v1/dags/tutorial_
taskflow
_
api
_etl/dagRuns=
airflow
.
api
.auth.backend.default)。空气流动的安装已经完
浏览 8
提问于2021-01-05
得票数 3
回答已采纳
2
回答
如何通过REST
API
触发气流DAG?
1.10.0文档指出,我应该能够对/
api
/ instead /dags// DAG _runs进行POST,以触发DAG运行,但是当我这样做时,我收到了一个错误: <!
浏览 2
提问于2018-09-27
得票数 3
1
回答
Airflow
任务流-
在
parallele中运行任务
、
想要尝试新的任务流
API
,我达到了需要2个parallels任务的地步。
使用
Airflow
v1时,我习惯于这样做 task_1 >> [task_2, task_3] [task_2, task_3] >> task_4 对于PythonOperator,我们调用任务的方式现在不同了我怎么用
TaskFlow
做列表呢?
浏览 17
提问于2021-04-24
得票数 3
回答已采纳
1
回答
PythonVirtualenvOperator
在
Apache气流2.0
TaskFlow
DAG中的应用
我试图弄清楚如何在我正在创建的DAG中
使用
PythonVirtualenvOperator,
在
Airflow
2.0.1中
使用
TaskFlow
API
。'], task_id='trevor')预期结果看起来,即使我正在将apache-
airflow
包安装到虚拟环境中,它也找不到
TaskFlow
<em
浏览 8
提问于2021-04-06
得票数 4
1
回答
使用
任务流的Ariflow DAG
、
我最近开始
使用
Apache气流,
在
使用
了传统的创建DAG和任务的方法之后,我决定
使用
Taskflow
API
。然而,我遇到了一些问题,下面是我的问题。
Taskflow
:from
airflow
.utils.dates import days_ago @dag(因为,否则气流会抛出错误,说
airflow
.exceptions.Airf
浏览 12
提问于2022-07-20
得票数 0
1
回答
Airflow
2
使用
密钥名称推送Xcom
、
在
Airflow
2
taskflow
API
中,我可以
使用
以下代码示例,轻松地在任务之间推送和拉取XCom值: @task(task_id="task_one") response = requests.get("https://swapi.dev/
api
/people/4") data = json.
浏览 17
提问于2021-10-03
得票数 1
回答已采纳
1
回答
如何将先前的任务状态作为参数
传递
给气流任务流
API
中的另一个任务?
我希望获得SparkSubmitOperator的状态,将其转换为
API
所理解的值,并在SimpleHttpOperator的有效负载中
传递
它,以便我可以更新DB中的作业状态。我想通过
使用
Taskflow
API
来做到这一点。(most recent call last): File "/home/
airflow
/.local/lib/python3.6/site-packages/
airflow
浏览 5
提问于2021-08-20
得票数 1
回答已采纳
1
回答
气流Jinja模板dag_run.conf不解析
、
import pendulumfrom
airflow
.decorators import dag, taskfrom custom_operators.validate_data_operator import ValidateDataOperator from
airflow
.mod
浏览 1
提问于2022-05-17
得票数 0
2
回答
气流积分与BgQuery误差
、
、
、
、
当我这样做的时候,我得到了一个不同的错误: 我现在有不同的问题了。我得到了以下错误: /usr/local/lib/python2.7/dist-packages/
airflow
/models.py:1927: PendingDeprecationWarning:无效的参数被
传递
给
在
气流2.0中,对
传递
这
浏览 5
提问于2018-01-02
得票数 3
回答已采纳
1
回答
气流:
在
TaskGroup中创建动态任务的问题
、
、
、
我得到了这个损坏的DAG错误重复任务id File "/home/
airflow
/.local/lib/python3.6/site-packages/
airflow
/models/baseoperator.py", line
浏览 8
提问于2021-05-25
得票数 4
1
回答
当
使用
taskflow
api
时,命名气流会使python可调用。
、
、
我试图
使用
taskflow
API
创建多个dag,该
API
中有一个变量
传递
给它们,这些变量可以由守护进程中的任务
使用
。例如,我正在尝试
使用
以下代码from datetime import datetime dag_1 = dag_temp
浏览 5
提问于2021-12-08
得票数 0
回答已采纳
2
回答
如何
使用
气流来编排简单的熊猫和蟒蛇脚本?
、
、
、
、
从昨天开始,我
在
解决方案上运行气流。我可以看到仪表板和示例数据:)我现在想要的是迁移一个示例脚本,我用它来处理原始的数据。 想象一下,您有一个csv文件文件夹。今天,我的脚本遍历它,将每个文件
传递
到将要转换为df的列表中。之后,我准备它们的列名,并进行一些数据清理,并将其写入不同的格式。我是
传递
一个方法,还是一个文件,还是必须为每个部分创建几个文件?在这一点上,我缺乏基本的概念:(我所读到的关于气流的一切都比我简单的例子复杂得多。)
浏览 1
提问于2018-06-03
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
没看过这篇文章,别说你会用Airflow
数据科学,数据工程和技术的未来
大数据任务调度平台选型建议
迁移工具 Air2phin 宣布开源,2 步迁移 Airflow 至 Dolphinscheduler
自学14天后,我毁掉了自己的数据工程师面试
热门
标签
更多标签
云服务器
ICP备案
即时通信 IM
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券