Airflow简介

news/2024/10/18 8:36:12/

1、什么是Airflow
 

Airflow 是一个 Airbnb 的 Workflow 开源项目,使用Python编写实现的任务管理、调度、监控工作流平台。Airflow 是基于DAG(有向无环图)的任务管理系统,可以简单理解为是高级版的crontab,但是它解决了crontab无法解决的任务依赖问题。与crontab相比Airflow可以方便查看任务的执行状况(执行是否成功、执行时间、执行依 赖等),可追踪任务历史执行情况,任务执行失败时可以收到邮件通知,查看错误日志。


2、Airflow与同类产品的对比

系统名称介绍

Apache Oozie

使用XML配置, Oozie任务的资源文件都必须存放在HDFS上. 配置不方便同时也只能用于Hadoop.

Linkedin Azkaban

web界面尤其很赞, 使用java properties文件维护任务依赖关系, 任务资源文件需要打包成zip, 部署不是很方便.

Airflow

具有自己的web任务管理界面,dag任务创建通过python代码,可以保证其灵活性和适应性

3、Airflow基础概念

(1)DAG:有向无环图(Directed Acyclic Graph),描述数据流的计算过程。

(2)Operators:DAG中一个Task要执行的任务,如:①BashOperator为执行一条bash命令;②EmailOperator用于发送邮件;③HTTPOperator用于发送HTTP请求;④PythonOperator用于调用任意的Python函数。

(3)Task:是DAG中的一个节点,是Operator的一个实例。

(4)Task Instance:记录Task的一次运行,Task Instance有自己的状态,包括:running、success、failed、 skipped、up for retry等。

(5)Trigger Rules:task的触发条件。


4 、Airflow安装

 

依赖:yum -y install python-devel libevent-devel mysql-devel mysqlclient

(1)安装airflow:pip install apache-airflow

(2)修改airflow对应的环境变量:export AIRFLOW_HOME=/usr/local/airflow

(3)执行airflow version,在/usr/local/airflow目录下生成配置文件

(4)修改默认数据库:修改/usr/local/airflow/airflow.cfg

[core]

executor = LocalExecutor

sql_alchemy_conn = mysql://airflow:123456@192.168.48.102:3306/airflow

(5)创建airflow用户,创建airflow数据库并给出所有权限给次用户:

create database airflow;
create user 'tairflow'@'%' identified by '123123';
GRANT all privileges on airflow.* TO 'testairflow'@'%'  IDENTIFIED BY '123456';
FLUSH PRIVILEGES;
(6)初始化数据库:airflow initdb

(7)启动web服务器:airflow webserver –p 8080

在安装过程中如遇到如下错误:

在my.cnf中加explicit_defaults_for_timestamp=1,然后重启数据库


5、Airflow主要功能模块 

下面通过Airflow调度任务管理的主界面了解一下各个模块功能,这个界面可以查看当前的DAG任务列表,有多少任务运行成功,失败以及正在当前运行中等:

在Graph View中查看DAG的状态。DAG是一个有向无环图,它是一个单向流动的ETL流程图。只有前置task执行成功后,后续task才会被Trigger;如果后续task有并行分支,会被同时Trigger执行。

对于已经执行完的task,鼠标停留在task上面,会自动浮现出一个黑色的提醒框,显示该task的基本情况。①Airflow当前UTC时间;②默认显示一个与①一样的时间,自动跟随①的时间变动而变动;③DAG当前批次触发的时间,也就是Dag Run时间,没有什么实际意义④数字4:该task开始执行的时间⑤该task开始执行和结束执行的UTC时间⑥该task开始执行和结束执行的CST时间,也就是香港本地时间。

Airflow中每一个task可能有8种状态,使用8种不同的颜色标注,分别是success、running、failed、skipped、up_for_reschedule、up_for_retry、queued、no_status。每一个task被调度执行前都是no_status状态;当被调度器传入作业队列之后,状态被更新为queued;被调度器调度执行后,状态被更新为running;如果该task执行失败,如果没有设置retry参数,状态立马被更新为failed;如果有设置retry参数,第一次执行失败后,会被更新为up_for_retry状态,等待重新被调度执行,执行完retry次数仍然失败则状态会被更新为failed;skipped状态是指该task被跳过不执行;up_for_reschedule状态是指等待重新调度;

 

每点击一个button,可以跳转到对应页面,查看这个task对应的Task Instance Details、Rendered、Task Instance、Log

"Run"可以单次执行该task,右边3个button是执行task时可以选择的条件,鼠标停留在每一个条件上会显示该条件表示的含义。选择"Ignore All Deps"表示忽略该task的前后依赖条件及之前批次的执行状态,直接执行该task。

"Clear"表示可以清除当前task的执行状态,清除执行状态后,该task会被自动重置为no_status,等待Airflow调度器自动调度执行;"Downstream"和"Recursive"是默认选中的,是当你点击"Clear"后,当前task及所有后置task的状态都会被清除,即当前task及所有后置task都会重新等待调度执行;如果同时选中"Upstream"和"Recursive",点击"Clear"后则表示从Dag第一个task到当前task,这条路径上的所有task会被重新调度执行;

 

点击"Clear"按钮后,会将当前task及所有后续task作业的task id打印出来。点击"OK"后,Airflow会将这些task的最近一次执行记录清除,然后将当前task及后续所有task生成新的task instance,将它们放入队列由调度器调度重新执行

以树状的形式查看各个Task任务的调度如下图

 

显示DAG调度持续的时间

 

甘特图显示每个任务的起止、持续时间

 

 

配置DAG运行的默认参数

查看DAG的调度脚本

6、DAG脚本示例

 以官网的脚本为例进行说明

from datetime import timedelta
# The DAG object; we'll need this to instantiate a DAG
from airflow import DAG
# Operators; we need this to operate!
from airflow.operators.bash_operator import BashOperator
from airflow.utils.dates import days_ago
# These args will get passed on to each operator
# You can override them on a per-task basis during operator initialization
default_args = {'owner': 'airflow','depends_on_past': False,'start_date': days_ago(2),'email': ['airflow@example.com'],'email_on_failure': False,'email_on_retry': False,'retries': 1,'retry_delay': timedelta(minutes=5),# 'queue': 'bash_queue',# 'pool': 'backfill',# 'priority_weight': 10,# 'end_date': datetime(2016, 1, 1),# 'wait_for_downstream': False,# 'dag': dag,# 'sla': timedelta(hours=2),# 'execution_timeout': timedelta(seconds=300),# 'on_failure_callback': some_function,# 'on_success_callback': some_other_function,# 'on_retry_callback': another_function,# 'sla_miss_callback': yet_another_function,# 'trigger_rule': 'all_success'
}
dag = DAG('tutorial',default_args=default_args,description='A simple tutorial DAG',schedule_interval=timedelta(days=1),
)# t1, t2 and t3 are examples of tasks created by instantiating operators
t1 = BashOperator(task_id='print_date',bash_command='date',dag=dag,
)t2 = BashOperator(task_id='sleep',depends_on_past=False,bash_command='sleep 5',retries=3,dag=dag,
)
dag.doc_md = __doc__t1.doc_md = """\
#### Task Documentation
You can document your task using the attributes `doc_md` (markdown),
`doc` (plain text), `doc_rst`, `doc_json`, `doc_yaml` which gets
rendered in the UI's Task Instance Details page.
![img](http://montcs.bloomu.edu/~bobmon/Semesters/2012-01/491/import%20soul.png)
"""
templated_command = """
{% for i in range(5) %}echo "{{ ds }}"echo "{{ macros.ds_add(ds, 7)}}"echo "{{ params.my_param }}"
{% endfor %}
"""t3 = BashOperator(task_id='templated',depends_on_past=False,bash_command=templated_command,params={'my_param': 'Parameter I passed in'},dag=dag,
)t1 >> [t2, t3]

(1)需要引入的包

 

2)DAG默认参数配置:

①depends_on_past:是否依赖上游任务,即上一个调度任务执行失 败时,该任务是否执行。可选项包括True和False,False表示当前执 行脚本不依赖上游执行任务是否成功;

②start_date:表示首次任务的执行日期;

③email:设定当任务出现失败时,用于接受失败报警邮件的邮箱地址;

④email_on_failure:当任务执行失败时,是否发送邮件。可选项包括 True和False,True表示失败时将发送邮件;

⑤retries:表示执行失败时是否重新调起任务执行,1表示会重新调起;

⑥retry_delay:表示重新调起执行任务的时间间隔;

(3)实例化DAG

设定该DAG脚本的id为tutorial;  设定每天的定时任务执行时间为一天调度一次。

调度时间还可以以“* * * * *”的形式表示,执行时间分别是“分,时,天,月,年”

注意:① Airflow使用的时间默认是UTC的,当然也可以改成服务器本地的时区。

②*/30 * * * * 指的是每个小时的30分的时候调度而不是半小时一次,比如说:1:30 , 2:30  ...

半小时调度一次的写法应该是:0/30 * * *

(4)Operator,即Task要执行的任务

段脚本中引入了需要执行的task_id,并对dag 进行了实例化。

里面的bash_command参数是对于具体执行这个task任务的脚本或命令。

还有Trigger_rule参数为该task任务执行的触发条件,官 方文档里面该触发条件有5种状态,一般常用的包括 “ ALL_DONE ” 和 ”ALL_SUCCESS” 两 种 。 其中 “ALL_DONE”为当上一个task执行完成,该task即 可执行,而”ALL_SUCCESS”为只当上一个task执行成功时,该task才能调起执行,执行失败时,本 task不执行任务。

(5)Task脚本的调度顺序

t1 >> [t2, t3]命令为task脚本的调度顺序,在该命令中先执行“t1” 任务后执行“t2, t3”任务。

一旦Operator被实例化,它被称为“任务”。实例化为在调用抽象Operator时定义一些特定值,参数化任务使之成为DAG中的一个节点。

调度顺序的其他表示方式①t1 >> t2 等价于t1.set_downstream(t2)    表示t1任务先执行②t1 << t2 等价于t1.set_upstream(t2) 表示t2任务先执行
 

7 Airflow常用命令行

Airflow通过可视化界面的方式实现了调度管理的界面操作,但在测试脚本或界面操作失败的时候,可通过命令行的方式调起任务。下面介绍几个常用的命令:

命令描述
airflow list_tasks userprofile用于查看当前DAG任务下的所有task列表,其中userprofile是DAG名称
airflow test userprofile age_task 20200101 用于测试DAG下面某个task是否能正常执行,其中userprofile是DAG名称,age_task是其中一个task名称
airflow backfill -s 2020-01-01 -e 2020-01-02 userprofile用于调起整个DAG脚本执行任务,其中userprofile是DAG名称,2020-01-01是脚本执行的开始日期;

 

 

 

 


http://www.ppmy.cn/news/702528.html

相关文章

Air Video

http://baike.baidu.com/view/8552809.htm#1 百度首页 | 登录注册 新闻网页贴吧知道MP3图片视频地图百科文库 帮助 首页自然文化地理历史生活社会艺术人物经济科技体育图片数字博物馆核心用户百科商城 求助编辑 Air Video 目录 简介 使用教程 展开 简介 使用教程 展开 编辑本段…

AirTest

Airetest是由网易游戏推出的一个跨平台的、基于图像识别的UI自动化测试框架&#xff0c;适用于游戏和APP&#xff0c;支持Windows、Android和ios&#xff0c;基于python进行编码。在此基础上&#xff0c;还推出了AiretestIDE&#xff0c;一款UI自动化测试编辑器&#xff0c;Poc…

Air Conditioners

题目链接&#xff1a;https://codeforces.com/problemset/problem/1547/E 这个题意比较容易理解&#xff0c;就是让我们求每个空格的最低温度&#xff0c;这道题目可以用最短路解决&#xff0c;我们可以让每两个相邻的点的距离为1&#xff0c;然后建立一个虚拟源点&#xff0c…

AIR是什么?.air文件如何打开?flex如何运行air文件

1 安装Adobe AIR 运行时&#xff0c;和java的JVM类似。 Adobe AIR 运行时允许在桌面运行AIR应用程序&#xff0c;脱离游览器的束缚。 下载安装文件 http://labs.adobe.com/downloads/air.html 在下载页面有样例程序&#xff08;Sample Applications&#xff09;http://labs…

ADOBE AIR是什么?

AIR是一项自2007年来备受推崇的新型技术&#xff0c;它又可以说是对新老技术的结合体。通过这样的结合&#xff0c;我们发现&#xff0c;确实让客户感受得到了很好的改善&#xff0c;比如说&#xff1a;客户更愿意多进行一些操作、更愿意去体验一下新的功能。因为它实在太迷人了…

Cesium 常用标绘线、面、矩形、圆、曲面、曲线、攻击箭头、钳击箭头,标绘与修改。

前言&#xff1a;直接放效果图&#xff0c;符合就往下看&#xff0c;不符合出门右转。 由于篇幅有限&#xff0c;只贴出各个标绘的关键代码。 1、线段 基于坐标点&#xff0c;加载不同的材质。 //动态加载 const entity this._viewer.entities.add({polyline: {positions: …

14 动态主题类型Dynamic Topic Types

14 动态主题类型Dynamic Topic Types eProsima Fast DDS提供了一种动态方式来定义和使用主题类型和主题数据。我们的实现遵循用于DDS接口的OMG可扩展和动态主题类型。有关更多信息,您可以阅读DDS XTypes V1.2的规范。 动态主题类型提供了在没有与IDL相关的限制的情况下通过RTP…

Hive on Spark的小文件设置参数

Hive on Spark的小文件设置参数 参数调优 了解完了Spark作业运行的基本原理之后&#xff0c;对资源相关的参数就容易理解了。所谓的Spark资源参数调优&#xff0c;其实主要就是对Spark运行过程中各个使用资源的地方&#xff0c;通过调节各种参数&#xff0c;来优化资源使用的效…