AIRFLow_overflow百度百科

AIRFLow_overflow百度百科1、什么是AirflowAirflow是一个Airbnb的Workflow开源项目,使用Python编写实现的任务管理、调度、监控工作流平台。Airflow是基于DAG(有向无环图)的任务管理系统,可以简单理解为是高级版的crontab,但是它解决了crontab无法解决的任务依赖问题。与crontab相比Airflow可以方便查看任务的执行状况(执行是否成功、执行时间、执行依赖等),可追踪任务历史执行情况,任务执行失败时可以收到邮件通知,查看错误日志。2、Airflow与同类产品的

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全家桶1年46,售后保障稳定

1、什么是Airflow

Airflow 是一个 Airbnb 的 Workflow 开源项目,使用Python编写实现的任务管理、调度、监控工作流平台。Airflow 是基于DAG(有向无环图)的任务管理系统,可以简单理解为是高级版的crontab,但是它解决了crontab无法解决的任务依赖问题。与crontab相比Airflow可以方便查看任务的执行状况(执行是否成功、执行时间、执行依 赖等),可追踪任务历史执行情况,任务执行失败时可以收到邮件通知,查看错误日志。

2、Airflow与同类产品的对比

系统名称

介绍

Apache Oozie

使用XML配置, Oozie任务的资源文件都必须存放在HDFS上. 配置不方便同时也只能用于Hadoop.

Linkedin Azkaban

web界面尤其很赞, 使用java properties文件维护任务依赖关系, 任务资源文件需要打包成zip, 部署不是很方便.

Airflow

具有自己的web任务管理界面,dag任务创建通过python代码,可以保证其灵活性和适应性

3、Airflow基础概念

AIRFLow_overflow百度百科

(1)DAG:有向无环图(Directed Acyclic Graph),描述数据流的计算过程。

(2)Operators:DAG中一个Task要执行的任务,如:①BashOperator为执行一条bash命令;②EmailOperator用于发送邮件;③HTTPOperator用于发送HTTP请求;④PythonOperator用于调用任意的Python函数。

(3)Task:是DAG中的一个节点,是Operator的一个实例。

(4)Task Instance:记录Task的一次运行,Task Instance有自己的状态,包括:running、success、failed、 skipped、up for retry等。

(5)Trigger Rules:task的触发条件。

4 、Airflow安装

依赖:yum -y install python-devel libevent-devel mysql-devel mysqlclient

(1)安装airflow:pip install apache-airflow

(2)修改airflow对应的环境变量:export AIRFLOW_HOME=/usr/local/airflow

(3)执行airflow version,在/usr/local/airflow目录下生成配置文件

(4)修改默认数据库:修改/usr/local/airflow/airflow.cfg

[core]

executor = LocalExecutor

sql_alchemy_conn = mysql://airflow:123456@192.168.48.102:3306/airflow

(5)创建airflow用户,创建airflow数据库并给出所有权限给次用户:

create database airflow;
create user ‘tairflow’@’%’ identified by ‘123123’;
GRANT all privileges on airflow.* TO ‘testairflow’@’%’  IDENTIFIED BY ‘123456’;
FLUSH PRIVILEGES;

(6)初始化数据库:airflow initdb

(7)启动web服务器:airflow webserver –p 8080

在安装过程中如遇到如下错误:

AIRFLow_overflow百度百科

在my.cnf中加explicit_defaults_for_timestamp=1,然后重启数据库

 

5、Airflow主要功能模块

下面通过Airflow调度任务管理的主界面了解一下各个模块功能,这个界面可以查看当前的DAG任务列表,有多少任务运行成功,失败以及正在当前运行中等:

AIRFLow_overflow百度百科

在Graph View中查看DAG的状态。DAG是一个有向无环图,它是一个单向流动的ETL流程图。只有前置task执行成功后,后续task才会被Trigger;如果后续task有并行分支,会被同时Trigger执行。

对于已经执行完的task,鼠标停留在task上面,会自动浮现出一个黑色的提醒框,显示该task的基本情况。①Airflow当前UTC时间;②默认显示一个与①一样的时间,自动跟随①的时间变动而变动;③DAG当前批次触发的时间,也就是Dag Run时间,没有什么实际意义④数字4:该task开始执行的时间⑤该task开始执行和结束执行的UTC时间⑥该task开始执行和结束执行的CST时间,也就是香港本地时间。

Airflow中每一个task可能有8种状态,使用8种不同的颜色标注,分别是successrunningfailedskippedup_for_rescheduleup_for_retryqueuedno_status。每一个task被调度执行前都是no_status状态;当被调度器传入作业队列之后,状态被更新为queued;被调度器调度执行后,状态被更新为running;如果该task执行失败,如果没有设置retry参数,状态立马被更新为failed;如果有设置retry参数,第一次执行失败后,会被更新为up_for_retry状态,等待重新被调度执行,执行完retry次数仍然失败则状态会被更新为failedskipped状态是指该task被跳过不执行;up_for_reschedule状态是指等待重新调度;

AIRFLow_overflow百度百科

每点击一个button,可以跳转到对应页面,查看这个task对应的Task Instance Details、Rendered、Task Instance、Log

“Run”可以单次执行该task,右边3个button是执行task时可以选择的条件,鼠标停留在每一个条件上会显示该条件表示的含义。选择”Ignore All Deps”表示忽略该task的前后依赖条件及之前批次的执行状态,直接执行该task。

“Clear”表示可以清除当前task的执行状态,清除执行状态后,该task会被自动重置为no_status,等待Airflow调度器自动调度执行;”Downstream”和”Recursive”是默认选中的,是当你点击”Clear”后,当前task及所有后置task的状态都会被清除,即当前task及所有后置task都会重新等待调度执行;如果同时选中”Upstream”和”Recursive”,点击”Clear”后则表示从Dag第一个task到当前task,这条路径上的所有task会被重新调度执行;

点击”Clear”按钮后,会将当前task及所有后续task作业的task id打印出来。点击”OK”后,Airflow会将这些task的最近一次执行记录清除,然后将当前task及后续所有task生成新的task instance,将它们放入队列由调度器调度重新执行

AIRFLow_overflow百度百科

以树状的形式查看各个Task任务的调度如下图

AIRFLow_overflow百度百科

显示DAG调度持续的时间

AIRFLow_overflow百度百科

甘特图显示每个任务的起止、持续时间

AIRFLow_overflow百度百科

配置DAG运行的默认参数

AIRFLow_overflow百度百科

查看DAG的调度脚本

AIRFLow_overflow百度百科

6、DAG脚本示例

以官网的脚本为例进行说明

from datetime import timedelta
# The DAG object; we'll need this to instantiate a DAG
from airflow import DAG
# Operators; we need this to operate!
from airflow.operators.bash_operator import BashOperator
from airflow.utils.dates import days_ago
# These args will get passed on to each operator
# You can override them on a per-task basis during operator initialization
default_args = {
    'owner': 'airflow',
    'depends_on_past': False,
    'start_date': days_ago(2),
    'email': ['airflow@example.com'],
    'email_on_failure': False,
    'email_on_retry': False,
    'retries': 1,
    'retry_delay': timedelta(minutes=5),
    # 'queue': 'bash_queue',
    # 'pool': 'backfill',
    # 'priority_weight': 10,
    # 'end_date': datetime(2016, 1, 1),
    # 'wait_for_downstream': False,
    # 'dag': dag,
    # 'sla': timedelta(hours=2),
    # 'execution_timeout': timedelta(seconds=300),
    # 'on_failure_callback': some_function,
    # 'on_success_callback': some_other_function,
    # 'on_retry_callback': another_function,
    # 'sla_miss_callback': yet_another_function,
    # 'trigger_rule': 'all_success'
}
dag = DAG(
    'tutorial',
    default_args=default_args,
    description='A simple tutorial DAG',
    schedule_interval=timedelta(days=1),
)

# t1, t2 and t3 are examples of tasks created by instantiating operators
t1 = BashOperator(
    task_id='print_date',
    bash_command='date',
    dag=dag,
)

t2 = BashOperator(
    task_id='sleep',
    depends_on_past=False,
    bash_command='sleep 5',
    retries=3,
    dag=dag,
)
dag.doc_md = __doc__

t1.doc_md = """\
#### Task Documentation
You can document your task using the attributes `doc_md` (markdown),
`doc` (plain text), `doc_rst`, `doc_json`, `doc_yaml` which gets
rendered in the UI's Task Instance Details page.
![img](http://montcs.bloomu.edu/~bobmon/Semesters/2012-01/491/import%20soul.png)
"""
templated_command = """
{% for i in range(5) %}
    echo "{
  
  { ds }}"
    echo "{
  
  { macros.ds_add(ds, 7)}}"
    echo "{
  
  { params.my_param }}"
{% endfor %}
"""

t3 = BashOperator(
    task_id='templated',
    depends_on_past=False,
    bash_command=templated_command,
    params={'my_param': 'Parameter I passed in'},
    dag=dag,
)

t1 >> [t2, t3]

Jetbrains全家桶1年46,售后保障稳定

(1)需要引入的包

AIRFLow_overflow百度百科

(2)DAG默认参数配置:

①depends_on_past:是否依赖上游任务,即上一个调度任务执行失 败时,该任务是否执行。可选项包括True和False,False表示当前执 行脚本不依赖上游执行任务是否成功;

②start_date:表示首次任务的执行日期;

③email:设定当任务出现失败时,用于接受失败报警邮件的邮箱地址;

④email_on_failure:当任务执行失败时,是否发送邮件。可选项包括 True和False,True表示失败时将发送邮件;

⑤retries:表示执行失败时是否重新调起任务执行,1表示会重新调起;

⑥retry_delay:表示重新调起执行任务的时间间隔;

AIRFLow_overflow百度百科

(3)实例化DAG

设定该DAG脚本的id为tutorial;  设定每天的定时任务执行时间为一天调度一次。

调度时间还可以以“* * * * *”的形式表示,执行时间分别是“分,时,天,月,年”

注意:① Airflow使用的时间默认是UTC的,当然也可以改成服务器本地的时区。

②*/30 * * * * 指的是每个小时的30分的时候调度而不是半小时一次,比如说:1:30 , 2:30  …

半小时调度一次的写法应该是:0/30 * * *

AIRFLow_overflow百度百科

(4)Operator,即Task要执行的任务

段脚本中引入了需要执行的task_id,并对dag 进行了实例化。

里面的bash_command参数是对于具体执行这个task任务的脚本或命令。

还有Trigger_rule参数为该task任务执行的触发条件,官 方文档里面该触发条件有5种状态,一般常用的包括 “ ALL_DONE ” 和 ”ALL_SUCCESS” 两 种 。 其中 “ALL_DONE”为当上一个task执行完成,该task即 可执行,而”ALL_SUCCESS”为只当上一个task执行成功时,该task才能调起执行,执行失败时,本 task不执行任务。

AIRFLow_overflow百度百科

(5)Task脚本的调度顺序

t1 >> [t2, t3]命令为task脚本的调度顺序,在该命令中先执行“t1” 任务后执行“t2, t3”任务。

一旦Operator被实例化,它被称为“任务”。实例化为在调用抽象Operator时定义一些特定值,参数化任务使之成为DAG中的一个节点。

AIRFLow_overflow百度百科

调度顺序的其他表示方式①t1 >> t2 等价于t1.set_downstream(t2)    表示t1任务先执行②t1 << t2 等价于t1.set_upstream(t2) 表示t2任务先执行

7 Airflow常用命令行

Airflow通过可视化界面的方式实现了调度管理的界面操作,但在测试脚本或界面操作失败的时候,可通过命令行的方式调起任务。下面介绍几个常用的命令:

命令 描述
airflow list_tasks userprofile 用于查看当前DAG任务下的所有task列表,其中userprofile是DAG名称
airflow test userprofile age_task 20200101  用于测试DAG下面某个task是否能正常执行,其中userprofile是DAG名称,age_task是其中一个task名称
airflow backfill -s 2020-01-01 -e 2020-01-02 userprofile 用于调起整个DAG脚本执行任务,其中userprofile是DAG名称,2020-01-01是脚本执行的开始日期;

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/206676.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • 《Dubbo进阶一》——RPC协议底层原理

    《Dubbo进阶一》——RPC协议底层原理一RPC协议简介在一个典型的RPC的使用场景中,包含了服务发现、负载、容错、序列化和网络传输等组件,其中RPC协议指明了程序如何进行序列化和网络传输,也就是说一个RPC协议的实现等于一个非透明的RPC调用。简单来说,分布式框架的核心是RPC框架,RPC框架的核心是RPC协议。二协议的基本组成IP:服务提供者的地址端口:协议指定开放端口运行服务(1)netty(2)mima…

  • FileInputFormat.setInputPaths多路径读取规则

    FileInputFormat.setInputPaths(job,input1,input2);在读取文件时候,默认先读单个大文件所在的路径(一次性读清该文件下所有文件),后读小文件所在路径。写协同过滤时候,想让setInputPaths方法先读第一个输入路径input1,再读第二个输出路径input2就算把文件位置交换,读取的顺序还是错误publicstaticclassmyMapp…

  • django csdn_怎么使用cookie登录

    django csdn_怎么使用cookie登录前言cookie:在网站中,http请求是无状态的。也就是说即使第一次和服务器连接后并且登录成功后,第二次请求服务器依然不能知道当前请求是哪个用户。cookie的出现就是为了解决这个问题,第一次登录

  • 国内免费php mysql空间,[php mysql]国内有什么好的免备案免费php+mysql空间

    国内免费php mysql空间,[php mysql]国内有什么好的免备案免费php+mysql空间国内有什么好的免备案免费php+mysql空间问题补充:稳定点的,速度过得去就可以.谢谢●我一直在用”主机屋”提供的免费空间.稳定性可以运作几年了.不用备案.用了马上就知道好.百度搜索”主机屋”php+mysql实现无限级分类问题补充:php+mysql实现无限级分类●项目思路分析:一个PHP项目要用到分类,但不确定分几级,所以就想做成无限级分类。一开始想是按以前一样,数据库建4个值,如下:…

  • 为HttpStatusCodeResult添加customErrors

    为HttpStatusCodeResult添加customErrorsasp.netmvc的action返回值为HttpStatusCodeResult时的customErrors总是不起作用的解决办法

  • PHP实现密码生成器包含大小写字母数字特殊字符

    PHP实现密码生成器包含大小写字母数字特殊字符

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号