python airflow_airflow的使用方法
简介
airflow是airbnb家的基于DAG(有向无环图)的任务管理系统, 最简单的理解就是一个高级版的crontab。它解决了crontab无法解决的任务依赖问题。
类似产品比较
系统
介绍
Apache Oozie
使用XML配置, Oozie任务的资源文件都必须存放在HDFS上. 配置不方便同时也只能用于Hadoop.
Linkedin Azkaban
web界面尤其很赞, 使用java properties文件维护任务依赖关系, 任务资源文件需要打包成zip, 部署不是很方便.
airflow
具有自己的web任务管理界面,dag任务创建通过python代码,可以保证其灵活性和适应性
web界面使用介绍
DAGS
启动web任务管理需要执行airflow websever -D命令,默认端口是8080
http://10.191.76.31:8080/admin/
image.png
DAG
dag_id
Schedule
调度时间
Owner
dag拥有者
Recent Tasks
这里包含9个圆圈,每个圆圈代表task的执行状态和次数
圈1 success:现实成功的task数,基本上就是该tag包含多少个task,这里基本上就显示几。
圈2 running:正在运行的task数
圈3 failed:失败的task数
圈4 unstream_failed:
圈5 skipped:跳过的task数
圈6 up_for_retry:执行失败的task,重新执行的task数
圈7 queued:队列,等待执行的task数
圈8 :
圈9 scheduled:刚开始调度dag时,这一次执行总共调度了dag下面多少个task数,并且随着task的执行成功,数值逐渐减少。
Last Run
dag最后执行的时间点
DAG Runs
这里显示dag的执行信息,包括3个圆圈,每个圆圈代表dag的执行状态和次数
圈1 success:总共执行成功的dag数,执行次数
圈2 runing:正在执行dag数
圈3 faild:执行失败的dag数
Links
link
说明
Trigger Dag
人为执行触发
Tree View
当dag执行的时候,可以点入,查看每个task的执行状态(基于树状视图),状态:success,running,failed,skipped,retry,queued,no status
Graph View
同上,基于图视图(有向无环图),查看每个task的执行状态,状态:success,running,failed,skipped,retry,queued,no status
Tasks Duration
每个task的执行时间统计,可以选择最近多少次执行(number of runs)
Task Tries
每个task的重试次数
Landing Times
Gantt View
基于甘特图的视图,每个task的执行状态
Code View
查看任务执行代码
Logs
查看执行日志,比如失败原因
Refresh
刷新dag任务
-Delete Dag
删除该dag任务
当某dag执行失败,可以通过3个View视图去查看是哪个task执行失败。
Data Profiling 数据分析
image.png
Ad Hoc Query:特殊查询
通过UI界面对一些数据库,数据仓库的进行简单的SQL交互操作.
Ad Hoc Query
image.png
Charts:图表
实现数据可视化和图表的工作。通过SQL去源数据库检索一些数据,保存下来,供后续使用。
These charts are basic, but they’re easy to create, modify and share
Charts
Charts.png
You can even use the same templating and macros available when writing airflow pipelines, parameterizing your queries and modifying parameters directly in the URL.
image.png
Known Events:已知的事件
Known Events
Browse 浏览
Browse
SLA Misses
Task Instances:查看每个task实例执行情况
Task Instances
Logs:查看所有dag下面对应的task的日志,并且包含检索
image.png
Jobs:查看dag的执行状态,开始时间和结束时间等指标
image.png
DAG Runs
Admin:管理员
image.png
Pools:
Configuration:查看airflow的配置,即:./airflow_home/airflow.cfg
Users:查看用户列表,创建用户,删除用户
Connections
我们的Task需要通过Hook访问其他资源, Hook仅仅是一种访问方式, 就像是JDBC driver一样, 要连接DB, 我们还需要DB的IP/Port/User/Pwd等信息. 这些信息不太适合hard code在每个task中, 可以把它们定义成Connection, airflow将这些connection信息存放在后台的connection表中. 我们可以在WebUI的Admin->Connections管理这些连接.
Variables
Variable 没有task_id/dag_id属性, 往往用来定义一些系统级的常量或变量, 我们可以在WebUI或代码中新建/更新/删除Variable. 也可以在WebUI上维护变量.
Variable 的另一个重要的用途是, 我们为Prod/Dev环境做不同的设置, 详见后面的开发小节.
XComs
XCom和Variable类似, 用于Task之间共享一些信息. XCom 包含task_id/dag_id属性, 适合于Task之间传递数据, XCom使用方法比Variables复杂些. 比如有一个dag, 两个task组成(T1->T2), 可以在T1中使用xcom_push()来推送一个kv, 在T2中使用xcom_pull()来获取这个kv.
Docs
image.png
官方文档
Github地址
Dag提交-python配置任务
DAG 基本参数配置
default_args = {
'owner': 'airflow',
'depends_on_past': False, # 是否依赖上一个自己的执行状态
'start_date': datetime.datetime(2019, 1, 1),
'email': ['wangzhenjun@gmail.com'], # 需要在airflow.cfg中配置下发件邮箱
'email_on_failure': False,
'email_on_retry': False,
'retries': 1,
'retry_delay': datetime.timedelta(minutes=5),
# 'end_date': datetime(2020, 1, 1), # 结束时间,注释掉也就会一直执行下去
}
DAG对象
设置dag的执行周期:schedule_interval.该参数可以接收cron 表达式和datetime.timedelta对象,另外airflow还预置了一些调度周期。
preset
Description
cron
None
Don’t schedule, use for exclusively “externally triggered” DAGs
@once
Schedule once and only once
@hourly
Run once an hour at the beginning of the hour
0 * * * *
@daily
Run once a day at midnight
0 0 * * *
@weekly
Run once a week at midnight on Sunday morning
0 0 * * 0
@monthly
Run once a month at midnight of the first day of the month
0 0 1 * *
@yearly
Run once a year at midnight of January 1
0 0 1 1 *
dag = DAG(
'tutorial',
default_args=default_args,
schedule_interval='* * * * *' # 执行周期,crontab形式
)
定义任务
在定义这个任务的过程,就像是在写一个 shell 脚本,只是这个脚本的每个操作可以有依赖。 不同的操作对应了不同的 Operator,比如 shell 就需要用 BashOperator 来执行。
t1 = BashOperator( #任务类型是bash
task_id='echoDate', #任务id
bash_command='echo date > /home/datefile', #任务命令
dag=dag)
完整样例
# coding: utf-8
from airflow import DAG
from airflow.operators.python_operator import PythonOperator
from datetime import datetime, timedelta
# 定义默认参数
default_args = {
'owner': 'wangzhenjun', # 拥有者名称
'depends_on_past': False, # 是否依赖上一个自己的执行状态
'start_date': datetime(2019, 1, 15, 10, 00), # 第一次开始执行的时间,为格林威治时间,为了方便测试,一般设置为当前时间减去执行周期
'email': ['wangzhenjun01@corp.netease.com'], # 接收通知的email列表
'email_on_failure': True, # 是否在任务执行失败时接收邮件
'email_on_retry': True, # 是否在任务重试时接收邮件
'retries': 3, # 失败重试次数
'retry_delay': timedelta(seconds=5) # 失败重试间隔
}
# 定义DAG
dag = DAG(
dag_id='hello_world', # dag_id
default_args=default_args, # 指定默认参数
# schedule_interval="00, *, *, *, *" # 执行周期,依次是分,时,天,月,年,此处表示每个整点执行
schedule_interval=timedelta(minutes=1) # 执行周期,表示每分钟执行一次
)
"""
1.通过PythonOperator定义执行python函数的任务
"""
# 定义要执行的Python函数1
def hello_world_1():
current_time = str(datetime.today())
with open('/root/tmp/hello_world_1.txt', 'a') as f:
f.write('%s\n' % current_time)
assert 1 == 1 # 可以在函数中使用assert断言来判断执行是否正常,也可以直接抛出异常
# 定义要执行的Python函数2
def hello_world_2():
current_time = str(datetime.today())
with open('/root/tmp/hello_world_2.txt', 'a') as f:
f.write('%s\n' % current_time)
# 定义要执行的task 1
t1 = PythonOperator(
task_id='hello_world_1', # task_id
python_callable=hello_world_1, # 指定要执行的函数
dag=dag, # 指定归属的dag
retries=2, # 重写失败重试次数,如果不写,则默认使用dag类中指定的default_args中的设置
)
# 定义要执行的task 2
t2 = PythonOperator(
task_id='hello_world_2', # task_id
python_callable=hello_world_2, # 指定要执行的函数
dag=dag, # 指定归属的dag
)
t2.set_upstream(t1) # t2依赖于t1;等价于 t1.set_downstream(t2);同时等价于 dag.set_dependency('hello_world_1', 'hello_world_2')
# 表示t2这个任务只有在t1这个任务执行成功时才执行,
# 或者
t1 >> t2
"""
2.通过BashOperator定义执行bash命令的任务
"""
hello_operator = BashOperator( #通过BashOperator定义执行bash命令的任务
task_id='sleep_task',
depends_on_past=False,
bash_command='echo `date` >> /home/py/test.txt',
dag=dag
)
"""
其他任务处理器:
3.EmailOperator : 发送邮件
4.HTTPOperator : 发送 HTTP 请求
5.SqlOperator : 执行 SQL 命令
"""
分布式部署
CeleryExecutor is one of the ways you can scale out the number of workers. For this to work, you need to setup a Celery backend (RabbitMQ, Redis, …) and change your airflow.cfg to point the executor parameter to CeleryExecutor and provide the related Celery settings.
我们的生产环境:
每台机器运行的任务所属应用各不相同,不同应用运行环境也不相同,另外不同应用也希望达到集群隔离的目的。如果要实现这个功能,需要自己提供队列的管理,指定队列的任务节点会被调度到相应队列的机器上,相应队列的机器也只会运行指定队列的任务节点。
大部分都是集中在2-3台机器提交,环境类似,各自提交任务,但是任务通过主节点去随机分发到各结点执行,并不能保证环境的满足。
现在情况:如果是组内使用,各位的环境差异比较大,首先需要保证各环境的统一性
面临的问题:
官方文档+网上的关于分布式的资料不多,官方文档更多是一笔带过。
image.png
image.png
python airflow_airflow的使用方法相关推荐
- Python 字典(Dictionary) get()方法
Python 字典(Dictionary) get()方法 描述 Python 字典(Dictionary) get() 函数返回指定键的值,如果值不在字典中返回默认值. 语法 get()方法语法: ...
- Python最大堆排序实现方法
Python最大堆排序实现方法,具体代码如下: # -*- coding: utf-8 -*- def merge_sort(seq, cmp=cmp, sentinel=None): ...
- 刻意练习:Python基础 -- Task11. 魔法方法
背景 我们准备利用17天时间,将 "Python基础的刻意练习" 分为如下任务: Task01:变量.运算符与数据类型(1day) Task02:条件与循环(1day) Task0 ...
- python操作yaml的方法详解
这篇文章主要为大家介绍了python操作yaml的方法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望能够给你带来帮助 一.参考链接 https://pyyaml.org/wiki/PyYAM ...
- python中函数和方法的区别?Python编程判断当前获取的对象是函数还是方法
python中函数和方法的区别?Python编程判断当前获取的对象是函数还是方法 目录
- python集合(set)+常见方法+交叉并补
python集合(set)+常见方法+交叉并补 集合的定义 定义:由不同元素组成的集合,集合是一组无序排列 可hash值,可作为字典的key. 特性:集合的目的是将不同的值存放在一起,不同的集合间用来 ...
- python print 的使用方法
python print 的使用方法 视频 https://www.bilibili.com/video/BV1mK4y187zN?from=search&seid=3961255759492 ...
- python加号换行,Python字符串拼接六种方法介绍
Python字符串拼接的6种方法: 1.加号 第一种,有编程经验的人,估计都知道很多语言里面是用加号连接两个字符串,Python里面也是如此直接用"+"来连接两个字符串: prin ...
- 以下构成python循环结构的方法中_超星尔雅初级英语口语(持续更新中)选修课答案...
套期具有"对冲""互抵"的关系 答:正确 差异化战略核心是企业在市场营销.研究和开发.产品技术和工艺设计以及服务等方面具有强大的实力. 答:正确 以下构成Pyt ...
最新文章
- 越南71岁的工程师,给全世界的机械人送了一份大礼!
- mysql取n条不重复_MySQL重复数据中限定操作n条
- ubuntu sun-java6-jre_在 Ubuntu Lucid 下请回 Sun Java6 Jre, 赶走 OpenJDK
- 重庆电子工程学院计算机专业,重庆计算机电子工程职业学院2020年招生录取分数线...
- python桌面应用html_是否将Python后端与HTML / CSS / JS用户界面集成到桌面应用程序? - javascript...
- Abseil之Copies, Abbrv
- python写入一个文件之前可以不打开_跟老齐学Python之不要红头文件(1)
- 伪元素在父元素中居中_从ArrayList中移除元素
- 网易云解析接口PHP源码,网易云解析/接口
- 对于超前,滞后,超前滞后使用范围
- elementUI表格合并行数据
- ArcGIS中相对高程的提取
- 2021年中式烹调师(初级)模拟考试系统及中式烹调师(初级)实操考试视频
- super和this
- HTML5 video循环播放多个视频
- 商汤提出手机端实时单目三维重建系统,实现逼真AR效果和交互
- CSDN中如何插入数学公式
- gitee生成公钥报错
- 【myISAM和innoDB】mySql的引擎myisam和innodb的区别/mysiam(mysql插入速度优化)
- 五万字长文总结 C/C++ 知识
热门文章
- 湖南大学21夏训练四18.身份证校验
- vscode 配置 jdk11
- javaWeb学习第一天 ------HTML和table表格
- 自动生成html基本结构,如何创建网页html?
- [Linux] Samba服务器配置 安全级别为share
- android dtb文件位置_DTB/DTBO 分区 | Android 开源项目 | Android Open Source Project
- 计算机主板电池没电什么情况,主板电池没电了会出现什么情况
- 中秋节+国庆节,抓住Niushop“中国节”钜惠活动,错过就没有啦!
- 基于HarmonyOS的WIFI智能冰箱:在Ubuntu下搭建编译环境
- matlab conv实现,MATLAB卷积运算(conv)以及通用的卷积函数my_conv的实现