Mrg*_*8m4 3 hadoop airflow apache-airflow
我使用root帐户在群集上安装了Apache Airflow 。我知道这是不好的做法,但这只是测试环境。我创建了一个简单的DAG:
from airflow import DAG
from airflow.operators.bash_operator import BashOperator
from datetime import datetime, timedelta
dag = DAG('create_directory', description='simple create directory workflow', start_date=datetime(2017, 6, 1))
t1 = BashOperator(task_id='create_dir', bash_command='mkdir /tmp/airflow_dir_test', dag=dag)
t2 = BashOperator(task_id='create_file', bash_command='echo airflow_works > /tmp/airflow_dir_test/airflow.txt')
t2.set_upstream(t1)
Run Code Online (Sandbox Code Playgroud)
问题是当我运行此作业时,root用户会执行它。我试图添加owner参数,但是它不起作用。气流说:
Broken DAG: [/opt/airflow/dags/create_directory.py] name 'user1' is not defined
Run Code Online (Sandbox Code Playgroud)
我的问题是,如何使用root用户以外的其他用户运行Apache Airflow DAG?
您可以使用run_as_user参数来模拟 unix用户执行任何任务:
t1 = BashOperator(task_id='create_dir', bash_command='mkdir /tmp/airflow_dir_test', dag=dag, run_as_user='user1')
Run Code Online (Sandbox Code Playgroud)
default_args如果要将其应用于DAG中的每个任务,则可以使用:
dag = DAG('create_directory', description='simple create directory workflow', start_date=datetime(2017, 6, 1), default_args={'run_as_user': 'user1'})
t1 = BashOperator(task_id='create_dir', bash_command='mkdir /tmp/airflow_dir_test', dag=dag)
t2 = BashOperator(task_id='create_file', bash_command='echo airflow_works > /tmp/airflow_dir_test/airflow.txt')
Run Code Online (Sandbox Code Playgroud)
请注意,该owner参数用于其他用途multi-tenancy。
| 归档时间: |
|
| 查看次数: |
3419 次 |
| 最近记录: |