小编gri*_*007的帖子

如何手动将 spark 2.2 与 hadoop 3.1 集成?

我想使用 Spark 2.2 版和 Hadoop 最新版 3.1。我可以手动集成 Spark 和 Hadoop 吗?

我已经在 Hadoop 2.6 或更高版本中安装了 Spark 2.2,但我想更新 Hadoop。是否可以使用 Hadoop 文件夹在 Spark 中找到 Hadoop 目录?

我已经下载了没有 hadoop 的 Spark 2.2 和 hadoop 3.1.0。两者都在运行,但是当我使用 hadoop_home 配置 spark.env.sh.template 文件时,它不起作用。任何人都可以分享正确的配置吗?

谢谢

apache-spark hadoop3

6
推荐指数
0
解决办法
795
查看次数

如何检查任务1是否失败然后在气流中运行任务2?

如何检查任务1失败的任务失败然后运行任务2,就像if else条件一样.

我想运行依赖任务.

Task1失败然后如何在条件如if1 ==失败然后运行task2和task3的情况下获取该错误日志.我试过,SSHHOOK但我正在寻找一个简单的解决方案.

  with DAG(
    'airflow',
    catchup=False,
    default_args={
        'owner': 'abc',
    'start_date': datetime(2018, 4, 17),
        'schedule_interval':None,
        'depends_on_past': False,
    },   
) as dag:
    task_1 = PythonOperator(
        task_id='task_1', 
        python_callable=do(),
    )
    task_2 = PythonOperator(
        task_id='task_2',
        python_callable=do(),
    )
    task_3 = PythonOperator(
        task_id='task_3',
        python_callable=do()

    task_3.set_upstream(task_2)
    task_2.set_upstream(task_1)
Run Code Online (Sandbox Code Playgroud)

airflow

4
推荐指数
1
解决办法
2261
查看次数

标签 统计

airflow ×1

apache-spark ×1

hadoop3 ×1