我们使用 DBT 与 GCP 和 BigQuery 在 BigQuery 中进行转换,安排我们每天的最简单方法run dbt
似乎是BashOperator
在 Airflow 中。目前我们有两个独立的目录/github 项目,一个用于 DBT,另一个用于 Airflow。要安排 DBT 与 Airflow 一起运行,似乎我们的整个 DBT 项目需要嵌套在我们的 Airflow 项目中,这样我们就可以为dbt run
bash 命令指向它?
是否可以在不将 DBT 目录移动到 Airflow 目录中的情况下触发我们的dbt run
和dbt test
?使用airflow -dbt包,对于dir
中的default_args
,也许可以在这里指向DBT项目的gibhub链接?
我的建议是将 dbt 和 airflow 代码库分开。确实有更好的方法:
DockerOperator
您的气流DAG与您的DBT代码运行的码头工人形象我假设你在这里使用了气流 LocalExecutor 并且你想dbt run
在运行气流的服务器上执行你的工作负载。如果情况并非如此,并且您有权访问 Kubernetes 集群,我建议改为使用KubernetesPodOperator
.
归档时间: |
|
查看次数: |
1224 次 |
最近记录: |