Uma equipe de cientistas de dados está desenvolvendo um
pipeline de ETL (Extract, Transform, Load) para processar
grandes volumes de dados diariamente. Para isso, eles
decidiram utilizar o Apache Airflow para orquestrar e monitorar
o fluxo de trabalho, garantindo a execução das tarefas na
ordem correta e com tolerância a falhas.
No Apache Airflow, os DAGs (Directed Acyclic Graphs) são a
estrutura principal usada para definir os workflows. Dentro de
uma DAG, as tarefas são organizadas e executadas de acordo
com suas dependências.
Assinale a alternativa que melhor descreve o funcionamento
de um DAG no Apache Airflow.