Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Nota
O trabalho do Apache Airflow é alimentado pelo Apache Airflow.
O Apache Airflow é uma plataforma open-source usada para criar, agendar e monitorizar programaticamente trabalhos complexos. Ele permite definir um conjunto de tarefas, chamadas operadores, que podem ser combinadas em gráficos acíclicos direcionados (DAGs) para representar pipelines.
O Apache Airflow Job fornece uma maneira simples e eficiente de criar e gerenciar ambientes Apache Airflow, permitindo que você execute seus trabalhos de orquestração em escala com facilidade. Neste início rápido, vamos criar um trabalho simples do Apache Airflow para se familiarizar com o ambiente e as funcionalidades do Apache Airflow Job.
Criar um trabalho de fluxo de ar Apache
Você pode usar um espaço de trabalho existente ou Criar um novo espaço de trabalho.
Expandir o menu "Novo item", depois, na secção "Data Factory", selecionar "Apache Airflow Job".
Dê um nome adequado ao seu projeto e selecione o botão Criar .
Criar um arquivo DAG
Selecione o cartão de Novo ficheiro DAG, dê um nome ao ficheiro e selecione Criar.
Um código DAG clichê é apresentado a você. Você pode editar o arquivo de acordo com suas necessidades.
Selecione Guardar.
Executar um DAG
Comece por selecionar o botão Run DAG .
Uma vez iniciado, aparece uma notificação a indicar que o DAG está a funcionar.
Para monitorizar o progresso da execução DAG, selecione Ver Detalhes no centro de notificações. Essa ação irá redirecioná-lo para a interface do usuário do Apache Airflow, onde você pode rastrear convenientemente o status e os detalhes da execução do DAG.
Monitore seu DAG Apache Airflow na interface do usuário do Apache Airflow
Os arquivos dag salvos são carregados na interface do usuário do Apache Airflow. Pode monitorizá-los clicando no botão monitor do Apache Airflow.