Este documento fornece um passo a passo para configurar e iniciar o Apache Airflow com Docker Compose usando o
script setup_script_start.sh
, que está disponível no GitHub
em https://github.com/ericksonlopes/airflow-docker-example. O
script é um arquivo de shell (.sh
) e é projetado para ser executado em sistemas Linux. Se você estiver usando Windows,
será necessário o Windows Subsystem for Linux (WSL) para executá-lo. O script realiza as seguintes tarefas:
Siga estas etapas para configurar e iniciar o Apache Airflow usando o repositório do GitHub:
-
Clone o Repositório:
Abra um terminal no seu sistema Linux ou no Windows Subsystem for Linux (WSL) e execute o seguinte comando para clonar o repositório do GitHub para o seu sistema:
git clone https://github.com/ericksonlopes/airflow-docker-example.git
Isso criará uma cópia do repositório no diretório atual.
-
Acesse o Diretório do Projeto:
Entre no diretório do projeto clonado usando o seguinte comando:
cd airflow-docker-example
-
Permissões de Execução:
Certifique-se de que o script
setup_script_start.sh
tenha permissões de execução. Você pode conceder permissões de execução com o seguinte comando:chmod +x setup_script_start.sh
-
Execute o Script:
Execute o script
setup_script_start.sh
com o seguinte comando:sudo bash setup_script_start.sh
Isso iniciará o processo de configuração e inicialização do Apache Airflow no seu sistema Linux ou no WSL em sistemas Windows.
Aqui estão as etapas detalhadas realizadas pelo script setup_script_start.sh
:
-
Atualização de Repositórios:
apt-get update -y
Este comando atualiza a lista de pacotes disponíveis no sistema operacional.
-
Criação de Diretórios:
mkdir -p ./dags ./logs ./plugins ./config ./data
Este comando cria diretórios para armazenar diferentes componentes e configurações do Apache Airflow.
./dags
: Usado para armazenar as definições das tarefas do fluxo de trabalho../logs
: Onde os logs do Airflow serão armazenados../plugins
: Para plugins personalizados../config
: Para arquivos de configuração personalizados../data
: Para armazenamento de dados temporários ou persistentes.
-
Definição da Variável de Ambiente AIRFLOW_UID:
echo -e "AIRFLOW_UID=$(id -u)" > .env
Isso define a variável de ambiente
AIRFLOW_UID
com o ID de usuário atual. Essa variável é usada posteriormente pelo Docker Compose. -
Construção da Imagem Docker:
docker build . --tag extending_airflow:latest
Este comando cria uma imagem Docker do Apache Airflow com base no Dockerfile local. A imagem é marcada como
extending_airflow:latest
. -
Execução do Docker Compose:
docker compose up -d --build
Este comando inicia a instância do Apache Airflow em um contêiner Docker. A opção
-d
significa "em segundo plano". A opção--build
garante que a imagem Docker seja reconstruída, se necessário.O Apache Airflow será executado com base nas configurações especificadas no arquivo
docker-compose.yml
no diretório atual.
Certifique-se de personalizar o script e os diretórios de acordo com suas necessidades específicas antes de executá-lo. Este documento fornece uma visão geral do que o script faz e como ele funciona, tornando mais fácil configurar e iniciar o Apache Airflow usando Docker Compose a partir do repositório GitHub. Lembre-se de que o script é destinado a sistemas Linux e requer o Windows Subsystem for Linux (WSL) para ser executado em sistemas Windows.