Este repositório contém a configuração necessária para executar o Apache Airflow usando Docker Compose. Ele inclui um arquivo docker-compose.yaml
que configura o ambiente do Airflow com PostgreSQL como banco de dados e uma DAG de exemplo com cinco tarefas.
- Docker
- Docker Compose
- Python3
git clone https://github.com/Percon12/Airflow.git
cd Airflow
python -c "from cryptography.fernet import Fernet; print(Fernet.generate_key().decode())"
Modifique o arquivo Docker-compose.yaml
environment:
AIRFLOW__CORE__FERNET_KEY: 'SUA_CHAVE_FERNET_GERADA_AQUI'
Execute o comando abaixo para inicializar o banco de dados e criar o usuário admin:
docker-compose up airflow-init
Após a inicialização, inicie todos os serviços do Airflow:
docker-compose up -d
Abra o navegador e acesse http://localhost:8080. O nome de usuário padrão é admin e a senha padrão é admin.
Para criar uma nova DAG, siga os passos abaixo:
Crie um novo arquivo Python no diretório dags. Por exemplo, new_dag.py.
Para mais informações, visite: https://airflow.apache.org/docs/apache-airflow/stable/core-concepts/dags.html
Depois de criar, reinicie os serviços do Airflow para carregar a nova DAG:
docker-compose restart webserver scheduler