Просто запускаем из текущей директории репозитория
python3 main.py <YYYY-mm-dd>
- Можно перейти в папку
/scripts
и вручную запустить скриптspark_app.py
приложения
python3 spark_app.py <YYYY-mm-dd>
- А можно запустить Apach Airflow с помощью
docker compose
файла:
Для запуска моего Spark App клонируем и используем -
docker compose build #сначала собираем наш образ
docker compose up -d #а затем его запускаем
Так же не забываем менять FERNET_KEY
на свой в docker-compose.yml.