Feito por:
- Luan Matheus Trindade Dalmazo
- Isadora Botassari
Instale as dependências necessárias (sugerimos a criação de um ambiente venv).
pip install -r requirements.txt
Lembre-se de criar um arquivo .env antes de rodar todos os códigos desse repositório, ele deverá ser da seguinte forma:
MAIN_DIR= DIRETÓRIONOQUALODATASETORIGINALESTÁ
TEST_DIR= NOVOCAMINHOPARAODATASET/TEST
VALIDATION_DIR=NOVOCAMINHOPARAODATASET/VALIDATION
TRAIN_DIR=NOVOCAMINHOPARAODATASET/TRAIN
AUGMENT=True -> CASO SEJA DESEJADO EXECUTAR O DATA AUGMENTATION
NUM_EPOCHS=20
Conforme descrito no paper, a pipeline consiste de diferentes etapas, abaixo todas elas são descritas (em ordem):
- split_dataset.py
Nesse arquivo dividimos o dataset UTFPR-BOP: Birds of Prey em 75% para treinamento, sendo 25% desse total destinado para validação. 25% do dataset reservado para a etapa de teste.
- preprocessing.py
Aqui nós realizaremos o data augmentation, lembre-se de verificar se a variável de ambiente AUGMENT está configurada para TRUE.
- train_families.py ou train_species.py
O treinamento é realizado aqui.
- test_families.py ou test_species.py
O teste é realizado aqui, para o arquivo de espécies, é gerado uma matriz de confusão para acompanhar os acertos e erros do modelo.
- classify.example.py
Caso deseje classificar um exemplo individualmente por espécie, use este arquivo.
O dataset utilizado foi disponibilizado publicamente em UTFPR-BOP Dataset, todos os créditos das imagens utilizadas no treinamento, validação e teste são dadas ao laboratório LABIC - UTFPR.