Tem como objetivo a classificação a partir dos conjuntos de dados DTD e FMD, assim como a avaliação para diferentes tipos de backbones, a exemplo, resnet, vgg, inception entre outros.
As dependências do projeto estão listadas no arquivo requirements.txt. Para instalar as dependências, execute:
pip install -r requirements.txt
-
🔍 Verifique o dataset: Confirme se está utilizando DTD ou FMD. Neste exemplo, vamos utilizar DTD.
-
📤 Inserir as features: Navegue até a pasta
features_raw/DTD_DIEGO
e coloque as features extraídas lá. -
⚙️ Converter as features: Rode o notebook
converter.ipynb
para realizar a conversão das features. -
📂 Substituir os labels: Volte para a pasta raiz e substitua a pasta labels pela pasta de labels correspondente ao dataset utilizado. Neste caso, execute:
cp -r labels_DTD labels
- 📊 Executar o pipeline: Após realizar as etapas anteriores, execute o script principal para rodar todo o pipeline de treinamento:
nohup python rodar_all.py &> saida.log &
Os arquivos de features seguem o seguinte padrão de nomenclatura:
[DATASET][FEATURE][PATCH x PATCH].txt
- [DATASET]: Nome do conjunto de dados (ex:
DTD
,FMD
). - [FEATURE]: Nome da feature extraída (ex:
obif
,resnet
). - [PATCH x PATCH]: Tamanho dos patches utilizados (ex:
1x1
,2x2
).
Exemplo: DTD_obif_1x1.txt
Cada arquivo de features deve conter, no mínimo, as seguintes colunas:
[FEATURES_NUMBERS] [NOME_LABEL] [NOME_FILE]
- [FEATURES_NUMBERS]: Valores numéricos das features extraídas.
- [NOME_LABEL]: Nome ou valor correspondente ao label da imagem.
- [NOME_FILE]: Nome do arquivo associado àquela entrada de feature.
Exemplo de linha: 00000 0.000000 0.000000 banded banded_0004.jpg