asieldev/Deep_Learning_Sound-Recognition
Este projeto propõe a implementação de um modelo baseado em uma rede neural convolucional (CNN), capaz de aprender padrões específicos a partir da análise espectral de uma sequência de áudio e, assim, classificar cada evento sonoro a partir de sua classe de referência. Para este projeto, dois tipos de abordagens foram considerados com base em diferentes representações espectro-temporais das seqüências sonoras utilizadas (MFC-Spectrogram e MFCCs). Para avaliar o desempenho do modelo, foi utilizado o conjunto de dados disponível ao público (UrbanSound8k),
Jupyter NotebookMIT