L’objectif de ce projet est d’implémenter un réseau de neurones. L’implémentation est inspirée des anciennes versions de pytorch (en Lua, avant l’autograd) et des implémentations analogues qui permettent d’avoir des réseaux génériques très modulaires.
- Module linéaire
- Modules d'activation : ReLU, ELU, LeakyReLU, TanH, Sigmoid, SoftMax
- Modules de coûts : Mean Squarre Error, Binary Cross Entropy, Cross Entropy, Hinge Loss
- Convolution 1D : convolution 1D et convolution 1D transposée
- Pooling 1D : max pooling et average pooling 1D
- Auto-encodeurs
- USPS
- MNIST
- DIGITS
- IRIS
- etc.