TUE THU
week# starts CLASSROOM 20-238 CLASSROOM 20-234
----------------------------------------------------------------------------------------------
W01 05/jun Intro.ML1 Intro.ML2
W02 10/jun U1.Intro.NN Lab 1.1
W03 17/jun U2.NN.Archs.TrainAlgs.Reg Lab 2.1
-------------------- VACACIONES --------------------------------
W04 08/jul U2.NN.Initz.Batch.Relu.Vanish Lab 2.2
W05 15/jul Labs Parcial 21/jul Deadline Lab1 Lab2
W06 22/jul U3.CNN.ConvOp.Archs Lab 3.1
W07 29/jul U3.CNN.Classf.Detectn.Segmtn Lab 3.2 04/ago Deadline U3.05-3.11
W08 05/ago U3.CNN.Transfer Learning Lab 3.3 11/ago Deadline U3.15-3.17
W09 19/ago U3.Proyecto U3.Proyecto
W10 26/ago U3.Proyecto U3.Proyecto 01/sep Deadline U3.Proyecto
W11 02/sep U4.RNN.SeqModels.BProp in Time Lab 4.1 05/sep presentación proyectos seleccionados
W12 09/sep U4.RNN.LSTM.Archs.Seq2Seq Lab 4.2
W13 16/sep U4.RNN.CNN-LSTM Lab 4.3 21/sep Deadline Lab4
W14 23/sep U4.Proyecto U4.Proyecto
W15 30/sep U4.Proyecto U4.Proyecto
W16 07/oct 10/oct Deadline U4.Proyecto
calendario
5 jun inicio clases
12 ago 40% evaluación (recomendado)
12 oct finalización de las clases
14 oct fecha límite cierre notas finales
14-19 oct habilitaciones
21-16 oct validación y reporte de notas
28 oct cierre oficial semestre
10% Parcial
10% Lab1 + Lab 2
15% Lab 3
15% Lab 4
25% U3.Proyecto
25% U4.Proyecto
Para el proyecto U3 (redes convolucionales) y U4 (redes recurrentes) tendrás que:
- escoger un dataset, de un tema de tu interés, de tu investigación, etc.
- plantear una tarea de aprendizaje junto con una métrica de evaluación (p.ej. clasificación, detección, etc.)
- plantear una estrategia de resolución (preprocesado, arquitectura de red, trasnfer learning, data augmentation, feature learning, etc.)
- implementar el flujo de trabajo experimental
Tu entrega habrá de ser un repositorio github con uno o varios notebooks donde proveas evidencia del trabajo realizado, incluyendo experimentos pruebas, etc.
Para realizar tu entrega, crea un documento llamado U3.Proyecto
o U4.Proyecto
en el Google drive compartido, que contenga el enlace a tu repositorio github. Si llamas distinto a este documento no será tenido en cuenta.
- 25% Reproducibilidad: Tus notebooks han de ser 100% ejecutables sin errores, desde la descarga de datos hasta la obtención de tus resultados. Si lo consideras necesario crea un fichero descargable con tus datos y publícalo en algún lado como están en los notebooks del curso. No incluyas los datos en el repositorio.
- 25% Claridad: Explica bien tu tarea (en los mismos notebooks), la métrica de evaluación que ests usando y el ciclo experimental que hiciste (probé tales arquitecturas de red, el modelo final tiene tal arquitectura porque las anteriores sufrían de overfitting, etc.)
- 25% Repositorio: Tu repositorio ha de estar ordenado, con una estructura clara y con un README.md que indique qué notebooks ejecutar con tu resultado final, qué notebooks contienen los experimentos previos que hiciste, etc.
- 25% Compleción: Tu tarea ha de utilizar las técnicas vistas en clase y ha de demostrar un flujo experimental (prueba de varias arquitecturas, preprocesados, etc.). Igualmente has de incluir una interpretación de tus resultados.
Si se te requiere tendrás que realizar una breve presentación de tu proyecto, teniendo en cuenta que:
- la presentacin ha de durar 10 minutos. Esto es un límite estricto. Al cabo de ese tiempo se cortará la presentación esté en el punto que esté.
- Tendrás que presentar tres aspectos: 1) qué tarea se resolvió, 2) qué experimentos se hicieron, 3) tus conclusiones e interpretación de los resultados.
- La calificación será un factor entre 0.5 y 1.5, que se multiplicará con la calificación obtenida a la entrega para obtener la calificación final.
- Hastie, Tibshirani, Friedman, The Elements of Statistical Learning, Springer-Verlag website pdf
- Goodfellow, Bengio, Courville, Deep Learning, MIT Press website pdf
- Bengio, Learning Deep Architectures for AI, Foundations and Trends in Machine Learning, Vol. 2, No. 1 (2009) 1–127, pdf
C1. Neural Networks and Deep Learning
- Lab1 Logistic Regression with a Neural Network mindset
- Lab2 Planar data classification with a hidden layer
- Lab3 Building your Deep Neural Network - Step by Step
C2. Improving Deep Neural Networks
- Lab1 Initialization
- Lab2 Regularization
- Lab3 Gradient checking
- Lab4 Optimization
- Lab5 Tensorflow
C3 Structuring Machine Learning Projects No programming asignments, only quizes
C4. Convolutional Neural Networks
- Lab1 Convolutional model: step by step
- Lab2 Convolutional model application
- Lab3 Residual Networks
- Lab4 Car Detection with YOLOv2
- Lab5 Art generation
- Lab6 Face recognition
- Lab1 Building a RNN step by step
- Lab2 Character level language modeling
- Lab3 Jazz improvisation with LSTM
- Lab4 Operations on word vectors
- Lab5 Emojify
- Lab6 Neural machine translation
- Lab7 Trigger word detection|
TUE THU
week# starts CLASSROOM 20-238 CLASSROOM 20-234
----------------------------------------------------------------------------------------------
W01 05/jun Intro.ML1 Intro.ML
W02 10/jun U1.Intro.NN Lab 1.1
W03 17/jun U2.NN.Archs.TrainAlgs.Reg Lab 2.1 30/jun C1
-------------------- VACACIONES --------------------------------
W04 08/jul U2.NN.Initz.Batch.Relu.Vanish Lab 2.2
W05 15/jul Lab Lab 20/jul C2
W06 22/jul Lab Parcial
W07 29/jul U3.CNN.ConvOp.Archs Lab 3.1 04/ago C3
W08 05/ago U3.CNN.Classf.Detectn.Segmtn Lab 3.2
W09 12/ago U3.CNN.Transfer Learning Lab 3.3 18/ago C4 Lab1,2,3
W10 19/ago Lab Lab
W11 26/ago Lab Lab 30/ago C4 Lab4,5,6
W12 02/sep U4.RNN.SeqModels.BProp in Time Lab 4.1
W13 09/sep U4.RNN.LSTM.Archs.Seq2Seq Lab 4.2
W14 16/sep U4.RNN.CNN-LSTM Lab 4.3 21/sep C5 Lab1,2,3
W15 23/sep Lab Lab
W16 30/sep Lab Lab 07/Oct C5 Lab4,5,6
W17 07/oct