International Center for Advanced Studies

Cronograma

Martes Jueves
Agosto
4. Presentación de la materia. Panorama general de Aprendizaje Automático. Análisis exploratorio de datos. Diapos; Notebook. 6. Análisis exploratorio de datos (cont). Preprocesado. Modelos estadísticos sencillos (regresión lineal). Notebook.
11. Concepto de probabilidad. Probabilidad conjunta, marginal y condicional. Reglas de la suma y el producto. Diferencia entre el enfoque frecuentista y bayesiano. 13. Teorema de Bayes. Inferencia bayesiana. Prior, verosimilitud, posterior. Diapos; Notebook.
18. Priors conjugados. Distribución binomial y beta. Aplicaciones del teorema de Bayes. (Clase a cargo de E. Álvarez). 20. El problema de Monty Hall. Ejemplos de problemas con priors conjugados. A/B testing bayesiano. Distribución multinomial y de Dirichlet.
25. El problema del cumpleaños. La distribución normal, binormal y multinormal. Propiedades analíticas. 27. Modelos lineales. Regresión lineal. Notebook.
Septiembre
1. Estimadores de máxima verosimilitud. Regresión mutlivariada. Regresión polinomial. Sobreajuste. Notebook. 3. Ecuaciones normales. Validación cruzada (K-folding). Consultas. Notebook.
8. Regularización (ridge, lasso, ElasticNet). Notebook. 10. Weighted Least Squares (WLS) Resolución de ejercicio 4.
15. Regresión lineal bayesiana. Propiedades de distribuciones normales. Problema de regresión bayesiana. Diapositivas complementarias 17. Clasificación con modelos lineales. Teoría de decisión. Funciones discriminantes. Discriminante lineal de Fischer.
22. Perceptrón. Stochastic Gradient Descent. 24. Consultas.
1er Parcial
29. Regresión logística. IRLS. Resolución de ejercicio de clasificación del parcial. Diapositivas. Notebook. 1. SVM. Kernel trick. Diapositivas. Notebook.
Octubre
6. Construcción de kernels.
Modelos generativos: Naive Bayes.
Diapositivas. Notebook.
8. Devolución del primer parcial. Decision Trees. Random trees.
13. Métodos de Ensemble. Voting, bagging, stacking. Random Forest.
Diapositivas.
15. Boosting. AdaBoost. Gradient Boosting.
Diapositivas.
20. Redes neuronales. Conceptos básicos. Funciones de activación y funciones de error. Redes neuronales como aproximadores.
Diapositivas. Notebook.
22. Entrenamiento: retropropagación. Regularización de redes neuronales. Utilización de TensorFlow.
Diapositivas.
27. Cómo "aprende" una red neuronal. Qué "aprende". Ejemplos de arquitecturas de redes MLP.
Notebook.
29. Redes Neuronales Convolucionales (CNN). Weight sharing. Ejemplos de CNN.
Noviembre
3. Interpretabilidad de las CNN. 5. Métodos no surpervisados: K-means y KNN. Consultas.
2do Parcial
10. Temas Extras. Tema 1. Mixturas Gaussianas. Mixture Density Networks. Tema 2. Redes Neuronales Recurrentes. LSTM. 12. Devolución del parcial. Temas Extras 3. Autoencoders. Autoencoders Variacionales.
17. Clase invitada: Daniel Stilerman y Miguel Nollmann (Google)
Temas Extras 4. GANNs
19. Clase invitada: Alejandro Salevsky y Johnny Montero (Telefónica)
Consultas
24. Clase invitada: Francisco Tamarit (IFEG, CONICET-UNC)
Cierre de la materia.