Martes |
Jueves |
Agosto |
4. Presentación de la materia.
Panorama general de Aprendizaje Automático.
Análisis exploratorio de datos.
Diapos;
Notebook.
|
6. Análisis exploratorio de datos (cont).
Preprocesado. Modelos estadísticos sencillos (regresión lineal).
Notebook.
|
11.
Concepto de probabilidad. Probabilidad conjunta, marginal y
condicional. Reglas de la suma y el producto.
Diferencia entre el enfoque frecuentista y bayesiano.
|
13. Teorema de Bayes. Inferencia bayesiana. Prior,
verosimilitud, posterior.
Diapos;
Notebook.
|
18. Priors conjugados. Distribución binomial y beta.
Aplicaciones del teorema de Bayes. (Clase a cargo de E. Álvarez).
|
20. El problema de Monty Hall. Ejemplos de problemas
con priors conjugados. A/B testing bayesiano.
Distribución multinomial y de Dirichlet.
|
25. El problema del cumpleaños.
La distribución normal, binormal y multinormal.
Propiedades analíticas.
|
27. Modelos lineales. Regresión lineal.
Notebook.
|
Septiembre |
1. Estimadores de máxima verosimilitud. Regresión mutlivariada. Regresión polinomial. Sobreajuste.
Notebook.
|
3.
Ecuaciones normales. Validación cruzada (K-folding).
Consultas.
Notebook.
|
8.
Regularización (ridge, lasso, ElasticNet).
Notebook.
|
10.
Weighted Least Squares (WLS)
Resolución de ejercicio 4.
|
15.
Regresión lineal bayesiana.
Propiedades de distribuciones normales.
Problema de regresión bayesiana.
Diapositivas complementarias
|
17.
Clasificación con modelos lineales. Teoría de decisión.
Funciones discriminantes. Discriminante lineal de Fischer.
|
22.
Perceptrón. Stochastic Gradient Descent.
|
24.
Consultas.
|
1er Parcial |
29.
Regresión logística. IRLS.
Resolución de ejercicio de clasificación del parcial.
Diapositivas.
Notebook.
|
1.
SVM. Kernel trick.
Diapositivas.
Notebook.
|
Octubre |
6.
Construcción de kernels.
Modelos generativos: Naive Bayes.
Diapositivas.
Notebook.
|
8.
Devolución del primer parcial.
Decision Trees. Random trees.
|
13.
Métodos de Ensemble. Voting, bagging, stacking.
Random Forest.
Diapositivas.
|
15.
Boosting. AdaBoost. Gradient Boosting.
Diapositivas.
|
20.
Redes neuronales. Conceptos básicos. Funciones de activación y funciones de error. Redes neuronales como aproximadores.
Diapositivas.
Notebook.
|
22.
Entrenamiento: retropropagación.
Regularización de redes neuronales.
Utilización de TensorFlow.
Diapositivas.
|
27.
Cómo "aprende" una red neuronal. Qué "aprende".
Ejemplos de arquitecturas de redes MLP.
Notebook.
|
29.
Redes Neuronales Convolucionales (CNN). Weight sharing.
Ejemplos de CNN.
|
Noviembre |
3.
Interpretabilidad de las CNN.
|
5. Métodos no surpervisados: K-means y KNN.
Consultas.
|
2do Parcial |
10.
Temas Extras.
Tema 1. Mixturas Gaussianas. Mixture Density Networks.
Tema 2. Redes Neuronales Recurrentes. LSTM.
|
12.
Devolución del parcial.
Temas Extras 3. Autoencoders. Autoencoders Variacionales.
|
17.
Clase invitada: Daniel Stilerman y Miguel Nollmann (Google)
Temas Extras 4. GANNs
|
19.
Clase invitada: Alejandro Salevsky y Johnny Montero (Telefónica)
Consultas
|
24.
Clase invitada: Francisco Tamarit (IFEG, CONICET-UNC)
Cierre de la materia.
|