
1 Optimización matemática
-
1.1 Introducción a la optimización
Optimización matemática: conceptos básicos. Mínimos cuadrados y programación lineal.
-
1.2 Optimización convexa
Conjuntos convexos. Conos normales. Funciones convexas. Problemas de optimización convexa.
-
1.3 Resolución computacional y problemas clásicos de optimización convexa
Sintaxis básica de
CVXPYyscipy.optimize. Tipos de problemas de optimización convexa más comunes: programación lineal (LP) y cuadrática (QP). -
1.4 Condiciones de optimalidad
Condiciones de optimalidad de primer orden. Condiciones de Karush-Kuhn-Tucker (KKT). Cualificación de restricciones. El problema dual de Lagrange. Relación entre dualidad y condiciones KKT.
-
1.5 Métodos de optimización
Métodos basados en gradiente. Método de Newton. Métodos de Quasi-Newton.
2 Modelos discriminativos
-
2.1 Regresión lineal y regresión logística
Regresión lineal y regresión logística: modelo y optimalidad. Algoritmos iterativos. Propiedades de los estimadores.
-
2.2 Modelos lineales generalizados
Familia exponencial. Construcción de GLMs. Ajuste de parámetros. Regresión Softmax.
-
2.3 Métodos de regularización
Regresión Ridge y Lasso. Elastic Net.
-
2.4 Máquinas de vectores soporte
Hiperplano separador óptimo. Variables de holgura y margen suave. Máquinas de vectores soporte no lineal.
- 2.5 Modelos de perceptrón multicapa
- 2.6 Árboles de decisión
- 2.7 Aprendizaje por ensambles
Nota: Los materiales de las secciones 2.5, 2.6 y 2.7 son recursos externos a esta página que serán provistos eventualmente por la cátedra.
3 Modelos generativos
-
3.1 Modelos generativos para clasificación
Análisis discriminante lineal y cuadrático. Naive Bayes.
-
3.2 Métodos de clustering
\(K\)-medias. Mezcla de Gaussianas. DBSCAN. Biclustering.
- 3.3 Algoritmo Expectation-Maximization
- 3.4 Análisis factorial