Teoría Matemática para Aprendizaje Máquina

         (Enero – Junio, 2019)

 

 

 

                  Acerca del Curso

 

                           Horario: salón DEMAT 7, lunes a miércoles de 11:00 a 12:20

                           Evaluación: tareas (30%), exámenes parciales (30%) y proyecto final (40%)

                           Temario

 

 

                 

                  Bitácora

 

Fecha

Contenido

21/Ene

Marco del aprendizaje supervisado: espacio de características, conjunto de etiquetas, clase de hipótesis. Algoritmos de aprendizaje: muestra, función de perdida, error esperado y empírico, ERM. Ejemplos de clasificadores binarios: soft y hard. Notas

23/Ene

Grandes desviaciones: desigualdad de Markov, lema de Hoeffding, desigualdad de Hoeffding. Aprendizaje PAC: definición, sample complexity, ejemplo. Notas

28/Ene

Convergencia uniforme: definición, uniform sample complexity, convergencia uniforme implica PAC, clase finita y función de perdida acotada implica convergencia uniforme. Notas

30/Ene

Desigualdades útiles: probabilidad de la cola gaussiana, fórmula de Stirling. PAC paramétrico: definición. Ejemplos: clases de hipótesis infinitas aprendibles y no aprendibles PAC. Notas

06/Feb

Complejidad de Rademacher: definición, interpretación geométrica, ejemplos. Propiedades básicas: no-negatividad, monotonía, aditividad, homogeneidad, continuidad, cotas elementales. Notas



 

                  Tareas

 

                           Tarea 1: Parte 1, Parte 2 y Parte 3
                           Fecha de entrega: 10 de marzo

 

 

 

 

 

                                                                                                                                                                           Última actualización: 16 de febrero de 2019