Resumen:
En esta tesis intentamos responder a la simple pregunta: ¿bajo qué condiciones convergen los métodos de primer orden más utilizados en Machine Learning? Para ello utilizamos herramientas de sistemás dinámicos y procesos estocásticos en pos de analizar la convergencia tanto en algoritmos determinísticos como estocásticos. Notamos que aunque los algoritmos determinísticos gozan de una velocidad excepcional en el caso convexo, esto no se generaliza al caso no convexo donde la convergencia puede ser hasta de orden exponencial. Por otro lado, en el caso estocástico la misma naturaleza de éste garantiza una complejidad uniforme en ambos régimenes, aún en el rango del big data. Sumado a esto dimos motivos tanto teóricos como prácticos para la preferencia de los algoritmos estocásticos, relacionados a la velocidad de convergencia a entornos de la solución en el caso general.
Citación:
---------- APA ----------
Sirota, Axel. (2018). Métodos de primer orden : análisis de convergencia. (Tesis de Grado. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales.). Recuperado de https://hdl.handle.net/20.500.12110/seminario_nMAT000739_Sirota
---------- CHICAGO ----------
Sirota, Axel. "Métodos de primer orden : análisis de convergencia". Tesis de Grado, Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales, 2018.https://hdl.handle.net/20.500.12110/seminario_nMAT000739_Sirota
Estadísticas:
Descargas mensuales
Total de descargas desde :
https://bibliotecadigital.exactas.uba.ar/download/seminario/seminario_nMAT000739_Sirota.pdf
Distrubución geográfica