El entrenamiento de redes neuronales requiere el uso de métodos de minimización sofisticados, de manera de evitar que el proceso de aprendizaje de la información contenida en la base de datos se frustre por la presencia de mínimos locales. En este trabajo se discuten las ventajas relativas de los algoritmos de minimización de Levenberg-Marquardt y gradientes conjugados, y se comparan con el método estándar de retropropagación de errores. Sobre la base de un ejemplo vinculado a la reconstrucción de la dinámica de un sistema afectado por ruido se establece la conveniencia de utilizar algoritmos híbridos que combinan los métodos mencionados.
Training a neural network requires sophisticated minimization algorithms to avoid getting stuck in local minima during the process of learning the information contained in the database. In this work we discuss the relative advantages of two simple gradient-descend algorithms, the Levenberg-Marquardt and conjugate gradient methods, and compare them with the standard backpropagation rule. On the basis of an example related to the dynamics reconstruction of a noisy system we establish the convenience of using hybrid algorithms which combine the mentioned methods.
Título: | Entrenamiento de redes neuronales : análisis de métodos generalizados de minimización por descenso según el gradiente |
Autor: | Granitto, Pablo Miguel; Verdes, Pablo Fabián; Navone, Hugo Daniel; Ceccatto, Hermenegildo Alejandro |
Fecha: | 1997 |
Título revista: | Anales AFA |
Editor: | Asociación Física Argentina |
Handle: | http://hdl.handle.net/20.500.12110/afa_v09_n01_p020 |
Ciudad: | Villa Martelli, Buenos Aires |
Idioma: | Español |
Año: | 1997 |
Volumen: | 09 |
Número: | 01 |
Título revista abreviado: | An. (Asoc. Fís. Argent., En línea) |
ISSN: | 1850-1168 |
Formato: | |
PDF: | https://bibliotecadigital.exactas.uba.ar/download/afa/afa_v09_n01_p020.pdf |
Registro: | https://bibliotecadigital.exactas.uba.ar/collection/afa/document/afa_v09_n01_p020 |