Registro:
Documento: | Tesis de Grado |
Título: | Simulación de redes neuronales basadas en sistemas memristivos para aprendizaje supervisado |
Autor: | Quiñonez, Walter Javier |
Editor: | Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
Lugar de trabajo: | CONICET - Comisión Nacional de Energía Atómica (CNEA). Centro Atómico Constituyentes
|
Publicación en la web: | 2023-09-12 |
Fecha de defensa: | 2022-03-11 |
Fecha en portada: | Diciembre 2021 |
Grado Obtenido: | Grado |
Título Obtenido: | Licenciado en Ciencias Físicas |
Departamento Docente: | Departamento de Física |
Director: | Rubi, Diego; Sánchez, María José |
Idioma: | Español |
Formato: | PDF |
Handle: |
http://hdl.handle.net/20.500.12110/seminario_nFIS000132_Quinonez |
PDF: | https://bibliotecadigital.exactas.uba.ar/download/seminario/seminario_nFIS000132_Quinonez.pdf |
Registro: | https://bibliotecadigital.exactas.uba.ar/collection/seminario/document/seminario_nFIS000132_Quinonez |
Ubicación: | Dep.FIS 000132 |
Derechos de Acceso: | Esta obra puede ser leída, grabada y utilizada con fines de estudio, investigación y docencia. Es necesario el reconocimiento de autoría mediante la cita correspondiente. Quiñonez, Walter Javier. (2021). Simulación de redes neuronales basadas en sistemas memristivos para aprendizaje supervisado. (Tesis de Grado. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales.). Recuperado de http://hdl.handle.net/20.500.12110/seminario_nFIS000132_Quinonez |
Resumen:
En este trabajo se estudia, mediante simulaciones numéricas, la implementación por hardware de redes neuronales sencillas para reconocimiento de caracteres en base a dispositivos memristivos con geometría de barras cruzadas. Se analiza el proceso de convergencia del algoritmo de aprendizaje para distintas curvas de potenciación y depreciación sinápticas, tanto medidas experimentalmente, en distintos sistemas manganita-metal, como sintéticas. En ambos casos, se incorporaron en las simulaciones las limitaciones físicas asociadas a la implementación de las redes en sistemas físicos, entre las que mencionamos: bandas de pesos sinápticos discretas y acotadas, número de estados posibles,linealidad de las curvas de potenciación y depreciación. Las curvas de potenciación y depreciación sintéticas permiten variar de manera controlada las características anteriormente mencionadas y determinar cómo afecta cada uno de estos parámetros a la velocidad de convergencia y al accurary del algoritmo. Para la simulación del entrenamiento y la actualización iterativa de los pesos sinápticos se implementó un algoritmo basado en el método del descenso por el gradiente y la regla de Manhattan. Esta regla facilita la actualización de los pesos sinápticos en una red neuronal implementada físicamente y evita gran parte de la electrónica periférica necesaria para actualizar los pesos de manera exacta a partir del descenso por el gradiente estándar. Para cada caso, se determinaron los parámetros óptimos asociados a la función de activación utilizada, los cuales garantizan una correcta convergencia y maximizan la accuracy. Se concluyó que las curvas de potenciación y depreciación no lineales mejoran la velocidad de la convergencia del algoritmo. También se observó una mejora en la velocidad de convergencia al aumentar la banda de conductividades permitidas y al reducir el número de estados asociados a las curvas de potenciación y depreciación. Estas características del proceso de aprendizaje se relacionan con el método de actualización de pesos sinápticos utilizado. Por último, se implementaron métodos que introducen estocasticidad en la convergencia del proceso de aprendizaje de la red; en particular, se utilizaron mini-batches y la suma de componentes aleatorios en las actualizaciones de los pesos sinápticos. Se concluyó que la implementación de estos métodos aumentan la velocidad de convergencia del proceso de aprendizaje (la situación óptima se tiene al combinar ambos métodos) y permite mejorar el accuracy aun para funciones de activación con parámetros no óptimos. Los resultados obtenidos en esta tesis contribuyen a determinar y optimizar la respuesta eléctrica que deben tener los sistemas memristivos para su implementación en redes neuronales físicas.
Citación:
---------- APA ----------
Quiñonez, Walter Javier. (2021). Simulación de redes neuronales basadas en sistemas memristivos para aprendizaje supervisado. (Tesis de Grado. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales.). Recuperado de https://hdl.handle.net/20.500.12110/seminario_nFIS000132_Quinonez
---------- CHICAGO ----------
Quiñonez, Walter Javier. "Simulación de redes neuronales basadas en sistemas memristivos para aprendizaje supervisado". Tesis de Grado, Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales, 2021.https://hdl.handle.net/20.500.12110/seminario_nFIS000132_Quinonez
Estadísticas:
Descargas mensuales
Total de descargas desde :
https://bibliotecadigital.exactas.uba.ar/download/seminario/seminario_nFIS000132_Quinonez.pdf
Distrubución geográfica