Red neuronal Wavelet
ID de estudiante: 19021210938
Introducción a la vaca anidada Con la continua profundización de la investigación sobre algoritmos de optimización, las redes neuronales han penetrado en muchos campos, han resuelto muchos problemas prácticos y han desencadenado Los seres humanos están pensando constantemente. Este artículo explora el conocimiento relevante de las redes neuronales wavelet.
¿Red neuronal Niubi BP integrada? ¿Transformada Wavelet? Red neuronal Wavelet
Cuerpo Niubi anidado
El proceso de implementación de la red BP se divide principalmente en dos etapas. La primera etapa es la propagación hacia adelante de la señal desde la capa de entrada a través de la capa oculta hasta la capa de salida, y la segunda etapa es la propagación hacia atrás del error desde la capa de salida a través de la capa oculta hasta la capa de entrada. Una vez propagado el error, los pesos y sesgos entre la capa de entrada y la capa oculta y entre la capa oculta y la capa de salida se ajustan secuencialmente. Como se muestra en la Figura 1:
Las neuronas de la red neuronal BP se muestran en la Figura 2:
Entre ellas, la función de activación es la función Sigmoidea y su expresión es:
2.1 Transformada Wavelet
La transformada Wavelet es una nueva transformación matemática basada en el análisis de Fourier, que supera las limitaciones de la transformada de Fourier y la transformada de Fourier en ventana. Supera las limitaciones de la transformada de Fourier y las deficiencias de la invariancia de la ventana de la transformada de Fourier. La transformada Wavelet logra principalmente un refinamiento a múltiples escalas mediante el estiramiento y la traducción, resaltando los detalles del problema a procesar y extrayendo información local de manera efectiva.
2.2 Red neuronal Wavelet
La red neuronal Wavelet es una red BP mejorada que cambia la función de activación Sigmiod original de la capa oculta a una función wavelet: Morlet wavelet. La expresión es <. /p>
El modelo de red neuronal wavelet de 4 capas diseñado en este artículo se muestra en la Figura 3:
2.3 Establecimiento del modelo
Inicialización de parámetros
a. p>
En el diseño de red de la Figura 3, para las muestras de entrada y las muestras de salida, son los nodos de la capa de entrada, los nodos de la capa oculta y los nodos de la capa de salida respectivamente, y son los pesos de conexión. de cada nodo.
b. Cálculo directo
La entrada de la capa oculta 1 es la suma ponderada de todas las entradas: la salida de la capa oculta 1 es. Las entradas y salidas de las capas ocultas y de salida restantes son similares a 1 y no se describirán nuevamente aquí.
c. Propagación hacia atrás de errores
La propagación hacia atrás de errores utiliza el algoritmo de descenso de gradiente para ajustar los pesos entre cada capa, es decir, el proceso de corrección de peso. Hay dos métodos para la corrección de peso, uno es corregir uno por uno de acuerdo con las muestras de entrada y el otro es corregir después de ingresar todas las muestras. Este artículo adopta el primer método.
Los pesos y factores wavelet se corrigen según la función de error Para evitar que el algoritmo caiga en un mínimo local y acelerar su convergencia, se introduce el factor de impulso, la tasa de aprendizaje y la tasa de aprendizaje. Las fórmulas se expresan de la siguiente manera:
Resumen: la red neuronal Wavelet tiene las ventajas de la transformada Wavelet y evita la ceguera del diseño de la estructura de la red BP. Sin embargo, el número de nodos en la capa oculta, los pesos entre cada capa. Y el factor de escala de los parámetros de inicialización es difícil de determinar, lo que afectará la velocidad de convergencia. En el aprendizaje posterior, podemos probar otras redes neuronales con función wavelet y construir una red neuronal wavelet comparando sus resultados óptimos.