¿Cuáles son las entradas y salidas de la red neuronal LSTM?
Las entradas y salidas son vectores o matrices, y si se usa LSTM para la clasificación, generalmente va seguido de una capa softmax. Tomando la clasificación de reconocimiento de acciones como ejemplo, cada marco de acción se colocará en LSTM para el entrenamiento. El peso de cada unidad de LSTM se entrena de acuerdo con la tarea. Por lo tanto, la cantidad de unidades de LSTM no tiene nada que ver con la entrada y la salida. Incluso se puede utilizar LSTM multicapa. Para la clasificación, la última unidad generalmente está conectada a la capa softmax. La estructura LSTM es una extensión de la estructura RNN tradicional. Resuelve el problema de la desaparición/expansión del gradiente del RNN tradicional, lo que facilita el entrenamiento de redes profundas. Desde esta perspectiva, puede ser más fácil de entender. ResNet de este año también facilita el entrenamiento de los pesos de las CNN tradicionales. Parece que la tendencia general es que el aprendizaje profundo se volverá cada vez más profundo. Cuando se trata de entrenamiento, hay otro punto clave, que es el llamado LSTMUnroll, que expande RNN a una red estática "paralela" con "conexiones horizontales" en su interior para realizar la función de memoria a largo y corto plazo (estado "memoria "). Si se trata de predicción, otra clave es ingresar h y C de la celda como parámetros iniciales del estado actual (también llamado "memoria"). De esta manera, la red transporta el estado de memoria actual y se realiza la predicción. la siguiente entrada, que es la llamada corriente. El código también incluye una implementación que utiliza cudnn (operador RNN integrado), que es una versión de alto rendimiento que realmente funciona. Resulta que también intenté encontrar alguna fórmula mágica, pero rápidamente me di cuenta de que era un error empezar por ahí. Muy recomendado: Comprensión de las redes LSTM (traducido de "Comprensión de las redes LSTM") Siempre que tenga un poco de conceptos básicos de CNN + media hora, podrá comprender los principios básicos de LSTM a través de este artículo. Para responder a su pregunta: Esto no tiene nada que ver con la cantidad de neuronas. No sé cómo entiende el concepto de "neuronas". Las capas de entrada y salida sirven para garantizar que las dimensiones del tensor y la entrada y salida puedan ser. ser consistente.