Código de programación de Pytorch
Este programa de regresión lineal es una red neuronal de una sola capa sin capas ocultas introducida en un perceptrón multicapa.
Generalmente, la función ReLU se utiliza como función de activación en la capa oculta. De lo contrario, aunque se introduce la capa oculta, sigue siendo equivalente a una red neuronal de una sola capa.
La siguiente es una función de activación ReLU (ver figura), que solo retiene elementos positivos y borra elementos negativos.