Estoy haciendo una tarea sobre redes neuronales y sugiere que de alguna manera es posible combinar 2 sumatorias. En la que, uno contiene al otro. Pensé que esto no era posible..
También traté de encontrar una etiqueta adecuada, pero no había ninguno :(.
He aquí la pregunta:
Supongamos que tienes una red neuronal con lineal de funciones de activación. Es decir, para cada unidad, la salida es alguna constante c veces la suma ponderada de las entradas.
Suponer que la red tiene una capa oculta. Para una determinada tarea, a los pesos w, escribir las ecuaciones para el valor de las unidades en la capa de salida como una función de w y la capa de entrada x, sin ninguna mención explícita de theb de salida de la capa oculta. Mostrar que hay una red sin unidades ocultos que calcula la misma función.
Para explicar esto para los que no saben de las redes neuronales. Una red neuronal tiene un conjunto si los insumos y un conjunto de capas ocultas. Estas capas tienen un número de nodos. La primera capa oculta es conectarse a la segunda y de la segunda a la tercera y, finalmente, la última capa está conectada a la capa de salida.
La capa de entrada tiene un cierto número de nodos. Cada entrada está conectada a cada nodo en la primera capa oculta, de manera que cada nodo de la capa oculta se lleva todas las entradas como una entrada.
Cada entrada a un nodo en una capa oculta tiene un peso de determinar el grado de influencia de una entrada en un nodo de la capa oculta.
El nodo de la capa oculta, a continuación, se aplica una función de activación (en mi caso uno lineal) a la suma de la ponderación de los insumos.
Esto lineal de la función de activación sería como sigue:
$$ c \sum\limits_{i=1}^n w x_{i} $$
Donde c es la constante, n es el número de nodos en la capa anterior, w es el peso de la entrada x.
Esto es lo que la red neuronal se vería como si allí donde no hay capas ocultas, pero sólo la de entrada y la capa de salida. Donde x denota una entrada desde la capa de entrada.
Ahora bien, si tomamos una red neuronal con una capa oculta tendría este aspecto:
$$ c \sum\limits_{j=1}^m w_{2} (c \sum\limits_{i=1}^n w_{1} x_{i})_{j} $$
Como puede ver, esta se aplica el lineal de la función de activación de una capa oculta y lo define como la entrada x de la capa de salida.
Espero que esto está claro hasta el momento.
Ahora para mi pregunta. Se sugiere que estas sumatorias son de alguna forma de combinación de poder en una sola suma, porque se sugiere que hay una red neuronal NO oculta las unidades que consigue el mismo.
Prácticamente no tengo experiencia en el uso de totalización (sé lo que hacer, pero no cómo interactúan con otros sumatorias).
Esto es lo que yo tengo uso de mi comprensión básica:
$$ c^2 \sum w_{2} (\sum w_{1} x) $$
La única constante en la ecuación es de curso de c, de modo que es el único que puede moverse a través de las sumatorias por lo que yo sé.
Así que, básicamente, ¿cómo puedo reescribir la ecuación dos en la forma de la ecuación?
Gracias de antemano, de la Cuerda.