Main Content

newgrnn

Diseñar una red neuronal de regresión generalizada

Sintaxis

net = newgrnn(P,T,spread)

Descripción

Las redes neuronales de regresión generalizada (grnn) son un tipo de red de bases radial que se suele usar para la aproximación de funciones. Las grnn se pueden diseñar con bastante rapidez.

net = newgrnn(P,T,spread) toma tres entradas:

P

Matriz de R por Q de vectores de entrada Q

T

Matriz de S por Q de vectores de clase objetivo Q

spread

Dispersión de funciones de base radial (predeterminado = 1.0)

y devuelve una nueva red neuronal de regresión generalizada

Cuanto más grande sea spread, mejor será la aproximación de función. Para ajustar los datos al máximo, use un valor de spread menor que la distancia habitual entre los vectores de entrada. Para ajustar los datos con mayor suavidad, use un valor de spread mayor.

Propiedades

newgrnn crea una red de dos capas. La primera capa tiene neuronas radbas, y calcula las entradas ponderadas con dist y la entrada combinada con netprod. La segunda capa tiene neuronas purelin, calcula la entrada ponderada con normprod y las entradas combinadas con netsum. Solo la primera capa tiene sesgos.

newgrnn establece los pesos de la primera capa en P', y todos los sesgos de la primera capa se establecen en 0.8326/spread, lo que genera funciones de base radial que cruzan 0,5 en las entradas ponderadas de +/– spread. Los pesos de la segunda capa (W2) se establecen en T.

Ejemplos

En el siguiente ejemplo se diseña una red de base radial, dadas las entradas P y los objetivos T.

P = [1 2 3];
T = [2.0 4.1 5.9];
net = newgrnn(P,T);

La red se simula para una nueva entrada.

P = 1.5;
Y = sim(net,P)

Referencias

Wasserman, P.D., Advanced Methods in Neural Computing, Nueva York, Van Nostrand Reinhold, 1993, pp. 155–61

Historial de versiones

Introducido antes de R2006a

Consulte también

| | |