newgrnn
Diseñar una red neuronal de regresión generalizada
Sintaxis
net = newgrnn(P,T,spread)
Descripción
Las redes neuronales de regresión generalizada (grnn
) son un tipo de red de bases radial que se suele usar para la aproximación de funciones. Las grnn
se pueden diseñar con bastante rapidez.
net = newgrnn(P,T,spread)
toma tres entradas:
P | Matriz de |
T | Matriz de |
spread | Dispersión de funciones de base radial (predeterminado = 1.0) |
y devuelve una nueva red neuronal de regresión generalizada
Cuanto más grande sea spread
, mejor será la aproximación de función. Para ajustar los datos al máximo, use un valor de spread
menor que la distancia habitual entre los vectores de entrada. Para ajustar los datos con mayor suavidad, use un valor de spread
mayor.
Propiedades
newgrnn
crea una red de dos capas. La primera capa tiene neuronas radbas
, y calcula las entradas ponderadas con dist
y la entrada combinada con netprod
. La segunda capa tiene neuronas purelin
, calcula la entrada ponderada con normprod
y las entradas combinadas con netsum
. Solo la primera capa tiene sesgos.
newgrnn
establece los pesos de la primera capa en P'
, y todos los sesgos de la primera capa se establecen en 0.8326/spread
, lo que genera funciones de base radial que cruzan 0,5 en las entradas ponderadas de +/– spread
. Los pesos de la segunda capa (W2
) se establecen en T
.
Ejemplos
En el siguiente ejemplo se diseña una red de base radial, dadas las entradas P
y los objetivos T
.
P = [1 2 3]; T = [2.0 4.1 5.9]; net = newgrnn(P,T);
La red se simula para una nueva entrada.
P = 1.5; Y = sim(net,P)
Referencias
Wasserman, P.D., Advanced Methods in Neural Computing, Nueva York, Van Nostrand Reinhold, 1993, pp. 155–61
Historial de versiones
Introducido antes de R2006a