Main Content

fitnet

Red neuronal de ajuste de funciones

Descripción

ejemplo

net = fitnet(hiddenSizes) devuelve una red neuronal de ajuste de funciones en la que la capa oculta tiene un tamaño de hiddenSizes.

ejemplo

net = fitnet(hiddenSizes,trainFcn) devuelve una red neuronal de ajuste de funciones con una capa oculta cuyo tamaño es hiddenSizes y una función de entrenamiento especificada por trainFcn.

Ejemplos

contraer todo

Cargue los datos de entrenamiento.

[x,t] = simplefit_dataset;

La matriz de 1 por 94 x contiene los valores de entrada, y la matriz de 1 por 94 t contiene los valores de salida objetivo asociados.

Cree una red neuronal de ajuste de funciones con una capa oculta cuyo tamaño sea 10.

net = fitnet(10);

Visualice la red.

view(net)

Los tamaños de la entrada y la salida son iguales a cero. El software ajusta los tamaños durante el entrenamiento, de acuerdo con los datos de entrenamiento.

Entrene la red net usando los datos de entrenamiento.

net = train(net,x,t);

Visualice la red entrenada.

view(net)

Puede ver que los tamaños de la entrada y la salida son iguales a 1.

Estime los objetivos usando la red entrenada.

y = net(x);

Evalúe el rendimiento de la red entrenada. La función de rendimiento predeterminada es el error cuadrático medio.

perf = perform(net,y,t)
perf = 1.4639e-04

El algoritmo de entrenamiento predeterminado de una red de ajuste de funciones es el de Levenberg-Marquardt ('trainlm'). Utilice el algoritmo de entrenamiento de regularización bayesiana y compare los resultados de rendimiento.

net = fitnet(10,'trainbr');
net = train(net,x,t);

y = net(x);
perf = perform(net,y,t)
perf = 3.3416e-10

El algoritmo de entrenamiento de regularización bayesiana mejora el rendimiento de la red en relación con la estimación de los valores objetivo.

Argumentos de entrada

contraer todo

Tamaño de las capas ocultas de la red, especificado como un vector fila. La longitud del vector determina el número de capas ocultas de la red.

Ejemplo: Por ejemplo, puede especificar una red con 3 capas ocultas, en la que el tamaño de la primera capa oculta es 10, el de la segunda es 8 y el de la tercera es 5, de la siguiente manera: [10,8,5]

Los tamaños de entrada y salida se establecen en cero. El software ajusta los tamaños durante el entrenamiento, de acuerdo con los datos de entrenamiento.

Tipos de datos: single | double

Nombre de la función de entrenamiento, especificado como una de las siguientes opciones.

Función de entrenamientoAlgoritmo
'trainlm'

Levenberg-Marquardt

'trainbr'

Regularización bayesiana

'trainbfg'

BFGS quasi-Newton

'trainrp'

Retropropagación resiliente

'trainscg'

Gradiente conjugado escalado

'traincgb'

Gradiente conjugado con reinicios de Powell/Beale

'traincgf'

Gradiente conjugado de Fletcher-Powell

'traincgp'

Gradiente conjugado de Polak-Ribiére

'trainoss'

Secante de un paso

'traingdx'

Gradiente descendente de tasa de aprendizaje variable

'traingdm'

Gradiente descendente con momento

'traingd'

Gradiente descendente

Ejemplo: Por ejemplo, puede establecer el algoritmo de gradiente descendente de tasa de aprendizaje variable como el algoritmo de entrenamiento, de esta manera: 'traingdx'

Para obtener más información sobre las funciones de entrenamiento, consulte Train and Apply Multilayer Shallow Neural Networks y Choose a Multilayer Neural Network Training Function.

Tipos de datos: char

Argumentos de salida

contraer todo

Red de ajuste de funciones, devuelta como un objeto network.

Sugerencias

  • El ajuste de funciones es un proceso que consiste en entrenar una red neuronal con un conjunto de entradas para producir un conjunto de salidas objetivo asociado. Una vez que haya creado la red con el número de capas ocultas y el algoritmo de entrenamiento deseado, deberá entrenarla usando un conjunto de datos de entrenamiento. Una vez que la red neuronal haya ajustado los datos, creará una generalización de la relación entrada-salida. Luego, podrá usar la red entrenada para generar salidas para entradas con las que no ha sido entrenada.

Historial de versiones

Introducido en R2010b