Matlab Instruction RBF [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

newrb

Purpose Design radial basis network

Syntax [net,tr] = newrb(P,T,goal,spread,MN,DF)

Description Radial basis networks can be used to approximate functions. newrb adds neurons to the hidden layer of a radial basis network until it meets the specified mean squared error goal.

newrb(P,T,goal,spread,MN,DF) takes two of these arguments, P

R x Q matrix of Q input vectors

T

S x Q matrix of Q target class vectors

goal

Mean squared error goal (default = 0.0)

spread

Spread of radial basis functions (default = 1.0)

MN

Maximum number of neurons (default is Q)

DF

Number of neurons to add between displays (default = 25)

and returns a new radial basis network. The larger spread is, the smoother the function approximation. Too large a spread means a lot of neurons are required to fit a fast-changing function. Too small a spread means many neurons are required to fit a smooth function, and the network might not generalize well. Call newrb with different spreads to find the best value for a given problem.

Examples Here you design a radial basis network, given inputs P and targets T.

P = [1 2 3]; T = [2.0 4.1 5.9]; net = newrb(P,T);

The network is simulated for a new input.

P = 1.5; Y = sim(net,P)

Algorithm newrb creates a two-layer network. The first layer has radbas neurons, and calculates its weighted inputs with dist and its net input with netprod. The second layer has purelin neurons, and calculates its weighted input with dotprod and its net inputs with netsum. Both layers have biases. Initially the radbas layer has no neurons. The following steps are repeated until the network's mean squared error falls below goal. 1. 2. 3. 4.

The network is simulated. The input vector with the greatest error is found. A radbas neuron is added with weights equal to that vector. The purelin layer weights are redesigned to minimize error.

See Also sim, newrbe, newgrnn, newpnn

newrb But

Conception de réseau de base radiale

Syntaxe [net, tr] = newrb (P, T, le but, la propagation, MN, DF)

Description Réseaux de base radiale peut être utilisé à des fonctions approximative. newrb ajoute neurones de la couche cachée d'un réseau de base radiale jusqu'à sa rencontre avec le but spécifique d'erreur quadratique moyenne de but.

(newrb P, T, le but, la propagation, MN, DF) prend deux de ces arguments, P

R x Q matrice de Q vecteurs d'entrée

T

S x Q matrice de Q cible des vecteurs de classe

but

But d'erreur quadratique moyenne (par défaut = 0.0)

répandre

Propagation des fonctions de base radiale (par défaut = 1,0)

MN

Le nombre maximum de neurones (par défaut est Q)

DF

Nombre de neurones d'ajouter entre les écrans (par défaut = 25)

et retourne un nouveau réseau de base radiale. Le plus grand répandre est, plus facile le rapprochement de fonction. Une trop grande propagation signifie beaucoup de neurones sont tenus d'installer une fonction d'une évolution rapide. Trop petit un écart moyen de nombreux neurones sont nécessaires pour ajuster une fonction lisse, et le réseau risque de ne pas généraliser bien. Appeler newrb avec des spreads différentes pour trouver la meilleure valeur pour un problème donné.

Exemples Ici vous pouvez concevoir un réseau de base radiale, étant donné les intrants P et des cibles T.

P = [1 2 3]; T = [2.0 4.1 5.9]; = net newrb (P, T); Le réseau est simulé pour une nouvelle entrée.

P = 1,5; Y = sim (net, P)

Algorithme newrb crée un réseau à deux couches. La première couche est radbas neurones, et calcule ses entrées pondérées avec dist et son apport net avec netprod. La seconde couche est purelin neurones, et calcule son entrée pondérée avec dotprod et de ses apports nets avec netsum. Les deux couches ont des préjugés. Initialement, le radbas calque n'a pas de neurones. Les étapes suivantes sont répétées jusqu'à ce que l'erreur quadratique moyenne du réseau tombe en dessous but. 1. 2. 3. 4.

Le réseau est simulé. Le vecteur d'entrée avec la plus grande erreur est trouvée. Un radbas neurone est ajouté à poids égal à celui des vecteurs. Le purelin couche de poids ont été remaniés afin de minimiser les erreurs.

sim Purpose Simulate neural network

Syntax [Y,Pf,Af,E,perf] = sim(net,P,Pi,Ai,T) [Y,Pf,Af,E,perf] = sim(net,{Q TS},Pi,Ai,T) [Y,Pf,Af,E,perf] = sim(net,Q,Pi,Ai,T)

To Get Help Type help network/sim.

Description sim simulates neural networks. [Y,Pf,Af,E,perf] = sim(net,P,Pi,Ai,T) takes net

Network

P

Network inputs

Pi

Initial input delay conditions (default = zeros)

Ai

Initial layer delay conditions (default = zeros)

T

Network targets (default = zeros)

and returns Y

Network outputs

Pf

Final input delay conditions

Af

Final layer delay conditions

E

Network errors

perf

Network performance

Note that arguments Pi, Ai, Pf, and Af are optional and need only be used for networks that have input or layer delays.

sim's signal arguments can have two formats: cell array or matrix. The cell array format is easiest to describe. It is most convenient for networks with multiple inputs and outputs, and allows sequences of inputs to be presented: P

Ni x TS cell array

Each element P{i,ts} is an Ri x Q matrix.

Pi

Ni x ID cell array

Each element Pi{i,k} is an Ri x Q matrix.

Ai

Nl x LD cell array

Each element Ai{i,k} is an Si x Q matrix.

T

No x TS cell array

Each element P{i,ts} is a Ui x Q matrix.

Y

No x TS cell array

Each element Y{i,ts} is a Ui x Q matrix.

Pf

Ni x ID cell array

Each element Pf{i,k} is an Ri x Q matrix.

Af

Nl x LD cell array

Each element Af{i,k} is an Si x Q matrix.

E

Nt x TS cell array

Each element P{i,ts} is a Vi x Q matrix.

where Ni

=

net.numInputs

Nl

=

net.numLayers

No

=

net.numOutputs

D

=

net.numInputDelays

LD

=

net.numLayerDelays

TS

=

Number of time steps

Q

=

Batch size

Ri

=

net.inputs{i}.size

Si

=

net.layers{i}.size

Ui

=

net.outputs{i}.size

The columns of Pi, Ai, Pf, and Af are ordered from oldest delay condition to most recent: Pi{i,k}

=

Input i at time ts = k - ID

Pf{i,k}

=

Input i at time ts = TS + k - ID

Ai{i,k}

=

Layer output i at time ts = k - LD

Af{i,k}

=

Layer output i at time ts = TS + k - LD

The matrix format can be used if only one time step is to be simulated (TS = 1). It is convenient for networks with only one input and output, but can also be used with networks that have more. Each matrix argument is found by storing the elements of the corresponding cell array argument in a single matrix: P

(sum of Ri) x Q matrix

Pi

(sum of Ri) x (ID*Q) matrix

Ai

(sum of Si) x (LD*Q) matrix

T

(sum of Ui) x Q matrix

Y

(sum of Ui) x Q matrix

Pf

(sum of Ri) x (ID*Q) matrix

Af

(sum of Si) x (LD*Q) matrix

E

(sum of Ui) x Q matrix

[Y,Pf,Af] = sim(net,{Q TS},Pi,Ai) is used for networks that do not have an input, such as Hopfield networks, when cell array notation is used.

Examples Here newp is used to create a perceptron layer with a two-element input (with ranges of [0 1]) and a single neuron.

net = newp([0 1;0 1],1);

Here the perceptron is simulated for an individual vector, a batch of three vectors, and a sequence of three vectors.

p1 = [.2; .9]; a1 = sim(net,p1) p2 = [.2 .5 .1; .9 .3 .7]; a2 = sim(net,p2) p3 = {[.2; .9] [.5; .3] [.1; .7]}; a3 = sim(net,p3)

Here newlin is used to create a linear layer with a three-element input and two neurons.

net = newlin([0 2;0 2;0 2],2,[0 1]);

The linear layer is simulated with a sequence of two input vectors using the default initial input delay conditions (all zeros).

p1 = {[2; 0.5; 1] [1; 1.2; 0.1]}; [y1,pf] = sim(net,p1)

The layer is simulated for three more vectors, using the previous final input delay conditions as the new initial delay conditions.

p2 = {[0.5; 0.6; 1.8] [1.3; 1.6; 1.1] [0.2; 0.1; 0]}; [y2,pf] = sim(net,p2,pf) Here newelm is used to create an Elman network with a one-element input, and a layer 1 with three tansig neurons followed by a layer 2 with two purelin neurons. Because it is an Elman network, it has a tapped delay line with a delay of 1 going from layer 1 to layer 1.

net = newelm([0 1],[3 2],{'tansig','purelin'}); The Elman network is simulated for a sequence of three values, using default initial delay conditions.

p1 = {0.2 0.7 0.1}; [y1,pf,af] = sim(net,p1) The network is simulated for four more values, using the previous final delay conditions as the new initial delay conditions.

p2 = {0.1 0.9 0.8 0.4}; [y2,pf,af] = sim(net,p2,pf,af)

Algorithm sim uses these properties to simulate a network net. net.numInputs, net.numLayers net.outputConnect, net.biasConnect net.inputConnect, net.layerConnect These properties determine the network's weight and bias values and the number of delays associated with each weight:

net.IW{i,j} net.LW{i,j} net.b{i} net.inputWeights{i,j}.delays net.layerWeights{i,j}.delays These function properties indicate how sim applies weight and bias values to inputs to get each layer's output:

net.inputWeights{i,j}.weightFcn net.layerWeights{i,j}.weightFcn net.layers{i}.netInputFcn net.layers{i}.transferFcn See Neuron Model and Network Architectures,

sim But

Simuler des réseaux de neurones

Syntaxe [Y, Pf, AF, E, perf] = sim (net, P, Pi, Ai, T) [Y, Pf, AF, E, perf] = sim (net, TS) (Q, Pi, Ai, T) [Y, Pf, AF, E, perf] = sim (net, Q, Pi, Ai, T)

Pour obtenir de l'aide Type Réseau d'aide / SIM.

Description sim simule des réseaux de neurones. [Y, Pf, AF, E, perf] = (net, sim P, Pi, Ai, T) a net

Réseau

P

Réseau intrants

Pi

Les conditions initiales retard d'entrée (par défaut = zeros)

Ai

Les conditions initiales de retard couche (par défaut = zeros)

T

Réseau des cibles (par défaut = zeros)

et retourne Y

Réseau sorties

Pf.

Final retard conditions d'entrée

Af

Final retard conditions couche

E

Erreurs réseau

Perf

Les performances du réseau

Notez que les arguments Pi, Ai, Pf., Et Af sont facultatifs et doivent seulement être utilisés pour les réseaux qui ont d'entrée ou de retards couche.

siml 'argumentation de signal peut avoir deux formats: réseau de cellules ou la matrice. Le réseau de cellules format est plus facile à décrire. Il est plus commode pour les réseaux avec plusieurs entrées et sorties, et permet à des séquences des apports devant être présentés: P

Ni x TS Puces à cellules

Chaque élément P (i, TS) est un Ri x Q matrice.

Pi

Ni x ID Puces à cellules

Chaque élément Pi (i, k) est un Ri x Q matrice.

Ai

Nl x LD Puces à cellules

Chaque élément Ai (i, k) est un SI x Q matrice.

T

Non x TS Puces à cellules

Chaque élément P (i, TS) est un Ui x Q matrice.

Y

Non x TS Puces à cellules

Chaque élément Y (i, TS) est un Ui x Q matrice.

Pf.

Ni x ID Puces à cellules

Chaque élément Pf (i, k) est un Ri x Q matrice.

Af

Nl x LD Puces à cellules

Chaque élément Af (i, k) est un SI x Q matrice.

E

Nt x TS Puces à cellules

Chaque élément P (i, TS) est un Vi x Q matrice.

où Ni

=

net.numInputs

Nl

=

net.numLayers

Non

=

net.numOutputs

D

=

net.numInputDelays

LD

=

net.numLayerDelays

TS

=

Nombre de fois où des mesures

Q

=

Taille du lot

Ri

=

net.inputs (i). taille

SI

=

net.layers (i). taille

Ui

=

net.outputs (i). taille

Les colonnes de Pi, Ai, Pf., Et Af sont classés du plus ancien état de retard à la plus récente: Pi (i, k)

=

Entrée je au moment de TS = k - ID

Pf (i, k)

=

Entrée je au moment de ts = + k - ID

Ai (i, k)

=

Couche de sortie je au moment de TS = k - LD

Af (i, k)

=

Couche de sortie je au moment de ts = + k - LD

Le format de la matrice peut être utilisée si un seul pas de temps est l'objet de simulations (TS = 1). Il est commode pour les réseaux avec une seule entrée et de sortie, mais peut aussi être utilisé avec les réseaux qui en ont plus. Chaque argument de matrice se trouve en stockant les éléments de l'argument correspondant de cellules de tableau dans une seule matrice: P

(somme des Ri) x Q matrice

Pi

(somme des Ri) x (ID * Q) matrice

Ai

(somme de Si) x (LD * Q) matrice

T

(somme des Ui) x Q matrice

Y

(somme des Ui) x Q matrice

Pf.

(somme des Ri) x (ID * Q) matrice

Af

(somme de Si) x (LD * Q) matrice

E

(somme des Ui) x Q matrice

[Y, Pf, Af] = sim (net, TS) (Q, Pi, Ai) est utilisé pour les réseaux qui ne disposent pas d'apport, comme les réseaux de Hopfield, quand la notation des tableaux de cellules est utilisé.

Exemples Ici NEWP est utilisé pour créer une couche avec un perceptron à deux entrées élément (d'une portée de [0 1]) Et un seul neurone.

net = NEWP ([0 1; 0 1], 1);

Ici, le perceptron est simulé pour un vecteur particulier, un lot de trois vecteurs, et une séquence de trois vecteurs.

p1 = [.2; .9]; A1 = sim (net, p1) p2 = [.2 .5 .1; .9 .3 .7]; A2 = sim (net, p2) P3 = ([.2; .9] [.5 .3] [.1; .7]); a3 = sim (net, p3)

Ici Newlin est utilisé pour créer une couche linéaire, avec un élément à trois entrées et deux neurones.

net = Newlin ([0 2; 0 2; 0 2], 2, [0 1]);

La couche linéaire est simulé par une séquence de deux vecteurs d'entrée en utilisant les conditions d'entrée par défaut retard initial (que des zéros).

p1 = ([2; 0,5; 1] [1, 1,2, 0,1]); [y1, pf] = sim (net, p1)

La couche est simulé pour les trois vecteurs de plus, en utilisant les conditions finales précédentes retard d'entrée que les conditions nouveau délai initial.

p2 = ([0.5, 0.6, 1.8] [1.3, 1.6, 1.1] [0.2, 0,1, 0]); [Y2, pf] = sim (net, p2, pf)

Ici newelm est utilisé pour créer un réseau d'Elman avec une entrée de l'élément, et une couche de 1 à trois tansig neurones d'une couche 2 avec deux purelin neurones. Parce qu'il est un réseau Elman, il a exploité une ligne de retard avec un retard de 1 allant de la couche 1 à la couche 1.

= net newelm ([0 1], [3 2], ( 'tansig', 'purelin')); Le réseau de Elman est simulée pour une séquence de trois valeurs, en utilisant le délai par défaut des conditions initiales.

p1 = (0.2 0.7 0.1); [y1, PF, AF] = sim (net, p1) Le réseau est simulé pour les quatre valeurs de plus, en utilisant les conditions précédentes délai final, les conditions de nouveau retard initial.

p2 = (0.1 0.9 0.8 0.4); [Y2, PF, AF] = sim (net, P2, PF, af)

Algorithme sim utilise ces propriétés pour simuler un réseau net. net.numInputs, net.numLayers net.outputConnect, net.biasConnect net.inputConnect, net.layerConnect

Ces propriétés déterminent le poids du réseau et les valeurs de la partialité et le nombre de retards associés à chacune des poids:

net.IW (i, j) net.LW (i, j) net.b (i) net.inputWeights (i, j). retards net.layerWeights (i, j). retards

Ces propriétés de la fonction d'indiquer comment sim s'applique poids et la valeur partialité aux intrants pour obtenir une sortie de chaque calque:

net.inputWeights (i, j). weightFcn net.layerWeights (i, j). weightFcn net.layers (i). netInputFcn net.layers (i). transferFcn Voir Neuron Modèle et architectures de réseaux, Pour plus d'informations sur la simulation de réseau.

newrbe But

Exacte de conception de réseau de base radiale

Syntaxe = net newrbe (P, T, propagation)

Description Réseaux de base radiale peut être utilisé à des fonctions approximative. newrbe très rapidement plusieurs conceptions de base d'un réseau radial avec zéro erreur sur les vecteurs de conception.

newrbe (P, T, propagation) prend deux ou trois arguments, P

RxQ matrice de Q Rélément de vecteurs d'entrée

T

SxQ matrice de Q S-cible de classe vecteurs élément

répandre

Propagation des fonctions de base radiale (par défaut = 1,0)

et renvoie un nouveau exacte du réseau de base radiale. Plus le répandre est, plus facile le rapprochement fonction sera. Une trop grande dissémination peut provoquer des problèmes numériques.

Exemples Ici vous pouvez concevoir un réseau de base radiale donnée intrants P et des cibles T.

P = [1 2 3]; T = [2.0 4.1 5.9]; = net newrbe (P, T);

Le réseau est simulé pour une nouvelle entrée.

P = 1,5; Y = sim (net, P)

Algorithme newrbe crée un réseau à deux couches. La première couche est radbas neurones, et calcule ses entrées pondérées avec dist et son apport net avec netprod. La seconde couche est purelin neurones, et calcule son entrée pondérée avec dotprod et de ses apports nets avec netsum. Les deux couches ont des préjugés.

newrbe définit le poids de première couche P ', Et la première couche de préjugés sont tous placés à 0,8326 /répandre, Résultant dans des fonctions de base radiale qui traversent 0,5 à entrées pondérées de + / -- répandre. Les poids-deuxième couche IW (2,1) et les préjugés b (2) On trouve en simulant les sorties première couche - A (1) puis résoudre l'expression linéaire suivante:

[W (2,1) b (2)] * [A (1); ceux] = T

Voir aussi sim, newrb, newgrnn, newpnn

Purpose Design exact radial basis network

Syntax net = newrbe(P,T,spread)

Description Radial basis networks can be used to approximate functions. newrbe very quickly designs a radial basis network with zero error on the design vectors.

newrbe(P,T,spread) takes two or three arguments, P

RxQ matrix of Q R-element input vectors

T

SxQ matrix of Q S-element target class vectors

spread

Spread of radial basis functions (default = 1.0)

and returns a new exact radial basis network. The larger the spread is, the smoother the function approximation will be. Too large a spread can cause numerical problems.

Examples Here you design a radial basis network given inputs P and targets T.

P = [1 2 3]; T = [2.0 4.1 5.9]; net = newrbe(P,T);

The network is simulated for a new input.

P = 1.5; Y = sim(net,P)

Algorithm newrbe creates a two-layer network. The first layer has radbas neurons, and calculates its weighted inputs with dist and its net input with netprod. The second layer has purelin neurons, and calculates its weighted input with dotprod and its net inputs with netsum. Both layers have biases. newrbe sets the first-layer weights to P', and the first-layer biases are all set to 0.8326/spread, resulting in radial basis functions that cross 0.5 at weighted inputs of +/- spread. The second-layer weights IW{2,1} and biases b{2} are found by simulating the first-layer outputs A{1} and then solving the following linear expression:

[W{2,1} b{2}] * [A{1}; ones] = T

See Also sim, newrb, newgrnn,

disp

Purpose Neural network properties

Syntax disp(net)

To Get Help Type help network/disp.

Description disp(net) displays a network's properties.

Examples Here a perceptron is created and displayed.

net = newp([-1 1; 0 2],3); disp(net)

See Also display, sim, init, train, adapt

disp But Propriétés du réseau de neurones

Syntaxe disp (net)

Pour obtenir de l'aide Type Réseau d'aide à DISP /.

Description disp (net) affiche les propriétés d'un réseau.

Exemples Voici un perceptron est créé et s'affiche.

net = NEWP ([-1 1; 0 2], 3); disp (net)

Voir aussi afficher, sim, init, train, adapter

Liste alphabétique

Référence des fonctions Fonctions d'analyse

Analyser les propriétés du réseau

Distance Fonctions

Calculer la distance entre deux vecteurs

Fonctions d'interface graphique

Ouvrir des interfaces graphiques pour la construction de réseaux de neurones

Couche d'initialisation Fonctions

Couche Initialiser poids

Les fonctions d'apprentissage

Algorithmes d'apprentissage utilisées pour adapter les réseaux

Ligne Fonctions de recherche

Line-algorithmes de recherche

Fonctions d'entrée net

Somme excitations de la couche

Réseau fonction d'initialisation

Réseau Initialiser poids

De nouveaux réseaux Fonctions

Créer des architectures de réseau

Utilisation en réseau Fonctions

Fonctions de haut niveau pour manipuler des réseaux

Fonctions de rendement

Mesurer la performance du réseau

Fonctions graphiques

Terrain et analyser les réseaux et les performances du réseau

Fonctions de traitement

Prétraitement et de post-traitement des données

Simulink ® soutien de la fonction

Générer bloc Simulink pour la simulation de réseau

Topologie Fonctions

Disposer les neurones de la couche en fonction de la topologie particulière

Formation Fonctions

Des réseaux de trains

Les fonctions de transfert

Transformer la sortie de la couche réseau

Fonctions d'utilité

L'utilité des fonctions internes

Vector Fonctions

Fonctions internes pour les calculs de réseau

Poids et Bias fonctions d'initialisation

Initialiser les poids et les préjugés

Poids Fonctions

Convolution, produit scalaire, produit scalaire, et les fonctions distances poids

Fonctions d'analyse errsurf

Surface d'erreur d'un seul neurone d'entrée

confusion

Classification matrice de confusion

maxlinlr

Taux maximal d'apprentissage pour les neurone linéaire

Roc

Receiver operating characteristic

Distance Fonctions boxdist

Distance entre deux vecteurs de position

dist

Fonction de pondération de la distance euclidienne

linkdist

Lien fonction de distance

mandist

Manhattan poids fonction de distance

Fonctions d'interface graphique nctool Neural classification outil réseau nftool

Open Neural Network Fitting Tool

nntool

Open Network / Data Manager

nntraintool

Neural network training outil

nprtool

Neural outil de configuration réseau de reconnaissance

affichage

Voir le réseau de neurones

Couche d'initialisation Fonctions initnw Nguyen-Widrow fonction d'initialisation couche initwb

Par-poids et de biais fonction de la couche d'initialisation

Les fonctions d'apprentissage learncon Conscience partialité fonction d'apprentissage learngd

Gradient poids de descente / partialité fonction d'apprentissage

learngdm

Descente de gradient avec le poids dynamique ou les préjugés fonction d'apprentissage

learnh

Hebb poids fonction d'apprentissage

learnhd

Hebb avec le poids désintégration règle d'apprentissage

learnis

Instar poids fonction d'apprentissage

learnk

Kohonen poids fonction d'apprentissage

learnlv1

LVQ1 poids fonction d'apprentissage

learnlv2

LVQ2 poids fonction d'apprentissage

learnos

Outstar poids fonction d'apprentissage

learnp

Perceptron poids et le biais de fonction d'apprentissage

learnpn

Normalise perceptron poids et le biais fonction d'apprentissage

learnsom

Self-organizing map poids fonction d'apprentissage

learnsomb

Lots d'auto-organisation poids fonction de carte d'apprentissage

learnwh

Widrow-Hoff poids et le biais de règle d'apprentissage

Ligne Fonctions de recherche srchbac 1-D en utilisant la recherche de minimisation de traçage srchbre

1-D Lieu intervalle en utilisant la méthode de Brent

srchcha

1-D, selon la méthode de minimisation Charalambous '

srchgol

1-D de minimisation en utilisant la recherche d'or

srchhyb

1-D en utilisant la minimisation de dichotomie hybride / search cubes

Fonctions d'entrée net netprod

Fonction d'entrée du produit net

netsum

Somme fonction d'entrée nette

Réseau fonction d'initialisation initlay Couche par couche réseau la fonction d'initialisation Utilisation en réseau Fonctions adapter Permettez réseau de neurones pour changer les poids et les préjugés sur les intrants disp

Propriétés du réseau de neurones

afficher

Nom et propriétés des variables réseau de neurones

init

Initialisation de réseau de neurones

sim

Simuler des réseaux de neurones

train

Train de réseaux de neurones

De nouveaux réseaux Fonctions réseau Créer un réseau de neurones personnalisés Newc

Créer couche compétitifs

newcf

Créer un réseau en cascade avant de rétropropagation

newdtdnn

Créer un réseau de neurones distribués temps de retard

newelm

Créer Elman réseau de rétropropagation

newff

Créer un réseau de rétropropagation non récurrents

newfftd

Créer un réseau d'entrée non récurrent rétropropagation retard

newfit

Créer un réseau approprié

newgrnn

Design par la régression généralisée de réseaux de neurones

newhop

Créer un réseau de Hopfield récurrentes

Newlin

Créer couche linéaire

newlind

Design couche linéaire

newlrn

Créer des couches réseau récurrent

newlvq

Créer un réseau d'apprentissage à la quantification vectorielle

newnarx

Créer un réseau de rétropropagation non récurrents avec la réaction de sortie et son entrée

newnarxsp

Créer NARX réseau en série-parallèle arrangement

NEWP

Créer perceptron

newpnn

La conception de réseaux de neurones probabiliste

newpr

Créer un réseau de reconnaissance des formes

newrb

Conception de réseau de base radiale

newrbe

Exacte de conception de réseau de base radiale

Newsom

Créer self-organizing map

sp2narx

Convertir série-parallèle NARX réseau de parallèles (feedback) sous forme

Fonctions de rendement mae

Fonction d'erreur moyenne absolue de performance

mse

Quadratique moyenne de la fonction rendement d'erreur

msne

Quadratique moyenne normalisée fonction d'erreur de performance

msnereg

Erreur quadratique moyenne normalisée avec des fonctions de régularisation de performance

msereg

L'erreur quadratique moyenne de la fonction des performances de régularisation

mseregec

L'erreur quadratique moyenne avec régularisation et la fonction des performances économisation

sse

Sum squared fonction de la performance d'erreur

Fonctions graphiques hintonw

Hinton graphique de la matrice de poids

hintonwb

Hinton graphique de la matrice de poids et le biais de vecteurs

plotbr

Terrain performance du réseau pour la formation de régularisation bayésienne

plotconfusion

Terrain confusion Matrice de classification

plotep

Terrain de poids et la position de partialité en cas d'erreur de surface

plotes

Surface terrain erreur d'un seul neurone d'entrée

plotfit

Fonction plot apte

plotpc

Terrain ligne de classement sur la parcelle vecteur perceptron

plotperform

Terrain de performance de réseau

plotpv

Terrain d'entrée cible vecteurs perceptron

plotregression

Terrain de régression linéaire

plotroc

Terrain receiver operating characteristic

plotsom

Self-organizing map Terrain

plotsomhits

Terrain d'auto-organisation hits exemple de carte

plotsomnc

Terrain d'auto-organisation des connexions voisin carte

plotsomnd

Terrain d'auto-organisation des distances voisin carte

plotsomplanes

Terrain d'auto-organisation des avions poids carte

plotsompos

Terrain d'auto-organisation des postes Plan du poids

plotsomtop

Terrain d'auto-organisation topologie carte

plottrainstate

Terrain formation valeurs de l'état

plotv

Terrain vecteurs comme les lignes d'origine

plotvec

Terrain vecteurs avec des couleurs différentes

PostReg

Post-traitement de réponse du réseau formé avec la régression linéaire

Fonctions de traitement fixunknowns

Traiter les données par le marquage des lignes avec des valeurs inconnues

mapminmax

Processus de matrices par rangée de cartographie minimal et valeurs maximales à [-1 1]

mapstd

Processus de matrices par la cartographie, on entend chaque rangée à 0 et les écarts à 1

processpca

Traiter les colonnes de la matrice de l'analyse en composantes principales

removeconstantrows

Processus de matrices par la suppression de lignes avec des valeurs constantes

removerows

Processus de matrices par la suppression de lignes avec des indices spécifiés

Simulink ® soutien de la fonction gensim Générer bloc Simulink pour la simulation de réseaux de neurones Topologie Fonctions gridtop

Grid topologie couche fonction

hextop

Hexagonal Layer Topology fonction

randtop

Random topologie couche fonction

Formation Fonctions trainb

Lot de formation avec le poids et le biais de l'apprentissage des règles

trainbfg

BFGS quasi-Newton rétropropagation

trainbfgc

BFGS rétropropagation quasi-Newton pour une utilisation avec NN référence du modèle de contrôleur adaptatif

trainbr

Bayésien de régularisation

trainbuwb

Lot de poids, sans surveillance biais de la formation

trainc

Cyclique mise à jour incrémentale afin

traincgb

Powell-Beale rétropropagation du gradient conjugué

traincgf

Fletcher-Powell rétropropagation du gradient conjugué

traincgp

Polak-RibiéRe rétropropagation du gradient conjugué

traingd

Pente de descente de rétropropagation

traingda

Descente de gradient avec Adaptive rétropropagation règle d'apprentissage

traingdm

Descente de gradient avec rétropropagation élan

traingdx

Descente de gradient avec élan et d'apprentissage adaptatif rétropropagation règle

trainlm

Levenberg-Marquardt rétropropagation

trainoss

Une étape de rétropropagation sécante

trainr

Aléatoire par paliers, de la formation pour les fonctions d'apprentissage

trainrp

Resilient rétropropagation (Rprop)

trains

Afin de formation supplémentaires séquentielle avec les fonctions d'apprentissage

trainscg

Scaled rétropropagation du gradient conjugué

Les fonctions de transfert COMPET Fonction de transfert Competitive hardlim Hard-fonction de transfert limite hardlims Dur symétrique transfert fonction limite logsig Log-fonction de transfert sigmoïde netinv Fonction de transfert inverse poslin Positive fonction de transfert linéaire purelin Fonction de transfert linéaire radbas Radial Basis fonction de transfert SATLIN Saturant fonction de transfert linéaire satlins Symmetric saturant fonction de transfert linéaire SOFTMAX Softmax fonction de transfert tansig Tangente hyperbolique fonction de transfert sigmoïde tribas Base triangulaire fonction de transfert

Fonctions d'utilité calcgx

Calculer le poids et le gradient de rendement biais, comme le seul vecteur

calcjejj

Calculer le rendement jacobienne vectorielle

calcjx

Calculer le poids et la performance partialité comme seule matrice jacobienne

calcpd

Calculer retardé entrées réseau

calcperf

Calculer les sorties du réseau, de signaux, et les performances

getX

Tous les poids du réseau et les valeurs biais, comme le seul vecteur

setx

Réglez tous les poids du réseau et les valeurs partialité seul vecteur

Vector Fonctions combvec

Créer toutes les combinaisons des vecteurs

con2seq

Convertir vecteurs simultanés à des vecteurs séquentielle

d'accord

Créer vecteurs partialité concurrente

ind2vec

Convertir les indices à des vecteurs

MinMax

Gammes de lignes de la matrice

normc

Normaliser les colonnes de la matrice

normr

Normaliser les lignes de la matrice

pnormc

Pseudonormalize colonnes de la matrice

quant

Discrétiser les valeurs en multiples de la quantité

seq2con

Convertir vecteurs séquentielle à des vecteurs simultanés

vec2ind

Convertir des vecteurs pour les indices

Poids et Bias fonctions d'initialisation initcon Conscience biais de la fonction d'initialisation initsompc

Initialiser SOM poids avec les principaux composants

initzero

Poids égal à zéro et la fonction d'initialisation de partialité

point médian

Midpoint initialisation fonction de poids

randnc

Normalise poids de la colonne fonction d'initialisation

Randnr

Normalise poids consécutive fonction d'initialisation

rands

Symmetric poids aléatoire / fonction d'initialisation de partialité

revenir

Réseau Changer poids et les biais à des valeurs d'initialisation précédentes

Poids Fonctions convwf

Convolution fonction de poids

dist

Fonction de pondération de la distance euclidienne

dotprod

Dot poids du produit, la fonction

mandist

Manhattan poids fonction de distance

negdist

Négatif distance fonction de poids

normprod

Normalise dot fonction du poids du produit

scalprod

Scalar poids du produit, la fonction

Alphabetical List

Function Reference Analysis Functions

Analyze network properties

Distance Functions

Compute distance between two vectors

Graphical Interface Functions

Open GUIs for building neural networks

Layer Initialization Functions

Initialize layer weights

Learning Functions

Learning algorithms used to adapt networks

Line Search Functions

Line-search algorithms

Net Input Functions

Sum excitations of layer

Network Initialization Function

Initialize network weights

New Networks Functions

Create network architectures

Network Use Functions

High-level functions to manipulate networks

Performance Functions

Measure network performance

Plotting Functions

Plot and analyze networks and network performance

Processing Functions

Preprocess and postprocess data

Simulink® Support Function

Generate Simulink block for network simulation

Topology Functions

Arrange neurons of layer according to specific topology

Training Functions

Train networks

Transfer Functions

Transform output of network layer

Utility Functions

Internal utility functions

Vector Functions

Internal functions for network computations

Weight and Bias Initialization Functions

Initialize weights and biases

Weight Functions

Convolution, dot product, scalar product, and distances weight functions

Analysis Functions errsurf

Error surface of single-input neuron

confusion

Classification confusion matrix

maxlinlr

Maximum learning rate for linear neuron

roc

Receiver operating characteristic

Distance Functions boxdist

Distance between two position vectors

dist

Euclidean distance weight function

linkdist

Link distance function

mandist

Manhattan distance weight function

Graphical Interface Functions nctool

Neural network classification tool

nftool

Open Neural Network Fitting Tool

nntool

Open Network/Data Manager

nntraintool

Neural network training tool

nprtool

Neural network pattern recognition tool

view

View neural network

Layer Initialization Functions initnw

Nguyen-Widrow layer initialization function

initwb

By-weight-and-bias layer initialization function

Learning Functions learncon

Conscience bias learning function

learngd

Gradient descent weight/bias learning function

learngdm

Gradient descent with momentum weight/bias learning function

learnh

Hebb weight learning function

learnhd

Hebb with decay weight learning rule

learnis

Instar weight learning function

learnk

Kohonen weight learning function

learnlv1

LVQ1 weight learning function

learnlv2

LVQ2 weight learning function

learnos

Outstar weight learning function

learnp

Perceptron weight and bias learning function

learnpn

Normalized perceptron weight and bias learning function

learnsom

Self-organizing map weight learning function

learnsomb

Batch self-organizing map weight learning function

learnwh

Widrow-Hoff weight and bias learning rule

Line Search Functions srchbac

1-D minimization using backtracking search

srchbre

1-D interval location using Brent's method

srchcha

1-D minimization using Charalambous' method

srchgol

1-D minimization using golden section search

srchhyb

1-D minimization using hybrid bisection/cubic search

Net Input Functions netprod

Product net input function

netsum

Sum net input function

Network Initialization Function initlay

Layer-by-layer network initialization function

Network Use Functions adapt

Allow neural network to change weights and biases on inputs

disp

Neural network properties

display

Name and properties of neural network variables

init

Initialize neural network

sim

Simulate neural network

train

Train neural network

New Networks Functions network

Create custom neural network

newc

Create competitive layer

newcf

Create cascade-forward backpropagation network

newdtdnn

Create distributed time delay neural network

newelm

Create Elman backpropagation network

newff

Create feedforward backpropagation network

newfftd

Create feedforward input-delay backpropagation network

newfit

Create fitting network

newgrnn

Design generalized regression neural network

newhop

Create Hopfield recurrent network

newlin

Create linear layer

newlind

Design linear layer

newlrn

Create layered-recurrent network

newlvq

Create learning vector quantization network

newnarx

Create feedforward backpropagation network with feedback from output to input

newnarxsp

Create NARX network in series-parallel arrangement

newp

Create perceptron

newpnn

Design probabilistic neural network

newpr

Create pattern recognition network

newrb

Design radial basis network

newrbe

Design exact radial basis network

newsom

Create self-organizing map

sp2narx

Convert series-parallel NARX network to parallel (feedback) form

Performance Functions mae

Mean absolute error performance function

mse

Mean squared error performance function

msne

Mean squared normalized error performance function

msnereg

Mean squared normalized error with regularization performance functions

msereg

Mean squared error with regularization performance function

mseregec

Mean squared error with regularization and economization performance function

sse

Sum squared error performance function

Plotting Functions hintonw

Hinton graph of weight matrix

hintonwb

Hinton graph of weight matrix and bias vector

plotbr

Plot network performance for Bayesian regularization training

plotconfusion

Plot classification confusion matrix

plotep

Plot weight and bias position on error surface

plotes

Plot error surface of single-input neuron

plotfit

Plot function fit

plotpc

Plot classification line on perceptron vector plot

plotperform

Plot network performance

plotpv

Plot perceptron input target vectors

plotregression

Plot linear regression

plotroc

Plot receiver operating characteristic

plotsom

Plot self-organizing map

plotsomhits

Plot self-organizing map sample hits

plotsomnc

Plot self-organizing map neighbor connections

plotsomnd

Plot self-organizing map neighbor distances

plotsomplanes

Plot self-organizing map weight planes

plotsompos

Plot self-organizing map weight positions

plotsomtop

Plot self-organizing map topology

plottrainstate

Plot training state values

plotv

Plot vectors as lines from origin

plotvec

Plot vectors with different colors

postreg

Postprocess trained network response with linear regression

Processing Functions fixunknowns

Process data by marking rows with unknown values

mapminmax

Process matrices by mapping row minimum and maximum values to [-1 1]

mapstd

Process matrices by mapping each row's means to 0 and deviations to 1

processpca

Process columns of matrix with principal component analysis

removeconstantrows

Process matrices by removing rows with constant values

removerows

Process matrices by removing rows with specified indices

Simulink® Support Function gensim

Generate Simulink block for neural network simulation

Topology Functions gridtop

Grid layer topology function

hextop

Hexagonal layer topology function

randtop

Random layer topology function

Training Functions trainb

Batch training with weight and bias learning rules

trainbfg

BFGS quasi-Newton backpropagation

trainbfgc

BFGS quasi-Newton backpropagation for use with NN model reference adaptive controller

trainbr

Bayesian regularization

trainbuwb

Batch unsupervised weight/bias training

trainc

Cyclical order incremental update

traincgb

Powell-Beale conjugate gradient backpropagation

traincgf

Fletcher-Powell conjugate gradient backpropagation

traincgp

Polak-Ribiére conjugate gradient backpropagation

traingd

Gradient descent backpropagation

traingda

Gradient descent with adaptive learning rule backpropagation

traingdm

Gradient descent with momentum backpropagation

traingdx

Gradient descent with momentum and adaptive learning rule backpropagation

trainlm

Levenberg-Marquardt backpropagation

trainoss

One step secant backpropagation

trainr

Random order incremental training with learning functions

trainrp

Resilient backpropagation (Rprop)

trains

Sequential order incremental training with learning functions

trainscg

Scaled conjugate gradient backpropagation

Transfer Functions compet Competitive transfer function hardlim Hard-limit transfer function hardlims Symmetric hard-limit transfer function logsig Log-sigmoid transfer function netinv Inverse transfer function poslin Positive linear transfer function purelin Linear transfer function radbas Radial basis transfer function satlin Saturating linear transfer function satlins Symmetric saturating linear transfer function

softmax Softmax transfer function tansig Hyperbolic tangent sigmoid transfer function tribas Triangular basis transfer function

Utility Functions calcgx

Calculate weight and bias performance gradient as single vector

calcjejj

Calculate Jacobian performance vector

calcjx

Calculate weight and bias performance Jacobian as single matrix

calcpd

Calculate delayed network inputs

calcperf

Calculate network outputs, signals, and performance

getx

All network weight and bias values as single vector

setx

Set all network weight and bias values with single vector

Vector Functions combvec

Create all combinations of vectors

con2seq

Convert concurrent vectors to sequential vectors

concur

Create concurrent bias vectors

ind2vec

Convert indices to vectors

minmax

Ranges of matrix rows

normc

Normalize columns of matrix

normr

Normalize rows of matrix

pnormc

Pseudonormalize columns of matrix

quant

Discretize values as multiples of quantity

seq2con

Convert sequential vectors to concurrent vectors

vec2ind

Convert vectors to indices

Weight and Bias Initialization Functions initcon

Conscience bias initialization function

initsompc

Initialize SOM weights with principal components

initzero

Zero weight and bias initialization function

midpoint

Midpoint weight initialization function

randnc

Normalized column weight initialization function

randnr

Normalized row weight initialization function

rands

Symmetric random weight/bias initialization function

revert

Change network weights and biases to previous initialization values

Weight Functions convwf

Convolution weight function

dist

Euclidean distance weight function

dotprod

Dot product weight function

mandist

Manhattan distance weight function

negdist

Negative distance weight function

normprod

Normalized dot product weight function

scalprod

Scalar product weight function