34 1 755KB
newrb
Purpose Design radial basis network
Syntax [net,tr] = newrb(P,T,goal,spread,MN,DF)
Description Radial basis networks can be used to approximate functions. newrb adds neurons to the hidden layer of a radial basis network until it meets the specified mean squared error goal.
newrb(P,T,goal,spread,MN,DF) takes two of these arguments, P
R x Q matrix of Q input vectors
T
S x Q matrix of Q target class vectors
goal
Mean squared error goal (default = 0.0)
spread
Spread of radial basis functions (default = 1.0)
MN
Maximum number of neurons (default is Q)
DF
Number of neurons to add between displays (default = 25)
and returns a new radial basis network. The larger spread is, the smoother the function approximation. Too large a spread means a lot of neurons are required to fit a fast-changing function. Too small a spread means many neurons are required to fit a smooth function, and the network might not generalize well. Call newrb with different spreads to find the best value for a given problem.
Examples Here you design a radial basis network, given inputs P and targets T.
P = [1 2 3]; T = [2.0 4.1 5.9]; net = newrb(P,T);
The network is simulated for a new input.
P = 1.5; Y = sim(net,P)
Algorithm newrb creates a two-layer network. The first layer has radbas neurons, and calculates its weighted inputs with dist and its net input with netprod. The second layer has purelin neurons, and calculates its weighted input with dotprod and its net inputs with netsum. Both layers have biases. Initially the radbas layer has no neurons. The following steps are repeated until the network's mean squared error falls below goal. 1. 2. 3. 4.
The network is simulated. The input vector with the greatest error is found. A radbas neuron is added with weights equal to that vector. The purelin layer weights are redesigned to minimize error.
See Also sim, newrbe, newgrnn, newpnn
newrb But
Conception de réseau de base radiale
Syntaxe [net, tr] = newrb (P, T, le but, la propagation, MN, DF)
Description Réseaux de base radiale peut être utilisé à des fonctions approximative. newrb ajoute neurones de la couche cachée d'un réseau de base radiale jusqu'à sa rencontre avec le but spécifique d'erreur quadratique moyenne de but.
(newrb P, T, le but, la propagation, MN, DF) prend deux de ces arguments, P
R x Q matrice de Q vecteurs d'entrée
T
S x Q matrice de Q cible des vecteurs de classe
but
But d'erreur quadratique moyenne (par défaut = 0.0)
répandre
Propagation des fonctions de base radiale (par défaut = 1,0)
MN
Le nombre maximum de neurones (par défaut est Q)
DF
Nombre de neurones d'ajouter entre les écrans (par défaut = 25)
et retourne un nouveau réseau de base radiale. Le plus grand répandre est, plus facile le rapprochement de fonction. Une trop grande propagation signifie beaucoup de neurones sont tenus d'installer une fonction d'une évolution rapide. Trop petit un écart moyen de nombreux neurones sont nécessaires pour ajuster une fonction lisse, et le réseau risque de ne pas généraliser bien. Appeler newrb avec des spreads différentes pour trouver la meilleure valeur pour un problème donné.
Exemples Ici vous pouvez concevoir un réseau de base radiale, étant donné les intrants P et des cibles T.
P = [1 2 3]; T = [2.0 4.1 5.9]; = net newrb (P, T); Le réseau est simulé pour une nouvelle entrée.
P = 1,5; Y = sim (net, P)
Algorithme newrb crée un réseau à deux couches. La première couche est radbas neurones, et calcule ses entrées pondérées avec dist et son apport net avec netprod. La seconde couche est purelin neurones, et calcule son entrée pondérée avec dotprod et de ses apports nets avec netsum. Les deux couches ont des préjugés. Initialement, le radbas calque n'a pas de neurones. Les étapes suivantes sont répétées jusqu'à ce que l'erreur quadratique moyenne du réseau tombe en dessous but. 1. 2. 3. 4.
Le réseau est simulé. Le vecteur d'entrée avec la plus grande erreur est trouvée. Un radbas neurone est ajouté à poids égal à celui des vecteurs. Le purelin couche de poids ont été remaniés afin de minimiser les erreurs.
sim Purpose Simulate neural network
Syntax [Y,Pf,Af,E,perf] = sim(net,P,Pi,Ai,T) [Y,Pf,Af,E,perf] = sim(net,{Q TS},Pi,Ai,T) [Y,Pf,Af,E,perf] = sim(net,Q,Pi,Ai,T)
To Get Help Type help network/sim.
Description sim simulates neural networks. [Y,Pf,Af,E,perf] = sim(net,P,Pi,Ai,T) takes net
Network
P
Network inputs
Pi
Initial input delay conditions (default = zeros)
Ai
Initial layer delay conditions (default = zeros)
T
Network targets (default = zeros)
and returns Y
Network outputs
Pf
Final input delay conditions
Af
Final layer delay conditions
E
Network errors
perf
Network performance
Note that arguments Pi, Ai, Pf, and Af are optional and need only be used for networks that have input or layer delays.
sim's signal arguments can have two formats: cell array or matrix. The cell array format is easiest to describe. It is most convenient for networks with multiple inputs and outputs, and allows sequences of inputs to be presented: P
Ni x TS cell array
Each element P{i,ts} is an Ri x Q matrix.
Pi
Ni x ID cell array
Each element Pi{i,k} is an Ri x Q matrix.
Ai
Nl x LD cell array
Each element Ai{i,k} is an Si x Q matrix.
T
No x TS cell array
Each element P{i,ts} is a Ui x Q matrix.
Y
No x TS cell array
Each element Y{i,ts} is a Ui x Q matrix.
Pf
Ni x ID cell array
Each element Pf{i,k} is an Ri x Q matrix.
Af
Nl x LD cell array
Each element Af{i,k} is an Si x Q matrix.
E
Nt x TS cell array
Each element P{i,ts} is a Vi x Q matrix.
where Ni
=
net.numInputs
Nl
=
net.numLayers
No
=
net.numOutputs
D
=
net.numInputDelays
LD
=
net.numLayerDelays
TS
=
Number of time steps
Q
=
Batch size
Ri
=
net.inputs{i}.size
Si
=
net.layers{i}.size
Ui
=
net.outputs{i}.size
The columns of Pi, Ai, Pf, and Af are ordered from oldest delay condition to most recent: Pi{i,k}
=
Input i at time ts = k - ID
Pf{i,k}
=
Input i at time ts = TS + k - ID
Ai{i,k}
=
Layer output i at time ts = k - LD
Af{i,k}
=
Layer output i at time ts = TS + k - LD
The matrix format can be used if only one time step is to be simulated (TS = 1). It is convenient for networks with only one input and output, but can also be used with networks that have more. Each matrix argument is found by storing the elements of the corresponding cell array argument in a single matrix: P
(sum of Ri) x Q matrix
Pi
(sum of Ri) x (ID*Q) matrix
Ai
(sum of Si) x (LD*Q) matrix
T
(sum of Ui) x Q matrix
Y
(sum of Ui) x Q matrix
Pf
(sum of Ri) x (ID*Q) matrix
Af
(sum of Si) x (LD*Q) matrix
E
(sum of Ui) x Q matrix
[Y,Pf,Af] = sim(net,{Q TS},Pi,Ai) is used for networks that do not have an input, such as Hopfield networks, when cell array notation is used.
Examples Here newp is used to create a perceptron layer with a two-element input (with ranges of [0 1]) and a single neuron.
net = newp([0 1;0 1],1);
Here the perceptron is simulated for an individual vector, a batch of three vectors, and a sequence of three vectors.
p1 = [.2; .9]; a1 = sim(net,p1) p2 = [.2 .5 .1; .9 .3 .7]; a2 = sim(net,p2) p3 = {[.2; .9] [.5; .3] [.1; .7]}; a3 = sim(net,p3)
Here newlin is used to create a linear layer with a three-element input and two neurons.
net = newlin([0 2;0 2;0 2],2,[0 1]);
The linear layer is simulated with a sequence of two input vectors using the default initial input delay conditions (all zeros).
p1 = {[2; 0.5; 1] [1; 1.2; 0.1]}; [y1,pf] = sim(net,p1)
The layer is simulated for three more vectors, using the previous final input delay conditions as the new initial delay conditions.
p2 = {[0.5; 0.6; 1.8] [1.3; 1.6; 1.1] [0.2; 0.1; 0]}; [y2,pf] = sim(net,p2,pf) Here newelm is used to create an Elman network with a one-element input, and a layer 1 with three tansig neurons followed by a layer 2 with two purelin neurons. Because it is an Elman network, it has a tapped delay line with a delay of 1 going from layer 1 to layer 1.
net = newelm([0 1],[3 2],{'tansig','purelin'}); The Elman network is simulated for a sequence of three values, using default initial delay conditions.
p1 = {0.2 0.7 0.1}; [y1,pf,af] = sim(net,p1) The network is simulated for four more values, using the previous final delay conditions as the new initial delay conditions.
p2 = {0.1 0.9 0.8 0.4}; [y2,pf,af] = sim(net,p2,pf,af)
Algorithm sim uses these properties to simulate a network net. net.numInputs, net.numLayers net.outputConnect, net.biasConnect net.inputConnect, net.layerConnect These properties determine the network's weight and bias values and the number of delays associated with each weight:
net.IW{i,j} net.LW{i,j} net.b{i} net.inputWeights{i,j}.delays net.layerWeights{i,j}.delays These function properties indicate how sim applies weight and bias values to inputs to get each layer's output:
net.inputWeights{i,j}.weightFcn net.layerWeights{i,j}.weightFcn net.layers{i}.netInputFcn net.layers{i}.transferFcn See Neuron Model and Network Architectures,
sim But
Simuler des réseaux de neurones
Syntaxe [Y, Pf, AF, E, perf] = sim (net, P, Pi, Ai, T) [Y, Pf, AF, E, perf] = sim (net, TS) (Q, Pi, Ai, T) [Y, Pf, AF, E, perf] = sim (net, Q, Pi, Ai, T)
Pour obtenir de l'aide Type Réseau d'aide / SIM.
Description sim simule des réseaux de neurones. [Y, Pf, AF, E, perf] = (net, sim P, Pi, Ai, T) a net
Réseau
P
Réseau intrants
Pi
Les conditions initiales retard d'entrée (par défaut = zeros)
Ai
Les conditions initiales de retard couche (par défaut = zeros)
T
Réseau des cibles (par défaut = zeros)
et retourne Y
Réseau sorties
Pf.
Final retard conditions d'entrée
Af
Final retard conditions couche
E
Erreurs réseau
Perf
Les performances du réseau
Notez que les arguments Pi, Ai, Pf., Et Af sont facultatifs et doivent seulement être utilisés pour les réseaux qui ont d'entrée ou de retards couche.
siml 'argumentation de signal peut avoir deux formats: réseau de cellules ou la matrice. Le réseau de cellules format est plus facile à décrire. Il est plus commode pour les réseaux avec plusieurs entrées et sorties, et permet à des séquences des apports devant être présentés: P
Ni x TS Puces à cellules
Chaque élément P (i, TS) est un Ri x Q matrice.
Pi
Ni x ID Puces à cellules
Chaque élément Pi (i, k) est un Ri x Q matrice.
Ai
Nl x LD Puces à cellules
Chaque élément Ai (i, k) est un SI x Q matrice.
T
Non x TS Puces à cellules
Chaque élément P (i, TS) est un Ui x Q matrice.
Y
Non x TS Puces à cellules
Chaque élément Y (i, TS) est un Ui x Q matrice.
Pf.
Ni x ID Puces à cellules
Chaque élément Pf (i, k) est un Ri x Q matrice.
Af
Nl x LD Puces à cellules
Chaque élément Af (i, k) est un SI x Q matrice.
E
Nt x TS Puces à cellules
Chaque élément P (i, TS) est un Vi x Q matrice.
où Ni
=
net.numInputs
Nl
=
net.numLayers
Non
=
net.numOutputs
D
=
net.numInputDelays
LD
=
net.numLayerDelays
TS
=
Nombre de fois où des mesures
Q
=
Taille du lot
Ri
=
net.inputs (i). taille
SI
=
net.layers (i). taille
Ui
=
net.outputs (i). taille
Les colonnes de Pi, Ai, Pf., Et Af sont classés du plus ancien état de retard à la plus récente: Pi (i, k)
=
Entrée je au moment de TS = k - ID
Pf (i, k)
=
Entrée je au moment de ts = + k - ID
Ai (i, k)
=
Couche de sortie je au moment de TS = k - LD
Af (i, k)
=
Couche de sortie je au moment de ts = + k - LD
Le format de la matrice peut être utilisée si un seul pas de temps est l'objet de simulations (TS = 1). Il est commode pour les réseaux avec une seule entrée et de sortie, mais peut aussi être utilisé avec les réseaux qui en ont plus. Chaque argument de matrice se trouve en stockant les éléments de l'argument correspondant de cellules de tableau dans une seule matrice: P
(somme des Ri) x Q matrice
Pi
(somme des Ri) x (ID * Q) matrice
Ai
(somme de Si) x (LD * Q) matrice
T
(somme des Ui) x Q matrice
Y
(somme des Ui) x Q matrice
Pf.
(somme des Ri) x (ID * Q) matrice
Af
(somme de Si) x (LD * Q) matrice
E
(somme des Ui) x Q matrice
[Y, Pf, Af] = sim (net, TS) (Q, Pi, Ai) est utilisé pour les réseaux qui ne disposent pas d'apport, comme les réseaux de Hopfield, quand la notation des tableaux de cellules est utilisé.
Exemples Ici NEWP est utilisé pour créer une couche avec un perceptron à deux entrées élément (d'une portée de [0 1]) Et un seul neurone.
net = NEWP ([0 1; 0 1], 1);
Ici, le perceptron est simulé pour un vecteur particulier, un lot de trois vecteurs, et une séquence de trois vecteurs.
p1 = [.2; .9]; A1 = sim (net, p1) p2 = [.2 .5 .1; .9 .3 .7]; A2 = sim (net, p2) P3 = ([.2; .9] [.5 .3] [.1; .7]); a3 = sim (net, p3)
Ici Newlin est utilisé pour créer une couche linéaire, avec un élément à trois entrées et deux neurones.
net = Newlin ([0 2; 0 2; 0 2], 2, [0 1]);
La couche linéaire est simulé par une séquence de deux vecteurs d'entrée en utilisant les conditions d'entrée par défaut retard initial (que des zéros).
p1 = ([2; 0,5; 1] [1, 1,2, 0,1]); [y1, pf] = sim (net, p1)
La couche est simulé pour les trois vecteurs de plus, en utilisant les conditions finales précédentes retard d'entrée que les conditions nouveau délai initial.
p2 = ([0.5, 0.6, 1.8] [1.3, 1.6, 1.1] [0.2, 0,1, 0]); [Y2, pf] = sim (net, p2, pf)
Ici newelm est utilisé pour créer un réseau d'Elman avec une entrée de l'élément, et une couche de 1 à trois tansig neurones d'une couche 2 avec deux purelin neurones. Parce qu'il est un réseau Elman, il a exploité une ligne de retard avec un retard de 1 allant de la couche 1 à la couche 1.
= net newelm ([0 1], [3 2], ( 'tansig', 'purelin')); Le réseau de Elman est simulée pour une séquence de trois valeurs, en utilisant le délai par défaut des conditions initiales.
p1 = (0.2 0.7 0.1); [y1, PF, AF] = sim (net, p1) Le réseau est simulé pour les quatre valeurs de plus, en utilisant les conditions précédentes délai final, les conditions de nouveau retard initial.
p2 = (0.1 0.9 0.8 0.4); [Y2, PF, AF] = sim (net, P2, PF, af)
Algorithme sim utilise ces propriétés pour simuler un réseau net. net.numInputs, net.numLayers net.outputConnect, net.biasConnect net.inputConnect, net.layerConnect
Ces propriétés déterminent le poids du réseau et les valeurs de la partialité et le nombre de retards associés à chacune des poids:
net.IW (i, j) net.LW (i, j) net.b (i) net.inputWeights (i, j). retards net.layerWeights (i, j). retards
Ces propriétés de la fonction d'indiquer comment sim s'applique poids et la valeur partialité aux intrants pour obtenir une sortie de chaque calque:
net.inputWeights (i, j). weightFcn net.layerWeights (i, j). weightFcn net.layers (i). netInputFcn net.layers (i). transferFcn Voir Neuron Modèle et architectures de réseaux, Pour plus d'informations sur la simulation de réseau.
newrbe But
Exacte de conception de réseau de base radiale
Syntaxe = net newrbe (P, T, propagation)
Description Réseaux de base radiale peut être utilisé à des fonctions approximative. newrbe très rapidement plusieurs conceptions de base d'un réseau radial avec zéro erreur sur les vecteurs de conception.
newrbe (P, T, propagation) prend deux ou trois arguments, P
RxQ matrice de Q Rélément de vecteurs d'entrée
T
SxQ matrice de Q S-cible de classe vecteurs élément
répandre
Propagation des fonctions de base radiale (par défaut = 1,0)
et renvoie un nouveau exacte du réseau de base radiale. Plus le répandre est, plus facile le rapprochement fonction sera. Une trop grande dissémination peut provoquer des problèmes numériques.
Exemples Ici vous pouvez concevoir un réseau de base radiale donnée intrants P et des cibles T.
P = [1 2 3]; T = [2.0 4.1 5.9]; = net newrbe (P, T);
Le réseau est simulé pour une nouvelle entrée.
P = 1,5; Y = sim (net, P)
Algorithme newrbe crée un réseau à deux couches. La première couche est radbas neurones, et calcule ses entrées pondérées avec dist et son apport net avec netprod. La seconde couche est purelin neurones, et calcule son entrée pondérée avec dotprod et de ses apports nets avec netsum. Les deux couches ont des préjugés.
newrbe définit le poids de première couche P ', Et la première couche de préjugés sont tous placés à 0,8326 /répandre, Résultant dans des fonctions de base radiale qui traversent 0,5 à entrées pondérées de + / -- répandre. Les poids-deuxième couche IW (2,1) et les préjugés b (2) On trouve en simulant les sorties première couche - A (1) puis résoudre l'expression linéaire suivante:
[W (2,1) b (2)] * [A (1); ceux] = T
Voir aussi sim, newrb, newgrnn, newpnn
Purpose Design exact radial basis network
Syntax net = newrbe(P,T,spread)
Description Radial basis networks can be used to approximate functions. newrbe very quickly designs a radial basis network with zero error on the design vectors.
newrbe(P,T,spread) takes two or three arguments, P
RxQ matrix of Q R-element input vectors
T
SxQ matrix of Q S-element target class vectors
spread
Spread of radial basis functions (default = 1.0)
and returns a new exact radial basis network. The larger the spread is, the smoother the function approximation will be. Too large a spread can cause numerical problems.
Examples Here you design a radial basis network given inputs P and targets T.
P = [1 2 3]; T = [2.0 4.1 5.9]; net = newrbe(P,T);
The network is simulated for a new input.
P = 1.5; Y = sim(net,P)
Algorithm newrbe creates a two-layer network. The first layer has radbas neurons, and calculates its weighted inputs with dist and its net input with netprod. The second layer has purelin neurons, and calculates its weighted input with dotprod and its net inputs with netsum. Both layers have biases. newrbe sets the first-layer weights to P', and the first-layer biases are all set to 0.8326/spread, resulting in radial basis functions that cross 0.5 at weighted inputs of +/- spread. The second-layer weights IW{2,1} and biases b{2} are found by simulating the first-layer outputs A{1} and then solving the following linear expression:
[W{2,1} b{2}] * [A{1}; ones] = T
See Also sim, newrb, newgrnn,
disp
Purpose Neural network properties
Syntax disp(net)
To Get Help Type help network/disp.
Description disp(net) displays a network's properties.
Examples Here a perceptron is created and displayed.
net = newp([-1 1; 0 2],3); disp(net)
See Also display, sim, init, train, adapt
disp But Propriétés du réseau de neurones
Syntaxe disp (net)
Pour obtenir de l'aide Type Réseau d'aide à DISP /.
Description disp (net) affiche les propriétés d'un réseau.
Exemples Voici un perceptron est créé et s'affiche.
net = NEWP ([-1 1; 0 2], 3); disp (net)
Voir aussi afficher, sim, init, train, adapter
Liste alphabétique
Référence des fonctions Fonctions d'analyse
Analyser les propriétés du réseau
Distance Fonctions
Calculer la distance entre deux vecteurs
Fonctions d'interface graphique
Ouvrir des interfaces graphiques pour la construction de réseaux de neurones
Couche d'initialisation Fonctions
Couche Initialiser poids
Les fonctions d'apprentissage
Algorithmes d'apprentissage utilisées pour adapter les réseaux
Ligne Fonctions de recherche
Line-algorithmes de recherche
Fonctions d'entrée net
Somme excitations de la couche
Réseau fonction d'initialisation
Réseau Initialiser poids
De nouveaux réseaux Fonctions
Créer des architectures de réseau
Utilisation en réseau Fonctions
Fonctions de haut niveau pour manipuler des réseaux
Fonctions de rendement
Mesurer la performance du réseau
Fonctions graphiques
Terrain et analyser les réseaux et les performances du réseau
Fonctions de traitement
Prétraitement et de post-traitement des données
Simulink ® soutien de la fonction
Générer bloc Simulink pour la simulation de réseau
Topologie Fonctions
Disposer les neurones de la couche en fonction de la topologie particulière
Formation Fonctions
Des réseaux de trains
Les fonctions de transfert
Transformer la sortie de la couche réseau
Fonctions d'utilité
L'utilité des fonctions internes
Vector Fonctions
Fonctions internes pour les calculs de réseau
Poids et Bias fonctions d'initialisation
Initialiser les poids et les préjugés
Poids Fonctions
Convolution, produit scalaire, produit scalaire, et les fonctions distances poids
Fonctions d'analyse errsurf
Surface d'erreur d'un seul neurone d'entrée
confusion
Classification matrice de confusion
maxlinlr
Taux maximal d'apprentissage pour les neurone linéaire
Roc
Receiver operating characteristic
Distance Fonctions boxdist
Distance entre deux vecteurs de position
dist
Fonction de pondération de la distance euclidienne
linkdist
Lien fonction de distance
mandist
Manhattan poids fonction de distance
Fonctions d'interface graphique nctool Neural classification outil réseau nftool
Open Neural Network Fitting Tool
nntool
Open Network / Data Manager
nntraintool
Neural network training outil
nprtool
Neural outil de configuration réseau de reconnaissance
affichage
Voir le réseau de neurones
Couche d'initialisation Fonctions initnw Nguyen-Widrow fonction d'initialisation couche initwb
Par-poids et de biais fonction de la couche d'initialisation
Les fonctions d'apprentissage learncon Conscience partialité fonction d'apprentissage learngd
Gradient poids de descente / partialité fonction d'apprentissage
learngdm
Descente de gradient avec le poids dynamique ou les préjugés fonction d'apprentissage
learnh
Hebb poids fonction d'apprentissage
learnhd
Hebb avec le poids désintégration règle d'apprentissage
learnis
Instar poids fonction d'apprentissage
learnk
Kohonen poids fonction d'apprentissage
learnlv1
LVQ1 poids fonction d'apprentissage
learnlv2
LVQ2 poids fonction d'apprentissage
learnos
Outstar poids fonction d'apprentissage
learnp
Perceptron poids et le biais de fonction d'apprentissage
learnpn
Normalise perceptron poids et le biais fonction d'apprentissage
learnsom
Self-organizing map poids fonction d'apprentissage
learnsomb
Lots d'auto-organisation poids fonction de carte d'apprentissage
learnwh
Widrow-Hoff poids et le biais de règle d'apprentissage
Ligne Fonctions de recherche srchbac 1-D en utilisant la recherche de minimisation de traçage srchbre
1-D Lieu intervalle en utilisant la méthode de Brent
srchcha
1-D, selon la méthode de minimisation Charalambous '
srchgol
1-D de minimisation en utilisant la recherche d'or
srchhyb
1-D en utilisant la minimisation de dichotomie hybride / search cubes
Fonctions d'entrée net netprod
Fonction d'entrée du produit net
netsum
Somme fonction d'entrée nette
Réseau fonction d'initialisation initlay Couche par couche réseau la fonction d'initialisation Utilisation en réseau Fonctions adapter Permettez réseau de neurones pour changer les poids et les préjugés sur les intrants disp
Propriétés du réseau de neurones
afficher
Nom et propriétés des variables réseau de neurones
init
Initialisation de réseau de neurones
sim
Simuler des réseaux de neurones
train
Train de réseaux de neurones
De nouveaux réseaux Fonctions réseau Créer un réseau de neurones personnalisés Newc
Créer couche compétitifs
newcf
Créer un réseau en cascade avant de rétropropagation
newdtdnn
Créer un réseau de neurones distribués temps de retard
newelm
Créer Elman réseau de rétropropagation
newff
Créer un réseau de rétropropagation non récurrents
newfftd
Créer un réseau d'entrée non récurrent rétropropagation retard
newfit
Créer un réseau approprié
newgrnn
Design par la régression généralisée de réseaux de neurones
newhop
Créer un réseau de Hopfield récurrentes
Newlin
Créer couche linéaire
newlind
Design couche linéaire
newlrn
Créer des couches réseau récurrent
newlvq
Créer un réseau d'apprentissage à la quantification vectorielle
newnarx
Créer un réseau de rétropropagation non récurrents avec la réaction de sortie et son entrée
newnarxsp
Créer NARX réseau en série-parallèle arrangement
NEWP
Créer perceptron
newpnn
La conception de réseaux de neurones probabiliste
newpr
Créer un réseau de reconnaissance des formes
newrb
Conception de réseau de base radiale
newrbe
Exacte de conception de réseau de base radiale
Newsom
Créer self-organizing map
sp2narx
Convertir série-parallèle NARX réseau de parallèles (feedback) sous forme
Fonctions de rendement mae
Fonction d'erreur moyenne absolue de performance
mse
Quadratique moyenne de la fonction rendement d'erreur
msne
Quadratique moyenne normalisée fonction d'erreur de performance
msnereg
Erreur quadratique moyenne normalisée avec des fonctions de régularisation de performance
msereg
L'erreur quadratique moyenne de la fonction des performances de régularisation
mseregec
L'erreur quadratique moyenne avec régularisation et la fonction des performances économisation
sse
Sum squared fonction de la performance d'erreur
Fonctions graphiques hintonw
Hinton graphique de la matrice de poids
hintonwb
Hinton graphique de la matrice de poids et le biais de vecteurs
plotbr
Terrain performance du réseau pour la formation de régularisation bayésienne
plotconfusion
Terrain confusion Matrice de classification
plotep
Terrain de poids et la position de partialité en cas d'erreur de surface
plotes
Surface terrain erreur d'un seul neurone d'entrée
plotfit
Fonction plot apte
plotpc
Terrain ligne de classement sur la parcelle vecteur perceptron
plotperform
Terrain de performance de réseau
plotpv
Terrain d'entrée cible vecteurs perceptron
plotregression
Terrain de régression linéaire
plotroc
Terrain receiver operating characteristic
plotsom
Self-organizing map Terrain
plotsomhits
Terrain d'auto-organisation hits exemple de carte
plotsomnc
Terrain d'auto-organisation des connexions voisin carte
plotsomnd
Terrain d'auto-organisation des distances voisin carte
plotsomplanes
Terrain d'auto-organisation des avions poids carte
plotsompos
Terrain d'auto-organisation des postes Plan du poids
plotsomtop
Terrain d'auto-organisation topologie carte
plottrainstate
Terrain formation valeurs de l'état
plotv
Terrain vecteurs comme les lignes d'origine
plotvec
Terrain vecteurs avec des couleurs différentes
PostReg
Post-traitement de réponse du réseau formé avec la régression linéaire
Fonctions de traitement fixunknowns
Traiter les données par le marquage des lignes avec des valeurs inconnues
mapminmax
Processus de matrices par rangée de cartographie minimal et valeurs maximales à [-1 1]
mapstd
Processus de matrices par la cartographie, on entend chaque rangée à 0 et les écarts à 1
processpca
Traiter les colonnes de la matrice de l'analyse en composantes principales
removeconstantrows
Processus de matrices par la suppression de lignes avec des valeurs constantes
removerows
Processus de matrices par la suppression de lignes avec des indices spécifiés
Simulink ® soutien de la fonction gensim Générer bloc Simulink pour la simulation de réseaux de neurones Topologie Fonctions gridtop
Grid topologie couche fonction
hextop
Hexagonal Layer Topology fonction
randtop
Random topologie couche fonction
Formation Fonctions trainb
Lot de formation avec le poids et le biais de l'apprentissage des règles
trainbfg
BFGS quasi-Newton rétropropagation
trainbfgc
BFGS rétropropagation quasi-Newton pour une utilisation avec NN référence du modèle de contrôleur adaptatif
trainbr
Bayésien de régularisation
trainbuwb
Lot de poids, sans surveillance biais de la formation
trainc
Cyclique mise à jour incrémentale afin
traincgb
Powell-Beale rétropropagation du gradient conjugué
traincgf
Fletcher-Powell rétropropagation du gradient conjugué
traincgp
Polak-RibiéRe rétropropagation du gradient conjugué
traingd
Pente de descente de rétropropagation
traingda
Descente de gradient avec Adaptive rétropropagation règle d'apprentissage
traingdm
Descente de gradient avec rétropropagation élan
traingdx
Descente de gradient avec élan et d'apprentissage adaptatif rétropropagation règle
trainlm
Levenberg-Marquardt rétropropagation
trainoss
Une étape de rétropropagation sécante
trainr
Aléatoire par paliers, de la formation pour les fonctions d'apprentissage
trainrp
Resilient rétropropagation (Rprop)
trains
Afin de formation supplémentaires séquentielle avec les fonctions d'apprentissage
trainscg
Scaled rétropropagation du gradient conjugué
Les fonctions de transfert COMPET Fonction de transfert Competitive hardlim Hard-fonction de transfert limite hardlims Dur symétrique transfert fonction limite logsig Log-fonction de transfert sigmoïde netinv Fonction de transfert inverse poslin Positive fonction de transfert linéaire purelin Fonction de transfert linéaire radbas Radial Basis fonction de transfert SATLIN Saturant fonction de transfert linéaire satlins Symmetric saturant fonction de transfert linéaire SOFTMAX Softmax fonction de transfert tansig Tangente hyperbolique fonction de transfert sigmoïde tribas Base triangulaire fonction de transfert
Fonctions d'utilité calcgx
Calculer le poids et le gradient de rendement biais, comme le seul vecteur
calcjejj
Calculer le rendement jacobienne vectorielle
calcjx
Calculer le poids et la performance partialité comme seule matrice jacobienne
calcpd
Calculer retardé entrées réseau
calcperf
Calculer les sorties du réseau, de signaux, et les performances
getX
Tous les poids du réseau et les valeurs biais, comme le seul vecteur
setx
Réglez tous les poids du réseau et les valeurs partialité seul vecteur
Vector Fonctions combvec
Créer toutes les combinaisons des vecteurs
con2seq
Convertir vecteurs simultanés à des vecteurs séquentielle
d'accord
Créer vecteurs partialité concurrente
ind2vec
Convertir les indices à des vecteurs
MinMax
Gammes de lignes de la matrice
normc
Normaliser les colonnes de la matrice
normr
Normaliser les lignes de la matrice
pnormc
Pseudonormalize colonnes de la matrice
quant
Discrétiser les valeurs en multiples de la quantité
seq2con
Convertir vecteurs séquentielle à des vecteurs simultanés
vec2ind
Convertir des vecteurs pour les indices
Poids et Bias fonctions d'initialisation initcon Conscience biais de la fonction d'initialisation initsompc
Initialiser SOM poids avec les principaux composants
initzero
Poids égal à zéro et la fonction d'initialisation de partialité
point médian
Midpoint initialisation fonction de poids
randnc
Normalise poids de la colonne fonction d'initialisation
Randnr
Normalise poids consécutive fonction d'initialisation
rands
Symmetric poids aléatoire / fonction d'initialisation de partialité
revenir
Réseau Changer poids et les biais à des valeurs d'initialisation précédentes
Poids Fonctions convwf
Convolution fonction de poids
dist
Fonction de pondération de la distance euclidienne
dotprod
Dot poids du produit, la fonction
mandist
Manhattan poids fonction de distance
negdist
Négatif distance fonction de poids
normprod
Normalise dot fonction du poids du produit
scalprod
Scalar poids du produit, la fonction
Alphabetical List
Function Reference Analysis Functions
Analyze network properties
Distance Functions
Compute distance between two vectors
Graphical Interface Functions
Open GUIs for building neural networks
Layer Initialization Functions
Initialize layer weights
Learning Functions
Learning algorithms used to adapt networks
Line Search Functions
Line-search algorithms
Net Input Functions
Sum excitations of layer
Network Initialization Function
Initialize network weights
New Networks Functions
Create network architectures
Network Use Functions
High-level functions to manipulate networks
Performance Functions
Measure network performance
Plotting Functions
Plot and analyze networks and network performance
Processing Functions
Preprocess and postprocess data
Simulink® Support Function
Generate Simulink block for network simulation
Topology Functions
Arrange neurons of layer according to specific topology
Training Functions
Train networks
Transfer Functions
Transform output of network layer
Utility Functions
Internal utility functions
Vector Functions
Internal functions for network computations
Weight and Bias Initialization Functions
Initialize weights and biases
Weight Functions
Convolution, dot product, scalar product, and distances weight functions
Analysis Functions errsurf
Error surface of single-input neuron
confusion
Classification confusion matrix
maxlinlr
Maximum learning rate for linear neuron
roc
Receiver operating characteristic
Distance Functions boxdist
Distance between two position vectors
dist
Euclidean distance weight function
linkdist
Link distance function
mandist
Manhattan distance weight function
Graphical Interface Functions nctool
Neural network classification tool
nftool
Open Neural Network Fitting Tool
nntool
Open Network/Data Manager
nntraintool
Neural network training tool
nprtool
Neural network pattern recognition tool
view
View neural network
Layer Initialization Functions initnw
Nguyen-Widrow layer initialization function
initwb
By-weight-and-bias layer initialization function
Learning Functions learncon
Conscience bias learning function
learngd
Gradient descent weight/bias learning function
learngdm
Gradient descent with momentum weight/bias learning function
learnh
Hebb weight learning function
learnhd
Hebb with decay weight learning rule
learnis
Instar weight learning function
learnk
Kohonen weight learning function
learnlv1
LVQ1 weight learning function
learnlv2
LVQ2 weight learning function
learnos
Outstar weight learning function
learnp
Perceptron weight and bias learning function
learnpn
Normalized perceptron weight and bias learning function
learnsom
Self-organizing map weight learning function
learnsomb
Batch self-organizing map weight learning function
learnwh
Widrow-Hoff weight and bias learning rule
Line Search Functions srchbac
1-D minimization using backtracking search
srchbre
1-D interval location using Brent's method
srchcha
1-D minimization using Charalambous' method
srchgol
1-D minimization using golden section search
srchhyb
1-D minimization using hybrid bisection/cubic search
Net Input Functions netprod
Product net input function
netsum
Sum net input function
Network Initialization Function initlay
Layer-by-layer network initialization function
Network Use Functions adapt
Allow neural network to change weights and biases on inputs
disp
Neural network properties
display
Name and properties of neural network variables
init
Initialize neural network
sim
Simulate neural network
train
Train neural network
New Networks Functions network
Create custom neural network
newc
Create competitive layer
newcf
Create cascade-forward backpropagation network
newdtdnn
Create distributed time delay neural network
newelm
Create Elman backpropagation network
newff
Create feedforward backpropagation network
newfftd
Create feedforward input-delay backpropagation network
newfit
Create fitting network
newgrnn
Design generalized regression neural network
newhop
Create Hopfield recurrent network
newlin
Create linear layer
newlind
Design linear layer
newlrn
Create layered-recurrent network
newlvq
Create learning vector quantization network
newnarx
Create feedforward backpropagation network with feedback from output to input
newnarxsp
Create NARX network in series-parallel arrangement
newp
Create perceptron
newpnn
Design probabilistic neural network
newpr
Create pattern recognition network
newrb
Design radial basis network
newrbe
Design exact radial basis network
newsom
Create self-organizing map
sp2narx
Convert series-parallel NARX network to parallel (feedback) form
Performance Functions mae
Mean absolute error performance function
mse
Mean squared error performance function
msne
Mean squared normalized error performance function
msnereg
Mean squared normalized error with regularization performance functions
msereg
Mean squared error with regularization performance function
mseregec
Mean squared error with regularization and economization performance function
sse
Sum squared error performance function
Plotting Functions hintonw
Hinton graph of weight matrix
hintonwb
Hinton graph of weight matrix and bias vector
plotbr
Plot network performance for Bayesian regularization training
plotconfusion
Plot classification confusion matrix
plotep
Plot weight and bias position on error surface
plotes
Plot error surface of single-input neuron
plotfit
Plot function fit
plotpc
Plot classification line on perceptron vector plot
plotperform
Plot network performance
plotpv
Plot perceptron input target vectors
plotregression
Plot linear regression
plotroc
Plot receiver operating characteristic
plotsom
Plot self-organizing map
plotsomhits
Plot self-organizing map sample hits
plotsomnc
Plot self-organizing map neighbor connections
plotsomnd
Plot self-organizing map neighbor distances
plotsomplanes
Plot self-organizing map weight planes
plotsompos
Plot self-organizing map weight positions
plotsomtop
Plot self-organizing map topology
plottrainstate
Plot training state values
plotv
Plot vectors as lines from origin
plotvec
Plot vectors with different colors
postreg
Postprocess trained network response with linear regression
Processing Functions fixunknowns
Process data by marking rows with unknown values
mapminmax
Process matrices by mapping row minimum and maximum values to [-1 1]
mapstd
Process matrices by mapping each row's means to 0 and deviations to 1
processpca
Process columns of matrix with principal component analysis
removeconstantrows
Process matrices by removing rows with constant values
removerows
Process matrices by removing rows with specified indices
Simulink® Support Function gensim
Generate Simulink block for neural network simulation
Topology Functions gridtop
Grid layer topology function
hextop
Hexagonal layer topology function
randtop
Random layer topology function
Training Functions trainb
Batch training with weight and bias learning rules
trainbfg
BFGS quasi-Newton backpropagation
trainbfgc
BFGS quasi-Newton backpropagation for use with NN model reference adaptive controller
trainbr
Bayesian regularization
trainbuwb
Batch unsupervised weight/bias training
trainc
Cyclical order incremental update
traincgb
Powell-Beale conjugate gradient backpropagation
traincgf
Fletcher-Powell conjugate gradient backpropagation
traincgp
Polak-Ribiére conjugate gradient backpropagation
traingd
Gradient descent backpropagation
traingda
Gradient descent with adaptive learning rule backpropagation
traingdm
Gradient descent with momentum backpropagation
traingdx
Gradient descent with momentum and adaptive learning rule backpropagation
trainlm
Levenberg-Marquardt backpropagation
trainoss
One step secant backpropagation
trainr
Random order incremental training with learning functions
trainrp
Resilient backpropagation (Rprop)
trains
Sequential order incremental training with learning functions
trainscg
Scaled conjugate gradient backpropagation
Transfer Functions compet Competitive transfer function hardlim Hard-limit transfer function hardlims Symmetric hard-limit transfer function logsig Log-sigmoid transfer function netinv Inverse transfer function poslin Positive linear transfer function purelin Linear transfer function radbas Radial basis transfer function satlin Saturating linear transfer function satlins Symmetric saturating linear transfer function
softmax Softmax transfer function tansig Hyperbolic tangent sigmoid transfer function tribas Triangular basis transfer function
Utility Functions calcgx
Calculate weight and bias performance gradient as single vector
calcjejj
Calculate Jacobian performance vector
calcjx
Calculate weight and bias performance Jacobian as single matrix
calcpd
Calculate delayed network inputs
calcperf
Calculate network outputs, signals, and performance
getx
All network weight and bias values as single vector
setx
Set all network weight and bias values with single vector
Vector Functions combvec
Create all combinations of vectors
con2seq
Convert concurrent vectors to sequential vectors
concur
Create concurrent bias vectors
ind2vec
Convert indices to vectors
minmax
Ranges of matrix rows
normc
Normalize columns of matrix
normr
Normalize rows of matrix
pnormc
Pseudonormalize columns of matrix
quant
Discretize values as multiples of quantity
seq2con
Convert sequential vectors to concurrent vectors
vec2ind
Convert vectors to indices
Weight and Bias Initialization Functions initcon
Conscience bias initialization function
initsompc
Initialize SOM weights with principal components
initzero
Zero weight and bias initialization function
midpoint
Midpoint weight initialization function
randnc
Normalized column weight initialization function
randnr
Normalized row weight initialization function
rands
Symmetric random weight/bias initialization function
revert
Change network weights and biases to previous initialization values
Weight Functions convwf
Convolution weight function
dist
Euclidean distance weight function
dotprod
Dot product weight function
mandist
Manhattan distance weight function
negdist
Negative distance weight function
normprod
Normalized dot product weight function
scalprod
Scalar product weight function