Mapas Autoorganizados Kohonen
Mapas Autoorganizados Kohonen
Mapas Autoorganizados Kohonen
1.- Introduccin
2.- Los mapas autoorganizados de Kohonen
2.1.- Fundamentos biolgicos
2.2.- Arquitectura
2.3.- Algoritmo
2.3.1.- Etapa de funcionamiento
2.3.2.- Etapa de aprendizaje
3.- Fases en la aplicacin de los mapas autoorganizados
3.1.- Inicializacin de los pesos
3.2.- Entrenamiento de la red
3.2.1.- Medida de similitud
3.2.2.- Tasa de aprendizaje
3.2.3.- Zona de vecindad
3.3.- Evaluacin del ajuste del mapa
3.4.- Visualizacin y funcionamiento del mapa
3.5.- Anlisis de sensibilidad
4.- Un ejemplo: Clasificacin de la planta del Iris
5.- Recursos gratuitos en internet sobre los mapas autoorganizados
5.1.- Applets
5.1.1.- Ejemplo de mapa autoorganizado unidimensional
5.1.2.- Ejemplo de mapa autoorganizado bidimensional
5.2.- Software
5.2.1.- SOM_PAK
Referencias
273
1.- Introduccin
En los ltimos quince aos, las redes neuronales artificiales (RNA) han emergido como
una potente herramienta para el modelado estadstico orientada principalmente al
reconocimiento de patrones tanto en la vertiente de clasificacin como de prediccin.
Las RNA poseen una serie de caractersticas admirables, tales como la habilidad para
procesar datos con ruido o incompletos, la alta tolerancia a fallos que permite a la red
operar satisfactoriamente con neuronas o conexiones daadas y la capacidad de
responder en tiempo real debido a su paralelismo inherente.
Actualmente, existen unos 40 paradigmas de RNA que son usados en diversos campos
de aplicacin (Taylor, 1996; Arbib, Erdi y Szentagothai, 1997; Sarle, 1998). Entre estos
paradigmas, podemos destacar la red backpropagation (Rumelhart, Hinton y Williams,
1986) y los mapas autoorganizados de Kohonen (Kohonen, 1982a, 1982b).
La red backpropagation, mediante un esquema de aprendizaje supervisado, ha sido
utilizada satisfactoriamente en la clasificacin de patrones y la estimacin de funciones.
La descripcin de este tipo de red se puede encontrar en un documento anterior (Palmer,
Montao y Jimnez, en prensa).
En el presente documento, nos proponemos describir otro de los sistemas neuronales
ms conocidos y empleados, los mapas autoorganizados de Kohonen. Este tipo de red
neuronal, mediante un aprendizaje no supervisado, puede ser de gran utilidad en el
campo del anlisis exploratorio de datos, debido a que son sistemas capaces de realizar
anlisis de clusters, representar densidades de probabilidad y proyectar un espacio de
alta dimensin sobre otro de dimensin mucho menor. A fin de asegurar la comprensin
de los conceptos expuestos por parte del lector y, al mismo tiempo, explotar al mximo
los recursos que nos ofrece la Web, tal descripcin ir acompaada de applets y
software ilustrativos, los cuales estarn a disposicin del lector via internet.
Se ha observado que en el crtex de los animales superiores aparecen zonas donde las
neuronas detectoras de rasgos se encuentran topolgicamente ordenadas (Kohonen,
1989, 1990); de forma que las informaciones captadas del entorno a travs de los
rganos sensoriales, se representan internamente en forma de mapas bidimensionales.
Por ejemplo, en el rea somatosensorial, las neuronas que reciben seales de sensores
que se encuentran prximos en la piel se sitan tambin prximas en el crtex, de
manera que reproducen --de forma aproximada--, el mapa de la superficie de la piel en
275
una zona de la corteza cerebral. En el sistema visual se han detectado mapas del espacio
visual en zonas del cerebro. Por lo que respecta al sentido del odo, existen en el cerebro
reas que representan mapas tonotpicos, donde los detectores de determinados rasgos
relacionados con el tono de un sonido se encuentran ordenados en dos dimensiones
(Martn del Bro y Sanz, 1997).
Aunque en gran medida esta organizacin neuronal est predeterminada genticamente,
es probable que parte de ella se origine mediante el aprendizaje. Esto sugiere, por tanto,
que el cerebro podra poseer la capacidad inherente de formar mapas topolgicos de las
informaciones recibidas del exterior (Kohonen, 1982a).
Por otra parte, tambin se ha observado que la influencia que una neurona ejerce sobre
las dems es funcin de la distancia entre ellas, siendo muy pequea cuando estn muy
alejadas. As, se ha comprobado que en determinados primates se producen
interacciones laterales de tipo excitatorio entre neuronas prximas en un radio de 50 a
100 micras, de tipo inhibitorio en una corona circular de 150 a 400 micras de anchura
alrededor del crculo anterior, y de tipo excitatorio muy dbil, prcticamente nulo, desde
ese punto hasta una distancia de varios centmetros. Este tipo de interaccin tiene la
forma tpica de un sombrero mejicano como veremos ms adelante.
En base a este conjunto de evidencias, el modelo de red autoorganizado presentado por
Kohonen pretende mimetizar de forma simplificada la capacidad del cerebro de formar
mapas topolgicos a partir de las seales recibidas del exterior.
2.2.- Arquitectura
Un modelo SOM est compuesto por dos capas de neuronas. La capa de entrada
(formada por N neuronas, una por cada variable de entrada) se encarga de recibir y
transmitir a la capa de salida la informacin procedente del exterior. La capa de salida
(formada por M neuronas) es la encargada de procesar la informacin y formar el mapa
de rasgos. Normalmente, las neuronas de la capa de salida se organizan en forma de
mapa bidimensional como se muestra en la figura 1, aunque a veces tambin se utilizan
capas de una sola dimensin (cadena lineal de neuronas) o de tres dimensiones
(paraleleppedo).
276
Las conexiones entre las dos capas que forman la red son siempre hacia delante, es
decir, la informacin se propaga desde la capa de entrada hacia la capa de salida. Cada
neurona de entrada i est conectada con cada una de las neuronas de salida j mediante
un peso wji. De esta forma, las neuronas de salida tienen asociado un vector de pesos Wj
llamado vector de referencia (o codebook), debido a que constituye el vector prototipo
(o promedio) de la categora representada por la neurona de salida j.
Entre las neuronas de la capa de salida, puede decirse que existen conexiones laterales
de excitacin e inhibicin implcitas, pues aunque no estn conectadas, cada una de
estas neuronas va a tener cierta influencia sobre sus vecinas. Esto se consigue a travs
de un proceso de competicin entre las neuronas y de la aplicacin de una funcin
denominada de vecindad como veremos ms adelante.
2.3.- Algoritmo
En el algoritmo asociado al modelo SOM podemos considerar, por un lado, una etapa
de funcionamiento donde se presenta, ante la red entrenada, un patrn de entrada y ste
se asocia a la neurona o categora cuyo vector de referencia es el ms parecido y, por
otro lado, una etapa de entrenamiento o aprendizaje donde se organizan las categoras
que forman el mapa mediante un proceso no supervisado a partir de las relaciones
descubiertas en el conjunto de los datos de entrenamiento.
277
278
280
prximas sintonicen con patrones similares, quedando de esta manera reflejada sobre el
mapa una cierta imagen del orden topolgico presente en el espacio de entrada.
Una vez entendida la forma general de aprendizaje del modelo SOM, vamos a expresar
este proceso de forma matemtica. Recordemos que cuando se presenta un patrn de
entrenamiento, se debe identificar la neurona de salida vencedora, esto es, la neurona
cuyo vector de pesos sea el ms parecido al patrn presentado. Un criterio de similitud
muy utilizado es la distancia eucldea que viene dado por la siguiente expresin:
De acuerdo con este criterio, dos vectores sern ms similares cuanto menor sea su
distancia.
Una medida de similitud alternativa ms simple que la eucldea, es la correlacin o
producto escalar:
segn la cual, dos vectores sern ms similares cuanto mayor sea su correlacin.
Identificada la neurona vencedora mediante el criterio de similitud, podemos pasar a
modificar su vector de pesos asociado y el de sus neuronas vecinas, segn la regla de
aprendizaje:
donde n hace referencia al nmero de ciclos o iteraciones, esto es, el nmero de veces
que ha sido presentado y procesado todo el juego de patrones de entrenamiento. (n) es
la tasa de aprendizaje que, con un valor inicial entre 0 y 1, decrece con el nmero de
iteraciones (n) del proceso de aprendizaje. Zonaj*(n) es la zona de vecindad alrededor de
la neurona vencedora j* en la que se encuentran las neuronas cuyos pesos son
281
282
Cuando un mapa autoorganizado es diseado por primera vez, se deben asignar valores
a los pesos a partir de los cuales comenzar la etapa de entrenamiento. En general, no
existe discusin en este punto y los pesos se inicializan con pequeos valores aleatorios,
por ejemplo, entre -1 y 1 entre 0 y 1 (Kohonen, 1990), aunque tambin se pueden
inicializar con valores nulos (Martn del Bro y Serrano, 1993) o a partir de una
seleccin aleatoria de patrones de entrenamiento (SPSS Inc., 1997).
Vista la manera de modificar los vectores de pesos de las neuronas a partir del conjunto
de entrenamiento, se van a proporcionar una serie de consejos prcticos acerca de tres
parmetros relacionados con el aprendizaje cuyos valores ptimos no pueden conocerse
a priori dado un problema.
283
necesario (Martn del Bro y Sanz, 1997). Finalmente, independientemente del criterio
de similitud utilizado, se recomienda que el rango de posibles valores de las variables de
entrada sea el mismo, por ejemplo, entre -1 y 1 entre 0 y 1 (Masters, 1993).
Siendo 1 un valor de 0.1 0.2 y 2 un valor prximo al nmero total de iteraciones del
aprendizaje. Suele tomarse un valor 2 = 10000.
El empleo de una u otra funcin no influye en exceso en el resultado final.
La zona de vecindad (Zonaj*(n)) es una funcin que define en cada iteracin n si una
neurona de salida pertenece o no a la vecindad de la vencedora j*. La vecindad es
simtrica y centrada en j*, pudiendo adoptar una forma circular, cuadrada, hexagonal o
cualquier otro polgono regular.
En general, Zonaj*(n) decrece a medida que avanza el aprendizaje y depende de un
parmetro denominado radio de vecindad R(n), que representa el tamao de la vecindad
actual.
La funcin de vecindad ms simple y utilizada es la de tipo escaln. En este caso, una
284
285
funcin, una neurona central emite seales excitatorias a una pequea vecindad situada
a su alrededor. A medida que aumenta la distancia lateral desde la neurona central, el
grado de excitacin disminuye hasta convertirse en una seal inhibitoria. Finalmente,
cuando la distancia es considerablemente grande la neurona central emite una dbil
seal excitatoria. Por su parte, la funcin escaln supone una simplificacin de la
funcin en forma de sombrero mejicano y, como hemos visto, define de forma discreta
la vecindad de neuronas que participan en el aprendizaje.
La zona de vecindad posee una forma definida, pero como hemos visto, su radio vara
con el tiempo. Se parte de un valor inicial R0 grande, por ejemplo, igual al diametro
total del mapa (SOM_PAK, 1996; Koski, Alanen, Komu et al., 1996), que determina
vecindades amplias, con el fin de lograr la ordenacin global del mapa. R(n) disminuye
montonamente con el tiempo, hasta alcanzar un valor final de Rf = 1, por el que
solamente se actualizan los pesos de la neurona vencedora y las adyacentes. Una posible
funcin de actualizacin de R(n) es la siguiente (Martn del Bro y Sanz, 1997):
286
Una de las crticas ms importantes que se han lanzado contra el uso de RNA trata sobre
lo difcil que es comprender la naturaleza de las representaciones internas generadas por
la red para responder ante un determinado patrn de entrada. A diferencia de los
modelos estadsticos clsicos, no es tan evidente conocer en una red la importancia (o
relacin) que tiene cada variable de entrada sobre la salida del modelo. Sin embargo,
287
esta percepcin acerca de las RNA como una compleja "caja negra", no es del todo
cierta. De hecho, han surgido diferentes intentos por interpretar los pesos de la red
neuronal (Garson, 1991; Zurada, Malinowski y Cloete, 1994; Rambhia, Glenny y
Hwang, 1999; Hunter, Kennedy, Henry et al., 2000), de los cuales el ms ampliamente
utilizado es el denominado anlisis de sensibilidad.
El anlisis de sensibilidad est basado en la medicin del efecto que se observa en una
salida yj debido al cambio que se produce en una entrada xi. As, cuanto mayor efecto se
observe sobre la salida, mayor sensibilidad podemos deducir que presenta respecto a la
entrada. En la mayora de casos, este tipo de anlisis ha sido aplicado a la red
backpropagation (Palmer, Montao y Calafat, 2000; Palmer, Montao y Jimnez, en
prensa), sin embargo, apenas se han realizado estudios que apliquen el anlisis de
sensibilidad a los modelos SOM.
En este sentido, Hollmn y Simula (1996) investigaron el efecto de pequeos cambios
realizados en una de las variables de entrada sobre la salida de un modelo SOM.
Siguiendo un proceso parecido al que se suele aplicar a la red backpropagation, estos
autores iban realizando pequeos cambios a lo largo de uno de los ejes definido por una
variable de entrada (las dems variables se fijaban a un valor promedio) y observando
cmo la neurona vencedora iba cambiando de ubicacin a lo largo del mapa. Este
procedimiento permiti analizar el grado de relacin o importancia que tena cada
variable de entrada sobre la salida de la red.
289
290
observar en que zona del mapa est ubicada la neurona de salida vencedora asociada a
cada nuevo ejemplar.
5.1.- Applets
Se han seleccionado dos ejemplos de applets, creados por Jussi Hynninen del
Laboratorio Tecnolgico de Acstica y Procesamiento de Seales de Audio de la
Universidad de Helsinki (Finlandia) y colaborador de Kohonen. Uno simula un mapa
autoorganizado unidimensional, mientras que el otro simula un mapa autoorganizado
bidimensional. El lector interesado en este tipo de recursos puede visitar la pgina del
Instituto Nacional de Biociencia y Tecnologa Humana (M.I.T.I.) de Japn, donde podr
encontrar un numeroso listado de applets demostrativos sobre RNA.
292
En este applet, los cuatro grficos de "pastel" situados en la parte izquierda definen las
clases o categoras de entrada. Hay cuatro clases representadas por los colores rojo,
amarillo, verde y azul. En cada grfico, el sector dibujado de color representa la
distribucin de vectores (formados por dos valores: x y) que la clase produce. Los
cuatro grficos proporcionan vectores aleatorios que se distribuyen en el sector
mostrado en el grfico. Los grficos puede ser editados con el ratn de dos maneras
diferentes: haciendo click cerca del centro del grfico podemos cambiar la ubicacin del
sector, haciendo click cerca del borde del grfico podemos cambiar la anchura del
sector.
La barra vertical situada a la derecha de los grficos de "pastel" determina las
proporciones relativas de las cuatro clases respecto a los datos de entrada. Inicialmente
los vectores de entrada se distribuyen de forma igualitaria entre las cuatro clases. El
usuario puede cambiar las proporciones con el ratn: haciendo click en el borde que
delimita dos clases y, a continuacin, subiendo o bajando el cursor.
El rea de la derecha del applet corresponde al mapa autoorganizado. El mapa consiste
en 20 neuronas organizadas en un rectngulo de 4x5 neuronas. Durante el
entrenamiento, el color de fondo de las neuronas corresponde al color de la clase del
patrn de entrada ms prximo.
293
5.2.- Software
294
5.2.1.- SOM_PAK
De entre los simuladores de libre distribucin que podemos encontrar en internet, cabe
destacar el programa SOM_PAK (para UNIX y MS-DOS), software de dominio pblico
desarrollado en la Universidad de Tecnologa de Helsinki (Finlandia) por el grupo de
Kohonen para el trabajo y experimentacin con el modelo SOM.
Para bajarse el programa SOM_PAK (versin 3.1), pulse el siguiente botn:
Referencias bibliogrficas
295
el
perceptrn
multicapa.
Internet
Salud,
URL:
http://www.intersalud.net
Rambhia, A.H., Glenny, R. y Hwang, J. (1999). Critical input data channels selection
for progressive work exercise test by neural network sensitivity analysis. IEEE
International Conference on Acoustics, Speech, and Signal Processing, 1097-1100.
296
http://www.psiquiatria.com/psicologia/revista/67/3301
297
Anexo 2:
Sensitivity Neural Network
1.0: Users Guide
General information
Overview
Artificial Neural Networks (ANN) of the multilayer perceptron type associated with the
backpropagation error algorithm are the most widely used model of networks in the
field for the estimation of continuous variables and the pattern classification. The
strength and flexibility of this computational technology contrast with its apparent
incapacity to quantify the importance or the effect that each explicative variable has on
the prediction made by the model. In the last years diverse methodologies generally
called sensitivity analysis directed at overcoming this limitation have been proposed,
obtaining promising results. However, current commercial and free distribution
software programs of ANN have not implemented these methodologies.
Sensitivity Neural Network 1.0 (SNN) is an easy to use program that permits the
simulation of the behavior of a multilayer perceptron network (input layer, hidden layer
and output layer) trained by means of the backpropagation algorithm, and implements a
set of sensitivity methods that have been demonstrated in scientific literature to be
effective in the measurement of the input variables effect on the neural network output.
301
302
In this type of architecture the connections between neurons are always towards the
front. In other words, the connections go from the neurons of a certain layer towards
the neurons of the following layer; there are no lateral connections or connections
towards the back. Therefore the information is always transmitted from the input layer
towards the output layer. The threshold of hidden neurons and the output neurons is
considered as a weight associated with a dummy neuron with an output value equal to 1.
We can consider wij to be the connection weight between the input neuron i and the
hidden neuron j, vjk to be the connection weight between the hidden neuron j and the
output neuron k.
303
v jk (n + 1) = ( pk b pj ) + v jk (n)
p =1
p =1
for a connection weight between an input neuron i and a hidden neuron j, and for a
connection weight between a hidden neuron j and an output neuron k, respectively. The
values of eta and alfa represent the learning rate and the momentum factor respectively.
Both elements control the size of the change of weights in each epoch. Finally, the delta
values represent the contribution of the neuron to the error committed in the output of
the network.
304
Figure 2: The activation functions most frequently used in the backpropagation network.
305
wij
N v jk
j =1
wrj
r =1
Qik =
N
L
w
ij
N v jk
i =1 j =1
wrj
=
1
r
where
rj
is the sum of the connection weights between the input neurons i and the
r =1
hidden neuron j. In this equation we should take into account that, on the one hand, the
value of the weights is taken in absolute value so that the positive and negative weights
dont cancel each other out, and on the other hand, the threshold value of the hidden
neurons and the output neurons are not taken into account, assuming that their inclusion
does not affect the final result. The index Qik represents the percentage of influence of
the input variable i on the output k, in relation to the rest of the input variables, in such
a way that the sum of this index for all input variables should give a value of 100%.
Sensitivity analysis
The sensitivity analysis is based on the measurement of the effect that is observed in the
output yk due to the change that is produced in the input xi. Thus, the greater the effect
observed on the output, the greater the sensitivity we can deduce that will be present
with respect to the input. In the following section we present two approaches to the
sensitivity analysis: the Jacobian sensitivity matrix and the numeric sensitivity method.
Jacobian sensitivity matrix: The elements that make up the Jacobian matrix S provide,
analytically, a sensitivity measurement of the output to changes that are produced in
each one of the input variables. In the Jacobian matrix S - of the order NxM each row
represents an input in the network, and each column represents an output in the
network, in such a way that the element Sik of the matrix represents the sensitivity of
the output k with respect to the input i. Each of the Sik elements is obtained by
calculating the partial derivative of an output yk with respect to an input xi, that is
yk / xi (Bishop, 1995). In this case the partial derivative represents the instant slope
of the underlying function between xi and yk for some values given in both variables.
The greater the absolute value of Sik, the more important the xi in relation to yk. The
306
sign of Sik indicates whether the change observed in yk is going in the same direction or
not as the change provoked in xi. Since different input patterns can give different slope
values, the sensitivity needs to be evaluated from the whole of the training set. In this
way, it is useful to obtain a series of summary indexes such as the arithmetic mean, the
standard deviation, the mean square, the minimum and maximum value of sensitivity.
Numeric sensitivity method: This method presented recently by our team is based on
the computation of slopes that are formed between inputs and outputs, without making
any suppositions about the nature of the variables. This method is especially useful in
those cases in which discrete variables are being handled (for example, gender: 0 =
male, 1 = female or status: 0 = healthy, 1 = ill), due to the fact that the computation of
slopes by means of a partial derivative is based on the supposition that all the variables
implied in the model are of a continuous nature. This method consists of placing in
ascending order the values of the input variable of interest, and in function of this
ordering, group together the registers in various groups: 30 groups when the variable is
continuous and two groups when the variable is discrete binari (in this case, one group
when the variable takes the minimum value (for example, 0), the other group when the
variable takes the maximum value (for example, 1). The computation of the slope that is
formed between the input variable xi and the output variable yk for each pair of
consecutive groups allows us to take into account the effect of the input on the output.
As in the computation of the Jacobian sensitivity matrix, with the aim of summarizing
the information, we obtain as summary indexes the arithmetic mean, the standard
deviation, the mean square, the minimum and maximum of the slope.
System Requirements
SNN requires an IBM PC or compatible computer with a 486 processor or greater, 16
MB of RAM memory and Windows operating system. The possibility of handling large
size data matrices and complex neural architectures depends on the potency of the
computer used.
The complete installation of SNN requires less than 5 MB of disk space.
307
Principal window
Data files
Allows us to open and visualize the data matrices necessary to train and validate a
neural network.
308
Weights
This allows us to randomly initialize the weights of the network or import the weights
trained in a previous session.
The connection weights and the threshold weights of the network can be initialized by
means of an random process in the option Generate from a seed value and a range of
determined values.
The weights can be imported from a file previously saved either by SNN or by another
ANN simulator program. To do so, click Open file from the option Import and select
the file that contains the value of the saved weights.
The file of weights, in ASCII format with TXT extension, should be headed by the
number of input neurons, the number of hidden neurons and the number of output
neurons. The weights are organized in a single vector row in the following way: matrix
(NxL) of connection weights between input and hidden neurons; vector (1xL) of
threshold weights of hidden neurons; matrix (LxM) of connection weights between
hidden neurons and output neurons; vector (1xM) of threshold weights of the output
neurons. In the second and third line of the file the activation function should appear
(linear, logistic, or tanh) of the hidden neurons and the output neurons, respectively.
Then, the content of a file of weights saved previously is shown, called weights.txt, that
resolves the XOR problem:
N=2 L=2 M=1 -6,17 6,66 5,91 -6,70 ;-3,26 -3,71 ;10,21 10,04 ;-5,00
logistic
logistic
309
Network Topology
This allows us to determine the number of neurons of the hidden layer, the activation
functions (linear, logistic sigmoid, and hyperbolic tangent sigmoid) of the hidden
neurons and the output neurons, as well as the value of the learning rate (eta) and the
value of the momentum factor (alfa).
Stop Criteria
Allows us to stop automatically the training of the network, in function of the
completion of a series of criteria.
310
- RMS error in training and validation: The training will stop when the RMS error
(Square root of the Mean Square of error) of the training group and the validation group
is equal or inferior to the value specified in the corresponding boxes.
- % correct: The training will stop when the percentage of patterns correctly classified
in the training group and validation group is equal or superior to the specified value. We
consider that a pattern has been correctly classified when the RMS error committed by
the network for this pattern is inferior to the determined cutting off point.
- Epochs: The training will stop when the number of specified epochs has been reached,
independently of whether or not any of the previous stop criteria have been completed.
Statistics
During the process of learning of a neural network, SNN provides a series of statistics
of interest: the RMS error, the number and percentage of patterns correctly classified
and, finally, the number of epochs made in each instant.
A graphic representation is also provided of the evolution of the RMS error for the
training group and validation group as the number of epochs increases. The green line
represents the RMS error of the training group, the red line represents the RMS error of
the validation group. The field Refresh allows us to determine every how many epochs
311
we want the graphics to be updated, this being possible even during the process of
learning.
Action buttons
The action buttons permit us to begin the training, cleaning configuration, saving of the
trained weights in the format described under the section Weights, stop the training,
generate a report of the results, exit the program, and consult the help file, respectively.
Report window
Characteristics of the report
Once a configuration of weights has been obtained by means of training the network in
the current session, or by importing a file of weights saved in a previous session, we can
generate a report of the results. By clicking on the action button Generate report, a new
window is opened in which we can select the characteristics of the report. This is made
on the data matrix (training, validation or test) that is activated in that moment in the
principal window by means of the corresponding radial button. By clicking on Generate
the results of the options selected will appear on the screen. Also, the button Save
allows us to save the content of the report in a file with extension txt.
312
313
input-output variables: the arithmetic mean (m), the standard deviation (sd), the mean
square (ms), the minimum value (min) and the maximum value (max). It also carries out
the analysis based on the magnitude of weights by Garsons method. Once the input
variables effect analysis has been done, the Graphics button is activated, which allows
us to produce the graphic representation of the function learned by the network between
each pair of input-output variables, obtained by means of the numeric sensitivity
analysis.
314
References
Bishop, C.M. (1995). Neural networks for pattern recognition. Oxford: Oxford
University Press.
Rumelhart, D.E., Hinton, G.E., & Williams, R.J. (1986). Learning internal
representations by error propagation. En: D.E. Rumelhart & J.L. McClelland (Eds.).
Parallel distributed processing (pp. 318-362). Cambridge, MA: MIT Press.
Garson, G.D. (1991). Interpreting neural-network connection weights. AI Expert, April,
47-51.
315