Redes Neuronales - Caracterización de Yacimientos
Redes Neuronales - Caracterización de Yacimientos
Redes Neuronales - Caracterización de Yacimientos
PARA LA
CARACTERIZACIN DE
YACIMIENTOS: DEL MITO
A LAS APLICACIONES
PRCTICAS
En los ltimos aos, a medida que han proliferado
las aplicaciones tecnolgicas de la llamada inteligencia
artificial, algunos mitos existentes en torno a estas
tecnologas emergentes han ido desapareciendo. Sin
embargo a estas alturas, la definicin precisa de
inteligencia sigue siendo incierta y la de inteligencia
artificial ms an. Aunque su inicio se remonta a ms
de medio siglo cuando los psiclogos presentaron sus
primeros modelos del cerebro y el aprendizaje
(McCulloch y Pitts, 1943) no fue sino hasta finales de
los 80, cuando la tecnologa computacional estuvo lista,
que la aplicacin prctica de estos conceptos a
problemas de la vida diaria, la industria y la ciencia
comenz a materializarse.
Primero fueron los sistemas expertos (Waterman,
1986) y luego llegaron las redes neuronales (Fahlman
y Hinton, 1987), la fascinacin del pblico no haba
terminado an cuando llegaron los algoritmos
genticos (Holland, 1992) seguidos de la lgica difusa
(McNeill y Freiberger, 1993). Hoy en da se habla de
cualquier combinacin y/o permutacin de estos
trminos y es una forma segura y rpida de vender
tecnologa. El problema de todas estas tecnologas
radica en que para la mayora del pblico en general,
e incluso para un gran nmero de sus usuarios,
continan siendo cajas negras que siempre arrojan
una solucin.
Este trabajo tiene un doble objeto; en primer lugar,
pretende desmitificar un poco el concepto de las redes
neuronales mediante la presentacin de los aspectos
ms fundamentales de su teora y la discusin de sus
ventajas y desventajas como mtodos de inferencia;
Redes Neuronales para la carectizacin de yacimientos
en segundo lugar, presenta un resumen de las estructurales en que se pueden disponer los
aplicaciones comerciales ms populares que usan redes perceptrones dentro de una red definen lo que se
neuronales en problemas de caracterizacin de denomina la arquitectura de la red. Por otra parte, el
yacimientos y dos aplicaciones especficas desarrollas y tipo de informacin provista en los datos y la naturaleza
aplicadas en yacimientos venezolanos. del problema en cuestin, determina la forma de
aprendizaje que debe ser utilizada y a su vez la
arquitectura ms idnea. Independientemente de la
arquitectura, el tipo de aprendizaje y los datos, el
Nociones bsicas sobre perceptrn cmo unidad bsica de procesamiento es
bsicamente el mismo para cualquier arquitectura y/ o
redes neuronales tipo de red. La figura 1 presenta una neurona biolgica
Una red neuronal artificial es un modelo matemtico y una neurona artificial indicando cada una de sus
entrenable que permite encontrar relaciones partes constitutivas.
funcionales entre dos conjuntos de datos. En este Cmo se observa de la figura, tanto la neurona
articulo se pretende explicar con lujo de detalles el biolgica como la artificial son sistemas que reciben
significado de esta definicin. varias entradas estmulos y producen una salida o
El concepto de neurona artificial se deriva de los respuesta. En una red neuronal, las salidas de unas
primeros modelos que los psiclogos presentaron neuronas constituyen entradas de otras neuronas. La
sobre el funcionamiento de las neuronas biolgicas interconexin de una de las terminaciones de un axn
en cuanto a dos aspectos bsicos: la respuesta a con una dendrita de otra neurona se denomina
estmulos y el aprendizaje. Un perceptrn, o neurona sinapsis.
artificial, es la unidad de procesamiento fundamental En el funcionamiento de una neurona biolgica, la
de toda red neuronal. La red, como su nombre lo preponderancia relativa de cada estmulo en la
indica, constituye la interconexin de varias de estas generacin de la respuesta depende del nmero de
unidades de procesamiento. La estructura de la neuro-transmisores y neuro-receptores existentes en
interconexin, as como los distintos niveles cada sinapsis y se ha demostrado que las sinapsis se
Banchs Rafael
e = d - y Ecuacin 2
Clasificacin con redes neuronales
Y podemos buscar un conjunto de pesos (w) tal Veamos con un ejemplo sencillo, como una
que minimice el error. Una forma de hacer dicha neurona artificial se puede utilizar en un problema
bsqueda es mediante el uso de una funcin de costo de clasificacin en un espacio de dos variables.
definida a partir del error cuadrtico medio, la cual se Considere el ejemplo de la figura 2.
define como el valor esperado (sobre el universo de Cmo puede observarse de la figura 2, se
datos) del cuadrado del error, como se muestra a implementa un clasificador con una neurona de tres
continuacin: entradas y una funcin de activacin del tipo escaln
(funcin de heaviside). Este modelo de neurona se
denomina el modelo de McCulloch-Pitts (Haykin,
Redes Neuronales para la carectizacin de yacimientos
1994). Cuando la entrada de la funcin de activacin Para ilustrar el poder de combinar elementos no
es negativa, la respuesta de la neurona ser cero lineales en un problema de clasificacin,
(neurona inactiva); y cuando la entrada de la funcin consideremos el siguiente ejemplo.
de activacin es positiva, la respuesta de la neurona
En el ejemplo ilustrado en la figura 3, se
ser uno (neurona activa). Recordemos que la entrada
implementa un clasificador con una red neuronal de
a la funcin de activacin est dada por la salida del
tres neuronas organizadas en dos niveles o capas.
combinados lineal, y en este caso en particular, como
Esta configuracin le da a la red la potencialidad de
se ilustra en la figura, est dada por la suma pesada
discriminar zonas complicadas en el plano X Z En
de la entradas X Zv K Ntese como la condicin
este ejemplo particular se desea discriminar el primer
umbral define una recta en el plano
cuadrante del resto del plano. La red presentada en
X Zseparndolo en dos
el ejemplo es capaz de resolver este problema, el
semiplanos. El entrenamiento de este clasificador
cual es imposible de ser resuelto con una sola
consiste en encontrar un conjunto de valores para w1
neurona como en el caso del ejemplo de la figura 2.
w2, w3 y K tales que las dos clases definidas por los
La solucin del problema es relativamente sencilla,
puntos grises y los puntos blancos queden
cada una de las dos neuronas de la primera capa (o
confinadas en semiplanos diferentes.
Banchs Rafael
En el ejemplo mostrado en la figura 4, el valor de Z artculo abordar con lujo de detalles cada uno de los
fue 1 y los pesos fueron: algoritmos de aprendizaje. Por el contrario, slo sern
descritos brevemente algunos de ellos con el objeto de
aclarar conceptos y fijar algunas ideas bsicas.
El aprendizaje Hebbiano (Hebb, 1949) y el
De la misma manera en que se aproxim una aprendizaje competitivo (Willshaw y von der
funcin lineal en el ejemplo anterior, es posible Malsburg, 1976) son reglas basadas en
aproximar cualquier funcin genrica en una, dos o consideraciones neurobiolgicas. En el caso
ms dimensiones usando arquitecturas de redes particular del aprendizaje Hebbiano, tal y como se
neuronales similares a la de la figura 4, y diversos tipos coment en la primera seccin de este artculo, las
de funciones de activacin. sinapsis neuronales (pesos) se refuerzan o debilitan
segn sea la historia de su actividad. De acuerdo a
este postulado, la actualizacin de los pesos se hace
de la siguiente manera:
Algoritmos y paradigmas de
aprendizaje
En los ejemplos presentados anteriormente se
ilustr cmo las redes neuronales pueden ser
utilizadas para problemas de clasificacin y donde x.y y constituyen la actividad pre-sinptica
estimacin. Esto se ilustr con una arquitectura par- y post-sinptica (entrada y salida de la neurona en
ticular denominada perceptrn de capas mltiples y cuestin) respectivamente, y h se denomina la
los pesos de las neuronas fueron propuestos o constante de aprendizaje. Versiones ms
calculados en forma intuitiva. Este procedimiento, en elaboradas de esta regla de aprendizaje consideran
cualquier aplicacin prctica, carece de validez y la inclusin de un trmino de olvido, que evita el
sentido ya que la determinacin directa de los pesos posible crecimiento exponencial de los pesos
implica el conocimiento de la solucin del problema. durante el entrenamiento de la red (Kohonen, 1988).
La verdadera utilidad prctica de una red neuronal
En el aprendizaje competitivo, las neuronas de una
cmo mtodo de inferencia, radica en el hecho de
red compiten por activarse (responder) ante la
que para un problema dado es posible determinar los
presencia de un estmulo dado. Generalmente, a
pesos de las neuronas de una red mediante el uso de
diferencia de otros tipos de entrenamiento, en el
un procedimiento especfico denominado algoritmo de
aprendizaje competitivo slo una neurona se activa a
aprendizaje (Haykin, 1994).
la vez. En la regla de aprendizaje competitivo, slo se
El proceso de aprendizaje de una red neuronal se actualizan los pesos de la neurona que responde con
lleva a cabo mediante la ejecucin de ciertos cambios ms fuerza a un estmulo dado. Segn este postulado,
en la configuracin de la red, especficamente, sus la actualizacin de los pesos se hace de la siguiente
pesos. Desde el punto de vista algortmico, estos manera:
cambios se realizan a modo de una actualizacin que
se representa de la siguiente forma:
Conclusiones y Referencias
recomendaciones
Banchs, R.; Jimnez, J.; 2002, "Content addressable
memories for seismic attribute pattern recognition",
El uso de redes neuronales en problemas de
64th EAGE Conference & Exhibition.
estimacin y clasificacin en caracterizacin de
yacimientos ha incrementado en forma espectacular Banchs, R.; Michelena, R.; 2000, "Well log estimates
en los ltimos aos. Sin embargo, a estas alturas and confidence intervals by using artificial neural
todava las redes neuronales son vistas por muchos networks", SEG 2000 expanded abstracts.
cmo cajas negras y misteriosas capaces de dar Banchs, R.; Michelena, R.; 2002, "From 3D seismic
respuestas que muchas veces no se sabe como attributes to pseudo well log volumes using neural
validar o verificar. networks: practical considerations", The Leading
En el fondo, las redes neuronales no son ms Edge, octubre.
que filtros no lineales que tienen la gran ventaja de Barto, A.; 1992, "Reinforcement learnng and adaptive
poder ser "entrenados" para representar relaciones critic methods', Handbook of Intelligent Contr%
complejas entre conjuntos de datos, que los mtodos 469-491, New York, Van Nostrand-Reinhold.
lineales tradicionales de interpolacin y/o clustering Becker, S.; 1991, "Unsupervised learning procedures
no son capaces de representar. Este trabajo for neural networks",
pretendi desmitificar un poco el concepto de las /nternationa/JournalofNeural Systems, 2, 17-
redes neuronales mediante la presentacin de los 33.
aspectos ms fundamentales de su teora; e ilustrar
Blunda, Y.; Camacho, L.; Porjesz, R.; Banchs, R.;
su uso en problemas especficos de caracterizacin
2002, "Estimaciones de porosidad empleando
de yacimientos.
mtodos basados en geoestadstica y redes
Aunque las redes neuronales son y seguirn siendo neuronales", X/ Congreso Venezolano de
una gran herramienta de trabajo en problemas de Geofsica.
inferencia, deben usarse con mucho cuidado. El prin-
cipal problema de las redes neuronales es que siempre Fahlman, S.; Hinton, G.; 1987, "Connectionist
dan una respuesta. Sin embargo, debe tenerse en architectures for artificial intelligence", IEEECorn-
cuenta que la calidad y validez de una representacin putel 20, 100-109.
obtenida a partir de una red neuronal depender Hampson, D.; Schuelke, J.; Quirein, J.; 2001, "Use of
siempre de algunos aspectos prcticos que la mayora multiattribute transforms to predict log properties
de las veces no son sencillos de controlar. Entre ellos from seismic data", Geophysics, 66, 220-236.
podemos mencionar el hecho de que tan bien los datos Haykin, S.; 1994, Neural networks: a
de entrenamiento representan el espacio de los datos, comprehensive foundation, New York, Macmillan.
que tan adecuada es una arquitectura especfica Haykin, S.; 1996, Adaptive filtertheory, Upper
para un problema en cuestin, as como cul es el Saddle River, Prentice-Hall.
nmero de neuronas ptimo en la red para resolver un
Hebb, D.; 1949, The organization of behavior: a
problema especfico, cual es el conjunto de variables
neuropsycho%ogica/theory, New York, Wiley.
de entrada que realmente son significativos para la
solucin de un problema. Son precisamente estos Holland, J.; 1992, Adaptation in natural and
problemas, para los cuales todava no hay respuestas artificial systems, Cambridge, MIT Press.
tericas claras, los que le dan esa imagen algo mtica y Jimenez, J.; Michelena, R.; Peinado, A.; 1999, "Facies
misteriosa al uso de estas herramientas. recognition using wavelet-based fractal analysis on
En definitiva, se puede decir que el uso de redes compressed seismic data", SEG 1999 expanded
neuronales en cualquier contexto es en parte una abstracts.
tcnica y en parte un arte. Y es precisamente de la Kohonen, T.; 1988, "An introduction to neural
experiencia que da su propio uso que se refina el computing",Neura/Networks, 1, 3-16.
tcnico y se perfecciona el artista. Kohonen, T.; 1990, "The self-organizing map", Pro-
ceedings of the IEEE, 78, 1464-1480.
McCulloch, W.; Pitts, W.; 1943, "A logical calculus of the
ideas immanent in nervous activity", Bulletin
of MathematicalBiophysics, 5, 115-133.
Banchs Rafael