Modelo de Red Neuronal de Hopfield
Modelo de Red Neuronal de Hopfield
Modelo de Red Neuronal de Hopfield
13480440
Enrique Juárez
Inteligencia Artificial.
Es Aquella donde existe realimentación entre las neuronas. Al introducir un patrón
de entrada, la información se propaga hacia adelante y hacia atrás, produciéndose
una dinámica
Esta fue diseñada en 1982 por John Hopfield. Este personaje provoco el
renacimiento de las redes neuronales con su libro: “ Computación neuronal de
decisiones en problemas de optimización.”.
Para que esta red se transforme debe contener los siguientes objetivos:
Deben converger siempre a un estado estable
El dominio de atracción de cada estado debe estar perfectamente delimitado y
cumplir algún criterio de métrica
Debe poder tener cualquier numero de estados estables.
Este contiene una red monocapa con N neuronas cuyos valores de salida son
binarios: 0/1 ó -1/+1.
Ademas que es una red discreta con entradas y salidas binarias
Existen conexiones laterales (cada neurona se encuentra conectada a todas las
demás) pero no autorrecurrentes. Los pesos asociados a las conexiones entre
pares de neuronas son simétricos
Utilizando una notación matricial, para representar los pesos de la red se puede
utilizar una matriz de dimensión NxN (recordemos que N es el número de
neuronas de la red y por tanto de componentes del vector de entrada). Esta matriz
es simétrica (wij = wji) y con la diagonal con valores nulos (wii = 0) al no haber
conexiones autorecurrentes.
1. Número limitado de entradas en la etapa de aprendizaje:
Si se almacenan demasiadas informaciones, durante su funcionamiento la red
puede converger a valores de salida diferentes de los aprendidos, con lo que la
tarea de asociación entre la información presentada y alguna de las almacenadas
se realiza incorrectamente. Esta situación no se produce nunca si el número de
informaciones almacenadas es menor o igual que N / (4lnN) siendo N el número
de neuronas de la red. Si se permite la posibilidad de un mínimo error en la
recuperación de las informaciones almacenadas, suficientemente pequeño para
poder identificar dicha infomación, el número de informaciones almacenadas
puede ascender por debajo de un 13,8 % del número de neuronas de la red.
2. Ortogonalidad de las informaciones aprendidas:
Si las informaciones almacenadas no son suficientemente diferentes entre sí (no son
ortogonales) puede ocurrir que ante una entrada la red no haga una asociación
correcta y genere una salida errónea, tal vez la salida correspondiente a otra entrada
aprendida que fuese muy parecida.
Lo que se debe conseguir es que las informaciones que se dan a la red durante la etapa
de aprendizaje sean ortogonales, lo cual ocurre si se cumple que cada par de patrones
de entrada difieren en, al menos N/2 componentes, siendo N el número total de
componentes por patrón. Esta condición puede expresarse como:
donde ei,k y ei,m son los valores binarios (+1 o -1) de los componentes i-ésimos de
dos vectores (patrones) diferentes (k y m) a almacenar en la red.
Esta condición de ortogonalidad que establece que dados dos patrones de entrada
deben diferir en al menos la mitad de sus componentes (distacia Hamming), puede ser
relajada, estableciendo una distancia mínima del 30% para que se garantice todavía un
funcionamiento aceptable.
Aplicaciones
En cuanto a las aplicaciones más conocidas de este modelo destacan las
relacionadas con el reconocimiento de imágenes y de voz, el control de motores y
sobre todo la resolución de problemas de optimización. En este último ámbito se
ha aplicado para la resolución de ecuaciones y del problema del viajante de
comercio, manipulación de grafos, procesado de señales (conversores analógico-
digitales) y de imágenes, etc.