PL3 ETN Ecoharitac

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 5

Nombre: Edwin Jhonny Coharita Callisaya Docente: Ing. Cesar Fernando Lozano M.

c.i.: 4852116 L.P. N° Grupo: 9


Fecha: 07/10/2022 Tipo Doc.: Pre informe

PREINFORME N° 3

EL PERCEPTRON

1. ANTECEDENTES.

Arquitecturas y Aplicaciones de las Redes Neuronales más usadas.


Vamos a hacer un repaso por las diversas estructuras inventadas, mejoradas y utilizadas
a lo largo de la historia para crear redes neuronales y sacar el mayor potencial al Deep
Learning para resolver toda clase de problemas de regresión y clasificación.

Entre las décadas de 1950 y 1960 el científico Frank Rosenblatt, inspirado en el trabajo
de Warren McCulloch y Walter Pitts creó el Perceptron, la unidad desde donde nacería y
se potenciarían las redes neuronales artificiales.

Un perceptron toma varias entradas binarias x1, x2, etc y produce una sóla salida
binaria. Para calcular la salida, Rosenblatt introduce el concepto de “pesos” w1, w2, etc,
un número real que expresa la importancia de la respectiva entrada con la salida. La
salida de la neurona será 1 o 0 si la suma de la multiplicación de pesos por entradas es
mayor o menor a un determinado umbral.

Sus principales usos son decisiones binarias sencillas, o para crear funciones lógicas
como OR, AND.
Neuronas Sigmoides
Para poder lograr que las redes de neuronas aprendieran solas fue necesario introducir
un nuevo tipo de neuronas. Las llamadas Neuronas Sigmoides son similares al
perceptron, pero permiten que las entradas, en vez de ser ceros o unos, puedan tener
valores reales como 0,5 ó 0,377 ó lo que sea. También aparecen las neuronas “bias”
que siempre suman 1 en las diversas capas para resolver ciertas situaciones. Ahora las
salidas en vez de ser 0 ó 1, será d(w . x + b) donde d será la función sigmoide definida
como d(z) = 1/( 1 +e-z). Esta es la primera función de activación.

Gracias al algoritmo de backpropagation se hizo posible entrenar redes neuronales de


multiples capas de manera supervisada. Al calcular el error obtenido en la salida e ir
propagando hacia las capas anteriores se van haciendo ajustes pequeños (minimizando
costo) en cada iteración para lograr que la red aprenda consiguiendo que la red pueda -
por ejemplo- clasificar las entradas correctamente.
Se suele dividir en 3 etapas, del 40 al 70 en donde se pasó del asombro de estos
nuevos modelos hasta el escepticismo, el retorno de un invierno de 10 años cuando en
los ochentas surgen mejoras en mecanismos y maneras de entrenar las redes
(backpropagation) y se alcanza una meseta en la que no se puede alcanzar la
“profundidad” de aprendizaje seguramente también por falta de poder de cómputo. Y una
tercera etapa a partir de 2006 en la que se logra superar esa barrera y aprovechando el
poder de las GPU y nuevas ideas se logra entrenar cientos de capas jerárquicas que
conforman y potencian el Deep Learning y dan una capacidad casi ilimitada a estas
redes.

Hay nuevos estudios de las neuronas humanas biológicas en las que se está
redescubriendo su funcionamiento y se está produciendo una nueva revolución, pues
parece que es totalmente distinto a lo que hasta hoy conocíamos. Esto puede ser el
principio de una nueva etapa totalmente nueva y seguramente mejor del Aprendizaje
Profundo, el Machine Learning y la Inteligencia Artificial.

2. OBJETIVO.

Elaborar en Matlab el modelo de perceptrón para reconocimiento de números


hexadecimales en 7 segmentos.

3. MARCO TEORICO.

Una neurona sola y aislada carece de razón de ser. Su labor especializada se torna valiosa
en la medida en que se asocia a otras neuronas, formando una red. Normalmente,
el axón de una neurona entrega su información como "señal de entrada" a una dendrita
de otra neurona y así sucesivamente.

El perceptrón que capta la señal en adelante se extiende formando una red de neuronas,
sean éstas biológicas o de sustrato semiconductor (compuertas lógicas).
El perceptrón usa una matriz para representar las redes neuronales y es un discriminador
terciario que traza su entrada (un vector binario) a un único valor de salida (un solo valor
binario) a través de dicha matriz.
4. MARCO PRÁCTICO.

Para el presente laboratorio usamos siete entradas que corresponden a los siete
segmentos que usaremos para representar los valores propuestos.

Las siguientes tablas muestran los valores correctos en la tabla enmarcada y los valores
alterados en la tabla sin recuadro.

N° a b c d e f g N° a b c d e f g
0 1 1 1 1 1 1 0 0 1 1 1 1 1 0 0
1 0 1 1 0 0 0 0 1 0 1 1 1 0 0 0
2 1 1 0 1 1 0 1 2 1 1 0 1 0 0 1
3 1 1 1 1 0 0 1 3 1 1 1 0 0 0 1
4 0 1 1 0 0 1 1 4 0 1 0 0 0 1 1
5 1 0 1 1 0 1 1 5 0 0 1 1 0 1 1
6 1 0 1 1 1 1 1 6 1 0 1 1 1 1 0
7 1 1 1 0 0 0 0 7 1 1 0 0 0 0 0
8 1 1 1 1 1 1 1 8 1 1 1 1 1 0 1
9 1 1 1 0 0 1 1 9 1 1 0 0 0 1 1
A 1 1 1 0 1 1 1 A 1 1 1 0 1 1 0
b 0 0 1 1 1 1 1 b 0 0 1 1 1 0 1
C 1 0 0 1 1 1 0 C 0 0 0 1 1 1 0
d 0 1 1 1 1 0 1 d 0 0 1 1 1 0 1
E 1 0 0 1 1 1 1 E 1 0 0 1 1 1 0
F 1 0 0 0 1 1 1 F 1 0 0 0 1 1 0
También tenemos las salidas para los números codificados


0 0 0 0 0
1 0 0 0 1
2 0 0 1 0
3 0 0 1 1
4 0 1 0 0
5 0 1 0 1
6 0 1 1 0
7 0 1 1 1
8 1 0 0 0
9 1 0 0 1
A 1 0 1 0
b 1 0 1 1
C 1 1 0 0
d 1 1 0 1
E 1 1 1 0
F 1 1 1 1

5. APLICACION.
6. BIBLIOGRAFIA.

- https://www.aprendemachinelearning.com
- Resultados de la búsqueda para «PERCPTRON» - Wikipedia, la enciclopedia libre

También podría gustarte