0% encontró este documento útil (0 votos)
0 vistas44 páginas

RNA Perceptrón

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 44

Inteligencia Artificial 802M

Red Neuronal
Artificial:
Perceptrón
Cristian Felipe Cubillos
Juan Manuel Buriticá
Camilo Andrés Ortegón
Introducción

Inspiradas en la estructura del cerebro


humano, estas redes están compuestas por
nodos interconectados que procesan
información y ajustan sus parámetros a
través del aprendizaje.
PERCEPTRóN

el perceptrón se considera uno de los


primeros y más fundamentales modelos de
RNA. Introducido por Frank Rosenblatt en
1958, el perceptrón fue diseñado como un
modelo computacional capaz de aprender
reglas de clasificación mediante
entrenamiento supervisado.
Arquitectura del
Perceptrón

Su arquitectura está inspirada en el funcionamiento de las neuronas


biológicas, donde las entradas representan señales que son procesadas y
transmitidas a una salida. Dependiendo de la cantidad de capas y
conexiones, podemos clasificar el perceptrón en monocapa y multicapa,
cada uno con sus propias características y aplicaciones.
Componentes principales
del Perceptrón
Perceptrón Monocapa

El perceptrón monocapa (o Perceptrón Simple) es el modelo más


básico de RNA. Está compuesto por tres elementos principales:

1. Capa de entrada: Recibe los datos de entrada (vectores


numéricos)
2. Función de suma ponderada: Multiplica cada entrada por su
peso correspondiente y realiza una suma de todos los valores
obtenidos
3. Función de activación: Aplica una transformación matemática al
resultado de la suma ponderada para generar la salida del modelo.
El perceptrón de una capa es una red neuronal feedforward con una función de umbral, capaz de clasificar
solo objetos linealmente separables con resultados binarios (0 y 1).

Limitaciones del Perceptrón


Monocapa ·
Solo puede resolver problemas linealmente separables,
como la compuerta lógica AND y OR. · No puede manejar
problemas complejos como el XOR, ya que no puede
aprender relaciones no lineales entre los datos.
PERCEPTRÓN MULTICAPA (MLP - MULTI-
LAYER PERCEPTRO
introduce capas ocultas entre la capa de entrada y la capa de salida.

b) Red Neuronal multicapa de propagación hacia adelante y


c) Red Neuronal multicapa recurrente
Estructura del Perceptrón
Multicapa

Un MLP está compuesto por:


1. Capa de entrada: Igual que en el perceptrón monocapa, recibe los datos de entrada y los envía a
la siguiente capa.
2. Capas ocultas: Aquí ocurre el procesamiento más complejo. Cada neurona en una capa oculta
está conectada con las neuronas de la siguiente capa mediante pesos ajustables.
3. Capa de salida: Genera el resultado final después de procesar las entradas a través de las capas
ocultas.
Características Clave del
MLP
El perceptrón multicapa opera en dos etapas: hacia adelante, donde las funciones de activación
fluyen desde la entrada hasta la salida, y hacia atrás, donde el error ajusta los pesos. A diferencia
del perceptrón de una capa, usa múltiples capas y funciones de activación no lineales para manejar
problemas más complejos.

Utiliza funciones de activación más avanzadas, como sigmoide, ReLU (Rectified Linear Unit) y
tangente hiperbólica (tanh), que permiten capturar relaciones no lineales.
· Es capaz de resolver problemas no lineales, como el caso de la compuerta XOR.
· Utiliza el algoritmo de retropropagación del error para ajustar los pesos mediante descenso de
gradiente, optimizando el aprendizaje de la red.
Características Clave del
MLP
Los perceptrones son redes neuronales simples que procesan entradas ponderadas y aplican una
función de activación. La evolución al perceptrón multicapa permitió resolver problemas complejos
y dio paso a modelos más avanzados como las redes profundas (DNNs) y convolucionales (CNNs),
clave en la visión artificial.
Procesos de Entrenamiento
del Perceptrón
Existen diferencias en los métodos de entrenamiento entre el perceptrón monocapa y el perceptrón
multicapa, principalmente en la forma en que se actualizan los pesos y el tipo de problemas que
pueden resolver.
Entrenamiento del
Perceptrón Monocapa
El perceptrón monocapa sigue un proceso de aprendizaje basado en la regla de aprendizaje del
perceptrón, que ajusta los pesos en función del error cometido en cada iteración. Este método solo
es útil para problemas linealmente separables.
Pasos del Entrenamiento en
el Perceptrón Monocapa
1. Inicialización de pesos y sesgo: Se asignan valores aleatorios pequeños a los
pesos y al sesg.
2. Cálculo de la salida: Se realiza la suma ponderada de las entradas y se aplica
la función de activación (por ejemplo, la función escalón).
3. Cálculo del error: Se compara la salida obtenida con la salida esperada.
o Si la salida es correcta, no se realizan cambios.
o Si hay error, se actualizan los pesos.
4. Ajuste de los pesos y sesgo
5. Repetición del proceso: Se repiten los pasos hasta que el error sea mínimo o
se alcance un número máximo de iteraciones.
Ejemplo de Aplicación
Clasificación de datos en dos categorías, como distinguir entre correos spam y
no spam
Entrenamiento del
Perceptrón Multicapa (MLP)
utiliza el algoritmo de retropropagación del error
(backpropagation), que permite ajustar los pesos de manera
eficiente para resolver problemas más complejos, incluidos los
no linealmente separables.
Pasos del Entrenamiento en
el Perceptrón Multicapa
(MLP)
1. Inicialización: Se asignan pesos y sesgos aleatorios.
2. Propagación hacia adelante: Las entradas atraviesan la red,
aplicando funciones de activación en cada capa hasta
obtener una salida.
3. Cálculo del error: Se compara la salida obtenida con la
esperada.
4. Retropropagación: El error se propaga hacia atrás, ajustando
los pesos mediante gradientes y descenso de gradiente.
5. Repetición: El proceso continúa hasta minimizar el error o
lograr la convergencia.
Ejemplo de Aplicación: Reconocimiento de
imágenes, predicción de valores de mercado,
detección de fraudes financieros.
Los procesos de entrenamiento son clave para el éxito del perceptrón en
la resolución de problemas. Mientras que el perceptrón monocapa es útil
para tareas simples, el perceptrón multicapa, gracias a su capacidad de
retropropagación, permite enfrentar problemas más complejos en
inteligencia artificial.
1.Lenguajes y Bibliotecas Populares
Python (El lenguaje más utilizado en inteligencia
artificial
Lenguajes y Bibliotecas Populares
Lenguajes y Bibliotecas Populares

PyTorch
Lenguajes y Bibliotecas Populares

Scikit-learn
2. Plataformas Online para Construir Perceptrones

Google Colab
2. Plataformas Online para Construir Perceptrones

IBM Watson Studio


2. Plataformas Online para Construir Perceptrones

Teachable Machine (de


Google)
3. Frameworks para Redes Neuronales Avanzadas

Además de TensorFlow y PyTorch, existen otros frameworks


avanzados que pueden utilizarse para desarrollar modelos de
perceptrones más sofisticados:

· Keras (una API amigable sobre TensorFlow).


· Caffe (enfocado en visión por computadora).
· Theano (uno de los primeros frameworks de deep learning,
aunque actualmente menos utilizado).
Aplicaciones del Perceptrón Monocapa
El perceptrón monocapa solo puede resolver problemas
linealmente separables, por lo que sus aplicaciones están
limitadas a tareas simples de clasificación y reconocimiento de
patrones básicos.
Clasificación Binaria de Datos

Ejemplo: Un sistema que distingue entre correos electrónicos


legítimos y spam basándose en palabras clave.
Reconocimiento de
Patrones Simples
Ejemplo: Un detector de formas geométricas en imágenes
básicas.
Aplicaciones Industriales
Sencillas
Ejemplo: Un sistema que clasifica productos defectuosos en una
línea de producción.
2. Aplicaciones del
Perceptrón Multicapa

El perceptrón multicapa (MLP) es capaz de resolver problemas


no linealmente separables, por lo que se usa en tareas más
complejas de aprendizaje profundo y análisis de datos.
Visión por Computadora y
Reconocimiento de Imágenes
Ejemplo: Google Photos clasifica imágenes usando redes
neuronales multicapa.
Procesamiento del Lenguaje
Natural (NLP
Ejemplo: Chatbots de atención al cliente usan perceptrones
multicapa para entender y responder preguntas.
Aplicaciones Médicas
Ejemplo: Un sistema de inteligencia artificial que detecta
tumores en imágenes de resonancia magnética.
Predicción y Modelado
Financiero
Ejemplo: Visa usa redes neuronales para identificar patrones
fraudulentos en pagos con tarjeta.
Robótica e Industria 4.0
Ejemplo: Tesla entrena redes neuronales para la conducción
autónoma de vehículos.
Inteligencia Artificial en
Videojuego
OpenAI desarrolló bots con redes neuronales para competir en
Dota 2.
Conclusiones
1) El perceptrón fue clave en la
inteligencia artificial y el
aprendizaje automático, aunque
inicialmente solo resolvía
problemas lineales. La evolución al
perceptrón multicapa (MLP), con
capas ocultas y retropropagación,
permitió abordar problemas más
complejos.
Conclusiones
2) El perceptrón monocapa solo
resuelve problemas lineales,
mientras que el perceptrón
multicapa modela relaciones no
lineales, siendo clave en
reconocimiento de patrones,
clasificación de datos y predicción
en sistemas dinámicos.
Conclusiones
3) El entrenamiento del perceptrón con
descenso de gradiente y retropropagación
ha mejorado su precisión y eficiencia,
permitiendo su uso en visión artificial,
procesamiento de lenguaje y análisis de
datos. Su evolución ha sido clave en la
inteligencia artificial, sentando las bases
para redes neuronales profundas (DNNs) y
convolucionales (CNNs) en el aprendizaje
profundo.
Referencias
AprendeIA. (s.f.). ¿Qué es el perceptrón simple y multicapa? AprendeIA. Recuperado
https://aprendeia.com/que-es-el-perceptron-simple-y-multicapa/
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.
Haykin, S. (2009). Redes neuronales y máquinas de aprendizaje (3ª ed.). Pearson
Education.
Rosenblatt, F. (1958). El perceptrón: Un modelo probabilístico para el
almacenamiento y organización de la información en el cerebro. Psychological
Review, 65(6), 386–408. https://doi.org/10.1037/h0042519
Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Aprendizaje de
representaciones mediante retropropagación del error. Nature, 323(6088), 533–536.
Ensuring the responsible collection, use, and protection of sensitive data is crucial for
ethical AI applications.
Schmidhuber, J. (2015). Aprendizaje profundo en redes neuronales: Una visión
general. Neural Networks, 61, 85–117. Ensuring the responsible collection, use, and
protection of sensitive data is crucial for ethical AI applications.
¿Alguna
pregunta?
Gracias por su
atención

También podría gustarte