RNA Perceptrón
RNA Perceptrón
RNA Perceptrón
Red Neuronal
Artificial:
Perceptrón
Cristian Felipe Cubillos
Juan Manuel Buriticá
Camilo Andrés Ortegón
Introducción
Utiliza funciones de activación más avanzadas, como sigmoide, ReLU (Rectified Linear Unit) y
tangente hiperbólica (tanh), que permiten capturar relaciones no lineales.
· Es capaz de resolver problemas no lineales, como el caso de la compuerta XOR.
· Utiliza el algoritmo de retropropagación del error para ajustar los pesos mediante descenso de
gradiente, optimizando el aprendizaje de la red.
Características Clave del
MLP
Los perceptrones son redes neuronales simples que procesan entradas ponderadas y aplican una
función de activación. La evolución al perceptrón multicapa permitió resolver problemas complejos
y dio paso a modelos más avanzados como las redes profundas (DNNs) y convolucionales (CNNs),
clave en la visión artificial.
Procesos de Entrenamiento
del Perceptrón
Existen diferencias en los métodos de entrenamiento entre el perceptrón monocapa y el perceptrón
multicapa, principalmente en la forma en que se actualizan los pesos y el tipo de problemas que
pueden resolver.
Entrenamiento del
Perceptrón Monocapa
El perceptrón monocapa sigue un proceso de aprendizaje basado en la regla de aprendizaje del
perceptrón, que ajusta los pesos en función del error cometido en cada iteración. Este método solo
es útil para problemas linealmente separables.
Pasos del Entrenamiento en
el Perceptrón Monocapa
1. Inicialización de pesos y sesgo: Se asignan valores aleatorios pequeños a los
pesos y al sesg.
2. Cálculo de la salida: Se realiza la suma ponderada de las entradas y se aplica
la función de activación (por ejemplo, la función escalón).
3. Cálculo del error: Se compara la salida obtenida con la salida esperada.
o Si la salida es correcta, no se realizan cambios.
o Si hay error, se actualizan los pesos.
4. Ajuste de los pesos y sesgo
5. Repetición del proceso: Se repiten los pasos hasta que el error sea mínimo o
se alcance un número máximo de iteraciones.
Ejemplo de Aplicación
Clasificación de datos en dos categorías, como distinguir entre correos spam y
no spam
Entrenamiento del
Perceptrón Multicapa (MLP)
utiliza el algoritmo de retropropagación del error
(backpropagation), que permite ajustar los pesos de manera
eficiente para resolver problemas más complejos, incluidos los
no linealmente separables.
Pasos del Entrenamiento en
el Perceptrón Multicapa
(MLP)
1. Inicialización: Se asignan pesos y sesgos aleatorios.
2. Propagación hacia adelante: Las entradas atraviesan la red,
aplicando funciones de activación en cada capa hasta
obtener una salida.
3. Cálculo del error: Se compara la salida obtenida con la
esperada.
4. Retropropagación: El error se propaga hacia atrás, ajustando
los pesos mediante gradientes y descenso de gradiente.
5. Repetición: El proceso continúa hasta minimizar el error o
lograr la convergencia.
Ejemplo de Aplicación: Reconocimiento de
imágenes, predicción de valores de mercado,
detección de fraudes financieros.
Los procesos de entrenamiento son clave para el éxito del perceptrón en
la resolución de problemas. Mientras que el perceptrón monocapa es útil
para tareas simples, el perceptrón multicapa, gracias a su capacidad de
retropropagación, permite enfrentar problemas más complejos en
inteligencia artificial.
1.Lenguajes y Bibliotecas Populares
Python (El lenguaje más utilizado en inteligencia
artificial
Lenguajes y Bibliotecas Populares
Lenguajes y Bibliotecas Populares
PyTorch
Lenguajes y Bibliotecas Populares
Scikit-learn
2. Plataformas Online para Construir Perceptrones
Google Colab
2. Plataformas Online para Construir Perceptrones