Torres Muñoz Juan Camilo 2019
Torres Muñoz Juan Camilo 2019
Torres Muñoz Juan Camilo 2019
ARQUITECTURAS NEURONALES
Director:
ANDRES EDUARDO GAONA BARRERA
Profesor Asistente – Facultad de Ingeniería
Para llevar a cabo el desarrollo del modelo de redes neuronales caóticas, primero
se llevó a cabo un análisis del comportamiento que presenta cuando en la capa oculta
se encuentra únicamente una capa caótica, mientras se variaba el tipo de caos y sus
parámetros. Luego se utilizaron los resultados obtenidos, con el fin de encontrar los
valores que pueden tomar los parámetros de las señales caóticas para que el modelo
presente buen desempeño y así medir la sensibilidad del modelo, para determinar
el espacio de llaves para cada una de las diferentes series de tiempo caóticas. Fi-
nalmente y basados en los resultados de los dos puntos anteriores se llevó a cabo
un análisis del comportamiento del modelo con arquitecturas de dos, tres y cuatro
capas caóticas en la capa oculta. Los resultados muestran que a medida que se
aumenta el número de capas caóticas se mejora el desempeño pero que esa mejora
tiende a ser cada vez menor y no resulta justificable para la cantidad de recursos
que necesita, por lo que el modelo ideal es una arquitectura con tres capas caóticas.
En cuanto al modelo que emula el algoritmo DES, se generó el modelo a partir del
algoritmo original. Puesto que no se han utilizado redes neuronales anteriormente,
se desea conocer si es posible emular el comportamiento de esta algoritmo con una
red neuronal de tipo feedforward. Por este motivo, se hace uso del algoritmo para
generar una base de datos de entrenamiento que luego será utilizada para llevar a
cabo la generación del modelo de cifrado. Luego se lleva a cabo el entrenamiento de
del modelo a partir de la base de datos generada previamente. Los resultados del
modelo logran el objetivo propuesto puesto que cifran de forma correcta las señales
de prueba propuestas.
Contenido
Resumen i
1 Generalidades 1
1.1 Planteamiento del Problema . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Alcances y Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Alcances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Marco Teórico 8
2.1 Criptografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Criptosistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Criptografía simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Data Encryption Standard (DES) . . . . . . . . . . . . . . . . 11
2.3.1.1 Simplified Data Encryption Standard (SDES) . . . . 13
2.3.1.2 Triple DES (3DES) . . . . . . . . . . . . . . . . . . 14
2.3.2 Advanced Encryption Standard (AES) . . . . . . . . . . . . . 15
2.4 Criptografía asimétrica . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4.1 Rivest, Shamir y Adleman (RSA) . . . . . . . . . . . . . . . . 17
2.4.2 Criptografía ElGamal . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Parámetros de desempeño . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.1 NCPR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.2 UACI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.3 Correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.4 Entropía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.5 Información mutua promedio (AMI) . . . . . . . . . . . . . . 20
iii
2.6 Redes neuronales artificiales . . . . . . . . . . . . . . . . . . . . . . . 20
2.6.1 Perceptron . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.1.1 Funciones de transferencia . . . . . . . . . . . . . . 23
2.6.2 Arquitecturas neuronales . . . . . . . . . . . . . . . . . . . . . 25
2.6.2.1 Redes neuronales feedforward . . . . . . . . . . . . . 26
2.6.2.2 Redes neuronales recurrentes . . . . . . . . . . . . . 27
2.6.2.3 Redes neuronales caóticas . . . . . . . . . . . . . . . 28
6 Conclusiones 139
6.1 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2 Trabajo futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
viii
3.15 AMI de Faro usando el mapa cuadrático . . . . . . . . . . . . . . . . 51
3.16 NPCR de Camerman usando el mapa de Ikeda . . . . . . . . . . . . . 52
3.17 Correlación lineal de Cameraman usando el mapa de Ikeda . . . . . . 53
3.18 UACI de Cameraman usando el mapa de Ikeda . . . . . . . . . . . . 54
3.19 ∆Entropía de Cameraman usando el mapa de Ikeda . . . . . . . . . . 55
3.20 AMI de Cameraman usando el mapa de Ikeda . . . . . . . . . . . . . 56
3.21 NPCR de Voz en español usando el mapa de Ikeda . . . . . . . . . . 57
3.22 Correlación lineal de Voz en español usando el mapa logístico . . . . 58
3.23 UACI de Voz en español usando el mapa de Ikeda . . . . . . . . . . . 59
3.24 ∆Entropía de Voz en español usando el mapa de Ikeda . . . . . . . . 60
3.25 AMI de Voz en español usando el mapa de Ikeda . . . . . . . . . . . 61
3.26 Imágenes de prueba de la sensibilidad. Parámetro r . . . . . . . . . . 62
3.27 Desencriptación variando el parámetro r . . . . . . . . . . . . . . . . 63
3.28 Imágenes de prueba de la sensibilidad. Parámetro xn . . . . . . . . . 64
3.29 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 65
3.30 Cifrado usando el mapa cuadrático . . . . . . . . . . . . . . . . . . . 66
3.31 Desencriptación variando el parámetro c . . . . . . . . . . . . . . . . 67
3.32 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 68
3.33 Cifrado utilizando el mapa de Ikeda (X) . . . . . . . . . . . . . . . . 69
3.34 Desencriptación variando el parámetro u . . . . . . . . . . . . . . . . 70
3.35 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 71
3.36 Desencriptación variando el parámetro yn . . . . . . . . . . . . . . . 73
3.37 Cifrado utilizando el mapa de Ikeda (Y) . . . . . . . . . . . . . . . . 74
3.38 Desencriptación variando el parámetro u . . . . . . . . . . . . . . . . 75
3.39 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 76
3.40 Desecnriptación variando el parámetro yn . . . . . . . . . . . . . . . 77
3.41 Cifrado multicapa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.42 Histograma de la correlación para redes de dos capas . . . . . . . . . 80
3.43 Histograma de la AMI para redes de dos capas . . . . . . . . . . . . . 81
3.44 Histograma de la correlación para redes de tres capas . . . . . . . . . 82
3.45 Histograma de la AMI para redes de tres capas . . . . . . . . . . . . 83
3.46 Histograma de la correlación para redes de cuatro capas . . . . . . . 84
3.47 Histograma de la AMI para redes de cuatro capas . . . . . . . . . . . 85
xiii
4.2 Exploración solución red neuronal con dimensión de llaves y mensajes
de 11 bits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.3 Exploración solución red neuronal con dimensión de mensajes y llaves
de 10 bits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.4 Exploración solución red neuronal con dimensión de mensajes de 8
bits y llaves de 6 bits . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.5 N° de experimentos, usando BFGS . . . . . . . . . . . . . . . . . . . 101
4.6 N° de experimentos, usando CGB . . . . . . . . . . . . . . . . . . . . 110
4.7 Tiempos en segundos de cifrado y descifrado, para señales de audio . 117
4.8 Tiempos en segundos de cifrado y descifrado, para imagenes . . . . . 117
4.9 Desviación y media del NPCR en DES Neuronal . . . . . . . . . . . . 122
4.10 Desviación y media de la correlación en DES Neuronal . . . . . . . . 123
4.11 Desviación y media de UACI en DES Neuronal . . . . . . . . . . . . 124
4.12 Desviación y media de entropía en DES Neuronal . . . . . . . . . . . 125
4.13 Desviación y media de AMI con DES Neuronal . . . . . . . . . . . . 126
Se presentan los aspectos del proyecto realizado como el planteamiento del problema,
los objetivos que se esperan cumplir, la justificación y los alcances y limitaciones del
mismo.
1
1.1 Planteamiento del Problema
Actualmente el mundo gira alrededor de la información, la cual se encuentra en
mayor medida en forma digital y cuya transmisión se hace a través de canales que
suelen ser públicos. Recientemente ha ido en aumento el almacenamiento de gran
parte de la información en la nube, es decir se confía la información a sistemas de
terceros [1], [2]. Es por esto que la privacidad de la información se ha convertido en
una característica que se busca y se trata de mejorar a diario. Por la importancia
que esta representa, es frecuente encontrarse con ataques que buscan vulnerar esa
privacidad y obtener la información [3].
2
con sus generales [16]. En la actualidad se usa en una gran cantidad de sistemas
que manejan información digital con el fin de mantenerla privada [17]. Este método
brinda importantes ventajas como confidencialidad, autenticidad e integridad de la
información [16]. Su modificación y desarrollo se ha dado como consecuencia de la
búsqueda de aquellos que se ingenian métodos para romper los algoritmos y conseguir
la información y aquellos interesados en protegerla, haciendo así que, los algoritmos
pierdan seguridad con el paso del tiempo y sean desarrollados algoritmos nuevos [18].
A través de la historia, la naturaleza y los procesos que se ven en ella han servido
de inspiración para el planteamiento de soluciones a un gran número de problemas
de la vida cotidiana, como problemas de organización o de planificación[20]-[23].
Además en problemas de ingeniería como la sintonización de parámetros de un con-
trol PID o problemas de optimización [24],[25],[26]. Los sistemas que logran emular
comportamientos de este tipo, se conocen como sistemas bioinspirados. Estos sis-
temas han mostrado su aplicabilidad en el planteamiento de alternativas que buscan
resolver problemas contemporáneos, a los cuales difícilmente se les logra dar solu-
ción con la aplicación de modelos físicos o matemáticos típicos [27]. Dentro de esos
sistemas se encuentran los algoritmos evolutivos, las redes neuronales, los algoritmos
de colonia de hormigas y otros [28],[29],[30].
Uno de los modelos bioinspirados más utilizados son las redes neuronales artifi-
3
ciales. El desarrollo e investigación de las redes neuronales, las han convertido en
una herramienta con múltiples aplicaciones. Basadas en el modelamiento biológico
y con características que no se presentan normalmente en los sistemas como el
auto-aprendizaje, la capacidad de ser entrenadas para obtener resultados esperados;
además de la capacidad de implementar un sistema tan robusto como la aplicación
lo solicite, hace que las redes neuronales se presenten como una buena alternativa
para la solución de problemas [31].
1.2 Justificación
La criptografía se utiliza con el fin de proteger información, debido a la importancia
y al valor de los datos para un individuo, una empresa u organizaciones privadas o
públicas. El uso de la criptografía se convierte en una opción importante en sistemas
de comunicación y de almacenamiento. En sistemas de comunicación es importante
sobretodo en caso de utilizar canales que presentan vulnerabilidades de seguridad
pues brinda confidencialidad e integridad en la información que se transmite [16].
4
De la misma manera, y con el fin de proteger la información personal que se encuen-
tran en sistemas de almacenamiento se utiliza la criptografía [8],[15].
En [32] se evidenció que la red neuronal feedforward con la que emulan el al-
goritmo presenta un gran desempeño, pues presenta una eficacia del 100% y tras
entrenar la red, el tiempo de cifrado disminuye notablemente, lo que permite ob-
servar la ventaja descrita anteriormente. Esta disminución del tiempo y reducción
de la complejidad con respecto a los algoritmos tradicionales, permitiría su uso en
dispositivos móviles para aplicaciones de mensajería instantánea.
5
y sus ventajas en el campo de la criptografía.
1.3 Objetivos
1.3.1 Objetivo General
Comparar e identificar las bondades que presentan dos diferentes arquitecturas neu-
ronales; feedforward y caóticas, aplicadas a la encriptación simétrica de señales.
3.2.2 Implementar el algoritmo DES por medio de una red neuronal de tipo feed-
forward.
1.4.2 Limitaciones
• Para evaluar el desempeño de los modelos neuronales propuestos, se tomará
como señales de estudio un grupo de señales de audio y un conjunto de imá-
6
genes por lo cual las conclusiones estarán limitadas a estos conjuntos.
7
2. Marco Teórico
8
2.1 Criptografía
La palabra criptografía proviene del griego kryptos, ”oculto”, y grafos, ”escritura”;
es decir, significa ”escritura oculta”. Por otro lado, la Real Academia Española
(RAE), define la criptografía como “Arte de escribir con clave secreta o de un modo
enigmático” [51].
2.2 Criptosistema
Un criptosistema es el conjunto de procedimientos de encriptación, envío y descen-
criptación, que garantizan la seguridad y la privacidad de la información. Este se
modela mediante una quíntupla (M,C,K,E,D) [56], donde:
• M, conjunto de todos los mensajes que pueden ser enviados (texto plano).
9
• E, conjunto o familia de funciones o transformaciones, que pueden ser aplicados
a M para poder producir C. Existe una transformación diferente Ek para cada
valor posible de la clave k.
10
Kc = K d (2.2)
11
Figura 2.3: Generación de las subllaves
Antes de cada ronda, el bloque se divide en dos bloques de 32 bits que se procesan
de forma alterna. Este proceso se conoce como esquema de Feistel, y proporciona
un proceso de encriptación y desencriptación casi iguales. La diferencia radica en
que las subllaves se aplican de forma inversa al desencriptar. En la figura 2.4, se
puede observar la función de Feistel.
12
2. Mezcla: Por medio de la función XOR se combina el resultado de la expansión
con la subllave correspondiente a la ronda.
13
El algoritmo toma un mensaje de 8 bits junto con una llave de 10 bits como
entrada y produce un criptograma de 8 bits, como se observa en la figura 2.5. Para
la generación de las subllaves, se parte de la llave, como se ve en la figura 2.5b, y se
realiza una permutación inicial (P10), después parte la llave en dos mitades de 5 bits,
realiza corrimientos (LS-1) y permutaciones (P8). Al igual que el DES, se realiza
por rondas, en este caso son dos y se alternan las mitades, esto se ve representado
en el bloque SW, para la realización de las dos rondas (fk ) se usan las subllaves
generadas, además presenta las permutaciones al inicio y al final (IP, IP − 1). Como
es posible ver en la figura 2.5a la función fk , tiene las mismas partes de la función de
Feistel del DES, Expansión(E/P), la Mezcla, la Sustitución (S0,S1) y la Permutación
(P4). El algoritmo SDES para encriptar, se puede modelar a partir de la ecuación
2.3 y para desencriptar con la ecuación 2.4.
Es una variante del DES que fue desarrollado en 1998, tras descubrir que el tamaño
de clave del DES no era lo suficientemente largo para evitar un ataque de fuerza
bruta [16],[55]. El 3DES consiste en aplicar 3 veces el DES variando la clave, lo
que significa un aumento del tamaño de la clave de 56 a 168 bits, que representa
un progreso notable en cuestiones de seguridad [62]. El 3DES se puede modelar a
partir de la ecuación 2.5 [62].
Donde:
• C: Texto cifrado
• M: Texto claro
14
2.3.2 Advanced Encryption Standard (AES)
El algoritmo AES es un algoritmo de criptografía simétrica, también conocido como
Rijndael, desarrollado por Vincent Rijmen y Joan Daemen en 1997 y oficializado
como estándar en el año 2001 [64],[65]. A diferencia del DES, AES no es una red de
Feistel sino una red de sustitución-permutación, su llave aumenta considerablemente
de tamaño así mismo es variable puesto que se pueden utilizar llaves de 128, 192 y
256 bits, también aumenta el tamaño del mensaje a 128 bits.
AES representa el mensaje en 16 bytes y los ordena en una matriz de 4x4 bytes,
denominada ”estado”, sobre la cual opera [66]. El algoritmo funciona mediante un
número de rondas que ejecutan 4 diferentes operaciones, AddRoundKey; SubBytes;
ShiftRows y MixColumns, el número de rondas depende del tamaño de la llave, 10
para claves de 128 bits, 12 para 192 y 14 para 256 [59],[67]. El primer paso es realizar
la expansión de la llave con el fin de obtener las subllaves. Tras esto, se comienza
con las rondas , que constan de 4 pasos:
1. AddRoundKey: Cada byte del ”estado” se combina mediante una XOR con
una subllave, así como se puede apreciar en la figura 2.6
2. SubBytes: Se realiza una sustitución no lineal donde cada byte del estado es
reemplazado con otro según una tabla. Es posible apreciar este proceso en la
figura 2.7.
3. ShiftRows: Los bytes de cada fila del estado se rotan de manera cíclica hacia
15
la izquierda un número de lugares diferente para cada fila, así como se muestra
en la figura 2.8.
Kc ̸= Kd (2.6)
16
pública para que el remitente ecripte el mensaje, mientras que la llave privada la
mantendrá en secreto para posteriormente desencriptar el mensaje[58],[59]. Así, no
resulta importante si alguien intercepta el mensaje y la clave pública, pues sin la
clave privada no podrá ser desencriptado [58]. Por lo tanto la mayor ventaja que
presentan estos sistemas es la facilidad para la distribución de las llaves [55],[59].
Para la implementación del algoritmo son necesarios dos números primos grandes,
a partir de los cuales se van a generar ambas llaves [55],[58],[59],[70]. El proceso de
generación de llaves se realiza el siguiente procedimiento:
4. Escoger un entero positivo e, menor que ϕ(n) y que además sea coprimo.
c = me mod(n) (2.7)
17
m = cd mod(n) (2.8)
3. A calcula K = g a (mod(p)).
1. Una vez A tiene el mensaje (y1 , y2 ), usa la clave privada a para recuperar el
mensaje, calculando
m = y1p−1−a ∗ y2 (mod(p))
18
2.5 Parámetros de desempeño
2.5.1 NCPR
El NPCR (Number of Pixels Change Rate) es la comparación entre la imagen original
a cifrar y su correspondiente par cifrada. Determina la cantidad de píxeles que
cambian tras el proceso de cifrado y se modela basado en las ecuaciones 2.9 y 2.10
[74],[75]. Donde P es la imagen original y C es la imagen cifrada.
0 si P (i, j) = C(i, j)
D(i, j) = (2.9)
1 si P (i, j) ̸= C(i, j)
∑ D(i, j)
N P CR = ∗ 100% (2.10)
i,j M ∗N
2.5.2 UACI
El UACI (Unified Average Change Intensity) es la comparación entre el resultado
del cifrado de una imagen utilizando dos llaves diferentes con variaciones pequeñas
entre ellas. Determina la intensidad promedio que varían los píxeles entre ambas
imágenes y se modela basado en la ecuación 2.11 [74],[75]. Donde C1 y C2 son
imágenes cifradas con dos llaves diferentes y de diferencias mínimas.
2.5.3 Correlación
El coeficiente de correlación (ρ) de dos variables es una medida de su dependencia
lineal, y está definido por la ecuación 2.12 [76].
cov(X, Y )
ρ(X, Y ) = (2.12)
σX σY
2.5.4 Entropía
La entropía de la información mide la incertidumbre de un mensaje. Esta también
se puede considerar como la cantidad promedio de información que se puede obtener
de una variable aleatoria. Esta se define según la ecuación 2.13 [19],[77],[78].
19
∑
k ( )
1
H(X) = pxi log2 (2.13)
i=1 xi
20
Figura 2.10: Esquena neuronas biológicas [81]
21
2.6.1 Perceptron
El perceptron es el modelo de una neurona artificial, el cual se puede observar en
la figura 2.11, donde se cuenta con las entradas xn , que son multiplicadas por su
correspondiente valor escalar, el cual corresponde a un peso wn , el resultado de las
multiplicaciones es sumado, junto con un valor bias b, generando un valor y, para
luego ser pasado por una función que denominaremos función de transferencia f (la
cual cuenta generalmente con características no lineales), para finalmente generar la
salida z [79][81][83].
∑
z = f( xi Wi + b) (2.15)
i=0,n
22
2.6.1.1 Funciones de transferencia
Limitador Duro :
Esta función la podemos observar en la figura 2.12 (a) donde lo que se tiene es,
que si la entrada es inferior a 0 la salida es 0, y si la entrada es mayor a 0 la salida
será 1 [80] [81]. Por otro lado en la figura 2.12 (b), tenemos los efectos que causan
los pesos y el bias de la neurona, en la función, donde lo que hacen es, establecer el
valor del umbral de la función, donde esta pasa de ser 0 a ser 1[80] [81]. Esta función
es usada comúnmente para problemas que requieran una clasificación binaria [81].
Función lineal :
Esta función es muy simple, ya que la salida de la función es igual a la entrada
de manera que:
a=n (2.16)
23
Figura 2.13: función de transferencia lineal [81]
Logaritmica - sigmoidal :
Esta función corresponde a la expresión:
Esta función toma cualquier valor de entrada, y genera una salida entre 0 y 1,
con un cambio suave, como podemos observar en la figura 2.14. En la figura 2.14 (b)
se observa como los pesos y el bias, determinan en qué valor se centrara la función
respecto a la entrada[81] . Esta es una de las funciones más usadas especialmente
para algoritmos de entrenamiento como el backpropagation[80].
24
Figura 2.15: función de transferencia Hiperbolica - Tangenciall [81]
Otras funciones usadas como funciones de transferencia son las que se observan
en la tabla 2.1.
Nombre Función
a = −1, n < 0
Limitador duro simetrico
a = 1, n >= 0
a = 0, n < 0
Lineal saturada a = n, 0 <= n <= 1
a = 1, n > 1
a = −1, n < −1
Lineal saturada simetrica a = n, −1 <= n <= 1
a = 1, n > 1
a = 0, n < 0
Lineal positiva
a = n, 0 >= n
a = Ae−Bn
2
Gaussiana
Sinusoidal a = ASen(wn + φ)
25
como se observa en el ejemplo de la figura 2.16 [81][85] , cada capa puede tener
cualquier número de neuronas, y se tienen tres tipos distintos de capas, la capa de
entrada, que como su nombre lo indica es la capa donde se conectan las variables de
entrada, las capas ocultas que no tienen conexión directa con las entradas o salidas,
y la capa de salida, cuyas salidas son equivalentes al resultado generado por la red
neuronal[79][81] [85].
Una red neuronal artificial es finalmente una estructura que conecta de manera
masiva y paralela neuronas para generar una capa de salida a partir de unas entradas
como se puede observar en (2.19)[79][82].
y = f (x) (2.19)
Dónde:
x = (x1 , x2 , x3 , , xn ), y = (y1 , y 2 , y 3 , , yn )
26
Las redes neuronales feedforward han sido ampliamente usada en criptografía,
y se han abordado dos enfoques, el primero es usar algoritmos estándares para
criptografía, pero se incluyen en sus cajas de permutaciones o sustituciones, redes
neuronales que cumplen la labor de aumentar la complejidad de los algoritmos,
mediante el fortalecimiento de las permutaciones y sustituciones como se observa
para el caso del artículo [85] en el cual se propone una red neuronal en la cual
los pesos de las sinapsis son equivalentes a la llave usada, y la red cuenta con 16
entradas, donde cada una equivale a un byte y genera un byte de salida cumpliendo la
función de caja de sustitución, el artículo [84] de manera similar propone un complejo
algoritmo para establecer los pesos de la red y generar una caja de sustituión.
El otro enfoque que se le ha dado a las redes neuronales feedforward en crip-
tografía es, a partir de un algoritmo preestablecido, construir una base de datos con
llaves, información y información cifrada, y a partir de este generar la emulación del
algoritmo usando redes neuronales, como en el caso del artículo [87], donde crean
un criptosistema asimétrico, donde crean un algoritmo basado en lógica booleana,
para encriptar los datos y se usa la red neuronal para que a partir de los datos
generados por el algotitmo booleano sea entrenada usando las salida del algoritmo
como entrada de la red y la entrada del algoritmo como salida, y así realizar la des-
encriptación, usando la estructura de la red y los pesos de esta como llave privada,
similar a lo realizado en el artículo [82], pero partiendo de distintos algoritmos. En el
artículo [86] se tiene una propuesta donde se reemplaza completamente un algoritmo,
por la red neuronal, tanto para encriptación como para desencriptación, y demuestra
ventajas en la relación de latencia y seguridad, comparado con el algoritmo AES.
También se encuentra en uso de redes neuronales feedforward no solo para el he-
cho de proteger la información, sino para poder acceder a ella usando criptoanálisis,
como se hace en el artículo [32], donde se parte del algoritmo “Simplified Data En-
cription Standard”(SDES), y se genera una base de datos con las entradas, salidas
y llaves del algoritmo, con el fin de usar las entradas y salidas del algoritmo, como
entradas de la red neuronal, y tener como salida las llaves, para una vez entrenada
la red neuronal sea capaz de obtener las llaves de los datos cifrados.
Una red neuronal recurrente tiene la estructura básica de una red neuronal feedford-
ward, sin embargo adicionalmente cuenta con la posibilidad de tener una sinapsis
que conecte, la salida de una neurona que no pertenezca a la capa de entrada (gen-
27
eralmente alguna o todas las neuronas de la capa de salida), con la entrada de una
neurona que se encuentre en una capa anterior como se puede observar en la figura
2.17 [79] [81]. Estas redes permiten que los sistemas creados no cuenten únicamente
con las variables de entrada sino que además tengan como variable el estado anterior
de la neurona [81]. Las estructuras más comunes son la “Long Short – Term Memory
” (LSTM) y “Gated Recurrent unit” (GRU), estas cuenta con la característica de
poder ser entrenadas mediante el enfoque de el algoroitmo de back-propagation [79].
Las redes neuronales recurrentes son usadas en encriptación, partiendo del hecho
que el cifrado dependerá de un estado anterior, donde generalmente el entrenamiento
de la red está incluido dentro del proceso de encriptación, lo que no es común en el
uso de las redes feedforward para criptografía, también es normal que debido a su
dependencia de estados anteriores, se requiera un estado inicial, el cual es generado
a partir de la llave usada, como se puede observar en los artículos [33] [88].
Las redes neuronales caóticas se describen como redes donde los pesos de sus sinapsis
están determinados por una secuencia caótica [89][90]. Donde una secuencia caótica
es definida como la secuencia generada a partir de un sistema dinámico caótico, el
cual cuenta con las características de ser no lineal, determinístico, tiene ergodici-
dad y dependiente en una gran medida de sus condiciones iniciales, logrando un
comportamiento pseudoaleatorio [91][90][92]. Uno de los ejemplos más conocidos de
sistemas caóticos es el mapa logístico, el cual está definido como (2.20), y presenta
un comportamiento como el de la figura 2.18 [91], se pude encontrar otros ejemplos
28
de mapa como lo son el “tent map”, “doublé rotor map” y “baker’s map” [93], sin
embargo se pueden encontrar modelos más complejos como lo son los sistemas de
Lorenz o los circuitos de Chua [94].
29
incorporan funciones de activación basadas en las funciones de Laguerre, y generan
un modelo asimétrico.
Existen otras variantes donde se proponen arquitecturas distintas a las tradi-
cionales, como en el artículo [99] donde se propone establecer lo que denominan
unidades caóticas, que son una serie de neuronas interconectadas que presentan re-
currencia, y se realiza la encriptación mediante las características caóticas que estas
unidades proporcionan.
30
3. Redes neuronales caóticas
31
3.1 Introducción
Una red neuronal caótica es una red neuronal en la que los pesos y los bias están
determinados por una secuencia caótica [89],[90]. Lo que resulta en un cambio
importante, pues sus características más relevantes son en primer lugar, el hecho
de no necesitar entrenamiento y en segundo lugar que sus pesos y bias varían para
cada uno de los datos de entrada. A continuación se describe el procedimiento que
se realiza para cifrar con redes neuronales caóticas como se muestra en [89].
4. Para cada dato xm los pesos y bias cambian, estos primeros se asignan
teniendo en cuenta la ecuación 3.1 y los segundos con la ecuación 3.2.
for i=1:B do
1 si b(B ∗ m + i) = 0
W (i, j) = −1 si b(B ∗ m + i) = 1 (3.1)
0 si i=j
1 si b(B ∗ n + i) = 0
θi = (3.2)
−1 si b(B ∗ n + i) = 1
end for
5 Calcular la salida determinada por la ecuación 3.3, donde X es la repre-
sentación binaria de m, pasar al siguiente dato y volver al paso 4 hasta que
m=M .
Sal = LimitadorDuro(W ∗ X + θ) (3.3)
32
3.2 Arquitecturas propuestas
Para realizar el cifrado se plantean modelos donde se varía el número de capas y la
señal caótica que determina los pesos y los bias de la red. En la figura 3.1 se ob-
serva una arquitectura con tres capas ocultas, donde los cuadros rojos representan la
capa de entrada, los círculos azules las diferentes capas caóticas y los círculos verdes
la salida del sistema. Se proponen cuatro arquitecturas diferentes donde se inicia
con una única capa caótica, y se aumenta en pasos de una capa hasta llegar a cuatro.
Para las señales caóticas que se utilizarán en cada una de las capas, se plantea
el uso de los siguientes modelos dada su fácil implementación y cálculo:
33
demográfico que explique la dinámica de una población [100]. Su expresión
matemática es la ecuación 3.4.
Como se puede observar, posee dos parámetros que son los que controlan el
comportamiento de la serie, xn está entre cero y uno y representa la fracción
de individuos en un territorio y r que es la tasa combinada de natalidad y
mortalidad. El modelo comienza a presentar un comportamiento caótico a
partir de r = 3.57, sin embargo presenta secciones donde no hay caos hasta
llegar a r = 4.
xn = c − x2n−1 (3.5)
34
yn+1 = u(xn sin(tn ) + yn cos(tn )) (3.7)
6
tn = 0.4 − (3.8)
1 + x2n + yn2
En este último modelo se encuentran tres parámetros, xn y yn que son los
puntos iniciales y u que es un parámetro que representa la pérdida del reson-
ador, así que se cumple u ≤ 1. El sistema presenta un comportamiento caótico
cuando se cumple que u ≥ 0.6.
3.3 Experimentación
Para la experimentación se utiliza la herramienta MATLAB 2018b, y a continuación
se presentan las características del equipo utilizado:
35
Dentro de las señales establecidas para evaluar los modelos se presentan, dos
imágenes en blanco y negro (figura 3.3), dos imágenes a color (figura 3.4) y tres
señales de audio (figura 3.5). En la tabla 3.1 se pueden observar las características
de cada una de las imágenes propuestas.
Las imágenes 3.3a, 3.3b y 3.4a son tomadas del toolbox de MatLab®de proce-
samiento de imágenes. La imagen restante (Figura 3.4b), es la conocida ”Lenna”,
tomada de Wikipedia; esta última es usada en [89] y [93] para evaluar el desempeño
de los algoritmos propuestos.
36
(a) Faro (b) Lenna
Las señales de audio son una estéreo (3.5a) y dos mono (3.5b,3.5c). La primera,
es una voz de una mujer que dice ”La vida es bella”, al ser estéreo cada canal se
representa con un color diferente, la segunda el sonido de una melodía interpretada
en una flauta china y la tercera es una voz femenina en francés. En la tabla 3.2, se
pueden observar sus características.
37
(a) Voz en español (b) Flauta china
Los parámetros utilizados para cada una de las diferentes series de tiempo se
presentan en la tabla 3.3. Es importante resaltar que se realiza sólo una vez, debido
a que las redes caóticas no tienen inicialización aleatoria.
38
Parámetro Inicio Paso Fin
xn 0 0.03 1
Logístico
r 3.5 0.005 4
xn 0 0.05 1
Cuadrático
c 1 0.01 2
u 0.6 0.01 0.9
Ikeda (X) xn 0 0.1 1
yn 0 0.1 1
u 0.6 0.01 0.9
Ikeda (Y) xn 0 0.1 1
yn 0 0.1 1
Teniendo en cuenta la propiedad que tienen los sistemas dinámicos que presentan
caos, un pequeño cambio en las condiciones iniciales que para este caso resulta ser
la llave, genera una señal caótica completamente diferente, lo que debería significar
una desencriptación incorrecta de la señal. Es por esto que es necesario realizar esta
comprobación, realizando variaciones de la llave en pasos cada vez más pequeños.
La resolución que de MatLab® es de 2−52 , por lo que la variación se hará cambiando
los bits de a uno, teniendo en cuenta el rango donde mejor se comporte cada una de
las series de tiempo caóticas. Mediante este experimento es posible es posible inferir
el espacio de llaves de la arquitectura propuesta.
39
los rangos en que mejor se comporta el algoritmo. Se plantean tres arquitecturas
diferentes, la primera con dos capas caóticas, la segunda con tres capas caóticas y
finalmente con cuatro capas caóticas . En primer lugar se realizará un experimento
con el fin de conocer si el modelo posee la propiedad conmutativa con las capas
caóticas con el fin de no hacer experimentación redundante.
1. Mapa Logístico
2. Mapa Cuadrático
3.4 Resultados
3.4.1 Resultados obtenidos con redes de una capa
Para cada una de las series de tiempo se realizaron un número diferentes de exper-
imentos, teniendo en cuenta que los rangos que se manejaron para cada uno de los
parámetros que estos poseen fueron diferentes. En la tabla 3.5 se muestra el número
de experimentos de cada una de las series de tiempo.
40
Serie de tiempo # Experimentos
Mapa Logístico 3300
Mapa Cuadrático 2121
Mapa de Ikeda (X) 3751
Mapa de Ikeda (Y) 3751
Se realizaron 3300 experimentos para cada una de las diferentes señales, se variaron
los parámetros según se muestra en la tabla 3.6, dado que no es posible conocer
a priori los rangos en los cuales la encriptación presentará el mejor resultado. Se
midieron los cinco parámetros de la sección 2.5. En esta sección se presentan los
resultado de ”Lenna”, los resultados de las otras señales se pueden observar en el
apéndice A.
41
Figura 3.6: NPCR de Lenna usando el mapa logístico
42
Figura 3.7: Correlación lineal de Lenna usando el mapa logístico
En la figura 3.8 se presenta el UACI las imágenes resultantes de cifrar con las
llaves experimentadas ”Lenna” (figura 3.4b). Cada color representa un x diferente.
Se observa que en las zonas en las cuales la serie de tiempo no presenta un com-
portamiento caótico el parámetro xn influye notablemente pues hace que el UACI
presente valores dispersos, caso contrario a la zonas donde la serie de tiempo es
caótica el parámetro xn no presenta relevancia, ya que como se puede observar el
UACI tiende al mismo valor. En la figura A.3 se observa que para el resto de las
señales el UACI tiene un comportamiento similar.
43
Figura 3.8: UACI de Lenna usando el mapa logístico
44
Figura 3.9: ∆ de Entropía de Lenna usando el mapa logístico
45
Figura 3.10: AMI de Lenna usando el mapa logístico
Se realizaron 2121 experimentos por cada una de las diferentes señales, se variaron
los parámetros según se muestra en la tabla 3.7, dado que no es posible conocer
a priori los rangos en los cuales la encriptación presentará el mejor resultado. Se
midieron los cinco parámetros de la sección 2.5. En esta sección se presentan los
resultado de ”Faro”, los resultados de las otras señales se pueden observar en el
apéndice A.
46
notablemente en comparación a las zonas en las cuales si es caótico, pues donde no
hay caos presenta valores menores a 0.9, mientras que donde sí lo hay el valor mínimo
es 0.99. En la figura A.6 se observa que para el resto de las señales de prueba este
parámetro tiene un comportamiento similar.
47
Figura 3.12: Correlación lineal de Faro usando el mapa cuadrático
48
Figura 3.13: UACI de Faro usando el mapa cuadrático
49
Figura 3.14: ∆Entropía para Faro usando el mapa cuadrático
50
Figura 3.15: AMI de Faro usando el mapa cuadrático
Se realizaron 3751 experimentos por cada una de las diferentes señales,se variaron los
parámetros según se muestra en la tabla 3.8, dado que no es posible conocer a priori
los rangos en los cuales la encriptación presentará el mejor resultado. Se midieron
los cinco parámetros de la sección 2.5. En la sección de Ikeda X se presentan los
resultados de ”Cameraman”, mientras que en Ikeda Y se presentan los resultados
de ”Voz en español”, los resultados de las otras señales se pueden observar en el
apéndice A.
51
Ikeda X En la figura 3.16 se presenta el NPCR de cada uno de los experimentos
realizados para la segunda imagen a blanco y negro (”Cameraman”, figura 3.3b). Se
observa que en el rango donde hay comportamiento caótico, para 0.65 < u < 0.9, la
cantidad de datos que cambia es alto, aproximadamente el 99%. En unos pocos, el
0.75% restante, el punto inicial influye ya que se puede ver que cambia una cantidad
significativamente menor, pues pasa de cambiar el 99% de los bits a menos del 90%,
incluso existe un punto en el que baja a tan solo el 50% que se presenta cuando
xn = yn = 1. En la figura A.11 se observa que para el resto de las señales de prueba
este parámetro se comporta similar.
52
presentan un resultado muy cercano a -1, el cual es un resultado no deseado y al
igual que para el NPCR se presenta cuando xn = yn = 1. En la figura A.12 se
observa que para el resto de señales de prueba, tiene un comportamiento similar al
descrito anteriormente.
En la figura 3.18 se presenta el UACI las imágenes resultantes de cifrar con las
llaves experimentadas ”Camerman” (figura 3.4b). Se observa que en las zonas en las
cuales la serie de tiempo no presenta un comportamiento caótico los parámetros xn
y y influyen notablemente pues hace que el UACI presente valores dispersos, caso
contrario a la zonas donde la serie de tiempo es caótica los parámetro xn y yn no
presentan relevancia, ya que como se puede observar el UACI tiende a estar en un
valor entre 0.3 y 0.33. En la figura A.13 se observa que para el resto de las señales
el UACI tiene un comportamiento similar.
53
Figura 3.18: UACI de Cameraman usando el mapa de Ikeda
54
Figura 3.19: ∆Entropía de Cameraman usando el mapa de Ikeda
55
Figura 3.20: AMI de Cameraman usando el mapa de Ikeda
56
Figura 3.21: NPCR de Voz en español usando el mapa de Ikeda
57
Figura 3.22: Correlación lineal de Voz en español usando el mapa logístico
En la figura 3.23 se presenta el UACI del resultado de cifrar con las llaves ex-
perimentadas ”Voz en español” (figura 3.4b). Se observa que en las zonas en las
cuales la serie de tiempo no presenta un comportamiento caótico los parámetros xn
y y influyen notablemente pues hace que el UACI presente valores dispersos, caso
contrario a la zonas donde la serie de tiempo es caótica los parámetro xn y yn no
presentan relevancia, ya que como se puede observar el UACI toma valores entre
0.27 y 0.28. En la figura A.18 se observa que para el resto de las señales el UACI
tiene un comportamiento similar.
58
Figura 3.23: UACI de Voz en español usando el mapa de Ikeda
59
Figura 3.24: ∆Entropía de Voz en español usando el mapa de Ikeda
60
Figura 3.25: AMI de Voz en español usando el mapa de Ikeda
• Parámetro r
61
(a) Imagen original (b) Imagen encriptada
62
(a) r = 3.9375 + 2−12 (b) r = 3.9375 + 2−29
• Parámetro xn
63
r = 3.93. En la figura 3.28 se encuentran la imagen original y la imagen cifrada con
estos parámetros.
64
(a) xn = 0.75 + 2−15 (b) xn = 0.75 + 2−33
Como punto de partida se escogió c = 1.875, puesto que su parte decimal son tres
bits (2−1 + 2−2 + 2−3 ) y xn = 0.5, ya que son puntos en los cuales el algoritmo
65
presenta buenos resultados. En la figura 3.30 se puede observar el resultado de
encriptar la imagen con los parámetros seleccionados.
• Parámetro c
Teniendo en cuenta lo dicho anteriormente se varió uno a uno los bits de la llave
hasta llegar al menos significativo. En la figura 3.31 se observa el resultado de realizar
la desencriptación, tomando como parámetro c los valores de la primera columna
de tabla 3.11. En el resto de la tabla se muestran sus respectivos parámetros.
Los resultados completos se pueden ver en la tabla A.3 y se puede comprobar que
ninguno de los cambios logra desencriptar satisfactoriamente la imagen.
66
(a) c = 1.875 + 2−10 (b) c = 1.875 + 2−22
• Parámetro xn
El parámetro se fijó xn = 0.5, así que partiendo desde ahí se realizaron los
cambios de cada uno de los bits, hasta llegar al menos significativo. En la figura
67
3.32 se muestran los resultados de desencriptar, tomando como valor del parámetro
xn los valores presentados en la primera columna de la tabla 3.12. En el resto
de la tabla se muestran sus respectivos parámetros. Los resultados completos se
pueden ver en la tabla A.4 y se puede comprobar que ninguno de los cambios logra
desencriptar satisfactoriamente la imagen.
68
xn NPCR Correlación UACI ∆Entropía AMI
−17
0.5 + 2 0.9930 0.0082 0.3075 0.9876 0.5823
0.5 + 2−31 0.9920 0.0047 0.3078 0.9869 0.5837
0.5 + 2−47 0.9920 0.0018 0.3083 0.9867 0.5852
−52
0.5 + 2 0.9920 0.0098 0.3070 0.9868 0.5837
Como punto inicial se escogieron u = 0.75 y xn = yn = 0.5, por las razones que
se han expuesto para los casos anteriores. Dado que el mapa de Ikeda tiene dos
dimensiones (X,Y), se tomara cada componente de forma independiente.
• Parámetro u
Como se mencionó anteriormente, el parámetro del cifrado fue u = 0.75, así que
partiendo de ahí se hizo la modificación de cada uno de los bits. En la figura 3.34
se muestra el resultado de desencriptar la imagen, reemplazando el parámetro u con
los valores de la primera columna de la tabla 3.13. En la tabla 3.13 se muestran los
69
parámetros correspondientes. Los resultados completos se pueden ver en la tabla
A.5 y se comprueba que ninguno de los diferentes valores logra desencriptar la señal.
70
• Parámetro xn
71
xn NPCR Correlación UACI ∆Entropía AMI
−4
0.5 + 2 0.9906 0.0069 0.3060 0.9870 0.5928
0.5 + 2−25 0.9906 0.0166 0.3054 0.9870 0.5936
0.5 + 2−48 0.9904 0.0040 0.3070 0.9863 0.5919
−52
0.5 + 2 0.0000 1.0000 0.0000 0.0000 7.0097
• Parámetro yn
72
(c) yn = 0.5 + 2−45 (d) yn = 0.5 + 2−52
73
(a) Imagen original (b) Imagen cifrada
• Parámetro u
74
(c) u = 0.75 + 2−44 (d) u = 0.75 + 2−52
• Parámetro xn
75
(a) xn = 0.5 + 2−4 (b) xn = 0.5 + 2−25
• Parámetro yn
76
columna de tabla 3.18. En el resto de la tabla se muestran sus respectivos parámet-
ros. Los resultados completos se pueden ver en la tabla A.10 y se puede comprobar
que ninguna modificación logra desencriptar la imagen satisfactoriamente.
77
yn NPCR Correlación UACI ∆Entropía AMI
−8
0.5 + 2 0.9898 -0.0005 0.3077 0.9874 0.5939
0.5 + 2−31 0.9881 0.0040 0.3069 0.9868 0.5967
0.5 + 2−45 0.9880 0.0050 0.3066 0.9867 0.6046
−52
0.5 + 2 0.9882 0.0066 0.3055 0.9862 0.6060
78
(a) Lenna original (b) Lenna cifrada
79
Como se puede observar, todas las imágenes presentan los mismos valores para
cada uno de los parámetros a pesar de que se varía el orden de las capas caóticas.
Además la correlación entre todas las imágenes cifradas es 1, lo que indica que todas
las combinaciones de capas caóticas producen la misma imagen cifrada. Esto permite
notar que el proceso de cifrado depende únicamente de los parámetros con los cuales
se inicializen las series caóticas en cada capa, más no el orden de las mismas.
Entre las diferentes distribuciones que se propusieron (tabla 3.4) se realizaron 19104
experimentos, en los cuales se variaron los parámetros de las diferentes series de
tiempo, estos dentro de las zonas en las cuales presentan un mejor desempeño.
En la figura 3.42 se presenta el histograma de la correlación de todos los experi-
mentos. Se puede observar como se presenta una gran concentración de resultados
alrededor del cero, pues como se observa en la tabla de parámetros (tabla 3.21) el
promedio es del orden de 10−4 , además que no se logra diferenciar entre los difer-
entes modelos propuestos, ya que como se presenta en la tabla la desviación estándar
es del orden de 10−3 , lo cual resulta ideal ya que muestra la poca relación que se
presenta entre las señales cifradas y la original.
80
Media (µ) Desviación estándar (σ)
−4
6.6676 ∗ 10 0.0031
81
3.4.3.3 Redes de tres capa
Entre las diferentes distribuciones que se propusieron (tabla 3.4) se realizaron 18558
experimentos, en los cuales se variaron los parámetros de las diferentes series de
tiempo, estos dentro de las zonas en las cuales presentan un mejor desempeño.
82
En la figura 3.45 se presenta el histograma de la AMI de todos los experimentos.
Se observa una altísima concentración alrededor de 0.19 y unos pocos datos dispersos
entre 0.22 y 0.225, lo que muestra que el valor más probable de AMI es cercano a
0.19, y es así pues el promedio de los datos es 0.19 así como se puede ver en la tabla
3.24, disminuyendo frente a las redes de un capa, y muy poco frente a las redes de
dos capas, sin embargo es una mejora en el desempeño tomando en cuenta que la
desviación estándar bajó siendo del orden de 10−3 .
Bajo la única distribución que se propuso (tabla 3.4), se realizaron 6004 experimen-
tos, en los cuales se variaron los parámetros de las diferentes series de tiempo, estos
dentro de las zonas en las cuales presentan un mejor desempeño.
83
En la figura 3.47 se presenta el histograma todos los experimentos. Como se ha
visto con las otras arquitecturas la mayor concentración de los datos se encuentra
con respecto a cero, además de presentar una disminución que no es muy significativa
y esto se puede ver en la tabla 3.25 pues el promedio de los datos es del orden de
10−5 .
84
Figura 3.47: Histograma de la AMI para redes de cuatro capas
85
Tiempo Cifrado (s) Tiempo Descifrado (s)
#C #N Modelo caótico
S1 S2 S3 S4 S5 S6 S7 S1 S2 S3 S4 S5 S6 S7
Logístico 0.79 1.93 0.28 0.59 0.35 2.73 2.74 1.11 2.9 0.36 0.75 0.43 4.24 3.91
Cuadrático 0.62 1.73 0.59 0.38 0.19 2.57 2.30 0.98 2.79 0.18 0.60 0.30 4.11 3.58
1 8
Ikeda (X) 0.62 1.75 0.35 0.38 0.19 2.57 2.30 0.98 2.78 0.18 0.60 0.30 4.11 3.59
Ikeda (Y) 0.61 1.74 2.73 0.37 0.19 2.56 2.36 0.98 2.78 0.18 0.60 0.30 4.10 3.63
[Log, Cuad] 1.62 4.51 2.74 0.97 0.48 6.69 5.95 1.96 5.55 0.35 1.20 0.59 8.21 7.36
[Log, Ike (X)] 1.58 4.52 0.11 0.97 0.48 6.67 6.09 1.95 5.58 0.35 1.19 0.59 8.26 7.22
[Log, Ike(Y)] 1.58 4.5 0.38 0.97 0.48 6.76 5.98 1.95 5.55 0.35 1.20 0.59 8.22 7.35
2 16
[Cuad, Ike (X)] 1.58 4.51 0.19 0.97 0.48 6.67 5.96 1.94 5.55 0.35 1.20 0.59 8.23 7.35
[Cuad, Ike (Y)] 1.58 4.52 2.57 0.97 0.48 6.70 5.93 1.94 5.54 0.35 1.19 0.59 8.21 7.27
[Ike (X), Ike (Y)] 1.58 4.51 2.30 0.98 0.49 6.68 6.02 1.95 5.55 0.35 1.20 0.59 8.21 7.31
86
[Lg, Cd, Ik (X)] 2.55 7.35 0.12 1.57 0.78 10.91 9.56 2.92 8.33 0.53 1.80 0.89 12.41 10.79
[Lg, Cd, Ik (Y)] 2.55 7.31 0.38 1.57 0.78 10.89 9.53 2.92 8.32 0.53 1.80 0.89 12.38 10.78
3 24
[Lg, Ik(X),Ik(Y)] 2.55 7.32 0.19 1.57 0.78 10.83 9.53 2.91 8.32 0.53 1.82 0.89 12.34 10.87
[Cd, Ik(X),Ik(Y)] 2.55 7.29 2.57 1.58 0.78 10.88 9.39 2.93 8.32 0.53 1.81 0.88 12.34 10.67
4 32 [L,C, Ik(X), Ik(Y)] 3.52 10.06 2.30 2.18 1.07 14.90 13.01 3.88 11.32 0.70 2.41 1.19 16.44 14.35
87
4.1 Introducción
De manera general, las redes neuronales feedforward con entrenamiento supervisado
cumplen la función descrita en la figura 4.1, en donde a partir de una serie de datos
compuestos por las entradas y salidas de un problema, se genera un modelo que
cumpla con el comportamiento de los datos.
88
(a) Encriptación (b) Desencriptación
4.3 Experimentación
Para la experimentación se utiliza la herramienta MATLAB 2018b, y a continuación
se presentan las características del equipo utilizado:
• Memoria (RAM): 8 GB
89
• La observación de la capacidad y el nivel de detalle que una red neuronal
puede emular el algoritmo DES.
En segundo lugar se realizará la búsqueda de una red neuronal que logre emular
el algoritmo DES, para esto se realizará la variación de los parámetros definidos
(función de entrenamiento, numero de capas, numero de neuronas y funciones de
activación) y basado en un parámetros a establecer se medirá de desempeño de la
red neuronal.
Finalmente se evaluaran los parámetros de desempeño de algoritmos de cifrado
descritos en la sección 2.5, usando las señales para evaluación que se propusieron en
la sección 3.3. Adicionalmente se realizará la comparación entre el modelo DES con
redes neuronales que se obtenga, y el DES de manera tradicional.
90
• Error: Determinado por el algoritmo 4.
4. for i=1:B do
0 si BCN N == BDB
Erroracumulado = Contador + (4.1)
1 si BCN N ! = BDB
5. end for
Donde:
• BCNN corresponde al valor del bit generado por la red neuronal, como
respuesta a una entrada especifica [llave, (mensajes o mensajes cifra-
dos)].
ErrorAcumulado ∗ 100%
Error = (4.2)
T amano(B)
91
a partir de fijar unas cajas de sustitución y permutación únicas predeterminadas,
que se pueden observar en la figura 4.4, estos valores fueron copiados del articulo
[87] siempre con la consideración de que la complejidad y seguridad del algoritmo y
así mismo la capacidad de emulación de las redes neuronales, están ligadas a estas
variables.
Figura 4.4: (a)Tabla de permutación inicial (b) Vector expansión del mensaje (Feis-
tel) (c) Permutación final (Feistel) (d) caja permutación 1 para sub llaves (e) caja
permutación 2 para sub llaves
∑
n
Sse = (yi − f (xi ))2 (4.3)
i=0
92
predeterminado por MATLAB.
Parámetro Valor
Número máximo de
100000
épocas para entrenar.
Gradiente de
10−1000000
rendimiento mínimo
Objetivo de
10000000
rendimiento
Máximos fallos
10−1000000
de validación
Longitud de
10−1000000
paso mínimo
93
entradas correspondientes a los 64 bits del mensaje y 56 bits de la llave, y en la capa
de salida se tienen los 64 bits de la información cifrada, para el caso del descifrad se
tiene una estructura similar, con 64 bits de la información cifrada sumada a 56 bits
de la llave, en la entrada, y en la salida se tienen 8 bits correspondientes al valor
máximo que puede tomar el mensaje tras realizar la reducción de la base de datos.
4.4 Resultados
4.4.1 Limitación de base de datos
Para generar una base datos que este dentro de las capacidades de computo disponibles,
es necesario tener en cuenta que el algoritmo de cifrado DES cuenta con un espacio
de llaves de 56 bits e información de 64 bits. Además es necesario tener en cuenta
la máxima capacidad de almacenamiento en RAM que puede usar MATLAB, que
para el caso de la maquina de computo usada supone una limitante de máximo 211
posibles llaves y 211 posibles mensajes para así poder crear una base de datos del
tamaño de las posibles combinaciones que se pueden generar (211 ∗ 211 = 222 ), por
lo cual se elige realizar una prueba inicial partiendo con valores de llaves y mensajes
que van desde 0 hasta 211 .
94
Funciones Error Tiempo
Arquitectura
de activación (%) (seg)
[tansig tansig
Encriptación [150 150 150 64] 98,7641 48520,9381
tansig purelin]
[tansig tansig
Desencriptación [150 150 150 11] 96,8913 41029,4261
tansig purelin]
Tabla 4.2: Exploración solución red neuronal con dimensión de llaves y mensajes de
11 bits
95
imagen de referencia ”Cameraman”, expuesta en la sección 3.3, (para poder realizar
la visualización se realizó la normalización de los datos, con el fin de que el mayor
valor, por bit que se tenga sea 255, y el algoritmo genera datos de salida de hasta
264 ). De acuerdo con el parámetro de error observado en la tabla 4.2, no se genera
un modelo que cumpla con un cifrado no interpretable, debido a que se nota clara-
mente la silueta de la persona que se encuentra en la foto. Para el descifrado se le
ingresó la información de la imagen cifrada mediante el algoritmo DES tradicional,
y el resultado es poco alentador pues no se logra recuperar la información.
4.4.1.1 Experimento 2
Para lograr acotar la cantidad de información con la que se quiere trabajar, con el
objetivo de mejorar el proceso encriptación - desencriptación con el modelo neuronal
se plantea un segundo experimento. Se reduce la base de datos a una que única-
mente contenga las posibles combinaciones generadas a partir de llave se que van
desde 0 hasta 28 , y mensajes que van desde 0 hasta 210 , debido en que el muestreo
de una señal a este número de bits es común en una señal multimedia.
Tabla 4.3: Exploración solución red neuronal con dimensión de mensajes y llaves de
10 bits
96
(a) Imagen original (b) Imagen cifrada
97
4.4.1.2 Experimento 3
Tabla 4.4: Exploración solución red neuronal con dimensión de mensajes de 8 bits
y llaves de 6 bits
98
(a) Imagen original (b) Imagen cifrada
99
favorables para el objetivo propuesto, ya que el error disminuye con respecto al
primer y segundo experimento donde los errores son mayores al 90%. Por lo cual
se utilizara la base de datos descrita en la figura 4.8 donde se tienen los mensajes
que serán cifrados, que como se menciono anteriormente van desde 0 hasta 28 , y se
cifra 64 veces, que corresponde a las 64 distintas llaves, las cuales se observan en
las figuras 4.9. Adicionalmente en la figura 4.10, se presenta el resultado, dato por
dato, tras cifrar usando la pareja de mensaje y llave correspondiente.
100
(a) Panorámica (b) Acercamiento
Cifrado Descifrado
Una capa 108 353
Dos capas 42 42
101
los valores de los parámetros de desempeño para las redes neuronales feedforward,
donde para cada escenario de combinación de funciones de activación se realizaron
al menos 3 entrenamientos.
Figura 4.11: Error redes feedforward una capa intermedia - entrenamiento BFGS -
descifrado
Figura 4.12: Tiempo entrenamiento redes feedforward una capa intermedia - entre-
namiento BFGS - descifrado
102
error, se tiene como primera observación el cumplimiento de uno de los propósitos
de la experimentación, el cual es, verificar si una red neuronal feedforward puede
emular un algoritmo de cifrado de alta complejidad como lo es el algoritmo DES,
por lo menos en la etapa de descifrado.
Se muestra que las funciones de activación que lograron realizar la emulación del
algoritmo DES en su etapa de descifrado, son las que en su capa de salida tenían
una función de activación ”purelin”, y en su capa intermedia tenían una función de
activación ”tansig” o ”logsig”.Se observa que la cantidad de neuronas mínimas para
que se pueda generar el modelo es de 95 neuronas.
103
uración ”tansig - purelin”, presenta en general menores tiempos de entrenamiento
que la configuración ”logsig - purelin”, la cual presenta cambios mas bruscos con
saltos de incluso 5,9031*104 , comparado con en general todas las configuraciones.
Cifrado En las figuras 4.13 y 4.14, se presentan los resultados obtenidos tras la
experimentación con redes neuronales feedforward para la etapa de cifrado, en las
gráficas se muestran los resultados promedios obtenidos en cada tipo de experi-
mentación.
Figura 4.13: Error redes feedforward una capa intermedia - entrenamiento BFGS -
cifrado
104
Figura 4.14: Tiempo entrenamiento redes feedforward una capa intermedia - entre-
namiento BFGS - cifrado
105
4.4.2.2 Dos capas
La arquitectura neuronal usada para esta sección, usa dos capas intermedias, a las
cuales se les varía el numero de neuronas en cada una, y las funciones de activación
en cada capa incluyendo la capa de salida.
Descifrado En las gráficas 4.15 y 4.16 se muestra el resultado tras los entre-
namientos realizados con dos capas intermedias, para este caso se decidió usar el
mismo número de neuronas en ambas capas.
Teniendo en cuenta los resultados anteriores y el tiempo que toma realizar cada
experimento se decidió realizar la experimentación con las redes cuya capa de salida
es ”purelin”, pues tuvieron los menores errores en un menor tiempo.
Figura 4.15: Error redes feedforward dos capas intermedias - entrenamiento BFGS
- descifrado
106
Figura 4.16: Tiempo entrenamiento redes feedforward dos capas intermedias - en-
trenamiento BFGS - descifrado
En la figura 4.15 se presenta el resultado del parámetro del error de los exper-
imentos realizados, donde lo primero que se observa es que al igual que con una
capa, se logró el emular el algoritmo de cifrado DES, en su etapa de descifrado es-
pecialmente usando las los esquemas de funciones de activación: ”tansig - tansig -
purelin”, ”logsig - tansig - purelin”, ”tansig - logsig - purelin” y ”logsig - logsig -
purelin”.
Debido a los resultados iniciales con el esquema de dos capas intermedias de 150
neuronas cada una, se decidió no seguir trabajando con las los esquemas de fun-
ciones de activación ”purelin - logsig - purelin” y ”purelin - tansig - purelin”, pues
se presentan errores menores al minimo posible.
107
Cifrado Bajo las mismas condiciones de la experimentación de descifrado usando
dos capas intermedias. Tras la experimentación se obtuvo como resultado las gráficas
4.17,4.18 y ??.
En este caso se adoptó una metodología creciente en términos de la variable
de numero de neuronas, se comenzó con 100 neuronas en cada una de las capas
intermedias.
Figura 4.17: Error redes feedforward dos capas intermedias - entrenamiento BFGS
- cifrado
108
Figura 4.18: Tiempo entrenamiento redes feedforward dos capas intermedias - en-
trenamiento BFGS - cifrado
En la gráfica 4.17 se muestran los resultados del parámetro de error tras la ex-
perimentación, mostrando que no se logró emular de manera completa la etapa de
cifrado. Se muestran resultados que van desde cerca de 4% hasta aproximadamente
14%. Adicionalmente se muestra que la gráfica tiene un comportamiento que dis-
minuye con respecto al aumento de número de neuronas.
Las configuraciones de las funciones de activación, que menor error presentaron,
son ”tansig - logsig - purelin” (66.88%) y ”logsig - logsig - purellin” (65.79%), y
de igual manera que el caso de descifrado, debido al alto error que presentaban las
configuraciones ”purelin - logsig - purelin” y ”purelin - tansig - purelin”, únicamente
se realizaron experimentos con 150 neuronas en las capas intermedias.
En la gráfica 4.18, se presentan los resultados del parámetro de desempeño de
tiempo de entrenamiento, donde se tienen valores que van desde aproximadamente
1.4x104 s hasta cerca de 2.2x104 s, donde en la mayoría de los casos se presenta una
reducción en el tiempo de entrenamiento de usar 120 neuronas a usar 150.
109
evaluando los parámetros de desempeño para la red neuronal feed forward, con el
fin de que se logre emular el algoritmo DES. En la tabla 4.6 se muestra el numero
de experimentos realizados, teniendo en cuenta que el primer parámetro variado es
el numero de capas de la red neuronal feedforward.
Cifrado Descifrado
Una capa 108 89
Dos capas 42 42
Se usara una arquitectura neuronal donde se tiene una capa intermedia, adicional-
mente se cuentan con las condiciones similares a las que se tuvieron en la exper-
imentación de la sección 4.4.2.1, se realizaron 3 experimentos por cada esquema
neuronal.
Figura 4.19: Error redes feedforward una capa intermedia - entrenamiento CGB -
descifrado
110
Figura 4.20: Tiempo entrenamiento redes feedforward duna capa intermedia - en-
trenamiento CGB - descifrado
Cifrado En las figuras 4.21, 4.22 y ??, se presentan los resultados del entre-
namiento de de las redes para emular la etapa de cifrado del algoritmo DES, igual
a los casos anteriores se mantuvieron fijas las funciones de activación, y se vario el
numero de neuronas.
111
Figura 4.21: Error redes feedforward una capa intermedia - entrenamiento CGB -
cifrado
Figura 4.22: Tiempo entrenamiento redes feedforward duna capa intermedia - en-
trenamiento CGB - cifrado
112
La gráfica que representa el error descendiende a medida que aumenta el numero
de neuronas, obteniendo valores muy cercanos de los esquemas probados cuando se
tienen 100 neuronas en la capa intermedia. Las funciones de activación que menor
error presentaron fueron las combinaciones ”logsig - purelin” y ”tansig - purelin”.
En la gráfica 4.20, se muestra los resultados del tiempo donde se tienen valores
que van desde cerca de 0.1 x 104 s hasta un poco mayores de 3.5 x 104 s.
Se usará una arquitectura que cuenta con dos capas intermedias, a las cuales se les
varía el numero de neuronas en cada una, y las funciones de activación en cada capa
incluyendo la capa de salida. De manera similar a la sección 4.4.2, el numero de
neuronas en las dos capas intermedias sera igual.
• Descifrado
En las gráficas 4.23, 4.24 y ??, se muestran los resultados de la experimentación
para le emulación del algoritmo DES, se estableció una metodología en la
cual se establece un numero de neuronas, que se considera alto, según los
experimentos anteriores (150 neuronas), y posteriormente se fue reduciendo el
numero de neuronas.
113
Figura 4.23: Error redes feedforward dos capas intermedias - entrenamiento CGB -
descifrado
En la figura 4.23, se muestran los resultados del valor del parámetro del er-
ror, donde se tiene una emulación exitosa del algoritmo desde 120 neuronas
los esquemas con función de activación ”tansig-logsig-purelin”, ”logsig-tansig-
purelin” y ”logsig-logsig-purelin”.
114
La gráfica 4.24 representa el promedio de de los tiempos de entrenamiento,
donde se observan comportamientos de entrenamiento ascendentes, que se en-
cuentran entre rangos de 0.9x104 s hasta 1.6x104 s.
• Cifrado
En las figuras 4.23, 4.26, ??, se muestran los resultados de los parámetros
de desempeño, para el caso del cifrado, donde similar al caso del cifrado, se
inicio con un numero de neuronas se considera alto, para posteriormente ir
reduciendo su numero.
Figura 4.25: Error redes feedforward dos capas intermedias - entrenamiento CGB -
descifrado
115
Figura 4.26: Tiempo entrenamiento redes feedforward de dos capas intermedias -
entrenamiento CGB - descifrado
En las tablas 4.7 y 4.8 se muestran los resultados de tiempo de cifrado y descifrado
116
obtenidos, usando el mínimo numero de neuronas y los esquemas de funciones de
activación, que cumplan con la emulación completa del algoritmo DES.
Las tablas 4.7 y 4.8, nos muestra que el tiempo mínimo cifrado que se logra
es usando un esquema de ”tansig-logsig-purelin”, de 150 neuronas las dos capas
intermedias. Los tiempos mínimos para el proceso de descifrado es logrdado con un
esquema de ”tansig-purelin”, con 95 neuronas en su capa intermedia.
117
4.4.4.2 Evaluación parámetros DESneuronal
En la figura 4.27 se presenta el NPCR para cada una de las imágenes de refer-
encia, donde se muestra su comportamiento ante el crecimiento del valor de la llave.
Se puede observar una variación del NPCR similar, ubicándose picos y valles de la
gráfica, en valores similares de llave, adicionalmente se tiene que el valor del NPCR
se encuentra entre 0.43, y 1, mostrando los valles mas destacables para la mayoría
de las señales, en las llaves 2 y 62. Se observa además que donde se presentan los
picos con valores mas cercanos es en la llave con valor 11.
118
Figura 4.27: NPCR de imágenes cifradas con DES neuronal
119
En la figura 4.29 se presenta el UACI para cada una de las imágenes de referencia,
donde se muestra su comportamiento ante el crecimiento del valor de la llave. Se
puede observar un comportamiento del valor del UACI muy similar al valor del
NPCR, pero en una escala muy distinta, pues los valores del UACI, son inferiores,
estando en el orden de 10−3 .
120
Figura 4.30: ∆ Entropía de imágenes cifradas con DES neuronal
En la figura 4.31 se presenta el AMI para cada una de las imágenes de referen-
cia, donde se muestra su comportamiento ante el crecimiento del valor de la llave.
Se puede observar que la variación de AMI, similar al caso de la variación de la
entropía, los valores de AMI son muy parecidos para las señales correspondientes
a imágenes de ”toma aérea”, ”Cameraman”, ”Faro” y ”Lenna”, adicionalmente se
tiene que los valores para la ”Voz en español”, son los menores, mientras los valores
correspondientes a la ”Flauta china”, son los valores mas altos.
121
• Histogramas
En la figura 4.32 muestra el histograma del valor NPCR, de los experimentos
realizados usando el DES neuronal, donde se presentan valores alrededor de
0,8 como se pude observar en la tabla 4.9, sin embargo se observan valores
desde 0.4 hasta 1.
Figura 4.32: Histograma de NPCR para imágenes cifradas con DES neuronal
122
desviación estándar es del orden de 10−2 , lo cual resulta ideal ya que muestra
la poca relación que se presenta entre las señales cifradas y la original.
Figura 4.33: Histograma de correlación para imágenes cifradas con DES neuronal
En la figura 4.33 se presentan los valores tomados tras calcular los valore
UACI,
123
Figura 4.34: Histograma de UACI para imágenes cifradas con DES neuronal
124
Figura 4.35: Histograma de entropía para imágenes cifradas con DES neuronal
125
Figura 4.36: Histograma de AMI para imágenes cifradas con DES neuronal
126
5. Análisis de resultados
En este capítulo se presenta el análisis de los resultados obtenidos en los dos capítulos
anteriores y se realiza una comparación de los modelos óptimos obtenidos en este
proyecto con resultados obtenidos en la literatura para validar los resultados del
proyecto.
127
5.1 Cifrado con redes neuronales caóticas
5.1.1 Redes de una sola capa
Los resultados de la encriptación utilizando redes de una sola capa se presenta en la
sección 3.4.1, que se encuentra divida en el uso de las diferentes series de tiempo prop-
uestas como lo son el mapa logístico, el mapa cuadrático y las dos componentes del
mapa de Ikeda. A partir de los resultados de la variación de los diferentes parámet-
ros se puede observó que el mejor desempeño se obtiene cuando la correlación y la
información mutua son bajas y la variación de la entropía es alta. Y esto se evi-
dencia en la figura 5.1 y en la tabla 5.1, en la primera se observa dos resultados de
cifrar a ”Lenna” con el mapa logístico, la primera (5.1a) se cifró con r = 3.84 y la
segunda (5.1b) con r = 3.99. Y en la tabla 5.1 se muestran los parámetros de ambas
imágenes, la imagen que entrega los menores valores de Correlación y AMI además
de la mayor variación de la Entropía, presenta un mejor resultado.
128
Se puede observar que para cada una de las series de tiempo, hay zonas en las
cuales el cifrado presenta mejores resultados, son las zonas en las que la correlación
y la información mutua son mínimas y la variación de la entropía es máxima. En la
tabla 5.2 se muestran los lugares en los cuales esto se cumple.
Mapa logístico
Parámetro Rango
r [3.9,4)
xn [0,1]
Mapa cuadrático
Parámetro Rango
c [1.9,2]
xn [0,1]
Mapa de Ikeda
Parámetro Rango
u [0.75,0.8]
xn [0,1]
yn [0,1]
Además con respecto a la variación de los puntos iniciales, se puede observar que
no resultan tan influyentes en el cifrado como los otros parámetros (r,c y u), en la
figura 5.2 se muestran dos resultados de cifrar a ”Lenna” con el mapa logístico, y
en la 5.3 sus respectivos parámetros. La primera (figura 5.2a) se cifró con r = 3.99
y xn = 0.5 y la segunda (figura 5.2b) con r = 3.99 y xn = 0.7, y en la tabla 5.3 que
tiene sus respectivos parámetros se evidencia que los estos son casi iguales. Además
esto se puede ver en todas las figuras de la sección 3.4.1, aunque el resultado no
129
sea el mismo los parámetros de desempeño son muy cercanos. Lo que significa que
los puntos iniciales no son influyentes para que la serie de tiempo presente compor-
tamiento caótico.
• Mapa logístico
En el caso del mapa logístico se manejan dos parámetros r y xn , en la tabla
A.1 y en la tabla A.2 se presenta su respectiva sensibilidad. Para el caso de
130
r se inicia en 2−4 y es sensible hasta 2−51 lo que da como resultado 247 llaves
diferentes posibles, para xn se inicia en 2−2 y es sensible para todos los bits,
por lo que se tiene 250 llaves diferentes. Esto muestra que para el mapa logís-
tico el espacio de llaves es de 297 .
• Mapa cuadrático
Para el caso del mapa cuadrático, cuenta con dos parámetros c y xn , en las
tablas A.3 y A.4 se exhibe su respectiva sensibilidad. Para c se inicia en 2−3 y
es sensible para todos los bits, lo que significa 249 llaves diferentes, para xn se
inicia en 2−1 y es sensible para todos los bits, dando como resultado 251 llaves
diferentes. Esto indica que el espacio de llaves del mapa cuadrático es de 2100 .
• Mapa de Ikeda
Finalmente el mapa de Ikeda cuenta con tres parámetros diferentes u, xn y
yn . En las tablas A.5 y A.8 se presenta la sensibilidad del parámetro u para
ambas componentes, en las tablas A.6 y A.7 se muestra la sensibilidad de xn
para ambas componentes y las tablas A.9 y A.10 presenta la sensibilidad del
parámetro yn de ambas componentes. Para el parámetro u, se inicia en 2−3 , y
es sensible para todos los bits, sin embargo como hay una zona en la cual no
se tiene un buen desempeño, se descartan los bits -3 y -4, teniendo 2−47 llaves
posibles. Para los parámetros xn y yn , se inicio en 2−2 , el primero se sensible
hasta 2−51 y el segundo es sensible para todos los bits. Así, se tienen para el
primero 249 llaves y para el segundo 250 . Así que el mapa de Ikeda tiene un
espacio de llaves de 2146 .
131
Por otra parte el hecho de aumentar el número de capas, mejora el desempeño
del cifrado con respecto a las arquitecturas de una sola capa, y esto se presenta en las
figuras Figura 3.42 - Figura 3.47, donde se puede observar como los parámetros más
determinantes como lo son la correlación y la AMI, para la primera valores del orden
de 10−4 y para el segundo valores menores a 0.2. Es importante tener en cuenta
que a partir de los resultados obtenidos con las arquitecturas de una capa, fue que
se tomaron las zonas de las series de tiempo donde individualmente presentaban el
mejor desempeño.
Finalmente, como se puede observar en la sección 3.4.3 si bien el aumento de
capas produce una mejora en el desempeño, por mas que la correlación siga bajando
a medida que se aumenten las capas, la AMI tiende a 0.19.
132
(a) Faro (b) Lenna
133
Señal NPCR Corr UACI Entropía (b) AMI (b) Tiempo (s)
Voz en español 0,9582 0,0799 0,0018 -0,8059 0,5940 2,947
Flauta china 0,9537 -0,0376 0,0018 -0,7982 0,5902 7,6022
Voz en francés 0,9849 -0,0329 0,0019 -0,9055 0,6912 0,4836
Toma aérea 0,8916 0,0073 0,0015 -0,8678 0,6912 10,6358
Cameraman 0,9977 -0,0509 0,0021 -0,8074 0,5931 9,7857
Faro 0,9751 -0,1227 0,0019 -0,8992 0,6912 30,7824
Lenna 0,9232 0,0008 0,0017 -0,8938 0,6912 26,0699
134
(a) Toma aérea (b) Cameraman
135
(a) Voz en español (b) Flauta china
Tiempo (s)
Señal NPCR Correlación UACI Entropía (b) AMI (b)
Cifrado Descifrado
Voz en español 0,93651 -0,0003 0,0021 -0,8992 0,6912 15,0960 13,7226
Flauta China 0,9177 0,0016 0,0020 -2,4630 0,7974 25,3910 23,3848
Voz francés 0,8994 -0,0006 0,0020 -2,3093 0,8520 8,7214 9,9320
Toma aérea 0,9006 0,0018 0,0020 -2,3673 0,7897 40,2792 39,4201
Cameraman 0,8666 -0,0002 0,0018 -2,3766 0,8191 31,9124 29,0652
Faro 0,9383 0,0003 0,0021 -2,4302 0,7946 80,0032 81,5299
Lenna 0,8913 -0,0039 0,0019 -2,4122 0,7979 66,0251 70,5310
5.2.2 Observaciones
En general los tiempos de entrenamiento que se muestran durante la sección 4,
pueden ser muy variables, debido a que se presentaban entrenamientos con tiempos
importantes del orden de horas, y la maquina de computo no era exclusiva para el
entrenamiento, lo cual disminuía la capacidad de los recursos usados para el entre-
136
namiento.
Es posible que para el caso del DES neuronal, se tengan casos de sobre en-
trenamiento, sin embargo se plantean situaciones, en las cuales todos los posibles
valores de salida son conocidos, y no existen valores intermedios, por lo cual no es
una situación que impacte en el resultado.
137
Figura 5.9: Propuesta uso DES neuronal como algoritmo asimétrico
En la figura 5.9 se propone usar las redes neuronales ya entrenadas como llaves.
Donde la red neuronal de cifrado, junto con la llave de cifrado del algoritmo DES,
como llave publica, y la red neuronal de descifrado, junto con la llave de cifrado del
algoritmo DES como llave privada.
Con el objetivo de que incluso exponiendo la llave publica, si la información es
cifrada con esta llave, sera imposible obtener la información sin la llave privada, que
es básicamente el algoritmo de descifrado. Realizando el proceso de cifrado de esta
manera, se saca provecho de una de las características de las redes neuronales, que es
la falta de capacidad de poder establecer la influencia de una entrada sobre la salida.
138
6. Conclusiones
En este capítulo se presentan las conclusiones del proyecto realizado y los trabajos
futuros que surgieron a medida del desarrollo del mismo.
139
6.1 Resumen
En este proyecto se generaron dos modelos de cifrado simétrico, el primero utilizando
redes neuronales caóticas y el segundo la implementación del algoritmo DES basado
en redes neuronales feedforward. Para el caso de las redes neuronales caóticas, el
cifrado de siete señales escogidas se llevó a cabo utilizando redes desde una hasta
cuatro capas con cuatro series caóticas diferentes. La motivación de este proyecto se
basa en que en la revisión bibliográfica no se encontró un estudio detallado del uso
de las redes caóticas ni de su implementación con arquitecturas de varias capas, tam-
poco de la implementación de algoritmos robustos como el DES con redes neuronales.
A partir de las pruebas realizadas para las redes multicapa, se determinó que el
hecho de utilizar más capas y en estas emplear diferentes orígenes de caos mejora la
calidad del cifrado. Así mismo se determinó que el número óptimo de capas con el
fin de obtener un buen cifrado es tres, ya que el aumento del número de capas si bien
disminuye el valor de la correlación, la AMI no tiende a bajar más del 0.19 que es
el resultado que se obtiene cifrando con tres capas. Dentro de estas pruebas de las
redes multicapa es importante resaltar el hecho de que las redes neuronales caóticas
140
presentan la propiedad conmutativa en sus capas, lo cual resulta algo novedoso y
determinante en el estudio de esta aplicación, ya que el orden en las cuales se usen
las capas no va a afectar el resultado final por lo que el orden no sería parte de la llave.
Finalmente se observó que el modelo que utiliza redes neuronales caóticas pre-
senta muy buenos resultados, ofrece valores de correlación del orden de 10−3 y AMI
del orden de 0.19, lo que lo hace un modelo capaz de cifrar satisfactoriamente difer-
entes tipos de señales a un bajo costo computacional.
Se evidenció la gran capacidad con las que cuentan las redes neuronales feedfor-
ward, puesto logró emular un algoritmo de cifrado de tan alta complejidad como lo
es el DES, teniendo en cuenta que se aplicaron limitantes importantes.
En un principio, el tiempo que puede tardar en entrenar una red neuronal feed-
forward con un algoritmo de cifrado como lo es el DES, puede ser una gran dificultad,
sin embargo es gratamente compensado por el tiempo de cifrado y descifrado que
se obtiene una vez es entrenado correctamente, pues una vez entrenado, puede ser
usado ilimitadamente.
Luego de la experimentación realizada se evidencia que en términos de desem-
peño, a partir del parámetro de tiempo de entrenamiento la función Conjugate gradi-
ent backpropagation with Powell-Beale restarts presenta resultados optimizados, en
comparación con la función de entrenamiento o BFGS quasi-Newton backpropaga-
tion.
Finalmente y tras observar los resultados tanto de las redes caóticas como de las
redes feedforward, los parámetros de las imágenes cifradas con ambos métodos son
similares hallándose la mayor diferencia en los tiempo de cifrado y descifrado. Por
esto mencionado anteriormente, sumado a que la complejidad de las redes caóticas
es considerablemente menor, para la aplicación implementada resulta una mejor
opción el modelo que utiliza redes neuronales caóticas.
141
• Implementar redes neuronales caóticas en sistemas de tipo asimétrico, para
que el intercambio de las llaves no sea un problema del cual preocuparse.
142
Bibliografía
[1] La computación en la nube cambia el paradigma de los negocios [on-
line]. Portafolio. 2016. Disponible en: https://www.dinero.com/edicion-
impresa/tecnologia/articulo/la-computacion-en-la-nube-cambia-el-paradigma-
de-los-negocios/224009
[6] Conozca el Virus que secuestra computadoras y pide rescate [online]. OpticalNet-
works. 2017. Disponible en: https://www.optical.pe/conozca-virus-secuestra-
computadoras-pide-rescate/
[11] Aviram.N et al. DROWN: Breaking TLS using SSLv2. Proceedings of the 25th
USENIX Security Symposium. 2016.
143
[12] M. Anwander, E. Maghsoudi, D. Schweri, S. Leuenberger. Man-in-
middle-attack (MITM). Universidad de Berna. 2003.
144
[24] Grass. D. Optimización multi-objetivo con algoritmos bio-inspirados para el
control y coordinación de inventarios multi-producto Trabajo de fin de Maestría.
Universidad Nacional de Colombia. 2016.
145
[35] M. Arvandi, S. Wu, A. Sadeghian. On the Use of Recurrent Neural Net-
works to Design Symmetric Ciphers, IEEE Computational Intelligence Maga-
zine, mayo 2008.
[36] T. Fadil, S. Yaakob, B. Ahmad A Hybrid Chaos and Neural Network Cipher
Encryption Algorithm for Compressed Video Signal Transmission Over Wireless
Channel in 2nd International Conference on Electronic Design (ICED), Penang,
Malasia, 2014.
[40] Egido. S RSA, una clave secreta que muy probablemente ha usado sin saberlo
Babab. 2001.
[42] M.A. Alba. Redes neuronales artificiales multicapa sincronizadas por entre-
namiento con algoritmos genéticos para el intercambio de clave pública. Trabajo
de fin de grado. Universidad Distrital. 2007.
[43] I.L Peña. Diseño de una infra estructura de clave pública (PKI) y firmado
digital de documentos para la Universidad Distrital francisco José de Caldas.
Trabajo de fin de grado. Universidad Distrital. 2010.
146
[45] C. Ortiz, M. Quiroga. Elliptic curve cryptography implementation for Java.
Trabajo de fin de grado. Universidad de los Andes. 2006.
[50] Orue, A.B et al. Criptoanálisis de un cifrador caótico realizado con redes
neuronales celulares. Actas de la X RECSI. Salamanca. 2008
[54] Claudia Rozas Criptografía, que es, usos y beneficios. Universidad Nacional
del Comahue.
147
[59] H. Corrales, C. Cilleruelo, A. Cuevas. Criptografía y métodos de
cifrado
[60] ANSI X3.92 American National Standard- Data Encryption Algorithm. Amer-
ican National Standards Institute. 1981.
[66] M. García. Implementación del algoritmo de cifrado AES para bajo consumo
sobre FPGA. Trabajo de fin de grado. Universidad Carlos III de Madrid.
[74] Y. Wu, J. Noonan, S. Agaian. NPCR and UACI randomness tests for image
encryption. Journal of Selected Areas in Telecommunications. Abril, 2011.
148
[75] S. Ramakrishnan, R.Raga Rakshitha, V.Gayathiri, P.Kalaiyarasi.
Neural network based image encryption and authentication using chaotic maps.
International Journal of Current Trends in Engineering & Research, vol 3. En-
ero, 2017.
[82] S. Joshi, V. Udupi, D. Joshi, A novel neural network approach for digital
image data encryption/decryption, International Conference on Power, Signals,
Controls and Computation, Enero 2012
149
[87] K. Shihab, A Backpropagation Neural Network for Computer Network Secu-
rity, Journal of Computer Science, 2006.
[95] A. Jain, N. Rajpal A two layer chaotic network based image encryption
technique National Conference on Computing and Communication Systems,
Noviembre 2012.
150
[97] J. Bahi, J. Couchot, C. Guyeux, M. Salomon Neural Networks and
Chaos: Construction, Evaluation of Chaotic Networks, and Prediction of Chaos
with Multilayer Feedforward Networks Agosto 2016.
[100] R. May, Simple mathematical models with very complicated dynamics. Nature.
Vol 261. 10 junio 1976.
[102] K. Ikeda Multiple-valued stationary state and its instability of the transmitted
light by a ring cavity system. Optics Communications. Vol 2. Agosto 1979.
151
A. Redes neuronales caóticas
A.1 Redes neuronales de una sola capa
A.1.1 Mapa Logístico
A.1.1.1 NPCR
152
A.1.1.2 Correlación
153
A.1.1.3 UACI
154
A.1.1.4 ∆Entropía
155
A.1.1.5 AMI
156
A.1.2 Mapa Cuadrático
A.1.2.1 NPCR
157
A.1.2.2 Correlación
158
A.1.2.3 UACI
159
A.1.2.4 ∆Entropía
(a) ∆Entropía para Voz en español (b) ∆Entropía para Flauta china
(c) ∆Entropía para Voz en francés (d) ∆Entropía para Toma aérea
160
A.1.2.5 AMI
161
A.1.3 Mapa de Ikeda (X)
A.1.3.1 NPCR
162
A.1.3.2 Correlación
163
A.1.3.3 UACI
164
A.1.3.4 ∆Entropía
165
A.1.3.5 AMI
166
A.1.4 Mapa de Ikeda (Y)
A.1.4.1 NPCR
167
A.1.4.2 Correlación
168
A.1.4.3 UACI
169
A.1.4.4 ∆Entropía
170
(e) AMI de Faro (f) AMI de Lenna
A.1.4.5 AMI
171
r NCPR Correlación UACI ∆ Entropía AMI
−5
3.9375+2 0.9953 0.0022 0.3107 0.9874 0.5703
3.9375+2−6 0.9958 -0.0042 0.3109 0.9874 0.5773
3.9375+2−7 0.9951 0.0091 0.3091 0.9870 0.5726
0.9950 0.0057 0.3096 0.9877 0.5791
0.9944 0.0036 0.3100 0.9874 0.5770
0.9937 0.0139 0.3075 0.9869 0.5823
0.9939 0.0176 0.3072 0.9876 0.5802
0.9932 0.0124 0.3081 0.9873 0.5793
0.9915 0.0541 0.3016 0.9867 0.6328
0.9958 -0.0177 0.3148 0.9858 0.6568
0.9821 0.0550 0.2988 0.9864 0.6560
0.9917 0.0110 0.3082 0.9877 0.5814
0.9923 0.0120 0.3082 0.9872 0.5828
0.9922 0.0112 0.3083 0.9871 0.5844
0.9928 0.0063 0.3081 0.9874 0.5795
0.9924 0.0062 0.3082 0.9876 0.5790
0.9927 0.0136 0.3068 0.9873 0.5858
0.9930 0.0099 0.3080 0.9873 0.5807
0.9929 0.0079 0.3081 0.9868 0.5828
0.9930 0.0149 0.3072 0.9873 0.5834
. 0.9931 0.0116 0.3066 0.9871 0.5791
. 0.9928 0.0105 0.3078 0.9873 0.5791
. 0.9921 0.0082 0.3078 0.9871 0.5795
. 0.9921 0.0053 0.3086 0.9875 0.5862
. 0.9928 0.0049 0.3088 0.9872 0.5794
. 0.9926 0.0134 0.3068 0.9873 0.5829
. 0.9925 0.0094 0.3084 0.9875 0.5828
. 0.9925 0.0085 0.3083 0.9873 0.5794
0.9923 0.0083 0.3093 0.9875 0.5853
0.9923 0.0090 0.3085 0.9872 0.5850
0.9933 0.0058 0.3087 0.9871 0.5825
0.9920 0.0064 0.3077 0.9871 0.5820
0.9917 0.0035 0.3085 0.9873 0.5819
0.9915 0.0111 0.3068 0.9873 0.5864
172
0.9921 0.0101 0.3076 0.9876 0.5855
0.9927 0.0118 0.3077 0.9877 0.5836
0.9915 0.0097 0.3073 0.9870 0.5802
0.9926 0.0088 0.3085 0.9877 0.5805
0.9921 0.0112 0.3074 0.9873 0.5824
0.9931 0.0074 0.3089 0.9868 0.5820
0.9928 0.0149 0.3069 0.9874 0.5810
0.9914 0.0056 0.3083 0.9869 0.5829
0.9925 0.0098 0.3087 0.9873 0.5827
0.9928 0.0176 0.3066 0.9873 0.5826
0.9912 0.0155 0.3069 0.9872 0.5806
−50
3.9375+2 0.9933 0.0093 0.3084 0.9874 0.5815
3.9375+2−51 0.9915 0.0086 0.3081 0.9866 0.5826
−52
3.9375+2 0.0000 1.0000 0.0000 0.0000 7.0097
A.2.1.2 Parámetro xn
173
0.9944 0.0078 0.3085 0.9871 0.5701
0.9939 0.0077 0.3081 0.9866 0.5797
0.9942 0.0071 0.3086 0.9873 0.5824
0.9941 0.0098 0.3085 0.9870 0.5815
0.9941 0.0093 0.3082 0.9869 0.5781
0.9946 0.0091 0.3089 0.9875 0.5796
0.9946 0.0092 0.3079 0.9870 0.5817
0.9940 0.0060 0.3084 0.9873 0.5826
0.9940 0.0110 0.3074 0.9872 0.5786
0.9933 0.0048 0.3077 0.9872 0.5888
0.9939 0.0111 0.3081 0.9877 0.5797
0.9937 0.0047 0.3082 0.9875 0.5797
0.9938 0.0072 0.3083 0.9871 0.5751
0.9931 0.0044 0.3084 0.9866 0.5815
0.9932 0.0041 0.3085 0.9873 0.5789
0.9944 0.0129 0.3070 0.9869 0.5784
0.9950 0.0097 0.3079 0.9872 0.5805
0.9937 0.0086 0.3081 0.9874 0.5805
0.9939 0.0063 0.3093 0.9877 0.5786
0.9945 0.0045 0.3092 0.9877 0.5793
0.9942 0.0135 0.3076 0.9873 0.5811
0.9937 0.0021 0.3087 0.9875 0.5776
0.9934 0.0010 0.3107 0.9879 0.5833
0.9933 0.0055 0.3084 0.9876 0.5810
0.9938 0.0022 0.3089 0.9875 0.5808
0.9940 0.0037 0.3089 0.9873 0.5770
0.9935 -0.0016 0.3098 0.9873 0.5812
0.9937 0.0114 0.3071 0.9875 0.5799
0.9939 0.0088 0.3081 0.9872 0.5814
0.9934 0.0094 0.3075 0.9872 0.5800
0.9942 0.0002 0.3093 0.9871 0.5779
0.9941 0.0089 0.3092 0.9874 0.5758
0.75+2−50 0.9938 0.0133 0.3069 0.9868 0.5817
0.75+2−51 0.9936 0.0035 0.3093 0.9875 0.5779
174
0.75+2−52 0.9936 0.0089 0.3078 0.9876 0.5731
A.2.2.2 Parámetro xn
176
0.9928 0.0064 0.3073 0.9868 0.5768
0.9922 0.0033 0.3080 0.9870 0.5856
0.9933 0.0051 0.3079 0.9867 0.5825
0.9930 -0.0065 0.3100 0.9874 0.5819
0.9928 0.0096 0.3072 0.9878 0.5821
0.9924 0.0118 0.3067 0.9871 0.5878
0.9926 0.0111 0.3069 0.9872 0.5843
0.9920 0.0068 0.3082 0.9868 0.5788
0.9928 0.0001 0.3087 0.9871 0.5808
0.9930 0.0082 0.3075 0.9876 0.5823
0.9922 0.0051 0.3078 0.9870 0.5840
0.9925 0.0022 0.3090 0.9866 0.5810
0.9925 0.0061 0.3080 0.9874 0.5861
0.9922 0.0072 0.3081 0.9876 0.5793
0.9921 0.0029 0.3082 0.9873 0.5888
0.9929 0.0051 0.3078 0.9871 0.5811
0.9927 0.0012 0.3098 0.9872 0.5839
0.9918 0.0048 0.3079 0.9876 0.5783
0.9921 0.0054 0.3076 0.9872 0.5801
0.9913 0.0079 0.3068 0.9865 0.5818
0.9922 0.0004 0.3088 0.9867 0.5854
0.9917 0.0015 0.3082 0.9870 0.5794
0.9916 0.0017 0.3086 0.9876 0.5818
0.9920 0.0047 0.3078 0.9869 0.5837
0.9923 0.0009 0.3085 0.9877 0.5836
0.9913 0.0084 0.3068 0.9870 0.5878
0.9917 0.0098 0.3072 0.9871 0.5817
0.9913 -0.0016 0.3088 0.9873 0.5825
0.9923 0.0029 0.3092 0.9874 0.5828
0.9922 0.0130 0.3068 0.9870 0.5851
0.9924 0.0009 0.3092 0.9872 0.5801
0.9917 0.0035 0.3078 0.9873 0.5782
0.9920 0.0030 0.3086 0.9870 0.5796
0.9917 0.0034 0.3078 0.9869 0.5867
177
0.9921 0.0027 0.3083 0.9871 0.5814
0.9917 0.0085 0.3073 0.9870 0.5805
0.9913 0.0139 0.3066 0.9869 0.5889
0.9928 0.0062 0.3084 0.9877 0.5834
0.9920 0.0075 0.3074 0.9876 0.5836
0.9920 0.0018 0.3083 0.9867 0.5852
0.9930 0.0073 0.3084 0.9865 0.5821
0.9921 0.0061 0.3080 0.9871 0.5777
0.5+2−50 0.9921 0.0008 0.3094 0.9872 0.5859
−51
0.5+2 0.9920 0.0098 0.3071 0.9875 0.5804
0.5+2−52 0.9920 0.0098 0.3070 0.9868 0.5837
178
0.9906 0.0061 0.3063 0.9866 0.5952
0.9904 0.0083 0.3061 0.9868 0.5972
0.9917 0.0063 0.3063 0.9868 0.5905
0.9905 0.0004 0.3070 0.9869 0.5979
0.9910 0.0061 0.3070 0.9863 0.5921
0.9910 0.0053 0.3071 0.9872 0.5935
0.9907 0.0075 0.3064 0.9864 0.5925
0.9904 0.0078 0.3058 0.9864 0.5965
0.9900 0.0125 0.3050 0.9866 0.5929
0.9906 0.0109 0.3059 0.9863 0.5940
0.9911 -0.0031 0.3081 0.9866 0.5966
0.9890 0.0125 0.3046 0.9862 0.5981
0.9899 0.0038 0.3065 0.9863 0.5967
0.9907 0.0081 0.3055 0.9863 0.5984
0.9902 0.0106 0.3062 0.9867 0.5949
0.9902 0.0098 0.3058 0.9865 0.5947
0.9908 0.0071 0.3069 0.9867 0.5904
0.9908 0.0062 0.3073 0.9869 0.5901
0.9902 0.0035 0.3076 0.9861 0.5954
0.9911 0.0073 0.3066 0.9872 0.5941
0.9898 0.0075 0.3059 0.9860 0.5963
0.9900 0.0060 0.3069 0.9866 0.5962
0.9903 0.0052 0.3064 0.9865 0.5949
0.9904 0.0055 0.3071 0.9867 0.5914
0.9907 0.0012 0.3075 0.9866 0.5895
0.9900 0.0064 0.3066 0.9868 0.5902
0.9897 0.0048 0.3069 0.9870 0.5947
0.9898 0.0097 0.3053 0.9863 0.5970
0.9904 0.0124 0.3055 0.9863 0.5987
0.9893 0.0123 0.3049 0.9865 0.5957
−50
0.75+2 0.9893 0.0073 0.3054 0.9861 0.5963
0.75+2−51 0.9897 0.0096 0.3059 0.9869 0.5952
−52
0.75+2 0.9903 0.0169 0.3043 0.9862 0.5973
179
A.2.3.2 Parámetro xn
180
0.9904 0.0056 0.3056 0.9866 0.5926
0.9902 0.0063 0.3071 0.9868 0.5942
0.9909 0.0071 0.3060 0.9865 0.5981
0.9901 0.0047 0.3069 0.9868 0.5925
0.9895 -0.0030 0.3083 0.9867 0.5938
0.9900 -0.0026 0.3077 0.9866 0.5904
0.9897 0.0022 0.3073 0.9868 0.5945
0.9902 0.0088 0.3065 0.9868 0.5912
0.9899 0.0169 0.3046 0.9861 0.5928
0.9895 0.0059 0.3064 0.9864 0.5963
0.9913 0.0109 0.3055 0.9860 0.5916
0.9901 0.0113 0.3057 0.9866 0.5910
0.9902 0.0078 0.3057 0.9868 0.5930
0.9889 0.0105 0.3050 0.9860 0.5970
0.9904 0.0040 0.3070 0.9863 0.5919
0.9911 -0.0009 0.3087 0.9867 0.5920
0.5+2−50 0.9900 0.0125 0.3056 0.9865 0.5899
−51
0.5+2 0.9906 0.0097 0.3054 0.9866 0.5909
0.5+2−52 0.0000 1.0000 0.0000 0.0000 7.0097
A.2.3.3 Parámetro yn
181
0.9904 0.0044 0.3070 0.9867 0.6006
0.9916 0.0134 0.3054 0.9871 0.5884
0.9900 0.0052 0.3058 0.9863 0.5955
0.9903 0.0015 0.3066 0.9860 0.5976
0.9907 0.0093 0.3065 0.9865 0.5893
0.9911 0.0020 0.3077 0.9863 0.5908
0.9898 0.0144 0.3058 0.9867 0.5952
0.9896 0.0092 0.3052 0.9866 0.5980
0.9891 -0.0033 0.3087 0.9865 0.5964
0.9914 0.0061 0.3077 0.9866 0.5941
0.9908 0.0049 0.3068 0.9862 0.5934
0.9900 0.0063 0.3060 0.9867 0.5907
0.9901 -0.0003 0.3073 0.9862 0.6035
0.9899 0.0066 0.3063 0.9864 0.5978
0.9896 0.0004 0.3073 0.9868 0.5973
0.9904 0.0103 0.3057 0.9863 0.6011
0.9906 0.0036 0.3070 0.9866 0.5954
0.9892 0.0041 0.3070 0.9869 0.5995
0.9902 0.0062 0.3072 0.9864 0.5979
0.9899 0.0033 0.3070 0.9858 0.5974
0.9909 0.0033 0.3076 0.9870 0.5957
0.9900 0.0047 0.3061 0.9862 0.5911
0.9905 0.0032 0.3080 0.9869 0.5973
0.9908 0.0105 0.3061 0.9866 0.5958
0.9890 0.0038 0.3065 0.9869 0.5882
0.9897 0.0077 0.3059 0.9868 0.5918
0.9902 0.0083 0.3053 0.9855 0.5908
0.9903 0.0036 0.3076 0.9865 0.5935
0.9894 0.0051 0.3071 0.9865 0.5961
0.9890 0.0018 0.3067 0.9862 0.5955
0.9894 0.0106 0.3051 0.9864 0.5944
0.9894 0.0019 0.3068 0.9864 0.5940
0.9895 0.0010 0.3075 0.9867 0.5941
0.9896 0.0044 0.3063 0.9861 0.5943
182
0.9899 0.0056 0.3057 0.9861 0.5979
0.9892 0.0079 0.3062 0.9864 0.5911
0.9901 0.0041 0.3064 0.9864 0.5950
0.9904 0.0122 0.3049 0.9861 0.5951
0.5+2−50 0.9899 0.0086 0.3061 0.9861 0.5920
−51
0.5+2 0.9898 0.0155 0.3042 0.9860 0.5956
0.5+2−52 0.9905 0.0067 0.3063 0.9869 0.5960
A.2.4.2 Parámetro xn
184
xn NCPR Correlación UACI ∆ Entropia AMI
−2
0.5+2 0.9899 -0.0040 0.3081 0.9863 0.6019
0.5+2−3 0.9882 0.0063 0.3064 0.9863 0.6026
0.5+2−4 0.9895 0.0126 0.3056 0.9864 0.6016
0.9892 0.0068 0.3060 0.9861 0.5990
0.9889 -0.0015 0.3077 0.9868 0.6019
0.9892 -0.0010 0.3073 0.9862 0.6093
0.9888 -0.0005 0.3073 0.9870 0.6023
0.9880 0.0038 0.3064 0.9863 0.6010
0.9888 0.0029 0.3069 0.9868 0.6078
0.9884 0.0010 0.3068 0.9857 0.6074
0.9887 0.0074 0.3065 0.9866 0.6020
0.9889 -0.0009 0.3081 0.9867 0.6078
0.9886 0.0040 0.3067 0.9865 0.6040
0.9896 0.0101 0.3059 0.9864 0.5995
0.9881 0.0026 0.3070 0.9869 0.6004
0.9877 0.0032 0.3062 0.9865 0.6041
0.9895 -0.0022 0.3077 0.9865 0.5974
0.9892 0.0001 0.3073 0.9866 0.6025
0.9878 0.0079 0.3043 0.9860 0.6031
0.9871 0.0126 0.3049 0.9859 0.6064
0.9886 0.0015 0.3065 0.9867 0.6035
0.9887 0.0042 0.3065 0.9862 0.6013
.
0.9881 0.0062 0.3053 0.9866 0.6024
.
0.9878 0.0035 0.3064 0.9863 0.6041
.
0.9886 0.0024 0.3070 0.9868 0.6032
.
0.9886 0.0062 0.3066 0.9858 0.6036
.
0.9873 -0.0038 0.3076 0.9868 0.6088
.
0.9884 0.0049 0.3063 0.9866 0.6087
.
0.9869 0.0053 0.3058 0.9864 0.6071
.
0.9890 0.0056 0.3068 0.9871 0.6039
0.9878 0.0015 0.3070 0.9864 0.6069
0.9884 -0.0038 0.3076 0.9865 0.6053
0.9879 0.0038 0.3056 0.9864 0.6046
0.9885 0.0105 0.3049 0.9862 0.6052
185
0.9888 0.0088 0.3060 0.9864 0.5992
0.9885 0.0034 0.3060 0.9866 0.5969
0.9874 0.0077 0.3055 0.9860 0.6036
0.9881 0.0003 0.3066 0.9868 0.6035
0.9877 0.0034 0.3066 0.9862 0.6041
0.9883 0.0094 0.3063 0.9868 0.6009
0.9881 0.0040 0.3068 0.9867 0.6017
0.9878 0.0047 0.3055 0.9861 0.6036
0.9890 0.0070 0.3063 0.9865 0.6009
0.9881 0.0016 0.3078 0.9863 0.6066
0.9872 0.0083 0.3052 0.9860 0.6063
0.9870 0.0076 0.3057 0.9869 0.6106
0.9889 -0.0019 0.3075 0.9862 0.6015
0.9890 0.0085 0.3059 0.9864 0.6020
0.5+2−50 0.9881 -0.0010 0.3074 0.9867 0.6049
−51
0.5+2 0.9886 -0.0030 0.3084 0.9870 0.6018
0.5+2−52 0.0000 1.0000 0.0000 0.0000 7.0097
A.2.4.3 Parámetro yn
186
0.9882 0.0082 0.3056 0.9862 0.6040
0.9879 0.0056 0.3064 0.9865 0.6033
0.9894 -0.0035 0.3077 0.9864 0.5998
0.9879 0.0006 0.3076 0.9867 0.6051
0.9882 0.0075 0.3053 0.9865 0.6068
0.9877 0.0088 0.3062 0.9867 0.6075
0.9881 0.0123 0.3047 0.9865 0.6052
0.9893 -0.0044 0.3083 0.9869 0.6033
0.9881 0.0066 0.3059 0.9864 0.6052
0.9879 0.0022 0.3058 0.9863 0.6056
0.9884 -0.0020 0.3066 0.9861 0.6032
0.9883 0.0081 0.3054 0.9862 0.6035
0.9877 0.0079 0.3059 0.9863 0.6036
0.9877 0.0014 0.3068 0.9863 0.6062
0.9888 0.0129 0.3048 0.9866 0.6057
0.9867 0.0063 0.3053 0.9861 0.6103
0.9883 0.0006 0.3064 0.9862 0.6038
0.9881 0.0040 0.3069 0.9868 0.5967
0.9884 0.0143 0.3041 0.9865 0.6107
0.9875 0.0044 0.3061 0.9865 0.6052
0.9884 0.0077 0.3050 0.9858 0.6050
0.9887 -0.0022 0.3081 0.9871 0.6032
0.9867 0.0023 0.3070 0.9859 0.6085
0.9875 0.0054 0.3064 0.9861 0.6079
0.9879 0.0033 0.3062 0.9862 0.6053
0.9885 0.0015 0.3067 0.9870 0.6064
0.9885 0.0010 0.3073 0.9870 0.6035
0.9876 0.0051 0.3059 0.9861 0.6020
0.9864 0.0032 0.3056 0.9862 0.6001
0.9874 0.0035 0.3062 0.9866 0.6061
0.9880 0.0050 0.3066 0.9867 0.6046
0.9880 0.0066 0.3060 0.9865 0.6001
0.9877 0.0048 0.3069 0.9867 0.6016
0.9870 0.0047 0.3056 0.9868 0.6057
187
0.9883 -0.0038 0.3079 0.9868 0.6017
0.9886 0.0033 0.3067 0.9863 0.6030
0.5+2−50 0.9872 -0.0006 0.3071 0.9864 0.6024
−51
0.5+2 0.9880 0.0031 0.3073 0.9863 0.6039
0.5+2−52 0.9882 0.0066 0.3055 0.9862 0.6060
188