Torres Muñoz Juan Camilo 2019

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 208

ENCRIPTACIÓN SIMÉTRICA DE SEÑALES USANDO

ARQUITECTURAS NEURONALES

JUAN CAMILO TORRES MUÑOZ


DIEGO ALEXANDER FERREIRA CORTÉS

Universidad Distrital Francisco José de Caldas


Facultad de Ingeniería
Proyecto Curricular Ingeniería Electrónica
Bogotá, Colombia
2018
ENCRIPTACIÓN SIMÉTRICA DE SEÑALES USANDO
ARQUITECTURAS NEURONALES

JUAN CAMILO TORRES MUÑOZ


DIEGO ALEXANDER FERREIRA CORTÉS

Trabajo de grado para optar al título de:


Ingeniero Electrónico

Director:
ANDRES EDUARDO GAONA BARRERA
Profesor Asistente – Facultad de Ingeniería

Universidad Distrital Francisco José de Caldas


Facultad de Ingeniería
Proyecto Curricular Ingeniería Electrónica
Bogotá, Colombia
2018
Nota de aceptación

Firma del Jurado


Resumen

En este proyecto se lleva a cabo el desarrollo de dos sistemas de cifrado basados


en redes neuronales, el primero a partir de redes neuronales de tipo caóticas y el
segundo una emulación del algoritmo DES (Data Encryption Standard) por medio
de una red neuronal feedforward.

Para llevar a cabo el desarrollo del modelo de redes neuronales caóticas, primero
se llevó a cabo un análisis del comportamiento que presenta cuando en la capa oculta
se encuentra únicamente una capa caótica, mientras se variaba el tipo de caos y sus
parámetros. Luego se utilizaron los resultados obtenidos, con el fin de encontrar los
valores que pueden tomar los parámetros de las señales caóticas para que el modelo
presente buen desempeño y así medir la sensibilidad del modelo, para determinar
el espacio de llaves para cada una de las diferentes series de tiempo caóticas. Fi-
nalmente y basados en los resultados de los dos puntos anteriores se llevó a cabo
un análisis del comportamiento del modelo con arquitecturas de dos, tres y cuatro
capas caóticas en la capa oculta. Los resultados muestran que a medida que se
aumenta el número de capas caóticas se mejora el desempeño pero que esa mejora
tiende a ser cada vez menor y no resulta justificable para la cantidad de recursos
que necesita, por lo que el modelo ideal es una arquitectura con tres capas caóticas.

En cuanto al modelo que emula el algoritmo DES, se generó el modelo a partir del
algoritmo original. Puesto que no se han utilizado redes neuronales anteriormente,
se desea conocer si es posible emular el comportamiento de esta algoritmo con una
red neuronal de tipo feedforward. Por este motivo, se hace uso del algoritmo para
generar una base de datos de entrenamiento que luego será utilizada para llevar a
cabo la generación del modelo de cifrado. Luego se lleva a cabo el entrenamiento de
del modelo a partir de la base de datos generada previamente. Los resultados del
modelo logran el objetivo propuesto puesto que cifran de forma correcta las señales
de prueba propuestas.
Contenido

Resumen i

Lista de figuras viii

Lista de tablas xiii

1 Generalidades 1
1.1 Planteamiento del Problema . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Alcances y Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1 Alcances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Marco Teórico 8
2.1 Criptografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Criptosistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Criptografía simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Data Encryption Standard (DES) . . . . . . . . . . . . . . . . 11
2.3.1.1 Simplified Data Encryption Standard (SDES) . . . . 13
2.3.1.2 Triple DES (3DES) . . . . . . . . . . . . . . . . . . 14
2.3.2 Advanced Encryption Standard (AES) . . . . . . . . . . . . . 15
2.4 Criptografía asimétrica . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4.1 Rivest, Shamir y Adleman (RSA) . . . . . . . . . . . . . . . . 17
2.4.2 Criptografía ElGamal . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Parámetros de desempeño . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.1 NCPR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.2 UACI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.3 Correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.4 Entropía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.5 Información mutua promedio (AMI) . . . . . . . . . . . . . . 20

iii
2.6 Redes neuronales artificiales . . . . . . . . . . . . . . . . . . . . . . . 20
2.6.1 Perceptron . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.1.1 Funciones de transferencia . . . . . . . . . . . . . . 23
2.6.2 Arquitecturas neuronales . . . . . . . . . . . . . . . . . . . . . 25
2.6.2.1 Redes neuronales feedforward . . . . . . . . . . . . . 26
2.6.2.2 Redes neuronales recurrentes . . . . . . . . . . . . . 27
2.6.2.3 Redes neuronales caóticas . . . . . . . . . . . . . . . 28

3 Redes neuronales caóticas 31


3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Arquitecturas propuestas . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Experimentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.1 Modelo de encriptación con redes caóticas de una capa . . . . 38
3.3.2 Análisis de sensibilidad y espacio de llaves . . . . . . . . . . . 39
3.3.3 Modelo de encriptación con redes caóticas multicapa . . . . . 39
3.4 Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.4.1 Resultados obtenidos con redes de una capa . . . . . . . . . . 40
3.4.1.1 Mapa Logístico . . . . . . . . . . . . . . . . . . . . . 41
3.4.1.2 Mapa Cuadrático . . . . . . . . . . . . . . . . . . . 46
3.4.1.3 Mapa de Ikeda . . . . . . . . . . . . . . . . . . . . . 51
3.4.2 Análisis de sensibilidad y espacio de llaves . . . . . . . . . . . 61
3.4.2.1 Mapa Logístico . . . . . . . . . . . . . . . . . . . . . 61
3.4.2.2 Mapa Cuadrático . . . . . . . . . . . . . . . . . . . 65
3.4.2.3 Mapa de Ikeda . . . . . . . . . . . . . . . . . . . . . 69
3.4.3 Resultados obtenidos con redes multicapa . . . . . . . . . . . 78
3.4.3.1 Prueba de conmutatividad . . . . . . . . . . . . . . 78
3.4.3.2 Redes de dos capas . . . . . . . . . . . . . . . . . . 80
3.4.3.3 Redes de tres capa . . . . . . . . . . . . . . . . . . . 82
3.4.3.4 Redes de cuatro capas . . . . . . . . . . . . . . . . . 83
3.4.4 Complejidad del modelo . . . . . . . . . . . . . . . . . . . . . 85

4 Redes neuronales feedforward 87


4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.2 Modelo propuesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.3 Experimentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.3.1 Definición parámetros de desempeño de la red . . . . . . . . . 90
4.3.2 Condiciones de la experimentación . . . . . . . . . . . . . . . 91
4.3.3 Función de entrenamiento : BFGS quasi-Newton backpropa-
gation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.4 Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.4.1 Limitación de base de datos . . . . . . . . . . . . . . . . . . . 94
4.4.1.1 Experimento 2 . . . . . . . . . . . . . . . . . . . . . 96
4.4.1.2 Experimento 3 . . . . . . . . . . . . . . . . . . . . . 98
4.4.2 Función de entrenamiento : BFGS quasi-Newton backpropa-
gation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.4.2.1 Una capa . . . . . . . . . . . . . . . . . . . . . . . . 101
4.4.2.2 Dos capas . . . . . . . . . . . . . . . . . . . . . . . . 106
4.4.3 Función de entrenamiento : Conjugate gradient backpropa-
gation with Powell-Beale restarts (CGB) . . . . . . . . . . . . 109
4.4.3.1 Una capa . . . . . . . . . . . . . . . . . . . . . . . . 110
4.4.3.2 Dos capas . . . . . . . . . . . . . . . . . . . . . . . . 113
4.4.4 Evaluación de parametros . . . . . . . . . . . . . . . . . . . . 116
4.4.4.1 Evaluación DES y DES neuronal . . . . . . . . . . . 116
4.4.4.2 Evaluación parámetros DESneuronal . . . . . . . . . 118

5 Análisis de resultados 127


5.1 Cifrado con redes neuronales caóticas . . . . . . . . . . . . . . . . . . 128
5.1.1 Redes de una sola capa . . . . . . . . . . . . . . . . . . . . . . 128
5.1.2 Espacio de llaves . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.1.3 Redes multicapa . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.1.4 Mejores resultados . . . . . . . . . . . . . . . . . . . . . . . . 132
5.2 Cifrado con redes neuronales feedforward . . . . . . . . . . . . . . . . 134
5.2.1 Mejores resultados . . . . . . . . . . . . . . . . . . . . . . . . 134
5.2.2 Observaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.2.3 DES Neuronal asimétrico . . . . . . . . . . . . . . . . . . . . 137

6 Conclusiones 139
6.1 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2 Trabajo futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

A Redes neuronales caóticas 152


A.1 Redes neuronales de una sola capa . . . . . . . . . . . . . . . . . . . 152
A.1.1 Mapa Logístico . . . . . . . . . . . . . . . . . . . . . . . . . . 152
A.1.1.1 NPCR . . . . . . . . . . . . . . . . . . . . . . . . . 152
A.1.1.2 Correlación . . . . . . . . . . . . . . . . . . . . . . . 153
A.1.1.3 UACI . . . . . . . . . . . . . . . . . . . . . . . . . . 154
A.1.1.4 ∆Entropía . . . . . . . . . . . . . . . . . . . . . . . 155
A.1.1.5 AMI . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
A.1.2 Mapa Cuadrático . . . . . . . . . . . . . . . . . . . . . . . . . 157
A.1.2.1 NPCR . . . . . . . . . . . . . . . . . . . . . . . . . 157
A.1.2.2 Correlación . . . . . . . . . . . . . . . . . . . . . . . 158
A.1.2.3 UACI . . . . . . . . . . . . . . . . . . . . . . . . . . 159
A.1.2.4 ∆Entropía . . . . . . . . . . . . . . . . . . . . . . . 160
A.1.2.5 AMI . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
A.1.3 Mapa de Ikeda (X) . . . . . . . . . . . . . . . . . . . . . . . . 162
A.1.3.1 NPCR . . . . . . . . . . . . . . . . . . . . . . . . . 162
A.1.3.2 Correlación . . . . . . . . . . . . . . . . . . . . . . . 163
A.1.3.3 UACI . . . . . . . . . . . . . . . . . . . . . . . . . . 164
A.1.3.4 ∆Entropía . . . . . . . . . . . . . . . . . . . . . . . 165
A.1.3.5 AMI . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
A.1.4 Mapa de Ikeda (Y) . . . . . . . . . . . . . . . . . . . . . . . . 167
A.1.4.1 NPCR . . . . . . . . . . . . . . . . . . . . . . . . . 167
A.1.4.2 Correlación . . . . . . . . . . . . . . . . . . . . . . . 168
A.1.4.3 UACI . . . . . . . . . . . . . . . . . . . . . . . . . . 169
A.1.4.4 ∆Entropía . . . . . . . . . . . . . . . . . . . . . . . 170
A.1.4.5 AMI . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
A.2 Prueba de sensibilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 171
A.2.1 Mapa Logístico . . . . . . . . . . . . . . . . . . . . . . . . . . 171
A.2.1.1 Parámetro r . . . . . . . . . . . . . . . . . . . . . . 171
A.2.1.2 Parámetro xn . . . . . . . . . . . . . . . . . . . . . . 173
A.2.2 Mapa Cuadrático . . . . . . . . . . . . . . . . . . . . . . . . . 175
A.2.2.1 Parámetro c . . . . . . . . . . . . . . . . . . . . . . 175
A.2.2.2 Parámetro xn . . . . . . . . . . . . . . . . . . . . . . 176
A.2.3 Mapa de Ikeda (X) . . . . . . . . . . . . . . . . . . . . . . . . 178
A.2.3.1 Parámetro u . . . . . . . . . . . . . . . . . . . . . . 178
A.2.3.2 Parámetro xn . . . . . . . . . . . . . . . . . . . . . . 180
A.2.3.3 Parámetro yn . . . . . . . . . . . . . . . . . . . . . . 181
A.2.4 Mapa de Ikeda (Y) . . . . . . . . . . . . . . . . . . . . . . . . 183
A.2.4.1 Parámetro u . . . . . . . . . . . . . . . . . . . . . . 183
A.2.4.2 Parámetro xn . . . . . . . . . . . . . . . . . . . . . . 184
A.2.4.3 Parámetro yn . . . . . . . . . . . . . . . . . . . . . . 186
Lista de Figuras
2.1 Criptosistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Estructura general del DES [58] . . . . . . . . . . . . . . . . . . . . . 11
2.3 Generación de las subllaves . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Función de Feistel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5 Estructura SDES [63] . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.6 AddRoundKey [64] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.7 SubBytes [64] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.8 ShiftRows [64] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.9 MixColumns [64] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.10 Esquena neuronas biológicas [81] . . . . . . . . . . . . . . . . . . . . 21
2.11 Modelo neurona artificial [83] . . . . . . . . . . . . . . . . . . . . . . 22
2.12 función de transferencia limitador duro [81] . . . . . . . . . . . . . . 23
2.13 función de transferencia lineal [81] . . . . . . . . . . . . . . . . . . . 24
2.14 función de transferencia logaritmica - sigmoidal [81] . . . . . . . . . 24
2.15 función de transferencia Hiperbolica - Tangenciall [81] . . . . . . . . 25
2.16 Estructura básica red neuronal [85] . . . . . . . . . . . . . . . . . . . 26
2.17 Red neuronal recurrente [85] . . . . . . . . . . . . . . . . . . . . . . 28
2.18 Diagrama bifurcación de mapa logístico [92] . . . . . . . . . . . . . . 29

3.1 Red caótica de tres capas . . . . . . . . . . . . . . . . . . . . . . . . 33


3.2 Diagrama de bifurcación mapa cuadrático [101] . . . . . . . . . . . . 34
3.3 Imágenes en blanco y negro . . . . . . . . . . . . . . . . . . . . . . . 36
3.4 Imágenes en color . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5 Audios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6 NPCR de Lenna usando el mapa logístico . . . . . . . . . . . . . . . 42
3.7 Correlación lineal de Lenna usando el mapa logístico . . . . . . . . . 43
3.8 UACI de Lenna usando el mapa logístico . . . . . . . . . . . . . . . . 44
3.9 ∆ de Entropía de Lenna usando el mapa logístico . . . . . . . . . . . 45
3.10 AMI de Lenna usando el mapa logístico . . . . . . . . . . . . . . . . 46
3.11 NPCR de Faro usando el mapa cuadrático . . . . . . . . . . . . . . . 47
3.12 Correlación lineal de Faro usando el mapa cuadrático . . . . . . . . . 48
3.13 UACI de Faro usando el mapa cuadrático . . . . . . . . . . . . . . . 49
3.14 ∆Entropía para Faro usando el mapa cuadrático . . . . . . . . . . . . 50

viii
3.15 AMI de Faro usando el mapa cuadrático . . . . . . . . . . . . . . . . 51
3.16 NPCR de Camerman usando el mapa de Ikeda . . . . . . . . . . . . . 52
3.17 Correlación lineal de Cameraman usando el mapa de Ikeda . . . . . . 53
3.18 UACI de Cameraman usando el mapa de Ikeda . . . . . . . . . . . . 54
3.19 ∆Entropía de Cameraman usando el mapa de Ikeda . . . . . . . . . . 55
3.20 AMI de Cameraman usando el mapa de Ikeda . . . . . . . . . . . . . 56
3.21 NPCR de Voz en español usando el mapa de Ikeda . . . . . . . . . . 57
3.22 Correlación lineal de Voz en español usando el mapa logístico . . . . 58
3.23 UACI de Voz en español usando el mapa de Ikeda . . . . . . . . . . . 59
3.24 ∆Entropía de Voz en español usando el mapa de Ikeda . . . . . . . . 60
3.25 AMI de Voz en español usando el mapa de Ikeda . . . . . . . . . . . 61
3.26 Imágenes de prueba de la sensibilidad. Parámetro r . . . . . . . . . . 62
3.27 Desencriptación variando el parámetro r . . . . . . . . . . . . . . . . 63
3.28 Imágenes de prueba de la sensibilidad. Parámetro xn . . . . . . . . . 64
3.29 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 65
3.30 Cifrado usando el mapa cuadrático . . . . . . . . . . . . . . . . . . . 66
3.31 Desencriptación variando el parámetro c . . . . . . . . . . . . . . . . 67
3.32 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 68
3.33 Cifrado utilizando el mapa de Ikeda (X) . . . . . . . . . . . . . . . . 69
3.34 Desencriptación variando el parámetro u . . . . . . . . . . . . . . . . 70
3.35 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 71
3.36 Desencriptación variando el parámetro yn . . . . . . . . . . . . . . . 73
3.37 Cifrado utilizando el mapa de Ikeda (Y) . . . . . . . . . . . . . . . . 74
3.38 Desencriptación variando el parámetro u . . . . . . . . . . . . . . . . 75
3.39 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 76
3.40 Desecnriptación variando el parámetro yn . . . . . . . . . . . . . . . 77
3.41 Cifrado multicapa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.42 Histograma de la correlación para redes de dos capas . . . . . . . . . 80
3.43 Histograma de la AMI para redes de dos capas . . . . . . . . . . . . . 81
3.44 Histograma de la correlación para redes de tres capas . . . . . . . . . 82
3.45 Histograma de la AMI para redes de tres capas . . . . . . . . . . . . 83
3.46 Histograma de la correlación para redes de cuatro capas . . . . . . . 84
3.47 Histograma de la AMI para redes de cuatro capas . . . . . . . . . . . 85

4.1 Objetivo red neuronal, con entrenamiento supervisado . . . . . . . . 88


4.2 Modelo general de algoritmo DES con red neuronal. . . . . . . . . . . 89
4.3 Modelo para entrenamiento. . . . . . . . . . . . . . . . . . . . . . . . 89
4.4 (a)Tabla de permutación inicial (b) Vector expansión del mensaje
(Feistel) (c) Permutación final (Feistel) (d) caja permutación 1 para
sub llaves (e) caja permutación 2 para sub llaves . . . . . . . . . . . . 92
4.5 Prueba inicial con imagen . . . . . . . . . . . . . . . . . . . . . . . . 95
4.6 Prueba inicial con imagen . . . . . . . . . . . . . . . . . . . . . . . . 97
4.7 Prueba inicial con imagen . . . . . . . . . . . . . . . . . . . . . . . . 99
4.8 Mensajes que serán cifrados . . . . . . . . . . . . . . . . . . . . . . . 100
4.9 Llaves usadas para cifrar . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.10 Información cifrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.11 Error redes feedforward una capa intermedia - entrenamiento BFGS
- descifrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.12 Tiempo entrenamiento redes feedforward una capa intermedia - en-
trenamiento BFGS - descifrado . . . . . . . . . . . . . . . . . . . . . 102
4.13 Error redes feedforward una capa intermedia - entrenamiento BFGS
- cifrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.14 Tiempo entrenamiento redes feedforward una capa intermedia - en-
trenamiento BFGS - cifrado . . . . . . . . . . . . . . . . . . . . . . . 105
4.15 Error redes feedforward dos capas intermedias - entrenamiento BFGS
- descifrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.16 Tiempo entrenamiento redes feedforward dos capas intermedias - en-
trenamiento BFGS - descifrado . . . . . . . . . . . . . . . . . . . . . 107
4.17 Error redes feedforward dos capas intermedias - entrenamiento BFGS
- cifrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.18 Tiempo entrenamiento redes feedforward dos capas intermedias - en-
trenamiento BFGS - cifrado . . . . . . . . . . . . . . . . . . . . . . . 109
4.19 Error redes feedforward una capa intermedia - entrenamiento CGB -
descifrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.20 Tiempo entrenamiento redes feedforward duna capa intermedia - en-
trenamiento CGB - descifrado . . . . . . . . . . . . . . . . . . . . . . 111
4.21 Error redes feedforward una capa intermedia - entrenamiento CGB -
cifrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.22 Tiempo entrenamiento redes feedforward duna capa intermedia - en-
trenamiento CGB - cifrado . . . . . . . . . . . . . . . . . . . . . . . . 112
4.23 Error redes feedforward dos capas intermedias - entrenamiento CGB
- descifrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.24 Tiempo entrenamiento redes feedforward de dos capas intermedias -
entrenamiento CGB - descifrado . . . . . . . . . . . . . . . . . . . . . 114
4.25 Error redes feedforward dos capas intermedias - entrenamiento CGB
- descifrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4.26 Tiempo entrenamiento redes feedforward de dos capas intermedias -
entrenamiento CGB - descifrado . . . . . . . . . . . . . . . . . . . . . 116
4.27 NPCR de imágenes cifradas con DES neuronal . . . . . . . . . . . . . 119
4.28 Correlación lineal de imágenes cifradas con DES neuronal . . . . . . . 119
4.29 UACI de imágenes cifradas con DES neuronal . . . . . . . . . . . . . 120
4.30 ∆ Entropía de imágenes cifradas con DES neuronal . . . . . . . . . . 121
4.31 AMI de imágenes cifradas con DES neuronal . . . . . . . . . . . . . . 121
4.32 Histograma de NPCR para imágenes cifradas con DES neuronal . . . 122
4.33 Histograma de correlación para imágenes cifradas con DES neuronal . 123
4.34 Histograma de UACI para imágenes cifradas con DES neuronal . . . 124
4.35 Histograma de entropía para imágenes cifradas con DES neuronal . . 125
4.36 Histograma de AMI para imágenes cifradas con DES neuronal . . . . 126

5.1 Imágenes cifradas con diferente r . . . . . . . . . . . . . . . . . . . . 128


5.2 Imágenes cifrada con diferente xn . . . . . . . . . . . . . . . . . . . . 130
5.3 Imágenes en blanco y negro cifradas . . . . . . . . . . . . . . . . . . . 132
5.4 Imágenes en color cifradas . . . . . . . . . . . . . . . . . . . . . . . . 133
5.5 Audios cifrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.6 Imágenes en blanco y negro cifradas DES . . . . . . . . . . . . . . . . 135
5.7 Imágenes en color cifradas DES . . . . . . . . . . . . . . . . . . . . . 135
5.8 Audiós cifrados DES . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.9 Propuesta uso DES neuronal como algoritmo asimétrico . . . . . . . 138
5.10 Propuesta alternativa para las llaves . . . . . . . . . . . . . . . . . . 138

A.1 NPCR cifrando con el mapa logístico . . . . . . . . . . . . . . . . . . 152


A.2 Correlación cifrando con el mapa logístico . . . . . . . . . . . . . . . 153
A.3 UACI cifrando con el mapa logístico . . . . . . . . . . . . . . . . . . 154
A.4 ∆Entropía cifrando con el mapa logístico . . . . . . . . . . . . . . . . 155
A.5 AMI cifrando con el mapa logístico . . . . . . . . . . . . . . . . . . . 156
A.6 NPCR cifrando con el mapa cuadrático . . . . . . . . . . . . . . . . . 157
A.7 Correlación cifrando con el mapa cuadrático . . . . . . . . . . . . . . 158
A.8 UACI cifrando con el mapa cuadrático . . . . . . . . . . . . . . . . . 159
A.9 ∆Entropía cifrando con el mapa logístico . . . . . . . . . . . . . . . . 160
A.10 AMI cifrando con el mapa cuadrático . . . . . . . . . . . . . . . . . . 161
A.11 NPCR cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . . . . 162
A.12 Correlación cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . 163
A.13 UACI cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . . . . 164
A.14 ∆Entropía cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . . 165
A.15 AMI cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . . . . . 166
A.16 NPCR cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . . . . 167
A.17 Correlación cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . 168
A.18 UACI cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . . . . 169
A.19 ∆Entropía cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . . 170
A.20 AMI cifrando con el mapa de Ikeda . . . . . . . . . . . . . . . . . . . 171
Lista de Tablas
2.1 Funciones de activación . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.1 Características imágenes . . . . . . . . . . . . . . . . . . . . . . . . . 36


3.2 Características audios . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3 Parámetros series caóticas . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Distribución de las series caóticas . . . . . . . . . . . . . . . . . . . . 40
3.5 N° de experimentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.6 Experimentación mapa logístico . . . . . . . . . . . . . . . . . . . . . 41
3.7 Experimentación mapa cuadrático . . . . . . . . . . . . . . . . . . . . 46
3.8 Experimentación mapa logístico . . . . . . . . . . . . . . . . . . . . . 51
3.9 Desencriptación variando el parámetro r . . . . . . . . . . . . . . . . 63
3.10 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 65
3.11 Desencriptación variando el parámetro c . . . . . . . . . . . . . . . . 67
3.12 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 69
3.13 Desencriptación variando el parámetro u . . . . . . . . . . . . . . . . 70
3.14 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 72
3.15 Desencriptación variando el parámetro yn . . . . . . . . . . . . . . . 73
3.16 Desencriptación variando el parámetro u . . . . . . . . . . . . . . . . 75
3.17 Desencriptación variando el parámetro xn . . . . . . . . . . . . . . . 76
3.18 Desencriptación variando el parámetro yn . . . . . . . . . . . . . . . 78
3.19 Parámetros utilizados para el cifrado para la prueba de conmutatividad 78
3.20 Resultados del cifrado intercambiando las series de tiempo . . . . . . 79
3.21 Desviación y media de la Correlación en redes de dos capas . . . . . . 81
3.22 Desviación y media de la AMI en redes de dos capas . . . . . . . . . 81
3.23 Desviación y media de la Correlación en redes de tres capas . . . . . 82
3.24 Desviación y media de la AMI en redes de tres capas . . . . . . . . . 83
3.25 Desviación y media de la Correlación en redes de cuatro capas . . . . 84
3.26 Desviación y media de la AMI en redes de cuatro capas . . . . . . . . 85
3.27 Tiempos de cifrado/descifrado *C : Número de capas *N : Número de
neuronas S1: Voz en español. S2: Flauta china. S3: Voz en francés.
S4: Toma aérea. S5: Cameraman. S6: Faro. S7: Lenna. . . . . . . . 86

4.1 Parámetros Toolbox MATLAB, modificados . . . . . . . . . . . . . . 93

xiii
4.2 Exploración solución red neuronal con dimensión de llaves y mensajes
de 11 bits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.3 Exploración solución red neuronal con dimensión de mensajes y llaves
de 10 bits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.4 Exploración solución red neuronal con dimensión de mensajes de 8
bits y llaves de 6 bits . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.5 N° de experimentos, usando BFGS . . . . . . . . . . . . . . . . . . . 101
4.6 N° de experimentos, usando CGB . . . . . . . . . . . . . . . . . . . . 110
4.7 Tiempos en segundos de cifrado y descifrado, para señales de audio . 117
4.8 Tiempos en segundos de cifrado y descifrado, para imagenes . . . . . 117
4.9 Desviación y media del NPCR en DES Neuronal . . . . . . . . . . . . 122
4.10 Desviación y media de la correlación en DES Neuronal . . . . . . . . 123
4.11 Desviación y media de UACI en DES Neuronal . . . . . . . . . . . . 124
4.12 Desviación y media de entropía en DES Neuronal . . . . . . . . . . . 125
4.13 Desviación y media de AMI con DES Neuronal . . . . . . . . . . . . 126

5.1 Parámetros imágenes 5.1 . . . . . . . . . . . . . . . . . . . . . . . . . 128


5.2 Zonas de mejor desempeño . . . . . . . . . . . . . . . . . . . . . . . . 129
5.3 Parámetros imágenes 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.4 Mejores resultados con redes caóticas . . . . . . . . . . . . . . . . . . 134
5.5 Mejores resultados con redes feedforward . . . . . . . . . . . . . . . . 136

A.1 Prueba de sensibilidad parámetro r . . . . . . . . . . . . . . . . . . . 173


A.2 Prueba de sensibilidad parámetro xn . . . . . . . . . . . . . . . . . . 175
A.3 Prueba de sensibilidad parámetro c . . . . . . . . . . . . . . . . . . . 176
A.4 Prueba de sensibilidad parámetro xn . . . . . . . . . . . . . . . . . . 178
A.5 Prueba de sensibilidad parámetro u . . . . . . . . . . . . . . . . . . . 179
A.6 Prueba de sensibilidad parámetro xn . . . . . . . . . . . . . . . . . . 181
A.7 Prueba de sensibilidad parámetro yn . . . . . . . . . . . . . . . . . . 183
A.8 Prueba de sensibilidad parámetro u . . . . . . . . . . . . . . . . . . . 184
A.9 Prueba de sensibilidad parámetro xn . . . . . . . . . . . . . . . . . . 186
A.10 Prueba de sensibilidad parámetro yn . . . . . . . . . . . . . . . . . . 188
1. Generalidades

Se presentan los aspectos del proyecto realizado como el planteamiento del problema,
los objetivos que se esperan cumplir, la justificación y los alcances y limitaciones del
mismo.

1
1.1 Planteamiento del Problema
Actualmente el mundo gira alrededor de la información, la cual se encuentra en
mayor medida en forma digital y cuya transmisión se hace a través de canales que
suelen ser públicos. Recientemente ha ido en aumento el almacenamiento de gran
parte de la información en la nube, es decir se confía la información a sistemas de
terceros [1], [2]. Es por esto que la privacidad de la información se ha convertido en
una característica que se busca y se trata de mejorar a diario. Por la importancia
que esta representa, es frecuente encontrarse con ataques que buscan vulnerar esa
privacidad y obtener la información [3].

El canal por el cual se transporta la información hace parte de un conjunto en-


tendido como sistema de información y está compuesto por el hardware, el software,
los datos, la red y las personas que utilizan el sistema. En el componente de red es
donde se pueden presentar los mayores problemas de pérdida o alteración de la infor-
mación, puesto que es el componente en el que puede intervenir un tercero con mayor
facilidad [4]-[6]. Es por esto que es requerida una transmisión segura y para esto se
han desarrollado protocolos de internet con el fin de proteger la información, como
lo son TLS (Transport Layer Security) o SSL(Secure Sockets Layer)[7],[8]. A estos
protocolos se le han encontrado ciertas fallas, como el Heartbleed, que permite al
atacante leer la memoria del servidor haciendo vulnerable la información [9],[10],[11].

En el momento en que dos usuarios se conectan a la red para realizar un in-


tercambio, es donde se pueden presentar ataques para el robo de la información,
principalmente por un método conocido como ”Man in the middle” (MITM) [12],
[13], [14]. El MITM es un ataque con una dificultad de detección muy alta, ya que el
atacante se hace parte del sistema y se hace pasar por un dispositivo de confianza.
El MITM consiste en interceptar la comunicación entre dos puntos y convertirse
en un nodo intermedio a través del cual transita toda la información, dándole la
capacidad de robar y alterar la información, engañando así a los usuarios [13].

El método utilizado para salvaguardar la información digital es la criptografía


[15]. Esta es una técnica que permite mediante una serie de operaciones hacer inintel-
igible información importante. A pesar de que pueda parecer reciente, se ha usado a
lo largo de la historia, en el imperio romano, Julio César utilizó un método conocido
como cifrado César (o cifrado por desplazamiento) para comunicarse secretamente

2
con sus generales [16]. En la actualidad se usa en una gran cantidad de sistemas
que manejan información digital con el fin de mantenerla privada [17]. Este método
brinda importantes ventajas como confidencialidad, autenticidad e integridad de la
información [16]. Su modificación y desarrollo se ha dado como consecuencia de la
búsqueda de aquellos que se ingenian métodos para romper los algoritmos y conseguir
la información y aquellos interesados en protegerla, haciendo así que, los algoritmos
pierdan seguridad con el paso del tiempo y sean desarrollados algoritmos nuevos [18].

El desarrollo de la criptografía va desde la antigüedad en que se realizaban sim-


ples sustituciones [16], hasta la modernidad, en la que se encuentra el uso de algo-
ritmos elaborados que utilizan una clave secreta o ”llave” [19]. La importancia de
la clave secreta radica en que es la pieza que controla la operación del algoritmo.
Actualmente se utilizan estos últimos y es posible dividir en dos tipos de sistemas,
simétricos y asimétricos. Cada uno presenta ventajas y desventajas con respecto
al otro, en cuestiones de seguridad y tiempos, así que según la aplicación varía su
uso. Con respecto a las llaves, la criptografía asimétrica lleva la ventaja debido
a que la distribución de estas es más fácil, teniendo en cuenta que la llave que se
distribuye es la pública y se mantiene la privada para uso exclusivo del propietario.
En contraposición, en el caso simétrico hay que ser cuidadosos para que la llave
no sea revelada a usuarios no autorizados poniendo en riesgo la privacidad de la
información [16].

A través de la historia, la naturaleza y los procesos que se ven en ella han servido
de inspiración para el planteamiento de soluciones a un gran número de problemas
de la vida cotidiana, como problemas de organización o de planificación[20]-[23].
Además en problemas de ingeniería como la sintonización de parámetros de un con-
trol PID o problemas de optimización [24],[25],[26]. Los sistemas que logran emular
comportamientos de este tipo, se conocen como sistemas bioinspirados. Estos sis-
temas han mostrado su aplicabilidad en el planteamiento de alternativas que buscan
resolver problemas contemporáneos, a los cuales difícilmente se les logra dar solu-
ción con la aplicación de modelos físicos o matemáticos típicos [27]. Dentro de esos
sistemas se encuentran los algoritmos evolutivos, las redes neuronales, los algoritmos
de colonia de hormigas y otros [28],[29],[30].

Uno de los modelos bioinspirados más utilizados son las redes neuronales artifi-

3
ciales. El desarrollo e investigación de las redes neuronales, las han convertido en
una herramienta con múltiples aplicaciones. Basadas en el modelamiento biológico
y con características que no se presentan normalmente en los sistemas como el
auto-aprendizaje, la capacidad de ser entrenadas para obtener resultados esperados;
además de la capacidad de implementar un sistema tan robusto como la aplicación
lo solicite, hace que las redes neuronales se presenten como una buena alternativa
para la solución de problemas [31].

Es por estas capacidades descritas anteriormente, que se han realizado diversas


implementaciones de redes neuronales en el área de la criptografía [32]-[37]. Así
como se puede observar en [32] se utilizan redes neuronales de tipo feedforward para
emular el algoritmo SDES (Simplified Data Encryption Standard), en el cual se ob-
tienen buenos resultados, teniendo en cuenta que, tras realizar el entrenamiento de
la red se tiene una precisión del 100%. En [36],[37] se observa cómo se implementan
arquitecturas de tipo caóticas para plantear un modelo de cifrado. En [32] donde
se comparan el algoritmo original contra la red neuronal, se aprecia que el tiempo
de cifrado disminuye considerablemente. Sin embargo, se encuentra el problema de
comparar con respecto al número de operaciones, puesto que, mientras que el orig-
inal realiza permutaciones, corrimientos y sustituciones, el modelo neuronal realiza
únicamente sumas y multiplicaciones. Teniendo en cuenta los buenos resultados que
se obtienen en [32]-[37] usando redes neuronales y la capacidad de estas de realizar
procesamiento en paralelo y de aprender, sumado a que se desconoce una compara-
ción sobre la efectividad de los modelos neuronales ya sean simétricos o asimétricos,
surge la pregunta que se busca resolver, ¿qué arquitectura neuronal representa la
mejor opción en tiempo o complejidad en problemas de encriptación de señales de
audio o imágenes?

1.2 Justificación
La criptografía se utiliza con el fin de proteger información, debido a la importancia
y al valor de los datos para un individuo, una empresa u organizaciones privadas o
públicas. El uso de la criptografía se convierte en una opción importante en sistemas
de comunicación y de almacenamiento. En sistemas de comunicación es importante
sobretodo en caso de utilizar canales que presentan vulnerabilidades de seguridad
pues brinda confidencialidad e integridad en la información que se transmite [16].

4
De la misma manera, y con el fin de proteger la información personal que se encuen-
tran en sistemas de almacenamiento se utiliza la criptografía [8],[15].

Los algoritmos de cifrado que se emplean en la actualidad, como el AES (Ad-


vanced Encryption Standard) o el 3DES (Triple Data Encryption Standard) para
cifrado simétrico [38],[39] y el RSA (Rivest, Shamir y Adleman) o el cifrado por cur-
vas elípticas para cifrado asimétrico [40],[41], están compuestos por un gran número
de operaciones, tanto lineales como no lineales, provocando así el aumento en el
tiempo de computo y los recursos que se necesitan para su implementación tanto en
software como en hardware. Teniendo en cuenta que una característica importante
de las redes neuronales es el hecho de que trabajan por medio de conexiones en par-
alelo, se encuentra una gran ventaja con respecto a los algoritmos de encriptación,
que se caracterizan por realizar las operaciones de forma secuencial [16].

En [32] se evidenció que la red neuronal feedforward con la que emulan el al-
goritmo presenta un gran desempeño, pues presenta una eficacia del 100% y tras
entrenar la red, el tiempo de cifrado disminuye notablemente, lo que permite ob-
servar la ventaja descrita anteriormente. Esta disminución del tiempo y reducción
de la complejidad con respecto a los algoritmos tradicionales, permitiría su uso en
dispositivos móviles para aplicaciones de mensajería instantánea.

Según la literatura consultada a nivel local[42]-[48] son pocos los trabajos en


criptografía y en la Universidad Distrital se encuentra el modelo presentado en [49].
En [49] se muestra un modelo de encriptación utilizando señales caóticas, el modelo
propuesto encripta una señal de texto plano, superponiendo la representación ASCII
del mensaje con una de las componentes del atractor de Lorenz. Sin embargo, en
[50] realizan un criptoanálisis a sistemas del tipo propuesto en [49], mostrando que
su seguridad es baja, rompiendo el cifrado mediante el uso de filtros pasabanda.
Resulta prometedor por tanto estudiar e investigar modelos no tradicionales de en-
criptación que puedan ser usados en Redes Locales, como por ejemplo el uso de
modelos de redes caóticas.

Finalmente en el aspecto personal este proyecto representa un reto dado el interés


de buscar más aplicaciones para una herramienta poderosa como lo son la redes neu-
ronales, además de explorar una arquitectura diferente junto con sus características

5
y sus ventajas en el campo de la criptografía.

1.3 Objetivos
1.3.1 Objetivo General
Comparar e identificar las bondades que presentan dos diferentes arquitecturas neu-
ronales; feedforward y caóticas, aplicadas a la encriptación simétrica de señales.

1.3.2 Objetivos Específicos


3.2.1 Implementar redes neuronales de tipo caóticas para realizar la encriptación
de señales.

3.2.2 Implementar el algoritmo DES por medio de una red neuronal de tipo feed-
forward.

3.2.3 Evaluar el desempeño de las arquitecturas neuronales propuestas para la en-


criptación.

1.4 Alcances y Limitaciones


1.4.1 Alcances
• Se implementarán dos esquemas de encriptación simétrica con redes neu-
ronales.

• Las pruebas de funcionamiento se realizarán usando como indicadores de de-


sempeño el tiempo de encriptación, la correlación cruzada, el NCPR y el UACI.

• Para contrastar la efectividad de los modelos, se realizarán pruebas con imá-


genes y señales de audio.

1.4.2 Limitaciones
• Para evaluar el desempeño de los modelos neuronales propuestos, se tomará
como señales de estudio un grupo de señales de audio y un conjunto de imá-

6
genes por lo cual las conclusiones estarán limitadas a estos conjuntos.

• Debido a la gran cantidad de parámetros que se encuentran en la literatura con


respecto al desempeño de un criptosistema, se hará la evaluación con aquellos
que permitan obtener una mayor cantidad de información.

• El estudio se realizará únicamente a modelos simétricos tomando como refer-


encia el algoritmos DES.

• Dentro de las pruebas no se establecerán métodos de ataque para verificar la


fortaleza de los sistemas propuestos.

7
2. Marco Teórico

En este capítulo se presentan los conceptos y fundamentos teóricos usados en este


proyecto. Se encuentra dividido en tres secciones. En primer lugar se presentan los
conceptos básicos de la criptografía, componentes de un criptosistema y diferentes
algoritmos de cifrado, en segundo lugar se presentan los conceptos relacionados a las
redes neuronales. Finalmente se presentan los antecedentes del uso de estas últimas
en el desarrollo de modelos de cifrado.

8
2.1 Criptografía
La palabra criptografía proviene del griego kryptos, ”oculto”, y grafos, ”escritura”;
es decir, significa ”escritura oculta”. Por otro lado, la Real Academia Española
(RAE), define la criptografía como “Arte de escribir con clave secreta o de un modo
enigmático” [51].

Sin embargo, esta definición se ajusta poco a lo que es la criptografía en los


tiempo actuales. Para algunos autores [52], [53],[54], la criptografía dejó de ser un
arte para volverse una técnica o un conjunto de técnicas. Desde la perspectiva que se
mire, esta tiene un objetivo claro que es la protección de información de tal manera,
que sea ilegible para usuarios no autorizados [53]. Es por esto que la criptografía
se utiliza con el fin de resolver diferentes problemas de seguridad [16], [55], [56], los
cuales son:

• Privacidad: únicamente los usuarios autorizados tienen acceso a la informa-


ción.

• Integridad: garantía ofrecida a los usuarios de que la información no pueda


ser alterada durante su trayecto.

• Autenticación: se refiere al hecho de poder confirmar que el mensaje recibido


haya sido enviado por quien dice lo envió.

• No rechazo: se refiere al hecho de no poder negar la autoría de un mensaje


enviado.

2.2 Criptosistema
Un criptosistema es el conjunto de procedimientos de encriptación, envío y descen-
criptación, que garantizan la seguridad y la privacidad de la información. Este se
modela mediante una quíntupla (M,C,K,E,D) [56], donde:

• M, conjunto de todos los mensajes que pueden ser enviados (texto plano).

• C, conjunto de todos los posibles criptogramas (mensajes cifrados).

• K, conjunto de todas las posibles claves.

9
• E, conjunto o familia de funciones o transformaciones, que pueden ser aplicados
a M para poder producir C. Existe una transformación diferente Ek para cada
valor posible de la clave k.

• D, conjunto o familia de funciones o transformaciones, que se aplican a C para


poder obtener M.

En general, un criptosistema cumple con la condición:

Dk (Ek (m)) = m (2.1)

Los criptosistemas se dividen en dos grandes ramas, los criptosistemas de clave


privada o simétricos y los de llave pública o asimétricos [55],[56]. En la Figura 2.1,
se puede ver un modelo en bloques de la representación general de un criptosistema.

Figura 2.1: Criptosistema

Para los criptosistemas de llave privada se cumple que: Kc = Kd , lo que significa


que la llave utilizada es la misma para los procesos de encriptación y desencriptación.
En contraposición, para los de llave pública se cumple que Kc ̸= Kd , siendo Kc
la llave conocida públicamente y Kd aquella conocida únicamente por el receptor
[56],[57].

2.3 Criptografía simétrica


La criptografía simétrica se refiere al conjunto de métodos que permiten tener co-
municación segura entre las partes, siempre y cuando anteriormente se hayan in-
tercambiado la clave correspondiente, por esta razón se denomina como un método
criptográfico monoclave, esto quiere decir que se usa la misma clave para cifrar y
descifrar [55],[57],[58].

10
Kc = K d (2.2)

Este tipo de criptografía se conoce también como criptografía de clave privada o


de llave privada. La idea general, es aplicar diferentes funciones al mensaje que se
quiere cifrar, de tal modo que solo conociendo una clave pueda aplicarse de forma
inversa para poder así descifrar[55]. El principal problema de seguridad que presenta
es el intercambio de la llave, en vista de que conociendo la llave es posible hacer
inútil el cifrado de la información [16] ,[59].

2.3.1 Data Encryption Standard (DES)


El algoritmo DES es un sistema criptográfico simétrico desarrollado por IBM en
1974, tras una convocatoria de la NIST (National Institute of Standards and Tech-
nology) que tenía como propósito la creación de un estándar a nivel gubernamental
para el cifrado de información confidencial [60], [61].
DES es un algoritmo de cifrado por bloques, es decir, toma un bloque de una
longitud fija de bits y lo transforma mediante una serie de operaciones en otro
bloque cifrado de la misma longitud [58], [59],[62]. Para el caso del DES, el tamaño
del bloque es de 64 bits, la llave también tiene 64 bits, de los cuales 56 son empleados
por el algoritmo, siendo los 8 restantes utilizados para comprobar la paridad.
En la figura 2.2 se observa la estructura básica del algoritmo DES, que consta de
16 fases idénticas denominadas rondas. Al inicio y al final se realizan permutaciones,
denotadas como P I y P F , respectivamente, que son inversas entre sí [58]. Así mismo
tiene un algoritmo de generación de subllaves a partir de la llave original, con el fin
de usar una para cada de las rondas, este se puede observar en la figura 2.3.

Figura 2.2: Estructura general del DES [58]

11
Figura 2.3: Generación de las subllaves

Antes de cada ronda, el bloque se divide en dos bloques de 32 bits que se procesan
de forma alterna. Este proceso se conoce como esquema de Feistel, y proporciona
un proceso de encriptación y desencriptación casi iguales. La diferencia radica en
que las subllaves se aplican de forma inversa al desencriptar. En la figura 2.4, se
puede observar la función de Feistel.

Figura 2.4: Función de Feistel

Como se puede observar en la figura 2.4, la función se compone de 4 etapas:

1. Expansión: Se toma la mitad del bloque de 64 bits (32 bits) y se expanden


a 48 bits, mediante una permutación en la cual también se duplican algunos
bits.

12
2. Mezcla: Por medio de la función XOR se combina el resultado de la expansión
con la subllave correspondiente a la ronda.

3. Sustitución: Tras la mezcla, el bloque se divide en 8 partes de 6 bits, que


pasan a las cajas de sustitución (S1-S8), de cada una de las cajas sale un
bloque de 4 bits, que da como resultado un bloque de 32 bits. Estas cajas de
sustitución o S-Box, son el núcleo de seguridad del DES, puesto que son las
que aportan la no linealidad al algoritmo.

4. Permutación: Finalmente los 32 bits salientes de las S-Box, se reordenan de


acuerdo a una permutación fija.

2.3.1.1 Simplified Data Encryption Standard (SDES)

El algoritmo SDES o DES simplificado, es un algoritmo de cifrado simétrico utilizado


para pedagogía [63]. Tiene propiedades y una estructura similar al algoritmo DES,
con parámetros más pequeños.
En la figura 2.5, se puede ver la estructura del SDES, donde se muestran las
diferentes etapas de este algoritmo y su similitud con el DES original.

(a) Estructura general (b) Generación subllaves

Figura 2.5: Estructura SDES [63]

13
El algoritmo toma un mensaje de 8 bits junto con una llave de 10 bits como
entrada y produce un criptograma de 8 bits, como se observa en la figura 2.5. Para
la generación de las subllaves, se parte de la llave, como se ve en la figura 2.5b, y se
realiza una permutación inicial (P10), después parte la llave en dos mitades de 5 bits,
realiza corrimientos (LS-1) y permutaciones (P8). Al igual que el DES, se realiza
por rondas, en este caso son dos y se alternan las mitades, esto se ve representado
en el bloque SW, para la realización de las dos rondas (fk ) se usan las subllaves
generadas, además presenta las permutaciones al inicio y al final (IP, IP − 1). Como
es posible ver en la figura 2.5a la función fk , tiene las mismas partes de la función de
Feistel del DES, Expansión(E/P), la Mezcla, la Sustitución (S0,S1) y la Permutación
(P4). El algoritmo SDES para encriptar, se puede modelar a partir de la ecuación
2.3 y para desencriptar con la ecuación 2.4.

C = IP −1 (fk2 (SW (fk1 (IP (M ))))) (2.3)

M = IP −1 (fk1 (SW (fk2 (IP (C))))) (2.4)

2.3.1.2 Triple DES (3DES)

Es una variante del DES que fue desarrollado en 1998, tras descubrir que el tamaño
de clave del DES no era lo suficientemente largo para evitar un ataque de fuerza
bruta [16],[55]. El 3DES consiste en aplicar 3 veces el DES variando la clave, lo
que significa un aumento del tamaño de la clave de 56 a 168 bits, que representa
un progreso notable en cuestiones de seguridad [62]. El 3DES se puede modelar a
partir de la ecuación 2.5 [62].

C = Ek3 (Dk2 (Ek1 (M ))) (2.5)

Donde:

• C: Texto cifrado

• M: Texto claro

• Ek [X]: Cifrado de X usando la llave k.

• Dk [x]: Descifrado de X usando la llave k.

14
2.3.2 Advanced Encryption Standard (AES)
El algoritmo AES es un algoritmo de criptografía simétrica, también conocido como
Rijndael, desarrollado por Vincent Rijmen y Joan Daemen en 1997 y oficializado
como estándar en el año 2001 [64],[65]. A diferencia del DES, AES no es una red de
Feistel sino una red de sustitución-permutación, su llave aumenta considerablemente
de tamaño así mismo es variable puesto que se pueden utilizar llaves de 128, 192 y
256 bits, también aumenta el tamaño del mensaje a 128 bits.

AES representa el mensaje en 16 bytes y los ordena en una matriz de 4x4 bytes,
denominada ”estado”, sobre la cual opera [66]. El algoritmo funciona mediante un
número de rondas que ejecutan 4 diferentes operaciones, AddRoundKey; SubBytes;
ShiftRows y MixColumns, el número de rondas depende del tamaño de la llave, 10
para claves de 128 bits, 12 para 192 y 14 para 256 [59],[67]. El primer paso es realizar
la expansión de la llave con el fin de obtener las subllaves. Tras esto, se comienza
con las rondas , que constan de 4 pasos:

1. AddRoundKey: Cada byte del ”estado” se combina mediante una XOR con
una subllave, así como se puede apreciar en la figura 2.6

Figura 2.6: AddRoundKey [64]

2. SubBytes: Se realiza una sustitución no lineal donde cada byte del estado es
reemplazado con otro según una tabla. Es posible apreciar este proceso en la
figura 2.7.

Figura 2.7: SubBytes [64]

3. ShiftRows: Los bytes de cada fila del estado se rotan de manera cíclica hacia

15
la izquierda un número de lugares diferente para cada fila, así como se muestra
en la figura 2.8.

Figura 2.8: ShiftRows [64]

4. MixColumns: Operación de mezclado que opera en las columnas del estado,


combinando los cuatro bytes en cada columna usando una transformación
lineal, así como se puede ver en la figura 2.9.

Figura 2.9: MixColumns [64]

Resulta importante mencionar que para el último ciclo, se reemplaza la fase de


MixColumns por otra etapa de AddRoundKey [59],[64],[67].

2.4 Criptografía asimétrica


La criptografía asimétrica es por definición aquella que utiliza dos claves diferentes
para cada usuario, una para encriptar conocida como llave pública y otra para
desencriptar que es la llave privada [16],[57],[55].

Kc ̸= Kd (2.6)

Este tipo de criptografía se denomina también como criptografía de clave pública


o de llave pública. Como se mencionó previamente, la criptografía asimétrica pro-
pone la creación de dos claves, conociendo una de las llaves no resulta posible obtener
la otra[58]. Ambas claves son propiedades del receptor, quien comunica la llave

16
pública para que el remitente ecripte el mensaje, mientras que la llave privada la
mantendrá en secreto para posteriormente desencriptar el mensaje[58],[59]. Así, no
resulta importante si alguien intercepta el mensaje y la clave pública, pues sin la
clave privada no podrá ser desencriptado [58]. Por lo tanto la mayor ventaja que
presentan estos sistemas es la facilidad para la distribución de las llaves [55],[59].

2.4.1 Rivest, Shamir y Adleman (RSA)


RSA es un sistema criptográfico de clave pública desarrollado en 1977. Es el primer
y más utilizado algoritmo de este tipo y es válido tanto para cifrar como para fir-
mar digitalmente [52],[59]. Este algoritmo se basa en el problema que presenta la
factorización de un número entero grande en sus factores primos (ya que la llave es
de 1024 bits, esto equivale a 308 dígitos) [68],[69].

Para la implementación del algoritmo son necesarios dos números primos grandes,
a partir de los cuales se van a generar ambas llaves [55],[58],[59],[70]. El proceso de
generación de llaves se realiza el siguiente procedimiento:

Algoritmo 1 Generación de llaves RSA

1. Se eligen dos números primos diferentes p y q grandes, con el mismo número


de bits.

2. Se calcula n = p ∗ q. Donde n es el módulo para ambas claves.

3. Calcular ϕ(n) = (p − 1)(q − 1).

4. Escoger un entero positivo e, menor que ϕ(n) y que además sea coprimo.

5. Se determina un d, que sea el multiplicador modular inverso de emod(ϕ(n)).

La llave pública es (n, e), que corresponden al módulo y al exponente de cifrado.


La llave privada es (n, d), que son, el módulo y el exponente de descifrado y debe
mantenerse en secreto [52],[53],[62],[70]. Para el proceso de encriptación, la función
está descrita por la ecuación 2.7, así mismo el proceso de desencriptación la función
está descrita por la ecuación 2.8, donde c es el criptograma y m el texto sin cifrar.

c = me mod(n) (2.7)

17
m = cd mod(n) (2.8)

2.4.2 Criptografía ElGamal


El cifrado de ElGamal es un sistema criptográfico de clave pública desarrollado por
Taher ElGamal en 1985 [71], partiendo de la idea de Diffie-Hellman [72]. Este al-
goritmo es utilizado tanto para encriptar y desencriptar, como para generar firmas
digitales y basa su funcionamiento y seguridad en el problema matemático del loga-
ritmo discreto [71],[73]. En el algoritmo 2, se describe todo el proceso, la generación
de las llaves y la encriptación, partiendo del hecho que se realiza una comunicación
entre A y B.

Algoritmo 2 Cifrado ElGamal [71]


Generación de Llaves

1. A escoge un número primo p, tal que p − 1 tenga un factor primo grande.

2. A escoge dos números aleatorios g (generador del grupo cíclico) y a (que


actuará como llave privada) tal que a ∈ {0, 1, ..., p − 1}.

3. A calcula K = g a (mod(p)).

Siendo la tupla (g, p, K) la llave pública.


Encriptación

1. B convierte la información en un número entero m entre 1 y p − 1.

2. B escoge un número b ∈ {2, ..., p − 1} (que mantendrá secreto).

3. B calcula y1 = g b (mod(p)) y y2 = K b m(mod(p)).

El mensaje cifrado corresponde a la tupla C(m, b) = (y1 , y2 ).


Desencriptación

1. Una vez A tiene el mensaje (y1 , y2 ), usa la clave privada a para recuperar el
mensaje, calculando
m = y1p−1−a ∗ y2 (mod(p))

18
2.5 Parámetros de desempeño
2.5.1 NCPR
El NPCR (Number of Pixels Change Rate) es la comparación entre la imagen original
a cifrar y su correspondiente par cifrada. Determina la cantidad de píxeles que
cambian tras el proceso de cifrado y se modela basado en las ecuaciones 2.9 y 2.10
[74],[75]. Donde P es la imagen original y C es la imagen cifrada.

 0 si P (i, j) = C(i, j)
D(i, j) =  (2.9)
1 si P (i, j) ̸= C(i, j)
∑ D(i, j)
N P CR = ∗ 100% (2.10)
i,j M ∗N

2.5.2 UACI
El UACI (Unified Average Change Intensity) es la comparación entre el resultado
del cifrado de una imagen utilizando dos llaves diferentes con variaciones pequeñas
entre ellas. Determina la intensidad promedio que varían los píxeles entre ambas
imágenes y se modela basado en la ecuación 2.11 [74],[75]. Donde C1 y C2 son
imágenes cifradas con dos llaves diferentes y de diferencias mínimas.

1 ∑ |C1 (i, j) − C2 (i, j)|


U ACI = ∗ 100% (2.11)
M ∗ N i,j 255

2.5.3 Correlación
El coeficiente de correlación (ρ) de dos variables es una medida de su dependencia
lineal, y está definido por la ecuación 2.12 [76].

cov(X, Y )
ρ(X, Y ) = (2.12)
σX σY

2.5.4 Entropía
La entropía de la información mide la incertidumbre de un mensaje. Esta también
se puede considerar como la cantidad promedio de información que se puede obtener
de una variable aleatoria. Esta se define según la ecuación 2.13 [19],[77],[78].

19

k ( )
1
H(X) = pxi log2 (2.13)
i=1 xi

2.5.5 Información mutua promedio (AMI)


La información mutua promedio (AMI) mide la relación entre dos variable aleatorias.
De manera particular cuanta información en promedio es relacionada desde una
variable aleatoria a la otra [77],[78]. Esto se ve representado en la ecuación 2.14.
( )

n ∑
m
P (xi , yj )
I(X; Y ) = P (xi , yj )log (2.14)
i=1 j=1 P (xi )P (yj )

2.6 Redes neuronales artificiales


Las redes neuronales artificiales son un modelo de inteligencia computacional que
parte de una inspiración biológica, específicamente del funcionamiento del cerebro,
del cual se buscan extraer y utilizar algunas características [79] [80] [81] [82].
Se parte de la unidad básica que compone el cerebro, la “neurona biológica”, de
la cual se realiza una abstracción muy simple, en donde se tienen tres componentes
principales, las dendritas, el nucleo (que también es descrito como el cuerpo de la
célula) y el axón [79] [81]. Las dendritas son un árbol receptivo compuesto por fibras
nerviosas que se encargan de llevar las señales eléctricas al interior del nucleo [81].
El nucleo se encarga de procesar las señales eléctricas entrantes. Finalmente el axón
es una fibra nerviosa que se encarga de llevar la señal del nucleo fuera para que
sea usada por otra neurona [81]. Ahora el contacto entre el axón de una neurona
y una dendrita de otra neurona es llamado sinapsis, donde las características de
esta conexión están determinadas por un proceso químico complejo [79][80][81]. La
figura 2.10 muestra un esquemático de las neuronas biológicas.

20
Figura 2.10: Esquena neuronas biológicas [81]

Algunas características de la estructura neuronal, son definidas desde el nacimiento,


otras se van desarrollando a medida que pasa el tiempo y se está sometido a procesos
de aprendizaje. A lo largo de la vida las estructuras neuronales están en un continuo
cambio, en el cual se van modificando principalmente las uniones sinápticas, donde
unas se van creando, mientras otras desaparecen; o unas sinapsis se van fortaleciendo
y otras se van debilitando [81].
Una red neuronal artificial no busca tener la complejidad con la cual cuenta
el cerebro [81]. Sin embargo si se busca tener principalmente dos similitudes con
una estructura neuronal biológica [81]. Primero, es la construcción de una unidad
simple, que sea altamente interconéctable [79][80][81]. Segundo la conexión entre
unidades simples determina el funcionamiento de la estructura, y su capacidad para
solucionar problemas [80][81].
Las neuronas biológicas son muy lentas comparadas con, la capacidad de los
circuitos eléctricos [81]. Donde se tiene un tiempo de referencia de 10− 3 s para las
neuronas biológicas, comparado con 10− 10 s, de los circuitos eléctricos, sin embargo
es evidente que el cerebro humano tiene mejor desempeño en ciertas tareas, y las
puede realizar de una manera mucho más rápida, esto es debido a la capacidad
de realizar varias operaciones de manera simultanea [81]. Las redes neuronales
artificiales buscan imitar esta característica del cerebro humano, que se da bebido a
su estructura paralela y así tener la posibilidad de realizar operaciones simultáneas
[81].

21
2.6.1 Perceptron
El perceptron es el modelo de una neurona artificial, el cual se puede observar en
la figura 2.11, donde se cuenta con las entradas xn , que son multiplicadas por su
correspondiente valor escalar, el cual corresponde a un peso wn , el resultado de las
multiplicaciones es sumado, junto con un valor bias b, generando un valor y, para
luego ser pasado por una función que denominaremos función de transferencia f (la
cual cuenta generalmente con características no lineales), para finalmente generar la
salida z [79][81][83].

Figura 2.11: Modelo neurona artificial [83]

La salida de la neurona artificial es calculada como:


z = f( xi Wi + b) (2.15)
i=0,n

Buscando relacionar el modelo de la 2.11 de neurona artificial, con la estruc-


tura de la neurona biológica, descrita en la 2.10, se tiene que el peso wn equivale
a la sinapsis, la sumatoria seria equivalente al nucleo y finalmente la función de
transferencia f y su correspondiente salida z, cumple la función del Axón [81].
Se tiene que w y b son parámetros ajustables en el modelo de neurona artificial, y
son seleccionados según alguna regla de aprendizaje, con el objetivo de llegar a una
meta. También se tiene la función de transferencia, la cual es seleccionada según las
características propias del problema a resolver [81].

22
2.6.1.1 Funciones de transferencia

La representación que se le dio al axón de la neurona biológica es una función, la


cual puede ser lineal o no lineal. La selección de la función de transferencia a usar
depende de las características del problema que se pretende solucionar, buscando
cumplir alguna especificación del problema [81][82].
Existe una variedad ilimitada de funciones que pueden ser utilizadas, para el caso
de este documento se abordaran la cuatro funciones de transferencia más comunes.

Limitador Duro :
Esta función la podemos observar en la figura 2.12 (a) donde lo que se tiene es,
que si la entrada es inferior a 0 la salida es 0, y si la entrada es mayor a 0 la salida
será 1 [80] [81]. Por otro lado en la figura 2.12 (b), tenemos los efectos que causan
los pesos y el bias de la neurona, en la función, donde lo que hacen es, establecer el
valor del umbral de la función, donde esta pasa de ser 0 a ser 1[80] [81]. Esta función
es usada comúnmente para problemas que requieran una clasificación binaria [81].

Figura 2.12: función de transferencia limitador duro [81]

Función lineal :
Esta función es muy simple, ya que la salida de la función es igual a la entrada
de manera que:
a=n (2.16)

En la figura 2.13 (a) podemos observar como lel comportamiento de la función,


es una línea recta de pendiente 1 centrada en 0. En la figura 2.13 (b), se observa
como los pesos y el bias, determinan en que valor se centrara la función respecto a
la entrada [80] [81].

23
Figura 2.13: función de transferencia lineal [81]

Logaritmica - sigmoidal :
Esta función corresponde a la expresión:

a = 1/(1 + e( − n)) (2.17)

Esta función toma cualquier valor de entrada, y genera una salida entre 0 y 1,
con un cambio suave, como podemos observar en la figura 2.14. En la figura 2.14 (b)
se observa como los pesos y el bias, determinan en qué valor se centrara la función
respecto a la entrada[81] . Esta es una de las funciones más usadas especialmente
para algoritmos de entrenamiento como el backpropagation[80].

Figura 2.14: función de transferencia logaritmica - sigmoidal [81]

Hiperbolica Tangencial Esta función esta descrita por la expresión:

a = (en − e( − n))/(en + e( − n)) (2.18)

Similar a la logarítmica sigmoidal esta función toma cualquier valor de entrada,


y genera una salida entre -1 y 1, con un cambio suave, como podemos observar en la
figura 2.15 [81]. En la figura 2.15 (b) se observa como los pesos y el bias, determinan
en qué valor se centrara la función respecto a la entrada.

24
Figura 2.15: función de transferencia Hiperbolica - Tangenciall [81]

Otras funciones usadas como funciones de transferencia son las que se observan
en la tabla 2.1.

Nombre Función
a = −1, n < 0
Limitador duro simetrico
a = 1, n >= 0
a = 0, n < 0
Lineal saturada a = n, 0 <= n <= 1
a = 1, n > 1
a = −1, n < −1
Lineal saturada simetrica a = n, −1 <= n <= 1
a = 1, n > 1
a = 0, n < 0
Lineal positiva
a = n, 0 >= n
a = Ae−Bn
2
Gaussiana
Sinusoidal a = ASen(wn + φ)

Tabla 2.1: Funciones de activación

2.6.2 Arquitecturas neuronales


Es evidente que una única neurona artificial, no es suficiente para poder llegar a la
solución de problemas complejos, no lineales, para lo cual se crean estructuras en
un inicio, agrupando neuronas en paralelo, a lo cual se le conoce como “capa”, que
son multiples neuronas las cuales cuentan generalmente con entradas similares, que
operan simultáneamente, como podemos observar en la figura [80][81][82][84] .
Ahora para problemas más complejos, y como es el paso natural a seguir, se
tiene la agrupación de varias capas de neuronas, para generar una o varias salidas,

25
como se observa en el ejemplo de la figura 2.16 [81][85] , cada capa puede tener
cualquier número de neuronas, y se tienen tres tipos distintos de capas, la capa de
entrada, que como su nombre lo indica es la capa donde se conectan las variables de
entrada, las capas ocultas que no tienen conexión directa con las entradas o salidas,
y la capa de salida, cuyas salidas son equivalentes al resultado generado por la red
neuronal[79][81] [85].

Figura 2.16: Estructura básica red neuronal [85]

Una red neuronal artificial es finalmente una estructura que conecta de manera
masiva y paralela neuronas para generar una capa de salida a partir de unas entradas
como se puede observar en (2.19)[79][82].

y = f (x) (2.19)

Dónde:
x = (x1 , x2 , x3 , , xn ), y = (y1 , y 2 , y 3 , , yn )

2.6.2.1 Redes neuronales feedforward

Una red neuronal feedforward consiste en capas de neuronas interconectadas entre


sí de manera que una neurona cuente con la característica de tener una sinapsis de
entrada con cada neurona de la capa anterior, o por cada entrada para el caso de
la capa de entrada, muy similar a lo mostrado en la figura 2.16 [79][81][86]. Para la
redes neuronales feedfordward es común que se determinen los pesos de sus sinapsis
mediante algoritmos de aprendizaje supervisado, donde el más común es el algoritmo
back-propagation [79].

26
Las redes neuronales feedforward han sido ampliamente usada en criptografía,
y se han abordado dos enfoques, el primero es usar algoritmos estándares para
criptografía, pero se incluyen en sus cajas de permutaciones o sustituciones, redes
neuronales que cumplen la labor de aumentar la complejidad de los algoritmos,
mediante el fortalecimiento de las permutaciones y sustituciones como se observa
para el caso del artículo [85] en el cual se propone una red neuronal en la cual
los pesos de las sinapsis son equivalentes a la llave usada, y la red cuenta con 16
entradas, donde cada una equivale a un byte y genera un byte de salida cumpliendo la
función de caja de sustitución, el artículo [84] de manera similar propone un complejo
algoritmo para establecer los pesos de la red y generar una caja de sustituión.
El otro enfoque que se le ha dado a las redes neuronales feedforward en crip-
tografía es, a partir de un algoritmo preestablecido, construir una base de datos con
llaves, información y información cifrada, y a partir de este generar la emulación del
algoritmo usando redes neuronales, como en el caso del artículo [87], donde crean
un criptosistema asimétrico, donde crean un algoritmo basado en lógica booleana,
para encriptar los datos y se usa la red neuronal para que a partir de los datos
generados por el algotitmo booleano sea entrenada usando las salida del algoritmo
como entrada de la red y la entrada del algoritmo como salida, y así realizar la des-
encriptación, usando la estructura de la red y los pesos de esta como llave privada,
similar a lo realizado en el artículo [82], pero partiendo de distintos algoritmos. En el
artículo [86] se tiene una propuesta donde se reemplaza completamente un algoritmo,
por la red neuronal, tanto para encriptación como para desencriptación, y demuestra
ventajas en la relación de latencia y seguridad, comparado con el algoritmo AES.
También se encuentra en uso de redes neuronales feedforward no solo para el he-
cho de proteger la información, sino para poder acceder a ella usando criptoanálisis,
como se hace en el artículo [32], donde se parte del algoritmo “Simplified Data En-
cription Standard”(SDES), y se genera una base de datos con las entradas, salidas
y llaves del algoritmo, con el fin de usar las entradas y salidas del algoritmo, como
entradas de la red neuronal, y tener como salida las llaves, para una vez entrenada
la red neuronal sea capaz de obtener las llaves de los datos cifrados.

2.6.2.2 Redes neuronales recurrentes

Una red neuronal recurrente tiene la estructura básica de una red neuronal feedford-
ward, sin embargo adicionalmente cuenta con la posibilidad de tener una sinapsis
que conecte, la salida de una neurona que no pertenezca a la capa de entrada (gen-

27
eralmente alguna o todas las neuronas de la capa de salida), con la entrada de una
neurona que se encuentre en una capa anterior como se puede observar en la figura
2.17 [79] [81]. Estas redes permiten que los sistemas creados no cuenten únicamente
con las variables de entrada sino que además tengan como variable el estado anterior
de la neurona [81]. Las estructuras más comunes son la “Long Short – Term Memory
” (LSTM) y “Gated Recurrent unit” (GRU), estas cuenta con la característica de
poder ser entrenadas mediante el enfoque de el algoroitmo de back-propagation [79].

Figura 2.17: Red neuronal recurrente [85]

Las redes neuronales recurrentes son usadas en encriptación, partiendo del hecho
que el cifrado dependerá de un estado anterior, donde generalmente el entrenamiento
de la red está incluido dentro del proceso de encriptación, lo que no es común en el
uso de las redes feedforward para criptografía, también es normal que debido a su
dependencia de estados anteriores, se requiera un estado inicial, el cual es generado
a partir de la llave usada, como se puede observar en los artículos [33] [88].

2.6.2.3 Redes neuronales caóticas

Las redes neuronales caóticas se describen como redes donde los pesos de sus sinapsis
están determinados por una secuencia caótica [89][90]. Donde una secuencia caótica
es definida como la secuencia generada a partir de un sistema dinámico caótico, el
cual cuenta con las características de ser no lineal, determinístico, tiene ergodici-
dad y dependiente en una gran medida de sus condiciones iniciales, logrando un
comportamiento pseudoaleatorio [91][90][92]. Uno de los ejemplos más conocidos de
sistemas caóticos es el mapa logístico, el cual está definido como (2.20), y presenta
un comportamiento como el de la figura 2.18 [91], se pude encontrar otros ejemplos

28
de mapa como lo son el “tent map”, “doublé rotor map” y “baker’s map” [93], sin
embargo se pueden encontrar modelos más complejos como lo son los sistemas de
Lorenz o los circuitos de Chua [94].

x(n + 1) = r ∗ x(n) ∗ (1 − x(n)) (2.20)


Donde:
x(n) puede tomar valores entre 0 y 1
r puede tomar valores entre 1 y 4

Figura 2.18: Diagrama bifurcación de mapa logístico [92]

En términos de criptografía se encuentran distintas variables, la primera es par-


tiendo de una estructura feedforward, se proponen series caóticas para poder, a
parir de estas asignar los pesos a las redes neuronales, una de las series caóticas más
usadas, es el mapa logístico, el cual se tiene en cuenta en los artículos [89][91][92],
o series caóticas más complejas como se tiene en [95], también se usa esta técnica
para la creación de cajas de sustitución más fuertes similar a lo realizado con las
redes feedforward, como se tiene en el artículo [96].
Otra variante que se define como red neuronal caótica en criptografía, es en la
que se busca emular una serie caótica, o algún modelo caótico mediante el uso de una
red neuronal feedforward, como es el caso de los artículos [97][98], particularmente
se hacen presentes otras características como para el caso del articulo [98], en el cual

29
incorporan funciones de activación basadas en las funciones de Laguerre, y generan
un modelo asimétrico.
Existen otras variantes donde se proponen arquitecturas distintas a las tradi-
cionales, como en el artículo [99] donde se propone establecer lo que denominan
unidades caóticas, que son una serie de neuronas interconectadas que presentan re-
currencia, y se realiza la encriptación mediante las características caóticas que estas
unidades proporcionan.

30
3. Redes neuronales caóticas

En este capítulo se presenta el desarrollo de un criptosistema simétrico utilizando


redes neuronales caóticas. Se inicia con una pequeña introducción sobre los funda-
mentos de las redes neuronales caóticas para luego abordar las diferentes arquitec-
turas con las cuales se va a experimentar. Para la experimentación en primer lugar
se lleva a cabo la variación del caos en redes de una capa con el fin de observar su
comportamiento. En segundo lugar se realiza un análisis de sensibilidad del modelo
modificando en pasos cada vez más pequeños la llave para confirmar su seguridad
y además buscar su espacio de llaves. Finalmente se lleva acabo un análisis es-
tadístico a partir de los resultados obtenidos al realizar pruebas para determinar el
comportamiento que presenta el sistema utilizando las arquitecturas propuestas.

31
3.1 Introducción
Una red neuronal caótica es una red neuronal en la que los pesos y los bias están
determinados por una secuencia caótica [89],[90]. Lo que resulta en un cambio
importante, pues sus características más relevantes son en primer lugar, el hecho
de no necesitar entrenamiento y en segundo lugar que sus pesos y bias varían para
cada uno de los datos de entrada. A continuación se describe el procedimiento que
se realiza para cifrar con redes neuronales caóticas como se muestra en [89].

Algoritmo 3 Asignación red neuronal caótica

1. Determinar la longitud M (x0 , x1 , x2 , ..., xM ) del mensaje a cifrar y binarizar


cada dato en B bits (x0 = [b00 b01 b02 ...b0B ]).

2. Determinar la serie caótica que se va a utilizar, junto con los parámetros


iniciales de la serie (k1 , k2 , k3 , ..., kn ). Estos serán la llave del sistema.

3. Generar la serie caótica escogida con los parámetros seleccionados, con


M muestras (y0 , y1 , y2 , ..., yM ). Binarizar cada dato en B bits y reorga-
nizar la señal caótica tal que quede un vector b de tamaño 1x(M*B) (
b = b00 , b01 , b02 , ..., b0B , ..., bM 0 , bM 1 , bM 2 , ..., bM B ).

4. Para cada dato xm los pesos y bias cambian, estos primeros se asignan
teniendo en cuenta la ecuación 3.1 y los segundos con la ecuación 3.2.

for i=1:B do


 1 si b(B ∗ m + i) = 0


W (i, j) =  −1 si b(B ∗ m + i) = 1 (3.1)


 0 si i=j

 1 si b(B ∗ n + i) = 0
θi = (3.2)
 −1 si b(B ∗ n + i) = 1
end for
5 Calcular la salida determinada por la ecuación 3.3, donde X es la repre-
sentación binaria de m, pasar al siguiente dato y volver al paso 4 hasta que
m=M .
Sal = LimitadorDuro(W ∗ X + θ) (3.3)

32
3.2 Arquitecturas propuestas
Para realizar el cifrado se plantean modelos donde se varía el número de capas y la
señal caótica que determina los pesos y los bias de la red. En la figura 3.1 se ob-
serva una arquitectura con tres capas ocultas, donde los cuadros rojos representan la
capa de entrada, los círculos azules las diferentes capas caóticas y los círculos verdes
la salida del sistema. Se proponen cuatro arquitecturas diferentes donde se inicia
con una única capa caótica, y se aumenta en pasos de una capa hasta llegar a cuatro.

Figura 3.1: Red caótica de tres capas

Para las señales caóticas que se utilizarán en cada una de las capas, se plantea
el uso de los siguientes modelos dada su fácil implementación y cálculo:

1. Mapa Logístico: También conocido como aplicación logística. Es un modelo


desarrollado por Robert M. May en 1976, con el fin de encontrar un modelo

33
demográfico que explique la dinámica de una población [100]. Su expresión
matemática es la ecuación 3.4.

xn+1 = rxn (1 − xn ) (3.4)

Como se puede observar, posee dos parámetros que son los que controlan el
comportamiento de la serie, xn está entre cero y uno y representa la fracción
de individuos en un territorio y r que es la tasa combinada de natalidad y
mortalidad. El modelo comienza a presentar un comportamiento caótico a
partir de r = 3.57, sin embargo presenta secciones donde no hay caos hasta
llegar a r = 4.

2. Mapa Cuadrático: Es una ecuación cuadrática recurrente y su expresión


matemática es la ecuación 3.5.

xn = c − x2n−1 (3.5)

Como se puede ver en su diagrama de bifurcación (figura 3.2), el caos inicia


cuando su parámetro c ≃ 1.5.

Figura 3.2: Diagrama de bifurcación mapa cuadrático [101]

3. Mapa Ikeda: Es un modelo desarrollado por Kensuke Ikeda en 1979 y de-


scribe el comportamiento de una luz que viaja a través de un resonador óptico
no lineal [102]. Las ecuaciones 3.6, 3.7,3.8 son la representación de un modelo
2D del mapa.

xn+1 = 1 + u(xn cos(tn ) − yn sin(tn )) (3.6)

34
yn+1 = u(xn sin(tn ) + yn cos(tn )) (3.7)
6
tn = 0.4 − (3.8)
1 + x2n + yn2
En este último modelo se encuentran tres parámetros, xn y yn que son los
puntos iniciales y u que es un parámetro que representa la pérdida del reson-
ador, así que se cumple u ≤ 1. El sistema presenta un comportamiento caótico
cuando se cumple que u ≥ 0.6.

3.3 Experimentación
Para la experimentación se utiliza la herramienta MATLAB 2018b, y a continuación
se presentan las características del equipo utilizado:

• Procesador: Intel(R) Core(TM) i3-2328M CPU @ 2.20GHz.

• Memoria (RAM): 6 GB.

• Sistema Operativo: Windows 7 Pro.

Se plantean tres experimentos diferentes con el fin de determinar la calidad del


cifrado que produce el modelo propuesto, basado en los parámetros de desempeño
que se mencionan en la sección 2.5 (NPCR, Correlación, UACI, Entropía y AMI),
además de características del algoritmo como lo son el espacio de llaves y la sensi-
bilidad.

En primer lugar observar el comportamiento del sistema cuando en la capa oculta


se encuentra una única capa caótica, se varían los parámetros y se miden los parámet-
ros mencionados con el fin de encontrar los lugares en los cuales el modelo tiene un
buen desempeño. En segundo lugar determinar la sensibilidad del modelo por medio
de una prueba, cuyo fin es verificar que tan sensible es frente a una variación de la
llave, lo que además permite determinar el espacio de llaves. Finalmente y tomando
en cuenta los resultados del primer experimento, observar el comportamiento del
sistema con arquitecturas de dos, tres y cuatro capas caóticas en la capa oculta, se
varían los parámetros de las series dentro de la zona que presenta mejor desempeño
para así medir los parámetros y observar la variación entre las diferentes arquitec-
turas.

35
Dentro de las señales establecidas para evaluar los modelos se presentan, dos
imágenes en blanco y negro (figura 3.3), dos imágenes a color (figura 3.4) y tres
señales de audio (figura 3.5). En la tabla 3.1 se pueden observar las características
de cada una de las imágenes propuestas.

Título Dimensión Color Tamaño


1 Toma aérea 364*366 No 102 KB
2 Cameraman 256*256 No 63,7 KB
3 Faro 480*640 Sí 416 KB
4 Lenna 512*512 Sí 462 KB

Tabla 3.1: Características imágenes

Las imágenes 3.3a, 3.3b y 3.4a son tomadas del toolbox de MatLab®de proce-
samiento de imágenes. La imagen restante (Figura 3.4b), es la conocida ”Lenna”,
tomada de Wikipedia; esta última es usada en [89] y [93] para evaluar el desempeño
de los algoritmos propuestos.

(a) Toma aérea (b) Cameraman

Figura 3.3: Imágenes en blanco y negro

36
(a) Faro (b) Lenna

Figura 3.4: Imágenes en color

Las señales de audio son una estéreo (3.5a) y dos mono (3.5b,3.5c). La primera,
es una voz de una mujer que dice ”La vida es bella”, al ser estéreo cada canal se
representa con un color diferente, la segunda el sonido de una melodía interpretada
en una flauta china y la tercera es una voz femenina en francés. En la tabla 3.2, se
pueden observar sus características.

Título Duración (s) Audio Frecuencia N° muestras Tamaño


1 Voz en español 2 Estéreo 44100 216910 424 KB
2 Flauta china 14 Mono 44100 618546 1209 KB
3 Voz en francés 4 Mono 8000 39120 77 KB

Tabla 3.2: Características audios

37
(a) Voz en español (b) Flauta china

(c) Voz en francés

Figura 3.5: Audios

3.3.1 Modelo de encriptación con redes caóticas de una capa


Para realizar el cifrado de las señales propuestas (figuras 3.3,3.4,3.5) se escoge una
arquitectura de una sola capa y para la asignación de pesos se utilizarán las tres
series caóticas propuestas en la sección 3.2, teniendo en cuenta que el mapa de Ikeda
tiene componente en x y y, se usan ambos de manera independiente. Además dado
que no es posible conocer a priori el rango de valores de la llave para el cual se tiene
un cifrado satisfactorio, se diseñó un algoritmo que recorre los posibles valores de
cada uno de los parámetros de cada una de las series de tiempo.

Los parámetros utilizados para cada una de las diferentes series de tiempo se
presentan en la tabla 3.3. Es importante resaltar que se realiza sólo una vez, debido
a que las redes caóticas no tienen inicialización aleatoria.

38
Parámetro Inicio Paso Fin
xn 0 0.03 1
Logístico
r 3.5 0.005 4
xn 0 0.05 1
Cuadrático
c 1 0.01 2
u 0.6 0.01 0.9
Ikeda (X) xn 0 0.1 1
yn 0 0.1 1
u 0.6 0.01 0.9
Ikeda (Y) xn 0 0.1 1
yn 0 0.1 1

Tabla 3.3: Parámetros series caóticas

3.3.2 Análisis de sensibilidad y espacio de llaves


Se conoce como espacio de llaves a la cantidad posible de llaves que tiene un algo-
ritmo de cifrado, se encuentra relacionado con la seguridad que presenta el algoritmo
en caso de ser atacado por fuerza bruta. Es por esto que se busca que sea lo más
grande que sea posible.

Teniendo en cuenta la propiedad que tienen los sistemas dinámicos que presentan
caos, un pequeño cambio en las condiciones iniciales que para este caso resulta ser
la llave, genera una señal caótica completamente diferente, lo que debería significar
una desencriptación incorrecta de la señal. Es por esto que es necesario realizar esta
comprobación, realizando variaciones de la llave en pasos cada vez más pequeños.
La resolución que de MatLab® es de 2−52 , por lo que la variación se hará cambiando
los bits de a uno, teniendo en cuenta el rango donde mejor se comporte cada una de
las series de tiempo caóticas. Mediante este experimento es posible es posible inferir
el espacio de llaves de la arquitectura propuesta.

3.3.3 Modelo de encriptación con redes caóticas multicapa


Para realizar el cifrado utilizando redes multicapa de las señales propuestas, se uti-
lizaron los resultados obtenidos con las redes de una sola capa con el fin de conocer

39
los rangos en que mejor se comporta el algoritmo. Se plantean tres arquitecturas
diferentes, la primera con dos capas caóticas, la segunda con tres capas caóticas y
finalmente con cuatro capas caóticas . En primer lugar se realizará un experimento
con el fin de conocer si el modelo posee la propiedad conmutativa con las capas
caóticas con el fin de no hacer experimentación redundante.

Para las diferentes arquitecturas propuestas, se plantean la distribución de las


capas como se ve en la tabla 3.4.
Siendo:

1. Mapa Logístico

2. Mapa Cuadrático

3. Mapa de Ikeda (X)

4. Mapa de Ikeda (Y)

Dos capas Tres capas Cuatro capas


[1,2] [1;2;3]
[1,3] [1;2;4]
[1;4]
[1;3;4] [1;2;3;4]
[2;3]
[2;4]
[2;3;4]
[3;4]

Tabla 3.4: Distribución de las series caóticas

3.4 Resultados
3.4.1 Resultados obtenidos con redes de una capa
Para cada una de las series de tiempo se realizaron un número diferentes de exper-
imentos, teniendo en cuenta que los rangos que se manejaron para cada uno de los
parámetros que estos poseen fueron diferentes. En la tabla 3.5 se muestra el número
de experimentos de cada una de las series de tiempo.

40
Serie de tiempo # Experimentos
Mapa Logístico 3300
Mapa Cuadrático 2121
Mapa de Ikeda (X) 3751
Mapa de Ikeda (Y) 3751

Tabla 3.5: N° de experimentos

3.4.1.1 Mapa Logístico

Se realizaron 3300 experimentos para cada una de las diferentes señales, se variaron
los parámetros según se muestra en la tabla 3.6, dado que no es posible conocer
a priori los rangos en los cuales la encriptación presentará el mejor resultado. Se
midieron los cinco parámetros de la sección 2.5. En esta sección se presentan los
resultado de ”Lenna”, los resultados de las otras señales se pueden observar en el
apéndice A.

Parámetro Inicio Paso Fin #Puntos


r 3.5 0.005 4 100
xn 0 0.03 1 33

Tabla 3.6: Experimentación mapa logístico

En la figura 3.6 se presenta el NPCR de cada uno de los experimentos realizados


para la segunda imagen a color (”Lenna”, figura 3.4b). Se puede observar como salvo
unos pocos casos el porcentaje de bits que cambian es bastante alto, pues en el 96%
de los experimentos el cambio es mayor al 95%. El cambio fuerte que se produce
alrededor de 3.83 cuando baja el NCPR a 0.87 se debe a que alrededor de ese valor de
r la serie no presenta comportamiento caótico. En la figura A.1 se observa que para
el resto de las señales de prueba este parámetro tiene un comportamiento similar.

41
Figura 3.6: NPCR de Lenna usando el mapa logístico

En la figura 3.7 se presenta el coeficiente de correlación lineal de todas las imá-


genes que resulta al cifrar con las llaves experimentadas ”Lenna” (figura 3.4b). Los
diferentes colores representan un xn diferente. Se puede observar que en las zonas
en las cuales la serie de tiempo no tiene un comportamiento caótico se presenta la
mayor variación del coeficiente de correlación además de ser donde presentan niveles
máximos, es decir, desde 3.5 hasta 3.6 pues llega a presentar valores superiores a 0.6.
También entre r = 3.83 y r = 3.85, donde no hay comportamiento caótico presenta
valores superiores a 0.2. Sin embargo en las zonas donde la serie de tiempo tiene
un comportamiento caótico, se observa como la correlación es cercana a cero. En la
figura A.2 se observa que para el resto de señales de prueba, tiene un comportamiento
similar al descrito anteriormente.

42
Figura 3.7: Correlación lineal de Lenna usando el mapa logístico

En la figura 3.8 se presenta el UACI las imágenes resultantes de cifrar con las
llaves experimentadas ”Lenna” (figura 3.4b). Cada color representa un x diferente.
Se observa que en las zonas en las cuales la serie de tiempo no presenta un com-
portamiento caótico el parámetro xn influye notablemente pues hace que el UACI
presente valores dispersos, caso contrario a la zonas donde la serie de tiempo es
caótica el parámetro xn no presenta relevancia, ya que como se puede observar el
UACI tiende al mismo valor. En la figura A.3 se observa que para el resto de las
señales el UACI tiene un comportamiento similar.

43
Figura 3.8: UACI de Lenna usando el mapa logístico

En la figura 3.9 se presenta la variación de la entropía entre la señal original


(”Lenna” figura 3.4b) y la señal encriptada. Se observa que tras realizar la en-
criptación para todas las llaves aumenta la entropía, lo que significa que aumenta
la incertidumbre en la señal, además es importante resaltar que en las zonas en las
cuales la serie de tiempo tiene comportamiento caótica el aumento de la entropía es
considerablemente mayor, cercana al 3%, lo que para una imagen es una variación
importante. En la figura A.4 se observa que el comportamiento es similar para el
resto de las señales, la diferencia se encuentra en la magnitud de la variación.

44
Figura 3.9: ∆ de Entropía de Lenna usando el mapa logístico

En la figura 3.10 se presenta la AMI que se da entre la señal original (”Lenna”


figura 3.4b) y cada uno de los resultados del cifrado. Se observa que en las zonas
en las cuales la serie de tiempo no tiene un comportamiento caótico la información
mutua es alta, oscila entre 3 y 6, lo que muestra que las dos señales están altamente
relacionadas. Por otro lado, donde la serie presenta un comportamiento caótico la
información mutua es baja, cercana a cero, mostrando la poca relación entre las
señales. Es importante resaltar los cambios abruptos que se producen, así como se
ha mencionado antes, se debe a que alrededor de esas zonas la serie no presenta
comportamiento caótico, es decir, alrededor de 3.74 y 3.83, donde vuelve a tomar
valores mayores a 4. En la figura A.5 se observa que para todas las señales se
presentan un comportamiento similar al mencionado.

45
Figura 3.10: AMI de Lenna usando el mapa logístico

3.4.1.2 Mapa Cuadrático

Se realizaron 2121 experimentos por cada una de las diferentes señales, se variaron
los parámetros según se muestra en la tabla 3.7, dado que no es posible conocer
a priori los rangos en los cuales la encriptación presentará el mejor resultado. Se
midieron los cinco parámetros de la sección 2.5. En esta sección se presentan los
resultado de ”Faro”, los resultados de las otras señales se pueden observar en el
apéndice A.

Parámetro Inicio Paso Fin #Puntos


c 1 0.01 2 101
xn 0 0.05 1 21

Tabla 3.7: Experimentación mapa cuadrático

En la figura 3.11 se presenta el NPCR de cada uno de los experimentos realizados


para la primera imagen a color (”Faro”, figura 3.4a). Cada uno de los colores
representa un valor de xn diferente. Se puede observar que cuando la serie de
tiempo no tiene comportamiento caótico el porcentaje de bits que cambian disminuye

46
notablemente en comparación a las zonas en las cuales si es caótico, pues donde no
hay caos presenta valores menores a 0.9, mientras que donde sí lo hay el valor mínimo
es 0.99. En la figura A.6 se observa que para el resto de las señales de prueba este
parámetro tiene un comportamiento similar.

Figura 3.11: NPCR de Faro usando el mapa cuadrático

En la figura 3.12 se presenta el coeficiente de correlación lineal entre la imagen


original (Faro figura 3.4a) y las imágenes que resultan al cifrar con las llaves exper-
imentadas. Cada uno de los colores representa un valor de xn diferente. Se puede
observar que en las zonas en las cuales la serie de tiempo no tiene un comportamiento
caótico se presenta la mayor variación del coeficiente de correlación además de ser
donde presentan niveles máximos, cercanos a 0.8. Por el contrario donde la serie de
tiempo tiene un comportamiento caótico, se observa como la correlación es cercana
a cero. Se observa además que se presentan cambios abruptos, lo que significa que
para esos valores de c no hay comportamiento caótico. En la figura A.7 se observa
que para el resto de señales de prueba, tiene un comportamiento similar al descrito
anteriormente.

47
Figura 3.12: Correlación lineal de Faro usando el mapa cuadrático

En la figura 3.13 se presenta el UACI de las imágenes resultantes de cifrar ”Faro”


(figura 3.4a) con las llaves experimentadas. Cada color representa un x diferente.
Se observa que en las zonas en las cuales la serie de tiempo no presenta un com-
portamiento caótico el parámetro xn influye notablemente pues hace que el UACI
presente valores dispersos, pues toma diferentes valores entre 0.2 y 0.55, caso con-
trario a la zonas donde la serie de tiempo es caótica el parámetro xn no presenta
relevancia, ya que como se puede observar el UACI tiende al mismo valor, es decir
U ACI = 0.37. En la figura A.8 se observa que para el resto de las señales el UACI
tiene un comportamiento similar.

48
Figura 3.13: UACI de Faro usando el mapa cuadrático

En la figura 3.14 se presenta la variación de la entropía entre la señal original


(”Faro” figura 3.4a) y la señal encriptada. Se observa que tras realizar la encriptación
en donde la serie de tiempo no es caótica la variación de la entropía no es significativa,
incluso se presentaron casos en los cuales disminuyó con respecto a la imagen original,
por eso es importante resaltar que en las zonas en las cuales la serie de tiempo tiene
comportamiento caótica el aumento de la entropía es mayor, cercana al 3%, aunque
aparentemente no es mucho, dada la entropía inicial de la imagen es un aumento
significativo. En la figura A.9 se observa que el comportamiento es similar para el
resto de las señales.

49
Figura 3.14: ∆Entropía para Faro usando el mapa cuadrático

En la figura 3.15 se presenta la AMI que se da entre la señal original (”Faro”


figura 3.4a) y cada uno de los resultados del cifrado. Se observa que en las zonas
en las cuales la serie de tiempo no tiene un comportamiento caótico la información
mutua es mayor a 5, que resultar ser una AMI alta y permite observar que las
dos señales están altamente relacionadas. Por otro lado, donde la serie presenta un
comportamiento caótico la información mutua es baja, cercana a cero, mostrando
la poca relación entre las señales. De nuevo se presentan cambios abruptos, donde
la AMI llega a ser mayor a 5, mostrando valores de c para los cuales la serie no
presenta comportamiento caótico. En la figura A.10 se observa que para todas las
señales se presentan un comportamiento similar al mencionado.

50
Figura 3.15: AMI de Faro usando el mapa cuadrático

3.4.1.3 Mapa de Ikeda

Se realizaron 3751 experimentos por cada una de las diferentes señales,se variaron los
parámetros según se muestra en la tabla 3.8, dado que no es posible conocer a priori
los rangos en los cuales la encriptación presentará el mejor resultado. Se midieron
los cinco parámetros de la sección 2.5. En la sección de Ikeda X se presentan los
resultados de ”Cameraman”, mientras que en Ikeda Y se presentan los resultados
de ”Voz en español”, los resultados de las otras señales se pueden observar en el
apéndice A.

Parámetro Inicio Paso Fin #Puntos


u 0.6 0.01 0.9 31
xn 0 0.1 1 11
yn 0 0.1 1 11

Tabla 3.8: Experimentación mapa logístico

51
Ikeda X En la figura 3.16 se presenta el NPCR de cada uno de los experimentos
realizados para la segunda imagen a blanco y negro (”Cameraman”, figura 3.3b). Se
observa que en el rango donde hay comportamiento caótico, para 0.65 < u < 0.9, la
cantidad de datos que cambia es alto, aproximadamente el 99%. En unos pocos, el
0.75% restante, el punto inicial influye ya que se puede ver que cambia una cantidad
significativamente menor, pues pasa de cambiar el 99% de los bits a menos del 90%,
incluso existe un punto en el que baja a tan solo el 50% que se presenta cuando
xn = yn = 1. En la figura A.11 se observa que para el resto de las señales de prueba
este parámetro se comporta similar.

Figura 3.16: NPCR de Camerman usando el mapa de Ikeda

En la figura 3.17 se presenta el coeficiente de correlación lineal de todas las


imágenes que resultan al cifrar con las llaves experimentadas ”Cameraman” (figura
3.4b). Cada color representa un par de puntos xn y yn diferente. Se puede observar
que en las zonas en las cuales la serie de tiempo no tiene un comportamiento caótico
se presenta la mayor variación del coeficiente de correlación además de ser donde
presentan niveles máximos, entre 0.8 y 0.95. Sin embargo en las zonas donde la
serie de tiempo tiene un comportamiento caótico, se observa como la correlación
es cercana a cero. De igual forma se ve que hay un par de puntos iniciales que

52
presentan un resultado muy cercano a -1, el cual es un resultado no deseado y al
igual que para el NPCR se presenta cuando xn = yn = 1. En la figura A.12 se
observa que para el resto de señales de prueba, tiene un comportamiento similar al
descrito anteriormente.

Figura 3.17: Correlación lineal de Cameraman usando el mapa de Ikeda

En la figura 3.18 se presenta el UACI las imágenes resultantes de cifrar con las
llaves experimentadas ”Camerman” (figura 3.4b). Se observa que en las zonas en las
cuales la serie de tiempo no presenta un comportamiento caótico los parámetros xn
y y influyen notablemente pues hace que el UACI presente valores dispersos, caso
contrario a la zonas donde la serie de tiempo es caótica los parámetro xn y yn no
presentan relevancia, ya que como se puede observar el UACI tiende a estar en un
valor entre 0.3 y 0.33. En la figura A.13 se observa que para el resto de las señales
el UACI tiene un comportamiento similar.

53
Figura 3.18: UACI de Cameraman usando el mapa de Ikeda

En la figura 3.19 se presenta la variación de la entropía entre la señal original


(”Cameraman” figura 3.3b) y la señal encriptada. Se observa que tras realizar la
encriptación en donde la serie de tiempo no es caótica la variación de la entropía no
es significativa, mientras que en las zonas en las cuales la serie de tiempo tiene com-
portamiento caótica el aumento de la entropía es considerablemente mayor, cercana
al 15%. Sin embargo hay un par de puntos iniciales con el que la variación de la
entropía es mínima, de nuevo se presenta cuando xn = yn = 1. En la figura A.9 se
observa que el comportamiento es similar para el resto de las señales.

54
Figura 3.19: ∆Entropía de Cameraman usando el mapa de Ikeda

En la figura 3.20 se presenta la AMI que se da entre la señal original (”Cam-


eraman” figura 3.3b) y cada uno de los resultados del cifrado. Se observa que en
las zonas en las cuales la serie de tiempo no presenta un comportamiento caótico
la información mutua es alta, se encuentra en 5 y 6, lo que muestra que las dos
señales están altamente relacionadas. Por el contrario, donde la serie presenta un
comportamiento caótico la información mutua es baja, tomando valores inferiores
a 1, mostrando la poca relación. Se presentan unos cambios abruptos alrededor
de 0.72 y 0.85, lo que evidencia que la serie no presenta comportamiento caótico
para esos valores de u. En la figura A.15 se observa que para todas las señales se
presentan un comportamiento similar al mencionado.

55
Figura 3.20: AMI de Cameraman usando el mapa de Ikeda

Ikeda Y En la figura 3.21 se presenta el NPCR de cada uno de los experimentos


realizados para el audio de dos canales (”Voz en español”, figura 3.5a). Se puede
observar como en la zona en la que la serie presenta comportamiento caótico, para
0.65 < u < 0.9 , es donde para el 96% de los experimentos presentan un mayor
porcentaje de datos que cambian, siendo mayores al 99%. En la zona donde no hay
caos, es donde presenta niveles más bajos, presentando un nivel menor del 90% de
datos que cambian. Además se presenta que para xn = yn = 1 es cuando se presenta
el menor NPCR, donde toma un valor de 0.375, es decir que cambian el 37.5% de los
datos, lo que significa que no es un resultado deseable. En la figura A.16 se observa
que para el resto de las señales de prueba este parámetro tiene un comportamiento
similar.

56
Figura 3.21: NPCR de Voz en español usando el mapa de Ikeda

En la figura 3.22 se presenta el coeficiente de correlación lineal del resultado


de cifrar con las llaves experimentadas ”Voz en español” (figura 3.5a). Cada color
representa un par de puntos xn y yn diferente. Se observa que en las zonas en las
cuales la serie de tiempo no tiene un comportamiento caótico se presenta la mayor
variación del coeficiente de correlación además de ser donde presenta niveles máxi-
mos, cercanos a 0.55. Por el contrario donde sí se presenta comportamiento caótico,
se observa como la correlación se acerca a cero, exceptuando para xn = yn = 1 donde
presenta un pico inusual donde la correlación toma un valor de 0.371. En la figura
A.17 se observa que para el resto de señales de prueba, tiene un comportamiento
similar al descrito anteriormente.

57
Figura 3.22: Correlación lineal de Voz en español usando el mapa logístico

En la figura 3.23 se presenta el UACI del resultado de cifrar con las llaves ex-
perimentadas ”Voz en español” (figura 3.4b). Se observa que en las zonas en las
cuales la serie de tiempo no presenta un comportamiento caótico los parámetros xn
y y influyen notablemente pues hace que el UACI presente valores dispersos, caso
contrario a la zonas donde la serie de tiempo es caótica los parámetro xn y yn no
presentan relevancia, ya que como se puede observar el UACI toma valores entre
0.27 y 0.28. En la figura A.18 se observa que para el resto de las señales el UACI
tiene un comportamiento similar.

58
Figura 3.23: UACI de Voz en español usando el mapa de Ikeda

En la figura 3.24 se presenta la variación de la entropía entre la señal original


(”Voz en español” figura 3.4a) y la señal encriptada. Se observa que donde la serie
de tiempo no es caótica la variación de la entropía no es significativa, contrario a
las zonas en las cuales la serie de tiempo tiene comportamiento caótico donde el
aumento de la entropía es considerablemente mayor, llegando a un aumento cercano
del 35%. Sin embargo hay puntos iniciales que provocan una disminución importante
para el mismo valor de u, se presenta cuando xn = yn = 1. En la figura A.19 se
observa que el comportamiento es similar para el resto de las señales.

59
Figura 3.24: ∆Entropía de Voz en español usando el mapa de Ikeda

En la figura En la figura 3.25 se presenta la AMI que se da entre la señal original


(”Voz en español” figura 3.5a) y cada uno de los resultados del cifrado. Se observa
que en las zonas en las que no se presenta un comportamiento caótico la información
mutua es alta, toma valores entre 4.9 y 5.3, lo que muestra que las dos señales están
altamente relacionadas. Por otro lado, donde sí presenta comportamiento caótico
la información mutua es baja, pues presenta valores entre 0.7 y 0.3. Es importante
resaltar que los cambios abruptos que se presenta, revelan que hay valores de u
cercanos a 0.72 y 0.85 para los cuales la serie no tiene comportamiento caótico. En
la figura A.20 se observa que para todas las señales se presentan un comportamiento
similar al mencionado.

60
Figura 3.25: AMI de Voz en español usando el mapa de Ikeda

3.4.2 Análisis de sensibilidad y espacio de llaves


Conociendo que MatLab® representa la parte decimal con 52 bits, se buscaron
valores cuya parte decimal puedan ser representados máximo por los primeros cinco
bits y que además presenten buen desempeño teniendo en cuenta los resultados
anteriores, para así modificar de a uno desde el bit siguiente hasta llegar al menos
significativo.

3.4.2.1 Mapa Logístico

• Parámetro r

Como punto de partida se escogió r = 3.9375, debido a que su parte decimal se


compone únicamente de 4 bits (2−1 + 2−2 + 2−3 + 2−4 ), y un punto xn aleatorio,
xn = 0.9. En la figura 3.28a se ve la imagen escogida para la prueba y en la figura
3.28b se ve la imagen encriptada con los parámetros mencionados.

61
(a) Imagen original (b) Imagen encriptada

Figura 3.26: Imágenes de prueba de la sensibilidad. Parámetro r

En figura 3.27 se muestran resultados al realizar el proceso de desencriptación,


tomando el valor de la primera columna de la tabla 3.9 como parámetro r del
mapa logístico. En el resto de la tabla se muestran los parámetros de las imágenes
resultantes. La tabla completa se puede observar en A.1, ahí se puede comprobar
que ninguna modificación fue capaz de realizar la desencriptación correctamente,
excepto cuando se modifica el último bit de la llave que corresponde a la última
fila de la tabla. Al ser el resultado la imagen original, se puede apreciar que la
Correlación es igual a 1 y se presentan parámetros en cero.

62
(a) r = 3.9375 + 2−12 (b) r = 3.9375 + 2−29

(c) r = 3.9375 + 2−38 (d) r = 3.9375 + 2− 52

Figura 3.27: Desencriptación variando el parámetro r

r NPCR Correlación UACI ∆Entropía AMI


−12
3.975 + 2 0.9932 0.0124 0.3081 0.9873 0.5793
−29
3.975 + 2 0.9928 0.0049 0.3088 0.9872 0.5794
3.975 + 2−38 0.9915 0.0111 0.3068 0.9873 0.5864
−52
3.975 + 2 0.0000 1.0000 0.0000 0.0000 7.0097

Tabla 3.9: Desencriptación variando el parámetro r

• Parámetro xn

Como punto de partida se escogió xn = 0.75, pues su parte decimal se compone


de dos bits (2−1 + 2−2 ) y un punto r donde se presente una buena encriptación,

63
r = 3.93. En la figura 3.28 se encuentran la imagen original y la imagen cifrada con
estos parámetros.

(a) Imagen original (b) Imagen encriptada

Figura 3.28: Imágenes de prueba de la sensibilidad. Parámetro xn

En la figura 3.29, se muestran algunos de los resultados al realizar el proceso


de desencriptación, tomando la primera columna de la tabla 3.10 como valor del
parámetro xn del mapa logístico. El resto la tabla 3.10 muestra sus respectivos
parámetros. La tabla completa se puede observar en A.2, allí se puede comprobar
que ninguna de las modificaciones a la llave logra desencriptar correctamente la
señal.

64
(a) xn = 0.75 + 2−15 (b) xn = 0.75 + 2−33

(c) xn = 0.75 + 2−45 (d) xn = 0.75 + 2−52

Figura 3.29: Desencriptación variando el parámetro xn

xn NPCR Correlación UACI ∆Entropía AMI


−15
0.75 + 2 0.9935 0.0044 0.3088 0.9873 0.5778
0.75 + 2−33 0.9944 0.0129 0.3070 0.9869 0.5784
−45
0.75 + 2 0.9937 0.0114 0.3071 0.9875 0.5799
0.75 + 2−52 0.9936 0.0089 0.3078 0.9876 0.5731

Tabla 3.10: Desencriptación variando el parámetro xn

3.4.2.2 Mapa Cuadrático

Como punto de partida se escogió c = 1.875, puesto que su parte decimal son tres
bits (2−1 + 2−2 + 2−3 ) y xn = 0.5, ya que son puntos en los cuales el algoritmo

65
presenta buenos resultados. En la figura 3.30 se puede observar el resultado de
encriptar la imagen con los parámetros seleccionados.

(a) Imagen original (b) Imagen encriptada

Figura 3.30: Cifrado usando el mapa cuadrático

• Parámetro c

Teniendo en cuenta lo dicho anteriormente se varió uno a uno los bits de la llave
hasta llegar al menos significativo. En la figura 3.31 se observa el resultado de realizar
la desencriptación, tomando como parámetro c los valores de la primera columna
de tabla 3.11. En el resto de la tabla se muestran sus respectivos parámetros.
Los resultados completos se pueden ver en la tabla A.3 y se puede comprobar que
ninguno de los cambios logra desencriptar satisfactoriamente la imagen.

66
(a) c = 1.875 + 2−10 (b) c = 1.875 + 2−22

(c) c = 1.875 + 2−35 (d) c = 1.875 + 2−52

Figura 3.31: Desencriptación variando el parámetro c

c NPCR Correlación UACI ∆Entropía AMI


−10
1.875 + 2 0.9929 0.0068 0.3077 0.9875 0.5770
−22
1.875 + 2 0.9924 0.0108 0.3068 0.9870 0.5832
1.875 + 2−35 0.9925 0.0030 0.3086 0.9874 0.5833
−52
1.875 + 2 0.9912 0.0079 0.3072 0.9869 0.5830

Tabla 3.11: Desencriptación variando el parámetro c

• Parámetro xn

El parámetro se fijó xn = 0.5, así que partiendo desde ahí se realizaron los
cambios de cada uno de los bits, hasta llegar al menos significativo. En la figura

67
3.32 se muestran los resultados de desencriptar, tomando como valor del parámetro
xn los valores presentados en la primera columna de la tabla 3.12. En el resto
de la tabla se muestran sus respectivos parámetros. Los resultados completos se
pueden ver en la tabla A.4 y se puede comprobar que ninguno de los cambios logra
desencriptar satisfactoriamente la imagen.

(a) xn = 0.5 + 2−17 (b) xn = 0.5 + 2−31

(c) xn = 0.5 + 2−47 (d) xn = 0.5 + 2−52

Figura 3.32: Desencriptación variando el parámetro xn

68
xn NPCR Correlación UACI ∆Entropía AMI
−17
0.5 + 2 0.9930 0.0082 0.3075 0.9876 0.5823
0.5 + 2−31 0.9920 0.0047 0.3078 0.9869 0.5837
0.5 + 2−47 0.9920 0.0018 0.3083 0.9867 0.5852
−52
0.5 + 2 0.9920 0.0098 0.3070 0.9868 0.5837

Tabla 3.12: Desencriptación variando el parámetro xn

3.4.2.3 Mapa de Ikeda

Como punto inicial se escogieron u = 0.75 y xn = yn = 0.5, por las razones que
se han expuesto para los casos anteriores. Dado que el mapa de Ikeda tiene dos
dimensiones (X,Y), se tomara cada componente de forma independiente.

Mapa de Ikeda X En la figura 3.33 se observa la imagen encriptada utilizando


la componente X del mapa de Ikeda resultante con los parámetros seleccionados.

(a) Imagen original (b) Imagen encriptada

Figura 3.33: Cifrado utilizando el mapa de Ikeda (X)

• Parámetro u

Como se mencionó anteriormente, el parámetro del cifrado fue u = 0.75, así que
partiendo de ahí se hizo la modificación de cada uno de los bits. En la figura 3.34
se muestra el resultado de desencriptar la imagen, reemplazando el parámetro u con
los valores de la primera columna de la tabla 3.13. En la tabla 3.13 se muestran los

69
parámetros correspondientes. Los resultados completos se pueden ver en la tabla
A.5 y se comprueba que ninguno de los diferentes valores logra desencriptar la señal.

(a) u = 0.75 + 2−11 (b) u = 0.75 + 2−37

(c) u = 0.75 + 2−44 (d) u = 0.75 + 2−52

Figura 3.34: Desencriptación variando el parámetro u

u NPCR Correlación UACI ∆Entropía AMI


0.75 + 2−11 0.9910 0.0034 0.3068 0.9864 0.5947
−37
0.75 + 2 0.9908 0.0062 0.3073 0.9869 0.5901
0.75 + 2−44 0.9907 0.0012 0.3075 0.9866 0.5895
−52
0.75 + 2 0.9903 0.0169 0.3043 0.9862 0.5973

Tabla 3.13: Desencriptación variando el parámetro u

70
• Parámetro xn

El parámetro escogido fue xn = 0.5. En la figura 3.35 se muestra el resultado de


desencriptar la imagen, tomando los valores de la primera columna de la tabla 3.14
para el parámetro xn . En la tabla 3.14 se muestran los respectivos parámetros. Los
resultados completos se pueden ver en la tabla A.6, allí se puede ver que el único
que logra desencriptar la imagen se da al modificar el último bit. Esto se observa
en la última fila de ambas tablas, pues la Correlación es 1.

(a) xn = 0.5 + 2−4 (b) xn = 0.5 + 2−25

(c) xn = 0.5 + 2−48 (d) xn = 0.5 + 2−52

Figura 3.35: Desencriptación variando el parámetro xn

71
xn NPCR Correlación UACI ∆Entropía AMI
−4
0.5 + 2 0.9906 0.0069 0.3060 0.9870 0.5928
0.5 + 2−25 0.9906 0.0166 0.3054 0.9870 0.5936
0.5 + 2−48 0.9904 0.0040 0.3070 0.9863 0.5919
−52
0.5 + 2 0.0000 1.0000 0.0000 0.0000 7.0097

Tabla 3.14: Desencriptación variando el parámetro xn

• Parámetro yn

El parámetro escogido fue yn = 0.5. En la figura 3.36 se muestra el resultado


de desencriptar la imagen, tomando como parámetro xn los valores de la primera
columna de la tabla 3.15. En el resto de la tabla se muestran sus respectivos parámet-
ros. Los resultados completos se pueden ver en la tabla A.7 y se puede comprobar
que ninguna modificación logra desencriptar la imagen.

(a) yn = 0.5 + 2−8 (b) yn = 0.5 + 2−31

72
(c) yn = 0.5 + 2−45 (d) yn = 0.5 + 2−52

Figura 3.36: Desencriptación variando el parámetro yn

yn NPCR Correlación UACI ∆Entropía AMI


0.5 + 2−8 0.9917 0.0064 0.3066 0.9865 0.5938
−31
0.5 + 2 0.9899 0.0033 0.3070 0.9858 0.5974
0.5 + 2−45 0.9896 0.0044 0.3063 0.9861 0.5943
0.5 + 2−52 0.9905 0.0067 0.3063 0.9869 0.5960

Tabla 3.15: Desencriptación variando el parámetro yn

Mapa de Ikeda Y En la figura 3.37 se observa la imagen encriptada utilizando


la componente Y del mapa de Ikeda resultante con los parámetros seleccionados.

73
(a) Imagen original (b) Imagen cifrada

Figura 3.37: Cifrado utilizando el mapa de Ikeda (Y)

• Parámetro u

El parámetro del cifrado fue u = 0.75. En la figura 3.38 se muestra el resultado


de desencriptar la imagen, tomando como el parámetro u los valores de la primera
columna de tabla 3.16. En el resto de la tabla se muestran los respectivos parámetros.
Los resultados completos se pueden ver en la tabla A.8 y se puede ver que ninguna
modificación logra desencriptar la imagen.

(a) u = 0.75 + 2−11 (b) u = 0.75 + 2−37

74
(c) u = 0.75 + 2−44 (d) u = 0.75 + 2−52

Figura 3.38: Desencriptación variando el parámetro u

u NPCR Correlación UACI ∆Entropía AMI


0.75 + 2−11 0.9895 0.0066 0.3058 0.9866 0.5989
−37
0.75 + 2 0.9890 -0.0017 0.3081 0.9867 0.5995
0.75 + 2−44 0.9876 0.0016 0.3067 0.9864 0.6066
0.75 + 2−52 0.9879 0.0027 0.3060 0.9865 0.6035

Tabla 3.16: Desencriptación variando el parámetro u

• Parámetro xn

El punto inicial xn = 0.5. En la figura 3.39 se muestra el resultado de desencrip-


tar la imagen, tomando los valores de la primera columna de la tabla 3.17 como el
parámetro xn . En la tabla 3.17 se muestran los respectivos parámetros. Los resul-
tados completos se pueden ver en la tabla A.9 y se puede ver que el único que logra
desencriptar la imagen se da al modificar el último bit de la llave. Esto es posible
verlo en la última fila de ambas tablas, donde la Correlación es igual a 1, mientras
otros parámetros son cero.

75
(a) xn = 0.5 + 2−4 (b) xn = 0.5 + 2−25

(c) xn = 0.5 + 2−48 (d) xn = 0.5 + 2−52

Figura 3.39: Desencriptación variando el parámetro xn

xn NPCR Correlación UACI ∆Entropía AMI


−4
0.5 + 2 0.9895 0.0126 0.3056 0.9864 0.6016
−25
0.5 + 2 0.9878 0.0035 0.3064 0.9863 0.6041
0.5 + 2−48 0.9889 -0.0019 0.3075 0.9862 0.6015
−52
0.5 + 2 0.0000 1.0000 0.0000 0.0000 7.0097

Tabla 3.17: Desencriptación variando el parámetro xn

• Parámetro yn

El punto inicial yn = 0.5. En la figura 3.40 se muestra el resultado de desencriptar


la imagen, variando el parámetro xn con los valores que se encuentran en la primera

76
columna de tabla 3.18. En el resto de la tabla se muestran sus respectivos parámet-
ros. Los resultados completos se pueden ver en la tabla A.10 y se puede comprobar
que ninguna modificación logra desencriptar la imagen satisfactoriamente.

(a) yn = 0.5 + 2−8 (b) yn = 0.5 + 2−31

(c) yn = 0.5 + 2−45 (d) yn = 0.5 + 2−52

Figura 3.40: Desecnriptación variando el parámetro yn

77
yn NPCR Correlación UACI ∆Entropía AMI
−8
0.5 + 2 0.9898 -0.0005 0.3077 0.9874 0.5939
0.5 + 2−31 0.9881 0.0040 0.3069 0.9868 0.5967
0.5 + 2−45 0.9880 0.0050 0.3066 0.9867 0.6046
−52
0.5 + 2 0.9882 0.0066 0.3055 0.9862 0.6060

Tabla 3.18: Desencriptación variando el parámetro yn

3.4.3 Resultados obtenidos con redes multicapa


Tras observar en la sección 3.4.1 que los parámetros más representativos son la
Correlación y la AMI, estos son los que se toman en cuenta para la evaluación de
las redes multicapa. Además, al determinar que que el cifrado es independiente de
la señal, se realizan los experimentos con tan sólo una señal, que para la prueba de
conmutatividad es ”Lenna” (Figura 3.4b) y para el estudio de las redes multicapa
se utiliza la ”Voz en español” (Figura 3.5a).

3.4.3.1 Prueba de conmutatividad

Con el fin de comprobar si el sistema tenía la propiedad conmutativa, se realizaron


5 pruebas con una arquitectura de cuatro capas variando el orden de la series de
tiempo. Primero se encriptó la imagen ”Lenna” (figura 3.4b) usando la arquitectura
[Log;Cuad;Ik X;Ik Y], luego se cambió el orden de las series caóticas.

Logístico Cuadrático Ikeda (X) Ikeda (Y)


r = 3.98 c = 1.99 u = 0.78 u = 0.82
xn = 0.1 xn = 0.1 xn = 0.1 xn = 0.1
yn = 0.1 yn = 0.1

Tabla 3.19: Parámetros utilizados para el cifrado para la prueba de conmutatividad

78
(a) Lenna original (b) Lenna cifrada

Figura 3.41: Cifrado multicapa

Serie caótica NPCR Corr (O) UACI ∆Entropía AMI Corr


[Log,Cuad,Ik X,Ik Y] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Log,Cuad,Ik Y,Ik X] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Log,Ik Y,Ik X,Cuad] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Log,Ik X,Ik Y,Cuad] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Cuad,Ik X,Log,Ik Y] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Cuad,Log,Ik X,Ik Y] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Cuad,Ik Y,Log,Ik X] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Ik X,Log,Ik Y,Cuad] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Ik X,Ik Y,Log,Cuad] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Ik X,Cuad,Ik Y,Log] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Ik Y,Log,Ik X,Cuad] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Ik Y,Cuad,Ik X,Log] 0.9961 0.0006 0.3040 0.2496 0.0597 1
[Ik Y,Ik X,Cuad,Log] 0.9961 0.0006 0.3040 0.2496 0.0597 1

Tabla 3.20: Resultados del cifrado intercambiando las series de tiempo

En la figura 3.41 se puede observar la imagen original y la imagen cifrada con la


arquitectura y los parámetros propuestos. En la tabla 3.20 se observan los resulta-
dos de cifrar la misma imagen variando el orden de las diferentes series de tiempo.
De la segunda a la quinta columna se muestran los parámetros que se miden con
respecto a la imagen original, la última es la correlación lineal con respecto a la
imagen cifrada (figura 3.41b).

79
Como se puede observar, todas las imágenes presentan los mismos valores para
cada uno de los parámetros a pesar de que se varía el orden de las capas caóticas.
Además la correlación entre todas las imágenes cifradas es 1, lo que indica que todas
las combinaciones de capas caóticas producen la misma imagen cifrada. Esto permite
notar que el proceso de cifrado depende únicamente de los parámetros con los cuales
se inicializen las series caóticas en cada capa, más no el orden de las mismas.

3.4.3.2 Redes de dos capas

Entre las diferentes distribuciones que se propusieron (tabla 3.4) se realizaron 19104
experimentos, en los cuales se variaron los parámetros de las diferentes series de
tiempo, estos dentro de las zonas en las cuales presentan un mejor desempeño.
En la figura 3.42 se presenta el histograma de la correlación de todos los experi-
mentos. Se puede observar como se presenta una gran concentración de resultados
alrededor del cero, pues como se observa en la tabla de parámetros (tabla 3.21) el
promedio es del orden de 10−4 , además que no se logra diferenciar entre los difer-
entes modelos propuestos, ya que como se presenta en la tabla la desviación estándar
es del orden de 10−3 , lo cual resulta ideal ya que muestra la poca relación que se
presenta entre las señales cifradas y la original.

Figura 3.42: Histograma de la correlación para redes de dos capas

80
Media (µ) Desviación estándar (σ)
−4
6.6676 ∗ 10 0.0031

Tabla 3.21: Desviación y media de la Correlación en redes de dos capas

En la figura 3.43 se presenta el histograma de la AMI de todos los experimentos.


Se observa una gran concentración de datos entre 0.18 y 0.2, y el promedio de los
datos como se puede ver en la tabla 3.22 es 0.198, además se presenta la desviación
estándar que es 0.0169, lo que muestra que no se presenta diferencia entre los mod-
elos, esto representa un gran desempeño puesto que disminuye con respecto a las
redes de una sola capa.

Figura 3.43: Histograma de la AMI para redes de dos capas

Media (µ) Desviación estándar (σ)


0.1980 0.0169

Tabla 3.22: Desviación y media de la AMI en redes de dos capas

81
3.4.3.3 Redes de tres capa

Entre las diferentes distribuciones que se propusieron (tabla 3.4) se realizaron 18558
experimentos, en los cuales se variaron los parámetros de las diferentes series de
tiempo, estos dentro de las zonas en las cuales presentan un mejor desempeño.

En la figura 3.44 se presenta el histograma de la correlación de todos los ex-


perimentos. Se observa una gran concentración alrededor del cero, pues como se
presenta en la tabla de parámetros el promedio es del orden de 10−5 (tabla 3.23),
además disminuyendo con respecto a las redes de dos capas y aún más a las de una
capa. De nuevo no hay una tendencia que permita observar la diferencia entre los
diferentes modelos propuestos, ya que la desviación estándar que presentan los datos
es pequeña del orden de 10−2 .

Figura 3.44: Histograma de la correlación para redes de tres capas

Media (µ) Desviación estándar (σ)


−5
−4.7455 ∗ 10 0.0023

Tabla 3.23: Desviación y media de la Correlación en redes de tres capas

82
En la figura 3.45 se presenta el histograma de la AMI de todos los experimentos.
Se observa una altísima concentración alrededor de 0.19 y unos pocos datos dispersos
entre 0.22 y 0.225, lo que muestra que el valor más probable de AMI es cercano a
0.19, y es así pues el promedio de los datos es 0.19 así como se puede ver en la tabla
3.24, disminuyendo frente a las redes de un capa, y muy poco frente a las redes de
dos capas, sin embargo es una mejora en el desempeño tomando en cuenta que la
desviación estándar bajó siendo del orden de 10−3 .

Figura 3.45: Histograma de la AMI para redes de tres capas

Media (µ) Desviación estándar (σ)


0.1902 0.0019

Tabla 3.24: Desviación y media de la AMI en redes de tres capas

3.4.3.4 Redes de cuatro capas

Bajo la única distribución que se propuso (tabla 3.4), se realizaron 6004 experimen-
tos, en los cuales se variaron los parámetros de las diferentes series de tiempo, estos
dentro de las zonas en las cuales presentan un mejor desempeño.

83
En la figura 3.47 se presenta el histograma todos los experimentos. Como se ha
visto con las otras arquitecturas la mayor concentración de los datos se encuentra
con respecto a cero, además de presentar una disminución que no es muy significativa
y esto se puede ver en la tabla 3.25 pues el promedio de los datos es del orden de
10−5 .

Figura 3.46: Histograma de la correlación para redes de cuatro capas

Media (µ) Desviación estándar (σ)


1.4448 ∗ 10−6 0.0022

Tabla 3.25: Desviación y media de la Correlación en redes de cuatro capas

En la figura 3.47 se presenta el histograma de la AMI de todos los experimentos.


De la misma forma que las redes de tres capas, los datos se concentran alrededor de
0.19, sin embargo no de presentan resultados dispersos siendo en este tipo de redes
donde se presenta al menor desviación estándar, así como se aprecia en la tabla
3.26. Disminuye con respecto a las redes de tres capas, pero no es algo realmente
significativo pues como se puede ver en la tabla 3.26 el promedio es diferente en el
orden de 10−3 .

84
Figura 3.47: Histograma de la AMI para redes de cuatro capas

Media (µ) Desviación estándar (σ)


0.1900 8.9052 ∗ 10−4

Tabla 3.26: Desviación y media de la AMI en redes de cuatro capas

3.4.4 Complejidad del modelo


En la tabla 3.27 se puede ver el tiempo promedio que tomó el cifrado y el descifrado
de cada una de las señales propuestas. Como era de esperarse el tiempo de cada
proceso es dependiente de la cantidad de datos y de capas, esto se puede ver reflejado
en las imágenes en B/N (S4,S5) donde para cada capa que se agrega aumenta el
tiempo, y como S5 tiene menos datos, el tiempo es menor.
Lo primero se ve en el hecho de que en las señales que tienen una menor cantidad
de datos, el tiempo es 5 veces menor con respecto a las que tienen más datos. Lo
segundo, dado que el aumento de capas representa un aumento de neuronas y a su
vez un aumento de operaciones es la razón por la cual aumenta el tiempo. Además
es necesario agregar que las características del equipo de cómputo son un factor.

85
Tiempo Cifrado (s) Tiempo Descifrado (s)
#C #N Modelo caótico
S1 S2 S3 S4 S5 S6 S7 S1 S2 S3 S4 S5 S6 S7
Logístico 0.79 1.93 0.28 0.59 0.35 2.73 2.74 1.11 2.9 0.36 0.75 0.43 4.24 3.91
Cuadrático 0.62 1.73 0.59 0.38 0.19 2.57 2.30 0.98 2.79 0.18 0.60 0.30 4.11 3.58
1 8
Ikeda (X) 0.62 1.75 0.35 0.38 0.19 2.57 2.30 0.98 2.78 0.18 0.60 0.30 4.11 3.59
Ikeda (Y) 0.61 1.74 2.73 0.37 0.19 2.56 2.36 0.98 2.78 0.18 0.60 0.30 4.10 3.63
[Log, Cuad] 1.62 4.51 2.74 0.97 0.48 6.69 5.95 1.96 5.55 0.35 1.20 0.59 8.21 7.36
[Log, Ike (X)] 1.58 4.52 0.11 0.97 0.48 6.67 6.09 1.95 5.58 0.35 1.19 0.59 8.26 7.22
[Log, Ike(Y)] 1.58 4.5 0.38 0.97 0.48 6.76 5.98 1.95 5.55 0.35 1.20 0.59 8.22 7.35
2 16
[Cuad, Ike (X)] 1.58 4.51 0.19 0.97 0.48 6.67 5.96 1.94 5.55 0.35 1.20 0.59 8.23 7.35
[Cuad, Ike (Y)] 1.58 4.52 2.57 0.97 0.48 6.70 5.93 1.94 5.54 0.35 1.19 0.59 8.21 7.27
[Ike (X), Ike (Y)] 1.58 4.51 2.30 0.98 0.49 6.68 6.02 1.95 5.55 0.35 1.20 0.59 8.21 7.31

86
[Lg, Cd, Ik (X)] 2.55 7.35 0.12 1.57 0.78 10.91 9.56 2.92 8.33 0.53 1.80 0.89 12.41 10.79
[Lg, Cd, Ik (Y)] 2.55 7.31 0.38 1.57 0.78 10.89 9.53 2.92 8.32 0.53 1.80 0.89 12.38 10.78
3 24
[Lg, Ik(X),Ik(Y)] 2.55 7.32 0.19 1.57 0.78 10.83 9.53 2.91 8.32 0.53 1.82 0.89 12.34 10.87
[Cd, Ik(X),Ik(Y)] 2.55 7.29 2.57 1.58 0.78 10.88 9.39 2.93 8.32 0.53 1.81 0.88 12.34 10.67
4 32 [L,C, Ik(X), Ik(Y)] 3.52 10.06 2.30 2.18 1.07 14.90 13.01 3.88 11.32 0.70 2.41 1.19 16.44 14.35

Tabla 3.27: Tiempos de cifrado/descifrado


C : Número de capas *N : Número de neuronas
S1: Voz en español. S2: Flauta china. S3: Voz en francés. S4: Toma aérea. S5: Cameraman. S6: Faro. S7: Lenna.
4. Redes neuronales feedforward

En este capítulo se presenta el desarrollo de un sistema que permita la emulación


del algoritmo DES (Data Encryption Standard) usando redes neuronales con la
arquitectura feedforward. Se inicia con una introducción y muestra, del modelo
propuesto. En segundo lugar se establece la metodología y condiciones bajo lo cual
se realizara la experimentación, con el fin de obtener una red neuronal que cumpla
con el propósito de emular el algoritmo DES, y se obtenga una arquitectura óptima.
En tercer lugar se muestran los resultados de la experimentación, junto con una
comparación con el algoritmo DES implementado de manera tradicional.

87
4.1 Introducción
De manera general, las redes neuronales feedforward con entrenamiento supervisado
cumplen la función descrita en la figura 4.1, en donde a partir de una serie de datos
compuestos por las entradas y salidas de un problema, se genera un modelo que
cumpla con el comportamiento de los datos.

Buscando distintas maneras de implementar redes neuronales en el campo de


seguridad de la información, se buscó la emulación del algoritmo DES, el cual a pe-
sar de la disminución de su uso permanece como un referente para la encriptación.
Teniendo en cuenta la complejidad que presentan este modelo, es una gran opor-
tunidad, para verificar y mostrar las capacidades que tienen las redes neuronales,
además de las ventajas y dificultades que puede presentar el uso de las redes neu-
ronales en el lugar de un algoritmo tradicional.

Figura 4.1: Objetivo red neuronal, con entrenamiento supervisado

4.2 Modelo propuesto


Se buscará lo descrito en la figura 4.2, una red neuronal que tenga como entradas la
llave y el mensaje, y como salidas el mensaje cifrado para el caso de la encriptación;
y para el caso de la desencriptación se tengan como entradas la llave y el mensaje
cifrado, y como salida el mensaje.

88
(a) Encriptación (b) Desencriptación

Figura 4.2: Modelo general de algoritmo DES con red neuronal.

Es importante resaltar que se generarán dos modelos neuronales distintos, uno


para encriptación y otro para desencriptación, ya que una vez realizado el entre-
namiento y generados los modelos neuronales como se tiene en la figura 4.3, este
servirá para generar la encriptación o desencriptación ,según sea el caso, de cualquier
mensaje o criptogtama, con cualquier llave.

Figura 4.3: Modelo para entrenamiento.

4.3 Experimentación
Para la experimentación se utiliza la herramienta MATLAB 2018b, y a continuación
se presentan las características del equipo utilizado:

• Procesador: Intel(R) Core(TM) i5-3210M CPU @ 2.50GHz

• Memoria (RAM): 8 GB

• Sistema Operativo: Windows 8.1 Pro

Se tendrán dos enfoques principales:

89
• La observación de la capacidad y el nivel de detalle que una red neuronal
puede emular el algoritmo DES.

• Examinar dentro de las arquitecturas exploradas la que mejor se ajuste al


problema.

En el proceso de experimentación se debe realizar en primer lugar una explo-


ración de las capacidades de cómputo disponibles, y su impacto en la solución del
problema. Por lo cual según la descripción del problema, en la sección 4.2, se debe
tener en cuenta que en una primera instancia la red neuronal tiene 120 entradas (56
bits de la llave junto con 64 bits de información) y 64 salidas, adicionalmente para el
proceso de entrenamiento y validación es necesario contar con una base de datos que
contiene todas las posibles combinaciones entre llaves y datos (256 * 264 = 2120 ), y su
respectivo resultado tras el cifrado. Sin embargo, el tiempo requerido para generar
una base de datos de ese tamaño es realmente alta, podría encontrarse en una es-
cala de años [[103]], lo que obliga a acotar el problema, para reducir las posibilidades.

En segundo lugar se realizará la búsqueda de una red neuronal que logre emular
el algoritmo DES, para esto se realizará la variación de los parámetros definidos
(función de entrenamiento, numero de capas, numero de neuronas y funciones de
activación) y basado en un parámetros a establecer se medirá de desempeño de la
red neuronal.
Finalmente se evaluaran los parámetros de desempeño de algoritmos de cifrado
descritos en la sección 2.5, usando las señales para evaluación que se propusieron en
la sección 3.3. Adicionalmente se realizará la comparación entre el modelo DES con
redes neuronales que se obtenga, y el DES de manera tradicional.

4.3.1 Definición parámetros de desempeño de la red


Teniendo en cuenta que se busca es emular el comportamiento del algoritmo de
cifrado DES, y así mismo determinar las ventajas y desventajas que tendría una
implementación mediante redes neuronales, las características de seguridad estarán
dadas por las fortalezas y debilidades del algoritmo, sin embargo la evaluación de la
red que mejor cumpla será dada, por:

• Tamaño de la arquitectura: Descrito por número de capas y neuronas en cada


capa de la red neuronal

90
• Error: Determinado por el algoritmo 4.

Algoritmo 4 Calculo error de referencia, para red neuronal feedforward

1. Determinar la base de datos de referencia (la cual debe componerse de


valores binarios), con la cual se quiere comparar, compuesta según la sección
4.2 por llaves, mensajes, mensajes cifrados.

2. Determinar la salida , que según lo mostrado en la sección 4.2, puede cor-


responder a los mensajes en el caso del descifrado, y los mensajes cifrados
en el caso del cifrado.

3. Usar las ecuaciones 4.1 y 4.2, para calcular el error.

4. for i=1:B do


 0 si BCN N == BDB
Erroracumulado = Contador + (4.1)
 1 si BCN N ! = BDB

5. end for
Donde:

• B corresponde al numero de bits que compone la base de datos usada.

• BCNN corresponde al valor del bit generado por la red neuronal, como
respuesta a una entrada especifica [llave, (mensajes o mensajes cifra-
dos)].

• BDB corresponde al valor del bit en la base de datos, que se genero a


partir de la misma entrada.

ErrorAcumulado ∗ 100%
Error = (4.2)
T amano(B)

4.3.2 Condiciones de la experimentación


Una de las principales condiciones bajo las cuales se realizara la experimentación es
que toda prueba y evaluación será realizada utilizando la base de datos generada

91
a partir de fijar unas cajas de sustitución y permutación únicas predeterminadas,
que se pueden observar en la figura 4.4, estos valores fueron copiados del articulo
[87] siempre con la consideración de que la complejidad y seguridad del algoritmo y
así mismo la capacidad de emulación de las redes neuronales, están ligadas a estas
variables.

Figura 4.4: (a)Tabla de permutación inicial (b) Vector expansión del mensaje (Feis-
tel) (c) Permutación final (Feistel) (d) caja permutación 1 para sub llaves (e) caja
permutación 2 para sub llaves

Sólo serán variadas la función de aprendizaje, neuronas y capas en el entre-


namiento. Los demás parámetros como la función de desempeño y la función de
adaptación serán fijos y son los presentados a continuación, además es importante
resaltar que los pesos de la red se inicializarán de forma aleatoria.

• La función de desempeño: Sse, Error del cuadrado de la suma, descrito a


continuación (ecuación 4.3).


n
Sse = (yi − f (xi ))2 (4.3)
i=0

• La función de adaptación de aprendizaje: Descenso de gradiente para obtener


pesos y función de aprendizaje sesgo (learngd).

Cada función de entrenamiento usada, cuenta con distintos parámetros para


cumplir con su objetivo, en este caso se decidió no variar estos y dejarlos en el valor

92
predeterminado por MATLAB.

Otras características asociadas al toolbox de MATLAB, son los criterios de


parada de los algoritmos de entrenamiento. Con el objetivo de realizar una aprox-
imación más estricta al DES y reducir errores del modelo neuronal, fueron estable-
cidos criterios de convergencia más rigurosos que los predeterminados para cada
función, los cuales se muestran en la Tabla 4.1.

Teniendo en cuenta que uno de los parámetros de desempeño usado es el er-


ror descrito en la ecuación 4.3, y es posible que este llegue a 0 %, sin cumplir los
parámetros de desempeño que se encuentran disponibles en MATLAB, pues estos
fueron modificados a valores extremos, se editó el código del toolbox para entre-
namiento de las redes neuronales, con el fin de que se realizará la evaluación de este
error, en cada época de entrenamiento.

Parámetro Valor
Número máximo de
100000
épocas para entrenar.
Gradiente de
10−1000000
rendimiento mínimo
Objetivo de
10000000
rendimiento
Máximos fallos
10−1000000
de validación
Longitud de
10−1000000
paso mínimo

Tabla 4.1: Parámetros Toolbox MATLAB, modificados

4.3.3 Función de entrenamiento : BFGS quasi-Newton back-


propagation
La arquitectura neuronal usada para cifrado y descifrado, se establece con una capa
intermedia y una capa de salida. Las capas pueden tener tres funciones de activación
distintas (Tansig,Logsig, Purelin), sumado a la variación del parámetro de numero
de neuronas, que en cada capa fue variado. Para el caso del cifrado se tiene 120

93
entradas correspondientes a los 64 bits del mensaje y 56 bits de la llave, y en la capa
de salida se tienen los 64 bits de la información cifrada, para el caso del descifrad se
tiene una estructura similar, con 64 bits de la información cifrada sumada a 56 bits
de la llave, en la entrada, y en la salida se tienen 8 bits correspondientes al valor
máximo que puede tomar el mensaje tras realizar la reducción de la base de datos.

4.4 Resultados
4.4.1 Limitación de base de datos
Para generar una base datos que este dentro de las capacidades de computo disponibles,
es necesario tener en cuenta que el algoritmo de cifrado DES cuenta con un espacio
de llaves de 56 bits e información de 64 bits. Además es necesario tener en cuenta
la máxima capacidad de almacenamiento en RAM que puede usar MATLAB, que
para el caso de la maquina de computo usada supone una limitante de máximo 211
posibles llaves y 211 posibles mensajes para así poder crear una base de datos del
tamaño de las posibles combinaciones que se pueden generar (211 ∗ 211 = 222 ), por
lo cual se elige realizar una prueba inicial partiendo con valores de llaves y mensajes
que van desde 0 hasta 211 .

Para realizar una prueba exploratoria, se estableció de manera aleatoria una


arquitectura inicial de la red neuronal feedforward con 3 capas cada una con 150
neuronas. Con funciones de activación logarítmica sigmoidal, exceptuando la función
de activación de la capa de salida la cual es lineal, se entrenó con la función de
entrenamiento BFGS quasi-Newton backpropagation y se obtuvo como resultado
lo descrito en la tabla 4.2, donde se usan los parámetros de error y tiempo de
entrenamiento, descritos en la sección 4.3.2.

94
Funciones Error Tiempo
Arquitectura
de activación (%) (seg)
[tansig tansig
Encriptación [150 150 150 64] 98,7641 48520,9381
tansig purelin]
[tansig tansig
Desencriptación [150 150 150 11] 96,8913 41029,4261
tansig purelin]

Tabla 4.2: Exploración solución red neuronal con dimensión de llaves y mensajes de
11 bits

(a) Imagen original (b) Imagen cifrada

(c) Imagen descifrada

Figura 4.5: Prueba inicial con imagen

En la figura 4.5, se muestra el resultado de realizar el cifrado y descifrado de la

95
imagen de referencia ”Cameraman”, expuesta en la sección 3.3, (para poder realizar
la visualización se realizó la normalización de los datos, con el fin de que el mayor
valor, por bit que se tenga sea 255, y el algoritmo genera datos de salida de hasta
264 ). De acuerdo con el parámetro de error observado en la tabla 4.2, no se genera
un modelo que cumpla con un cifrado no interpretable, debido a que se nota clara-
mente la silueta de la persona que se encuentra en la foto. Para el descifrado se le
ingresó la información de la imagen cifrada mediante el algoritmo DES tradicional,
y el resultado es poco alentador pues no se logra recuperar la información.

Adicionalmente se tienen tiempos de entrenamiento que en la etapa de exper-


imentación causarían que esta fuera muy extensa, pues cada iteración tomaría un
tiempo mayor a 12 horas, sin conocer si se está en la posibilidad de cumplir el ob-
jetivo de emular el algoritmo DES.

4.4.1.1 Experimento 2

Para lograr acotar la cantidad de información con la que se quiere trabajar, con el
objetivo de mejorar el proceso encriptación - desencriptación con el modelo neuronal
se plantea un segundo experimento. Se reduce la base de datos a una que única-
mente contenga las posibles combinaciones generadas a partir de llave se que van
desde 0 hasta 28 , y mensajes que van desde 0 hasta 210 , debido en que el muestreo
de una señal a este número de bits es común en una señal multimedia.

Se realiza la repetición del entrenamiento en condiciones similares, al proceso


anterior, usando la base de datos reducida. Como resultado se obtiene lo descrito
en la tabla 4.3.

Funciones Error Tiempo


Arquitectura
de activación (%) (seg)
[tansig tansig
Encriptación [150 150 150 64] 97,5991 43120,5686
tansig purelin]
[tansig tansig
Desencriptación [150 150 150 10] 92,1872 40045,9021
tansig purelin]

Tabla 4.3: Exploración solución red neuronal con dimensión de mensajes y llaves de
10 bits

96
(a) Imagen original (b) Imagen cifrada

(c) Imagen descifrada

Figura 4.6: Prueba inicial con imagen

En la figura 4.6, se muestra el resultado de realizar el cifrado y descifrado de la


imagen de referencia ”Cameraman”. Así mismo como en el experimento exploratoria
anterior y de acuerdo con el parámetro de error observado en la tabla 4.2 , no se
genera un modelo que cumpla con un cifrado no interpretable, debido a que se nota
claramente la silueta de la persona que se encuentra en la foto. En descifrado se le
ingresó la información de la imagen cifrada mediante el algoritmo DES tradicional, y
no se muestra que se alcance a recuperar información. Adicionalmente se continúan
teniendo tiempos de entrenamiento, que en la etapa de experimentación causarían
que esta fuera muy extensa.

97
4.4.1.2 Experimento 3

Finalmente en busca de acotar nuevamente la cantidad de información con la que se


quiere trabajar se plantea un tercer experimento, se reduce nuevamente la base de
datos a una que únicamente contenga las posibles combinaciones generadas a partir
de llaves que van desde 0 hasta 26 , y mensajes que van desde 0 hasta 28 .

Se realiza la repetición del entrenamiento en condiciones similares, a los exper-


imentos anteriores, usando la base de datos descrita. Como resultado se obtiene lo
mostrado en la tabla 4.3.

Funciones Error Tiempo


Arquitectura
de activación (%) (seg)
[tansig tansig
Encriptación [150 150 150 64] 39.5791 36785,5642
tansig purelin]
[tansig tansig
Desencriptación [150 150 150 8] 13,034 35656,9756
tansig purelin]

Tabla 4.4: Exploración solución red neuronal con dimensión de mensajes de 8 bits
y llaves de 6 bits

98
(a) Imagen original (b) Imagen cifrada

(c) Imagen descifrada

Figura 4.7: Prueba inicial con imagen

En la figura 4.6, se muestra el resultado de realizar el cifrado y descifrado de la


imagen de referencia ”Cameraman”. Similar al experimento exploratoria anterior, y
de acuerdo al parámetro de error observado en la tabla 4.2, se generó un modelo de
cifrado no interpretable, debido a que se nota claramente la silueta de la persona que
se encuentra en la foto, adicionalmente no queda claro si la información de cifrado
sea recuperable en su totalidad. En descifrado por el contrario, se tienen resultados,
donde en la imagen se logra extraer la figura de la persona de la foto de manera
clara. Adicionalmente aún se continúan presentando tiempos de entrenamiento que
en la etapa de experimentación causarían que esta fuera muy extensa.

La tabla 4.4 correspondiente al tercer experimento, muestra unos resultados

99
favorables para el objetivo propuesto, ya que el error disminuye con respecto al
primer y segundo experimento donde los errores son mayores al 90%. Por lo cual
se utilizara la base de datos descrita en la figura 4.8 donde se tienen los mensajes
que serán cifrados, que como se menciono anteriormente van desde 0 hasta 28 , y se
cifra 64 veces, que corresponde a las 64 distintas llaves, las cuales se observan en
las figuras 4.9. Adicionalmente en la figura 4.10, se presenta el resultado, dato por
dato, tras cifrar usando la pareja de mensaje y llave correspondiente.

(a) Panorámica (b) Acercamiento

Figura 4.8: Mensajes que serán cifrados

(a) Panorámica (b) Acercamiento

Figura 4.9: Llaves usadas para cifrar

100
(a) Panorámica (b) Acercamiento

Figura 4.10: Información cifrada

4.4.2 Función de entrenamiento : BFGS quasi-Newton back-


propagation
Se realizó la experimentación entrenando la red neuronal usando la función de en-
trenamiento BFGS quasi-Newton backpropagation, y evaluando los parámetros de
desempeño para la red neuronal feedforward, con el fin de que logre emular el al-
goritmo DES. En la tabla 4.5 se muestra el numero de experimentos realizados,
teniendo en cuenta que los parámetros variados son la función de activación de las
capas y el número de capas de la red neuronal feedforward.

Cifrado Descifrado
Una capa 108 353
Dos capas 42 42

Tabla 4.5: N° de experimentos, usando BFGS

4.4.2.1 Una capa

Descifrado En las gráficas 4.11 y 4.12 se muestran los resultados correspondientes


al entrenamiento realizado para el proceso de desencriptación utilizando una única
capa intermedia, y variando el numero de neuronas, y manteniendo fijas las funciones
de activación, por lo cual se muestran juntas, las distintas funciones de activación
usadas durante la experimentación, en la gráfica ?? se muestra la leyenda de las
gráficas.
Para mostrar el comportamiento del entrenamiento, se usa el valor promedio de

101
los valores de los parámetros de desempeño para las redes neuronales feedforward,
donde para cada escenario de combinación de funciones de activación se realizaron
al menos 3 entrenamientos.

Figura 4.11: Error redes feedforward una capa intermedia - entrenamiento BFGS -
descifrado

Figura 4.12: Tiempo entrenamiento redes feedforward una capa intermedia - entre-
namiento BFGS - descifrado

En la figura 4.11 se muestran los resultados del parámetro de desempeño de

102
error, se tiene como primera observación el cumplimiento de uno de los propósitos
de la experimentación, el cual es, verificar si una red neuronal feedforward puede
emular un algoritmo de cifrado de alta complejidad como lo es el algoritmo DES,
por lo menos en la etapa de descifrado.

Se muestra que las funciones de activación que lograron realizar la emulación del
algoritmo DES en su etapa de descifrado, son las que en su capa de salida tenían
una función de activación ”purelin”, y en su capa intermedia tenían una función de
activación ”tansig” o ”logsig”.Se observa que la cantidad de neuronas mínimas para
que se pueda generar el modelo es de 95 neuronas.

Se tuvieron resultados con otras arquitecturas que lograron realizar la emu-


lación, sin embargo no todos los entrenamientos con la misma arquitectura lograron
cumplir, por lo cual su promedio se ve afectado, y resultan no ser aptos, pues en un
caso de uso, se obligaría a realizar un entrenamiento adicional.

En al figura 4.11 identifica que existen configuraciones de funciones de acti-


vación cuyo comportamiento del error es similar, y se identifican 4 grupos distintos,
mostrando un comportamiento semejante entre ”purelin - logsig”, ”tansig - logsig” y
”logsig - logsig”, es decir las que en su capa de salida tienen la función de activación
”logsig”, son las que presentan un error promedio mayor que van desde 80% hasta
90% usando la arquitectura con mayor numero de neuronas. Las redes con una
configuración ”purelin - purelin” y ”purelin - tansig” presentan un comportamiento
de error promedio similar que va desde 50% hasta cerca del 60% usando la arquitec-
tura con mayor numero de neuronas probadas, de igual manera la configuraciones
”tansig - tansig” y ”logsig - tansig” presentan un comportamiento similar, al igual
que las que mostraron mejor desempeño con errores promedios que van desde 5%
hasta cercado al 15%.

En la figura 4.12 se muestran el resultado del parámetro de desempeño del tiempo


de entrenamiento, donde se muestran valores del orden de 104 , mostrando un com-
portamiento creciente del tiempo en todos los casos.

Visualizando las dos configuraciones de funciones de activación que cumplieron


el propósito de emular el algoritmo DES en su etapa de desencriptación, la config-

103
uración ”tansig - purelin”, presenta en general menores tiempos de entrenamiento
que la configuración ”logsig - purelin”, la cual presenta cambios mas bruscos con
saltos de incluso 5,9031*104 , comparado con en general todas las configuraciones.

Cifrado En las figuras 4.13 y 4.14, se presentan los resultados obtenidos tras la
experimentación con redes neuronales feedforward para la etapa de cifrado, en las
gráficas se muestran los resultados promedios obtenidos en cada tipo de experi-
mentación.

Figura 4.13: Error redes feedforward una capa intermedia - entrenamiento BFGS -
cifrado

104
Figura 4.14: Tiempo entrenamiento redes feedforward una capa intermedia - entre-
namiento BFGS - cifrado

En la figura 4.11 se muestran los resultados del parámetro de desempeño de error


para redes feedforward, donde se observa que el menor error obtenido es de un valor
cercano a 60%, dado por la estructura de ”logsig - purelin”, con la configuración
”tansig - purelin” con valores muy cercanos, mostrando un comportamiento que dis-
minuye a medida que aumenta el numero de neuronas en la capa intermedia.

No se realizó el experimento a partir de 30 neuronas en la capa intermedia, esto


debido a que luego de las primeras 10 épocas de entrenamiento, el desempeño de es-
tas redes no varía de una manera significativa (variación del error de entrenamiento
< 1%), y debió realizar la parada del entrenamiento de manera manual.

En la gráfica 4.12 se muestra el comportamiento del tiempo de entrenamiento


a medida que aumenta el numero de neuronas, en la cual se presentan valores muy
variados de entre 8.96x103 hasta 8.99x104 , esto debido a que en el momento de la
experimentación los entrenamientos eran parados debido a que en algunos momen-
tos se llegaba a cumplir con los valores de los parámetros del criterio de parada
del toolbox de redes neuronales usados, incluso después de modificados, y ante la
poca variación de del desempeño de las redes, durante el progreso de las épocas de
entrenamiento.

105
4.4.2.2 Dos capas

La arquitectura neuronal usada para esta sección, usa dos capas intermedias, a las
cuales se les varía el numero de neuronas en cada una, y las funciones de activación
en cada capa incluyendo la capa de salida.

Descifrado En las gráficas 4.15 y 4.16 se muestra el resultado tras los entre-
namientos realizados con dos capas intermedias, para este caso se decidió usar el
mismo número de neuronas en ambas capas.

Adicionalmente la metodología implementada es distinta, debido que la variable


de numero de neuronas se inicia desde un numero que se considere alto, con respecto
a la experimentación anterior

Teniendo en cuenta los resultados anteriores y el tiempo que toma realizar cada
experimento se decidió realizar la experimentación con las redes cuya capa de salida
es ”purelin”, pues tuvieron los menores errores en un menor tiempo.

Figura 4.15: Error redes feedforward dos capas intermedias - entrenamiento BFGS
- descifrado

106
Figura 4.16: Tiempo entrenamiento redes feedforward dos capas intermedias - en-
trenamiento BFGS - descifrado

En la figura 4.15 se presenta el resultado del parámetro del error de los exper-
imentos realizados, donde lo primero que se observa es que al igual que con una
capa, se logró el emular el algoritmo de cifrado DES, en su etapa de descifrado es-
pecialmente usando las los esquemas de funciones de activación: ”tansig - tansig -
purelin”, ”logsig - tansig - purelin”, ”tansig - logsig - purelin” y ”logsig - logsig -
purelin”.

Debido a los resultados iniciales con el esquema de dos capas intermedias de 150
neuronas cada una, se decidió no seguir trabajando con las los esquemas de fun-
ciones de activación ”purelin - logsig - purelin” y ”purelin - tansig - purelin”, pues
se presentan errores menores al minimo posible.

En la figura 4.16, se muestran los resultados de la experimentación, en particular


del parámetro de desempeño del tiempo de entrenamiento, en el cual se muestra un
comportamiento que no es fácil de prever, pues la mayoría de estructuras de función
de activación, presentan que el tiempo es mayor con 100 neuronas, comparado con el
tiempo de entrenamiento de 120 neuronas. Se presentan tiempos de entrenamiento
desde cerca de 1.7x 104 hasta 2.2x104 .

107
Cifrado Bajo las mismas condiciones de la experimentación de descifrado usando
dos capas intermedias. Tras la experimentación se obtuvo como resultado las gráficas
4.17,4.18 y ??.
En este caso se adoptó una metodología creciente en términos de la variable
de numero de neuronas, se comenzó con 100 neuronas en cada una de las capas
intermedias.

Figura 4.17: Error redes feedforward dos capas intermedias - entrenamiento BFGS
- cifrado

108
Figura 4.18: Tiempo entrenamiento redes feedforward dos capas intermedias - en-
trenamiento BFGS - cifrado

En la gráfica 4.17 se muestran los resultados del parámetro de error tras la ex-
perimentación, mostrando que no se logró emular de manera completa la etapa de
cifrado. Se muestran resultados que van desde cerca de 4% hasta aproximadamente
14%. Adicionalmente se muestra que la gráfica tiene un comportamiento que dis-
minuye con respecto al aumento de número de neuronas.
Las configuraciones de las funciones de activación, que menor error presentaron,
son ”tansig - logsig - purelin” (66.88%) y ”logsig - logsig - purellin” (65.79%), y
de igual manera que el caso de descifrado, debido al alto error que presentaban las
configuraciones ”purelin - logsig - purelin” y ”purelin - tansig - purelin”, únicamente
se realizaron experimentos con 150 neuronas en las capas intermedias.
En la gráfica 4.18, se presentan los resultados del parámetro de desempeño de
tiempo de entrenamiento, donde se tienen valores que van desde aproximadamente
1.4x104 s hasta cerca de 2.2x104 s, donde en la mayoría de los casos se presenta una
reducción en el tiempo de entrenamiento de usar 120 neuronas a usar 150.

4.4.3 Función de entrenamiento : Conjugate gradient back-


propagation with Powell-Beale restarts (CGB)
Se realizo la experimentación entrenando la red neuronal usando la función de entre-
namiento Conjugate gradient backpropagation with Powell-Beale restarts (CGB), y

109
evaluando los parámetros de desempeño para la red neuronal feed forward, con el
fin de que se logre emular el algoritmo DES. En la tabla 4.6 se muestra el numero
de experimentos realizados, teniendo en cuenta que el primer parámetro variado es
el numero de capas de la red neuronal feedforward.

Cifrado Descifrado
Una capa 108 89
Dos capas 42 42

Tabla 4.6: N° de experimentos, usando CGB

4.4.3.1 Una capa

Se usara una arquitectura neuronal donde se tiene una capa intermedia, adicional-
mente se cuentan con las condiciones similares a las que se tuvieron en la exper-
imentación de la sección 4.4.2.1, se realizaron 3 experimentos por cada esquema
neuronal.

Descifrado En al figuras 4.19, 4.20 y ?? muestran los resultados de la experi-


mentación

Figura 4.19: Error redes feedforward una capa intermedia - entrenamiento CGB -
descifrado

110
Figura 4.20: Tiempo entrenamiento redes feedforward duna capa intermedia - en-
trenamiento CGB - descifrado

En la figura 4.19 se muestra el resultado del parámetro de desempeño de error


para redes neuronales, donde se evidencia que se cumple con el propósito de emular el
algoritmo de cifrado DES, en su etapa de descifrado, con las estructuras de activación
”tansig - purelin” y ”logsig - purelin”.
Cuenta con un comportamiento bastante similar, a la misma arquitectura neu-
ronal con la función de entrenamiento BFGS, pues se presentan resultados similares
entre varios de los esquemas de funciones de activación. La gráfica del error presenta
un comportamiento que disminuye progresivamente.
En la figura 4.20 se muestra el resultado de los tiempos de entrenamiento, donde
se observa un comportamiento creciente del tiempo con respecto al numero de neu-
ronas, con tiempos menores a los que presentó la función de entrenamiento BFGS
que se pueden observar en la gráfica 4.11.

Cifrado En las figuras 4.21, 4.22 y ??, se presentan los resultados del entre-
namiento de de las redes para emular la etapa de cifrado del algoritmo DES, igual
a los casos anteriores se mantuvieron fijas las funciones de activación, y se vario el
numero de neuronas.

111
Figura 4.21: Error redes feedforward una capa intermedia - entrenamiento CGB -
cifrado

Figura 4.22: Tiempo entrenamiento redes feedforward duna capa intermedia - en-
trenamiento CGB - cifrado

En la figura 4.21, se presentan los resultados de la variable de desempeño del


error, para la emulación del algoritmo DES en su etapa de cifrado, donde se observa
que se presentan errores mayores de 60%, lo cual esta lejos de cumplir el propósito
de emular el algoritmo de cifrado DES, en este caso en su etapa de cifrado.

112
La gráfica que representa el error descendiende a medida que aumenta el numero
de neuronas, obteniendo valores muy cercanos de los esquemas probados cuando se
tienen 100 neuronas en la capa intermedia. Las funciones de activación que menor
error presentaron fueron las combinaciones ”logsig - purelin” y ”tansig - purelin”.

En la gráfica 4.20, se muestra los resultados del tiempo donde se tienen valores
que van desde cerca de 0.1 x 104 s hasta un poco mayores de 3.5 x 104 s.

4.4.3.2 Dos capas

Se usará una arquitectura que cuenta con dos capas intermedias, a las cuales se les
varía el numero de neuronas en cada una, y las funciones de activación en cada capa
incluyendo la capa de salida. De manera similar a la sección 4.4.2, el numero de
neuronas en las dos capas intermedias sera igual.

• Descifrado
En las gráficas 4.23, 4.24 y ??, se muestran los resultados de la experimentación
para le emulación del algoritmo DES, se estableció una metodología en la
cual se establece un numero de neuronas, que se considera alto, según los
experimentos anteriores (150 neuronas), y posteriormente se fue reduciendo el
numero de neuronas.

113
Figura 4.23: Error redes feedforward dos capas intermedias - entrenamiento CGB -
descifrado

Figura 4.24: Tiempo entrenamiento redes feedforward de dos capas intermedias -


entrenamiento CGB - descifrado

En la figura 4.23, se muestran los resultados del valor del parámetro del er-
ror, donde se tiene una emulación exitosa del algoritmo desde 120 neuronas
los esquemas con función de activación ”tansig-logsig-purelin”, ”logsig-tansig-
purelin” y ”logsig-logsig-purelin”.

114
La gráfica 4.24 representa el promedio de de los tiempos de entrenamiento,
donde se observan comportamientos de entrenamiento ascendentes, que se en-
cuentran entre rangos de 0.9x104 s hasta 1.6x104 s.

• Cifrado
En las figuras 4.23, 4.26, ??, se muestran los resultados de los parámetros
de desempeño, para el caso del cifrado, donde similar al caso del cifrado, se
inicio con un numero de neuronas se considera alto, para posteriormente ir
reduciendo su numero.

Figura 4.25: Error redes feedforward dos capas intermedias - entrenamiento CGB -
descifrado

115
Figura 4.26: Tiempo entrenamiento redes feedforward de dos capas intermedias -
entrenamiento CGB - descifrado

En la figura 4.25, se muestran los resultados de los parámetros de desempeño


para redes neuronales durante los entrenamientos realizados.Se observa que
se logro emular de manera exacta el algoritmo de cifrado DES, con los esque-
mas neuronales ”tansig-tansig-purelin”, ”logsig-tansig-purelin”,”tansig-logsig-
purelin” y ”logsig-logsig-purelin”, usando 150 neuronas en la capa intermedia.

En la figura 4.26, se muestran los resultados del tiempo de entrenamiento,


los cuales se encuentran entre 1.2x104 s y 2.4x104 s, en los cuales se pueden
observar esquemas en los cuales se tiene un comportamiento cercano al lineal.

4.4.4 Evaluación de parametros


4.4.4.1 Evaluación DES y DES neuronal

En términos de seguridad y parámetros, como el espacio de llave, y demás parámet-


ros que se definieron con este objetivo, el denominado DES neuronal depende úni-
camente de la seguridad que se da mediante el algoritmo.

En las tablas 4.7 y 4.8 se muestran los resultados de tiempo de cifrado y descifrado

116
obtenidos, usando el mínimo numero de neuronas y los esquemas de funciones de
activación, que cumplan con la emulación completa del algoritmo DES.

Voz Español Flauta china Voz Frances


Cifrado Descifrado Cifrado Descifrado Cifrado Descifrado
DES tradicional 918.4769 909.5683 1640.8532 1659.2848 681.7302 692.4829
Red neuronal
”logsig-purelin” N/A 8.3853 N/A 13.9280 N/A 6.8401
95
Red neuronal
”tansig-purelin” N/A 6.0025 N/A 12.7499 N/A 4.9111
95
Red neuronal 150-150 120 -120 150-150 120 -120 150-150 120 -120
”tansig-logsig-purelin” 15.0960 13.7226 25.3910 23.3848 8.7214 9.9320
Red neuronal 150-150 120 -120 150-150 120 -120 150-150 120 -120
”logsig-tansig-purelin” 17.8832 15.7511 30.3831 26.5629 9.2891 11.5739
Red neuronal 150-150 120 -120 150-150 120 -120 150-150 120 -120
”logsig-logsig-purelin” 23.9019 16.4781 34.3719 28.2322 13.2740 11.4729

Tabla 4.7: Tiempos en segundos de cifrado y descifrado, para señales de audio

Toma aérea Cameraman Faro Lenna


Cifrado Descifrado Cifrado Descifrado Cifrado Descifrado Cifrado Descifrado
DES tradicional 2080.5839 1968.8443 1832.0262 1798.0395 3002.8741 2999.6201 2898.7600 2776.6914
Red neuronal
”logsig-purelin” N/A 22.8520 N/A 17.8021 N/A 56.3018 N/A 46.7293
95
Red neuronal
”tansig-purelin” N/A 18.7522 N/A 15.8110 N/A 46.0133 N/A 42.5629
95
Red neuronal 150-150 120 -120 150-150 120 -120 150-150 120 -120 150-150 120 -120
”tansig-logsig-purelin” 40.2792 39.4201 31.9124 29.0652 80.0023 81.5299 66.0251 70.5310
Red neuronal 150-150 120 -120 150-150 120 -120 150-150 120 -120 150-150 120 -120
”logsig-tansig-purelin” 49.3842 47.4722 34.8944 35.5182 92.7010 90.6308 71.4324 71.0158
Red neuronal 150-150 120 -120 150-150 120 -120 150-150 120 -120 150-150 120 -120
”logsig-logsig-purelin” 69.9212 73.8402 40.2952 44.0641 85.8093 82.7253 71.7904 74.1192

Tabla 4.8: Tiempos en segundos de cifrado y descifrado, para imagenes

Las tablas 4.7 y 4.8, nos muestra que el tiempo mínimo cifrado que se logra
es usando un esquema de ”tansig-logsig-purelin”, de 150 neuronas las dos capas
intermedias. Los tiempos mínimos para el proceso de descifrado es logrdado con un
esquema de ”tansig-purelin”, con 95 neuronas en su capa intermedia.

117
4.4.4.2 Evaluación parámetros DESneuronal

Con el fin de de observar el comportamiento del algoritmo DES, se realizaron pruebas


en las cuales se observa el valor de los parámetros de desempeño para cada llave
dentro del rango usado en los entrenamientos del DES neuronal, usando las 7 señales
de evaluación.
Tras lograr obtener varias arquitecturas de redes neuronales, que cumplen con el
requerimiento de cifrar y descifrar, emulando el algoritmo de cifrado DES, y tomando
en cuenta que el resultado final es igual usando el DES neuronal y el DES de manera
tradicional, y en la sección 4.4.4.1, se determino las diferencias en tiempos de cifra-
dos que se presentan ambos modelos entre si, se procede a calcular los parámetros de
desempeño mostrados en la sección 2.5, usando las señales establecidas en la sección
3.3.

En la figura ?? se presenta la leyenda de las figuras 4.27,4.28, 4.29, 4.30, 4.31,


donde se presentara el calculo de los parametros de desempeño para cada una de las
señales de referencia.

En la figura 4.27 se presenta el NPCR para cada una de las imágenes de refer-
encia, donde se muestra su comportamiento ante el crecimiento del valor de la llave.
Se puede observar una variación del NPCR similar, ubicándose picos y valles de la
gráfica, en valores similares de llave, adicionalmente se tiene que el valor del NPCR
se encuentra entre 0.43, y 1, mostrando los valles mas destacables para la mayoría
de las señales, en las llaves 2 y 62. Se observa además que donde se presentan los
picos con valores mas cercanos es en la llave con valor 11.

118
Figura 4.27: NPCR de imágenes cifradas con DES neuronal

En la figura 4.28 se presenta el coeficiente de correlación lineal entre cada una


de las señales de referencia originales y la señal resultante tras cifrar cada una de las
señales de referencia, se muestra su comportamiento ante el crecimiento del valor de
la llave. Se puede observar que la variación del del coeficiente de correlación lineal es
conserva un valor similar para todas las señales, teniendo en cuenta que las señales
de ”Voz en español” y ”Voz en francés”, son las que mas variaciones presentan.

Figura 4.28: Correlación lineal de imágenes cifradas con DES neuronal

119
En la figura 4.29 se presenta el UACI para cada una de las imágenes de referencia,
donde se muestra su comportamiento ante el crecimiento del valor de la llave. Se
puede observar un comportamiento del valor del UACI muy similar al valor del
NPCR, pero en una escala muy distinta, pues los valores del UACI, son inferiores,
estando en el orden de 10−3 .

Figura 4.29: UACI de imágenes cifradas con DES neuronal

En la figura 4.30 se presenta la variación de la entropía entre cada una de las


señales de referencia originales y la señal resultante tras cifrar cada una de las señales
de referencia, se muestra su comportamiento ante el crecimiento del valor de la llave.
Se puede observar que la variación de la entropía para las señales correspondientes
a las imágenes de ”toma aérea”, ”Cameraman”, ”Faro” y ”Lenna”, son similares y
las mas distantes del cero, en comparación con las demás señales, en comparación
con las señales de audio de ”Voz en español” (la cual contiene valores mas cercanos
a cero) y ”Voz en francés”, y con valores muy cercanos a los valores de la señal de
audio ”flauta china”.

120
Figura 4.30: ∆ Entropía de imágenes cifradas con DES neuronal

En la figura 4.31 se presenta el AMI para cada una de las imágenes de referen-
cia, donde se muestra su comportamiento ante el crecimiento del valor de la llave.
Se puede observar que la variación de AMI, similar al caso de la variación de la
entropía, los valores de AMI son muy parecidos para las señales correspondientes
a imágenes de ”toma aérea”, ”Cameraman”, ”Faro” y ”Lenna”, adicionalmente se
tiene que los valores para la ”Voz en español”, son los menores, mientras los valores
correspondientes a la ”Flauta china”, son los valores mas altos.

Figura 4.31: AMI de imágenes cifradas con DES neuronal

121
• Histogramas
En la figura 4.32 muestra el histograma del valor NPCR, de los experimentos
realizados usando el DES neuronal, donde se presentan valores alrededor de
0,8 como se pude observar en la tabla 4.9, sin embargo se observan valores
desde 0.4 hasta 1.

Figura 4.32: Histograma de NPCR para imágenes cifradas con DES neuronal

Media (µ) Desviación estándar (σ)


0,8374 0,0789

Tabla 4.9: Desviación y media del NPCR en DES Neuronal

En la figura 4.33 se presenta el histograma de la correlación de los experimentos


realizados usando un cifrado neuronal. Se puede observar como se presenta
una gran cantidad de datos cercanos al cero, pues como se observa en la tabla
4.10 de parámetros el promedio es cercano a 10−2 , además que no se logra
diferenciar entre las diferentes llaves, ya que como se presenta en la tabla la

122
desviación estándar es del orden de 10−2 , lo cual resulta ideal ya que muestra
la poca relación que se presenta entre las señales cifradas y la original.

Figura 4.33: Histograma de correlación para imágenes cifradas con DES neuronal

En la figura 4.33 se presentan los valores tomados tras calcular los valore
UACI,

Media (µ) Desviación estándar (σ)


0,0418 0,0673

Tabla 4.10: Desviación y media de la correlación en DES Neuronal

En la figura 4.34 se muestra el histograma correspondiente a los valores del


coeficiente UACI, el cual presenta valores que van desde cerca de 0.1x10− 3
hasta cerca de 2.5x10− 3, donde la mayor catidad de datos se presentan en
valores cercanos a 1.7x10− 3 como se observa en la tabla 4.11, mostrando una
mayor frecuencia de datos a la derecha del valor de la mediana.

123
Figura 4.34: Histograma de UACI para imágenes cifradas con DES neuronal

Media (µ) Desviación estándar (σ)


0,0017 0,0003

Tabla 4.11: Desviación y media de UACI en DES Neuronal

En la figura 4.35 se muestra los resultados del parámetro de la entropía, el


cual toma valores que van desde -2.75 hasta valores cercanos a -0.5, con un
valor promedio de -2.0378 como se observa en la tabla 4.12, sin embargo se
presenta un desviación estándar de 0.5568, debido a que se tienen dos puntos
en los cuales hay una alta frecuencia de valores, uno cercano a -2.75 y otro
cercano a -0.75.

124
Figura 4.35: Histograma de entropía para imágenes cifradas con DES neuronal

Media (µ) Desviación estándar (σ)


-2,0378 0,5568

Tabla 4.12: Desviación y media de entropía en DES Neuronal

En la figura 4.36 se muestra el histograma con los resultados de la variable de


desempeño AMI, la cual cuenta con valores que van desde que van desde 0.55
hasta 0.9, con una media de 0.7731, como se observa en la tabla 4.13, en su
media se presenta una frecuencia de resultados, destacablemente mayor.

125
Figura 4.36: Histograma de AMI para imágenes cifradas con DES neuronal

Media (µ) Desviación estándar (σ)


0,7731 0,0708

Tabla 4.13: Desviación y media de AMI con DES Neuronal

126
5. Análisis de resultados

En este capítulo se presenta el análisis de los resultados obtenidos en los dos capítulos
anteriores y se realiza una comparación de los modelos óptimos obtenidos en este
proyecto con resultados obtenidos en la literatura para validar los resultados del
proyecto.

127
5.1 Cifrado con redes neuronales caóticas
5.1.1 Redes de una sola capa
Los resultados de la encriptación utilizando redes de una sola capa se presenta en la
sección 3.4.1, que se encuentra divida en el uso de las diferentes series de tiempo prop-
uestas como lo son el mapa logístico, el mapa cuadrático y las dos componentes del
mapa de Ikeda. A partir de los resultados de la variación de los diferentes parámet-
ros se puede observó que el mejor desempeño se obtiene cuando la correlación y la
información mutua son bajas y la variación de la entropía es alta. Y esto se evi-
dencia en la figura 5.1 y en la tabla 5.1, en la primera se observa dos resultados de
cifrar a ”Lenna” con el mapa logístico, la primera (5.1a) se cifró con r = 3.84 y la
segunda (5.1b) con r = 3.99. Y en la tabla 5.1 se muestran los parámetros de ambas
imágenes, la imagen que entrega los menores valores de Correlación y AMI además
de la mayor variación de la Entropía, presenta un mejor resultado.

(a) r = 3.84 (b) r = 3.99

Figura 5.1: Imágenes cifradas con diferente r

NPCR Correlación UACI ∆Entropía AMI


r = 3.84 1 -0.0850 0.3294 0.2211 5.3757
r = 3.99 0.9985 -0.0335 0.3159 0.2488 0.0997

Tabla 5.1: Parámetros imágenes 5.1

128
Se puede observar que para cada una de las series de tiempo, hay zonas en las
cuales el cifrado presenta mejores resultados, son las zonas en las que la correlación
y la información mutua son mínimas y la variación de la entropía es máxima. En la
tabla 5.2 se muestran los lugares en los cuales esto se cumple.

Mapa logístico
Parámetro Rango
r [3.9,4)
xn [0,1]
Mapa cuadrático
Parámetro Rango
c [1.9,2]
xn [0,1]
Mapa de Ikeda
Parámetro Rango
u [0.75,0.8]
xn [0,1]
yn [0,1]

Tabla 5.2: Zonas de mejor desempeño

También se puede observar que el comportamiento del sistema no presenta


ninguna dependencia de la señal que se vaya a cifrar, únicamente de los parámetros
de las series de tiempo, es decir de la llave. Esto se puede comprobar en las figuras
Figura A.5, Figura A.10, Figura A.15, Figura A.20, entre otras, puesto cada uno de
los parámetros de desempeño manifiesta el mismo comportamiento para cada una
de las señales experimentadas.

Además con respecto a la variación de los puntos iniciales, se puede observar que
no resultan tan influyentes en el cifrado como los otros parámetros (r,c y u), en la
figura 5.2 se muestran dos resultados de cifrar a ”Lenna” con el mapa logístico, y
en la 5.3 sus respectivos parámetros. La primera (figura 5.2a) se cifró con r = 3.99
y xn = 0.5 y la segunda (figura 5.2b) con r = 3.99 y xn = 0.7, y en la tabla 5.3 que
tiene sus respectivos parámetros se evidencia que los estos son casi iguales. Además
esto se puede ver en todas las figuras de la sección 3.4.1, aunque el resultado no

129
sea el mismo los parámetros de desempeño son muy cercanos. Lo que significa que
los puntos iniciales no son influyentes para que la serie de tiempo presente compor-
tamiento caótico.

(a) xn = 0.5 (b) xn = 0.7

Figura 5.2: Imágenes cifrada con diferente xn

NPCR Correlación UACI ∆Entropía AMI


xn = 0.5 0.9984 -0.0323 0.3155 0.2488 0.1000
xn = 0.7 0.9984 -0.0331 0.3157 0.2488 0.1005

Tabla 5.3: Parámetros imágenes 5.2

5.1.2 Espacio de llaves


Los resultados de la prueba de sensibilidad desarrollada en la sección 3.4.2, que se
presenta dividida en las series de tiempo y cada uno de sus diferentes parámetros.
A partir de estos es posible obtener el espacio de llaves del sistema. En las tablas
A.1-A.10 se presenta la sensibilidad del sistema frente a la variación de cada uno de
los bits hasta llegar al menos significativo, que para el caso de MATLAB®es 2−52 .

• Mapa logístico
En el caso del mapa logístico se manejan dos parámetros r y xn , en la tabla
A.1 y en la tabla A.2 se presenta su respectiva sensibilidad. Para el caso de

130
r se inicia en 2−4 y es sensible hasta 2−51 lo que da como resultado 247 llaves
diferentes posibles, para xn se inicia en 2−2 y es sensible para todos los bits,
por lo que se tiene 250 llaves diferentes. Esto muestra que para el mapa logís-
tico el espacio de llaves es de 297 .

• Mapa cuadrático
Para el caso del mapa cuadrático, cuenta con dos parámetros c y xn , en las
tablas A.3 y A.4 se exhibe su respectiva sensibilidad. Para c se inicia en 2−3 y
es sensible para todos los bits, lo que significa 249 llaves diferentes, para xn se
inicia en 2−1 y es sensible para todos los bits, dando como resultado 251 llaves
diferentes. Esto indica que el espacio de llaves del mapa cuadrático es de 2100 .

• Mapa de Ikeda
Finalmente el mapa de Ikeda cuenta con tres parámetros diferentes u, xn y
yn . En las tablas A.5 y A.8 se presenta la sensibilidad del parámetro u para
ambas componentes, en las tablas A.6 y A.7 se muestra la sensibilidad de xn
para ambas componentes y las tablas A.9 y A.10 presenta la sensibilidad del
parámetro yn de ambas componentes. Para el parámetro u, se inicia en 2−3 , y
es sensible para todos los bits, sin embargo como hay una zona en la cual no
se tiene un buen desempeño, se descartan los bits -3 y -4, teniendo 2−47 llaves
posibles. Para los parámetros xn y yn , se inicio en 2−2 , el primero se sensible
hasta 2−51 y el segundo es sensible para todos los bits. Así, se tienen para el
primero 249 llaves y para el segundo 250 . Así que el mapa de Ikeda tiene un
espacio de llaves de 2146 .

5.1.3 Redes multicapa


Los resultados de la prueba de conmutatividad que se encuentran en la sección
3.4.3.1, son de suma importancia, pues permiten observar que en este sistema el
orden de las capas no resulta determinante a la hora del cifrado. Independiente del
orden de las capas se genera el mismo resultado.

131
Por otra parte el hecho de aumentar el número de capas, mejora el desempeño
del cifrado con respecto a las arquitecturas de una sola capa, y esto se presenta en las
figuras Figura 3.42 - Figura 3.47, donde se puede observar como los parámetros más
determinantes como lo son la correlación y la AMI, para la primera valores del orden
de 10−4 y para el segundo valores menores a 0.2. Es importante tener en cuenta
que a partir de los resultados obtenidos con las arquitecturas de una capa, fue que
se tomaron las zonas de las series de tiempo donde individualmente presentaban el
mejor desempeño.
Finalmente, como se puede observar en la sección 3.4.3 si bien el aumento de
capas produce una mejora en el desempeño, por mas que la correlación siga bajando
a medida que se aumenten las capas, la AMI tiende a 0.19.

5.1.4 Mejores resultados


El mejor sistema propuesto resulta ser el de tres capas, ya que como se mencionó
anteriormente aunque se aumente el número de capas, la AMI tenderá a 0.19. En
las figuras 5.3 - 5.5 se muestra el resultado de cifrar todas las señales utilizando esta
arquitectura, además en la tabla 5.4 se muestran sus parámetros en los cuales se ve
que efectivamente son buenos resultados.

(a) Toma aérea (b) Cameraman

Figura 5.3: Imágenes en blanco y negro cifradas

132
(a) Faro (b) Lenna

Figura 5.4: Imágenes en color cifradas

(a) Voz en español (b) Flauta china

(c) Voz en francés

Figura 5.5: Audios cifrados

133
Señal NPCR Corr UACI Entropía (b) AMI (b) Tiempo (s)
Voz en español 0,9582 0,0799 0,0018 -0,8059 0,5940 2,947
Flauta china 0,9537 -0,0376 0,0018 -0,7982 0,5902 7,6022
Voz en francés 0,9849 -0,0329 0,0019 -0,9055 0,6912 0,4836
Toma aérea 0,8916 0,0073 0,0015 -0,8678 0,6912 10,6358
Cameraman 0,9977 -0,0509 0,0021 -0,8074 0,5931 9,7857
Faro 0,9751 -0,1227 0,0019 -0,8992 0,6912 30,7824
Lenna 0,9232 0,0008 0,0017 -0,8938 0,6912 26,0699

Tabla 5.4: Mejores resultados con redes caóticas

5.2 Cifrado con redes neuronales feedforward


5.2.1 Mejores resultados
Como se puede observar el la sección 4.4, se logro emular el proceso de descifrado
usando tanto la función de entrenamiento ”Conjugate gradient back-propagation
with Powell-Beale restarts (CGB)”, como la función ”BFGS quasi-Newton back-
propagation”, sin embargo el proceso de cifrado, mostró una complejidad mayor
y únicamente se logro con la función de entrenamiento ”Conjugate gradient back-
propagation with Powell-Beale restarts (CGB)”, usando una arquitectura de 2 capas.

En términos generales la función de entrenamiento ”Conjugate gradient back-


propagation with Powell-Beale restarts (CGB)”, presenta tiempos de entrenamiento
menores, y usando esta se puede lograr la emulación exacta del algoritmo de cifrado
DES.

Se evidencia que los menores tiempos tanto de cifrado como de descifrado se


presentan cuando se usan funciones de activación ”tansig” en la segunda capa inter-
madia, como se observa en la sección 4.4.4.1., con función de activación ”purelin”,
en la capa de salida .

En las figuras 5.6, 5.7, 5.8 se presentan los resultados de cifrar

134
(a) Toma aérea (b) Cameraman

Figura 5.6: Imágenes en blanco y negro cifradas DES

(a) Faro (b) Lenna

Figura 5.7: Imágenes en color cifradas DES

135
(a) Voz en español (b) Flauta china

(c) Voz en francés

Figura 5.8: Audiós cifrados DES

Tiempo (s)
Señal NPCR Correlación UACI Entropía (b) AMI (b)
Cifrado Descifrado
Voz en español 0,93651 -0,0003 0,0021 -0,8992 0,6912 15,0960 13,7226
Flauta China 0,9177 0,0016 0,0020 -2,4630 0,7974 25,3910 23,3848
Voz francés 0,8994 -0,0006 0,0020 -2,3093 0,8520 8,7214 9,9320
Toma aérea 0,9006 0,0018 0,0020 -2,3673 0,7897 40,2792 39,4201
Cameraman 0,8666 -0,0002 0,0018 -2,3766 0,8191 31,9124 29,0652
Faro 0,9383 0,0003 0,0021 -2,4302 0,7946 80,0032 81,5299
Lenna 0,8913 -0,0039 0,0019 -2,4122 0,7979 66,0251 70,5310

Tabla 5.5: Mejores resultados con redes feedforward

5.2.2 Observaciones
En general los tiempos de entrenamiento que se muestran durante la sección 4,
pueden ser muy variables, debido a que se presentaban entrenamientos con tiempos
importantes del orden de horas, y la maquina de computo no era exclusiva para el
entrenamiento, lo cual disminuía la capacidad de los recursos usados para el entre-

136
namiento.

En términos generales los tiempos de entrenamiento del proceso de cifrado, re-


sultan ser a los tiempos de descifrado que pueden llegara a ser 41,7410%, esto puede
ser un iniciativo claro de que este proceso es más complejo.

Esta experimentación es hecha a partir del software Matlab, y su eficiencia de


uso de hardware depende de como el software hace las operaciones binarias, las
cuales usa el algoritmo DES para realizar el proceso de cifrado y descifrado. Existe
la posibilidad de que el software no realice las operaciones de la manera mas óptima,
mientras el proceso de calculo de las redes neuronales, esta optimizado.

Es posible que para el caso del DES neuronal, se tengan casos de sobre en-
trenamiento, sin embargo se plantean situaciones, en las cuales todos los posibles
valores de salida son conocidos, y no existen valores intermedios, por lo cual no es
una situación que impacte en el resultado.

5.2.3 DES Neuronal asimétrico


Debido a la nueva naturaleza que adopta el proceso de cifrado y descifrado del algo-
ritmo DES usando redes neuronales, y teniendo en cuenta que se incluye un nuevo
factor necesario para realizar el cifrado, se propone la posibilidad de usar el algo-
ritmo de DES neuronal como un algoritmo de cifrado asimétrico como se observa en
la figura 5.9, y así mismo obtener las ventajas de un algoritmo asimétrico, como lo
es la poca exposición de la llave necesaria para descifrar.

137
Figura 5.9: Propuesta uso DES neuronal como algoritmo asimétrico

En la figura 5.9 se propone usar las redes neuronales ya entrenadas como llaves.
Donde la red neuronal de cifrado, junto con la llave de cifrado del algoritmo DES,
como llave publica, y la red neuronal de descifrado, junto con la llave de cifrado del
algoritmo DES como llave privada.
Con el objetivo de que incluso exponiendo la llave publica, si la información es
cifrada con esta llave, sera imposible obtener la información sin la llave privada, que
es básicamente el algoritmo de descifrado. Realizando el proceso de cifrado de esta
manera, se saca provecho de una de las características de las redes neuronales, que es
la falta de capacidad de poder establecer la influencia de una entrada sobre la salida.

Según lo anterior se usarían las llaves descritas en la figura 5.10.

Figura 5.10: Propuesta alternativa para las llaves

138
6. Conclusiones

En este capítulo se presentan las conclusiones del proyecto realizado y los trabajos
futuros que surgieron a medida del desarrollo del mismo.

139
6.1 Resumen
En este proyecto se generaron dos modelos de cifrado simétrico, el primero utilizando
redes neuronales caóticas y el segundo la implementación del algoritmo DES basado
en redes neuronales feedforward. Para el caso de las redes neuronales caóticas, el
cifrado de siete señales escogidas se llevó a cabo utilizando redes desde una hasta
cuatro capas con cuatro series caóticas diferentes. La motivación de este proyecto se
basa en que en la revisión bibliográfica no se encontró un estudio detallado del uso
de las redes caóticas ni de su implementación con arquitecturas de varias capas, tam-
poco de la implementación de algoritmos robustos como el DES con redes neuronales.

Para el cifrado utilizando redes caóticas se realizó primero un estudio de su


estructura y su funcionamiento, luego se hizo la selección de las series de tiempo
caóticas, en seguida se determinaron las arquitecturas que se utilizaron, en donde
para cada caso se realizaron experimentos para encontrar bajo que parámetros de
cada serie caótica se presentaba el mejor desempeño, esto se encuentra en la tabla
5.2, además se realizaron experimentos adicionales para comprobar la sensibilidad
de cada uno de los parámetros de las series determinando el espacio de llaves del
modelo propuesto.

A partir de los experimentos realizados se determinó el valor de los factores (r,


c, u) influyen directamente en la calidad del cifrado, estos son los determinantes del
caos en las series, y como se pudo observar sin caos no hay cifrado, como se presenta
en la sección 3.4.1. Además se determinó que los puntos iniciales (xn , yn ), no resul-
tan tan influyentes en el cifrado puesto que no influyen en el comportamiento caótico
de la serie. A nivel de parámetros si bien se miden cinco parámetros con respecto
a la calidad del cifrado, el más determinante es la información mutua (AMI) pues
muestra una relación no lineal entre la señal original con la cifrada.

A partir de las pruebas realizadas para las redes multicapa, se determinó que el
hecho de utilizar más capas y en estas emplear diferentes orígenes de caos mejora la
calidad del cifrado. Así mismo se determinó que el número óptimo de capas con el
fin de obtener un buen cifrado es tres, ya que el aumento del número de capas si bien
disminuye el valor de la correlación, la AMI no tiende a bajar más del 0.19 que es
el resultado que se obtiene cifrando con tres capas. Dentro de estas pruebas de las
redes multicapa es importante resaltar el hecho de que las redes neuronales caóticas

140
presentan la propiedad conmutativa en sus capas, lo cual resulta algo novedoso y
determinante en el estudio de esta aplicación, ya que el orden en las cuales se usen
las capas no va a afectar el resultado final por lo que el orden no sería parte de la llave.

Finalmente se observó que el modelo que utiliza redes neuronales caóticas pre-
senta muy buenos resultados, ofrece valores de correlación del orden de 10−3 y AMI
del orden de 0.19, lo que lo hace un modelo capaz de cifrar satisfactoriamente difer-
entes tipos de señales a un bajo costo computacional.
Se evidenció la gran capacidad con las que cuentan las redes neuronales feedfor-
ward, puesto logró emular un algoritmo de cifrado de tan alta complejidad como lo
es el DES, teniendo en cuenta que se aplicaron limitantes importantes.
En un principio, el tiempo que puede tardar en entrenar una red neuronal feed-
forward con un algoritmo de cifrado como lo es el DES, puede ser una gran dificultad,
sin embargo es gratamente compensado por el tiempo de cifrado y descifrado que
se obtiene una vez es entrenado correctamente, pues una vez entrenado, puede ser
usado ilimitadamente.
Luego de la experimentación realizada se evidencia que en términos de desem-
peño, a partir del parámetro de tiempo de entrenamiento la función Conjugate gradi-
ent backpropagation with Powell-Beale restarts presenta resultados optimizados, en
comparación con la función de entrenamiento o BFGS quasi-Newton backpropaga-
tion.
Finalmente y tras observar los resultados tanto de las redes caóticas como de las
redes feedforward, los parámetros de las imágenes cifradas con ambos métodos son
similares hallándose la mayor diferencia en los tiempo de cifrado y descifrado. Por
esto mencionado anteriormente, sumado a que la complejidad de las redes caóticas
es considerablemente menor, para la aplicación implementada resulta una mejor
opción el modelo que utiliza redes neuronales caóticas.

6.2 Trabajo futuro


En el desarrollo del proyecto se plantearon propuestas para continuar con el uso de
redes neuronales en el área de la criptografía:

• Implementar el algoritmo en un sistema que permita la transmisión de audio


en tiempo real.

141
• Implementar redes neuronales caóticas en sistemas de tipo asimétrico, para
que el intercambio de las llaves no sea un problema del cual preocuparse.

• Evaluar la seguridad del sistema propuesto mediante la realización de difer-


entes tipos de ataques utilizados en el criptoanálisis.

• Implementar redes convolucionales en el área de la criptografía y comparar


con los modelos presentados en este trabajo.

• Implementar algoritmos enfocados al desarrollo de arquitecturas neuronales


óptimas, como lo es un algoritmo destructivo o la regularización de la función
de error.

• El nuevo planteamiento de cifrado DES usando redes neuronales feedforward,


abre la posibilidad para implementar algoritmos de naturaleza simétrica de
manera asimétrica.

142
Bibliografía
[1] La computación en la nube cambia el paradigma de los negocios [on-
line]. Portafolio. 2016. Disponible en: https://www.dinero.com/edicion-
impresa/tecnologia/articulo/la-computacion-en-la-nube-cambia-el-paradigma-
de-los-negocios/224009

[2] El mundo en la red: la demanda de servicios en la nube [online]. EvaluandoSoft-


ware.com. 2014. Disponible en: http://www.evaluandosoftware.com/el-mundo-
en-la-red-la-demanda-de-servicios-en-la-nube/

[3] Clark,S. ¿Qué es la criptografía y para qué sirve? [online]. OneHacker.


Diponible en: www.onemagazine.es/one-hacker-que-es-criptografia

[4] A. Gómez. Tipos de ataques e intrusos en las redes informáticas. Escuela de


Negocios Caixanova.

[5] J. Mieres. Ataques informáticos: Debilidades de seguridad comúnmente ex-


plotadas. EvilFingers. 2009.

[6] Conozca el Virus que secuestra computadoras y pide rescate [online]. OpticalNet-
works. 2017. Disponible en: https://www.optical.pe/conozca-virus-secuestra-
computadoras-pide-rescate/

[7] G. Spafford, S. Garfinkel. Web Security, Privacy and Commerce. O’Reilly


Media. 2da edición. 2011.

[8] R. Perlman, M Speciner. Network Security: Private Communication in a


Public World. O’Reilly Media. 2da edición. 2002.

[9] B. Chandra. A technical view of theOpenSSL Heartbleed’ vulnerability. IBM.


2014.

[10] Möller.B, Duong.T, Kotowicz.K. This POODLE Bites: Exploiting The


SSL 3.0 Fallback. Google. 2014.

[11] Aviram.N et al. DROWN: Breaking TLS using SSLv2. Proceedings of the 25th
USENIX Security Symposium. 2016.

143
[12] M. Anwander, E. Maghsoudi, D. Schweri, S. Leuenberger. Man-in-
middle-attack (MITM). Universidad de Berna. 2003.

[13] F. Callegati, W Cerroni, M Ramilli. Man-in-the-middle attack to the


HTTPS protocol.

[14] Perez, M Qué es el ataque Man In The Middle [online]. GeekyTheory.


Disponible en: https://geekytheory.com/que-es-el-ataque-man-in-the-middle

[15] Marrero, Y. La Criptografía como elemento de la seguridad informática.


ACIMED. 2003.

[16] Xifré, S. Antecedentes y perspectivas de estudio en historia de la Criptografía.


Trabajo de fin de grado. Universidad Carlos III de Madrid. 2009.

[17] Sassone, S., Criptografía: cómo algo de nerds se volvió mainstream[online].


WeLiveSecurity. 2016. Disponible en: https://www.welivesecurity.com/la-
es/2016/11/30/criptografia-mainstream/

[18] Luzardo, A.M. Cibercriminales están creando “un ejército de disposi-


tivos” [online]. ENTER.CO. 2017. Disponible en: http://www.enter.co/chips-
bits/seguridad/cibercriminales-conforman-un-ejercito-de-dispositivos/

[19] Shannon, C.E Communication Theory of Secrecy Systems. 1949.

[20] Cardenas, A. Inteligencia artificial, métodos bio-inspirados: un enfoque fun-


cional para las ciencias de la computación. Trabajo de fin de grado. Universidad
Tecnológica de Pereira. 2012.

[21] Ortiz, L.Met al. Comparativa de algoritmos bioinspirados aplicados al prob-


lema de calendarización de horarios. Research incomputer science. 2015.

[22] Flórez. E et al. Evaluación de algoritmos bioinspirados para la solución del


problema de planificación de trabajos. I+D Revista de Invertigaciones. Vol 11.
2018.

[23] López. B, Mezura. E. Comparación de algoritmos evolutivos y bio-inspirados


en problemas de optimización con restricciones. IV Encuentro Participación de
la mujer en la ciencia.

144
[24] Grass. D. Optimización multi-objetivo con algoritmos bio-inspirados para el
control y coordinación de inventarios multi-producto Trabajo de fin de Maestría.
Universidad Nacional de Colombia. 2016.

[25] López. J. Algoritmos bioinspirados aplicados al control de formaciones de


múltiples nanorobots móviles Trabajo de fin de grado. Universidad de Castilla-
La Mancha. 2015.

[26] Céspedes M.et al. Comparación de métodos de optimización bioinspirados para


la sintonización de controladores PID Trabajo de fin de grado. Universidad de
Costa Rica. 2016.

[27] Rocha. D, López. D, Gómez. E Los sistemas bioinspirados y su enfoque en


la solución de necesidades en la ingeniería. Redes de ingeniería, vol. 1, no. 2.
2010.

[28] Riquelme. I. Algoritmos bioinspirados: Una revisión según su fundamento


biológico Trabajo de fin de grado. Universidad de Manchester. 2014

[29] Herrera. F. Algoritmos Bioinspirados Universidad de Granada.

[30] Rodríguez. K. Algoritmos Bioinspirados IIMAS, UNAM.

[31] Blackledge J, Bezobrazov S, Tobin P. Cryptography using Artificial


Intelligence. 2015.

[32] Alallayah. K, Amin. M, AbdElwahed. W, Alhamami. A. Applying Neu-


ral Networks for Simplified Data Encryption Standard (SDES) Cipher System
Cryptanalysis. The international Arab Journal of Information Technology, Vol
9. Marzo 2012.

[33] M. Arvandi, S. Wu, A. Sadeghian, W. W. Melek. Symmetric Cipher


Design Using Recurrent Neural Networks. in International Joint Conference on
Neural Networks Vancouver, BC, Canada. 2006.

[34] M. Arvandi and A. Sadeghian Chosen Plaintext Attack against Neural


Network-Based Symmetric Cipher in International Joint Conference on Neural
Networks, Orlando, Florida, 2007.

145
[35] M. Arvandi, S. Wu, A. Sadeghian. On the Use of Recurrent Neural Net-
works to Design Symmetric Ciphers, IEEE Computational Intelligence Maga-
zine, mayo 2008.

[36] T. Fadil, S. Yaakob, B. Ahmad A Hybrid Chaos and Neural Network Cipher
Encryption Algorithm for Compressed Video Signal Transmission Over Wireless
Channel in 2nd International Conference on Electronic Design (ICED), Penang,
Malasia, 2014.

[37] Ramakrishnan. S,Raga Rakshitha.S, Gayathiri. V, Kalaiyarasi,P.


Neural network based image encryption and authentication using chaotic maps
IJCTER. 2016.

[38] Higuera. B, Pedraza. L Implementación del algoritmo criptográfico AES


para un controlador de tráfico vehicular Tecnura, Vol 17. 2013.

[39] Medina. Y, Miranda. H. Comparación de algoritmos basados en la crip-


tografía simétrica DES, AES y 3DE MF, Vol. 1. 2015.

[40] Egido. S RSA, una clave secreta que muy probablemente ha usado sin saberlo
Babab. 2001.

[41] Preukschat, A. ¿Por qué se utiliza Criptografía de Curva Elíp-


tica en Bitcoin? [online]. OroyFinanzas.com. 2014. Disponible en:
https://www.oroyfinanzas.com/2014/01/criptografia-curva-eliptica-bitcoinor-
que-utiliza-ecdsa/

[42] M.A. Alba. Redes neuronales artificiales multicapa sincronizadas por entre-
namiento con algoritmos genéticos para el intercambio de clave pública. Trabajo
de fin de grado. Universidad Distrital. 2007.

[43] I.L Peña. Diseño de una infra estructura de clave pública (PKI) y firmado
digital de documentos para la Universidad Distrital francisco José de Caldas.
Trabajo de fin de grado. Universidad Distrital. 2010.

[44] C.A. Hernández. mplementación del criptosistema de curva elíptica en un


prototipo de aplicación móvil para E-Commerce. Trabajo de fin de grado. Uni-
versidad Distrital. 2011.

146
[45] C. Ortiz, M. Quiroga. Elliptic curve cryptography implementation for Java.
Trabajo de fin de grado. Universidad de los Andes. 2006.

[46] J.C. Sepúlveda, Y.E. Donoso. Diseño e implementación de un algoritmo


criptográfico con procesos aleatorios basado en AES-Rijndael Trabajo de fin de
grado. Universidad de los Andes. 2009.

[47] L. Aldana, A. Restrepo. Ciframiento utilizando mapas caoticos unidimen-


sionales. Trabajo de fin de grado. Universidad de los Andes. 2001.

[48] L. Santamaría. Implementación de una solución para evitar la pérdida de


información en el uso de correos electrónicos corporativos. Trabajo de fin de
grado. Pontificia Universidad Javeriana. 2014.

[49] Moreno.J et al. Symmetric Encryption Model Based on Chaotic Attractors.


Revista Ingeniería UD. 2016.

[50] Orue, A.B et al. Criptoanálisis de un cifrador caótico realizado con redes
neuronales celulares. Actas de la X RECSI. Salamanca. 2008

[51] Real Academia Española Diccionario de la lengua española. 2017.

[52] M.J Lucena, Criptografía y seguridad en computadores. Marzo 2010.

[53] A. Fúster, L. Hernández, A. Matín, F. Motoya, J.Muñoz Crip-


tografía, protección de datos y aplicaciones: Guía para estudiantes y profe-
sionales. Madrid, 2013.

[54] Claudia Rozas Criptografía, que es, usos y beneficios. Universidad Nacional
del Comahue.

[55] J. Ángel, Criptografía para principiantes.

[56] L. Carmona, Introducción a la criptografía. Universidad Politécnica de


Madrid.

[57] A. Fuster. Criptografía de clave secreta: Cifrado en flujo. Instituto de Física


Aplicada C.S.I.C. Noviembre. 2009.

[58] J.C Dominguez, Análisis de un criptosistema cuadratico compacto. Proyecto


de finde grado. 2010.

147
[59] H. Corrales, C. Cilleruelo, A. Cuevas. Criptografía y métodos de
cifrado

[60] ANSI X3.92 American National Standard- Data Encryption Algorithm. Amer-
ican National Standards Institute. 1981.

[61] FIPS 46-2 Data Encryption Standard. 1993.

[62] S. Rajsbaum Criptografía. Universidad Nacional Autónoma de México.

[63] W. Stallings. Cryptography and Network Security. 5ta Edición. Apéndice G.


2010.

[64] FIPS Advanced Encryption Standard (AES). Noviembre, 2001.

[65] M. Abdullah. Advanced Encryption Standard (aes) algorithm to encrypt and


decrypt data. Cryptography and Network Security. Junio, 2017.

[66] M. García. Implementación del algoritmo de cifrado AES para bajo consumo
sobre FPGA. Trabajo de fin de grado. Universidad Carlos III de Madrid.

[67] J. Armario. Criptografía. Universidad de Sevilla. 2008.

[68] S.C. Coutinho. The Mathematics of Ciphers. A.K. Peters 1998

[69] S. Moreno, W. Diaz. Matemáticas para la computación. Universidad de


Valencia. 2005.

[70] F.J. Martínez. Criptografíıa asimétrica o de clave pública. Universidad


Politécnica de Valencia.

[71] T. ElGamal. A public key cryptosystem and a signature scheme based on


discrete logarithms. IEEE Transactions on information theory, vol. It-31. Julio
1985.

[72] W. Diffie, M. Hellman. New directions in cryptography. IEEE Transactions


on information theory, vol. It-22. Noviembre 1979.

[73] J. Armario. Criptografía de clave pública. Universidad de Valencia. 2005.

[74] Y. Wu, J. Noonan, S. Agaian. NPCR and UACI randomness tests for image
encryption. Journal of Selected Areas in Telecommunications. Abril, 2011.

148
[75] S. Ramakrishnan, R.Raga Rakshitha, V.Gayathiri, P.Kalaiyarasi.
Neural network based image encryption and authentication using chaotic maps.
International Journal of Current Trends in Engineering & Research, vol 3. En-
ero, 2017.

[76] C. Camacho. Coeficiente de correlación lineal de Pearson.

[77] M. Vu. Entropy and mutual information. McGill University.

[78] E. Learned-Miller. Entropy and Mutual Information. Septiembre, 2016.

[79] G. Bonaccorso, Machine Learning Algorithms Birmingham - Mumbai,


Packt, 2017 .

[80] C. Bishop, Neural Networks for Pattern Recognition, Birming-


ham,UK,Clarendon press Oxford, 1995.

[81] M. Hagan, H. Demuth, M. Hudson, O. De Jesús, Neural Network Desing,


Segunda edicion, 2014 .

[82] S. Joshi, V. Udupi, D. Joshi, A novel neural network approach for digital
image data encryption/decryption, International Conference on Power, Signals,
Controls and Computation, Enero 2012

[83] H. Noura, A. Samhat, Y. Harkouss, T. Yahiya, Desing and Realizatin


of a New Neural Block Cipher, International Conference on Applied Research
in Computer Science and Engineering (ICAR),Octubre 2015.

[84] X. Zhang, F. Chen, B. Chen, Z. Cao, A New Scheme for Implementing


S-box Based on Neural Network, International Conference on Computational
Science and Computational Intelligence (CSCI), Diciembre 2015.

[85] K. Kalaiselvi, A. Kumar, Enhanced AES cryptosystem by using genetic


algorithm and neural network in S-box, IEEE International Conference on Cur-
rent Trends in Advanced Computing (ICCTAC), Septiembre 2016.

[86] H. Noura, A. Samhat, Y. Harkouss, T. Yahiya, Design and realization


of a new neural block cipher, International Conference on Applied Research in
Computer Science and Engineering (ICAR), Octubre 2015.

149
[87] K. Shihab, A Backpropagation Neural Network for Computer Network Secu-
rity, Journal of Computer Science, 2006.

[88] C. Liu, I. Woungang, H. Chao, S. Dhurandher, T. Chi, M. Obaidat,


Message Security in Multi-Path Ad Hoc Networks Using a Neural Network-
Based Cipher, IEEE Global Telecommunications Conference - GLOBECOM,
Diciembre 2010.

[89] M. Chauhan, R. Prajapati Image Encryption Using Chaotic Based Artificial


Neural Network International Journal of Scientific & Engineering Research,
Junio 2014.

[90] N. Kamila, H. Rout, N. Dash Stego- Cryptography Using Chaotic Neural


Network American Journal of Signal Processing, 2014.

[91] A. Prabu, S. Srinivasarao, T. Apparao, M. Jaganmohan, K. Rao


Audio Encryption in Handsets,International Journal of Computer Applications,
febrero 2014.

[92] T. Fadil, S. Yaakob, B. Ahmad, A. Yahya A Chaotic Neural Network


Based Encryption Algorithm for MPEG-2 Encoded Video Signal International
Journal of Artificial Intelligence and Soft Computing, septiembre 2013

[93] S. Ramakrishnan, R. Rakshitha, V.Gayathiri, P.Kalaiyarasi Neural


Network based encryption and authentication using chaotic maps International
Journal of Current Trends in Engineering Research (IJCTER), Enero 2017

[94] S. Chatzidakis ; P. Forsberg ; L. Tsoukalas Chaotic neural networks for


intelligent signal encryption The 5th International Conference on Information,
Intelligence, Systems and Applications, Julio 2014

[95] A. Jain, N. Rajpal A two layer chaotic network based image encryption
technique National Conference on Computing and Communication Systems,
Noviembre 2012.

[96] Y. Wang ; L. Yang ; M. Li ; S. Song A method for designing S-box


based on chaotic neural network Sixth International Conference on Natural
Computation, Agosto 2010.

150
[97] J. Bahi, J. Couchot, C. Guyeux, M. Salomon Neural Networks and
Chaos: Construction, Evaluation of Chaotic Networks, and Prediction of Chaos
with Multilayer Feedforward Networks Agosto 2016.

[98] A. Zou, X. Xiao An Asynchronous Encryption Arithmetic Based on Laguerre


Chaotic Neural Networks WRI Global Congress on Intelligent Systems, Mayo
2009.

[99] R. Ihgaru, A. Murgan, D. Ioan, Chains of Discrete-Time Chaotic Neural


Networks for Generation of Broadband Signals with Applications in Improved
Ciphering Systems, Proceedings of 8th Mediterranean Electrotechnical Con-
ference on Industrial Applications in Power Systems, Computer Science and
Telecommunications (MELECON 96), Mayo 1996.

[100] R. May, Simple mathematical models with very complicated dynamics. Nature.
Vol 261. 10 junio 1976.

[101] K. Headington, Quadratic map. Universidad de Arizona. 2004.

[102] K. Ikeda Multiple-valued stationary state and its instability of the transmitted
light by a ring cavity system. Optics Communications. Vol 2. Agosto 1979.

[103] Yuri Medina , Haider Miranda Comparación de Algoritmos Basados en


la Criptografía Simétrica DES, AES y 3DES. Revista mundo FESC. Junio 2015.

151
A. Redes neuronales caóticas
A.1 Redes neuronales de una sola capa
A.1.1 Mapa Logístico
A.1.1.1 NPCR

(a) NPCR de Voz en español (b) NPCR de Flauta china

(c) NPCR de Voz en francés (d) NPCR de Toma aérea

(e) NPCR de Cameraman (f) NPCR de Faro

Figura A.1: NPCR cifrando con el mapa logístico

152
A.1.1.2 Correlación

(a) Correlación de Voz en español (b) Correlación de Flauta china

(c) Correlación de Voz en francés (d) Correlación de Toma aérea

(e) Correlación de Cameraman (f) Correlación de Faro

Figura A.2: Correlación cifrando con el mapa logístico

153
A.1.1.3 UACI

(a) UACI de Voz en español (b) UACI de Flauta china

(c) UACI de Voz en francés (d) UACI de Toma aérea

(e) UACI de Cameraman (f) UACI de Faro

Figura A.3: UACI cifrando con el mapa logístico

154
A.1.1.4 ∆Entropía

(a) ∆ de Entropía Voz en español (b) ∆ de Entropía Flauta china

(c) ∆ de Entropía Voz en francés (d) ∆ de Entropía Toma aérea

(e) ∆ de Entropía Cameraman (f) ∆ de Entropía Faro

Figura A.4: ∆Entropía cifrando con el mapa logístico

155
A.1.1.5 AMI

(a) AMI de Voz en español (b) AMI de Flauta china

(c) AMI de Voz en francés (d) AMI de Toma aérea

(e) AMI de Cameraman (f) AMI de Faro

Figura A.5: AMI cifrando con el mapa logístico

156
A.1.2 Mapa Cuadrático
A.1.2.1 NPCR

(a) NPCR de Voz en español (b) NPCR de Flauta china

(c) NPCR de Voz en francés (d) NPCR de Toma aérea

(e) NPCR de Cameraman (f) NPCR de Lenna

Figura A.6: NPCR cifrando con el mapa cuadrático

157
A.1.2.2 Correlación

(a) Correlación de Voz en español (b) Correlación de Flauta china

(c) Correlación de Voz en francés (d) Correlación de Toma aérea

(e) Correlación de Cameraman (f) Correlación de Lenna

Figura A.7: Correlación cifrando con el mapa cuadrático

158
A.1.2.3 UACI

(a) UACI de Voz en español (b) UACI de Flauta china

(c) UACI de Voz en francés (d) UACI de Toma aérea

(e) UACI de Cameraman (f) UACI de Lenna

Figura A.8: UACI cifrando con el mapa cuadrático

159
A.1.2.4 ∆Entropía

(a) ∆Entropía para Voz en español (b) ∆Entropía para Flauta china

(c) ∆Entropía para Voz en francés (d) ∆Entropía para Toma aérea

(e) ∆Entropía para Cameraman (f) ∆Entropía para Lenna

Figura A.9: ∆Entropía cifrando con el mapa logístico

160
A.1.2.5 AMI

(a) AMI de Voz en español (b) AMI de Flauta china

(c) AMI de Voz en francés (d) AMI de Toma aérea

(e) AMI de Cameraman (f) AMI de Lenna

Figura A.10: AMI cifrando con el mapa cuadrático

161
A.1.3 Mapa de Ikeda (X)
A.1.3.1 NPCR

(a) NPCR de Voz en español (b) NPCR de Flauta china

(c) NPCR de Voz en francés (d) NPCR de Toma aérea

(e) NPCR de Faro (f) NPCR de Faro

Figura A.11: NPCR cifrando con el mapa de Ikeda

162
A.1.3.2 Correlación

(a) Correlación de Voz en español (b) Correlación de Flauta china

(c) Correlación de Voz en francés (d) Correlación de Toma aérea

(e) Correlación de Faro (f) Correlación de Lenna

Figura A.12: Correlación cifrando con el mapa de Ikeda

163
A.1.3.3 UACI

(a) UACI de Voz en español (b) UACI de Flauta china

(c) UACI de Voz en francés (d) UACI de Toma aérea

(e) UACI de Faro (f) UACI de Lenna

Figura A.13: UACI cifrando con el mapa de Ikeda

164
A.1.3.4 ∆Entropía

(a) ∆Entropía de Voz en español (b) ∆Entropía de Flauta china

(c) ∆Entropía de Voz en francés (d) ∆Entropía de Toma aérea

(e) ∆Entropía de Faro (f) ∆Entropía de Lenna

Figura A.14: ∆Entropía cifrando con el mapa de Ikeda

165
A.1.3.5 AMI

(a) AMI de Voz en español (b) AMI de Flauta china

(c) AMI de Voz en francés (d) AMI de Toma aérea

(e) AMI de Faro (f) AMI de Lenna

Figura A.15: AMI cifrando con el mapa de Ikeda

166
A.1.4 Mapa de Ikeda (Y)
A.1.4.1 NPCR

(a) NPCR de Voz Flauta china (b) NPCR de Voz en francés

(c) NPCR de Toma aérea (d) NPCR de Cameraman

(e) NPCR de Faro (f) NPCR de Lenna

Figura A.16: NPCR cifrando con el mapa de Ikeda

167
A.1.4.2 Correlación

(a) Correlación de Flauta china (b) Correlación de Voz en francés

(c) Correlación de Toma aérea (d) Correlación de Cameraman

(e) Correlación de Faro (f) Correlación de Lenna

Figura A.17: Correlación cifrando con el mapa de Ikeda

168
A.1.4.3 UACI

(a) UACI de Flauta china (b) UACI de Voz en francés

(c) UACI de Toma aérea (d) UACI de Cameraman

(e) UACI de Faro (f) UACI de Voz en español

Figura A.18: UACI cifrando con el mapa de Ikeda

169
A.1.4.4 ∆Entropía

(a) ∆Entropía de Flauta china (b) ∆Entropía de Voz en francés

(c) ∆Entropía de Toma aérea (d) ∆Entropía de Cameraman

(e) ∆Entropía de Faro (f) ∆Entropía de Lenna

Figura A.19: ∆Entropía cifrando con el mapa de Ikeda

170
(e) AMI de Faro (f) AMI de Lenna

Figura A.20: AMI cifrando con el mapa de Ikeda

A.1.4.5 AMI

(a) AMI de Flauta china (b) AMI de Voz en francés

(c) AMI de Toma aérea (d) AMI de Cameraman

A.2 Prueba de sensibilidad


A.2.1 Mapa Logístico
A.2.1.1 Parámetro r

171
r NCPR Correlación UACI ∆ Entropía AMI
−5
3.9375+2 0.9953 0.0022 0.3107 0.9874 0.5703
3.9375+2−6 0.9958 -0.0042 0.3109 0.9874 0.5773
3.9375+2−7 0.9951 0.0091 0.3091 0.9870 0.5726
0.9950 0.0057 0.3096 0.9877 0.5791
0.9944 0.0036 0.3100 0.9874 0.5770
0.9937 0.0139 0.3075 0.9869 0.5823
0.9939 0.0176 0.3072 0.9876 0.5802
0.9932 0.0124 0.3081 0.9873 0.5793
0.9915 0.0541 0.3016 0.9867 0.6328
0.9958 -0.0177 0.3148 0.9858 0.6568
0.9821 0.0550 0.2988 0.9864 0.6560
0.9917 0.0110 0.3082 0.9877 0.5814
0.9923 0.0120 0.3082 0.9872 0.5828
0.9922 0.0112 0.3083 0.9871 0.5844
0.9928 0.0063 0.3081 0.9874 0.5795
0.9924 0.0062 0.3082 0.9876 0.5790
0.9927 0.0136 0.3068 0.9873 0.5858
0.9930 0.0099 0.3080 0.9873 0.5807
0.9929 0.0079 0.3081 0.9868 0.5828
0.9930 0.0149 0.3072 0.9873 0.5834
. 0.9931 0.0116 0.3066 0.9871 0.5791
. 0.9928 0.0105 0.3078 0.9873 0.5791
. 0.9921 0.0082 0.3078 0.9871 0.5795
. 0.9921 0.0053 0.3086 0.9875 0.5862
. 0.9928 0.0049 0.3088 0.9872 0.5794
. 0.9926 0.0134 0.3068 0.9873 0.5829
. 0.9925 0.0094 0.3084 0.9875 0.5828
. 0.9925 0.0085 0.3083 0.9873 0.5794
0.9923 0.0083 0.3093 0.9875 0.5853
0.9923 0.0090 0.3085 0.9872 0.5850
0.9933 0.0058 0.3087 0.9871 0.5825
0.9920 0.0064 0.3077 0.9871 0.5820
0.9917 0.0035 0.3085 0.9873 0.5819
0.9915 0.0111 0.3068 0.9873 0.5864

172
0.9921 0.0101 0.3076 0.9876 0.5855
0.9927 0.0118 0.3077 0.9877 0.5836
0.9915 0.0097 0.3073 0.9870 0.5802
0.9926 0.0088 0.3085 0.9877 0.5805
0.9921 0.0112 0.3074 0.9873 0.5824
0.9931 0.0074 0.3089 0.9868 0.5820
0.9928 0.0149 0.3069 0.9874 0.5810
0.9914 0.0056 0.3083 0.9869 0.5829
0.9925 0.0098 0.3087 0.9873 0.5827
0.9928 0.0176 0.3066 0.9873 0.5826
0.9912 0.0155 0.3069 0.9872 0.5806
−50
3.9375+2 0.9933 0.0093 0.3084 0.9874 0.5815
3.9375+2−51 0.9915 0.0086 0.3081 0.9866 0.5826
−52
3.9375+2 0.0000 1.0000 0.0000 0.0000 7.0097

Tabla A.1: Prueba de sensibilidad parámetro r

A.2.1.2 Parámetro xn

xn NCPR Correlación UACI ∆ Entropía AMI


0.75+2−3 0.9943 0.0083 0.3088 0.9875 0.5752
−4
0.75+2 0.9947 0.0061 0.3077 0.9871 0.5807
0.75+2−5 0.9950 0.0101 0.3079 0.9872 0.5748
0.9946 0.0047 0.3095 0.9872 0.5770
0.9935 0.0010 0.3089 0.9875 0.5795
0.9940 0.0041 0.3099 0.9869 0.5794
0.9942 0.0062 0.3073 0.9873 0.5832
0.9942 0.0135 0.3074 0.9872 0.5785
0.9946 0.0075 0.3088 0.9874 0.5791
0.9948 0.0105 0.3075 0.9872 0.5809
0.9951 0.0036 0.3089 0.9875 0.5795
0.9936 0.0092 0.3082 0.9875 0.5853
0.9935 0.0044 0.3088 0.9873 0.5778
0.9941 0.0163 0.3074 0.9870 0.5822
0.9938 0.0145 0.3070 0.9875 0.5761

173
0.9944 0.0078 0.3085 0.9871 0.5701
0.9939 0.0077 0.3081 0.9866 0.5797
0.9942 0.0071 0.3086 0.9873 0.5824
0.9941 0.0098 0.3085 0.9870 0.5815
0.9941 0.0093 0.3082 0.9869 0.5781
0.9946 0.0091 0.3089 0.9875 0.5796
0.9946 0.0092 0.3079 0.9870 0.5817
0.9940 0.0060 0.3084 0.9873 0.5826
0.9940 0.0110 0.3074 0.9872 0.5786
0.9933 0.0048 0.3077 0.9872 0.5888
0.9939 0.0111 0.3081 0.9877 0.5797
0.9937 0.0047 0.3082 0.9875 0.5797
0.9938 0.0072 0.3083 0.9871 0.5751
0.9931 0.0044 0.3084 0.9866 0.5815
0.9932 0.0041 0.3085 0.9873 0.5789
0.9944 0.0129 0.3070 0.9869 0.5784
0.9950 0.0097 0.3079 0.9872 0.5805
0.9937 0.0086 0.3081 0.9874 0.5805
0.9939 0.0063 0.3093 0.9877 0.5786
0.9945 0.0045 0.3092 0.9877 0.5793
0.9942 0.0135 0.3076 0.9873 0.5811
0.9937 0.0021 0.3087 0.9875 0.5776
0.9934 0.0010 0.3107 0.9879 0.5833
0.9933 0.0055 0.3084 0.9876 0.5810
0.9938 0.0022 0.3089 0.9875 0.5808
0.9940 0.0037 0.3089 0.9873 0.5770
0.9935 -0.0016 0.3098 0.9873 0.5812
0.9937 0.0114 0.3071 0.9875 0.5799
0.9939 0.0088 0.3081 0.9872 0.5814
0.9934 0.0094 0.3075 0.9872 0.5800
0.9942 0.0002 0.3093 0.9871 0.5779
0.9941 0.0089 0.3092 0.9874 0.5758
0.75+2−50 0.9938 0.0133 0.3069 0.9868 0.5817
0.75+2−51 0.9936 0.0035 0.3093 0.9875 0.5779

174
0.75+2−52 0.9936 0.0089 0.3078 0.9876 0.5731

Tabla A.2: Prueba de sensibilidad parámetro xn

A.2.2 Mapa Cuadrático


A.2.2.1 Parámetro c

c NCPR Correlación UACI ∆ Entropía AMI


1.875 0.9986 -0.0510 0.3342 0.9793 0.8046
−4
1.875+2 0.9954 -0.0013 0.3103 0.9870 0.5735
−5
1.875+2 0.9945 0.0034 0.3089 0.9876 0.5810
0.9946 0.0039 0.3082 0.9869 0.5762
0.9941 0.0001 0.3085 0.9871 0.5839
0.9931 0.0031 0.3081 0.9874 0.5807
0.9931 0.0087 0.3069 0.9869 0.5759
0.9929 0.0068 0.3077 0.9875 0.5770
0.9920 0.0037 0.3077 0.9870 0.5825
0.9929 0.0096 0.3078 0.9875 0.5754
0.9926 0.0007 0.3094 0.9875 0.5811
0.9925 0.0029 0.3084 0.9872 0.5805
0.9924 0.0107 0.3076 0.9869 0.5818
0.9926 0.0053 0.3080 0.9872 0.5770
0.9924 0.0014 0.3084 0.9868 0.5827
0.9938 0.0036 0.3095 0.9880 0.5766
0.9926 0.0017 0.3071 0.9869 0.5791
0.9918 0.0081 0.3075 0.9872 0.5802
0.9922 0.0047 0.3075 0.9870 0.5805
0.9924 0.0108 0.3068 0.9870 0.5832
0.9926 0.0059 0.3084 0.9876 0.5803
. 0.9923 0.0083 0.3072 0.9873 0.5836
. 0.9920 0.0118 0.3073 0.9878 0.5820
. 0.9917 0.0053 0.3068 0.9874 0.5878
. 0.9922 0.0071 0.3077 0.9873 0.5795
. 0.9925 0.0122 0.3070 0.9874 0.5856
. 0.9927 -0.0019 0.3083 0.9871 0.5787
.
175
.
0.9927 0.0041 0.3084 0.9868 0.5819
0.9926 -0.0021 0.3102 0.9874 0.5783
0.9920 0.0054 0.3077 0.9870 0.5838
0.9915 0.0049 0.3081 0.9872 0.5888
0.9913 0.0107 0.3066 0.9870 0.5874
0.9925 0.0030 0.3086 0.9874 0.5833
0.9911 0.0083 0.3071 0.9871 0.5835
0.9914 0.0082 0.3074 0.9872 0.5843
0.9912 0.0045 0.3074 0.9866 0.5825
0.9915 0.0029 0.3084 0.9866 0.5823
0.9924 0.0006 0.3088 0.9874 0.5812
0.9917 0.0120 0.3064 0.9865 0.5810
0.9926 0.0038 0.3083 0.9872 0.5806
0.9911 0.0084 0.3062 0.9867 0.5813
0.9933 0.0024 0.3088 0.9877 0.5844
0.9924 0.0063 0.3091 0.9865 0.5836
0.9911 0.0032 0.3081 0.9870 0.5791
0.9918 0.0028 0.3076 0.9877 0.5814
0.9919 0.0083 0.3068 0.9868 0.5805
0.9919 -0.0020 0.3098 0.9873 0.5821
1.875+2−50 0.9915 0.0025 0.3069 0.9868 0.5861
1.875+2−51 0.9923 0.0017 0.3085 0.9870 0.5805
−52
1.875+2 0.9912 0.0079 0.3072 0.9869 0.5830

Tabla A.3: Prueba de sensibilidad parámetro c

A.2.2.2 Parámetro xn

xn NCPR Correlación UACI ∆ Entropía AMI


−2
0.5+2 0.9930 -0.0001 0.3088 0.9871 0.5821
0.5+2−3 0.9921 0.0068 0.3072 0.9871 0.5818
0.5+2−4 0.9924 0.0010 0.3084 0.9872 0.5822
0.9938 0.0011 0.3089 0.9875 0.5791
0.9917 0.0085 0.3068 0.9874 0.5811
0.9919 0.0073 0.3078 0.9872 0.5839

176
0.9928 0.0064 0.3073 0.9868 0.5768
0.9922 0.0033 0.3080 0.9870 0.5856
0.9933 0.0051 0.3079 0.9867 0.5825
0.9930 -0.0065 0.3100 0.9874 0.5819
0.9928 0.0096 0.3072 0.9878 0.5821
0.9924 0.0118 0.3067 0.9871 0.5878
0.9926 0.0111 0.3069 0.9872 0.5843
0.9920 0.0068 0.3082 0.9868 0.5788
0.9928 0.0001 0.3087 0.9871 0.5808
0.9930 0.0082 0.3075 0.9876 0.5823
0.9922 0.0051 0.3078 0.9870 0.5840
0.9925 0.0022 0.3090 0.9866 0.5810
0.9925 0.0061 0.3080 0.9874 0.5861
0.9922 0.0072 0.3081 0.9876 0.5793
0.9921 0.0029 0.3082 0.9873 0.5888
0.9929 0.0051 0.3078 0.9871 0.5811
0.9927 0.0012 0.3098 0.9872 0.5839
0.9918 0.0048 0.3079 0.9876 0.5783
0.9921 0.0054 0.3076 0.9872 0.5801
0.9913 0.0079 0.3068 0.9865 0.5818
0.9922 0.0004 0.3088 0.9867 0.5854
0.9917 0.0015 0.3082 0.9870 0.5794
0.9916 0.0017 0.3086 0.9876 0.5818
0.9920 0.0047 0.3078 0.9869 0.5837
0.9923 0.0009 0.3085 0.9877 0.5836
0.9913 0.0084 0.3068 0.9870 0.5878
0.9917 0.0098 0.3072 0.9871 0.5817
0.9913 -0.0016 0.3088 0.9873 0.5825
0.9923 0.0029 0.3092 0.9874 0.5828
0.9922 0.0130 0.3068 0.9870 0.5851
0.9924 0.0009 0.3092 0.9872 0.5801
0.9917 0.0035 0.3078 0.9873 0.5782
0.9920 0.0030 0.3086 0.9870 0.5796
0.9917 0.0034 0.3078 0.9869 0.5867

177
0.9921 0.0027 0.3083 0.9871 0.5814
0.9917 0.0085 0.3073 0.9870 0.5805
0.9913 0.0139 0.3066 0.9869 0.5889
0.9928 0.0062 0.3084 0.9877 0.5834
0.9920 0.0075 0.3074 0.9876 0.5836
0.9920 0.0018 0.3083 0.9867 0.5852
0.9930 0.0073 0.3084 0.9865 0.5821
0.9921 0.0061 0.3080 0.9871 0.5777
0.5+2−50 0.9921 0.0008 0.3094 0.9872 0.5859
−51
0.5+2 0.9920 0.0098 0.3071 0.9875 0.5804
0.5+2−52 0.9920 0.0098 0.3070 0.9868 0.5837

Tabla A.4: Prueba de sensibilidad parámetro xn

A.2.3 Mapa de Ikeda (X)


A.2.3.1 Parámetro u

u NCPR Correlación UACI ∆ Entropía AMI


−3
0.75+2 0.9954 -0.0008 0.3105 0.9877 0.5829
0.75+2−4 0.9946 -0.0005 0.3091 0.9869 0.5797
−5
0.75+2 0.9941 0.0036 0.3086 0.9868 0.5844
0.9932 0.0037 0.3079 0.9865 0.5893
0.9906 0.0105 0.3065 0.9866 0.5937
0.9914 0.0079 0.3071 0.9864 0.5930
0.9909 -0.0005 0.3072 0.9863 0.5964
0.9911 0.0055 0.3066 0.9867 0.5928
0.9910 0.0034 0.3068 0.9864 0.5947
0.9909 0.0014 0.3070 0.9865 0.5910
0.9902 0.0069 0.3068 0.9864 0.5898
0.9904 0.0044 0.3077 0.9865 0.5917
0.9904 0.0069 0.3063 0.9860 0.5947
0.9897 0.0053 0.3069 0.9867 0.5925
0.9902 0.0049 0.3067 0.9861 0.5962
0.9913 0.0006 0.3075 0.9865 0.5926
0.9891 0.0060 0.3060 0.9865 0.5938

178
0.9906 0.0061 0.3063 0.9866 0.5952
0.9904 0.0083 0.3061 0.9868 0.5972
0.9917 0.0063 0.3063 0.9868 0.5905
0.9905 0.0004 0.3070 0.9869 0.5979
0.9910 0.0061 0.3070 0.9863 0.5921
0.9910 0.0053 0.3071 0.9872 0.5935
0.9907 0.0075 0.3064 0.9864 0.5925
0.9904 0.0078 0.3058 0.9864 0.5965
0.9900 0.0125 0.3050 0.9866 0.5929
0.9906 0.0109 0.3059 0.9863 0.5940
0.9911 -0.0031 0.3081 0.9866 0.5966
0.9890 0.0125 0.3046 0.9862 0.5981
0.9899 0.0038 0.3065 0.9863 0.5967
0.9907 0.0081 0.3055 0.9863 0.5984
0.9902 0.0106 0.3062 0.9867 0.5949
0.9902 0.0098 0.3058 0.9865 0.5947
0.9908 0.0071 0.3069 0.9867 0.5904
0.9908 0.0062 0.3073 0.9869 0.5901
0.9902 0.0035 0.3076 0.9861 0.5954
0.9911 0.0073 0.3066 0.9872 0.5941
0.9898 0.0075 0.3059 0.9860 0.5963
0.9900 0.0060 0.3069 0.9866 0.5962
0.9903 0.0052 0.3064 0.9865 0.5949
0.9904 0.0055 0.3071 0.9867 0.5914
0.9907 0.0012 0.3075 0.9866 0.5895
0.9900 0.0064 0.3066 0.9868 0.5902
0.9897 0.0048 0.3069 0.9870 0.5947
0.9898 0.0097 0.3053 0.9863 0.5970
0.9904 0.0124 0.3055 0.9863 0.5987
0.9893 0.0123 0.3049 0.9865 0.5957
−50
0.75+2 0.9893 0.0073 0.3054 0.9861 0.5963
0.75+2−51 0.9897 0.0096 0.3059 0.9869 0.5952
−52
0.75+2 0.9903 0.0169 0.3043 0.9862 0.5973

Tabla A.5: Prueba de sensibilidad parámetro u

179
A.2.3.2 Parámetro xn

xn NCPR Correlación UACI ∆ Entropía AMI


0.5+2−2 0.9915 -0.0004 0.3076 0.9866 0.5902
−3
0.5+2 0.9909 -0.0006 0.3071 0.9861 0.5958
0.5+2−4 0.9906 0.0069 0.3060 0.9870 0.5928
0.9909 0.0023 0.3071 0.9863 0.5939
0.9910 0.0075 0.3062 0.9861 0.5948
0.9914 -0.0018 0.3086 0.9864 0.5952
0.9907 -0.0005 0.3077 0.9866 0.5902
0.9897 0.0058 0.3062 0.9864 0.5933
0.9906 0.0019 0.3075 0.9867 0.5965
0.9906 0.0125 0.3046 0.9861 0.5925
0.9907 0.0004 0.3081 0.9867 0.5922
0.9905 0.0099 0.3058 0.9860 0.5914
0.9906 0.0026 0.3069 0.9869 0.5965
0.9920 0.0019 0.3062 0.9861 0.5927
0.9901 0.0048 0.3068 0.9866 0.5965
0.9908 0.0089 0.3061 0.9859 0.5912
0.9909 0.0090 0.3066 0.9867 0.5945
0.9914 0.0066 0.3069 0.9872 0.5914
0.9903 -0.0012 0.3083 0.9867 0.5943
0.9891 0.0149 0.3044 0.9869 0.5946
0.9911 0.0080 0.3071 0.9860 0.5962
0.9903 0.0048 0.3059 0.9866 0.5975
.
0.9910 0.0073 0.3067 0.9864 0.5909
.
0.9906 0.0166 0.3054 0.9870 0.5936
.
0.9903 0.0091 0.3054 0.9864 0.5940
.
0.9897 0.0066 0.3067 0.9871 0.5909
.
0.9897 0.0034 0.3066 0.9866 0.5996
.
0.9907 0.0055 0.3069 0.9863 0.5931
.
0.9897 0.0064 0.3061 0.9861 0.5977
.
0.9912 0.0001 0.3071 0.9861 0.5914
0.9902 0.0050 0.3067 0.9864 0.5895
0.9907 0.0047 0.3066 0.9868 0.5883

180
0.9904 0.0056 0.3056 0.9866 0.5926
0.9902 0.0063 0.3071 0.9868 0.5942
0.9909 0.0071 0.3060 0.9865 0.5981
0.9901 0.0047 0.3069 0.9868 0.5925
0.9895 -0.0030 0.3083 0.9867 0.5938
0.9900 -0.0026 0.3077 0.9866 0.5904
0.9897 0.0022 0.3073 0.9868 0.5945
0.9902 0.0088 0.3065 0.9868 0.5912
0.9899 0.0169 0.3046 0.9861 0.5928
0.9895 0.0059 0.3064 0.9864 0.5963
0.9913 0.0109 0.3055 0.9860 0.5916
0.9901 0.0113 0.3057 0.9866 0.5910
0.9902 0.0078 0.3057 0.9868 0.5930
0.9889 0.0105 0.3050 0.9860 0.5970
0.9904 0.0040 0.3070 0.9863 0.5919
0.9911 -0.0009 0.3087 0.9867 0.5920
0.5+2−50 0.9900 0.0125 0.3056 0.9865 0.5899
−51
0.5+2 0.9906 0.0097 0.3054 0.9866 0.5909
0.5+2−52 0.0000 1.0000 0.0000 0.0000 7.0097

Tabla A.6: Prueba de sensibilidad parámetro xn

A.2.3.3 Parámetro yn

yn NCPR Correlación UACI ∆ Entropía AMI


−2
0.5+2 0.9907 0.0038 0.3062 0.9862 0.5934
0.5+2−3 0.9909 0.0082 0.3055 0.9862 0.5970
0.5+2−4 0.9913 0.0061 0.3064 0.9867 0.5894
0.9904 0.0071 0.3064 0.9861 0.5856
0.9902 -0.0014 0.3081 0.9865 0.5964
0.9916 0.0055 0.3074 0.9864 0.5948
0.9917 0.0064 0.3066 0.9865 0.5938
0.9901 -0.0020 0.3076 0.9856 0.5956
0.9906 0.0093 0.3055 0.9865 0.5973
0.9892 0.0043 0.3067 0.9870 0.5964

181
0.9904 0.0044 0.3070 0.9867 0.6006
0.9916 0.0134 0.3054 0.9871 0.5884
0.9900 0.0052 0.3058 0.9863 0.5955
0.9903 0.0015 0.3066 0.9860 0.5976
0.9907 0.0093 0.3065 0.9865 0.5893
0.9911 0.0020 0.3077 0.9863 0.5908
0.9898 0.0144 0.3058 0.9867 0.5952
0.9896 0.0092 0.3052 0.9866 0.5980
0.9891 -0.0033 0.3087 0.9865 0.5964
0.9914 0.0061 0.3077 0.9866 0.5941
0.9908 0.0049 0.3068 0.9862 0.5934
0.9900 0.0063 0.3060 0.9867 0.5907
0.9901 -0.0003 0.3073 0.9862 0.6035
0.9899 0.0066 0.3063 0.9864 0.5978
0.9896 0.0004 0.3073 0.9868 0.5973
0.9904 0.0103 0.3057 0.9863 0.6011
0.9906 0.0036 0.3070 0.9866 0.5954
0.9892 0.0041 0.3070 0.9869 0.5995
0.9902 0.0062 0.3072 0.9864 0.5979
0.9899 0.0033 0.3070 0.9858 0.5974
0.9909 0.0033 0.3076 0.9870 0.5957
0.9900 0.0047 0.3061 0.9862 0.5911
0.9905 0.0032 0.3080 0.9869 0.5973
0.9908 0.0105 0.3061 0.9866 0.5958
0.9890 0.0038 0.3065 0.9869 0.5882
0.9897 0.0077 0.3059 0.9868 0.5918
0.9902 0.0083 0.3053 0.9855 0.5908
0.9903 0.0036 0.3076 0.9865 0.5935
0.9894 0.0051 0.3071 0.9865 0.5961
0.9890 0.0018 0.3067 0.9862 0.5955
0.9894 0.0106 0.3051 0.9864 0.5944
0.9894 0.0019 0.3068 0.9864 0.5940
0.9895 0.0010 0.3075 0.9867 0.5941
0.9896 0.0044 0.3063 0.9861 0.5943

182
0.9899 0.0056 0.3057 0.9861 0.5979
0.9892 0.0079 0.3062 0.9864 0.5911
0.9901 0.0041 0.3064 0.9864 0.5950
0.9904 0.0122 0.3049 0.9861 0.5951
0.5+2−50 0.9899 0.0086 0.3061 0.9861 0.5920
−51
0.5+2 0.9898 0.0155 0.3042 0.9860 0.5956
0.5+2−52 0.9905 0.0067 0.3063 0.9869 0.5960

Tabla A.7: Prueba de sensibilidad parámetro yn

A.2.4 Mapa de Ikeda (Y)


A.2.4.1 Parámetro u

u NCPR Correlación UACI ∆ Entropia AMI


−3
0.75+2 0.9960 0.0024 0.3109 0.9874 0.5815
0.75+2−4 0.9952 0.0030 0.3091 0.9872 0.5841
−5
0.75+2 0.9924 0.0058 0.3072 0.9872 0.5914
0.9907 0.0006 0.3075 0.9866 0.5966
0.9903 0.0064 0.3063 0.9864 0.5986
0.9908 0.0102 0.3057 0.9866 0.6048
0.9892 0.0031 0.3062 0.9863 0.5992
0.9888 0.0052 0.3061 0.9862 0.6035
0.9895 0.0066 0.3058 0.9866 0.5989
0.9886 0.0036 0.3063 0.9866 0.5996
0.9887 0.0042 0.3069 0.9866 0.6020
0.9888 0.0021 0.3073 0.9869 0.6020
0.9885 0.0024 0.3064 0.9861 0.6018
0.9883 0.0027 0.3072 0.9870 0.5996
0.9877 0.0032 0.3065 0.9861 0.6000
0.9889 0.0071 0.3070 0.9864 0.6020
0.9868 0.0032 0.3062 0.9864 0.6059
0.9888 0.0060 0.3058 0.9863 0.6058
0.9880 0.0094 0.3054 0.9862 0.6066
0.9896 0.0051 0.3063 0.9868 0.5971
0.9886 0.0030 0.3066 0.9867 0.6018
.
183
.
.
.
0.9879 0.0053 0.3059 0.9863 0.6051
0.9894 -0.0026 0.3077 0.9870 0.5982
0.9887 -0.0022 0.3076 0.9865 0.6068
0.9888 0.0010 0.3076 0.9868 0.6019
0.9888 0.0064 0.3073 0.9862 0.6009
0.9882 0.0039 0.3060 0.9863 0.6033
0.9881 -0.0005 0.3076 0.9869 0.6047
0.9863 0.0059 0.3055 0.9860 0.6022
0.9870 0.0051 0.3059 0.9867 0.6059
0.9888 0.0028 0.3066 0.9860 0.5980
0.9885 0.0112 0.3054 0.9866 0.6024
0.9882 0.0043 0.3061 0.9864 0.6100
0.9891 -0.0038 0.3083 0.9865 0.6024
0.9890 -0.0017 0.3081 0.9867 0.5995
0.9890 0.0028 0.3070 0.9866 0.5980
0.9884 0.0091 0.3058 0.9868 0.6021
0.9885 -0.0028 0.3068 0.9865 0.6008
0.9889 0.0029 0.3069 0.9862 0.6039
0.9883 0.0066 0.3054 0.9863 0.6014
0.9884 0.0016 0.3082 0.9866 0.6017
0.9876 0.0016 0.3067 0.9864 0.6066
0.9874 0.0061 0.3064 0.9863 0.6052
0.9878 0.0050 0.3067 0.9867 0.6005
0.9884 -0.0026 0.3077 0.9868 0.5983
0.9890 0.0074 0.3056 0.9868 0.6042
0.9872 0.0067 0.3050 0.9864 0.6050
−50
0.75+2 0.9875 0.0075 0.3056 0.9868 0.6049
0.75+2−51 0.9873 0.0067 0.3061 0.9866 0.6090
−52
0.75+2 0.9879 0.0027 0.3060 0.9865 0.6035

Tabla A.8: Prueba de sensibilidad parámetro u

A.2.4.2 Parámetro xn

184
xn NCPR Correlación UACI ∆ Entropia AMI
−2
0.5+2 0.9899 -0.0040 0.3081 0.9863 0.6019
0.5+2−3 0.9882 0.0063 0.3064 0.9863 0.6026
0.5+2−4 0.9895 0.0126 0.3056 0.9864 0.6016
0.9892 0.0068 0.3060 0.9861 0.5990
0.9889 -0.0015 0.3077 0.9868 0.6019
0.9892 -0.0010 0.3073 0.9862 0.6093
0.9888 -0.0005 0.3073 0.9870 0.6023
0.9880 0.0038 0.3064 0.9863 0.6010
0.9888 0.0029 0.3069 0.9868 0.6078
0.9884 0.0010 0.3068 0.9857 0.6074
0.9887 0.0074 0.3065 0.9866 0.6020
0.9889 -0.0009 0.3081 0.9867 0.6078
0.9886 0.0040 0.3067 0.9865 0.6040
0.9896 0.0101 0.3059 0.9864 0.5995
0.9881 0.0026 0.3070 0.9869 0.6004
0.9877 0.0032 0.3062 0.9865 0.6041
0.9895 -0.0022 0.3077 0.9865 0.5974
0.9892 0.0001 0.3073 0.9866 0.6025
0.9878 0.0079 0.3043 0.9860 0.6031
0.9871 0.0126 0.3049 0.9859 0.6064
0.9886 0.0015 0.3065 0.9867 0.6035
0.9887 0.0042 0.3065 0.9862 0.6013
.
0.9881 0.0062 0.3053 0.9866 0.6024
.
0.9878 0.0035 0.3064 0.9863 0.6041
.
0.9886 0.0024 0.3070 0.9868 0.6032
.
0.9886 0.0062 0.3066 0.9858 0.6036
.
0.9873 -0.0038 0.3076 0.9868 0.6088
.
0.9884 0.0049 0.3063 0.9866 0.6087
.
0.9869 0.0053 0.3058 0.9864 0.6071
.
0.9890 0.0056 0.3068 0.9871 0.6039
0.9878 0.0015 0.3070 0.9864 0.6069
0.9884 -0.0038 0.3076 0.9865 0.6053
0.9879 0.0038 0.3056 0.9864 0.6046
0.9885 0.0105 0.3049 0.9862 0.6052

185
0.9888 0.0088 0.3060 0.9864 0.5992
0.9885 0.0034 0.3060 0.9866 0.5969
0.9874 0.0077 0.3055 0.9860 0.6036
0.9881 0.0003 0.3066 0.9868 0.6035
0.9877 0.0034 0.3066 0.9862 0.6041
0.9883 0.0094 0.3063 0.9868 0.6009
0.9881 0.0040 0.3068 0.9867 0.6017
0.9878 0.0047 0.3055 0.9861 0.6036
0.9890 0.0070 0.3063 0.9865 0.6009
0.9881 0.0016 0.3078 0.9863 0.6066
0.9872 0.0083 0.3052 0.9860 0.6063
0.9870 0.0076 0.3057 0.9869 0.6106
0.9889 -0.0019 0.3075 0.9862 0.6015
0.9890 0.0085 0.3059 0.9864 0.6020
0.5+2−50 0.9881 -0.0010 0.3074 0.9867 0.6049
−51
0.5+2 0.9886 -0.0030 0.3084 0.9870 0.6018
0.5+2−52 0.0000 1.0000 0.0000 0.0000 7.0097

Tabla A.9: Prueba de sensibilidad parámetro xn

A.2.4.3 Parámetro yn

yn NCPR Correlación UACI ∆ Entropía AMI


−2
0.5+2 0.9885 0.0048 0.3058 0.9860 0.6067
0.5+2−3 0.9893 0.0042 0.3067 0.9868 0.6008
0.5+2−4 0.9887 0.0039 0.3065 0.9865 0.6074
0.9885 -0.0021 0.3080 0.9868 0.6008
0.9895 -0.0006 0.3072 0.9866 0.6033
0.9894 0.0022 0.3077 0.9864 0.6060
0.9898 -0.0005 0.3077 0.9874 0.5939
0.9885 0.0025 0.3070 0.9867 0.6039
0.9883 0.0012 0.3076 0.9865 0.6029
0.9871 0.0049 0.3052 0.9859 0.6066
0.9884 0.0026 0.3066 0.9869 0.6038
0.9895 -0.0005 0.3075 0.9866 0.6028

186
0.9882 0.0082 0.3056 0.9862 0.6040
0.9879 0.0056 0.3064 0.9865 0.6033
0.9894 -0.0035 0.3077 0.9864 0.5998
0.9879 0.0006 0.3076 0.9867 0.6051
0.9882 0.0075 0.3053 0.9865 0.6068
0.9877 0.0088 0.3062 0.9867 0.6075
0.9881 0.0123 0.3047 0.9865 0.6052
0.9893 -0.0044 0.3083 0.9869 0.6033
0.9881 0.0066 0.3059 0.9864 0.6052
0.9879 0.0022 0.3058 0.9863 0.6056
0.9884 -0.0020 0.3066 0.9861 0.6032
0.9883 0.0081 0.3054 0.9862 0.6035
0.9877 0.0079 0.3059 0.9863 0.6036
0.9877 0.0014 0.3068 0.9863 0.6062
0.9888 0.0129 0.3048 0.9866 0.6057
0.9867 0.0063 0.3053 0.9861 0.6103
0.9883 0.0006 0.3064 0.9862 0.6038
0.9881 0.0040 0.3069 0.9868 0.5967
0.9884 0.0143 0.3041 0.9865 0.6107
0.9875 0.0044 0.3061 0.9865 0.6052
0.9884 0.0077 0.3050 0.9858 0.6050
0.9887 -0.0022 0.3081 0.9871 0.6032
0.9867 0.0023 0.3070 0.9859 0.6085
0.9875 0.0054 0.3064 0.9861 0.6079
0.9879 0.0033 0.3062 0.9862 0.6053
0.9885 0.0015 0.3067 0.9870 0.6064
0.9885 0.0010 0.3073 0.9870 0.6035
0.9876 0.0051 0.3059 0.9861 0.6020
0.9864 0.0032 0.3056 0.9862 0.6001
0.9874 0.0035 0.3062 0.9866 0.6061
0.9880 0.0050 0.3066 0.9867 0.6046
0.9880 0.0066 0.3060 0.9865 0.6001
0.9877 0.0048 0.3069 0.9867 0.6016
0.9870 0.0047 0.3056 0.9868 0.6057

187
0.9883 -0.0038 0.3079 0.9868 0.6017
0.9886 0.0033 0.3067 0.9863 0.6030
0.5+2−50 0.9872 -0.0006 0.3071 0.9864 0.6024
−51
0.5+2 0.9880 0.0031 0.3073 0.9863 0.6039
0.5+2−52 0.9882 0.0066 0.3055 0.9862 0.6060

Tabla A.10: Prueba de sensibilidad parámetro yn

188

También podría gustarte