Trabajo de Grado

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 125

Clasicación y Conteo de Células del Ensayo

Cometa usando Procesamiento Digital de


Imágenes y Aprendizaje de Máquinas

Juan Esteban Acosta Franco


Juan Felipe Quiroga Rodríguez

Facultad Ingeniería
Ingeniería Electrónica
Ibagué, 2024
Clasicación y Conteo de Células del Ensayo
Cometa usando Procesamiento Digital de
Imágenes y Aprendizaje de Máquinas

Juan Esteban Acosta Franco


Juan Felipe Quiroga Rodríguez

Trabajo de grado que se presenta como requisito parcial para optar al título de:

Ingeniero Electrónico

Director:

Doctor Manuel Guillermo Forero Vargas

Profesor Universidad de Ibagué

Facultad Ingeniería
Ingeniería Electrónica
Ibagué, 2024
Dedicatoria

Este trabajo va dedicado a nuestras familias,

por el apoyo incondicional... siempre gracias.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. i


Agradecimientos
Gracias a nuestras familias, el Ingeniero Manuel Forero, integrantes y amigos del semillero de
investigación "Lún", quienes fueron pieza clave en la formación integral en el transcurso de
nuestra carrera.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. ii


Resumen
El Ensayo Cometa, o electroforesis unicelular en gel es un método empleado para el estudio
del daño de células de ácido desoxirribonucleico (ADN). Sin embargo, la evaluación de células
dañadas se realiza con métodos manuales, lo cual consume demasiado tiempo y es impreciso.
Por esta razón, en este trabajo se presenta un nuevo método automático para procesar y
analizar imágenes del Ensayo Cometa, basado en técnicas de procesamiento de imágenes y
modelos de aprendizaje automático, incluyendo Redes Neuronales Convolucionales. Se ex-
pone una investigación comparativa de cinco arquitecturas permitiendo tener una precisión
con el método desarrollado de hasta 97.44%, superior a los resultados manuales, donde el
Procesamiento Digital de Imágenes posibilitó lograr un mayor rendimiento. La validación
de los resultados automáticos se llevó a cabo comparándolos con los resultados manuales,
mostrando su rendimiento y conabilidad, gracias a lo cual es ahora utilizado como método
para el estudio de los resultados del Ensayo Cometa en el Laboratorio de Biología Celular de
la Ponticia Universidad Javeriana de Cali.

Palabras Clave: Procesamiento Digital de Imágenes, Inteligencia Articial, Redes Neu-


ronales Convolucionales, Ensayo Cometa, ADN

Abstract
The Comet Assay, or single-cell gel electrophoresis, is a method widely employed for studying
DNA damage in cells. However, the assessment of damaged cells is traditionally performed us-
ing manual methods, which are time-consuming and imprecise. To address this challenge, this
work presents a novel automatic method for processing and analyzing Comet Assay images,
based on image processing techniques and machine learning models, including Convolutional
Neural Networks (CNNs). A comparative study of ve dierent CNN architectures is con-
ducted, achieving an accuracy of up to 97.44% with the developed method, which outperforms
manual results. Digital Image Processing techniques were key to achieving this high perfor-
mance. The validation of the automatic results was carried out by comparing them with
manual scores, demonstrating the eciency and reliability of the proposed method. Conse-
quently, it is now being used as a standard method for studying Comet Assay results in the
Cell Biology Laboratory at the Ponticia Universidad Javeriana Cali.

Keywords: Digital Image Processing, Articial Intelligence, Convolutional Neural Net-


works, Comet Assay, DNA

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. iii


Contenido

Introducción 1
1 Marco Teórico 4
1.1 Ensayo Cometa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Desarrollo del método . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1.1 Variaciones del método . . . . . . . . . . . . . . . . . . . 5
1.1.2 Aplicaciones del método . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Limitaciones del método . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Procesamiento Digital de Imágenes . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Reconstrucción morfológica en escala de grises . . . . . . . . . . . . 7
1.2.2 Extracción de máximos regionales y domos . . . . . . . . . . . . . . 7
1.2.2.1 h-domos y h-cuencas . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Ground Truth (Verdad de referencia o máscara) . . . . . . . . . . . 8
1.2.4 Binarización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 8-conectividad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.6 Intersección sobre la Unión IoU . . . . . . . . . . . . . . . . . . . . 10
1.3 Aprendizaje de Máquinas . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 One Hot Encoding . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Codicador  Decodicador . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3 Segmentación Semántica . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.4 Redes Neuronales Convolucionales . . . . . . . . . . . . . . . . . . . 13
1.3.4.1 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.4.2 UNet++ . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4.3 DeepLabV3+ . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.4.4 LinkNet . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.4.5 PAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.4.6 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.4.7 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.5 Algoritmos de Aprendizaje Supervisado . . . . . . . . . . . . . . . . 22
1.3.6 Algoritmos de Aprendizaje No Supervisado . . . . . . . . . . . . . . 23
1.3.7 Aprendizaje por Refuerzo y Agentes Inteligentes . . . . . . . . . . . 23
1.3.8 Extracción de características . . . . . . . . . . . . . . . . . . . . . . 23
1.3.9 Evaluación y Validación . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.10 Desafíos y Futuro del Aprendizaje de Máquinas . . . . . . . . . . . . 23

2 Estado del arte 24


2.1 Técnicas de vanguardia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

iv
2.1.1 Sistemas Automáticos: . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.2 Sistemas Semi-Automáticos: . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Herramientas disponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3 Materiales y Métodos 28
3.1 Materiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.1 Imágenes Ground Truth . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.2 Proceso de obtención de imágenes "Ground Truth" . . . . . . . . . . 29
3.1.2.1 Marcación de cabezas . . . . . . . . . . . . . . . . . . . . 29
3.1.2.2 Marcación de colas . . . . . . . . . . . . . . . . . . . . . 31
3.2 Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.1 Selección del Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1.1 Fase 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.1.2 Fase 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1.3 Fase 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.1.4 Aumentación de Datos . . . . . . . . . . . . . . . . . . . 41
3.2.2 Funcionamiento del programa . . . . . . . . . . . . . . . . . . . . . 42
3.2.2.1 Bloque 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.2.2 Bloque 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.2.3 Bloque 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4 Resultados 44
4.1 Entrenamientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3 Validación de las imágenes predichas por el
modelo con las imágenes Ground Truth . . . . . . . . . . . . . . . . . . . . 47
4.4 Validaciones de las máscaras de los investigadores con la imagen Ground Truth 51
4.5 Validaciones de las máscaras de los investigadores y la imagen Ground Truth
con la máscara predicha . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.6 Funcionamiento del programa . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.7 Comparación del método con OpenComet . . . . . . . . . . . . . . . . . . 52
4.7.1 Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.7.2 Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.7.3 Ejemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5 Discusión y limitaciones 54
5.1 Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.1.1 Fase 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.1.2 Fase 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.3 Fase 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.4 Aumentación de Datos . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.5 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.6 Validación IoU de las imágenes Ground Truth y las imágenes predichas
por el modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.7 Validación de las imágenes (Estudiantes, Ground Truth y Modelo) . . 57
5.1.7.1 Comparación de las máscaras de los estudiantes con la ima-
gen Ground Truth . . . . . . . . . . . . . . . . . . . . . . 57
5.1.7.2 Comparación de las máscaras de los estudiantes y la imagen
Ground Truth con la imagen predicha por el modelo . . . . 58

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. v


5.1.8 Respuesta del funcionamiento del programa . . . . . . . . . . . . . . 58
5.1.9 Consideraciones y diferencias entre el método desarrollado y la alter-
nativa preexistente . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

6 Conclusiones y Recomendaciones 61
6.1 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2 Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.3 Aportes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

Referencias Bibliográcas 62
A1 Anexos: Grácas Resultados de los Entrenamientos 67
A2 Anexos: Imágenes de los Resultados de las Redes Entrenadas 80
A3 Anexos: Imágenes Resultados Validaciones de las imágenes Ground Truth
y las Máscaras Predichas 93
A4 Anexos: Ejemplos Resultados del Programa 96
A5 Anexos: Manual de Usuario 98
A5.1 Manual de Usuario (CometScanner) . . . . . . . . . . . . . . . . . . . . . . 98
A5.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
A5.1.1.1 Descripción . . . . . . . . . . . . . . . . . . . . . . . . . 98
A5.1.1.2 Propósito . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A5.1.1.3 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A5.1.2 Versiones de Software Necesarias . . . . . . . . . . . . . . . . . . . 99
A5.1.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A5.1.2.2 Bibliotecas de Python . . . . . . . . . . . . . . . . . . . . 99
A5.1.3 Disponibilidad en Repositorio de GitHub . . . . . . . . . . . . . . . 100
A5.1.4 Procedimiento de Inicio . . . . . . . . . . . . . . . . . . . . . . . . 100
A5.1.5 Interfaz de Usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
A5.1.6 Instrucciones de Uso . . . . . . . . . . . . . . . . . . . . . . . . . . 101
A5.1.6.1 Selección de Archivos de Entrada . . . . . . . . . . . . . . 101
A5.1.6.2 Conguración de Parámetros . . . . . . . . . . . . . . . . 102
A5.1.6.3 Procesamiento de la Imagen . . . . . . . . . . . . . . . . 102
A5.1.6.4 Resultados Generados . . . . . . . . . . . . . . . . . . . . 104
A5.1.6.5 Guardar Resultados . . . . . . . . . . . . . . . . . . . . . 105
A5.1.6.6 Contenido del Archivo TIFF . . . . . . . . . . . . . . . . . 106
A5.1.6.7 Contenido del Archivo Excel . . . . . . . . . . . . . . . . . 107
A5.1.6.8 Mensaje de Conrmación . . . . . . . . . . . . . . . . . . 107
A5.1.6.9 Proceso Concluido . . . . . . . . . . . . . . . . . . . . . . 108
A5.1.6.10 Procesamiento de Imágenes Adicionales . . . . . . . . . . 108
A5.1.6.11 Videos de Soporte . . . . . . . . . . . . . . . . . . . . . . 108
A5.1.7 Solución de Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 109
A5.1.7.1 Ejecución sin importar imagen y selección de carpeta sin im-
portar imagen . . . . . . . . . . . . . . . . . . . . . . . . 109
A5.1.8 FAQ (Preguntas frecuentes) . . . . . . . . . . . . . . . . . . . . . . 111

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. vi


A5.1.9 Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
A5.1.10Recursos adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . 111

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. vii


Lista de Figuras

1.1 Segmentos de la célula del Ensayo Cometa. . . . . . . . . . . . . . . . . . . 4


1.2 Determinación de h-domos en una imagen I en escala de grises. . . . . . . . 8
1.3 Comparación de 4-conectividad con 8-conectividad. . . . . . . . . . . . . . . 10
1.4 Fórmula para el cálculo del IoU. . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Segmentación Semántica empleando One Hot Encoding a partir de una imagen
RGB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Imagen y píxeles etiquetados. . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7 Arquitectura U-Net (ejemplo para 32x32 píxeles en la resolución más baja).
Cada recuadro azul corresponde a un mapa de características de múltiples
canales. El número de canales se indica en la parte superior del recuadro. El
tamaño en x-y se proporciona en la esquina inferior izquierda del recuadro. Los
recuadros blancos representan mapas de características copiados. Las echas
indican las diferentes operaciones. . . . . . . . . . . . . . . . . . . . . . . . 14
1.8 (a) UNet++ consta de un codicador y un decodicador que están conecta-
dos a través de una serie de bloques convolucionales densos anidados. La idea
principal detrás de UNet++ es reducir la brecha semántica entre los mapas
de características del codicador y del decodicador antes de la fusión. Por
0,0 1,3
ejemplo, la brecha semántica entre (X ,X ) se supera utilizando un bloque
denso de convolución con tres capas de convolución. En el resumen gráco, el
negro indica el U-Net original, el verde y el azul muestran bloques de convolu-
ción densa en las vías de omisión, y el rojo indica la supervisión profunda. Los
componentes rojo, verde y azul distinguen UNet++ de U-Net. (b) Análisis
detallado de la primera vía de omisión de UNet++. (c) UNet++ puede ser
podado en el momento de la inferencia, si se entrena con supervisión profunda. 15
1.9 Se mejora DeepLabv3, que utiliza el módulo de agrupación espacial piramidal
(a), con la estructura codicador-decodicador (b). El modelo propuesto,
DeepLabv3+, contiene información semántica rica del módulo codicador,
mientras que los límites detallados del objeto son recuperados por el módulo
decodicador simple pero efectivo. El módulo codicador nos permite extraer
características a una resolución arbitraria mediante la aplicación de convolución
atrous (c). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.10 DeepLabv3+, extiende DeepLabv3 al emplear una estructura codicador-decodicador.
El módulo de codicador codica información contextual a múltiples escalas
mediante la aplicación de convolución atrous en escalas múltiples, mientras que
el módulo de decodicador, simple pero efectivo, perfecciona los resultados de
segmentación a lo largo de los límites de los objetos. . . . . . . . . . . . . . 17

viii
1.11 La convolución separable en profundidad de 3x3 descompone una convolución
estándar en (a) una convolución en profundidad (aplicando un solo ltro para
cada canal de entrada) y (b) una convolución puntual (combinando las salidas
de la convolución en profundidad a través de los canales). En este trabajo, se
explora la convolución separable atrous donde la convolución atrous se adopta
en la convolución en profundidad, como se muestra en (c) con tasa = 2. . . 17
1.12 Arquitectura LinkNet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.13 Módulos de convolución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.14 Visión general de la Red de Atención Piramidal. Se utilizó ResNet-101 para
extraer características densas. Luego se realizó FPA y GAU para extraer predic-
ciones precisas a nivel de píxeles y detalles de localización. Las líneas azules y
rojas representan los operadores de muestreo descendente y muestreo ascen-
dente, respectivamente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.15 Estructura del módulo de Atención Piramidal de Características. (a) Estruc-
tura de Agrupamiento Espacial Piramidal. (b) Módulo de Atención Piramidal
de Características. '4x4, 8x8, 16x16, 32x32' indica la resolución del mapa
de características. El recuadro punteado representa la rama de agrupamiento
global. Las líneas azules y rojas representan los operadores de muestreo de-
scendente y muestreo ascendente, respectivamente. Ten en cuenta que todas
las capas de convolución están seguidas de normalización por lotes. . . . . . 20
1.16 El objetivo fue construir un modelo fundamental para la segmentación me-
diante la introducción de tres componentes interconectados: una tarea de
segmentación invocable, un modelo de segmentación (SAM) que impulsa la
anotación de datos y permite la transferencia de cero disparos a una variedad
de tareas mediante la ingeniería de indicaciones, y un motor de datos para
recopilar SA-1B, el conjunto de datos de más de 1 mil millones de máscaras. 22
1.17 Visión general del Modelo de Segmentación de Cualquier Cosa (SAM). Un
codicador de imágenes robusto genera una incrustación de imagen que luego
puede consultarse de manera eciente con varios prompts de entrada para
producir máscaras de objetos a velocidad amortizada en tiempo real. Para
prompts ambiguos que corresponden a más de un objeto, SAM puede generar
múltiples máscaras válidas y puntuaciones de conanza asociadas. . . . . . . 22

3.1 Marcación de cabezas. (a) Imagen Original (Canal Verde). (b) Cabezas. . . 30
3.2 Detección de cabezas traslapadas. (a) Imagen etiquetada usando conectividad
de tipo 8. (b) Imagen etiquetada en pseudo-color de acuerdo a su área donde
las regiones más grandes aparecen en blanco. (c) Cabezas traslapadas. . . . 30
3.3 Eliminación de cabezas traslapadas. (a) Cabezas. (b) Cabezas traslapadas.
(c) Cabezas aisladas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Marcación de cometas completos. (a) Imagen Original (Canal Verde). (b)
Cometas binarizados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Marcación de colas. (a) Cometas binarizados. (b) Cabezas. (c) Colas obtenidas. 31
3.6 Máscara nal de células cometas. . . . . . . . . . . . . . . . . . . . . . . . 32
3.7 Análisis de componentes de color de imagen cometa. (a) Imagen Original. (b)
Canal Rojo. (c) Canal Verde. (d) Canal Azul. . . . . . . . . . . . . . . . . . 32
3.8 Perl de la sección marcada en amarillo de la imagen en canal verde. (a) Perl.
(b) Domos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. ix


3.9 Resultados obtenidos con diferentes valores de h. (a) Canal Verde. (b) h = 65.
(c) h = 140. (d) h = 200. (e) h = 207. (f ) h = 215. . . . . . . . . . . . . 33
3.10 Diagrama de arquitectura U-Net empleando ResNet50 como codicador. . . 35
3.11 Diagrama de arquitectura UNet++ empleando ResNet50 como codicador. . 36
3.12 Diagrama de arquitectura DeepLabV3+ empleando ResNet50 como codicador. 37
3.13 Diagrama de arquitectura LinkNet empleando ResNet50 como codicador. . 37
3.14 Diagrama de arquitectura PAN empleando ResNet50 como codicador. . . . 38
3.15 Errores encontrados en las imágenes Ground Truth: Cabezas traslapadas, colas
superpuestas y partículas (señalada con un círculo rojo). (a) Canal Verde. (b)
Ground Truth. (c) Máscara Predicha. . . . . . . . . . . . . . . . . . . . . . 39

4.1 Resultados SAM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46


4.2 Binarización Imágenes. (a) Imagen GroundTruth. (b) Imagen GroundTruth
binarizada. (c) Imagen predicha. (d) Imagen predicha binarizada. . . . . . . 47
4.3 Mínimo y Máximo. (a) Mínimo entre imágenes binarizadas. (b) Máximo entre
imágenes binarizadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4 Error del modelo y conjunción. (a) Imagen resultante del error del modelo.
(b) Conjunción entre las dos imágenes. . . . . . . . . . . . . . . . . . . . . 48
4.5 Máscaras. (a) Imagen Ground Truth. (b) Imagen Predicha. (c) Máscara
Investigador 1. (d) Máscara Investigador 2. (e) Máscara Investigador 3. . . . 49
4.6 Imágenes Binarizadas. (a) Imagen Ground Truth. (b) Imagen Predicha. (c)
Máscara Investigador 1. (d) Máscara Investigador 2. (e) Máscara Investigador
3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.7 Imagen Ground Truth con las de los investigadores. . . . . . . . . . . . . . . 50
4.8 Imagen Predicha con las de los investigadores. . . . . . . . . . . . . . . . . 50
4.9 Imagen Ground Truth vs Imagen Predicha. . . . . . . . . . . . . . . . . . . 50
4.10 (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.11 (a) Imagen Original (Canal Verde). (b) Imagen resultante del método. (c)
Imagen resultante de OpenComet. . . . . . . . . . . . . . . . . . . . . . . . 53
4.12 (a) Imagen Original (Canal Verde). (b) Imagen resultante del método. (c)
Imagen resultante de OpenComet. . . . . . . . . . . . . . . . . . . . . . . . 53
4.13 (a) Imagen Original (Canal Verde). (b) Imagen resultante del método. (c)
Imagen resultante de OpenComet. . . . . . . . . . . . . . . . . . . . . . . . 53

A1.1 Grácas y Salida Entrenamientos Fase 1. (IoU Score vs Dice Loss) . . . . . 68


A1.2 Grácas y Salida Entrenamientos F215. (IoU Score vs Dice Loss) . . . . . . 69
A1.3 Grácas y Salida Entrenamientos F215. (IoU Score vs Dice Loss) . . . . . . 70
A1.4 Grácas y Salida Entrenamientos F215. (IoU Score vs Dice Loss) . . . . . . 71
A1.5 Grácas y Salida Entrenamientos h-domo 65. (IoU Score vs Dice Loss) . . . 72
A1.6 Grácas y Salida Entrenamientos h-domo 140. (IoU Score vs Dice Loss) . . 73
A1.7 Grácas y Salida Entrenamientos h-domo 207. (IoU Score vs Dice Loss) . . 74
A1.8 Grácas y Salida Entrenamientos h-domo 215. (IoU Score vs Dice Loss) . . 75
A1.9 Grácas y Salida Entrenamientos Fase 3. (IoU Score vs Dice Loss) . . . . . 76
A1.10Grácas y Salida Entrenamientos Fase 3. (IoU Score vs Dice Loss) . . . . . 77
A1.11Grácas y Salida Entrenamientos Fase 4. (IoU Score vs Dice Loss) . . . . . 78
A1.12Grácas y Salida Entrenamientos Fase 4. (IoU Score vs Dice Loss) . . . . . 79

A2.1 Salidas Entrenamientos de la Fase 1. . . . . . . . . . . . . . . . . . . . . . 81

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. x


A2.2 Salidas Entrenamientos 1 al 5 de la Fase 2. . . . . . . . . . . . . . . . . . . 82
A2.3 Salidas Entrenamientos 6 al 10 de la Fase 2. . . . . . . . . . . . . . . . . . 83
A2.4 Salidas Entrenamientos 11 al 15 de la Fase 2. . . . . . . . . . . . . . . . . . 84
A2.5 Salidas Entrenamientos realizados con imágenes procesadas con h-domo 215. 85
A2.6 Salidas Entrenamientos realizados con imágenes procesadas con h-domo 207. 86
A2.7 Salidas Entrenamientos realizados con imágenes procesadas con h-domo 140. 87
A2.8 Salidas Entrenamientos realizados con imágenes procesadas con h-domo 65. 88
A2.9 Salidas Entrenamientos 1 al 5 de la Fase 3 . . . . . . . . . . . . . . . . . . 89
A2.10Salidas Entrenamientos 6 al 10 de la Fase 3 . . . . . . . . . . . . . . . . . . 90
A2.11Salidas Entrenamientos 1 al 5 de la Fase 4. . . . . . . . . . . . . . . . . . . 91
A2.12Salidas Entrenamientos 6 al 10 de la Fase 4. . . . . . . . . . . . . . . . . . 92

A3.1 Resultados de validación IoU. . . . . . . . . . . . . . . . . . . . . . . . . . 94


A3.2 Resultados de validación IoU. . . . . . . . . . . . . . . . . . . . . . . . . . 95

A4.1 (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
A4.2 (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

A5.1 Interfaz Pantalla Inicial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98


A5.2 Elementos de la Interfaz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
A5.3 Presionar el botón "INPUT FILES". . . . . . . . . . . . . . . . . . . . . . . 101
A5.4 Seleccionar la imagen a cargar. . . . . . . . . . . . . . . . . . . . . . . . . 101
A5.5 Establecer el valor de h-domo. . . . . . . . . . . . . . . . . . . . . . . . . . 102
A5.6 Barra de progreso en 0%. . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
A5.7 Barra de progreso en 100% y mensaje de proceso completado. . . . . . . . . 103
A5.8 Presionar el botón "RUN". . . . . . . . . . . . . . . . . . . . . . . . . . . 104
A5.9 Imagen resultante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
A5.10Mensaje de resultados generados. . . . . . . . . . . . . . . . . . . . . . . . 105
A5.11Botón para seleccionar la carpeta de salida. . . . . . . . . . . . . . . . . . . 105
A5.12Carpeta a seleccionar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
A5.13Archivos guardados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
A5.14Imagen guardada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
A5.15Archivo Excel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
A5.16Mensaje de resultados guardados. . . . . . . . . . . . . . . . . . . . . . . . 108
A5.17Videos de ayuda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
A5.18Error de ejecución sin importar imagen. . . . . . . . . . . . . . . . . . . . . 110
A5.19Error de seleccionar directorio de salida sin importar imagen. . . . . . . . . . 110

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. xi


Lista de Tablas

3.1 Área cabezas cometas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32


3.2 Comparación de las métricas estadísticas de los canales RGB de la imagen
cometa de la Figura 3.7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Hiperparámetros utilizados para el entrenamiento de la red U-Net empleando
una ResNet50 como codicador. . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Resultados de los entrenamientos de la Fase 1. . . . . . . . . . . . . . . . . 39
3.5 Resultados de los entrenamientos de la Fase 2. . . . . . . . . . . . . . . . . 40
3.6 Resultados IoU Score de entrenamientos para los valores de h-domo (%). . . 41
3.7 Resultados Dice loss de entrenamientos para los valores de h-domo (%). . . 41
3.8 Distribución de imágenes en conjuntos de entrenamiento, validación y testeo
en la Fase 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.9 Tipos de daño. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.1 Resultados de los entrenamientos de la Fase 3. . . . . . . . . . . . . . . . . 44


4.2 Resultados de los entrenamientos de la Fase 4. . . . . . . . . . . . . . . . . 45
4.3 Resultados comprobación IoU entre las máscaras de los investigadores y la
imagen Ground Truth. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4 Resultados comprobación IoU entre las máscaras de los investigadores y la
imagen Ground Truth con la máscara predicha. . . . . . . . . . . . . . . . . 51
4.5 Datos de las células cometa. . . . . . . . . . . . . . . . . . . . . . . . . . . 52

A3.1 Resultados comprobación IoU entre las imágenes Ground Truth y las máscaras
predichas por el modelo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

A4.1 Datos de las células. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96


A4.2 Datos de las células. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

xii
Introducción

Las enfermedades no transmisibles (ENT), constituyen la principal causa de morbilidad y


mortalidad a nivel mundial. A diferencia de las enfermedades infecciosas agudas, las ENT se
desarrollan de forma gradual y persistente, sin ser causadas por agentes patógenos externos.
Entre las más prevalentes encontramos las enfermedades cardiovasculares, respiratorias cróni-
cas, el cáncer y la diabetes. Cada año, las ENT cobran la vida de 5,5 millones de personas
en América y 41 millones a nivel global, lo que representa un alarmante 71% del total de
muertes registradas en el mundo [1]. Esta magnitud del problema exige la implementación de
estrategias de prevención, control y tratamiento ecaces.

Las ENT comparten diversos factores de riesgo, como el tabaquismo, la inactividad física, la
alimentación no saludable y el consumo excesivo de alcohol. La reducción de la exposición a
estos factores es fundamental para prevenirlas. Entre las estrategias más efectivas se encuen-
tran la promoción de estilos de vida saludables, la educación sanitaria, el tamizaje y detección
temprana, y el fortalecimiento de los sistemas de salud para garantizar el acceso universal a
la atención médica de calidad.

En el año 2022, el Instituto Nacional de Cancerología (INC) reportó 6.387 casos nuevos de
cáncer, de los cuales el 39,8% correspondió a adultos mayores de 65 años. Si bien cerca
del 90% de estos pacientes recibieron tratamiento en el INC, un 32% no lo recibió debido a
diversas razones, como la solicitud de una segunda opinión médica o la falta de continuidad
en la atención. Lamentablemente, el INC certicó 1.262 defunciones ese mismo año, siendo
el cáncer de estómago, colon y recto en hombres, y mama y cuello uterino en mujeres, las
principales causas. Esta información se basa en datos del Registro Institucional de Cáncer y
registros de mortalidad del INC del año mencionado [2].

El cáncer no se origina por una única causa, sino que es el resultado de múltiples factores. La
comunidad cientíca concuerda en que el cáncer surge a partir de cambios en los genes que
controlan el crecimiento y la muerte celular normal. Actualmente, se considera que la mayoría
de los cánceres se originan por la exposición a factores de riesgo relacionados con el estilo de
vida y el entorno, los cuales pueden alterar genes normales y propiciar la aparición del cáncer
[3].

En este contexto, resulta crucial combatir estas enfermedades oportunamente para reducir la
tasa de mortalidad a nivel nacional e internacional. Esto implica implementar métodos para
la detección y análisis temprano de células dañadas.

La técnica de electroforesis en gel de células individuales, también conocido en la literatura


como "Ensayo Cometa", es uno de los métodos más utilizados para la detección de daño
en el ADN en la biología molecular y celular. Fue creado por Ostling y Johansson en 1984
y posteriormente evolucionó para poder proporcionar una medición relativamente precisa del

1
nivel de fragmentación del ADN. La acumulación de daños en el ADN es el principal factor al
proceso de envejecimiento siológico y al desarrollo del cáncer. Las radiaciones ionizantes, nu-
merosas toxinas exógenas y algunos productos del metabolismo celular normal pueden alterar
el material genético de diversas formas [4]. El Ensayo Cometa se dene como una prueba de
laboratorio que estudia el daño del material genético en seres vivos infringido por diferentes
agentes químicos, físicos y biológicos [5]. Este método es útil para evaluar la ecacia de
tratamientos terapéuticos y la respuesta del organismo ante diferentes tipos de estrés celular.
Es un procedimiento conable para la detección y evaluación de la capacidad regenerativa en
el ADN, lo cual se visualiza al teñir con materiales uorescentes las células procesadas por
el Ensayo Cometa; El material genético expuesto se adhiere al colorante, permitiendo obser-
var los resultados del experimento en imágenes provenientes de un microscopio con cámara
integrada (microscopía) para el análisis estadístico del estado del ADN. Como resultado del
Ensayo Cometa, existen dos partes fundamentales que se podrían presentar en la estructura de
las células de ADN procesadas: Un núcleo, denominado cabeza del cometa, que contiene todo
el material genético que resistió al daño inducido durante la prueba; y una cola, denominada
cola del cometa, que representa la porción desplazada del núcleo por no poseer la suciente
estabilidad genómica [6, 7, 8, 9, 10, 11, 12, 13].

Desafortunadamente, la falta de automatización es una desventaja signicativa de esta técnica,


y algunos investigadores trabajan en formas de integrarla con las tecnologías y técnicas de
procesamiento de imágenes actuales.

La implementación de Inteligencia Articial (IA) en el análisis de imágenes del Ensayo Cometa


ofrece una serie de ventajas, entre las que se incluyen:

• Automatización: Permite automatizar muchas de las tareas involucradas en el análisis


de imágenes, lo que reduce el tiempo y el esfuerzo necesarios.

• Precisión: Proporciona resultados más precisos que el análisis manual.

• Objetividad: Reduce el sesgo humano en el análisis de imágenes.

Algunas de las aplicaciones especícas de la IA en el análisis de imágenes del Ensayo Cometa


incluyen:

• Segmentación de células: Puede utilizarse para identicar y segmentar las células en


una imagen. Esto es una tarea importante, ya que permite aislar las células individuales
para su análisis.

• Medición de la longitud de la cola: Es posible emplearla para medir la longitud de la


cola del cometa, que es un indicador de la cantidad de daño al ADN.

• Identicación de patrones de daño: Es útil para encontrar patrones de daño al ADN,


los cuales proporcionan información sobre el tipo de agente que causó el daño.

La IA es una herramienta prometedora para el análisis de imágenes del Ensayo Cometa. Su


implementación puede mejorar la precisión, eciencia y objetividad de este análisis, para así
tener un impacto signicativo en el estudio del daño al ADN y sus efectos en la salud.

El Procesamiento Digital de Imágenes desempeña un papel crucial en el análisis del Ensayo


Cometa, mejorando la calidad y claridad de las imágenes para una evaluación precisa del
daño al ADN. Las técnicas incluyen preprocesamiento para eliminar imperfecciones, mejora de
imagen para resaltar características como las colas del cometa, segmentación para identicar

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 2


áreas afectadas y extracción precisa de características. Además, las técnicas de Aprendizaje de
Máquinas, especialmente las Redes Neuronales Convolucionales (CNN), han revolucionado el
campo. Estas redes pueden reconocer patrones complejos en las imágenes del Ensayo Cometa
y automatizar el análisis, acelerando la velocidad y reduciendo errores humanos. Al aprender
de grandes conjuntos de datos, las CNN identican y cuantican el daño en el ADN con
precisión, incluso capturando sutilezas invisibles al ojo humano. Esta combinación transforma
el Ensayo Cometa en una herramienta poderosa para la genómica y la toxicología, permitiendo
una comprensión profunda de los efectos de diversas sustancias en el material genético y sus
efectos en la salud.

Este estudio reviste importancia debido a que muchos trabajadores expuestos a agentes quími-
cos son propensos a desarrollar diversos tipos de enfermedades no transmisibles (ENT) debido
al desconocimiento de las normativas, la ignorancia o el incumplimiento de las normas de
seguridad y salud en el trabajo. Por ende, en colaboración con la Ponticia Universidad
Javeriana de Cali, el objetivo principal es:

Desarrollar un nuevo método para la detección y conteo automático de células cometas en

imágenes de microscopía.

Estas imágenes son obtenidas de linfocitos de pintores de automóviles. Para cumplir con el
mencionado objetivo se denieron tres objetivos especícos:

1. Depurar y procesar imágenes de células cometas.

2. Desarrollar y evaluar diferentes técnicas de aprendizaje de máquinas y procesamiento


digital de imágenes para la medición, clasicación y conteo de las células cometas.

3. Validar los resultados obtenidos en el proyecto con los resultados obtenidos a mano.

La metodología empleada para cumplir con los objetivos propuestos fue desarrollar una inves-
tigación bibliográca con el propósito de conocer los avances del Ensayo Cometa, así mismo
indagar sobre las técnicas y herramientas de vanguardia enfocadas en este ámbito, con esto
se logra percibir cual es el nivel tecnológico, fortalezas y áreas de mejora. Posteriormente, se
realiza el preprocesamiento a un banco de imágenes de microscopía generadas por el Ensayo
Cometa, dichas imágenes fueron otorgadas y adquiridas por la Ponticia Universidad Javeri-
ana de Cali, este preprocesamiento involucra la implementación de técnicas para la reducción
de ruido, segmentación, etiquetado, mejora a las imágenes y otros nes. Continuo a este
proceso y en base a la bibliografía anteriormente consultada, se lleva a cabo la selección
de los modelos y algoritmos de Aprendizaje de Máquinas capaces de suplir correctamente los
propósitos y se realiza la modicación, entrenamiento y validación de algunas arquitecturas de
redes neuronales convoluciones. Finalmente, se construye el programa que es capaz de extraer
la información útil para los expertos sobre el ADN de las células en las imágenes.

Este documento se organiza en diferentes capítulos. En el capítulo 1 se presenta el marco


teórico. En el capítulo 2 se presenta el estado del arte sobre los últimos avances de las
técnicas y herramientas especializadas en el análisis de imágenes del Ensayo Cometa. En el
capítulo 3 se describen los materiales empleados para el desarrollo del proyecto y se expone
la metodología del mismo, en donde se describe el proceso para la construcción de la nueva
técnica. En el capítulo 4 se muestran los resultados obtenidos. En el capitulo 5 se presenta la
discusión sobre los resultados obtenidos y así mismo las limitaciones existentes. Por último,
en el capítulo 6 se presentan las conclusiones y recomendaciones.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 3


Capítulo 1
Marco Teórico

1.1 Ensayo Cometa

La base de este Ensayo radica en el fenómeno de que los pequeños fragmentos de ADN
dañado tienden a crear cavidades en la estructura del nucleoide cuando se exponen a un campo
eléctrico en una suspensión de agarosa. Estos fragmentos forman un rastro especíco ("Cola
del cometa") en las cercanías del nucleoide, cuya uorescencia se puede medir para cuanticar
de manera indirecta la cantidad de ADN dañado. El Ensayo del Cometa es relativamente
simple, no requiere recursos materiales extensos y ha sido validado y probado en muchas
ocasiones [14, 15, 16].

Figura 1.1: Segmentos de la célula del Ensayo Cometa.

Fuente: Autor (2024)

1.1.1 Desarrollo del método


El concepto de electroforesis de microgeles fue introducido por primera vez en 1984 por Ostling
y Johanson como un método para medir roturas de una sola hebra del ADN que causaban
relajación de las superhélices del ADN. Una versión modicada fue publicada por Singh y
colegas en 1988, que utilizaba condiciones alcalinas. La idea era combinar la electroforesis
del gel de ADN con la microscopía de uorescencia para visualizar la migración de las he-
bras de ADN desde células individuales embebidas en agarosa. Si el ADN, que tiene carga
negativa, contiene roturas, las súper hélices de ADN se relajan y los extremos rotos pueden
migrar hacia el ánodo durante una breve electroforesis (Cola del cometa). Si el ADN está

4
Marco Teórico

indemne, la falta de extremos libres y el gran tamaño de los fragmentos impiden la migración
(Cabeza del cometa) (Ver Figura 1.1). La determinación de la cantidad relativa de ADN que
migraba proporcionaba una forma sencilla de medir el número de roturas de ADN en una
célula individual. Aunque se introdujeron métodos igualmente sensibles para la detección de
roturas de una sola hebra del ADN a mediados de la década de 1970, tres hechos (además
del atractivo evidente de 'ver' el ADN dañado) hicieron que este método fuera atractivo.
En primer lugar, solo se necesitaban alrededor de mil células. En segundo lugar, las células
no necesitaban ser marcadas con un radioisótopo, lo que permitía la medición del daño en
cualquier célula nucleada. Quizás lo más importante, el método podía utilizarse para medir
las variaciones en la respuesta a agentes dañinos del ADN entre células de la misma población
expuesta. En 1990, se introdujo una modicación del método original de Ostling y Johanson
y se denominó "Ensayo del Cometa" por la apariencia del ADN de una célula individual. La
cabeza del cometa contenía el ADN de alto peso molecular y la cola del cometa contenía los
extremos líderes de los fragmentos en migración. Estos se midieron en tiempo real a partir de
imágenes digitalizadas utilizando software desarrollado para este propósito. El momento de la
cola, una medida tanto de la cantidad de ADN en la cola como de la distribución del ADN en
la cola, se convirtió en un descriptor común junto con la longitud de la cola y el porcentaje
de ADN en la cola [17].

1.1.1.1 Variaciones del método

Aunque existen varios protocolos para preparar portaobjetos, lisar células, realizar electro-
foresis y teñir los portaobjetos, los resultados son generalmente similares para las células de
mamíferos utilizando la mayoría de los métodos publicados. Se recomienda un período de
lisis durante la noche para lograr una sensibilidad y reproducibilidad óptimas, aunque también
hay ventajas en completar el protocolo en un tiempo más corto. Para la biomonitorización,
es crucial estandarizar los protocolos y métodos de análisis del Ensayo del Cometa, cuyas re-
comendaciones han evolucionado a partir de varios talleres y grupos de trabajo. Las medidas
de daño del ADN mediante este ensayo generalmente no siguen una distribución normal.

Cuando el objetivo es medir la heterogeneidad en el daño del ADN dentro de una población,
se analizan más cometas y se modican los métodos de análisis de datos. Aún persiste el
debate sobre qué descriptor del cometa puede describir mejor los resultados. El porcentaje de
ADN en la cola, la longitud de la cola (solo a niveles bajos de daño) y el momento de la cola
(que es el porcentaje de ADN en la cola multiplicado por la distancia entre las medias de las
distribuciones de la cabeza y la cola) son todas medidas útiles. A continuación, se describen
dos variantes del protocolo del cometa:

• El primer método detecta roturas de hebra sencilla, roturas de doble hebra y sitios lábiles
al álcali en el ADN. Un tiempo de lisis prolongado se recomienda para permitir que el
ADN desnaturado se desenrolle de los puntos de rotura, aunque tiempos más cortos
son sucientes para detección inicial. Se pueden realizar modicaciones para detectar
entrecruzamientos del ADN y daño en las bases.

• El segundo procedimiento, realizado en condiciones neutras, detecta solo roturas de


doble hebra del ADN. Puede conrmarse mediante el tratamiento con peróxido de
hidrógeno, que produce un exceso de roturas de hebra sencilla frente a las de doble
hebra, incluso a concentraciones milimolares. Aunque el método original de Ostling
y Johanson utilizaba lisis neutra, estaba limitado a la detección de roturas de hebra

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 5


Marco Teórico

sencilla en niveles de daño más bajos. La versión descrita aquí puede medir roturas de
doble hebra en un rango de aproximadamente 50 a 10.000 roturas por célula.

1.1.2 Aplicaciones del método


Desde el desarrollo inicial del Ensayo del Cometa, se han realizado esfuerzos para mejorar
la sensibilidad y conabilidad del ensayo, ampliar las aplicaciones para analizar varios tipos
de daño del ADN en diversos tipos celulares, aumentar la capacidad de manipulación de las
muestras y estandarizar los protocolos y análisis. Varias grupos realizaron esfuerzos para
optimizar la concentración de agarosa, los tampones de lisis y las tinturas de ADN.

La capacidad para medir la heterogeneidad en la respuesta a agentes dañinos para el ADN


se probó por primera vez en células expuestas al fármaco quimioterapéutico para el cáncer,
la bleomicina. Una amplia gama de aspectos de los cometas indicó que algunos núcleos
contenían grandes cantidades de roturas de hebra, mientras que otros estaban indemnes.
Posteriormente, se demostró la importancia de la heterogeneidad en el daño del ADN para
explicar la resistencia al tratamiento del cáncer en células de modelos de tumores animales y
biopsias clínicas. La capacidad para predecir la respuesta del tumor a tratamientos especícos
que causan daño en el ADN se ha demostrado ahora para varios agentes.

Gran parte del interés en este método proviene de sus aplicaciones potenciales en la biomon-
itorización humana y en la evaluación ecológica de organismos centinela expuestos a con-
taminantes ambientales. Las nuevas aplicaciones incluyen la identicación de microperlas
magnéticas de marcadores de supercie celular presentes en células incrustadas en agarosa
y la hibridación in situ con uorescencia para detectar efectos especícos de secuencia en el
ADN dañado [17].

1.1.3 Limitaciones del método


El Ensayo del Cometa es una técnica valiosa para analizar células individuales y identicar
subpoblaciones con diferentes respuestas a tratamientos citotóxicos. Sin embargo, tiene lim-
itaciones prácticas en cuanto al número de células y muestras que puede analizar. Aunque se
pueden analizar hasta 600 cometas por hora individualmente, y alrededor de 50 portaobjetos
por día utilizando sistemas automatizados, la muestra recomendada de 50 cometas puede no
ser suciente si existe una heterogeneidad signicativa en el daño del ADN dentro de una
población.

Otra limitación es la necesidad de una suspensión celular viable, ya que las muestras con
células necróticas o apoptóticas no proporcionan información precisa sobre lesiones especícas
del ADN. Se deben desarrollar métodos de desagregación de tejidos para minimizar el daño
al ADN. La interpretación de los resultados es complicada debido a la falta de una relación
simple entre el daño del ADN y el impacto biológico, ya que cada fármaco puede diferir en
términos de su efecto en el ADN. Es necesario comparar los resultados del Ensayo del Cometa
con otras medidas de daño del ADN para interpretar su relevancia biológica.

Además, la medición del daño del ADN se ve complicada por los procesos de reparación, que
pueden confundir la interpretación del daño causado por un agente genotóxico. Algunos tipos
de daño pueden repararse muy rápidamente, lo que diculta su detección en organismos vivos.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 6


Marco Teórico

Por ejemplo, las roturas de hebra inducidas por radiación ionizante pueden repararse en menos
de 30 minutos [17].

1.2 Procesamiento Digital de Imágenes

El Procesamiento Digital de Imágenes es una disciplina cientíca que se ocupa del análisis y
manipulación de imágenes digitales mediante el uso de algoritmos y técnicas computacionales.
Consiste en la aplicación de una serie de operaciones y transformaciones a las imágenes
con el objetivo de mejorar su calidad visual, extraer información relevante o realizar tareas
especícas.

1.2.1 Reconstrucción morfológica en escala de grises


La reconstrucción es un operador muy útil proporcionado por la morfología matemática [18].
Aunque se puede denir fácilmente por sí misma, a menudo se presenta como parte de un
conjunto de operadores conocidos como geodésicos [19].

La reconstrucción morfológica en escala de grises es una técnica utilizada en el procesamiento


de imágenes para extraer regiones de una imagen que tienen un valor de intensidad máximo
en comparación con sus vecinos. Esta técnica se basa en la superposición de una imagen de
marcador y una máscara, y se utiliza para identicar regiones de interés en una imagen, como
máximos regionales y domos. La reconstrucción morfológica en escala de grises se puede
denir formalmente de diferentes maneras, pero todas las deniciones se basan en la idea de
que la reconstrucción de una máscara a partir de una imagen de marcador es la unión de las
componentes conectadas de la máscara que tienen al menos un píxel en común con la imagen
de marcador.

La reconstrucción en escala de grises es una herramienta útil para tareas de ltrado y seg-
mentación de imágenes. Por ejemplo, se puede utilizar para eliminar el ruido de una imagen
mediante la eliminación de regiones de baja intensidad que no son relevantes para la imagen.
También se puede utilizar para separar objetos en una imagen que tienen diferentes niveles de
intensidad, lo que puede ser benecioso para la segmentación de imágenes. Además, la re-
construcción en escala de grises se puede emplear para la detección de bordes y la eliminación
de artefactos de imagen, como sombras y reejos. En general, la reconstrucción en escala de
grises es una herramienta versátil que puede ser aplicada en una amplia variedad de tareas de
procesamiento de imágenes [20].

1.2.2 Extracción de máximos regionales y domos


Los máximos y mínimos regionales de una imagen en escala de grises son los puntos de la
imagen que tienen los valores de intensidad más altos y más bajos en su vecindario. La técnica
de reconstrucción en escala de grises se puede utilizar para extraer estos máximos y mínimos
regionales de una imagen. La reconstrucción en escala de grises se basa en la idea de que una
imagen se puede reconstruir a partir de su erosión y su dilatación. Para extraer los máximos
regionales, se realiza una erosión de la imagen original con un elemento estructurante especí-
co y luego se reconstruye la imagen original utilizando la erosión resultante como máscara.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 7


Marco Teórico

Los píxeles que no cambian durante la reconstrucción son los máximos regionales. Para ex-
traer los mínimos regionales, se realiza una dilatación de la imagen original con un elemento
estructurante especíco y luego se reconstruye la imagen original utilizando la dilatación resul-
tante como máscara. Los píxeles que no cambian durante la reconstrucción son los mínimos
regionales [20].

1.2.2.1 h-domos y h-cuencas

h-domos" y "h-cuencas" son estructuras que se pueden extraer de imágenes en escala de


grises utilizando la técnica de reconstrucción en escala de grises. Un h-domo es un conjunto
de píxeles en una imagen tal que cada píxel vecino del conjunto satisface una cierta condición.
Especícamente, un h-domo es un conjunto de píxeles donde los valores de intensidad son
mayores que un cierto valor umbral h y la diferencia entre los valores de intensidad de los
píxeles en el conjunto y sus vecinos también es mayor que h. Por otro lado, una h-cuenca es
un conjunto de píxeles donde los valores de intensidad son menores que un cierto valor umbral
h y la diferencia entre los valores de intensidad de los píxeles en el conjunto y sus vecinos
también es menor que h. Estas estructuras pueden ser útiles en diversas tareas de análisis de
imágenes, como la segmentación y la extracción de características [20].

Figura 1.2: Determinación de h-domos en una imagen I en escala de grises.

Fuente: Vincent et al. (1993)

1.2.3 Ground Truth (Verdad de referencia o máscara)


El "Ground Truth" se reere a la verdad de referencia o la realidad conocida. En procesamiento
de imágenes, especialmente en tareas de segmentación y clasicación, el "Ground Truth"
o máscara es la información proporcionada manualmente que se considera como la verdad
absoluta. Por ejemplo, en un conjunto de datos de segmentación, el "Ground Truth" podría
ser la máscara de píxeles etiquetada manualmente que indica las regiones de interés en una
imagen.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 8


Marco Teórico

1.2.4 Binarización
La binarización es el proceso de convertir una imagen en escala de grises en una imagen
binaria, donde solo hay dos niveles de intensidad (por ejemplo, blanco y negro). Este proceso
implica la aplicación de un umbral para separar los píxeles en dos clases. La binarización es
útil en diversas aplicaciones, como la detección de bordes, segmentación de objetos y análisis
de formas.

• Otsu: El método Otsu se basa en seleccionar automáticamente un umbral a partir de


un histograma de niveles de gris desde el punto de vista del análisis discriminante. Esto
aborda directamente el problema de evaluar la calidad de los umbrales. Se selecciona
un umbral óptimo (o conjunto de umbrales) mediante el criterio discriminante; es decir,
maximizando la medida discriminante q (o la medida de separabilidad de las clases
resultantes en niveles de gris).

Este método se caracteriza por su naturaleza no paramétrica y no supervisada de selec-


ción de umbrales y tiene las siguientes ventajas deseables:

1. El procedimiento es muy simple; solo se utilizan los momentos acumulativos de


orden cero y primero del histograma de niveles de gris.

2. Es factible una extensión directa a problemas de multiumbralización gracias al


criterio en el que se basa el método.

3. Se selecciona automáticamente y de manera estable un umbral óptimo (o conjunto


de umbrales), no basado en la diferenciación (es decir, una propiedad local como
un valle), sino en la integración (es decir, una propiedad global) del histograma.

4. También se pueden analizar otros aspectos importantes (por ejemplo, estimación


de niveles medios de clase, evaluación de separabilidad de clases, etc.).

5. El método es bastante general: abarca un amplio ámbito de procedimientos de


decisión no supervisados.

Teniendo en cuenta estos puntos, el método sugerido en esta correspondencia puede


recomendarse como el más simple y estándar para la selección automática de umbrales
que se puede aplicar a diversos problemas prácticos. [21]

1.2.5 8-conectividad
La conectividad de los píxeles establece las relaciones entre cada píxel y sus vecinos. Se
denomina objeto o componente conectado a un conjunto de píxeles en primer plano en una
imagen binaria.

8-conectividad se reere a que los píxeles están conectados si sus bordes o esquinas se tocan.
Dos píxeles contiguos forman parte del mismo objeto si ambos están encendidos y están
conectados a lo largo de la dirección horizontal, vertical o diagonal [22].

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 9


Marco Teórico
Figura 1.3: Comparación de 4-conectividad con 8-conectividad.

Fuente: MathWorks

1.2.6 Intersección sobre la Unión IoU


Denición y concepto básico: La IoU es una medida de superposición entre dos conjuntos,
que se utiliza principalmente para evaluar la precisión de las detecciones de objetos en imágenes
o vídeos. Se calcula como el área de la intersección de dos regiones delimitadas por objetos
dividida por el área de su unión (Ver Figura 1.4).

Figura 1.4: Fórmula para el cálculo del IoU.

Fuente: Autor (2024)

Donde "Área Intersección" es el área de la región donde los objetos se superponen, y "Área
Unión" es el área total cubierta por ambos objetos.

Interpretación: La IoU proporciona una medida de qué tan bien coinciden las predicciones
de detección de objetos con las verdaderas ubicaciones de los objetos en una imagen. Un valor
de IoU cercano a 1 indica una gran superposición entre las regiones, lo que sugiere una alta
precisión en la detección. Por otro lado, un valor cercano a 0 indica una baja superposición
y, por lo tanto, una mala precisión en la detección.

Aplicaciones: La IoU se utiliza ampliamente en tareas de visión por computadora, como la


detección y segmentación de objetos en imágenes médicas, vigilancia de vídeo, conducción
autónoma, reconocimiento facial, entre otros. Es una métrica fundamental para evaluar y
comparar algoritmos de detección de objetos.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 10


Marco Teórico

1.3 Aprendizaje de Máquinas

El Aprendizaje de Máquinas, un subcampo de la Inteligencia Articial, se enfoca en desar-


rollar algoritmos y modelos que permiten a las computadoras aprender patrones y tomar
decisiones sin ser programadas explícitamente. Estas técnicas han revolucionado numerosas
disciplinas, desde reconocimiento de voz y visión por computadora hasta diagnósticos médi-
cos y recomendaciones en línea. El Aprendizaje de Máquinas se basa en varios conceptos
fundamentales:

El Aprendizaje de Máquinas es un campo de la Inteligencia Articial que se enfoca en de-


sarrollar algoritmos que permiten a las computadoras aprender patrones a partir de datos.
Estos algoritmos mejoran su rendimiento en tareas especícas a medida que son expuestos
a más datos, permitiendo a las máquinas realizar tareas complejas sin ser programadas ex-
plícitamente para cada tarea. En el aprendizaje supervisado, los modelos se entrenan con
datos etiquetados, mientras que en el aprendizaje no supervisado, los modelos encuentran
patrones sin etiquetas en los datos. El aprendizaje por refuerzo implica que los agentes toman
decisiones para maximizar recompensas a lo largo del tiempo.

1.3.1 One Hot Encoding


La técnica de codicación Label Encoding constituye una manera simple de otorgar valores
numéricos a las diversas categorías de una variable categórica. No obstante, exhibe una
limitación signicativa, ya que ciertos algoritmos de aprendizaje automático pueden interpretar
de manera incorrecta estos valores numéricos.

Una alternativa al Label Encoding es el método de codicación llamado One Hot Encoding.
Esta estrategia consiste en crear una columna binaria (que solo puede contener los valores
0 o 1) para cada valor único que exista en la variable categórica que estamos codicando,
y marcar con un 1 la columna correspondiente al valor presente en cada registro, dejando
las demás columnas con un valor de 0. Por ejemplo, en el caso de la variable "sex" de los
pasajeros del Titanic, One Hot Encoding crearía dos columnas binarias (una para el valor
"male" y otra para el valor "female"). Para cada pasajero, se asignaría un valor de 1 a la
columna correspondiente a su género y un valor de 0 a la columna del género opuesto. De
esta manera, cada registro queda representado por un vector binario que indica la presencia o
ausencia de cada valor categórico, y se evita la posibilidad de que los algoritmos malinterpreten
los valores numéricos asignados por Label Encoding [23].

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 11


Marco Teórico
Figura 1.5: Segmentación Semántica empleando One Hot Encoding a partir de una imagen
RGB.

Fuente: Valdez et al. (2022)

1.3.2 Codicador  Decodicador


En las redes neuronales convolucionales (CNN), el codicador y el decodicador son dos
componentes clave que trabajan en conjunto para procesar y generar información a partir de
datos espaciales, como imágenes.

El codicador toma la entrada (una imagen) y la transforma en una representación de carac-


terísticas más compacta. Lo hace a través de una serie de capas convolucionales, que aplican
ltros a la imagen para detectar patrones especícos, como bordes, texturas y formas. A me-
dida que la información pasa por las capas convolucionales, la dimensión de la representación
se reduce, conservando solo las características más relevantes. La salida del codicador es
un vector de características de menor tamaño, conocido como "espacio latente". Este vector
representa una codicación de la información esencial de la imagen original.

El decodicador toma el vector de características del espacio latente y lo utiliza para reconstruir
la imagen original. Esto se logra a través de capas transconvolucionales, que aprenden a
invertir el proceso de convolución y generar una salida similar a la entrada. Además de la
reconstrucción de imágenes, el decodicador también se puede utilizar para generar nuevas
imágenes a partir de la representación aprendida en el espacio latente. [24]

1.3.3 Segmentación Semántica


La Segmentación Semántica es un algoritmo de Deep Learning que asocia una etiqueta o
categoría a cada píxel presente en una imagen. Se utiliza para reconocer un conjunto de

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 12


Marco Teórico

píxeles que conforman distintas categorías. Por ejemplo, un vehículo de conducción autónoma
necesita identicar vehículos, peatones, señales de tráco, aceras y otros elementos de la
carretera.

La Segmentación Semántica se utiliza en numerosas aplicaciones, como la conducción autónoma,


la generación de imágenes médicas y la inspección industrial.

Un sencillo ejemplo de Segmentación Semántica es la separación de las imágenes en dos clases


distintas. Por ejemplo, en la Figura 1.6, la imagen de una persona en la playa se empareja
con otra versión en la que se muestran los píxeles de la imagen segmentados en dos clases
distintas: la persona y el fondo.

Figura 1.6: Imagen y píxeles etiquetados.

Fuente: Matlab

La Segmentación Semántica no se limita a solo dos categorías. Es posible modicar el número


de categorías para clasicar el contenido de la imagen. Por ejemplo, esta misma imagen se
podría segmentar en cuatro clases: persona, cielo, agua y fondo.

1.3.4 Redes Neuronales Convolucionales


El Deep Learning implica el uso de redes neuronales con muchas capas, lo que permite capturar
representaciones complejas de datos. Las Redes Neuronales Convolucionales (CNN) son un
tipo de red profunda especialmente diseñada para imágenes. Utilizan capas convolucionales
para identicar características especícas en las imágenes, lo que las hace altamente efec-
tivas en tareas de visión por computadora, como reconocimiento de objetos y detección de
patrones.

1.3.4.1 U-Net

U-Net es una arquitectura de Red Neuronal Convolucional diseñada para la segmentación de


imágenes biomédicas. Fue presentada en un artículo cientíco en 2015 por Olaf Ronneberger,
Philipp Fischer y Thomas Brox de la Universidad de Friburgo en Alemania. La red U-Net se
ha utilizado con éxito en una variedad de tareas de segmentación de imágenes, incluyendo la
segmentación de estructuras neuronales y el seguimiento de células.

La arquitectura de la red U-Net consta de dos partes principales: una ruta de contracción (lado
izquierdo) y una ruta de expansión (lado derecho). La ruta de contracción sigue la arquitectura
típica de una red neuronal convolucional, con la aplicación repetida de dos convoluciones de
3x3, cada una seguida de una unidad lineal recticada (ReLU) y una operación de agrupación
máxima de 2x2 con un paso de 2 para el muestreo. En cada paso de muestreo, se duplica

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 13


Marco Teórico

el número de canales de características. Cada paso en la ruta de expansión consta de una


ampliación del mapa de características seguida de una convolución de 2x2 ("convolución
ascendente") que reduce a la mitad el número de canales de características, una concatenación
con el mapa de características recortado correspondiente de la ruta de contracción y dos
convoluciones de 3x3, cada una seguida de una ReLU [25]. Una ilustración de la arquitectura
se puede encontrar en la Figura 1.7

Figura 1.7: Arquitectura U-Net (ejemplo para 32x32 píxeles en la resolución más baja).
Cada recuadro azul corresponde a un mapa de características de múltiples canales. El número
de canales se indica en la parte superior del recuadro. El tamaño en x-y se proporciona
en la esquina inferior izquierda del recuadro. Los recuadros blancos representan mapas de
características copiados. Las echas indican las diferentes operaciones.

Fuente: Ronneberger et al. (2015)

1.3.4.2 UNet++

La segmentación de lesiones o anomalías en imágenes médicas exige un nivel más alto de


precisión que el deseado en imágenes naturales. Mientras que una máscara de segmentación
precisa puede no ser crítica en imágenes naturales, incluso errores marginales de segmentación
en imágenes médicas pueden llevar a una mala experiencia del usuario en entornos clínicos.
Además, una segmentación inexacta también puede provocar un cambio importante en el
diagnóstico generado por computadora. Por lo tanto, se desea idear arquitecturas de seg-
mentación de imágenes más efectivas que puedan recuperar ecazmente los detalles nos de
los objetos objetivo en imágenes médicas.

La UNet++ es una nueva arquitectura de segmentación diseñada para mejorar la precisión


en imágenes médicas. Se basa en conexiones de salto anidadas y densas para capturar con
mayor ecacia los detalles nos de los objetos en primer plano. La idea principal es enriquecer
gradualmente los mapas de características de alta resolución antes de fusionarlos con los mapas
de características semánticamente ricos correspondientes. Esto contrasta con las simples
conexiones de salto utilizadas en U-Net, que fusionan mapas de características semánticamente

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 14


Marco Teórico

diferentes. Experimentos muestran que UNet++ ofrece un rendimiento signicativamente


mejor que U-Net y wide U-Net. [26]

Figura 1.8: (a) UNet++ consta de un codicador y un decodicador que están conectados
a través de una serie de bloques convolucionales densos anidados. La idea principal detrás
de UNet++ es reducir la brecha semántica entre los mapas de características del codicador
0,0 1,3
y del decodicador antes de la fusión. Por ejemplo, la brecha semántica entre (X ,X )
se supera utilizando un bloque denso de convolución con tres capas de convolución. En
el resumen gráco, el negro indica el U-Net original, el verde y el azul muestran bloques
de convolución densa en las vías de omisión, y el rojo indica la supervisión profunda. Los
componentes rojo, verde y azul distinguen UNet++ de U-Net. (b) Análisis detallado de la
primera vía de omisión de UNet++. (c) UNet++ puede ser podado en el momento de la
inferencia, si se entrena con supervisión profunda.

Fuente: Zhou et al. (2018)

La Figura 1.8 muestra una visión general de alto nivel de la arquitectura sugerida. Como se
puede observar, UNet++ comienza con una subred de codicación o columna vertebral seguida
por una subred de decodicación. Lo que distingue a UNet++ de U-Net (los componentes
en negro en la Figura 1.8) son las vías de omisión re-diseñadas (mostradas en verde y azul)
que conectan las dos subredes y el uso de una supervisión profunda (mostrada en rojo).

1.3.4.3 DeepLabV3+

Para esta red, se consideran dos tipos de redes neuronales que utilizan el módulo de agrupación
espacial piramidal o la estructura codicador-decodicador para la segmentación semántica,
donde el primero captura información contextual rica mediante la agrupación de características
a diferentes resoluciones, mientras que el segundo es capaz de obtener límites de objetos
nítidos.

Con el objetivo de capturar información contextual en múltiples escalas, DeepLabv3 aplica


varias convoluciones atrous paralelas con diferentes tasas (llamadas Atrous Spatial Pyramid
Pooling, o ASPP), mientras que PSPNet realiza operaciones de agrupación en diferentes
escalas de cuadrícula. Aunque la última característica del mapa codica información semántica

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 15


Marco Teórico

rica, la información detallada relacionada con los límites de los objetos falta debido a la
agrupación o convoluciones con operaciones de paso dentro de la estructura de red. Esto
podría aliviarse aplicando la convolución atrous para extraer mapas de características más
densos.

Figura 1.9: Se mejora DeepLabv3, que utiliza el módulo de agrupación espacial piramidal
(a), con la estructura codicador-decodicador (b). El modelo propuesto, DeepLabv3+, con-
tiene información semántica rica del módulo codicador, mientras que los límites detallados
del objeto son recuperados por el módulo decodicador simple pero efectivo. El módulo cod-
icador nos permite extraer características a una resolución arbitraria mediante la aplicación
de convolución atrous (c).

Fuente: Chen et al. (2018)

En particular, este modelo propuesto, llamado DeepLabv3+, extiende DeepLabv3 agregando


un módulo decodicador simple pero efectivo para recuperar los límites del objeto, como se
ilustra en la Figura 1.9. La información semántica rica se codica en la salida de DeepLabv3,
con la convolución atrous permitiendo controlar la densidad de las características del codi-
cador, según el presupuesto de recursos computacionales. Además, el módulo decodicador
permite la recuperación detallada de los límites del objeto.

Las redes codicador-decodicador han demostrado su ecacia en diversas tareas de visión


por computadora, como la estimación de pose humana, detección de objetos y segmentación
semántica. Estas redes constan de un módulo de codicador para capturar información semán-
tica y un módulo de decodicador para recuperar la información espacial. Se propuso utilizar
DeepLabv3 como codicador y agregar un decodicador simple pero efectivo para mejorar las
segmentaciones.

Por otro lado, la convolución atrous es una técnica que permite controlar la resolución de las
características y ajustar el campo de visión del ltro en redes convolucionales profundas, lo
que facilita la captura de información a diferentes escalas. [27]

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 16


Marco Teórico
Figura 1.10: DeepLabv3+, extiende DeepLabv3 al emplear una estructura codicador-
decodicador. El módulo de codicador codica información contextual a múltiples escalas
mediante la aplicación de convolución atrous en escalas múltiples, mientras que el módulo de
decodicador, simple pero efectivo, perfecciona los resultados de segmentación a lo largo de
los límites de los objetos.

Fuente: Chen et al. (2018)

Figura 1.11: La convolución separable en profundidad de 3x3 descompone una convolución


estándar en (a) una convolución en profundidad (aplicando un solo ltro para cada canal
de entrada) y (b) una convolución puntual (combinando las salidas de la convolución en
profundidad a través de los canales). En este trabajo, se explora la convolución separable
atrous donde la convolución atrous se adopta en la convolución en profundidad, como se
muestra en (c) con tasa = 2.

Fuente: Chen et al. (2018)

1.3.4.4 LinkNet

Inspirados por los autoencoders, la mayoría de las técnicas existentes para la segmentación
semántica utilizan un par codicador-decodicador como núcleo de la arquitectura de su red.
Aquí, el codicador codica la información en un espacio de características, y el decodicador
mapea esta información en una categorización espacial para realizar la segmentación. A
pesar de que la segmentación semántica se orienta a aplicaciones que requieren operación en
tiempo real, irónicamente, la mayoría de las redes profundas actuales requieren un tiempo de
procesamiento excesivamente largo.

En la LinkNet, se ha intentado lograr una predicción precisa a nivel de instancia sin compro-
meter el tiempo de procesamiento de la red. Generalmente, la información espacial se pierde
en el codicador debido al pooling o la convolución estraticada, y se recupera utilizando los

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 17


Marco Teórico

índices de pooling o mediante convolución completa. Se propone y se demuestra que, en lugar


de las técnicas mencionadas anteriormente que omiten la información espacial, pasar directa-
mente la información desde el codicador al decodicador correspondiente mejora la precisión
junto con una disminución signicativa en el tiempo de procesamiento. De esta manera, se
preserva la información que de otro modo se habría perdido en cada nivel del codicador, sin
necesidad de parámetros y operaciones adicionales para volver a aprender esta información
perdida.

Figura 1.12: Arquitectura LinkNet.

Fuente: Chaurasia et al. (2017)

Figura 1.13: Módulos de convolución.

(a) Bloque codi-


cador (i). (b) Bloque decodicador (i).

Fuente: Chaurasia et al. (2017)

La arquitectura de LinkNet se presenta en la Figura 1.12. Aquí, conv signica convolu-


ción y full-conv signica convolución completa. Además, /2 indica un muestreo descendente

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 18


Marco Teórico

(downsampling) por un factor de 2, que se logra mediante una convolución estraticada, y



2 signica un aumento (upsampling) por un factor de 2. Se utiliza normalización por lotes
entre cada capa convolucional, seguida de la no linealidad ReLU. La mitad izquierda de la
red, como se muestra en la Figura 1.12, es el codicador, mientras que la mitad derecha es
el decodicador. El codicador comienza con un bloque inicial que realiza convolución en la
imagen de entrada con un núcleo de tamaño 7 × 7 y un paso de 2. Este bloque también
realiza un max-pooling espacial en un área de 3 × 3 con un paso de 2. La parte posterior del
codicador consta de bloques residuales y se representan como encoder-block(i). Las capas
dentro de estos bloques de codicación y decodicación se muestran en la Figura 1.13.

Esta nueva arquitectura de redes neuronales se distingue por la forma en que vincula cada
codicador con su decodicador correspondiente. Al conectar directamente la entrada de cada
capa del codicador a la salida de su decodicador, se busca recuperar la información espacial
perdida durante las operaciones de muestreo descendente. Esto permite que el decodicador
utilice menos parámetros al compartir el conocimiento aprendido por el codicador, lo que
resulta en una red más eciente globalmente. Esta eciencia facilita la operación en tiempo
real, lo que la hace destacar entre las redes de segmentación existentes de última generación.
[28]

1.3.4.5 PAN

Hay tres contribuciones principales en esta red. En primer lugar, se propone un módulo de
Atención Piramidal de Características para incrustar características de contexto de diferentes
escalas en un marco de predicción de píxeles basado en FCN. Luego, se desarrolla Global Atten-
tion Upsample, un módulo de decodicación efectivo para la segmentación semántica.

Figura 1.14: Visión general de la Red de Atención Piramidal. Se utilizó ResNet-101 para
extraer características densas. Luego se realizó FPA y GAU para extraer predicciones precisas
a nivel de píxeles y detalles de localización. Las líneas azules y rojas representan los operadores
de muestreo descendente y muestreo ascendente, respectivamente.

Fuente: Li et al. (2018)

Modelos recientes, como PSPNet o DeepLab, realizan agrupamiento espacial piramidal en


varias escalas de cuadrícula o aplican el módulo ASPP (Atrous Spatial Pyramid Pooling).
La convolución dilatada puede provocar la pérdida de información local y la formación de
'grillas', lo que podría ser perjudicial para la consistencia local de los mapas de características.
El módulo de agrupamiento piramidal propuesto en PSPNet pierde la localización de píxeles
durante las operaciones de agrupamiento a diferentes escalas.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 19


Marco Teórico
Figura 1.15: Estructura del módulo de Atención Piramidal de Características. (a) Estructura
de Agrupamiento Espacial Piramidal. (b) Módulo de Atención Piramidal de Características.
'4x4, 8x8, 16x16, 32x32' indica la resolución del mapa de características. El recuadro punteado
representa la rama de agrupamiento global. Las líneas azules y rojas representan los operadores
de muestreo descendente y muestreo ascendente, respectivamente. Ten en cuenta que todas
las capas de convolución están seguidas de normalización por lotes.

Fuente: Li et al. (2018)

Se propone el módulo de Atención Piramidal de Características (FPA) para extraer carac-


terísticas de varias escalas de manera efectiva, abordando las limitaciones de los vectores de
atención canal por canal. Este módulo fusiona características de tres escalas piramidales difer-
entes utilizando una estructura en forma de U similar a Feature Pyramid Network. Se emplean
convoluciones de 3x3, 5x5 y 7x7 para extraer el contexto de diferentes escalas piramidales.
La estructura piramidal integra información de diferentes escalas paso a paso para incorpo-
rar características de contexto con precisión. Además, se utiliza una rama de agrupamiento
promedio global para mejorar aún más el rendimiento del FPA. Este módulo se complementa
con la multiplicación de las características originales de la CNN por las características de aten-
ción piramidal, seguida de una convolución de 1x1. La estructura nal del módulo se muestra
en la Figura 1.15.

El módulo de Atención Piramidal de Características aprovecha la estructura piramidal espacial


para fusionar información contextual de diferentes escalas, mejorando la atención a nivel de
píxeles en los mapas de características de alto nivel. A diferencia de enfoques como PSPNet o
ASPP, que concatenan mapas de características de diferentes escalas antes de la convolución,
este módulo multiplica la información contextual con el mapa de características original a
nivel de píxel, sin aumentar signicativamente la carga computacional. [29]

1.3.4.6 ResNet

Una red residual, comúnmente conocida como ResNet, es un tipo de arquitectura de red
neuronal profunda que se destacó por su capacidad para entrenar redes mucho más profundas
y efectivas en comparación con las redes anteriores. Fue propuesta por Kaiming He, Xiangyu
Zhang, Shaoqing Ren y Jian Sun en su artículo "Deep Residual Learning for Image Recogni-
tion" en 2015. La idea central detrás de una red residual es la incorporación de conexiones
residuales o conexiones de salto (skip connections) que permiten que los datos uyan de
manera más directa a través de la red, lo que resuelve el problema de la degradación del
rendimiento a medida que se aumenta la profundidad de la red.

A continuación, algunas características clave de las redes residuales:

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 20


Marco Teórico

1. Conexiones Residuales: En lugar de que las capas aprendan a aproximar la función


identidad, las conexiones residuales permiten que los datos pasen de una capa a otra
sin modicaciones signicativas. Estas conexiones de salto añaden o combinan la salida
de una capa con la entrada de una capa subsiguiente. Esto ayuda a mitigar el problema
de desvanecimiento de gradientes y facilita el entrenamiento de redes profundas.

2. Resolución del Problema de Degradación: A medida que se agregan más capas a


una red neuronal, la capacidad de aprendizaje puede saturarse o incluso disminuir. Las
conexiones residuales permiten la creación de redes mucho más profundas sin sufrir una
degradación en el rendimiento.

3. Arquitectura apilada: Las redes residuales suelen utilizar bloques residuales que se
repiten varias veces en la arquitectura. Estos bloques contienen capas convolucionales
y conexiones residuales.

4. Rendimiento de Vanguardia: ResNet ha establecido el estado del arte en una var-


iedad de tareas de visión por computadora, como la clasicación de imágenes, detección
de objetos y segmentación semántica. También se ha utilizado en otros campos, como
el procesamiento de lenguaje natural.

5. Transferencia de Aprendizaje:Debido a su ecacia en el aprendizaje profundo, las


redes residuales se utilizan comúnmente como redes base en la técnica de transferencia
de aprendizaje, donde los modelos preentrenados se ajustan a tareas especícas.

La principal ventaja de utilizar un marco de aprendizaje residual es que facilita el entrenamiento


de redes mucho más profundas que las utilizadas previamente. Esto se logra reformulando
las capas como funciones residuales de aprendizaje en relación con las entradas de la capa,
en lugar de aprender funciones sin referencia. Los autores proporcionan evidencia empírica
exhaustiva que demuestra que estas redes residuales son más fáciles de optimizar y pueden
lograr una mayor precisión a partir de una profundidad considerablemente mayor [30].

1.3.4.7 SAM

En PLN y más recientemente en visión por computadora, los modelos fundamentales son un
desarrollo prometedor que puede realizar aprendizaje de cero y pocos disparos para nuevos
conjuntos de datos y tareas, a menudo mediante técnicas de "indicación". Inspirados en esta
línea de trabajo, se propuso la tarea de segmentación invocable, donde el objetivo es devolver
una máscara de segmentación válida dado cualquier indicación de segmentación (ver Figura
1.16a).

La tarea de segmentación invocable y el objetivo de uso del mundo real imponen restricciones
en la arquitectura del modelo. En particular, el modelo debe admitir indicaciones exibles,
debe calcular máscaras en tiempo real amortizado para permitir su uso interactivo y debe
ser consciente de la ambigüedad. Sorprendentemente, se encontró que un diseño simple
satisface estas tres restricciones: un potente codicador de imágenes calcula un incrustamiento
de imagen, un codicador de indicaciones incrusta indicaciones, y luego las dos fuentes de
información se combinan en un decodicador de máscaras liviano que predice máscaras de
segmentación. Este modelo lo exponen como el Modelo de Segmentación de Cualquier Cosa,
o SAM (ver Figura 1.16b).

Para lograr una fuerte generalización a nuevas distribuciones de datos, se encontró necesario

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 21


Marco Teórico

entrenar SAM en un conjunto grande y diverso de máscaras, más allá de cualquier conjunto
de datos de segmentación que ya exista. Mientras que un enfoque típico para los modelos
fundamentales es obtener datos en línea, las máscaras no son naturalmente abundantes y,
por lo tanto, se necesitó una estrategia alternativa. La solución fue construir un "motor de
datos", es decir, se co-desarrolló el modelo con la anotación de conjuntos de datos en bucle
cerrado del modelo (ver Figura 1.16c). El motor de datos tiene tres etapas: asistido-manual,
semi-automático y completamente automático.

Figura 1.16: El objetivo fue construir un modelo fundamental para la segmentación mediante
la introducción de tres componentes interconectados: una tarea de segmentación invocable, un
modelo de segmentación (SAM) que impulsa la anotación de datos y permite la transferencia
de cero disparos a una variedad de tareas mediante la ingeniería de indicaciones, y un motor
de datos para recopilar SA-1B, el conjunto de datos de más de 1 mil millones de máscaras.

Fuente: Kirillov et al. (2023)

SAM tiene tres componentes, ilustrados en la Figura 1.17: un codicador de imágenes, un


codicador de prompt exible y un decodicador de máscara rápido. Se basa en modelos
de visión Transformer con compensaciones especícas para el rendimiento (amortizado) en
tiempo real.

Figura 1.17: Visión general del Modelo de Segmentación de Cualquier Cosa (SAM). Un
codicador de imágenes robusto genera una incrustación de imagen que luego puede consul-
tarse de manera eciente con varios prompts de entrada para producir máscaras de objetos a
velocidad amortizada en tiempo real. Para prompts ambiguos que corresponden a más de un
objeto, SAM puede generar múltiples máscaras válidas y puntuaciones de conanza asociadas.

Fuente: Kirillov et al. (2023)

1.3.5 Algoritmos de Aprendizaje Supervisado


Los Algoritmos de Aprendizaje Supervisado son fundamentales en problemas de clasicación
y regresión. La regresión lineal, por ejemplo, encuentra la mejor línea que se ajusta a los
datos, mientras que las máquinas de vectores de soporte (SVM) encuentran un hiperplano

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 22


Marco Teórico

que separa las clases en un espacio multidimensional. Las redes neuronales, especialmente las
redes neuronales profundas, son modelos complejos que pueden capturar patrones altamente
abstractos en datos complejos.

1.3.6 Algoritmos de Aprendizaje No Supervisado


En el Aprendizaje No Supervisado, el Clustering es una técnica común. El algoritmo de k-
means es ampliamente utilizado para dividir datos en grupos, basados en similitudes. La
técnica de agrupamiento jerárquico organiza los datos en una estructura de árbol, mostrando
las relaciones de similitud entre los datos. Estos métodos son cruciales en análisis exploratorio
de datos y segmentación de mercado.

1.3.7 Aprendizaje por Refuerzo y Agentes Inteligentes


En el Aprendizaje por Refuerzo, los agentes toman decisiones secuenciales para maximizar
recompensas a largo plazo. Algoritmos como Q-learning permiten a los agentes aprender
estrategias óptimas para tareas como juegos y control de robots. Los Agentes Inteligentes
basados en Aprendizaje por Refuerzo se utilizan en aplicaciones del mundo real, como sistemas
de recomendación y vehículos autónomos.

1.3.8 Extracción de características


En muchos problemas de Aprendizaje de Máquinas, los datos brutos son demasiado complejos
para ser procesados directamente. La extracción de características implica transformar los
datos en un formato manejable y relevante para el análisis. Técnicas como el Análisis de
Fourier y el Aprendizaje de Características Automáticas son cruciales en este proceso.

1.3.9 Evaluación y Validación


Es vital evaluar la calidad del modelo. Para esto, se utilizan métricas como precisión, recall
y F1-score en clasicación, y error cuadrático medio en regresión. Además, las técnicas
de validación cruzada garantizan que el modelo sea robusto y generalice bien a datos no
vistos.

1.3.10 Desafíos y Futuro del Aprendizaje de Máquinas


El sesgo algorítmico, la interpretación de modelos complejos y la falta de datos etiquetados
son desafíos signicativos en el campo. Además, la ética en la Inteligencia Articial es cada
vez más importante, especialmente en aplicaciones como la toma de decisiones automatizada.
El futuro del Aprendizaje de Máquinas se centra en mejorar la explicabilidad de los modelos,
desarrollar algoritmos que puedan aprender con menos datos y abordar problemas éticos y de
sesgo para garantizar un desarrollo tecnológico responsable.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 23


Capítulo 2
Estado del arte

2.1 Técnicas de vanguardia

En las últimas dos décadas, ha habido un aumento en el uso de algoritmos y métodos


computacionales para automatizar el proceso de segmentación de las células en el Ensayo
Cometa.

2.1.1 Sistemas Automáticos:


• Böcker et al. (1999) [31] : Proponen un sistema que utiliza software y hardware para
procesar, segmentar y clasicar automáticamente estas imágenes. Su enfoque se basa
en la morfología matemática y emplea cómputo paralelo para acelerar el procesamiento.

El sistema se divide en tres etapas operando simultáneamente:

1. Searching and autofocus:Localiza las áreas más brillantes en la lámina del micro-
scopio, suponiendo que contienen células del Ensayo Cometa.

2. Grabbing and administration: Captura las imágenes de los cometas y las almacena
en la computadora.

3. Recognition and analysis: Realiza un ltrado de las imágenes, corrige el sombreado


y segmenta los cometas. Esto implica umbralizar globalmente las imágenes para
eliminar el ruido y umbralizar adaptativamente utilizando histéresis para determinar
el valor de umbral.

El sistema logra una especicidad del 92.7% y una sensibilidad del 95.2% en la identi-
cación de cometas en un conjunto de 500 imágenes de células del ensayo cometa. Sin
embargo, no puede reconocer cometas altamente degradados o superpuestos con otros.

• Gyori et al. (2014) [32]: Presentan una herramienta de licencia gratuita llamada Open-
Comet para la detección automática de células en imágenes del Ensayo Cometa. El
software procesa imágenes en escala de grises de células del Ensayo Cometa, o en caso
de imágenes a color, utiliza el canal de luminosidad más informativo. Aplica ltrado
de ruido, corrección de fondo, umbralización adaptativa y morfología matemática para
segmentar los cometas. Para identicar cometas superpuestos, asumen que los cometas
son regiones convexas o que tienen una orientación simétrica en relación con el eje
horizontal de la imagen. Luego, segmentan las cabezas de los cometas suponiendo que
la región más luminosa es la cabeza, pero también consideran el perl del cometa.

24
Estado del arte

El sistema logra una alta sensibilidad del 97.6% y especicidad del 92.7% en un con-
junto de 234 imágenes de células musculares de ratas. Sin embargo, requiere que las
imágenes cumplan ciertas condiciones, como una orientación especíca de los cometas,
y es sensible al ruido y manchas en las imágenes de las laminillas del microscopio.

• Vojnovic et al. (2003) [33, 34]: Desarrollaron un sistema de alto rendimiento para
procesar imágenes del Ensayo Cometa a una velocidad de un cometa por segundo,
basado en la obtención de imágenes de uorescencia (blanco) y oscuridad (negro),
junto con el pico de intensidad (p) de blanco. Utilizan umbralización para obtener
una imagen binaria de las áreas más luminosas, normalizándola y corrigiendo niveles de
grises (normalizada) para la imagen de entrada (cometa), con el umbral establecido en
el 20% del pico máximo en el histograma. Posteriormente, aplican algoritmos binarios
de región growing para separar áreas de cometas completos y emplean el algoritmo
CHARM (Compact Hough And Radial Map) para delimitar la cabeza, combinando la
transformada compacta de Hough y la orientación de los píxeles en los bordes de la
cabeza. El sistema calcula tres parámetros: momento Kent del cometa, porcentaje de
ADN en la cabeza y cola, y longitud de la cola.

2.1.2 Sistemas Semi-Automáticos:


• Kiziltan y Yurtcu (2015) [11]: Presentaron un sistema semi-automático para el análisis
de células en el Ensayo Cometa, comparándolo con el software gratuito CometAssay.
Su programa se desarrolló en Borland Delphi 6.0 y se ejecuta en sistemas Windows 98 y
posteriores. Requiere imágenes de entrada en formato JPEG. El usuario puede realizar
calibración métrica, ajustar el umbral de color y la resolución angular/radial a través de
la interfaz gráca.

El usuario evalúa las imágenes para identicar los cometas y descartar otras estructuras.
Luego, debe hacer clic en el centro de la cabeza y la cola de cada cometa, lo que activa
la segmentación automática de ambas áreas de interés mediante el algoritmo de mapeo
radial. Si no está satisfecho con la segmentación, el usuario puede ajustar manualmente
la región. El software calcula varios parámetros para cada cometa, incluyendo el por-
centaje de ADN en la cola, el momento de cola y el momento Olive. También calcula
otros parámetros como área, longitud y contenido de ADN.

Compararon su sistema con OpenComet y encontraron resultados similares. Concluyeron


que los sistemas automáticos y semi-automáticos proporcionan resultados conables
para el análisis del Ensayo Cometa, adecuados para su posterior tratamiento estadístico.

• Helma et al. (2000) [35]: Desarrollaron un sistema de análisis de imágenes en el Ensayo


Cometa de dominio público con una interfaz gráca intuitiva, ofreciendo una alternativa
gratuita a las soluciones comerciales para investigadores. El programa facilita la discrim-
inación entre cometas correctamente segmentados y regiones incorrectas, permitiendo
ajustar automáticamente un umbral para la segmentación de cometas y modicarlo in-
teractivamente. El análisis de cometas se realiza individualmente, identicando el centro
de la cabeza del cometa basado en el punto de máxima intensidad, lo que puede ser
problemático en casos de daño signicativo en el ADN celular donde la cabeza no es la
región más brillante, limitando la ecacia del software.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 25


Estado del arte

• Lee et al. (2018) [36]: Desarrollaron HiComet, un sistema de detección de células


en el Ensayo Cometa que requiere una mínima intervención del usuario, ya que dene
automáticamente el umbral de segmentación de los cometas. Su método es robusto y
puede procesar imágenes con cualquier cantidad, ubicación o estado de los cometas.

1. Preprocesamiento: Suavizan la imagen de entrada mediante ltros espaciales de


promedio o mediana.

2. Binarización: Extraen las regiones de interés de la imagen analizando el histograma


y localizando el primer valle.

3. Reconocimiento y análisis: Realiza un ltrado de las imágenes, corrige el som-


breado y segmenta los cometas. Esto implica umbralizar globalmente las imágenes
para eliminar el ruido y umbralizar adaptativamente utilizando histéresis para de-
terminar el valor de umbral.

4. Filtrado y corrección de traslapes: Eliminan los falsos positivos y separan los


cometas superpuestos utilizando algoritmos de transformada de distancia y ondícula.

5. Caracterización y clasicación: Calculan parámetros de los cometas segmentados,


incluyendo áreas, cabezas, colas y momentos de cola.

El sistema se probó en 35 imágenes de Ensayo Cometa vericadas por expertos, con


un promedio de 8 a 56 cometas por imagen. En comparación con otros métodos de
binarización, obtuvo una exhaustividad del 92%, mientras que otros métodos alcanzaron
el 77%, 76% y 71%. Además, logró clasicar correctamente el 90% de los cometas que
no estaban superpuestos en una de las imágenes.

Los métodos propuestos han mostrado buenos resultados, pero también presentan desafíos,
como la segmentación de cometas traslapados y el ruido en las imágenes. Tanto los méto-
dos automáticos como los semi-automáticos han demostrado ser efectivos, aunque los semi-
automáticos pueden tener un mejor desempeño debido a la intervención del usuario.

2.2 Herramientas disponibles

• CASP [37]: CASP es una herramienta de código abierto para analizar cometas en
imágenes. Es fácil de usar y funciona con cometas teñidos con plata o uorescencia.
Permite marcar un número ilimitado de imágenes y las carga en una ventana de "vista
de imagen". La herramienta identica la cabeza y la cola del cometa automáticamente,
pero solo funciona para cometas orientados de izquierda a derecha. El usuario debe
denir un rectángulo alrededor del cometa y ajustar los umbrales de sensibilidad. Un
perl de intensidad del cometa y las características seleccionadas se muestran en una
ventana de "perl". Los valores de las características se pueden exportar a un archivo
de texto y el proyecto se puede guardar para análisis futuros.

• CellProler [38, 39]: CellProler es un conjunto de software ampliamente utilizado a


nivel mundial en MATLAB/Python para llevar a cabo análisis de imágenes microscópicas
mediante la alineación en un pipeline de módulos personalizados para tareas estándar
de procesamiento de imágenes. Entre los diversos análisis, el Ensayo del Cometa es uno
típico, que también se menciona directamente en la lista de aplicaciones comunes en el

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 26


Estado del arte

sitio web de CellProler. A lo largo de los años, diversos grupos han diseñado pipelines
de CellProler para optimizar el análisis del Ensayo del Cometa en diferentes escenarios,
incluyendo tanto imágenes teñidas con plata como con uorescencia. Sin embargo,
los pipelines pueden ser modicados con una experiencia de programación limitada,
y las máscaras de segmentación y las características calculadas pueden exportarse en
diferentes formatos.

• CometScore [40]: CometScore es una herramienta de software de acceso gratuito de-


sarrollada por Rex Hoover en 2005, y luego se suministró en una versión PRO extendida
por TriTek Corporation (Sumerduck, VA). CometScore está desarrollado únicamente
para sistemas Windows y requiere imágenes en formato '.bmp' como entrada, donde
todos los cometas están orientados con la cabeza a la izquierda y la cola a la derecha.
Proporciona métodos completamente automáticos, semiautomáticos y manuales para
segmentar cometas basados en umbrales de intensidad denidos por el usuario. Los
perles de la cabeza y la cola se visualizan directamente en las imágenes. CometScore
también ofrece un asistente intuitivo para la clasicación de cometas. Los valores de
las características pueden exportarse a un archivo de texto.

• HiComet [36]: HiComet es una herramienta automatizada para analizar ensayos de


cometas de alto rendimiento. Es gratuita y funciona online. Reconoce y caracteriza
rápidamente una gran cantidad de cometas con poca intervención del usuario. Sin em-
bargo, no tiene una guía del usuario, no se mantiene y no hay una versión independiente
disponible. Es difícil de usar.

• OpenComet [32]: OpenComet es un popular complemento de ImageJ/Fiji implemen-


tado por Gyori en 2014. Es extremadamente fácil de usar, pero funciona solo con
imágenes de uorescencia en las que todos los cometas están orientados con la cabeza
a la izquierda y la cola a la derecha. Solo requiere la denición de las carpetas de en-
trada y salida y algunas decisiones de preprocesamiento. Utiliza un método sólido para
encontrar cometas basado en atributos de forma geométrica y segmenta las cabezas de
los cometas mediante el análisis del perl de intensidad de la imagen. Los perles de
la cabeza y la cola se visualizan directamente en las imágenes, mientras que los valores
de las características se exportan a un archivo de hoja de cálculo. No se proporciona
la oportunidad de corrección manual para modicar la disposición de los cometas, pero
después de que se complete el análisis automatizado, el usuario tiene la opción de re-
visar las imágenes y hacer clic en cualquier cometa para eliminarlo del resultado si es
necesario. Finalmente, las imágenes con perles superpuestos y los archivos de hoja de
cálculo se guardan automáticamente en la carpeta de salida elegida.

• CometAnalyser [41]: CometAnalyser, desarrollado en MATLAB, es una herramienta


integral que permite la segmentación precisa y el análisis cuantitativo de cometas, fa-
cilitando la evaluación de la viabilidad celular mediante la medición del daño del ADN.
Este software emplea métodos avanzados de procesamiento con mínima intervención
del usuario, calculando características de intensidad y morfología para cada cometa in-
dividual y evaluando el desplazamiento entre el material genético dentro del núcleo y
la parte circundante. Utilizado inicialmente en estudios de radioterapia por Pignatta et
al., ha evolucionado para incluir funciones de Aprendizaje Automático, segmentación y
clasicación automática de cometas, así como una Interfaz Gráca de Usuario (GUI)
intuitiva dividida en cuatro módulos principales para facilitar su uso.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 27


Capítulo 3
Materiales y Métodos

En este capítulo se abordará en detalle los materiales y metodología utilizados en el estudio


para desarrollar el nuevo método automatizado. Este enfoque busca mejorar la eciencia y
precisión del proceso de análisis, superando las limitaciones de los métodos manuales previ-
amente empleados. A través de la combinación de técnicas de procesamiento de imágenes
y modelos de aprendizaje automático, se espera proporcionar una herramienta innovadora y
conable para la investigación en este campo.

3.1 Materiales

Para desarrollar la técnica propuesta en este trabajo se empleó un computador Dell con
procesador Intel R Xeon(R) W-2235 CPU @ 3.80GHz x 12, con 8 GB de memoria RAM,
1.0 TB de disco duro, corriendo bajo el entorno Linux. Los métodos fueron desarrollados en
Python 3.6, usando librerías como Pytorch, OpenCV, Numpy, Pandas, Seaborn, Matplotlib,
Albumentations y PyQt5.

Para el desarrollo de esta investigación, se contó con 463 imágenes RGB de Ensayo Cometa en
formato tif de diferentes tamaños variando entre 960 y 2560 de ancho, y 720 y 1920 de alto.
Estas imágenes fueron adquiridas en el Laboratorio de Biología Celular de la Ponticia Univer-
sidad Javeriana de Cali. Los cometas se obtuvieron a partir de linfocitos humanos utilizando
el kit de aislamiento de SIGMA (Histopaque 1077tm), en conformidad con los protocolos pro-
porcionados por la compañía. Después de aislar los linfocitos, las células se lisaron y fueron
sometidas a electroforesis alcalina utilizando el kit de comet assay de la compañía ABCAM
(kit ab238544), siguiendo el procedimiento establecido. Tras la separación electroforética, el
ADN fue teñido con SYBR-Green (Bio-Rad) y las muestras fueron observadas utilizando un
microscopio de uorescencia Olympus BX51 a una magnicación de 40X. Las imágenes fueron
adquiridas mediante una cámara CMOS USB 3.0 de 10MP, adaptada al microscopio.

Como se observa en la Figura 3.1a, las imágenes de cometas se caracterizan por una alta
cantidad de ruido, cabezas claramente identicables debido a su mayor brillo y una muy pobre
intensidad de las colas, lo cual hace compleja la tarea de identicar su tamaño exacto, pues
la frontera entre la cola y el fondo es difícil de denir, especialmente cuando es muy larga,
como se aprecia en la Figura 3.1a.

Dado que las imágenes disponibles para el estudio eran de diferentes dimensiones, se uniformizó
su tamaño a 2560 x 1920 píxeles, dado que era la dimensión más grande de las imágenes y la
más común, para lo cual se cual se empleo el software de libre acceso ImageJ.

28
Materiales y Métodos

Además, se creó un banco de 174 imágenes Ground Truth para el entrenamiento y evaluación
de las técnicas, las cuales fueron escogidas aleatoriamente y elaboradas revisando cada imagen
píxel a píxel. Para ello se hizo un zoom de las imágenes y se modicó el contraste para
tratar de obtener la mejor denición posible de cada cometa. Además, se les aplicó un ltro
mediana con el n de facilitar la distinción de los bordes. Asimismo, se pidió a tres diferentes
investigadores que hicieran la determinación manual de los cometas en una de las imágenes
de la manera que lo hacen normalmente con el n de determinar la variación de la evaluación
entre investigadores. Igualmente, los cometas de la misma imagen fueron evaluados por uno
de los expertos una segunda vez con el n de evaluar la variación en la determinación de los
cometas entre exámenes por un mismo evaluador.

3.1.1 Imágenes Ground Truth


El proceso de la elaboración de las imágenes Ground Truth, necesarias para el desarrollo y
validación del proyecto, no fue una tarea fácil, debido a la dicultad para distinguir adecuada-
mente las cabezas y particular las colas de los cometas. A continuación se describe el proceso
para la construcción de estas imágenes.

3.1.2 Proceso de obtención de imágenes "Ground Truth"


Para elaborar las imágenes de referencia indispensables para el entrenamiento de los modelos de
Aprendizaje de Máquinas se inspeccionó cuidadosamente imagen por imagen para comprobar
que cada célula marcada correspondiera lo mejor posible a cada célula cometa.

Debe recordarse que debían marcarse cabezas, colas y fondo en cada imagen y se identicaron
con los valores 255, 60 y 0 respectivamente. Debido a la muy alta resolución de las imágenes,
el gran número de imágenes a marcar y la dicultad para determinar los límites de cada parte
de un cometa de manera imparcial, se hizo uso de técnicas de Procesamiento de Imágenes
para facilitar la tarea de identicación de las partes de un cometa y el fondo. A continuación
se describen estos pasos.

3.1.2.1 Marcación de cabezas

Para determinar la región dada por las cabezas de los cometas, se empleó en principio el
método de Otsu para binarizar las imágenes y luego, dado que las cabezas tienen el brillo más
intenso, se ajustó manualmente el umbral de Otsu hasta encontrar el mejor resultado, como
se observa en la Figura 3.1b:

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 29


Materiales y Métodos
Figura 3.1: Marcación de cabezas. (a) Imagen Original (Canal Verde). (b) Cabezas.

(a) (b)

Fuente: Autor (2024)

Es importante señalar que en algunas imágenes se encuentran cabezas traslapadas, las cuales
fueron eliminadas, puesto que en la práctica también son descartadas por los especialistas
debido a la imposibilidad de determinar los límites de las colas. Para eliminar los cometas
traslapados automáticamente se asignó una etiqueta a cada cabeza, tal como se aprecia en
la Figura 3.2a y se eliminaron las cabezas cuya área era superior a 3000 píxeles, tal como las
observadas en la Figura 3.2c, pues corresponde a cabezas traslapadas, las cuales presentan
un área superior a la normal, al ser el resultado de la suma del área de varias cabezas. El
resultado se observa en la Figura 3.3c.

Figura 3.2: Detección de cabezas traslapadas. (a) Imagen etiquetada usando conectividad
de tipo 8. (b) Imagen etiquetada en pseudo-color de acuerdo a su área donde las regiones
más grandes aparecen en blanco. (c) Cabezas traslapadas.

(a) (b) (c)

Fuente: Autor (2024)

Figura 3.3: Eliminación de cabezas traslapadas. (a) Cabezas. (b) Cabezas traslapadas. (c)
Cabezas aisladas.

(a) (b) (c)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 30


Materiales y Métodos

3.1.2.2 Marcación de colas

Para determinar la región correspondiente a las colas, se binarizo manualmente cada imagen
original ajustando el umbral hasta que los cometas, cabeza y cola, se visualizaban completos,
tal como se observa en la Figura 3.4b.

Figura 3.4: Marcación de cometas completos. (a) Imagen Original (Canal Verde). (b)
Cometas binarizados.

(a) (b)

Fuente: Autor (2024)

Una vez obtenida las siluetas de los cometas, mostradas nuevamente en la Figura 3.5a, se le
restaron las cabezas, detectadas previamente e ilustradas en la Figura 3.5b, para conseguir la
silueta de las colas, tal como se ilustra en la Figura 3.5c. Finalmente, para las colas traslapadas
que aun quedaban, se eliminaron manualmente.

Figura 3.5: Marcación de colas. (a) Cometas binarizados. (b) Cabezas. (c) Colas obtenidas.

(a) (b) (c)

Fuente: Autor (2024)

Luego de la eliminación de los cometas con cabeza doble, se observó que las colas de algunos
cometas terminaban justo antes o sobre la cabeza de otros y debido a la alta intensidad de la
cabeza, estas colas aparecían conectadas a la cabeza en la imagen binarizada. Por esta razón,
fue necesario separar estas colas de las cabezas manualmente.

Finalmente, en el fondo de las imágenes aparecían pequeñas manchas debidas a ruido, las
cuales fueron eliminadas utilizando un ltrado por área donde se descartaron todos los objetos
en la imagen cuya área fuera menor o igual a 300 píxeles, valor encontrado estadísticamente.
Este valor se determinó después de realizar una inspección del área de 2245 cabezas de células
del Ensayo Cometa en 130 imágenes. Como se observa en la Tabla 3.1, el área promedio fue
de 2346 píxeles y el área de la cabeza más pequeña de 426 píxeles. Por lo tanto, se tomó un
área sucientemente menor que el área de la cabeza más pequeña.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 31


Materiales y Métodos
Tabla 3.1: Área cabezas cometas.

Número de imágenes Número total de cabezas Área promedio Área mínima


cabezas [Píxeles] cabezas [Píxeles]
130 2245 2346,557 426,333

Finalmente, se asigno la etiqueta correspondiente a cada región, tal como se ilustra en la


Figura 3.6

Figura 3.6: Máscara nal de células cometas.

Fuente: Autor (2024)

3.2 Metodología

A continuación se describen los pasos seguidos para el desarrollo del método de detección de
cometas propiamente dicho.

Como puede observarse, las imágenes cometa se caracterizan por una coloración verde. Por
lo tanto, los canales de color rojo y azul no aportan información signicativa, tal como se
observa en la Figura 3.7. Lo anterior puede comprobarse, al comparar la variabilidad en los
valores de píxeles en cada canal, donde el canal verde, con mayor desviación estándar provee
en general mayor información, tal como se aprecia en la Tabla 3.2.

Figura 3.7: Análisis de componentes de color de imagen cometa. (a) Imagen Original. (b)
Canal Rojo. (c) Canal Verde. (d) Canal Azul.

(a) (b) (c) (d)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 32


Materiales y Métodos
Tabla 3.2: Comparación de las métricas estadísticas de los canales RGB de la imagen cometa
de la Figura 3.7.

Canal Número de píxeles Promedio Desviación Estándar Mínimo Máximo Moda


Rojo (R) 4915200 25171 14571 0 177 21 (450382)
Verde (G) 4915200 49298 31658 22 253 38 (395904)
Azul (B) 4915200 23635 19388 0 215 18 (484444)

Como se observa en el perl de la Figura 3.8, cada célula cometa se caracteriza por poseer
una intensidad mayor que sus píxeles vecinos, que puede asimilarse a un domo, el cual se
obtiene restando la imagen original de la h-máxima. Así, una vez seleccionada la imagen del
canal verde, se empleó una reconstrucción morfológica para extraer los domos dado un cierto
valor de umbral h, con el n de eliminar el ruido de fondo, eliminando pequeñas manchas o
detalles no deseados y resaltando el área correspondiente a los cometas. Para determinar la
altura óptima de los domos, es decir, aquella que permitía obtener el valor más alto de la IoU,
se construyeron imágenes tomando distintos valores de h: 65, 140, 200, 207, 215, tal como
se ilustra en la Figura 3.9.

Figura 3.8: Perl de la sección marcada en amarillo de la imagen en canal verde. (a) Perl.
(b) Domos.

(a) (b)

Fuente: Autor (2024)

Figura 3.9: Resultados obtenidos con diferentes valores de h. (a) Canal Verde. (b) h = 65.
(c) h = 140. (d) h = 200. (e) h = 207. (f ) h = 215.
(a) (b) (c)

(d) (e) (f)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 33


Materiales y Métodos

3.2.1 Selección del Modelo


En este estudio, se llevó a cabo la selección del mejor modelo de aprendizaje de máquinas
encargado de predecir máscaras para imágenes de células del Ensayo Cometa en tres clases
distintas (cabezas, colas y fondo). Para lograrlo, se procedió al entrenamiento de diversas
arquitecturas de Redes Neuronales Convolucionales (CNN por sus siglas en inglés) utilizando
tres tipos de imágenes distintas: Imágenes RGB, imágenes procesadas con la técnica de h-
domo e imágenes en canal verde.

Los entrenamientos se dividieron en cuatro fases, prestando especial atención a diversos hiper-
parámetros durante el proceso para garantizar resultados precisos y comparables entre las
distintas arquitecturas. Todas las arquitecturas probadas son usualmente empleadas para la
segmentación de imágenes y se caracterizan por poseer una etapa de codicación y otra de
decodicación. Para todas ellas se empleó una arquitectura ResNet50 como codicador, la
cual utiliza conexiones residuales, lo que signica que las entradas se pasan a través de bloques
residuales que suman las entradas originales a las salidas de las capas subsiguientes. Estas
conexiones ayudan a mitigar el problema de desvanecimiento del gradiente durante el entre-
namiento, lo que permite entrenar redes más profundas de manera más efectiva. Además, el
codicador ResNet50 ha demostrado ser altamente práctico en la extracción de característi-
cas de imágenes en una variedad de conjuntos de datos. Este codicador es una arquitectura
preentrenada en grandes conjuntos de datos de imágenes, como ImageNet, lo que signica
que sus pesos ya han sido ajustados para reconocer una amplia variedad de características en
imágenes genéricas. En comparación con arquitecturas más simples, como VGG o AlexNet,
ResNet50 es sucientemente exible para segmentar adecuadamente las imágenes. Por úl-
timo, este codicador está ampliamente disponible en bibliotecas de aprendizaje profundo,
como TensorFlow y PyTorch, lo que facilita su implementación y uso. Como decodicador
se construyeron las arquitecturas complementarias siguiendo la descripción de los artículos
originales.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 34


Materiales y Métodos

• ResNet50 + U-Net.

Figura 3.10: Diagrama de arquitectura U-Net empleando ResNet50 como codicador.

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 35


Materiales y Métodos

• ResNet50 + UNet++.

Figura 3.11: Diagrama de arquitectura UNet++ empleando ResNet50 como codicador.

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 36


Materiales y Métodos

• ResNet50 + DeepLabV3+.

Figura 3.12: Diagrama de arquitectura DeepLabV3+ empleando ResNet50 como codi-


cador.

Fuente: Autor (2024)

• ResNet50 + LinkNet.

Figura 3.13: Diagrama de arquitectura LinkNet empleando ResNet50 como codicador.

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 37


Materiales y Métodos

• ResNet50 + PAN.

Figura 3.14: Diagrama de arquitectura PAN empleando ResNet50 como codicador.

Fuente: Autor (2024)

Además, se segmentaron cinco imágenes empleando la Inteligencia Articial de Meta conocida


como SAM por sus siglas en inglés Segment Anything Model, dado que de acuerdo a sus
autores, es una red capaz de segmentar cualquier tipo de imagen, con el n de saber si era
capaz con su conguración original de segmentar adecuadamente las imágenes cometa.

Otras dos arquitecturas, PAD-Net y FCN (Fully Convolutional Network), fueron encontradas,
pero debido a su alto consumo de memoria no fue posible entrenarlas y por ello se descar-
taron.

3.2.1.1 Fase 1

La primer fase involucró el entrenamiento únicamente con la ResNet50 como codicador y la


U-Net como decodicador empleando 174 imágenes de canal verde, de las cuales el 75% se
tomaron para entrenamiento y el 25% restante para validación, es decir, no se realizó testeo.
La elección de hiperparámetros es una etapa crucial para encontrar el mejor rendimiento de

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 38


Materiales y Métodos

las Redes Neuronales Convolucionales. Para determinarlos en esta arquitectura, se entrenó en


5 ocasiones con diferentes tamaños de lote y número de épocas. Estas redes se entrenaron
con las imágenes Ground Truth que se tenían en ese momento, las cuales incluían cabezas de
células traslapadas, colas unidas y ruido. Los hiperparámetros se ven en la Tabla 3.3.

Tabla 3.3: Hiperparámetros utilizados para el entrenamiento de la red U-Net empleando una
ResNet50 como codicador.

Entrenamiento Tamaño de lote Número de épocas


1 8 60
2 16 50
3 16 60
4 16 120
5 32 70

Inicialmente, se entrenaron las imágenes Ground Truth que aún tenían las cabezas traslapadas,
las colas unidas y píxeles de ruido. En la Tabla 3.4 se reejan los resultados con respecto a la
Tabla 3.3.

Tabla 3.4: Resultados de los entrenamientos de la Fase 1.

Entrenamiento IoU Score (%) Dice loss (%) Tiempo


1 94,57 0,04902 12min15s
2 93,95 0,1175 12min3s
3 93,29 0,1115 14min23s
4 93,29 0,05177 29min1s
5 92,36 0,1957 28min53s

Durante el experimento anterior, se encontró que en las imágenes segmentadas resultantes,


tal como se observa en la Figura 3.15, algunas partículas pequeñas eran identicadas incor-
rectamente como cabezas, además se encontraron cometas con cabezas traslapadas que eran
identicadas como una sola y colas superpuestas. Con el n de corregir estos problemas,
las imágenes Ground Truth fueron mejoradas eliminando las partículas con un área menor
a 300, las cabezas traslapadas y las colas sobrepuestas como se mencionó en la sección de
materiales.

Figura 3.15: Errores encontrados en las imágenes Ground Truth: Cabezas traslapadas, colas
superpuestas y partículas (señalada con un círculo rojo). (a) Canal Verde. (b) Ground Truth.
(c) Máscara Predicha.

(a) (b) (c)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 39


Materiales y Métodos

3.2.1.2 Fase 2

Con el n de determinar el mejor modelo y cual tipo de imagen permitía obtener un rendimiento
superior, se llevó a cabo el entrenamiento de la red ResNet50 como codicador y las cinco
arquitecturas de CNN como decodicador: U-Net, UNet++, DeepLabV3+, LinkNet y PAN,
empleando los siguientes hiperparámetros:

• Entorno de ejecución: GPU

• Tamaño del lote (Batch Size): 8

• Épocas: 60

• Tasa de aprendizaje (Learning Rate o Lr): 0.0001

• Normalización por lotes (Batch Normalization): Sí

• Función de Pérdida: Dice loss

• Optimizador: Adam

• Función de Activación: ReLU

• Métricas: Intersección sobre Unión (IoU) con un umbral de 0.5

También, se utilizaron las 174 imágenes originales de cometas en formato RGB, tomando
únicamente el canal verde, además de las imágenes obtenidas con la transformación h-domo
con h = 65, 140, 200, 207, 215. Nuevamente se usó el 75% de las muestras para entrenamiento
y el 25% para validación. Los resultados obtenidos se encuentran en las Tablas 3.5, 3.6 y
3.7.

Tabla 3.5: Resultados de los entrenamientos de la Fase 2.

Entrenamiento Red Neuronal Tipo de imágenes IoU Score (%) Dice loss (%) Tiempo
1 U-Net RGB 96,34 0,041 9min20s
2 U-Net Canal Verde 96,16 0,043 9min22s
3 UNet++ RGB 96,28 0,048 11min17s
4 UNet++ Canal Verde 96,23 0,037 11min9s
5 DeepLabV3+ RGB 95,4 0,032 10min16s
6 DeepLabV3+ Canal Verde 95,59 0,033 9min45s
7 LinkNet RGB 95,65 0,13 10min12s
8 LinkNet Canal Verde 95,49 0,142 10min6s
9 PAN RGB 95,03 0,029 10min37s
10 PAN Canal Verde 94,96 0,03 10min37s

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 40


Materiales y Métodos
Tabla 3.6: Resultados IoU Score de entrenamientos para los valores de h-domo (%).

Red Neuronal / Valores h-domo 215 207 200 140 65


U-Net 95,99 95,33 96,09 95,7 94,47
UNet++ 96,43 96,42 96,45 95,19 94,4
DeepLabV3+ 95,6 95,01 95,49 95,25 94,62
LinkNet 94,01 95,63 95,94 93,05 94,31
PAN 94,41 94,92 95,3 94,72 94,47

IoU Score

Tabla 3.7: Resultados Dice loss de entrenamientos para los valores de h-domo (%).

Red Neuronal / Valores h-domo 215 207 200 140 65


U-Net 0,083 0,043 0,038 0,076 0,071
UNet++ 0,038 0,051 0,05 0,046 0,046
DeepLabV3+ 0,032 0,036 0,033 0,034 0,039
LinkNet 0,213 0,143 0,157 0,212 0,171
PAN 0,031 0,030 0,029 0,032 0,031

Dice loss

3.2.1.3 Fase 3

Una vez encontrado que el mejor resultado de IoU se obtenía cuando se empleaban como
imagenes de entrada aquellas procesadas con un domo de altura h = 200, se entrenaron todas
las arquitecturas con estas 174 imágenes, y para vericar si el uso de la transformada de h-
domo mejoraba realmente los resultados además, se compararon con los resultados generados
usando como entradas únicamente las imágenes de canal verde. Para este experimento, el
conjunto de datos fue dividido en un 70% para entrenamiento, 15% para validación y el 15%
restante para pruebas, es decir, 122, 26 y 26 imágenes respectivamente y se emplearon los
mismos hiperparámetros que se ajustaron en la fase previa. Los resultados se presentan en el
siguiente capítulo.

3.2.1.4 Aumentación de Datos

Por último, con el n de mejorar los resultados obtenidos se hizo una aumentación de las
imágenes de entrenamiento, haciendo un espejo vertical sobre cada una de ellas dado que
era la única transformación que permitía mantener la dirección horizontal de los cometas de
izquierda a derecha. La Tabla 3.8 presenta una descripción del número de imágenes empleadas
en estas etapas del proyecto.

Tabla 3.8: Distribución de imágenes en conjuntos de entrenamiento, validación y testeo en


la Fase 4.

Entrenamiento Validación Testeo Total Imágenes


Sin aumentación 122 26 26 174
Con aumentación 244 26 26 296
Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 41
Materiales y Métodos

3.2.2 Funcionamiento del programa


Como producto nal de este trabajo, se desarrolló un programa que, al ingresarle una imagen
de microscopía de los resultados del Ensayo Cometa, devolviera la misma imagen con la técnica
de h-domo y con las células cometas bien identicadas y clasicadas, además, que generara
una tabla en Excel con mediciones de las áreas e intensidades de las respectivas células,
aparte del tipo de daño de ADN que representaba cada una. Para lograr este propósito, la
implementación del programa se estructuró en tres bloques fundamentales. En primer lugar,
se llevó a cabo el procesamiento de la imagen de entrada mediante la aplicación de la técnica
de h-domo. Posteriormente, en el segundo bloque, la imagen previamente procesada con la
técnica de h-domo fue introducida en un modelo de Inteligencia Articial preentrenado. De
este modelo se obtuvo la imagen correspondiente a la máscara predicha. Finalmente, el tercer
bloque se dedicó a la tarea de etiquetar y clasicar los cometas, utilizando tanto la imagen
procesada con la técnica de h-domo como la máscara predicha por el modelo.

3.2.2.1 Bloque 1

El código implementaba un algoritmo para la corrección de iluminación en imágenes llamado


"Fast Hybrid Dome". Este algoritmo buscaba corregir las variaciones de iluminación en una
imagen para resaltar las características de interés.

Fast Hybrid Dome tuvo un método init que se encargó de inicializar la instancia de esta clase,
tomando un parámetro opcional dome height, que representaba la altura del domo. Este
parámetro inuye en el proceso de corrección de iluminación.

El método tomaba una imagen en escala de grises como entrada (img) que en este caso es una
imagen arbitraria de las células del Ensayo Cometa, y devolvía la imagen corregida, que desde
ese momento se llamaba "Imagen h-domo". La imagen se representaba como una matriz
NumPy bidimensional.

Posteriormente se realizó un preprocesamiento de la imagen original y se creó una versión


"oscura" (dark pixels) restando la altura seleccionada del domo a cada píxel.

Luego, se efectuó un proceso iterativo de reconstrucción de la imagen para corregir la ilumi-


nación; en cuanto a cada píxel, se consideraban los píxeles vecinos en diferentes direcciones
y así determinar el valor máximo, y se actualizaba el valor del píxel oscuro (dark pixels) de
acuerdo con el valor máximo obtenido. Después, se realizó una fase de ltrado para obtener
la cúpula y nalmente, se obtuvo la imagen h-domo restando la versión oscura de la imagen
original.

3.2.2.2 Bloque 2

Este código representa la implementación de un proceso de segmentación semántica utilizando


una Red Neuronal Convolucional (CNN, por sus siglas en inglés). Se importaron bibliotecas
necesarias como OpenCV, Albumentations, PyTorch, PIL, NumPy, Matplotlib y modelos de
segmentación de PyTorch, así como tile para trabajar con archivos en formato TIFF. Se
denió una clase de conjunto de datos personalizado (BuildingsDataset) para cargar imágenes
de entrada y aplicar transformaciones de aumento y preprocesamiento. Además, se denieron
funciones para estas transformaciones. Se implementó el modelo preentrenado, una UNet++

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 42


Materiales y Métodos

con ResNet50 como codicador, para imágenes procesadas con la técnica de h-domo con un
umbral de 200. Se crearon funciones de utilidad para convertir las máscaras segmentadas en
imágenes legibles. Luego, se utilizó la imagen resultante del bloque anterior y se le aplicó
preprocesamiento y transformación de aumento, después se utilizó el modelo para generar la
máscara predicha. Las imágenes originales y las máscaras predichas se utilizaron en el siguiente
bloque del proceso.

3.2.2.3 Bloque 3

Este código realizaba el procesamiento de imágenes para examinar la presencia y el grado de


daño del ADN en cometas en imágenes de microscopía. Entonces, automatizaba el proceso
de análisis de cometas en imágenes, calculando métricas y clasicando el daño de los cometas
en diferentes categorías.

El código importaba las bibliotecas necesarias, incluyendo os para operaciones de sistema, cv2
para procesamiento de imágenes, pandas para manejar datos estructurados, skimage.transform
para transformaciones de imágenes, ti y imageio para leer y escribir archivos de imágenes, y
matplotlib.pyplot para visualización de imágenes.

Primero, se encargaba de llamar al par de imágenes (original con técnica de h-domo y máscara
predicha) del Bloque 2. Luego, el código iteró sobre cada par de imágenes. Estas fueron leídas,
la imagen original se convirtió a color, y se redimensionaron si no tenían las mismas dimen-
siones. Seguidamente, se etiquetaron y contaron los cometas en la máscara utilizando el al-
goritmo de etiquetado de componentes conectados de OpenCV (cv2.connectedComponents).
Este algoritmo etiquetó píxeles conectados en la máscara para formar cometas separados.

A continuación, se realizó el análisis de cometas. Para cada cometa etiquetado, se calcularon


varias métricas como el área total, el área de la cabeza y la cola, la intensidad total y la
intensidad de la cabeza y la cola. Basándose en estas métricas y en los porcentajes que se ven
en la Tabla 3.9, se clasicó el cometa en una categoría de daño (sin daño, leve, moderado, serio
o crítico). Después, se dibujaron contornos alrededor de los cometas en la imagen original,
utilizando colores especícos para cada categoría de daño, siendo el blanco para cuando no
hay daño, el azul celeste para daño leve, el amarillo para daño moderado, el naranja para daño
serio y el rojo para daño crítico. El tipo de daño se calculó dependiendo de la intensidad de
la cola respecto a la intensidad total del cometa.

Tabla 3.9: Tipos de daño.

Porcentaje de intensidad de la cola Tipo de daño


<5% No damage
5<= % < 30 Slight
30<= % < 60 Moderate
60<= % < 80 Seriuos
80<= % < 100 Critical

Por último, el código guardó la imagen procesada con la técnica de h-domo con los cometas
etiquetados en el directorio especicado por el usuario y registró los datos de los cometas
en un DataFrame de Pandas. Finalmente, almacenó el DataFrame en un archivo Excel en el
mismo directorio.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 43


Capítulo 4
Resultados

En este capítulo se detalla el desempeño de los entrenamientos realizados y las evaluaciones de


diferentes modelos y métodos implementados. Comienza con un análisis de los entrenamientos
de las fases nales, destacando los puntajes de IoU y las pérdidas de Dice loss, junto con
el tiempo de entrenamiento asociado. Luego, se presentan los resultados especícos de la
Inteligencia Articial de Meta llamada SAM, seguido de una comparación entre las máscaras
predichas y las imágenes Ground Truth, así como la evaluación de las máscaras generadas por
los investigadores. Además, se incluyen resultados del funcionamiento del sistema desarrollado,
que muestra la capacidad de etiquetar y clasicar células cometa en imágenes de microscopía,
junto con una tabla detallada de los análisis de daños en el ADN para cada célula. Al nal,
se realiza una comparación entre el método implementado y una aplicación preexistente que
recibe el nombre de OpenComet, utilizando varios ejemplos ilustrativos que muestran las
diferencias entre los resultados obtenidos por ambos enfoques.

4.1 Entrenamientos

Esta sección detalla el proceso y los resultados de los entrenamientos nales, destacando los
puntajes de IoU y las pérdidas de Dice loss para cada modelo. Se analizan las mejoras obtenidas
a lo largo de las iteraciones y se presentan los tiempos de entrenamiento asociados.

Dados los resultados de la Fase 2, se descartaron las imágenes RGB y se seleccionó un umbral
de 200 como valor h-domo preferente. En la siguiente tabla se pueden visualizar los resultados
de los entrenamientos de imágenes con h-domo de 200 y canal verde de la Fase 3.

Tabla 4.1: Resultados de los entrenamientos de la Fase 3.

Entrenamiento Red Neuronal Tipo de imágenes IoU Score (%) Dice loss (%) Tiempo
1 U-Net h-domo (200) 97,35 0,037 8min6s
2 U-Net Canal Verde 97,4 0,032 8min22s
3 UNet++ h-domo (200) 97,44 0,045 9min52s
4 UNet++ Canal Verde 96,99 0,074 9min56s
5 DeepLabV3+ h-domo (200) 96,87 0,025 8min30s
6 DeepLabV3+ Canal Verde 96,91 0,027 8min54s
7 LinkNet h-domo (200) 95,68 0,177 9min2s
8 LinkNet Canal Verde 96,1 0,167 8min46s
9 PAN h-domo (200) 95,64 0,02 10min15s
10 PAN Canal Verde 96,81 0,022 10min16s

44
Resultados

Los resultados de los entrenamientos con aumentación de datos se exponen en la Tabla 4.2,
que se basa en la información de la Tabla 3.8.

Tabla 4.2: Resultados de los entrenamientos de la Fase 4.

Entrenamiento IoU Score Dice loss Tiempo


1 97,33 0,019 14min30s
2 97,54 0,023 15min10s
3 97,38 0,051 15min47s
4 97,17 0,024 15min38s
5 97,16 0,019 14min44s
6 96,84 0,020 15min38s
7 96,46 0,122 14min53s
8 96,55 0,095 15min11s
9 96,72 0,019 15min19s
10 96,88 0,019 15min35s

4.2 SAM

Aquí, se muestran los resultados especícos del uso del modelo SAM, proporcionando una
visión general de su desempeño en la tarea especíca. Se establece la base para la discusión
posterior sobre las ventajas y limitaciones de esta Inteligencia Articial.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 45


Resultados
Figura 4.1: Resultados SAM.

(a) Original (b) Segmentada con SAM

(c) Original (d) Segmentada con SAM

(e) Original (f) Segmentada con SAM

(g) Original (h) Segmentada con SAM

(i) Original (j) Segmentada con SAM

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 46


Resultados

4.3 Validación de las imágenes predichas por el


modelo con las imágenes Ground Truth

La Intersección sobre la Unión (IoU) es una métrica comúnmente utilizada en problemas de


segmentación y detección de objetos en visión por computador.

La IoU se calcula como el área de intersección entre la predicción del modelo y el resultado
ideal (Ground Truth), dividida por el área de unión entre estas dos áreas.

Dado que, en este caso, se tienen tres clases: cabeza, cola y fondo, se decidió comparar el
cometa obtenido con la imagen Ground Truth contra el generado por el método propuesto,
para lo cual fue necesario binarizar las imágenes, tal como se muestra en la Figura 4.2.

Figura 4.2: Binarización Imágenes. (a) Imagen GroundTruth. (b) Imagen GroundTruth
binarizada. (c) Imagen predicha. (d) Imagen predicha binarizada.

(a) (b)

(c) (d)

Fuente: Autor (2024)

La Figura 4.3 muestra un ejemplo de las imágenes resultantes de la intersección y la unión


de las imágenes Ground Truth y las producidas por el modelo. Con ayuda del histograma se
reejó el número de píxeles del área de los cometas tanto para la imagen de la intersección
(Mínimo) como para la imagen de la unión (Máximo). El IoU se obtuvo sobre un total de 30
imágenes tomadas al azar con la ecuación 1.4, consiguiendo un valor aproximado del 83%.
En la Tabla A3.1, incluída en los anexos, se encuentran los resultados detallados, ofreciendo
una visión clara de la calidad de las predicciones del modelo.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 47


Resultados
Figura 4.3: Mínimo y Máximo. (a) Mínimo entre imágenes binarizadas. (b) Máximo entre
imágenes binarizadas.

(a) (b)

Fuente: Autor (2024)

Para observar el error del modelo se realizó una resta entre el máximo y el mínimo. Posterior-
mente de tener las imágenes binarizadas, se les asignó un color a los cometas de cada imagen
binarizada; En este caso a la imagen Ground Truth se le otorgó el color rojo y a la imagen
predicha por el modelo el color azul. Seguido a esto, se fusionaron los colores en una única
imagen como se observa en la Figura 4.4, donde el color magenta que se visualiza se reere
a la conjunción entre las dos imágenes.

Figura 4.4: Error del modelo y conjunción. (a) Imagen resultante del error del modelo. (b)
Conjunción entre las dos imágenes.

(a) (b)

Fuente: Autor (2024)

Adicionalmente, se procedió a utilizar la imagen Ground Truth y la imagen generada por el


modelo de una imagen especíca. Con el propósito de generar comparaciones signicativas,
se encomendó a tres investigadores la tarea de elaborar máscaras correspondientes a esta
imagen.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 48


Resultados
Figura 4.5: Máscaras. (a) Imagen Ground Truth. (b) Imagen Predicha.
(c) Máscara Investigador 1. (d) Máscara Investigador 2. (e) Máscara Investigador 3.

(a) (b) (c)

(d) (e)

Fuente: Autor (2024)

Seguido a esto, se procedió a realizar la binarización de todas las imágenes.

Figura 4.6: Imágenes Binarizadas. (a) Imagen Ground Truth. (b) Imagen Predicha.
(c) Máscara Investigador 1. (d) Máscara Investigador 2. (e) Máscara Investigador 3.

(a) (b) (c)

(d) (e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 49


Resultados

Después de binarizar las imágenes, se llevó a cabo la estipulación de un color especíco a


los cometas de cada una. En este contexto, se designó el color rojo a la imagen binarizada
Ground Truth, el color verde a la máscara del Investigador 1, el color magenta a la máscara
del Investigador 2 y el color amarillo a la máscara del Investigador 3. Seguidamente, se
combinaron las imágenes en una única imagen.

Figura 4.7: Imagen Ground Truth con las de los investigadores.

Fuente: Autor (2024)

En este momento, se reiteró el proceso, pero para esta ocasión se comparó la imagen predicha
por el modelo con las generadas por los investigadores. En este caso, el color de los cometas de
la máscara predicha es el rojo y los demás colores se mantuvieron para cada investigador.

Figura 4.8: Imagen Predicha con las de los investigadores.

Fuente: Autor (2024)

En ambas situaciones, la presencia del color blanco indica la conjunción de todas las imá-
genes.

Además, se efectuó una comparación entre la imagen Ground Truth y la imagen predicha
por el modelo, en dónde el color rojo hace referencia a la Ground Truth y el color azul a la
predicha. El color magenta representa la conjunción de las dos imágenes.

Figura 4.9: Imagen Ground Truth vs Imagen Predicha.

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 50


Resultados

4.4 Validaciones de las máscaras de los investigadores


con la imagen Ground Truth

En este apartado, se compara la precisión de las máscaras generadas por los investigadores
con la Ground Truth. Los resultados se evidencian en la tabla de a continuación:

Tabla 4.3: Resultados comprobación IoU entre las máscaras de los investigadores y la imagen
Ground Truth.

Máscara IoU
Investigador 1 49%
Investigador 2 49%
Investigador 3 50%

4.5 Validaciones de las máscaras de los investigadores


y la imagen Ground Truth con la máscara predicha

La siguiente tabla presenta los porcentajes de la Intersección sobre la Unión obtenidos al


evaluar la máscara creada por los tres investigadores y la imagen Ground Truth con la máscara
predicha por el modelo:

Tabla 4.4: Resultados comprobación IoU entre las máscaras de los investigadores y la imagen
Ground Truth con la máscara predicha.

Máscara IoU
Investigador 1 43%
Investigador 2 44%
Investigador 3 45%
Ground Truth 80%

4.6 Funcionamiento del programa

Esta sección ilustra el funcionamiento del programa desarrollado para etiquetar y clasicar
células cometa en imágenes de microscopía. Se presentan ejemplos visuales junto con una
tabla detallada que resume el análisis de daños en el ADN para cada célula, demostrando la
utilidad y ecacia del programa.

Se muestra un ejemplo del resultado de ingresar al programa una imagen de microscopía de


las imágenes generadas del Ensayo Cometa, se observa la imagen con las células etiquetadas
por tipo de daño y contadas individualmente, así como también la respectiva tabla que revela
el análisis del daño en el ADN para cada célula.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 51


Resultados
Figura 4.10: (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas.

(a) (b)

Fuente: Autor (2024)

Tabla 4.5: Datos de las células cometa.

COMET COMET HEAD TAIL COMET HEAD TAIL PERCENTAGE TYPE OF


NUMBER AREA AREA AREA INTENSITY INTENSITY INTENSITY OF DNA DAMAGE
DAMAGE (%)
1 6515 0 6515 444126 0 444126 100 Critical
2 2100 2100 0 1119579 1119579 0 0 No Damage
3 1900 1900 0 1006785 1006785 0 0 No Damage
4 3516 2200 1316 1130628 1042194 88434 7.82 Slight
5 4309 3000 1309 1333170 1239753 93417 7.01 Slight
6 3915 2400 1515 1244064 1093548 150516 12.1 Slight
7 3922 2000 1922 1165686 1038642 127044 10.9 Slight
8 3510 2200 1310 1127406 1006770 120636 10.7 Slight
9 9335 100 9235 573660 25152 548508 95.62 Critical
10 15742 0 15742 1801485 0 1801485 100 Critical
11 3717 2500 1217 1200984 1088277 112707 9.38 Slight
12 3815 2300 1515 1152519 1027587 124932 10.84 Slight

4.7 Comparación del método con OpenComet

Por último, se llevó a cabo una evaluación comparativa entre el método implementado y una
aplicación ya existente (OpenComet), que comparte objetivos similares con respecto a las
células del Ensayo Cometa. Esta sección destaca las diferencias en los resultados obtenidos
por ambos enfoques utilizando ejemplos ilustrativos, proporcionando información crítica para
evaluar la efectividad y eciencia del método propuesto.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 52


Resultados

4.7.1 Ejemplo 1

Figura 4.11: (a) Imagen Original (Canal Verde). (b) Imagen resultante del método.
(c) Imagen resultante de OpenComet.

(a) (b) (c)

Fuente: Autor (2024)

4.7.2 Ejemplo 2

Figura 4.12: (a) Imagen Original (Canal Verde). (b) Imagen resultante del método.
(c) Imagen resultante de OpenComet.

(a) (b) (c)

Fuente: Autor (2024)

4.7.3 Ejemplo 3

Figura 4.13: (a) Imagen Original (Canal Verde). (b) Imagen resultante del método.
(c) Imagen resultante de OpenComet.

(a) (b) (c)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 53


Capítulo 5
Discusión y limitaciones

Este capítulo proporciona un análisis detallado de los resultados obtenidos en este trabajo de
investigación. Cada subsección aborda aspectos especícos relacionados con el rendimiento
de las arquitecturas de las Redes Neuronales Convolucionales utilizadas, la comparación entre
diferentes tipos de imágenes, la variabilidad en el rendimiento, el tiempo de entrenamiento
y otras consideraciones relevantes. Por otro lado, se reejan las limitaciones encontradas
durante el desarrollo del trabajo.

5.1 Discusión

En esta sección se examinan los resultados de cada fase, resaltando la inuencia de los hiper-
parámetros en el rendimiento de los modelos de segmentación de imágenes. Se aborda la
importancia de encontrar un equilibrio entre el número de épocas y el tamaño del lote para
obtener el rendimiento óptimo del modelo, así como una comparación entre diversas arqui-
tecturas de Redes Neuronales Convolucionales, evaluando su impacto en la segmentación del
modelo. Además, se analiza el efecto del tipo de imágenes en el rendimiento del modelo y
se discute la variabilidad entre los diferentes procesos de entrenamiento, junto con algunas
reexiones sobre el método SAM. Igualmente, se detalla la validación de las imágenes Ground
Truth con las máscaras creadas por los investigadores, así como la validación cruzada entre las
imágenes Ground Truth y aquellas generadas por los investigadores, utilizando las máscaras
predichas por el modelo. Finalmente, se comprueba el funcionamiento del programa y se
compara con la aplicación OpenComet.

5.1.1 Fase 1
Épocas y Rendimiento:
Se observa que el modelo en el entrenamiento 2 logra una exactitud del 93.95% con 50
épocas, mientras que el modelo en el entrenamiento 4 tiene una exactitud ligeramente inferior
de 93.29% con 120 épocas. Esto sugiere que, en este caso, un mayor número de épocas no se
traduce necesariamente en un mejor rendimiento, e indica la posibilidad de sobreajuste.

Batch Size y Rendimiento:


Al comparar el modelo del entrenamiento 1 con Batch Size 8 y el modelo del entrenamiento 5
con Batch Size 32, se observa que el modelo del entrenamiento 1 tiene una precisión más alta

54
Discusión y limitaciones

(94.57% frente a 92.36%). Esto indica que un Batch Size más pequeño puede ser benecioso
para la convergencia del modelo.

Balance Entre Épocas y Batch Size:


El modelo del entrenamiento 1 y el del entrenamiento 3 tienen el mismo número de épocas
(60), pero el modelo del entrenamiento 1 con un Batch Size de 8 supera en precisión al del
entrenamienoto 3 con Batch Size 16 (94.57% frente a 93.29%). Esto resalta la importancia
de encontrar un equilibrio óptimo entre el número de épocas y el tamaño del lote para obtener
el mejor rendimiento.

Estos resultados revelan variaciones en el rendimiento de las diferentes arquitecturas en tér-


minos de precisión y velocidad de convergencia. Las métricas de evaluación incluyeron la
Intersección sobre la Unión para cada clase, así como el Dice loss durante el entrenamiento y
la validación.

Los resultados obtenidos de esta primera fase fueron fundamentales para seleccionar los val-
ores de hiperparámetros más adecuados para la implementación del método, considerando
continuar los demás entrenamientos con una conguración de 60 épocas y un Batch Size de
8, teniendo en cuenta tanto la precisión como la eciencia computacional.

5.1.2 Fase 2
Al analizar los resultados de los entrenamientos de las diferentes arquitecturas de Redes Neu-
ronales Convolucionales en la Fase 2, se extrae:

Impacto de la arquitectura de red:


UNet++ tiende a tener un rendimiento ligeramente mejor en IoU Score en comparación con U-
Net, indicando una capacidad mejorada para capturar características complejas de imágenes,
aunque con un leve aumento en el tiempo de entrenamiento.

Comparación entre redes:


DeepLabV3+ y LinkNet muestran puntajes de IoU Score y Dice loss más bajos en promedio
en comparación con U-Net y UNet++, sugiriendo que podrían ser menos efectivas para la
segmentación de imágenes en este conjunto de datos especíco.

Impacto del tipo de imágenes:


No se observa una diferencia signicativa entre el entrenamiento con imágenes RGB y el uso
exclusivo del canal verde. Sin embargo, las imágenes con un valor de 200 de h-domo reejan
una mayor precisión, sugiriendo que las Redes Neuronales Convolucionales utilizadas se pueden
generalizar bien a diferentes tipos de imágenes en este conjunto de datos.

Variabilidad en el rendimiento:
Existe cierta variabilidad en el rendimiento, incluso con la misma arquitectura y tipo de imá-
genes, debido a factores como la inicialización aleatoria de pesos, la aleatoriedad en la opti-
mización y la sensibilidad del modelo a la calidad de los datos.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 55


Discusión y limitaciones

Tiempo de entrenamiento:
Aunque hay variaciones en el tiempo de entrenamiento entre los modelos, en general, parece
ser consistente y no hay diferencias drásticas entre las arquitecturas.

Estos hallazgos subrayan la importancia de probar diversas arquitecturas y tipos de imágenes


para optimizar el rendimiento del modelo de segmentación de imágenes.

5.1.3 Fase 3
Desempeño de las arquitecturas de las redes:
Se observa que las arquitecturas de las redes U-Net y UNet++ obtienen puntajes de IoU
Score consistentemente más altos en comparación con las demás arquitecturas. Esto sugiere
que las arquitecturas U-Net y UNet++ pueden ser más efectivas para este conjunto de datos
especíco o este tipo de tarea de segmentación.

Impacto del tipo de imágenes:


Al analizar los resultados entre los diferentes tipos de imágenes utilizadas en el entrenamiento
(h-domo y canal verde), se notó que hay diferencias en el desempeño de las arquitecturas de
las redes. No obstante, la Red Neuronal Convolucional UNet++ continúa representando la
precisión más alta de IoU Score para el h-domo de 200.

Tiempo de entrenamiento:
No existe una diferencia signicativa en los tiempos de entrenamiento entre las distintas
arquitecturas. Todos los tiempos de entrenamiento están dentro de un rango similar, lo que
indica que las redes tienen una complejidad computacional comparable para este conjunto de
datos y conguración de entrenamiento.

5.1.4 Aumentación de Datos


El desempeño de las métricas de evaluación en la aumentación de datos muestra mejoras en
comparación con la Fase 3:

• El IoU Score tiende a ser ligeramente más alto, indicando una mayor capacidad del
modelo para generalizar y segmentar con precisión.

• La tendencia a valores más bajos de Dice loss expone una mejora en la precisión de la
segmentación.

• Los tiempos de entrenamiento son consistentemente más largos debido a la generación


de imágenes adicionales durante la aumentación de datos.

La aumentación de datos ha mejorado el desempeño del modelo en términos de IoU Score


y Dice loss, permitiendo al modelo aprender características más robustas y generalizables.
Sin embargo, en algunos casos, el rendimiento puede disminuir debido a la introducción de
variabilidad.

A pesar del aumento en el tiempo de entrenamiento debido a la aumentación de datos,


este incremento no es excesivamente signicativo. Los benecios en términos de desempeño

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 56


Discusión y limitaciones

pueden justicar su uso, aunque su impacto puede variar según la conguración especíca del
modelo y los datos utilizados.

5.1.5 SAM
La utilización de SAM para identicar células en el Ensayo Cometa es una aplicación intere-
sante y prometedora de la tecnología de segmentación de imágenes. No obstante, la dicultad
que enfrenta SAM al segmentar adecuadamente las colas de las células podría deberse a varias
razones:

Complejidad morfológica de las colas: Las colas de las células en el Ensayo Cometa
pueden tener características morfológicas complejas, como variabilidad en longitud, grosor,
forma, variaciones también en términos de color, textura o contraste. SAM puede perder
estructuras nas, lo cual podría ser especialmente crítico al segmentar las colas de las células
del Ensayo Cometa. Si las colas son delgadas o presentan detalles sutiles, la falta de resolución
en estas estructuras nas podría conducir a la incapacidad de segmentarlas con precisión.

Producción de componentes pequeños desconectados: La generación ocasional de


componentes pequeños desconectados por parte de SAM podría afectar la continuidad en
la segmentación de las colas celulares. Si las colas son interpretadas como componentes
pequeños independientes, esto podría conducir a segmentaciones fragmentadas.

5.1.6 Validación IoU de las imágenes Ground Truth y las imá-


genes predichas por el modelo
La Tabla A3.1 muestra los resultados obtenidos al evaluar 30 imágenes utilizando la métrica
de IoU, la cual mide la Intersección sobre la Unión entre las imágenes predichas y las Ground
Truth. En general, los valores de IoU oscilan entre 78% y 88%. Se observa que la mayoría
de las imágenes alcanzan puntajes de IoU relativamente altos, con la mayoría obteniendo
valores por encima del 80%. Esto indica un fuerte acuerdo entre las imágenes predichas y las
Ground Truth, indicando que el modelo de segmentación funciona bien al delinear las regiones
de interés en las imágenes. Esto sugiere que el modelo de segmentación exhibe robustez
y consistencia en su rendimiento a través de una variedad de muestras de imágenes. En
general, los altos valores de IoU obtenidos de la evaluación indican la efectividad del enfoque
de segmentación para delinear con precisión las regiones de interés en las imágenes.

5.1.7 Validación de las imágenes (Estudiantes, Ground Truth y


Modelo)
5.1.7.1 Comparación de las máscaras de los estudiantes con la imagen Ground
Truth

• Variabilidad en la interpretación humana: Los resultados revelan una variabilidad sig-


nicativa en la interpretación de las imágenes por parte de los estudiantes, como se
evidencia en los bajos valores de IoU con respecto a la imagen Ground Truth. Esta

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 57


Discusión y limitaciones

variabilidad podría atribuirse a la subjetividad inherente en la tarea de anotación, donde


los anotadores pueden interpretar los límites celulares de manera ligeramente distinta.

• Patrones especícos de error humano: Al observar los patrones de error humano, se


puede identicar áreas especícas donde los anotadores han tenido dicultades. Esta
información puede ser crucial para futuras mejoras en la anotación manual, proporcio-
nando orientación sobre las áreas que podrían requerir atención adicional o una guía
más detallada.

5.1.7.2 Comparación de las máscaras de los estudiantes y la imagen Ground


Truth con la imagen predicha por el modelo

• Rendimiento sólido del modelo: A pesar de las discrepancias en las máscaras gener-
adas por los estudiantes, es alentador notar que el modelo ha logrado mantener un
rendimiento sólido, como se reeja en los relativamente altos valores de IoU con re-
specto a la Ground Truth. Esto respalda la armación de que el modelo es capaz de
realizar la tarea de segmentación con consistencia y alta precisión.

• Robustez del modelo frente a la variabilidad humana: La comparación de las máscaras


de los estudiantes con la imagen predicha por el modelo destaca la robustez del modelo
frente a las variaciones en la anotación humana. A pesar de las diferencias individuales
en la interpretación humana, el modelo ha demostrado mantener una concordancia
notablemente alta con la imagen Ground Truth, sugiriendo una capacidad robusta para
la segmentación celular.

En última instancia, la comparación dual proporciona una perspectiva completa de la tarea de


segmentación celular, destacando tanto la contribución del factor humano como la fortaleza del
modelo implementado. Estos resultados subrayan la importancia de abordar las complejidades
inherentes a la anotación manual y resaltan la necesidad de considerar estrategias para mejorar
la consistencia en la interpretación humana en futuros trabajos.

5.1.8 Respuesta del funcionamiento del programa


Se muestra como el programa logra contar y clasicar 12 células del Ensayo Cometa en la
Figura 4.10, logrando discriminar muy bien el ruido de la imagen y descartar objetos no
deseados, además marca con gran exactitud todo el contorno de cada célula. El programa
exporta un archivo Excel donde se aloja la información del ADN de cada célula, a continuación
se da la explicación de cada columna:

• COMET NUMBER: Los números de cometas sirven como identicadores únicos para
cada célula en la imagen.

• COMET AREA, HEAD AREA, TAIL AREA: El "COMET AREA" se reere al


área total del cometa, mientras que "HEAD AREA" y "TAIL AREA" indican las áreas
especícas de la cabeza y la cola respectivamente. En general, la distribución entre la
cabeza y la cola varía para cada cometa, lo que es esencial para entender la estructura
y la gravedad del daño.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 58


Discusión y limitaciones

• COMET INTENSITY, HEAD INTENSITY, TAIL INTENSITY: Estos valores


representan las intensidades de uorescencia en el cometa, la cabeza y la cola respecti-
vamente. La intensidad de uorescencia es una medida de la cantidad de ADN presente
en cada región del cometa. Los resultados muestran variaciones signicativas en la
intensidad entre diferentes cometas, lo que puede indicar niveles variables de daño en
el ADN.

• PERCENTAGE OF DNA DAMAGE (%): Este porcentaje indica la proporción de


daño en el ADN de cada cometa. Los cometas se clasican en diferentes categorías
de daño basándose en este porcentaje, como se observa en la Tabla 3.9. Por ejemplo,
aquellos con un porcentaje cercano al 100% se clasican como "Critical", mientras que
aquellos con porcentajes bajos pueden clasicarse como "Slight" o "No Damage".

• TYPE OF DAMAGE: La clasicación del tipo de daño se basa en el porcentaje de


daño en el ADN. "Critical" indica daño crítico, "Slight" indica daño leve y "No Damage"
quiere decir que el cometa es sano. En general, la Tabla 4.5 revela una variedad de
niveles de daño en el ADN de las células del ensayo cometa en la imagen. Los cometas
1, 9 y 10 se clasican como "Critical" debido a un porcentaje de daño cercano al 100%,
mientras que otros cometas muestran daño menor ("Slight") o ningún daño aparente
("No Damage"). Estos resultados son cruciales para comprender la salud de las células
y proporcionan información valiosa para investigaciones relacionadas con genotoxicidad
y daño al ADN.

Casos de Interés Especial:


Las células 2 y 3 no muestran cola, indicando que no hay daño en el cometa. Estas se clasican
como "No Damage".

Las células 1, 9 y 10 tienen un daño crítico, con un porcentaje de daño del ADN cercano al
100%. Investigar estas células puede proporcionar información valiosa sobre las condiciones
que causan daño severo al ADN.

El método es capaz de identicar y clasicar células en diferentes niveles de daño. Sin embargo,
cualquier interpretación o conclusión biológica debe validarse con conocimientos de expertos
y, posiblemente, mediante comparación con métodos adicionales de análisis de imágenes o
técnicas de laboratorio.

5.1.9 Consideraciones y diferencias entre el método desarrollado


y la alternativa preexistente
• Verdaderos Positivos: En las tres guras, se percibe que el método propuesto logró
etiquetar la totalidad de las células cometa, mientras que OpenComet no pudo alcanzar
el mismo nivel de precisión. En la Figura 4.11, el método etiquetó exitosamente doce
células, en contraste con las siete identicadas por OpenComet. En la Figura 4.12, el
método logró etiquetar ocho células, mientras que OpenComet no identicó ninguna.
Finalmente, en la Figura 4.13, el método etiquetó doce células, superando las nueve
correctamente etiquetadas por OpenComet.

• Falsos Positivos: En relación con la Figura 4.11, se observa que la imagen resultante
del método propuesto no posee falsos positivos. En contraste, al analizar el resultado

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 59


Discusión y limitaciones

de OpenComet, se destaca la presencia de cuatro falsos positivos. Adicionalmente, en


el caso de la Figura 4.12, el método no arroja falsos positivos en su resultado. Por
el contrario, la aplicación OpenComet identica nueve falsos positivos. Finalmente, al
examinar la Figura 4.13, al igual que en las dos guras anteriores, el método propuesto
no presenta falsos positivos. Sin embargo, la alternativa preexistente exhibe cuatro
falsos positivos, similar a la Figura 4.11.

• Falsos Negativos: En relación a las Figuras 4.11,4.12,4.13, se evidencia que la ima-


gen resultante del método implementado no presenta falsos negativos, ya que todas
las células cometa fueron identicadas. A pesar de que la etiqueta 5 fue asociada in-
correctamente a dos células debido a su superposición, no se registraron omisiones de
células cometa. En contraste, al examinar la aplicación OpenComet, se observa que en
la Figura 4.11 se registran cinco falsos negativos. En la Figura 4.12, todas las células
cometa son erróneamente consideradas como falsos negativos. Asimismo, en la Figura
4.13 se identican dos falsos negativos, destacando que contó dos cometas con las eti-
quetas 4 y 5, cuando en realidad representan un solo cometa que fue correctamente
reconocido por el método implementado.

En resumen, el método propuesto supera a OpenComet al no presentar falsos positivos y


lograr identicar correctamente todas las células cometa. Mientras OpenComet exhibe falsos
positivos y negativos, además de una menor precisión en la etiquetación de células. Estos
resultados resaltan la ecacia del método propuesto para mejorar la precisión y conabilidad
en la identicación de células cometa en comparación con OpenComet.

En otro orden de ideas, el método diferencia las células al asignar colores especícos a los
contornos que las rodean, según el tipo de daño en su ADN. Dónde el tono blanco denota
la ausencia de daño, el azul celeste indica daño leve, el amarillo reeja daño moderado, el
naranja denota daño serio y el rojo señala daño crítico. En contraste, OpenComet no lleva a
cabo esta clasicación.

5.2 Limitaciones

Se identicaron diversas limitaciones durante la realización de este trabajo de investigación.

La obtención de máscaras para algunas imágenes del Ensayo Cometa resultó desaante debido
a la presencia de problemas tales como ruido, iluminación irregular y artefactos. Estos factores
dicultaron la precisa identicación de las células, lo que inuyó negativamente en la calidad
y conabilidad de los resultados obtenidos.

Además, se observó una variabilidad notable en el tiempo requerido para generar las imágenes
Ground Truth, inuenciada por la complejidad de las imágenes. Mientras que las imágenes
simples tomaban entre 15 y 30 minutos, aquellas más complejas requerían al menos una hora.
Esta variabilidad pudo impactar la eciencia y productividad del trabajo.

Otra limitación importante fue la disponibilidad restringida de recursos computacionales, es-


pecialmente la capacidad de almacenamiento, lo que afectó el procesamiento y entrenamiento
de los modelos de aprendizaje automático y la capacidad para procesar grandes volúmenes de
datos.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 60


Capítulo 6
Conclusiones y Recomendaciones

6.1 Conclusiones

El avance tecnológico y la creciente demanda de herramientas automatizadas en el campo de la


biología celular han impulsado la búsqueda de métodos precisos y ecientes para la detección
y análisis de células en imágenes de microscopía. En este contexto, el presente estudio
se enfocó en el desarrollo de un innovador método para la detección y conteo automático
de células cometas en imágenes de microscopía. Este método representa una contribución
signicativa en el ámbito de la detección automatizada de anomalías celulares, especícamente
en el contexto de linfocitos de pintores de automóviles.

A lo largo de este trabajo, se abordaron diversos aspectos relacionados con la metodología


propuesta. Se logró depurar y procesar ecientemente las imágenes de células cometas, lo
que permitió una detección más precisa y un conteo más able. Este avance sugiere que
la metodología propuesta es adecuada para el análisis de imágenes complejas en entornos
especícos, como el estudio de células en condiciones particulares.

Además, se llevaron a cabo pruebas exhaustivas de diferentes técnicas de Aprendizaje de


Máquinas y Procesamiento Digital de Imágenes para la medición, clasicación y conteo de
células cometas. Esto permitió identicar las metodologías más efectivas para alcanzar los
objetivos de detección y conteo automáticos.

Los resultados obtenidos fueron validados comparándolos con los resultados obtenidos man-
ualmente, lo que sugiere que el método desarrollado es preciso y conable. Esta concordancia
entre los resultados automáticos y manuales aumenta la conanza en su aplicación en en-
tornos clínicos o de investigación, con importantes implicaciones tanto en la investigación
médica como en la industria automotriz.

Se destaca la eciencia y rapidez proporcionadas por el modelo desarrollado en comparación


con los métodos manuales tradicionales. La Red Neuronal Combinada con mejor IoU Score fue
la ResNet50 + UNet++ con una precisión del 97,44% sin aumentación de datos utilizando
imágenes con h-domo de 200, mientras que con aumentación de datos fue la ResNet50
+ U-Net con una precisión del 97,54% usando imágenes en canal verde. Mientras que el
proceso manual consume, en promedio, entre 30 minutos y una hora, el modelo ResNet50 +
UNet++ logra completar la tarea en tan solo 10 segundos. La notable discrepancia en los
tiempos resalta la eciencia del método automatizado, que logra completar la tarea en tan
solo segundos. De esta manera, el método propuesto representa un avance signicativo en el
campo de la detección automatizada de células cometas, con importantes implicaciones en la
investigación médica y la industria automotriz.

61
6.2 Recomendaciones

• Es fundamental considerar detenidamente los recursos computacionales disponibles al


diseñar y ejecutar futuras investigaciones en este campo. Identicar y mitigar proacti-
vamente posibles limitaciones en la infraestructura tecnológica son aspectos cruciales
para garantizar la ecacia y la conabilidad de los resultados obtenidos en proyectos de
investigación cientíca y tecnológica.

• Se recomienda la implementación de técnicas de dropout para mitigar el sobreajuste.


El dropout implica la desactivación aleatoria de algunas neuronas de la CNN durante el
entrenamiento, lo que ayuda a que la CNN aprenda características más generalizables
y evite el ajuste excesivo a los datos de entrenamiento.

• Se sugiere ampliar signicativamente el tamaño del conjunto de datos en investigaciones


futuras. Un conjunto de datos más grande no solo proporcionará una representación
más completa de las diversas situaciones y características presentes, sino que también
permitirá al modelo identicar patrones más profundos y sutiles. El enriquecimiento del
conjunto de datos mejorará la capacidad de generalización del modelo y proporcionará
una base más sólida para la identicación de relaciones complejas entre las variables,
contribuyendo así a un análisis más profundo y la obtención de resultados más robustos.

• Dados los desafíos encontrados en la segmentación precisa de las colas de los cometas
utilizando SAM, se sugiere explorar la posibilidad de utilizar el código y la arquitectura
del modelo SAM como base para mejorar la segmentación en este contexto especí-
co. A pesar de las limitaciones identicadas, SAM ha demostrado ser una herramienta
poderosa en la segmentación de una amplia variedad de objetos en imágenes. Por
lo tanto, adaptar y ajustar el modelo SAM para abordar las peculiaridades de la seg-
mentación de colas de cometas podría ofrecer mejoras signicativas en la precisión y
conabilidad de los resultados. Se recomienda llevar a cabo investigaciones adicionales
y experimentos especícos para optimizar SAM para esta tarea, utilizando este trabajo
como punto de partida y referencia.

6.3 Aportes

• La aplicación desarrollada actualmente está siendo utilizada con gran éxito en el Labo-
ratorio de Biología Celular de la Ponticia Universidad Javeriana de Cali.

• Como resultado de este trabajo, se ha redactado el artículo "Método automático de de-


tección y análisis de imágenes de Ensayo Cometa mediante procesamiento de imágenes
y redes neuronales convolucionales", para ser sometido a evaluación en la tercera con-
ferencia colombiana de matemáticas aplicadas e industriales (MAPI3), y posteriormente
será enviado para su publicación en una revista indexada.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 62


Referencias Bibliográcas

[1] Enfermedades no transmisibles - ops/oms | organización panamericana de la salud.


[Online]. Available: https://www.paho.org/es/temas/enfermedades-no-transmisibles

[2] Infografías cáncer en cifras inc - instituto nacional de cancerología.


[Online]. Available: https://www.cancer.gov.co/portafolio-1/salud-publica/grupos/
grupo-vigilancia-epidemiologica-del-cancer/infograas-cancer-cifras-inc

[3] Cáncer. [Online]. Available: https://www.minsalud.gov.co/salud/publica/PENT/


Paginas/Prevenciondel-cancer.aspx

[4] C. Bernstein, A. R. Prasad, V. Nfonsam, H. Bernstein, C. Bernstein, A. R.


Prasad, V. Nfonsam, and H. Bernstein, Dna damage, dna repair and cancer,
New Research Directions in DNA Repair, 5 2013. [Online]. Available: https:
//www.intechopen.com/chapters/43929undened/chapters/43929

[5] M. Klaude, S. Eriksson, J. Nygren, and G. Ahnstrijm, The comet assay: mechanisms and
technical considerations, DNA Repair Mutation Research, vol. 363, pp. 8996, 1996.

[6] A. R. Collins, Comet assay for dna damage and repair 249 review 249 abstract the comet
assay for dna damage and repair principles, applications, and limitations, MOLECULAR
BIOTECHNOLOGY, vol. 26, 2004.

[7] M. Dusinska and A. R. Collins, The comet assay in human biomonitoring:


gene-environment interactions, Mutagenesis, vol. 23, pp. 191205, 5 2008. [Online].
Available: https://pubmed.ncbi.nlm.nih.gov/18326867/

[8] D. W. Fairbairn, P. L. Olive, and K. L. O'neill, The comet assay: a comprehensive


review, Mutation Research, vol. 339, pp. 3759, 1995.

[9] A. N. Jha, Ecotoxicological applications and signicance of the comet assay,


Mutagenesis, vol. 23, pp. 207221, 2008. [Online]. Available: https://academic.oup.
com/mutage/article/23/3/207/1236023

[10] D. Anderson, T.-W. Yu, and D. B. Mcgregor, Comet assay responses as indicators
of carcinogen exposure, Mutagenesis, vol. 13, pp. 539555, 1998. [Online]. Available:
https://academic.oup.com/mutage/article/13/6/539/1044063

[11] E. I. Cortés-Gutiérrez, M. I. Dávila-Rodríguez, J. L. Fernández, C. López-Fernández,


A. Gosálbez, and J. Gosálvez, New application of the comet assay: Chromosome-comet
assay, Journal of Histochemistry and Cytochemistry, vol. 59, pp. 655660, 2011.
[Online]. Available: http://jhc.sagepub.com

63
[12] J. Ashby, H. Tinwell, P. A. Lefevre, and M. A. Browne, The single cell gel
electrophoresis assay for induced dna damage (comet assay): measurement of tail
length and moment, Mutagenesis, vol. 10, pp. 8590, 3 1995. [Online]. Available:
https://dx.doi.org/10.1093/mutage/10.2.85

[13] T. S. Kumaravel, B. Vilhar, S. P. Faux, and A. N. Jha, Comet assay measurements: A


perspective, Cell Biology and Toxicology, vol. 25, pp. 5364, 2 2009.

[14] E. E. Bankoglu, G. Kodandaraman, and H. Stopper, A systematic review of the use of


the alkaline comet assay for genotoxicity studies in human colon-derived cells, 2018.
[Online]. Available: https://doi.org/10.1016/j.mrgentox.2018.10.008

[15] A. C. F. Souza, V. Q. Yujra, L. P. Pisani, M. D. B. Viana, G. M.


de Castro, and D. A. Ribeiro, The use of single-cell comet assay on
oral cells: A critical review, Anticancer Research, vol. 39, pp. 40114017,
8 2019. [Online]. Available: https://ar.iiarjournals.org/content/39/8/4011https:
//ar.iiarjournals.org/content/39/8/4011.abstract

[16] G. Vidya, V. Gladwin, and P. Chand, A comprehensive review on clinical applications


of comet assay, Journal of Clinical and Diagnostic Research : JCDR, vol. 9, p. GE01,
3 2015. [Online]. Available: /pmc/articles/PMC4413081//pmc/articles/PMC4413081/
?report=abstracthttps://www.ncbi.nlm.nih.gov/pmc/articles/PMC4413081/

[17] P. L. Olive and J. P. Banáth, The comet assay: a method to measure dna damage
in individual cells, Nature protocols, vol. 1, pp. 2329, 6 2006. [Online]. Available:
https://pubmed.ncbi.nlm.nih.gov/17406208/

[18] J. Serra, M mathematical morphology, 2022. [Online]. Available: https:


//doi.org/10.1007/978-3-030-26050-7_22-2

[19] C. Lantuejoul and F. Maisonneuve, Geodesic methods in quantitative image analysis,


Pattern Recognition, vol. 17, pp. 177187, 1 1984.

[20] L. U. Vincent, Morphological gray scale reconstruction in image analysis: Applications


and ecient algorithms, pp. 193, 1993.

[21] N. OTSU, A threshold selection method from gray-level histograms, p. 5, 1979. [On-
line]. Available: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4310076

[22] Pixel connectivity. [Online]. Available: https://www.mathworks.com/help/images/


pixel-connectivity.html

[23] One hot encoding. [Online]. Available: https://interactivechaos.com/es/manual/


tutorial-de-machine-learning/one-hot-encoding

[24] S. Yadav, A gentle introduction to convolutional neural networks, Medium, 2020.

[25] O. Ronneberger, P. Fischer, and T. Brox, U-net: Convolutional networks for biomedical
image segmentation, 5 2015. [Online]. Available: http://arxiv.org/abs/1505.04597

[26] Z. Zhou, M. M. R. Siddiquee, N. Tajbakhsh, and J. Liang, Unet++: A nested


u-net architecture for medical image segmentation, arXiv, 2018. [Online]. Available:
https://arxiv.org/abs/1807.10165

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 64


[27] L.-C. Chen, Y. Zhu, G. Papandreou, F. Schrof, and H. Adam, Encoder-decoder with
atrous separable convolution for semantic image segmentation, arXiv, 2018. [Online].
Available: https://arxiv.org/abs/1802.02611

[28] A. Chaurasia and E. Culurciello, Linknet: Exploiting encoder representations


for ecient semantic segmentation, arXiv, 2017. [Online]. Available: https:
//arxiv.org/abs/1707.03718

[29] H. Li, P. Xiong, J. An, and L. Wang, Pyramid attention network for semantic
segmentation, arXiv, 2018. [Online]. Available: https://arxiv.org/abs/1805.10180

[30] K. He, X. Zhang, S. Ren, and J. Sun, Deep residual learning for image recognition, 12
2015. [Online]. Available: http://arxiv.org/abs/1512.03385

[31] W. Backer, W. Rolf, T. Bauch, W.-U. Muller, and C. Streer, Automated comet assay
analysis, 1999.

[32] B. M. Gyori, G. Venkatachalam, P. S. Thiagarajan, D. Hsu, and M. V. Clement, Open-


comet: An automated tool for comet assay image analysis, Redox Biology, vol. 2, pp.
457465, 2014.

[33] P. R. Barber, B. Vojnovic, J. Kelly, C. R. Mayes, P. Boulton, M. Woodcock, and


M. C. Joiner, Automated counting of mammalian cell colonies institute of physics
publishing physics in medicine automated counting of mammalian cell colonies, pp.
6376, 2001. [Online]. Available: http://iopscience.iop.org/0031-9155/46/1/305www.
iop.org/Journals/pbPII:S0031-9155

[34] P. R. Barber, J. Kelly, C. R. Mayes, P. Boulton, M. Woodcock, and M. C. Joiner, An


automated colony counter utilising a compact hough transform, 2003.

[35] C. Helma and M. Uhl, A public domain image-analysis program for the
single-cell / gel-electrophoresis comet assay, pp. 915, 2000. [Online]. Available:
www.elsevier.comrlocatergentoxCommunityaddress:www.elsevier.comrlocatermutres

[36] T. Lee, S. Lee, W. Y. Sim, Y. M. Jung, S. Han, J. H. Won, H. Min, and S. Yoon,
Hicomet: A high-throughput comet analysis tool for large-scale dna damage assess-
ment, BMC Bioinformatics, vol. 19, 2 2018.

[37] K. Ko«ca, A. Lanko, A. Banasik, H. Lisowska, T. Kuszewski, S. Gó¹d¹, Z. Koza, and


A. Wojcik, A cross-platform public domain pc image-analysis program for the comet
assay, Mutation Research/Genetic Toxicology and Environmental Mutagenesis, vol. 534,
no. 1-2, pp. 1520, 2003.

[38] A. Palit, P. Talukdar, K. Gupta, and S. N. Talapatra, Cell proler software: An easy
screening tool for dna damage estimation in sh erythrocytes from comet assay image,
2016. [Online]. Available: www.worldscienticnews.com

[39] J. E. Gonzýlez, I. Romero, J. F. Barquinero, and O. GarcÃa, Automatic analysis of


silver-stained comets by cellproler software, Mutation Research - Genetic Toxicology
and Environmental Mutagenesis, vol. 748, pp. 6064, 10 2012.

[40] J. G. Robison, L. Lu, K. Dixon, and J. J. Bissler, Dna lesion-specic co-localization


of the mre11/rad50/nbs1 (mrn) complex and replication protein a (rpa) to repair foci,
Journal of Biological Chemistry, vol. 280, pp. 12 92712 934, 4 2005.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 65


[41] A. Beleon, S. Pignatta, C. Arienti, A. Carbonaro, P. Horvath, G. Martinelli, G. Castellani,
A. Tesei, and F. Piccinini, Cometanalyser: A user-friendly, open-source deep-learning
microscopy tool for quantitative comet assay analysis, Computational and Structural
Biotechnology Journal, vol. 20, pp. 41224130, 1 2022.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 66


67
Capítulo A1
Anexos: Grácas Resultados de los
Entrenamientos

Figura A1.1: Grácas y Salida Entrenamientos Fase 1. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 68


Figura A1.2: Grácas y Salida Entrenamientos F215. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 69


Figura A1.3: Grácas y Salida Entrenamientos F215. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 70


Figura A1.4: Grácas y Salida Entrenamientos F215. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 71


Figura A1.5: Grácas y Salida Entrenamientos h-domo 65. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 72


Figura A1.6: Grácas y Salida Entrenamientos h-domo 140. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 73


Figura A1.7: Grácas y Salida Entrenamientos h-domo 207. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 74


Figura A1.8: Grácas y Salida Entrenamientos h-domo 215. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 75


Figura A1.9: Grácas y Salida Entrenamientos Fase 3. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 76


Figura A1.10: Grácas y Salida Entrenamientos Fase 3. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 77


Figura A1.11: Grácas y Salida Entrenamientos Fase 4. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 78


Figura A1.12: Grácas y Salida Entrenamientos Fase 4. (IoU Score vs Dice Loss)

(a) (b)

(c) (d)

(e) (f)

(g) (h)

(i) (j)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 79


80
Capítulo A2
Anexos: Imágenes de los Resultados
de las Redes Entrenadas

Figura A2.1: Salidas Entrenamientos de la Fase 1.

(a)

(b)

(c)

(d)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 81


Figura A2.2: Salidas Entrenamientos 1 al 5 de la Fase 2.

(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 82


Figura A2.3: Salidas Entrenamientos 6 al 10 de la Fase 2.

(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 83


Figura A2.4: Salidas Entrenamientos 11 al 15 de la Fase 2.

(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 84


Figura A2.5: Salidas Entrenamientos realizados con imágenes procesadas con h-domo 215.
(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 85


Figura A2.6: Salidas Entrenamientos realizados con imágenes procesadas con h-domo 207.
(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 86


Figura A2.7: Salidas Entrenamientos realizados con imágenes procesadas con h-domo 140.
(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 87


Figura A2.8: Salidas Entrenamientos realizados con imágenes procesadas con h-domo 65.
(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 88


Figura A2.9: Salidas Entrenamientos 1 al 5 de la Fase 3

(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 89


Figura A2.10: Salidas Entrenamientos 6 al 10 de la Fase 3

(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 90


Figura A2.11: Salidas Entrenamientos 1 al 5 de la Fase 4.

(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 91


Figura A2.12: Salidas Entrenamientos 6 al 10 de la Fase 4.

(a)

(b)

(c)

(d)

(e)

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 92


Capítulo A3
Anexos: Imágenes Resultados
Validaciones de las imágenes Ground
Truth y las Máscaras Predichas

La siguiente tabla muestra los porcentajes de la Intersección sobre la Unión que se obtu-
vieron al evaluar 30 imágenes aleatorias de las Ground Truth con imágenes de las máscaras
predichas:

Tabla A3.1: Resultados comprobación IoU entre las imágenes Ground Truth y las máscaras
predichas por el modelo.

Imagen IoU Imagen IoU


1 81% 16 88%
2 78% 17 86%
3 81% 18 84%
4 78% 19 83%
5 81% 20 87%
6 81% 21 86%
7 79% 22 86%
8 80% 23 83%
9 79% 24 86%
10 78% 25 85%
11 78% 26 84%
12 79% 27 82%
13 81% 28 84%
14 87% 29 87%
15 85% 30 85%

93
Figura A3.1: Resultados de validación IoU.

(a) Error del modelo ejemplo 1 (b) Conjunción ejemplo 1

(c) Error del modelo ejemplo 2 (d) Conjunción ejemplo 2

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 94


Figura A3.2: Resultados de validación IoU.

(a) Error del modelo ejemplo 3 (b) Conjunción ejemplo 3

(c) Error del modelo ejemplo 4 (d) Conjunción ejemplo 4

(e) Error del modelo ejemplo 5 (f) Conjunción ejemplo 5

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 95


Capítulo A4
Anexos: Ejemplos Resultados del
Programa

Ejemplo 1

Figura A4.1: (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas.

(a) (b)

Fuente: Autor (2024)

Tabla A4.1: Datos de las células.

COMET COMET HEAD TAIL COMET HEAD TAIL PERCENTAGE TYPE OF


NUMBER AREA AREA AREA INTENSITY INTENSITY INTENSITY OF DNA DAMAGE
1 8130 2000 6130 1223052 647952 575100 47.02 Moderate
2 6039 2200 3839 1048002 640956 407046 38.84 Moderate
3 7647 1400 6247 1158942 513888 645054 55.66 Moderate
4 5644 1400 4244 972426 504489 467937 48.12 Moderate
5 14343 1200 13143 1781100 473871 1307229 73.39 Serious
6 7730 1300 6430 1148076 544191 603885 52.6 Moderate
7 8448 2100 6348 1252128 645663 606465 48.43 Moderate
8 9138 1600 7538 1336095 572814 763281 57.13 Moderate
9 5349 1100 4249 903414 475716 427698 47.34 Moderate

96
Ejemplo 2

Figura A4.2: (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas.

(a) (b)

Fuente: Autor (2024)

Tabla A4.2: Datos de las células.

COMET COMET HEAD TAIL COMET HEAD TAIL PERCENTAGE TYPE OF


NUMBER AREA AREA AREA INTENSITY INTENSITY INTENSITY OF DNA DAMAGE
1 23198 0 23198 822759 0 822759 100 Critical
2 26363 0 26363 1483689 0 1483689 100 Critical
3 22561 300 22261 1054629 58026 996603 94.5 Critical
4 23454 0 23454 1163736 0 1163736 100 Critical
5 22959 200 22759 1245249 16785 1228464 98.65 Critical
6 14651 2200 12451 1059231 630426 428805 40.48 Moderate
7 24069 0 24069 1471473 0 1471473 100 Critical
8 20750 1600 19150 1163322 369324 793998 68.25 Serious
9 24975 0 24975 446751 0 446751 100 Critical
10 24366 0 24366 1238394 0 1238394 100 Critical
11 22463 0 22463 1120287 0 1120287 100 Critical

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 97


Capítulo A5
Anexos: Manual de Usuario

A5.1 Manual de Usuario (CometScanner)

Figura A5.1: Interfaz Pantalla Inicial.

Fuente: Autor (2024)

A5.1.1 Introducción
A5.1.1.1 Descripción

CometScanner es una aplicación diseñada para abordar de manera eciente y precisa la clasi-
cación de células del Ensayo Cometa. Su función principal es evaluar el daño al ADN
representado por cada célula en una imagen importada, facilitando así la investigación en
biología celular y genética.

98
A5.1.1.2 Propósito

El propósito fundamental de CometScanner es ofrecer a la comunidad cientíca y a profesion-


ales en biología celular y genética una herramienta avanzada y fácil de usar para la clasicación
y cuanticación precisa del daño al ADN en células del Ensayo Cometa. La aplicación está
diseñada para agilizar y mejorar signicativamente el proceso de análisis de imágenes, permi-
tiendo una investigación más eciente.

A5.1.1.3 Objetivos

• Proporcionar una interfaz intuitiva para la importación y clasicación de imágenes del


Ensayo Cometa.

• Automatizar la clasicación de células según el daño al ADN, mejorando la eciencia


del análisis.

• Facilitar la interpretación de resultados mediante una representación visual clara y de-


tallada.

• Permitir a los usuarios personalizar la ubicación de almacenamiento de los resultados.

• Ofrecer recursos de ayuda a través de videos, como el tutorial, para garantizar una
experiencia de usuario sin complicaciones.

A5.1.2 Versiones de Software Necesarias


A5.1.2.1 Python

• Se requiere Python 3.6.9 o superior.

 Puedes descargar la última versión de Python desde python.org.

A5.1.2.2 Bibliotecas de Python

• Asegúrate de tener instaladas las siguientes bibliotecas utilizando el gestor de paquetes


pip:

 opencv-python (versión 4.9.0.80)

 torch (versión 1.10.1)

 PyQt5 (versión 5.15.6)

 albumentations (versión 1.3.0)

 XlsxWriter (versión 3.1.9)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 99


A5.1.3 Disponibilidad en Repositorio de GitHub
La aplicación CometScanner y sus componentes esenciales se encuentran alojados en un repos-
itorio público en GitHub, facilitando el acceso y la utilización por parte de los usuarios intere-
sados. Este repositorio alberga no solo el programa principal de la aplicación, sino también
todos los códigos fuente necesarios para su ejecución y otros recursos asociados.

Puede ingresar al repositorio aquí: Repositorio CometScanner

A5.1.4 Procedimiento de Inicio


Para iniciar, descargue todos los archivos disponibles en el repositorio, incluyendo aquellos que
se encuentran enlazados dentro del Google Drive proporcionado. Se sugiere crear una carpeta
especíca y alojar en ella todos los archivos descargados. A continuación, abra su entorno
de desarrollo Python preferido, cargue la carpeta recién creada y abra el código denominado
"Application". Es importante destacar que el usuario debe ajustar la ruta del archivo del
modelo entrenado en el código "Application". Además, es necesario modicar la ruta del
archivo "label_class_dict.csv" dentro del código "model".

Finalmente, ejecute el código "Application" para iniciar la interfaz. Este procedimiento garan-
tizará un correcto desempeño de la aplicación CometScanner.

A5.1.5 Interfaz de Usuario

Figura A5.2: Elementos de la Interfaz.

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 100


A5.1.6 Instrucciones de Uso
A5.1.6.1 Selección de Archivos de Entrada

• Inicie el proceso seleccionando el botón "INPUT FILES".

Figura A5.3: Presionar el botón "INPUT FILES".

Fuente: Autor (2024)

• Se abrirá el directorio para que importe la imagen que se va a procesar.

Figura A5.4: Seleccionar la imagen a cargar.

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 101


A5.1.6.2 Conguración de Parámetros

• Una vez cargada la imagen, aparecerá una ventana de diálogo para congurar el valor
de "h-domo" o umbralización.

• Se establece un valor predeterminado de 200 para obtener los mejores resultados, pero
puede ajustar este valor en el rango de 0 a 255.

• Haga clic en "OK" después de establecer el valor.

Figura A5.5: Establecer el valor de h-domo.

Fuente: Autor (2024)

A5.1.6.3 Procesamiento de la Imagen

• La barra de progreso se inicia desde 0% y aumenta hasta el 100% durante la aplicación


de la técnica de umbralización a la imagen y la generación de su máscara.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 102


Figura A5.6: Barra de progreso en 0%.

Fuente: Autor (2024)

• Al llegar al 100%, se mostrará un mensaje indicando "Proceso completado".

Figura A5.7: Barra de progreso en 100% y mensaje de proceso completado.

Fuente: Autor (2024)

• Presione "OK" y luego haga clic en el botón "RUN".

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 103


Figura A5.8: Presionar el botón "RUN".

Fuente: Autor (2024)

A5.1.6.4 Resultados Generados

• La imagen resultante se observará en la interfaz, con los cometas etiquetados y encer-


rados con contornos coloreados según su tipo de daño.

• En la esquina superior derecha de la imagen resultante, se muestra una leyenda con


colores distintos para representar los diversos tipos de daño en el ADN de cada célula.
El usuario tiene la exibilidad de mover o arrastrar esta leyenda a la posición de su
elección.

Figura A5.9: Imagen resultante.

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 104


• Aparecerá un mensaje que dice: "Resultados generados".

Figura A5.10: Mensaje de resultados generados.

Fuente: Autor (2024)

A5.1.6.5 Guardar Resultados

• Seleccione la carpeta de destino utilizando el botón "OUTPUT DIRECTORY".

Figura A5.11: Botón para seleccionar la carpeta de salida.

Fuente: Autor (2024)

• En la carpeta seleccionada se guardarán dos archivos: la imagen resultante y un archivo


Excel con datos de los cometas.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 105


Figura A5.12: Carpeta a seleccionar.

Fuente: Autor (2024)

Figura A5.13: Archivos guardados.

Fuente: Autor (2024)

A5.1.6.6 Contenido del Archivo TIFF

• El archivo TIFF contendrá una representación visual de la imagen, donde cada cometa
estará identicado por un número y delimitado por contornos de diversos colores que
indican el tipo de daño correspondiente: blanco (sin daño), azul celeste (daño leve),
amarillo (daño moderado), naranja (daño serio) y rojo (daño crítico).

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 106


Figura A5.14: Imagen guardada.

Fuente: Autor (2024)

A5.1.6.7 Contenido del Archivo Excel

• El archivo Excel contendrá una tabla con las siguientes columnas: Número de cometas,
Área del cometa, Área de la cabeza, Área de la cola, Intensidad del cometa, Intensidad
de la cabeza, Intensidad de la cola, Porcentaje de daño del ADN y Tipo de daño. En
cada una estarán los respectivos valores.

Figura A5.15: Archivo Excel.

Fuente: Autor (2024)

A5.1.6.8 Mensaje de Conrmación

• Después de guardar los resultados, aparecerá un mensaje que indica: "Resultados


guardados", seguido de la ruta donde se almacenaron los resultados.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 107


Figura A5.16: Mensaje de resultados guardados.

Fuente: Autor (2024)

A5.1.6.9 Proceso Concluido

Finalice el proceso haciendo clic en "OK" en el mensaje de conrmación.

A5.1.6.10 Procesamiento de Imágenes Adicionales

Si desea importar otra imagen, repita todo el procedimiento.

A5.1.6.11 Videos de Soporte

• El último botón disponible permite al usuario acceder a la ayuda en cualquier momento.


Al seleccionarlo, se despliega una lista de videos como el tutorial y otros. Al elegir un
video especíco, el usuario será redirigido directamente a la plataforma de YouTube,
facilitando así el acceso rápido y eciente a contenido útil para el uso de la aplicación.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 108


Figura A5.17: Videos de ayuda.

Fuente: Autor (2024)

A5.1.7 Solución de Problemas


A5.1.7.1 Ejecución sin importar imagen y selección de carpeta sin importar im-
agen

• En el momento en que sale la interfaz, es posible que los usuarios por equivocación o
confusión hagan clic en el botón "RUN" sin haber importado previamente una imagen.
Esto puede generar un mensaje de error que indica: "Error", "Por favor, importe una
imagen antes de ejecutar el proceso". Si esto ocurre, los usuarios solo necesitan hacer
clic en "OK" y dirigirse al botón "INPUT FILES" para cargar la imagen antes de
continuar.

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 109


Figura A5.18: Error de ejecución sin importar imagen.

Fuente: Autor (2024)

• Otro escenario posible es que los usuarios hagan clic en el botón "OUTPUT DIREC-
TORY" sin haber cargado una imagen previamente. Esto desencadenará un mensaje
de error que informa: "Error", "Por favor, importe una imagen antes de seleccionar la
carpeta de resultados". En este caso, basta con hacer clic en "OK" y dirigirse al botón
"INPUT FILES" para cargar la imagen antes de proceder.

Figura A5.19: Error de seleccionar directorio de salida sin importar imagen.

Fuente: Autor (2024)

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 110


A5.1.8 FAQ (Preguntas frecuentes)
• ¾Es posible cargar varias imágenes al mismo tiempo?

Respuesta: No, en la actual implementación de la aplicación, solo es posible cargar


y procesar una imagen a la vez. Después de completar el proceso con una imagen,
puede cargar otra imagen si así lo desea. Cada procesamiento se lleva a cabo de forma
individual para garantizar la precisión y la correcta gestión de los resultados.

• ¾La aplicación es compatible tanto con imágenes en formato RGB como en escala de
grises?

Respuesta: Sí, puedes ingresar a la aplicación cualquiera de estos dos tipos de imágenes,
y el proceso se llevará a cabo de manera satisfactoria en ambos casos.

• ¾La aplicación admite todos los formatos de imagen?

Respuesta: Sí, la aplicación es compatible con todos los formatos de imagen disponibles.
Puedes utilizar cualquier formato sin preocupaciones, ya que la aplicación se adapta a
una amplia variedad de opciones.

• ¾Es posible realizar ediciones en la imagen resultante?

Respuesta: No, la aplicación opera de manera completamente automática, por lo que el


usuario no cuenta con la capacidad de realizar intervenciones o ediciones en la imagen
generada. Sin embargo, el archivo Excel que se guarda si se puede editar.

• ¾Cómo se numeran y etiquetan las células en el resultado nal?

Respuesta: La aplicación escanea la imagen de arriba a abajo y de derecha a izquierda,


asignando etiquetas a las células cometa a medida que las identica.

A5.1.9 Glosario
• h-domo: El concepto de h-domo en procesamiento de imágenes se reere a la técnica
que ayuda a resaltar características importantes mientras suprime pequeñas variaciones
o detalles menos signicativos en una imagen. Imagina la imagen como un paisaje:
los picos más altos representan las características esenciales que queremos destacar,
mientras que las pequeñas colinas y valles son detalles menos relevantes. Al ajustar
el parámetro "h", podemos controlar la sensibilidad de esta técnica, realzando lo que
realmente importa y mejorando la claridad de la información visual en la imagen.

A5.1.10 Recursos adicionales


El video tutorial de la aplicación está disponible en la plataforma de YouTube. Puede acceder
directamente haciendo clic en el siguiente enlace: Video Tutorial CometScanner

Trabajo de grado. Programa de Ingeniería Electrónica, 2024. 111

También podría gustarte