Trabajo de Grado
Trabajo de Grado
Trabajo de Grado
Facultad Ingeniería
Ingeniería Electrónica
Ibagué, 2024
Clasicación y Conteo de Células del Ensayo
Cometa usando Procesamiento Digital de
Imágenes y Aprendizaje de Máquinas
Trabajo de grado que se presenta como requisito parcial para optar al título de:
Ingeniero Electrónico
Director:
Facultad Ingeniería
Ingeniería Electrónica
Ibagué, 2024
Dedicatoria
Abstract
The Comet Assay, or single-cell gel electrophoresis, is a method widely employed for studying
DNA damage in cells. However, the assessment of damaged cells is traditionally performed us-
ing manual methods, which are time-consuming and imprecise. To address this challenge, this
work presents a novel automatic method for processing and analyzing Comet Assay images,
based on image processing techniques and machine learning models, including Convolutional
Neural Networks (CNNs). A comparative study of ve dierent CNN architectures is con-
ducted, achieving an accuracy of up to 97.44% with the developed method, which outperforms
manual results. Digital Image Processing techniques were key to achieving this high perfor-
mance. The validation of the automatic results was carried out by comparing them with
manual scores, demonstrating the eciency and reliability of the proposed method. Conse-
quently, it is now being used as a standard method for studying Comet Assay results in the
Cell Biology Laboratory at the Ponticia Universidad Javeriana Cali.
Introducción 1
1 Marco Teórico 4
1.1 Ensayo Cometa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Desarrollo del método . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1.1 Variaciones del método . . . . . . . . . . . . . . . . . . . 5
1.1.2 Aplicaciones del método . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Limitaciones del método . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Procesamiento Digital de Imágenes . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Reconstrucción morfológica en escala de grises . . . . . . . . . . . . 7
1.2.2 Extracción de máximos regionales y domos . . . . . . . . . . . . . . 7
1.2.2.1 h-domos y h-cuencas . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Ground Truth (Verdad de referencia o máscara) . . . . . . . . . . . 8
1.2.4 Binarización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.5 8-conectividad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.6 Intersección sobre la Unión IoU . . . . . . . . . . . . . . . . . . . . 10
1.3 Aprendizaje de Máquinas . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 One Hot Encoding . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Codicador Decodicador . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3 Segmentación Semántica . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.4 Redes Neuronales Convolucionales . . . . . . . . . . . . . . . . . . . 13
1.3.4.1 U-Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.4.2 UNet++ . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4.3 DeepLabV3+ . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.4.4 LinkNet . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.4.5 PAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.4.6 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.4.7 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.5 Algoritmos de Aprendizaje Supervisado . . . . . . . . . . . . . . . . 22
1.3.6 Algoritmos de Aprendizaje No Supervisado . . . . . . . . . . . . . . 23
1.3.7 Aprendizaje por Refuerzo y Agentes Inteligentes . . . . . . . . . . . 23
1.3.8 Extracción de características . . . . . . . . . . . . . . . . . . . . . . 23
1.3.9 Evaluación y Validación . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.10 Desafíos y Futuro del Aprendizaje de Máquinas . . . . . . . . . . . . 23
iv
2.1.1 Sistemas Automáticos: . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.2 Sistemas Semi-Automáticos: . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Herramientas disponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Materiales y Métodos 28
3.1 Materiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.1 Imágenes Ground Truth . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.2 Proceso de obtención de imágenes "Ground Truth" . . . . . . . . . . 29
3.1.2.1 Marcación de cabezas . . . . . . . . . . . . . . . . . . . . 29
3.1.2.2 Marcación de colas . . . . . . . . . . . . . . . . . . . . . 31
3.2 Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.1 Selección del Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1.1 Fase 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.1.2 Fase 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1.3 Fase 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.1.4 Aumentación de Datos . . . . . . . . . . . . . . . . . . . 41
3.2.2 Funcionamiento del programa . . . . . . . . . . . . . . . . . . . . . 42
3.2.2.1 Bloque 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.2.2 Bloque 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.2.3 Bloque 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4 Resultados 44
4.1 Entrenamientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3 Validación de las imágenes predichas por el
modelo con las imágenes Ground Truth . . . . . . . . . . . . . . . . . . . . 47
4.4 Validaciones de las máscaras de los investigadores con la imagen Ground Truth 51
4.5 Validaciones de las máscaras de los investigadores y la imagen Ground Truth
con la máscara predicha . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.6 Funcionamiento del programa . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.7 Comparación del método con OpenComet . . . . . . . . . . . . . . . . . . 52
4.7.1 Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.7.2 Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.7.3 Ejemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5 Discusión y limitaciones 54
5.1 Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.1.1 Fase 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.1.2 Fase 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.3 Fase 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.4 Aumentación de Datos . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.5 SAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.6 Validación IoU de las imágenes Ground Truth y las imágenes predichas
por el modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.7 Validación de las imágenes (Estudiantes, Ground Truth y Modelo) . . 57
5.1.7.1 Comparación de las máscaras de los estudiantes con la ima-
gen Ground Truth . . . . . . . . . . . . . . . . . . . . . . 57
5.1.7.2 Comparación de las máscaras de los estudiantes y la imagen
Ground Truth con la imagen predicha por el modelo . . . . 58
6 Conclusiones y Recomendaciones 61
6.1 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2 Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.3 Aportes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Referencias Bibliográcas 62
A1 Anexos: Grácas Resultados de los Entrenamientos 67
A2 Anexos: Imágenes de los Resultados de las Redes Entrenadas 80
A3 Anexos: Imágenes Resultados Validaciones de las imágenes Ground Truth
y las Máscaras Predichas 93
A4 Anexos: Ejemplos Resultados del Programa 96
A5 Anexos: Manual de Usuario 98
A5.1 Manual de Usuario (CometScanner) . . . . . . . . . . . . . . . . . . . . . . 98
A5.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
A5.1.1.1 Descripción . . . . . . . . . . . . . . . . . . . . . . . . . 98
A5.1.1.2 Propósito . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A5.1.1.3 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A5.1.2 Versiones de Software Necesarias . . . . . . . . . . . . . . . . . . . 99
A5.1.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
A5.1.2.2 Bibliotecas de Python . . . . . . . . . . . . . . . . . . . . 99
A5.1.3 Disponibilidad en Repositorio de GitHub . . . . . . . . . . . . . . . 100
A5.1.4 Procedimiento de Inicio . . . . . . . . . . . . . . . . . . . . . . . . 100
A5.1.5 Interfaz de Usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
A5.1.6 Instrucciones de Uso . . . . . . . . . . . . . . . . . . . . . . . . . . 101
A5.1.6.1 Selección de Archivos de Entrada . . . . . . . . . . . . . . 101
A5.1.6.2 Conguración de Parámetros . . . . . . . . . . . . . . . . 102
A5.1.6.3 Procesamiento de la Imagen . . . . . . . . . . . . . . . . 102
A5.1.6.4 Resultados Generados . . . . . . . . . . . . . . . . . . . . 104
A5.1.6.5 Guardar Resultados . . . . . . . . . . . . . . . . . . . . . 105
A5.1.6.6 Contenido del Archivo TIFF . . . . . . . . . . . . . . . . . 106
A5.1.6.7 Contenido del Archivo Excel . . . . . . . . . . . . . . . . . 107
A5.1.6.8 Mensaje de Conrmación . . . . . . . . . . . . . . . . . . 107
A5.1.6.9 Proceso Concluido . . . . . . . . . . . . . . . . . . . . . . 108
A5.1.6.10 Procesamiento de Imágenes Adicionales . . . . . . . . . . 108
A5.1.6.11 Videos de Soporte . . . . . . . . . . . . . . . . . . . . . . 108
A5.1.7 Solución de Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 109
A5.1.7.1 Ejecución sin importar imagen y selección de carpeta sin im-
portar imagen . . . . . . . . . . . . . . . . . . . . . . . . 109
A5.1.8 FAQ (Preguntas frecuentes) . . . . . . . . . . . . . . . . . . . . . . 111
viii
1.11 La convolución separable en profundidad de 3x3 descompone una convolución
estándar en (a) una convolución en profundidad (aplicando un solo ltro para
cada canal de entrada) y (b) una convolución puntual (combinando las salidas
de la convolución en profundidad a través de los canales). En este trabajo, se
explora la convolución separable atrous donde la convolución atrous se adopta
en la convolución en profundidad, como se muestra en (c) con tasa = 2. . . 17
1.12 Arquitectura LinkNet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.13 Módulos de convolución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.14 Visión general de la Red de Atención Piramidal. Se utilizó ResNet-101 para
extraer características densas. Luego se realizó FPA y GAU para extraer predic-
ciones precisas a nivel de píxeles y detalles de localización. Las líneas azules y
rojas representan los operadores de muestreo descendente y muestreo ascen-
dente, respectivamente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.15 Estructura del módulo de Atención Piramidal de Características. (a) Estruc-
tura de Agrupamiento Espacial Piramidal. (b) Módulo de Atención Piramidal
de Características. '4x4, 8x8, 16x16, 32x32' indica la resolución del mapa
de características. El recuadro punteado representa la rama de agrupamiento
global. Las líneas azules y rojas representan los operadores de muestreo de-
scendente y muestreo ascendente, respectivamente. Ten en cuenta que todas
las capas de convolución están seguidas de normalización por lotes. . . . . . 20
1.16 El objetivo fue construir un modelo fundamental para la segmentación me-
diante la introducción de tres componentes interconectados: una tarea de
segmentación invocable, un modelo de segmentación (SAM) que impulsa la
anotación de datos y permite la transferencia de cero disparos a una variedad
de tareas mediante la ingeniería de indicaciones, y un motor de datos para
recopilar SA-1B, el conjunto de datos de más de 1 mil millones de máscaras. 22
1.17 Visión general del Modelo de Segmentación de Cualquier Cosa (SAM). Un
codicador de imágenes robusto genera una incrustación de imagen que luego
puede consultarse de manera eciente con varios prompts de entrada para
producir máscaras de objetos a velocidad amortizada en tiempo real. Para
prompts ambiguos que corresponden a más de un objeto, SAM puede generar
múltiples máscaras válidas y puntuaciones de conanza asociadas. . . . . . . 22
3.1 Marcación de cabezas. (a) Imagen Original (Canal Verde). (b) Cabezas. . . 30
3.2 Detección de cabezas traslapadas. (a) Imagen etiquetada usando conectividad
de tipo 8. (b) Imagen etiquetada en pseudo-color de acuerdo a su área donde
las regiones más grandes aparecen en blanco. (c) Cabezas traslapadas. . . . 30
3.3 Eliminación de cabezas traslapadas. (a) Cabezas. (b) Cabezas traslapadas.
(c) Cabezas aisladas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Marcación de cometas completos. (a) Imagen Original (Canal Verde). (b)
Cometas binarizados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Marcación de colas. (a) Cometas binarizados. (b) Cabezas. (c) Colas obtenidas. 31
3.6 Máscara nal de células cometas. . . . . . . . . . . . . . . . . . . . . . . . 32
3.7 Análisis de componentes de color de imagen cometa. (a) Imagen Original. (b)
Canal Rojo. (c) Canal Verde. (d) Canal Azul. . . . . . . . . . . . . . . . . . 32
3.8 Perl de la sección marcada en amarillo de la imagen en canal verde. (a) Perl.
(b) Domos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
A4.1 (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
A4.2 (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
A3.1 Resultados comprobación IoU entre las imágenes Ground Truth y las máscaras
predichas por el modelo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
xii
Introducción
Las ENT comparten diversos factores de riesgo, como el tabaquismo, la inactividad física, la
alimentación no saludable y el consumo excesivo de alcohol. La reducción de la exposición a
estos factores es fundamental para prevenirlas. Entre las estrategias más efectivas se encuen-
tran la promoción de estilos de vida saludables, la educación sanitaria, el tamizaje y detección
temprana, y el fortalecimiento de los sistemas de salud para garantizar el acceso universal a
la atención médica de calidad.
En el año 2022, el Instituto Nacional de Cancerología (INC) reportó 6.387 casos nuevos de
cáncer, de los cuales el 39,8% correspondió a adultos mayores de 65 años. Si bien cerca
del 90% de estos pacientes recibieron tratamiento en el INC, un 32% no lo recibió debido a
diversas razones, como la solicitud de una segunda opinión médica o la falta de continuidad
en la atención. Lamentablemente, el INC certicó 1.262 defunciones ese mismo año, siendo
el cáncer de estómago, colon y recto en hombres, y mama y cuello uterino en mujeres, las
principales causas. Esta información se basa en datos del Registro Institucional de Cáncer y
registros de mortalidad del INC del año mencionado [2].
El cáncer no se origina por una única causa, sino que es el resultado de múltiples factores. La
comunidad cientíca concuerda en que el cáncer surge a partir de cambios en los genes que
controlan el crecimiento y la muerte celular normal. Actualmente, se considera que la mayoría
de los cánceres se originan por la exposición a factores de riesgo relacionados con el estilo de
vida y el entorno, los cuales pueden alterar genes normales y propiciar la aparición del cáncer
[3].
En este contexto, resulta crucial combatir estas enfermedades oportunamente para reducir la
tasa de mortalidad a nivel nacional e internacional. Esto implica implementar métodos para
la detección y análisis temprano de células dañadas.
1
nivel de fragmentación del ADN. La acumulación de daños en el ADN es el principal factor al
proceso de envejecimiento siológico y al desarrollo del cáncer. Las radiaciones ionizantes, nu-
merosas toxinas exógenas y algunos productos del metabolismo celular normal pueden alterar
el material genético de diversas formas [4]. El Ensayo Cometa se dene como una prueba de
laboratorio que estudia el daño del material genético en seres vivos infringido por diferentes
agentes químicos, físicos y biológicos [5]. Este método es útil para evaluar la ecacia de
tratamientos terapéuticos y la respuesta del organismo ante diferentes tipos de estrés celular.
Es un procedimiento conable para la detección y evaluación de la capacidad regenerativa en
el ADN, lo cual se visualiza al teñir con materiales uorescentes las células procesadas por
el Ensayo Cometa; El material genético expuesto se adhiere al colorante, permitiendo obser-
var los resultados del experimento en imágenes provenientes de un microscopio con cámara
integrada (microscopía) para el análisis estadístico del estado del ADN. Como resultado del
Ensayo Cometa, existen dos partes fundamentales que se podrían presentar en la estructura de
las células de ADN procesadas: Un núcleo, denominado cabeza del cometa, que contiene todo
el material genético que resistió al daño inducido durante la prueba; y una cola, denominada
cola del cometa, que representa la porción desplazada del núcleo por no poseer la suciente
estabilidad genómica [6, 7, 8, 9, 10, 11, 12, 13].
Este estudio reviste importancia debido a que muchos trabajadores expuestos a agentes quími-
cos son propensos a desarrollar diversos tipos de enfermedades no transmisibles (ENT) debido
al desconocimiento de las normativas, la ignorancia o el incumplimiento de las normas de
seguridad y salud en el trabajo. Por ende, en colaboración con la Ponticia Universidad
Javeriana de Cali, el objetivo principal es:
imágenes de microscopía.
Estas imágenes son obtenidas de linfocitos de pintores de automóviles. Para cumplir con el
mencionado objetivo se denieron tres objetivos especícos:
3. Validar los resultados obtenidos en el proyecto con los resultados obtenidos a mano.
La metodología empleada para cumplir con los objetivos propuestos fue desarrollar una inves-
tigación bibliográca con el propósito de conocer los avances del Ensayo Cometa, así mismo
indagar sobre las técnicas y herramientas de vanguardia enfocadas en este ámbito, con esto
se logra percibir cual es el nivel tecnológico, fortalezas y áreas de mejora. Posteriormente, se
realiza el preprocesamiento a un banco de imágenes de microscopía generadas por el Ensayo
Cometa, dichas imágenes fueron otorgadas y adquiridas por la Ponticia Universidad Javeri-
ana de Cali, este preprocesamiento involucra la implementación de técnicas para la reducción
de ruido, segmentación, etiquetado, mejora a las imágenes y otros nes. Continuo a este
proceso y en base a la bibliografía anteriormente consultada, se lleva a cabo la selección
de los modelos y algoritmos de Aprendizaje de Máquinas capaces de suplir correctamente los
propósitos y se realiza la modicación, entrenamiento y validación de algunas arquitecturas de
redes neuronales convoluciones. Finalmente, se construye el programa que es capaz de extraer
la información útil para los expertos sobre el ADN de las células en las imágenes.
La base de este Ensayo radica en el fenómeno de que los pequeños fragmentos de ADN
dañado tienden a crear cavidades en la estructura del nucleoide cuando se exponen a un campo
eléctrico en una suspensión de agarosa. Estos fragmentos forman un rastro especíco ("Cola
del cometa") en las cercanías del nucleoide, cuya uorescencia se puede medir para cuanticar
de manera indirecta la cantidad de ADN dañado. El Ensayo del Cometa es relativamente
simple, no requiere recursos materiales extensos y ha sido validado y probado en muchas
ocasiones [14, 15, 16].
4
Marco Teórico
indemne, la falta de extremos libres y el gran tamaño de los fragmentos impiden la migración
(Cabeza del cometa) (Ver Figura 1.1). La determinación de la cantidad relativa de ADN que
migraba proporcionaba una forma sencilla de medir el número de roturas de ADN en una
célula individual. Aunque se introdujeron métodos igualmente sensibles para la detección de
roturas de una sola hebra del ADN a mediados de la década de 1970, tres hechos (además
del atractivo evidente de 'ver' el ADN dañado) hicieron que este método fuera atractivo.
En primer lugar, solo se necesitaban alrededor de mil células. En segundo lugar, las células
no necesitaban ser marcadas con un radioisótopo, lo que permitía la medición del daño en
cualquier célula nucleada. Quizás lo más importante, el método podía utilizarse para medir
las variaciones en la respuesta a agentes dañinos del ADN entre células de la misma población
expuesta. En 1990, se introdujo una modicación del método original de Ostling y Johanson
y se denominó "Ensayo del Cometa" por la apariencia del ADN de una célula individual. La
cabeza del cometa contenía el ADN de alto peso molecular y la cola del cometa contenía los
extremos líderes de los fragmentos en migración. Estos se midieron en tiempo real a partir de
imágenes digitalizadas utilizando software desarrollado para este propósito. El momento de la
cola, una medida tanto de la cantidad de ADN en la cola como de la distribución del ADN en
la cola, se convirtió en un descriptor común junto con la longitud de la cola y el porcentaje
de ADN en la cola [17].
Aunque existen varios protocolos para preparar portaobjetos, lisar células, realizar electro-
foresis y teñir los portaobjetos, los resultados son generalmente similares para las células de
mamíferos utilizando la mayoría de los métodos publicados. Se recomienda un período de
lisis durante la noche para lograr una sensibilidad y reproducibilidad óptimas, aunque también
hay ventajas en completar el protocolo en un tiempo más corto. Para la biomonitorización,
es crucial estandarizar los protocolos y métodos de análisis del Ensayo del Cometa, cuyas re-
comendaciones han evolucionado a partir de varios talleres y grupos de trabajo. Las medidas
de daño del ADN mediante este ensayo generalmente no siguen una distribución normal.
Cuando el objetivo es medir la heterogeneidad en el daño del ADN dentro de una población,
se analizan más cometas y se modican los métodos de análisis de datos. Aún persiste el
debate sobre qué descriptor del cometa puede describir mejor los resultados. El porcentaje de
ADN en la cola, la longitud de la cola (solo a niveles bajos de daño) y el momento de la cola
(que es el porcentaje de ADN en la cola multiplicado por la distancia entre las medias de las
distribuciones de la cabeza y la cola) son todas medidas útiles. A continuación, se describen
dos variantes del protocolo del cometa:
• El primer método detecta roturas de hebra sencilla, roturas de doble hebra y sitios lábiles
al álcali en el ADN. Un tiempo de lisis prolongado se recomienda para permitir que el
ADN desnaturado se desenrolle de los puntos de rotura, aunque tiempos más cortos
son sucientes para detección inicial. Se pueden realizar modicaciones para detectar
entrecruzamientos del ADN y daño en las bases.
sencilla en niveles de daño más bajos. La versión descrita aquí puede medir roturas de
doble hebra en un rango de aproximadamente 50 a 10.000 roturas por célula.
Gran parte del interés en este método proviene de sus aplicaciones potenciales en la biomon-
itorización humana y en la evaluación ecológica de organismos centinela expuestos a con-
taminantes ambientales. Las nuevas aplicaciones incluyen la identicación de microperlas
magnéticas de marcadores de supercie celular presentes en células incrustadas en agarosa
y la hibridación in situ con uorescencia para detectar efectos especícos de secuencia en el
ADN dañado [17].
Otra limitación es la necesidad de una suspensión celular viable, ya que las muestras con
células necróticas o apoptóticas no proporcionan información precisa sobre lesiones especícas
del ADN. Se deben desarrollar métodos de desagregación de tejidos para minimizar el daño
al ADN. La interpretación de los resultados es complicada debido a la falta de una relación
simple entre el daño del ADN y el impacto biológico, ya que cada fármaco puede diferir en
términos de su efecto en el ADN. Es necesario comparar los resultados del Ensayo del Cometa
con otras medidas de daño del ADN para interpretar su relevancia biológica.
Además, la medición del daño del ADN se ve complicada por los procesos de reparación, que
pueden confundir la interpretación del daño causado por un agente genotóxico. Algunos tipos
de daño pueden repararse muy rápidamente, lo que diculta su detección en organismos vivos.
Por ejemplo, las roturas de hebra inducidas por radiación ionizante pueden repararse en menos
de 30 minutos [17].
El Procesamiento Digital de Imágenes es una disciplina cientíca que se ocupa del análisis y
manipulación de imágenes digitales mediante el uso de algoritmos y técnicas computacionales.
Consiste en la aplicación de una serie de operaciones y transformaciones a las imágenes
con el objetivo de mejorar su calidad visual, extraer información relevante o realizar tareas
especícas.
La reconstrucción en escala de grises es una herramienta útil para tareas de ltrado y seg-
mentación de imágenes. Por ejemplo, se puede utilizar para eliminar el ruido de una imagen
mediante la eliminación de regiones de baja intensidad que no son relevantes para la imagen.
También se puede utilizar para separar objetos en una imagen que tienen diferentes niveles de
intensidad, lo que puede ser benecioso para la segmentación de imágenes. Además, la re-
construcción en escala de grises se puede emplear para la detección de bordes y la eliminación
de artefactos de imagen, como sombras y reejos. En general, la reconstrucción en escala de
grises es una herramienta versátil que puede ser aplicada en una amplia variedad de tareas de
procesamiento de imágenes [20].
Los píxeles que no cambian durante la reconstrucción son los máximos regionales. Para ex-
traer los mínimos regionales, se realiza una dilatación de la imagen original con un elemento
estructurante especíco y luego se reconstruye la imagen original utilizando la dilatación resul-
tante como máscara. Los píxeles que no cambian durante la reconstrucción son los mínimos
regionales [20].
1.2.4 Binarización
La binarización es el proceso de convertir una imagen en escala de grises en una imagen
binaria, donde solo hay dos niveles de intensidad (por ejemplo, blanco y negro). Este proceso
implica la aplicación de un umbral para separar los píxeles en dos clases. La binarización es
útil en diversas aplicaciones, como la detección de bordes, segmentación de objetos y análisis
de formas.
1.2.5 8-conectividad
La conectividad de los píxeles establece las relaciones entre cada píxel y sus vecinos. Se
denomina objeto o componente conectado a un conjunto de píxeles en primer plano en una
imagen binaria.
8-conectividad se reere a que los píxeles están conectados si sus bordes o esquinas se tocan.
Dos píxeles contiguos forman parte del mismo objeto si ambos están encendidos y están
conectados a lo largo de la dirección horizontal, vertical o diagonal [22].
Fuente: MathWorks
Donde "Área Intersección" es el área de la región donde los objetos se superponen, y "Área
Unión" es el área total cubierta por ambos objetos.
Interpretación: La IoU proporciona una medida de qué tan bien coinciden las predicciones
de detección de objetos con las verdaderas ubicaciones de los objetos en una imagen. Un valor
de IoU cercano a 1 indica una gran superposición entre las regiones, lo que sugiere una alta
precisión en la detección. Por otro lado, un valor cercano a 0 indica una baja superposición
y, por lo tanto, una mala precisión en la detección.
Una alternativa al Label Encoding es el método de codicación llamado One Hot Encoding.
Esta estrategia consiste en crear una columna binaria (que solo puede contener los valores
0 o 1) para cada valor único que exista en la variable categórica que estamos codicando,
y marcar con un 1 la columna correspondiente al valor presente en cada registro, dejando
las demás columnas con un valor de 0. Por ejemplo, en el caso de la variable "sex" de los
pasajeros del Titanic, One Hot Encoding crearía dos columnas binarias (una para el valor
"male" y otra para el valor "female"). Para cada pasajero, se asignaría un valor de 1 a la
columna correspondiente a su género y un valor de 0 a la columna del género opuesto. De
esta manera, cada registro queda representado por un vector binario que indica la presencia o
ausencia de cada valor categórico, y se evita la posibilidad de que los algoritmos malinterpreten
los valores numéricos asignados por Label Encoding [23].
El decodicador toma el vector de características del espacio latente y lo utiliza para reconstruir
la imagen original. Esto se logra a través de capas transconvolucionales, que aprenden a
invertir el proceso de convolución y generar una salida similar a la entrada. Además de la
reconstrucción de imágenes, el decodicador también se puede utilizar para generar nuevas
imágenes a partir de la representación aprendida en el espacio latente. [24]
píxeles que conforman distintas categorías. Por ejemplo, un vehículo de conducción autónoma
necesita identicar vehículos, peatones, señales de tráco, aceras y otros elementos de la
carretera.
Fuente: Matlab
1.3.4.1 U-Net
La arquitectura de la red U-Net consta de dos partes principales: una ruta de contracción (lado
izquierdo) y una ruta de expansión (lado derecho). La ruta de contracción sigue la arquitectura
típica de una red neuronal convolucional, con la aplicación repetida de dos convoluciones de
3x3, cada una seguida de una unidad lineal recticada (ReLU) y una operación de agrupación
máxima de 2x2 con un paso de 2 para el muestreo. En cada paso de muestreo, se duplica
Figura 1.7: Arquitectura U-Net (ejemplo para 32x32 píxeles en la resolución más baja).
Cada recuadro azul corresponde a un mapa de características de múltiples canales. El número
de canales se indica en la parte superior del recuadro. El tamaño en x-y se proporciona
en la esquina inferior izquierda del recuadro. Los recuadros blancos representan mapas de
características copiados. Las echas indican las diferentes operaciones.
1.3.4.2 UNet++
Figura 1.8: (a) UNet++ consta de un codicador y un decodicador que están conectados
a través de una serie de bloques convolucionales densos anidados. La idea principal detrás
de UNet++ es reducir la brecha semántica entre los mapas de características del codicador
0,0 1,3
y del decodicador antes de la fusión. Por ejemplo, la brecha semántica entre (X ,X )
se supera utilizando un bloque denso de convolución con tres capas de convolución. En
el resumen gráco, el negro indica el U-Net original, el verde y el azul muestran bloques
de convolución densa en las vías de omisión, y el rojo indica la supervisión profunda. Los
componentes rojo, verde y azul distinguen UNet++ de U-Net. (b) Análisis detallado de la
primera vía de omisión de UNet++. (c) UNet++ puede ser podado en el momento de la
inferencia, si se entrena con supervisión profunda.
La Figura 1.8 muestra una visión general de alto nivel de la arquitectura sugerida. Como se
puede observar, UNet++ comienza con una subred de codicación o columna vertebral seguida
por una subred de decodicación. Lo que distingue a UNet++ de U-Net (los componentes
en negro en la Figura 1.8) son las vías de omisión re-diseñadas (mostradas en verde y azul)
que conectan las dos subredes y el uso de una supervisión profunda (mostrada en rojo).
1.3.4.3 DeepLabV3+
Para esta red, se consideran dos tipos de redes neuronales que utilizan el módulo de agrupación
espacial piramidal o la estructura codicador-decodicador para la segmentación semántica,
donde el primero captura información contextual rica mediante la agrupación de características
a diferentes resoluciones, mientras que el segundo es capaz de obtener límites de objetos
nítidos.
rica, la información detallada relacionada con los límites de los objetos falta debido a la
agrupación o convoluciones con operaciones de paso dentro de la estructura de red. Esto
podría aliviarse aplicando la convolución atrous para extraer mapas de características más
densos.
Figura 1.9: Se mejora DeepLabv3, que utiliza el módulo de agrupación espacial piramidal
(a), con la estructura codicador-decodicador (b). El modelo propuesto, DeepLabv3+, con-
tiene información semántica rica del módulo codicador, mientras que los límites detallados
del objeto son recuperados por el módulo decodicador simple pero efectivo. El módulo cod-
icador nos permite extraer características a una resolución arbitraria mediante la aplicación
de convolución atrous (c).
Por otro lado, la convolución atrous es una técnica que permite controlar la resolución de las
características y ajustar el campo de visión del ltro en redes convolucionales profundas, lo
que facilita la captura de información a diferentes escalas. [27]
1.3.4.4 LinkNet
Inspirados por los autoencoders, la mayoría de las técnicas existentes para la segmentación
semántica utilizan un par codicador-decodicador como núcleo de la arquitectura de su red.
Aquí, el codicador codica la información en un espacio de características, y el decodicador
mapea esta información en una categorización espacial para realizar la segmentación. A
pesar de que la segmentación semántica se orienta a aplicaciones que requieren operación en
tiempo real, irónicamente, la mayoría de las redes profundas actuales requieren un tiempo de
procesamiento excesivamente largo.
En la LinkNet, se ha intentado lograr una predicción precisa a nivel de instancia sin compro-
meter el tiempo de procesamiento de la red. Generalmente, la información espacial se pierde
en el codicador debido al pooling o la convolución estraticada, y se recupera utilizando los
Esta nueva arquitectura de redes neuronales se distingue por la forma en que vincula cada
codicador con su decodicador correspondiente. Al conectar directamente la entrada de cada
capa del codicador a la salida de su decodicador, se busca recuperar la información espacial
perdida durante las operaciones de muestreo descendente. Esto permite que el decodicador
utilice menos parámetros al compartir el conocimiento aprendido por el codicador, lo que
resulta en una red más eciente globalmente. Esta eciencia facilita la operación en tiempo
real, lo que la hace destacar entre las redes de segmentación existentes de última generación.
[28]
1.3.4.5 PAN
Hay tres contribuciones principales en esta red. En primer lugar, se propone un módulo de
Atención Piramidal de Características para incrustar características de contexto de diferentes
escalas en un marco de predicción de píxeles basado en FCN. Luego, se desarrolla Global Atten-
tion Upsample, un módulo de decodicación efectivo para la segmentación semántica.
Figura 1.14: Visión general de la Red de Atención Piramidal. Se utilizó ResNet-101 para
extraer características densas. Luego se realizó FPA y GAU para extraer predicciones precisas
a nivel de píxeles y detalles de localización. Las líneas azules y rojas representan los operadores
de muestreo descendente y muestreo ascendente, respectivamente.
1.3.4.6 ResNet
Una red residual, comúnmente conocida como ResNet, es un tipo de arquitectura de red
neuronal profunda que se destacó por su capacidad para entrenar redes mucho más profundas
y efectivas en comparación con las redes anteriores. Fue propuesta por Kaiming He, Xiangyu
Zhang, Shaoqing Ren y Jian Sun en su artículo "Deep Residual Learning for Image Recogni-
tion" en 2015. La idea central detrás de una red residual es la incorporación de conexiones
residuales o conexiones de salto (skip connections) que permiten que los datos uyan de
manera más directa a través de la red, lo que resuelve el problema de la degradación del
rendimiento a medida que se aumenta la profundidad de la red.
3. Arquitectura apilada: Las redes residuales suelen utilizar bloques residuales que se
repiten varias veces en la arquitectura. Estos bloques contienen capas convolucionales
y conexiones residuales.
1.3.4.7 SAM
En PLN y más recientemente en visión por computadora, los modelos fundamentales son un
desarrollo prometedor que puede realizar aprendizaje de cero y pocos disparos para nuevos
conjuntos de datos y tareas, a menudo mediante técnicas de "indicación". Inspirados en esta
línea de trabajo, se propuso la tarea de segmentación invocable, donde el objetivo es devolver
una máscara de segmentación válida dado cualquier indicación de segmentación (ver Figura
1.16a).
La tarea de segmentación invocable y el objetivo de uso del mundo real imponen restricciones
en la arquitectura del modelo. En particular, el modelo debe admitir indicaciones exibles,
debe calcular máscaras en tiempo real amortizado para permitir su uso interactivo y debe
ser consciente de la ambigüedad. Sorprendentemente, se encontró que un diseño simple
satisface estas tres restricciones: un potente codicador de imágenes calcula un incrustamiento
de imagen, un codicador de indicaciones incrusta indicaciones, y luego las dos fuentes de
información se combinan en un decodicador de máscaras liviano que predice máscaras de
segmentación. Este modelo lo exponen como el Modelo de Segmentación de Cualquier Cosa,
o SAM (ver Figura 1.16b).
Para lograr una fuerte generalización a nuevas distribuciones de datos, se encontró necesario
entrenar SAM en un conjunto grande y diverso de máscaras, más allá de cualquier conjunto
de datos de segmentación que ya exista. Mientras que un enfoque típico para los modelos
fundamentales es obtener datos en línea, las máscaras no son naturalmente abundantes y,
por lo tanto, se necesitó una estrategia alternativa. La solución fue construir un "motor de
datos", es decir, se co-desarrolló el modelo con la anotación de conjuntos de datos en bucle
cerrado del modelo (ver Figura 1.16c). El motor de datos tiene tres etapas: asistido-manual,
semi-automático y completamente automático.
Figura 1.16: El objetivo fue construir un modelo fundamental para la segmentación mediante
la introducción de tres componentes interconectados: una tarea de segmentación invocable, un
modelo de segmentación (SAM) que impulsa la anotación de datos y permite la transferencia
de cero disparos a una variedad de tareas mediante la ingeniería de indicaciones, y un motor
de datos para recopilar SA-1B, el conjunto de datos de más de 1 mil millones de máscaras.
Figura 1.17: Visión general del Modelo de Segmentación de Cualquier Cosa (SAM). Un
codicador de imágenes robusto genera una incrustación de imagen que luego puede consul-
tarse de manera eciente con varios prompts de entrada para producir máscaras de objetos a
velocidad amortizada en tiempo real. Para prompts ambiguos que corresponden a más de un
objeto, SAM puede generar múltiples máscaras válidas y puntuaciones de conanza asociadas.
que separa las clases en un espacio multidimensional. Las redes neuronales, especialmente las
redes neuronales profundas, son modelos complejos que pueden capturar patrones altamente
abstractos en datos complejos.
1. Searching and autofocus:Localiza las áreas más brillantes en la lámina del micro-
scopio, suponiendo que contienen células del Ensayo Cometa.
2. Grabbing and administration: Captura las imágenes de los cometas y las almacena
en la computadora.
El sistema logra una especicidad del 92.7% y una sensibilidad del 95.2% en la identi-
cación de cometas en un conjunto de 500 imágenes de células del ensayo cometa. Sin
embargo, no puede reconocer cometas altamente degradados o superpuestos con otros.
• Gyori et al. (2014) [32]: Presentan una herramienta de licencia gratuita llamada Open-
Comet para la detección automática de células en imágenes del Ensayo Cometa. El
software procesa imágenes en escala de grises de células del Ensayo Cometa, o en caso
de imágenes a color, utiliza el canal de luminosidad más informativo. Aplica ltrado
de ruido, corrección de fondo, umbralización adaptativa y morfología matemática para
segmentar los cometas. Para identicar cometas superpuestos, asumen que los cometas
son regiones convexas o que tienen una orientación simétrica en relación con el eje
horizontal de la imagen. Luego, segmentan las cabezas de los cometas suponiendo que
la región más luminosa es la cabeza, pero también consideran el perl del cometa.
24
Estado del arte
El sistema logra una alta sensibilidad del 97.6% y especicidad del 92.7% en un con-
junto de 234 imágenes de células musculares de ratas. Sin embargo, requiere que las
imágenes cumplan ciertas condiciones, como una orientación especíca de los cometas,
y es sensible al ruido y manchas en las imágenes de las laminillas del microscopio.
• Vojnovic et al. (2003) [33, 34]: Desarrollaron un sistema de alto rendimiento para
procesar imágenes del Ensayo Cometa a una velocidad de un cometa por segundo,
basado en la obtención de imágenes de uorescencia (blanco) y oscuridad (negro),
junto con el pico de intensidad (p) de blanco. Utilizan umbralización para obtener
una imagen binaria de las áreas más luminosas, normalizándola y corrigiendo niveles de
grises (normalizada) para la imagen de entrada (cometa), con el umbral establecido en
el 20% del pico máximo en el histograma. Posteriormente, aplican algoritmos binarios
de región growing para separar áreas de cometas completos y emplean el algoritmo
CHARM (Compact Hough And Radial Map) para delimitar la cabeza, combinando la
transformada compacta de Hough y la orientación de los píxeles en los bordes de la
cabeza. El sistema calcula tres parámetros: momento Kent del cometa, porcentaje de
ADN en la cabeza y cola, y longitud de la cola.
El usuario evalúa las imágenes para identicar los cometas y descartar otras estructuras.
Luego, debe hacer clic en el centro de la cabeza y la cola de cada cometa, lo que activa
la segmentación automática de ambas áreas de interés mediante el algoritmo de mapeo
radial. Si no está satisfecho con la segmentación, el usuario puede ajustar manualmente
la región. El software calcula varios parámetros para cada cometa, incluyendo el por-
centaje de ADN en la cola, el momento de cola y el momento Olive. También calcula
otros parámetros como área, longitud y contenido de ADN.
Los métodos propuestos han mostrado buenos resultados, pero también presentan desafíos,
como la segmentación de cometas traslapados y el ruido en las imágenes. Tanto los méto-
dos automáticos como los semi-automáticos han demostrado ser efectivos, aunque los semi-
automáticos pueden tener un mejor desempeño debido a la intervención del usuario.
• CASP [37]: CASP es una herramienta de código abierto para analizar cometas en
imágenes. Es fácil de usar y funciona con cometas teñidos con plata o uorescencia.
Permite marcar un número ilimitado de imágenes y las carga en una ventana de "vista
de imagen". La herramienta identica la cabeza y la cola del cometa automáticamente,
pero solo funciona para cometas orientados de izquierda a derecha. El usuario debe
denir un rectángulo alrededor del cometa y ajustar los umbrales de sensibilidad. Un
perl de intensidad del cometa y las características seleccionadas se muestran en una
ventana de "perl". Los valores de las características se pueden exportar a un archivo
de texto y el proyecto se puede guardar para análisis futuros.
sitio web de CellProler. A lo largo de los años, diversos grupos han diseñado pipelines
de CellProler para optimizar el análisis del Ensayo del Cometa en diferentes escenarios,
incluyendo tanto imágenes teñidas con plata como con uorescencia. Sin embargo,
los pipelines pueden ser modicados con una experiencia de programación limitada,
y las máscaras de segmentación y las características calculadas pueden exportarse en
diferentes formatos.
3.1 Materiales
Para desarrollar la técnica propuesta en este trabajo se empleó un computador Dell con
procesador Intel R Xeon(R) W-2235 CPU @ 3.80GHz x 12, con 8 GB de memoria RAM,
1.0 TB de disco duro, corriendo bajo el entorno Linux. Los métodos fueron desarrollados en
Python 3.6, usando librerías como Pytorch, OpenCV, Numpy, Pandas, Seaborn, Matplotlib,
Albumentations y PyQt5.
Para el desarrollo de esta investigación, se contó con 463 imágenes RGB de Ensayo Cometa en
formato tif de diferentes tamaños variando entre 960 y 2560 de ancho, y 720 y 1920 de alto.
Estas imágenes fueron adquiridas en el Laboratorio de Biología Celular de la Ponticia Univer-
sidad Javeriana de Cali. Los cometas se obtuvieron a partir de linfocitos humanos utilizando
el kit de aislamiento de SIGMA (Histopaque 1077tm), en conformidad con los protocolos pro-
porcionados por la compañía. Después de aislar los linfocitos, las células se lisaron y fueron
sometidas a electroforesis alcalina utilizando el kit de comet assay de la compañía ABCAM
(kit ab238544), siguiendo el procedimiento establecido. Tras la separación electroforética, el
ADN fue teñido con SYBR-Green (Bio-Rad) y las muestras fueron observadas utilizando un
microscopio de uorescencia Olympus BX51 a una magnicación de 40X. Las imágenes fueron
adquiridas mediante una cámara CMOS USB 3.0 de 10MP, adaptada al microscopio.
Como se observa en la Figura 3.1a, las imágenes de cometas se caracterizan por una alta
cantidad de ruido, cabezas claramente identicables debido a su mayor brillo y una muy pobre
intensidad de las colas, lo cual hace compleja la tarea de identicar su tamaño exacto, pues
la frontera entre la cola y el fondo es difícil de denir, especialmente cuando es muy larga,
como se aprecia en la Figura 3.1a.
Dado que las imágenes disponibles para el estudio eran de diferentes dimensiones, se uniformizó
su tamaño a 2560 x 1920 píxeles, dado que era la dimensión más grande de las imágenes y la
más común, para lo cual se cual se empleo el software de libre acceso ImageJ.
28
Materiales y Métodos
Además, se creó un banco de 174 imágenes Ground Truth para el entrenamiento y evaluación
de las técnicas, las cuales fueron escogidas aleatoriamente y elaboradas revisando cada imagen
píxel a píxel. Para ello se hizo un zoom de las imágenes y se modicó el contraste para
tratar de obtener la mejor denición posible de cada cometa. Además, se les aplicó un ltro
mediana con el n de facilitar la distinción de los bordes. Asimismo, se pidió a tres diferentes
investigadores que hicieran la determinación manual de los cometas en una de las imágenes
de la manera que lo hacen normalmente con el n de determinar la variación de la evaluación
entre investigadores. Igualmente, los cometas de la misma imagen fueron evaluados por uno
de los expertos una segunda vez con el n de evaluar la variación en la determinación de los
cometas entre exámenes por un mismo evaluador.
Debe recordarse que debían marcarse cabezas, colas y fondo en cada imagen y se identicaron
con los valores 255, 60 y 0 respectivamente. Debido a la muy alta resolución de las imágenes,
el gran número de imágenes a marcar y la dicultad para determinar los límites de cada parte
de un cometa de manera imparcial, se hizo uso de técnicas de Procesamiento de Imágenes
para facilitar la tarea de identicación de las partes de un cometa y el fondo. A continuación
se describen estos pasos.
Para determinar la región dada por las cabezas de los cometas, se empleó en principio el
método de Otsu para binarizar las imágenes y luego, dado que las cabezas tienen el brillo más
intenso, se ajustó manualmente el umbral de Otsu hasta encontrar el mejor resultado, como
se observa en la Figura 3.1b:
(a) (b)
Es importante señalar que en algunas imágenes se encuentran cabezas traslapadas, las cuales
fueron eliminadas, puesto que en la práctica también son descartadas por los especialistas
debido a la imposibilidad de determinar los límites de las colas. Para eliminar los cometas
traslapados automáticamente se asignó una etiqueta a cada cabeza, tal como se aprecia en
la Figura 3.2a y se eliminaron las cabezas cuya área era superior a 3000 píxeles, tal como las
observadas en la Figura 3.2c, pues corresponde a cabezas traslapadas, las cuales presentan
un área superior a la normal, al ser el resultado de la suma del área de varias cabezas. El
resultado se observa en la Figura 3.3c.
Figura 3.2: Detección de cabezas traslapadas. (a) Imagen etiquetada usando conectividad
de tipo 8. (b) Imagen etiquetada en pseudo-color de acuerdo a su área donde las regiones
más grandes aparecen en blanco. (c) Cabezas traslapadas.
Figura 3.3: Eliminación de cabezas traslapadas. (a) Cabezas. (b) Cabezas traslapadas. (c)
Cabezas aisladas.
Para determinar la región correspondiente a las colas, se binarizo manualmente cada imagen
original ajustando el umbral hasta que los cometas, cabeza y cola, se visualizaban completos,
tal como se observa en la Figura 3.4b.
Figura 3.4: Marcación de cometas completos. (a) Imagen Original (Canal Verde). (b)
Cometas binarizados.
(a) (b)
Una vez obtenida las siluetas de los cometas, mostradas nuevamente en la Figura 3.5a, se le
restaron las cabezas, detectadas previamente e ilustradas en la Figura 3.5b, para conseguir la
silueta de las colas, tal como se ilustra en la Figura 3.5c. Finalmente, para las colas traslapadas
que aun quedaban, se eliminaron manualmente.
Figura 3.5: Marcación de colas. (a) Cometas binarizados. (b) Cabezas. (c) Colas obtenidas.
Luego de la eliminación de los cometas con cabeza doble, se observó que las colas de algunos
cometas terminaban justo antes o sobre la cabeza de otros y debido a la alta intensidad de la
cabeza, estas colas aparecían conectadas a la cabeza en la imagen binarizada. Por esta razón,
fue necesario separar estas colas de las cabezas manualmente.
Finalmente, en el fondo de las imágenes aparecían pequeñas manchas debidas a ruido, las
cuales fueron eliminadas utilizando un ltrado por área donde se descartaron todos los objetos
en la imagen cuya área fuera menor o igual a 300 píxeles, valor encontrado estadísticamente.
Este valor se determinó después de realizar una inspección del área de 2245 cabezas de células
del Ensayo Cometa en 130 imágenes. Como se observa en la Tabla 3.1, el área promedio fue
de 2346 píxeles y el área de la cabeza más pequeña de 426 píxeles. Por lo tanto, se tomó un
área sucientemente menor que el área de la cabeza más pequeña.
3.2 Metodología
A continuación se describen los pasos seguidos para el desarrollo del método de detección de
cometas propiamente dicho.
Como puede observarse, las imágenes cometa se caracterizan por una coloración verde. Por
lo tanto, los canales de color rojo y azul no aportan información signicativa, tal como se
observa en la Figura 3.7. Lo anterior puede comprobarse, al comparar la variabilidad en los
valores de píxeles en cada canal, donde el canal verde, con mayor desviación estándar provee
en general mayor información, tal como se aprecia en la Tabla 3.2.
Figura 3.7: Análisis de componentes de color de imagen cometa. (a) Imagen Original. (b)
Canal Rojo. (c) Canal Verde. (d) Canal Azul.
Como se observa en el perl de la Figura 3.8, cada célula cometa se caracteriza por poseer
una intensidad mayor que sus píxeles vecinos, que puede asimilarse a un domo, el cual se
obtiene restando la imagen original de la h-máxima. Así, una vez seleccionada la imagen del
canal verde, se empleó una reconstrucción morfológica para extraer los domos dado un cierto
valor de umbral h, con el n de eliminar el ruido de fondo, eliminando pequeñas manchas o
detalles no deseados y resaltando el área correspondiente a los cometas. Para determinar la
altura óptima de los domos, es decir, aquella que permitía obtener el valor más alto de la IoU,
se construyeron imágenes tomando distintos valores de h: 65, 140, 200, 207, 215, tal como
se ilustra en la Figura 3.9.
Figura 3.8: Perl de la sección marcada en amarillo de la imagen en canal verde. (a) Perl.
(b) Domos.
(a) (b)
Figura 3.9: Resultados obtenidos con diferentes valores de h. (a) Canal Verde. (b) h = 65.
(c) h = 140. (d) h = 200. (e) h = 207. (f ) h = 215.
(a) (b) (c)
Los entrenamientos se dividieron en cuatro fases, prestando especial atención a diversos hiper-
parámetros durante el proceso para garantizar resultados precisos y comparables entre las
distintas arquitecturas. Todas las arquitecturas probadas son usualmente empleadas para la
segmentación de imágenes y se caracterizan por poseer una etapa de codicación y otra de
decodicación. Para todas ellas se empleó una arquitectura ResNet50 como codicador, la
cual utiliza conexiones residuales, lo que signica que las entradas se pasan a través de bloques
residuales que suman las entradas originales a las salidas de las capas subsiguientes. Estas
conexiones ayudan a mitigar el problema de desvanecimiento del gradiente durante el entre-
namiento, lo que permite entrenar redes más profundas de manera más efectiva. Además, el
codicador ResNet50 ha demostrado ser altamente práctico en la extracción de característi-
cas de imágenes en una variedad de conjuntos de datos. Este codicador es una arquitectura
preentrenada en grandes conjuntos de datos de imágenes, como ImageNet, lo que signica
que sus pesos ya han sido ajustados para reconocer una amplia variedad de características en
imágenes genéricas. En comparación con arquitecturas más simples, como VGG o AlexNet,
ResNet50 es sucientemente exible para segmentar adecuadamente las imágenes. Por úl-
timo, este codicador está ampliamente disponible en bibliotecas de aprendizaje profundo,
como TensorFlow y PyTorch, lo que facilita su implementación y uso. Como decodicador
se construyeron las arquitecturas complementarias siguiendo la descripción de los artículos
originales.
• ResNet50 + U-Net.
• ResNet50 + UNet++.
• ResNet50 + DeepLabV3+.
• ResNet50 + LinkNet.
• ResNet50 + PAN.
Otras dos arquitecturas, PAD-Net y FCN (Fully Convolutional Network), fueron encontradas,
pero debido a su alto consumo de memoria no fue posible entrenarlas y por ello se descar-
taron.
3.2.1.1 Fase 1
Tabla 3.3: Hiperparámetros utilizados para el entrenamiento de la red U-Net empleando una
ResNet50 como codicador.
Inicialmente, se entrenaron las imágenes Ground Truth que aún tenían las cabezas traslapadas,
las colas unidas y píxeles de ruido. En la Tabla 3.4 se reejan los resultados con respecto a la
Tabla 3.3.
Figura 3.15: Errores encontrados en las imágenes Ground Truth: Cabezas traslapadas, colas
superpuestas y partículas (señalada con un círculo rojo). (a) Canal Verde. (b) Ground Truth.
(c) Máscara Predicha.
3.2.1.2 Fase 2
Con el n de determinar el mejor modelo y cual tipo de imagen permitía obtener un rendimiento
superior, se llevó a cabo el entrenamiento de la red ResNet50 como codicador y las cinco
arquitecturas de CNN como decodicador: U-Net, UNet++, DeepLabV3+, LinkNet y PAN,
empleando los siguientes hiperparámetros:
• Épocas: 60
• Optimizador: Adam
También, se utilizaron las 174 imágenes originales de cometas en formato RGB, tomando
únicamente el canal verde, además de las imágenes obtenidas con la transformación h-domo
con h = 65, 140, 200, 207, 215. Nuevamente se usó el 75% de las muestras para entrenamiento
y el 25% para validación. Los resultados obtenidos se encuentran en las Tablas 3.5, 3.6 y
3.7.
Entrenamiento Red Neuronal Tipo de imágenes IoU Score (%) Dice loss (%) Tiempo
1 U-Net RGB 96,34 0,041 9min20s
2 U-Net Canal Verde 96,16 0,043 9min22s
3 UNet++ RGB 96,28 0,048 11min17s
4 UNet++ Canal Verde 96,23 0,037 11min9s
5 DeepLabV3+ RGB 95,4 0,032 10min16s
6 DeepLabV3+ Canal Verde 95,59 0,033 9min45s
7 LinkNet RGB 95,65 0,13 10min12s
8 LinkNet Canal Verde 95,49 0,142 10min6s
9 PAN RGB 95,03 0,029 10min37s
10 PAN Canal Verde 94,96 0,03 10min37s
IoU Score
Tabla 3.7: Resultados Dice loss de entrenamientos para los valores de h-domo (%).
Dice loss
3.2.1.3 Fase 3
Una vez encontrado que el mejor resultado de IoU se obtenía cuando se empleaban como
imagenes de entrada aquellas procesadas con un domo de altura h = 200, se entrenaron todas
las arquitecturas con estas 174 imágenes, y para vericar si el uso de la transformada de h-
domo mejoraba realmente los resultados además, se compararon con los resultados generados
usando como entradas únicamente las imágenes de canal verde. Para este experimento, el
conjunto de datos fue dividido en un 70% para entrenamiento, 15% para validación y el 15%
restante para pruebas, es decir, 122, 26 y 26 imágenes respectivamente y se emplearon los
mismos hiperparámetros que se ajustaron en la fase previa. Los resultados se presentan en el
siguiente capítulo.
Por último, con el n de mejorar los resultados obtenidos se hizo una aumentación de las
imágenes de entrenamiento, haciendo un espejo vertical sobre cada una de ellas dado que
era la única transformación que permitía mantener la dirección horizontal de los cometas de
izquierda a derecha. La Tabla 3.8 presenta una descripción del número de imágenes empleadas
en estas etapas del proyecto.
3.2.2.1 Bloque 1
Fast Hybrid Dome tuvo un método init que se encargó de inicializar la instancia de esta clase,
tomando un parámetro opcional dome height, que representaba la altura del domo. Este
parámetro inuye en el proceso de corrección de iluminación.
El método tomaba una imagen en escala de grises como entrada (img) que en este caso es una
imagen arbitraria de las células del Ensayo Cometa, y devolvía la imagen corregida, que desde
ese momento se llamaba "Imagen h-domo". La imagen se representaba como una matriz
NumPy bidimensional.
3.2.2.2 Bloque 2
con ResNet50 como codicador, para imágenes procesadas con la técnica de h-domo con un
umbral de 200. Se crearon funciones de utilidad para convertir las máscaras segmentadas en
imágenes legibles. Luego, se utilizó la imagen resultante del bloque anterior y se le aplicó
preprocesamiento y transformación de aumento, después se utilizó el modelo para generar la
máscara predicha. Las imágenes originales y las máscaras predichas se utilizaron en el siguiente
bloque del proceso.
3.2.2.3 Bloque 3
El código importaba las bibliotecas necesarias, incluyendo os para operaciones de sistema, cv2
para procesamiento de imágenes, pandas para manejar datos estructurados, skimage.transform
para transformaciones de imágenes, ti y imageio para leer y escribir archivos de imágenes, y
matplotlib.pyplot para visualización de imágenes.
Primero, se encargaba de llamar al par de imágenes (original con técnica de h-domo y máscara
predicha) del Bloque 2. Luego, el código iteró sobre cada par de imágenes. Estas fueron leídas,
la imagen original se convirtió a color, y se redimensionaron si no tenían las mismas dimen-
siones. Seguidamente, se etiquetaron y contaron los cometas en la máscara utilizando el al-
goritmo de etiquetado de componentes conectados de OpenCV (cv2.connectedComponents).
Este algoritmo etiquetó píxeles conectados en la máscara para formar cometas separados.
Por último, el código guardó la imagen procesada con la técnica de h-domo con los cometas
etiquetados en el directorio especicado por el usuario y registró los datos de los cometas
en un DataFrame de Pandas. Finalmente, almacenó el DataFrame en un archivo Excel en el
mismo directorio.
4.1 Entrenamientos
Esta sección detalla el proceso y los resultados de los entrenamientos nales, destacando los
puntajes de IoU y las pérdidas de Dice loss para cada modelo. Se analizan las mejoras obtenidas
a lo largo de las iteraciones y se presentan los tiempos de entrenamiento asociados.
Dados los resultados de la Fase 2, se descartaron las imágenes RGB y se seleccionó un umbral
de 200 como valor h-domo preferente. En la siguiente tabla se pueden visualizar los resultados
de los entrenamientos de imágenes con h-domo de 200 y canal verde de la Fase 3.
Entrenamiento Red Neuronal Tipo de imágenes IoU Score (%) Dice loss (%) Tiempo
1 U-Net h-domo (200) 97,35 0,037 8min6s
2 U-Net Canal Verde 97,4 0,032 8min22s
3 UNet++ h-domo (200) 97,44 0,045 9min52s
4 UNet++ Canal Verde 96,99 0,074 9min56s
5 DeepLabV3+ h-domo (200) 96,87 0,025 8min30s
6 DeepLabV3+ Canal Verde 96,91 0,027 8min54s
7 LinkNet h-domo (200) 95,68 0,177 9min2s
8 LinkNet Canal Verde 96,1 0,167 8min46s
9 PAN h-domo (200) 95,64 0,02 10min15s
10 PAN Canal Verde 96,81 0,022 10min16s
44
Resultados
Los resultados de los entrenamientos con aumentación de datos se exponen en la Tabla 4.2,
que se basa en la información de la Tabla 3.8.
4.2 SAM
Aquí, se muestran los resultados especícos del uso del modelo SAM, proporcionando una
visión general de su desempeño en la tarea especíca. Se establece la base para la discusión
posterior sobre las ventajas y limitaciones de esta Inteligencia Articial.
La IoU se calcula como el área de intersección entre la predicción del modelo y el resultado
ideal (Ground Truth), dividida por el área de unión entre estas dos áreas.
Dado que, en este caso, se tienen tres clases: cabeza, cola y fondo, se decidió comparar el
cometa obtenido con la imagen Ground Truth contra el generado por el método propuesto,
para lo cual fue necesario binarizar las imágenes, tal como se muestra en la Figura 4.2.
Figura 4.2: Binarización Imágenes. (a) Imagen GroundTruth. (b) Imagen GroundTruth
binarizada. (c) Imagen predicha. (d) Imagen predicha binarizada.
(a) (b)
(c) (d)
(a) (b)
Para observar el error del modelo se realizó una resta entre el máximo y el mínimo. Posterior-
mente de tener las imágenes binarizadas, se les asignó un color a los cometas de cada imagen
binarizada; En este caso a la imagen Ground Truth se le otorgó el color rojo y a la imagen
predicha por el modelo el color azul. Seguido a esto, se fusionaron los colores en una única
imagen como se observa en la Figura 4.4, donde el color magenta que se visualiza se reere
a la conjunción entre las dos imágenes.
Figura 4.4: Error del modelo y conjunción. (a) Imagen resultante del error del modelo. (b)
Conjunción entre las dos imágenes.
(a) (b)
(d) (e)
Figura 4.6: Imágenes Binarizadas. (a) Imagen Ground Truth. (b) Imagen Predicha.
(c) Máscara Investigador 1. (d) Máscara Investigador 2. (e) Máscara Investigador 3.
(d) (e)
En este momento, se reiteró el proceso, pero para esta ocasión se comparó la imagen predicha
por el modelo con las generadas por los investigadores. En este caso, el color de los cometas de
la máscara predicha es el rojo y los demás colores se mantuvieron para cada investigador.
En ambas situaciones, la presencia del color blanco indica la conjunción de todas las imá-
genes.
Además, se efectuó una comparación entre la imagen Ground Truth y la imagen predicha
por el modelo, en dónde el color rojo hace referencia a la Ground Truth y el color azul a la
predicha. El color magenta representa la conjunción de las dos imágenes.
En este apartado, se compara la precisión de las máscaras generadas por los investigadores
con la Ground Truth. Los resultados se evidencian en la tabla de a continuación:
Tabla 4.3: Resultados comprobación IoU entre las máscaras de los investigadores y la imagen
Ground Truth.
Máscara IoU
Investigador 1 49%
Investigador 2 49%
Investigador 3 50%
Tabla 4.4: Resultados comprobación IoU entre las máscaras de los investigadores y la imagen
Ground Truth con la máscara predicha.
Máscara IoU
Investigador 1 43%
Investigador 2 44%
Investigador 3 45%
Ground Truth 80%
Esta sección ilustra el funcionamiento del programa desarrollado para etiquetar y clasicar
células cometa en imágenes de microscopía. Se presentan ejemplos visuales junto con una
tabla detallada que resume el análisis de daños en el ADN para cada célula, demostrando la
utilidad y ecacia del programa.
(a) (b)
Por último, se llevó a cabo una evaluación comparativa entre el método implementado y una
aplicación ya existente (OpenComet), que comparte objetivos similares con respecto a las
células del Ensayo Cometa. Esta sección destaca las diferencias en los resultados obtenidos
por ambos enfoques utilizando ejemplos ilustrativos, proporcionando información crítica para
evaluar la efectividad y eciencia del método propuesto.
4.7.1 Ejemplo 1
Figura 4.11: (a) Imagen Original (Canal Verde). (b) Imagen resultante del método.
(c) Imagen resultante de OpenComet.
4.7.2 Ejemplo 2
Figura 4.12: (a) Imagen Original (Canal Verde). (b) Imagen resultante del método.
(c) Imagen resultante de OpenComet.
4.7.3 Ejemplo 3
Figura 4.13: (a) Imagen Original (Canal Verde). (b) Imagen resultante del método.
(c) Imagen resultante de OpenComet.
Este capítulo proporciona un análisis detallado de los resultados obtenidos en este trabajo de
investigación. Cada subsección aborda aspectos especícos relacionados con el rendimiento
de las arquitecturas de las Redes Neuronales Convolucionales utilizadas, la comparación entre
diferentes tipos de imágenes, la variabilidad en el rendimiento, el tiempo de entrenamiento
y otras consideraciones relevantes. Por otro lado, se reejan las limitaciones encontradas
durante el desarrollo del trabajo.
5.1 Discusión
En esta sección se examinan los resultados de cada fase, resaltando la inuencia de los hiper-
parámetros en el rendimiento de los modelos de segmentación de imágenes. Se aborda la
importancia de encontrar un equilibrio entre el número de épocas y el tamaño del lote para
obtener el rendimiento óptimo del modelo, así como una comparación entre diversas arqui-
tecturas de Redes Neuronales Convolucionales, evaluando su impacto en la segmentación del
modelo. Además, se analiza el efecto del tipo de imágenes en el rendimiento del modelo y
se discute la variabilidad entre los diferentes procesos de entrenamiento, junto con algunas
reexiones sobre el método SAM. Igualmente, se detalla la validación de las imágenes Ground
Truth con las máscaras creadas por los investigadores, así como la validación cruzada entre las
imágenes Ground Truth y aquellas generadas por los investigadores, utilizando las máscaras
predichas por el modelo. Finalmente, se comprueba el funcionamiento del programa y se
compara con la aplicación OpenComet.
5.1.1 Fase 1
Épocas y Rendimiento:
Se observa que el modelo en el entrenamiento 2 logra una exactitud del 93.95% con 50
épocas, mientras que el modelo en el entrenamiento 4 tiene una exactitud ligeramente inferior
de 93.29% con 120 épocas. Esto sugiere que, en este caso, un mayor número de épocas no se
traduce necesariamente en un mejor rendimiento, e indica la posibilidad de sobreajuste.
54
Discusión y limitaciones
(94.57% frente a 92.36%). Esto indica que un Batch Size más pequeño puede ser benecioso
para la convergencia del modelo.
Los resultados obtenidos de esta primera fase fueron fundamentales para seleccionar los val-
ores de hiperparámetros más adecuados para la implementación del método, considerando
continuar los demás entrenamientos con una conguración de 60 épocas y un Batch Size de
8, teniendo en cuenta tanto la precisión como la eciencia computacional.
5.1.2 Fase 2
Al analizar los resultados de los entrenamientos de las diferentes arquitecturas de Redes Neu-
ronales Convolucionales en la Fase 2, se extrae:
Variabilidad en el rendimiento:
Existe cierta variabilidad en el rendimiento, incluso con la misma arquitectura y tipo de imá-
genes, debido a factores como la inicialización aleatoria de pesos, la aleatoriedad en la opti-
mización y la sensibilidad del modelo a la calidad de los datos.
Tiempo de entrenamiento:
Aunque hay variaciones en el tiempo de entrenamiento entre los modelos, en general, parece
ser consistente y no hay diferencias drásticas entre las arquitecturas.
5.1.3 Fase 3
Desempeño de las arquitecturas de las redes:
Se observa que las arquitecturas de las redes U-Net y UNet++ obtienen puntajes de IoU
Score consistentemente más altos en comparación con las demás arquitecturas. Esto sugiere
que las arquitecturas U-Net y UNet++ pueden ser más efectivas para este conjunto de datos
especíco o este tipo de tarea de segmentación.
Tiempo de entrenamiento:
No existe una diferencia signicativa en los tiempos de entrenamiento entre las distintas
arquitecturas. Todos los tiempos de entrenamiento están dentro de un rango similar, lo que
indica que las redes tienen una complejidad computacional comparable para este conjunto de
datos y conguración de entrenamiento.
• El IoU Score tiende a ser ligeramente más alto, indicando una mayor capacidad del
modelo para generalizar y segmentar con precisión.
• La tendencia a valores más bajos de Dice loss expone una mejora en la precisión de la
segmentación.
pueden justicar su uso, aunque su impacto puede variar según la conguración especíca del
modelo y los datos utilizados.
5.1.5 SAM
La utilización de SAM para identicar células en el Ensayo Cometa es una aplicación intere-
sante y prometedora de la tecnología de segmentación de imágenes. No obstante, la dicultad
que enfrenta SAM al segmentar adecuadamente las colas de las células podría deberse a varias
razones:
Complejidad morfológica de las colas: Las colas de las células en el Ensayo Cometa
pueden tener características morfológicas complejas, como variabilidad en longitud, grosor,
forma, variaciones también en términos de color, textura o contraste. SAM puede perder
estructuras nas, lo cual podría ser especialmente crítico al segmentar las colas de las células
del Ensayo Cometa. Si las colas son delgadas o presentan detalles sutiles, la falta de resolución
en estas estructuras nas podría conducir a la incapacidad de segmentarlas con precisión.
• Rendimiento sólido del modelo: A pesar de las discrepancias en las máscaras gener-
adas por los estudiantes, es alentador notar que el modelo ha logrado mantener un
rendimiento sólido, como se reeja en los relativamente altos valores de IoU con re-
specto a la Ground Truth. Esto respalda la armación de que el modelo es capaz de
realizar la tarea de segmentación con consistencia y alta precisión.
• COMET NUMBER: Los números de cometas sirven como identicadores únicos para
cada célula en la imagen.
Las células 1, 9 y 10 tienen un daño crítico, con un porcentaje de daño del ADN cercano al
100%. Investigar estas células puede proporcionar información valiosa sobre las condiciones
que causan daño severo al ADN.
El método es capaz de identicar y clasicar células en diferentes niveles de daño. Sin embargo,
cualquier interpretación o conclusión biológica debe validarse con conocimientos de expertos
y, posiblemente, mediante comparación con métodos adicionales de análisis de imágenes o
técnicas de laboratorio.
• Falsos Positivos: En relación con la Figura 4.11, se observa que la imagen resultante
del método propuesto no posee falsos positivos. En contraste, al analizar el resultado
En otro orden de ideas, el método diferencia las células al asignar colores especícos a los
contornos que las rodean, según el tipo de daño en su ADN. Dónde el tono blanco denota
la ausencia de daño, el azul celeste indica daño leve, el amarillo reeja daño moderado, el
naranja denota daño serio y el rojo señala daño crítico. En contraste, OpenComet no lleva a
cabo esta clasicación.
5.2 Limitaciones
La obtención de máscaras para algunas imágenes del Ensayo Cometa resultó desaante debido
a la presencia de problemas tales como ruido, iluminación irregular y artefactos. Estos factores
dicultaron la precisa identicación de las células, lo que inuyó negativamente en la calidad
y conabilidad de los resultados obtenidos.
Además, se observó una variabilidad notable en el tiempo requerido para generar las imágenes
Ground Truth, inuenciada por la complejidad de las imágenes. Mientras que las imágenes
simples tomaban entre 15 y 30 minutos, aquellas más complejas requerían al menos una hora.
Esta variabilidad pudo impactar la eciencia y productividad del trabajo.
6.1 Conclusiones
Los resultados obtenidos fueron validados comparándolos con los resultados obtenidos man-
ualmente, lo que sugiere que el método desarrollado es preciso y conable. Esta concordancia
entre los resultados automáticos y manuales aumenta la conanza en su aplicación en en-
tornos clínicos o de investigación, con importantes implicaciones tanto en la investigación
médica como en la industria automotriz.
61
6.2 Recomendaciones
• Dados los desafíos encontrados en la segmentación precisa de las colas de los cometas
utilizando SAM, se sugiere explorar la posibilidad de utilizar el código y la arquitectura
del modelo SAM como base para mejorar la segmentación en este contexto especí-
co. A pesar de las limitaciones identicadas, SAM ha demostrado ser una herramienta
poderosa en la segmentación de una amplia variedad de objetos en imágenes. Por
lo tanto, adaptar y ajustar el modelo SAM para abordar las peculiaridades de la seg-
mentación de colas de cometas podría ofrecer mejoras signicativas en la precisión y
conabilidad de los resultados. Se recomienda llevar a cabo investigaciones adicionales
y experimentos especícos para optimizar SAM para esta tarea, utilizando este trabajo
como punto de partida y referencia.
6.3 Aportes
• La aplicación desarrollada actualmente está siendo utilizada con gran éxito en el Labo-
ratorio de Biología Celular de la Ponticia Universidad Javeriana de Cali.
[5] M. Klaude, S. Eriksson, J. Nygren, and G. Ahnstrijm, The comet assay: mechanisms and
technical considerations, DNA Repair Mutation Research, vol. 363, pp. 8996, 1996.
[6] A. R. Collins, Comet assay for dna damage and repair 249 review 249 abstract the comet
assay for dna damage and repair principles, applications, and limitations, MOLECULAR
BIOTECHNOLOGY, vol. 26, 2004.
[10] D. Anderson, T.-W. Yu, and D. B. Mcgregor, Comet assay responses as indicators
of carcinogen exposure, Mutagenesis, vol. 13, pp. 539555, 1998. [Online]. Available:
https://academic.oup.com/mutage/article/13/6/539/1044063
63
[12] J. Ashby, H. Tinwell, P. A. Lefevre, and M. A. Browne, The single cell gel
electrophoresis assay for induced dna damage (comet assay): measurement of tail
length and moment, Mutagenesis, vol. 10, pp. 8590, 3 1995. [Online]. Available:
https://dx.doi.org/10.1093/mutage/10.2.85
[17] P. L. Olive and J. P. Banáth, The comet assay: a method to measure dna damage
in individual cells, Nature protocols, vol. 1, pp. 2329, 6 2006. [Online]. Available:
https://pubmed.ncbi.nlm.nih.gov/17406208/
[21] N. OTSU, A threshold selection method from gray-level histograms, p. 5, 1979. [On-
line]. Available: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4310076
[25] O. Ronneberger, P. Fischer, and T. Brox, U-net: Convolutional networks for biomedical
image segmentation, 5 2015. [Online]. Available: http://arxiv.org/abs/1505.04597
[29] H. Li, P. Xiong, J. An, and L. Wang, Pyramid attention network for semantic
segmentation, arXiv, 2018. [Online]. Available: https://arxiv.org/abs/1805.10180
[30] K. He, X. Zhang, S. Ren, and J. Sun, Deep residual learning for image recognition, 12
2015. [Online]. Available: http://arxiv.org/abs/1512.03385
[31] W. Backer, W. Rolf, T. Bauch, W.-U. Muller, and C. Streer, Automated comet assay
analysis, 1999.
[35] C. Helma and M. Uhl, A public domain image-analysis program for the
single-cell / gel-electrophoresis comet assay, pp. 915, 2000. [Online]. Available:
www.elsevier.comrlocatergentoxCommunityaddress:www.elsevier.comrlocatermutres
[36] T. Lee, S. Lee, W. Y. Sim, Y. M. Jung, S. Han, J. H. Won, H. Min, and S. Yoon,
Hicomet: A high-throughput comet analysis tool for large-scale dna damage assess-
ment, BMC Bioinformatics, vol. 19, 2 2018.
[38] A. Palit, P. Talukdar, K. Gupta, and S. N. Talapatra, Cell proler software: An easy
screening tool for dna damage estimation in sh erythrocytes from comet assay image,
2016. [Online]. Available: www.worldscienticnews.com
Figura A1.1: Grácas y Salida Entrenamientos Fase 1. (IoU Score vs Dice Loss)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a) (b)
(c) (d)
(e) (f)
(g) (h)
(i) (j)
(a)
(b)
(c)
(d)
(a)
(b)
(c)
(d)
(e)
(a)
(b)
(c)
(d)
(e)
(a)
(b)
(c)
(d)
(e)
(b)
(c)
(d)
(e)
(b)
(c)
(d)
(e)
(b)
(c)
(d)
(e)
(b)
(c)
(d)
(e)
(a)
(b)
(c)
(d)
(e)
(a)
(b)
(c)
(d)
(e)
(a)
(b)
(c)
(d)
(e)
(a)
(b)
(c)
(d)
(e)
La siguiente tabla muestra los porcentajes de la Intersección sobre la Unión que se obtu-
vieron al evaluar 30 imágenes aleatorias de las Ground Truth con imágenes de las máscaras
predichas:
Tabla A3.1: Resultados comprobación IoU entre las imágenes Ground Truth y las máscaras
predichas por el modelo.
93
Figura A3.1: Resultados de validación IoU.
Ejemplo 1
Figura A4.1: (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas.
(a) (b)
96
Ejemplo 2
Figura A4.2: (a) Imagen de entrada al programa. (b) Imagen con las células etiquetadas y
clasicadas.
(a) (b)
A5.1.1 Introducción
A5.1.1.1 Descripción
CometScanner es una aplicación diseñada para abordar de manera eciente y precisa la clasi-
cación de células del Ensayo Cometa. Su función principal es evaluar el daño al ADN
representado por cada célula en una imagen importada, facilitando así la investigación en
biología celular y genética.
98
A5.1.1.2 Propósito
A5.1.1.3 Objetivos
• Ofrecer recursos de ayuda a través de videos, como el tutorial, para garantizar una
experiencia de usuario sin complicaciones.
Finalmente, ejecute el código "Application" para iniciar la interfaz. Este procedimiento garan-
tizará un correcto desempeño de la aplicación CometScanner.
• Una vez cargada la imagen, aparecerá una ventana de diálogo para congurar el valor
de "h-domo" o umbralización.
• Se establece un valor predeterminado de 200 para obtener los mejores resultados, pero
puede ajustar este valor en el rango de 0 a 255.
• El archivo TIFF contendrá una representación visual de la imagen, donde cada cometa
estará identicado por un número y delimitado por contornos de diversos colores que
indican el tipo de daño correspondiente: blanco (sin daño), azul celeste (daño leve),
amarillo (daño moderado), naranja (daño serio) y rojo (daño crítico).
• El archivo Excel contendrá una tabla con las siguientes columnas: Número de cometas,
Área del cometa, Área de la cabeza, Área de la cola, Intensidad del cometa, Intensidad
de la cabeza, Intensidad de la cola, Porcentaje de daño del ADN y Tipo de daño. En
cada una estarán los respectivos valores.
• En el momento en que sale la interfaz, es posible que los usuarios por equivocación o
confusión hagan clic en el botón "RUN" sin haber importado previamente una imagen.
Esto puede generar un mensaje de error que indica: "Error", "Por favor, importe una
imagen antes de ejecutar el proceso". Si esto ocurre, los usuarios solo necesitan hacer
clic en "OK" y dirigirse al botón "INPUT FILES" para cargar la imagen antes de
continuar.
• Otro escenario posible es que los usuarios hagan clic en el botón "OUTPUT DIREC-
TORY" sin haber cargado una imagen previamente. Esto desencadenará un mensaje
de error que informa: "Error", "Por favor, importe una imagen antes de seleccionar la
carpeta de resultados". En este caso, basta con hacer clic en "OK" y dirigirse al botón
"INPUT FILES" para cargar la imagen antes de proceder.
• ¾La aplicación es compatible tanto con imágenes en formato RGB como en escala de
grises?
Respuesta: Sí, puedes ingresar a la aplicación cualquiera de estos dos tipos de imágenes,
y el proceso se llevará a cabo de manera satisfactoria en ambos casos.
Respuesta: Sí, la aplicación es compatible con todos los formatos de imagen disponibles.
Puedes utilizar cualquier formato sin preocupaciones, ya que la aplicación se adapta a
una amplia variedad de opciones.
A5.1.9 Glosario
• h-domo: El concepto de h-domo en procesamiento de imágenes se reere a la técnica
que ayuda a resaltar características importantes mientras suprime pequeñas variaciones
o detalles menos signicativos en una imagen. Imagina la imagen como un paisaje:
los picos más altos representan las características esenciales que queremos destacar,
mientras que las pequeñas colinas y valles son detalles menos relevantes. Al ajustar
el parámetro "h", podemos controlar la sensibilidad de esta técnica, realzando lo que
realmente importa y mejorando la claridad de la información visual en la imagen.