INFORMATICA 3er Lapso
INFORMATICA 3er Lapso
INFORMATICA 3er Lapso
PROFESOR: BACHILLERES:
Franklin Lugo Gabriela Camacaro C.l.: 30.687.009
Stephanie Godel C.l.: 31.118.525
Luis Silva C.l.: 30.484.439
Norjeiris Hernández C.I:28.265.765
Ivan Oropeza C.I:28.310.484
Por último, dentro del trabajo desarrollado se podrá apreciar de una manera
bastante extensa, la informática en respecto a los métodos de observación,
diagnostico, intervención y observación; por medio de la lectura de este último
tópico realizado, se podrá entender cómo funciona la imagenología básica,
tales como Rayos X, tomografía y resonancia magnética; además de esto
también se ha podido entender el cómo se originó la creación del endoscopio,
las mejorías que se le realizo a lo largo del avance natural de la historia y de
la generación de nuevas tecnologías. De ultima forma, en este trabajo se podrá
ver todos los puntos objetivos sobre las técnicas quirúrgicas invasivas, poco
invasivas y no invasivas y como cada una de ellas es aplicada para cada
paciente. Técnicas como la cirugía laparoscópica, cirugía refractiva y los
litotriptores, son algunos de los métodos desarrollados dentro del trabajo.
TEMA N°1: LA CIBERNETICA Y LA INTELIGENCIA ARTIFICIAL.
La Cibernética es la ciencia que estudia los sistemas de control y
comunicación de las personas y las máquinas. De esta manera se aprovechan
todos los aspectos y mecanismos comunes.
El término “cibernética” nace de la mano de Norbert Wiener en 1942 en
un congreso sobre la inhibición cerebral. Cibernética proviene de una palabra
griega que puede traducirse como piloto, timonel o regulador. Por lo tanto la
palabra cibernética podría significar “ciencia de los mandos”.
La cibernética, según el epistemólogo, antropólogo, cibernetista y padre
de la terapia familiar, Gregory Bateson, es la rama de las matemáticas que se
encarga de los problemas de control, recursividad e información. Bateson
también afirma que la cibernética es "el más grande mordisco a la fruta del
árbol del Conocimiento que la humanidad haya dado en los últimos 2000 años"
Historia de la Cibernética.
Es una ciencia, nacida hacia 1942 e impulsada inicialmente por Norbert
Wiener que tiene como objeto “desarrollar un lenguaje y técnicas que nos
permitirán abordar el problema del control y la comunicación en general”. Dio
gran impulso a la teoría de la información a mediados de los 60, la
computadora digital sustituyo la analógica en la elaboración de imágenes
electrónicas. En esos años aparecen la segunda generación de computadoras
(con transistores en 1960) concretándose por entonces los 1° dibujos y
gráficos de computadora, y la tercera (con circuitos integrados, en 1964) así
como los lenguajes de programación. El 1965 se destacó la exposición
“Mindextenders” del Museum of Contemporary Crafs de Londres. En 1969 el
Museo Brooklyn organizó la muestra “Some more Beginnings”. En ese mismo
año, en Buenos Aires y otras ciudades de Argentina, se presentaba Arte y
cibernética, organizada por Jorge Glusberg con esta muestra se inauguraría
los principios de la relación arte/ imagen digital en ese país.
La Cibernética no debe verse ni como una ciencia, ni como una disciplina;
sino como un movimiento de ideas, que trató de romper con la estrechez de
los conocimientos propios de cada disciplina. El movimiento cibernético
demostró que las barreras que existían entre la matemática, la biología y la
electrónica, por solo citar tres de las más beneficiadas, eran superables y
encontró sorprendentes analogías entre ellas.
El movimiento cibernético tuvo su época de oro en los años 50, cuando
se hablaba que las máquinas, algún día, dominarían al hombre; se especulaba
sobre los robots y se soñaba con construir un modelo del cerebro humano. Sin
embargo, en el último congreso cibernético se cuestiona la utilidad de la
Cibernética como disciplina científica, ya que carece de bases sólidas que la
sustenten por sí misma: la Cibernética toma ideas de la biología, de la
electrónica, de la matemática y se dedica a construir juguetes para probar
ciertas conductas; incluso para sugerir el comportamiento de un mecanismo o
un animal desconocido partiendo de sus funciones de forma general.
Para los nuevos cibernéticos todos esto es demasiado difuso y proponen
una nueva ciencia: la inteligencia artificial, que se dedicaría al desarrollo de
programas que tuvieran aptitudes inteligentes, y a partir de entonces los
congresos de Cibernética se convierten en congresos de Inteligencia Artificial.
Esto unido a la consolidación de la robótica también como ciencia
independiente, dejaría a la Cibernética sin soporte científico.
Características.
Permite la utilización de máquinas capaces de reaccionar y operar coN
más precisión y rapidez que los seres vivos.
Es la ciencia de la comunicación y el control en el animal y en la
máquina.
Estudia el método del comportamiento
Es funcional y conductiva
Analiza el cambio de un estado a otro
Ventajas.
1. La reducción de las jornadas laborales, los trabajos complejos o
rutinarios pasarían a ser de las máquinas.
2. Brinda un gran aporte al campo medicinal.
3. Pudiera llevar a la solución de problemas también complejos como la
criminalidad en las grandes ciudades.
Desventajas.
1. La creación de máquinas complejas que reemplacen a los trabajadores
provocaría un recorte de personal
2. En un futuro ya no se ocuparía personal "viejo" y contratarían técnicos
jóvenes para el mantenimiento de las máquinas.
3. Es una tecnología muy potente pero su gran limitación es encontrar la
relación máquina-sistema nervioso; ya que para esto se debería conocer
el sistema nervioso perfectamente.
Usos en la medicina.
La cibernética marco una pauta en el desarrollo de la medicina, ya que
con su aplicación se logró llevar una evolución más rápida para los pacientes,
proponiendo una nueva forma de investigación para que el cerebro y el
sistema coordinen la información que sirve para determinar una futura línea
de conducta, las aplicaciones que se realizan mediante la cibernética para los
procesos de la medicina se dan en la biónica o en la robótica, las cuales han
dado un uso particular de acuerdo a las necesidades propias.
La Biónica en la medicina se beneficia de los descubrimientos de las
aplicaciones de la electrónica implementando la cibernética en el estudio del
principio de la organización de los seres vivos, donde sus grandes avances
fueron sumamente aprovechados.
La Prótesis de retina, consiste en un prototipo de ojo biónico que dispone
de una mini cámara colocada sobre una lente que captura imágenes y las
envía a un procesador que puede guardarse en el bolsillo; un dispositivo envía
señales a la unidad dentro de la retina que estimula las neuronas vivas dentro
de ésta y que a su vez mandan las imágenes al cerebro.
El implante coclear es un producto sanitario implantable activo de alta
tecnología que consiste en un transductor que transforma las señales
acústicas en señales eléctricas que estimulan el nervio auditivo. Estas señales
son procesadas mediante las diferentes partes que forman el implante coclear,
algunas de las cuales se colocan en el interior del cráneo y otras en el exterior.
Ayuda a las personas a escuchar y puede ser utilizado para personas sordas
o con dificultades auditivas. No es lo mismo que un audífono, pues es
implantado quirúrgicamente y funciona de manera diferente.
Los tejidos biónicos, podrían usarse como músculos para máquinas
biológicas, tejidos vivos programables que se mueven y que llevan la biología
sintética más allá de las células aisladas. Si el uso de estos materiales en el
cuerpo humano acaba siendo seguro, también se podrían usar para parchear
el tejido dañado por los infartos.
La inteligencia artificial.
La inteligencia artificial o IA (Artificial Intelligence -AI-) es la simulación de
procesos de inteligencia humana por parte de máquinas, especialmente
sistemas informáticos. Estos procesos incluyen el aprendizaje (la adquisición
de información y reglas para el uso de la información), el razonamiento
(usando las reglas para llegar a conclusiones aproximadas o definitivas) y la
autocorrección.
Las aplicaciones particulares de la AI incluyen sistemas expertos,
reconocimiento de voz y visión artificial.
Origen
El término “inteligencia artificial” fue acuñado formalmente en 1956
durante la conferencia de Darthmounth, pero para entonces ya se había
estado trabajando en ello durante años en los cuales se había propuesto
muchas definiciones distintas que en ningún caso habían logrado ser
aceptadas totalmente por la comunidad investigadora. La IA es una de las
disciplinas más nuevas junto con la genética moderna.
En 1315 Ramon Llull en su libro “Ars magna” tuvo la idea de que el
razonamiento podía ser efectuado de manera artificial.
En 1936 Alan Turing diseña formalmente una máquina universal que
demuestra la viabilidad de un dispositivo físico para implementar cualquier
cómputo formalmente definido.
En 1947 Warren McCulloch y Walter Pitts Impulsaron el nacimiento de la
Inteligencia Artificial cuando presentaron su modelo de neuronas artificiales
para reconocer entradas visuales, el cual se considera el primer trabajo del
campo.
Los avances más importantes comenzaron a partir de 1950...
- 1955: Herbert Simon, Allen Newell y J. C. Shaw, desarrollan el primer
lenguaje de programación orientado a la resolución de problemas, el IPL-11.
Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar
teoremas matemáticos.
- 1956: fue inventado el término "Inteligencia Artificial" por John
McCarthy, Marvin Minsky y Claude Shannon en la conferencia de
Darthmounth, un congreso en el que se hicieron previsiones triunfalistas a diez
años que jamás se cumplieron, lo que provocó el abandono casi total de las
investigaciones durante quince años.
- 1958: John McCarthy desarrolla en el Instituto de Tecnología de
Massachusetts (MIT) el LISP. Su nombre se deriva de LISt Processor. LISP
fue el primer lenguaje para procesamiento simbólico.
- 1959: Rosenblatt introduce el Perceptrón.
- Finales de la década de 1950 y comienzos de la de 1960: Robert K.
Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en
inglés y la inferencia de conclusiones a partir de su interpretación.
- 1963: Quillian desarrolla las redes semánticas como modelo de
representación del conocimiento.
- 1964: Bertrand Raphael construye el sistema SIR (Semantic Information
Retrieval) el cual era capaz de inferir conocimiento basado en información que
se le suministra.
A mediados de los años 60, aparecen los sistemas expertos, que
predicen la probabilidad de una solución bajo un set de condiciones. Por
ejemplo: DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y
Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras
químicas complejas euclidianas; MACSYMA, que asistía a ingenieros y
científicos en la solución de ecuaciones matemáticas complejas.
- 1968-1970: Terry Winograd desarrolló el sistema SHRDLU, que
permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo
de bloques. En esta época creció el uso de sistemas expertos, como MYCIN:
R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc.
Algunos permanecen hasta hoy (Shells) como EMYCIN, EXPERT, OPSS.
- 1986 McClelland y Rumelhart publican Parallel Distributed Processing
(Redes Neuronales).
- 1988 se establecen los lenguajes Orientados a Objetos.
- 1997: Gari Kaspárov, campeón mundial de ajedrez, pierde ante la
computadora autónoma Deep Blue.
- 2006 se celebró el aniversario con el Congreso en español 50 años de
Inteligencia Artificial - Campus Multidisciplinar en Percepción e Inteligencia.
- 2009: En desarrollo sistemas inteligentes terapéuticos que permiten
detectar emociones para poder interactuar con niños autistas.
Hoy en día, es un término general que abarca todo, desde la
automatización de procesos robóticos hasta la robótica actual. Ha ganado
prominencia recientemente debido, en parte, a los grandes volúmenes de
datos, o al aumento de velocidad, tamaño y variedad de datos que las
empresas están recopilando. AI puede realizar tareas tales como identificar
patrones en los datos de manera más eficiente que los seres humanos, lo que
permite a las empresas obtener más información sobre sus datos
Existirá Inteligencia Artificial cuando no seamos capaces de distinguir
entre un ser humano y un programa de computadora en una conversación a
ciegas. - Turing.
Utilidad en el entorno mundial.
La inteligencia artificial tiene muchas aplicaciones, de hecho es muy
posible que en este momento tengamos en casa aparatos electrónicos que
utilicen algún tipo de tecnología relacionada con la inteligencia artificial.
Los automóviles modernos usan sistemas inteligentes para proporcionar
un mejor frenado, y evitar los derrapes en curvas y caminos los días de lluvia.
Los videojuegos actuales hacen uso de la inteligencia artificial de muchas
maneras diferentes: la selección de la estrategia por utilizar, la búsqueda del
jugador dentro de un ambiente complejo, el evitar la colisión con el jugador, el
control de los personajes, entre otros.
Un sistema de inteligencia artificial puede ser usado para controlar el
riego y la distribución de fertilizantes en las plantaciones. Incluso, se usa en
las máquinas de búsqueda en Internet para dar mejores resultados y encontrar
páginas significativas. Así como también puede ser usada en los mercados
financieros.
En Venezuela:
- Algoritmos genéticos aplicados al problema cuadrático de asignación
de facilidades QAP (Departamento de Investigación Operativa, Escuela de
Ingeniería Industrial, Universidad de Carabobo, Valencia, Venezuela.
- Mano Biomecanica (Universidad de Bolívar)
- Diseño y construcción de dispositivos médicos, que consiste en la
creación de prótesis para miembros inferiores a la disposición de pacientes
amputados.
- Simulación y análisis numéricos de dispositivos médicos donde se
prueban los prototipos de prótesis, así como fijadores externos, clavos y
placas, entre otros bajo cargas fisiológicas.
- Creación de una plataforma virtual donde se simulan a los huesos en
condiciones fisiológicas reales.
Usos en la medicina.
A. En medicina, existen algunas aplicaciones recientes que tienen como
objetivo fundamental el de servir de apoyo al trabajo del médico en
determinadas circunstancias, entre otras podemos señalar las siguientes:
B. Asistente basado en casos para la clínica psiquiátrica.
C. Sistema basado en casos para el procesamiento de imágenes de:
Tomografía axial computarizada y resonancia magnética, de tumores
cerebrales.
D. Sistema asistente para el manejo de pacientes en unidades de cuidados
intensivos.
E. Asistente basado en casos para el diagnóstico y análisis del síndrome
dismórfico.
F. Sistema de razonamiento automatizado para el diagnóstico y pronóstico
del cáncer de próstata.
G. Sistema para la evaluación inicial de pacientes con SIDA.
H. Sistema basado en casos que utiliza una red neuronal artificial para el
diagnóstico del infarto agudo de miocardio.
I. Sistema de RBC para el pronóstico de cardiopatías congénitas en
recién nacidos.
J. Sistema basado en casos para el cálculo de la dosis de antibióticos en
cuidados intensivos.
K. Sistema de RBC para la detección de la enfermedad coronaria por
escintigramas coronarios.
Ventajas.
La IA en los hospitales ayuda a los médicos a comprender qué pacientes
están en mayor riesgo de complicaciones y los algoritmos de IA son los que
pueden hallar una “aguja en un pajar” entre los datos masivos que se poseen
y reciben. Por ejemplo: los métodos de inteligencia artificial se han empleado
recientemente para descubrir sutiles interacciones entre los medicamentos,
que ponen a los pacientes en riesgo de sufrir efectos secundarios graves.
Está demostrado que la IA puede explorar el Universo estrella a estrella,
intuyendo cuándo es necesario aprovechar la experiencia de los astrónomos
humanos.
Otras:
En el ámbito laboral reduce los costos y salarios adicionales
Por resultar un atractivo, conlleva a generar más ingresos.
Se han desarrollado aplicaciones que realizan tareas que el hombre
nunca hubiese podido hacer debido a la complejidad.
Predicción de situaciones a largo plazo.
Reduce el tiempo que consume realizar cierta actividad.
Desventajas.
Requiere de mucho tiempo y dinero.
Errores de programación en software de inteligencia artificial pueden
conllevar a la muerte de un paciente.
Requieren de constantes actualizaciones (mantenimiento).
Máquinas que sean autosuficientes y puedan ir desplazando a la raza
humana y conllevar a la dominación de las máquinas sobre el hombre, como
también llegar a depender mucho de ellas.
VENTAJAS Y DESVENTAJAS DEL USO DE LA INTELIGENCIA
ARTIFICIAL EN LA SALUD
Ventajas
Automatización de procesos
Permite que las máquinas hagan de forma automática tareas que para
los humanos resultan repetitivas y tediosas.
Reduce el error humano
Al reducir la intervención de los humanos en ciertos procesos, acaba con
las posibilidades de que estos puedan cometer errores. Por ejemplo, una
errata al introducir un dato en la contabilidad de un negocio.
Potencia la creatividad
Al liberar a los trabajadores de tareas repetitivas y poco motivadoras, la
mente de estos es mucho más libre para dedicarse al proceso creativo.
Aporta precisión
Al ser capaz de tomar decisiones por sí misma, la inteligencia artificial da
lugar a procesos productivos mucho más eficientes y con una menor tasa de
error.
Agiliza la toma de decisiones
La inteligencia artificial es capaz de analizar miles de datos en apenas
minutos y además tener en cuenta posibles actualizaciones de los mismos.
La información bien sintetizada y actualizada ayuda a los profesionales a
tomar decisiones estratégicas.
Desventajas
Dificultad de acceso a los datos
Para que una inteligencia artificial funcione de forma adecuada debe
tener datos actualizados y fiables, pero esto nos siempre es así. Por eso, uno
de los principales retos a abordar es garantizar que estos sistemas puedan
acceder a los datos que necesitan en cada momento.
Falta de profesionales cualificados
Uno de los inconvenientes de esta tecnología es que su desarrollo no
está siendo tan rápido como debería porque faltan profesionales bien
cualificados que puedan implementar los ajustes necesarios.
Su desarrollo es costoso
Aunque las inteligencias artificiales aplicadas al ámbito de la medicina, la
producción, la dirección de empresas, etc. pueden ser muy útiles, el desarrollo
de las mismas tiene todavía un coste muy elevado, lo que hace que no sean
accesibles para todo el mundo.
Con la inteligencia artificial las ventajas y desventajas están ahí y toca
valorar qué pesa más. Teniendo en cuenta la manera en la que pueden
mejorar la forma de trabajar en sectores muy diferentes entre sí, a día de hoy
está claro que supriman más los beneficios que los inconvenientes.
TEMA N°2: LA INFORMATICA Y LA MEDICINA NUCLEAR.
Origen y evolución de la Gammagrafía
La medicina nuclear tiene múltiples aplicaciones y supone un beneficio
más que notable para la salud. Se emplea tanto en el diagnóstico como en el
tratamiento de enfermedades.
Dr. José Manuel Jiménez (2012) “La medicina nuclear utiliza las
radiaciones ionizantes para el diagnóstico y el tratamiento de enfermedades.
Este campo trata las radicaciones en forma no encapsulada, de ahí que los
servicios de medicina nuclear tengan muchas normativas de seguridad para el
paciente y los profesionales. Radiación no es igual a peligro, esa idea hay que
erradicarla. Se trabaja con el cien por cien de las medidas de seguridad”.
La medicina nuclear diagnóstica es un procedimiento imagenológico
en diagnóstico no invasivo, que mediante la incorporación de radiofármacos
específicos al metabolismo del órgano a estudiar, permiten con alta
sensibilidad determinar su estado funcional, con la ventaja sobre otros
procedimientos diagnósticos por imagen de no depender de la presencia de
alteraciones de la estructura anatómica del órgano a estudiar o del tamaño de
las lesiones, permitiendo un diagnóstico más precoz de diversas patologías.
Los procedimientos en Medicina Nuclear se denominan
Gammagrafías, anteriormente cintillografia, debido a que utiliza radioisótopos
emisores de rayos gamma unidos a fármacos. En la mayoría de los casos, el
radioisótopo empleado es el Tecnecio 99m por su baja energía y vida media
corta, aunque en ocasiones se emplea también el Yodo 131, (indio 111).
Las técnicas de adquisición de imágenes pueden ser estáticas
planares regionales, cuerpo entero, dinámicas sincronizadas o no, Spect
(tomografía de fotón único) y 3D, con determinación cuantitativa y cualitativa
de la función del órgano.
Establecidos en diciembre de 1946, cuando se empleó por vez
primera el Yodo(I)131; dio inicio al tratamiento de una neoplasia. Su empleo
con fines terapéuticos y probada utilidad en el diagnóstico como, el alivio
del dolor, la esterilización de equipos o de material biológico.
La historia de la medicina nuclear es enriquecida con las aportaciones
de los científicos dotados de diferentes disciplinas en Física, Química,
Ingeniería y Medicina. El carácter multidisciplinario de Medicina Nuclear hace
difícil para los historiadores médicos determinar la fecha de nacimiento de
Medicina Nuclear.
Esto puede probablemente mejor colocarse entre el descubrimiento
de la radiactividad artificial en 1934 y la producción de radionúclidos por el
laboratorio nacional de Oak Ridge para medicina relacionados con el uso, en
1946.
Muchos historiadores consideran el descubrimiento de radioisótopos
producidos artificialmente por Frédéric Joliot-Curie y Irène Joliot-Curie en 1934
como el más importante hito en la Medicina Nuclear.
Aunque el primer uso de-131 se dedicó a la terapia de cáncer de
tiroides, su uso más tarde se amplió para incluir imágenes de la glándula
tiroides, la cuantificación de la función tiroidea y tratamiento para el
hipertiroidismo.
El uso clínico generalizado de Medicina Nuclear comenzó en los años
50, como conocimiento ampliado acerca de radionucleidos, detección de
radioactividad y utilizando determinados radionucleidos a procesos
bioquímicos de la traza.
Trabajos por Benedict Cassen pioneros en el desarrollo del primer
escáner rectilíneo y centelleo cámara (IRA) de Hal o ira ampliaron la joven
disciplina de Medicina Nuclear en una especialidad de imagen médica
completa.
En estos años de Medicina Nuclear, el crecimiento fue fenomenal. La
sociedad de Medicina Nuclear se formó en 1954 en Spokane, Washington,
EE.UU. En 1960, la sociedad comenzó la publicación de la revista de Medicina
Nuclear, la primera revista científica de la disciplina en América.
Hubo un aluvión de investigaciones y desarrollos de nuevos
radionucleidos y radiofármacos para usar con dispositivos de imágenes y para
estudios in vitro. Entre muchos radionucleidos encontrados para uso médico,
ninguno era tan importante como el descubrimiento y desarrollo de tecnecio-
99 m.
Fue primero descubierto en 1937 por C. Perrier y E. Segre como
elemento artificial para llenar el número 43 de espacio en la tabla periódica. El
desarrollo del sistema de generador para producir tecnecio-99 m en la década
de 1960 se convirtió en un método práctico para uso médico.
Hoy, el tecnecio-99 m es el elemento más utilizado en Medicina
Nuclear y se emplea en una amplia variedad de estudios de imágenes de
Medicina Nuclear.
Por la década de 1970 la mayoría de órganos del cuerpo podrían
visualizarse mediante procedimientos de Medicina Nuclear. En 1971, la
Asociación Médica Americana había reconocido oficialmente medicina nuclear
como una especialidad médica.
En 1972, se estableció la Junta estadounidense de Medicina Nuclear,
Medicina Nuclear como una especialidad médica de cementación.
En la década de 1980, radiofármacos fueron diseñados para su uso
en el diagnóstico de enfermedades del corazón. El desarrollo de la tomografía
por emisión de fotón único, al mismo tiempo, llevó a la reconstrucción
tridimensional del corazón y el establecimiento del campo de la cardiología
Nuclear.
Acontecimientos más recientes en Medicina Nuclear incluyen la
invención del primer escáner de tomografía por emisión de positrones (PET).
El concepto de tomografía por emisión y transmisión, que más tarde se
convirtió en la tomografía de emisión calculada de fotón único (SPECT), fue
presentado por David E. Kuhl y Roy Edwards en la década de 1950. Su trabajo
condujo al diseño y construcción de varios instrumentos tomográfico de la
Universidad de Pennsylvania. Técnicas de imagen tomográfica se
desarrollaron aún más en la escuela de Medicina de la Universidad de
Washington.
Estas innovaciones llevaron a imágenes de fusión con SPECT y
CT por Bruce Hasegawa de la Universidad de California en San Francisco
(UCSF) y el primer prototipo de PET/CT por D. w. Townsend de la Universidad
de Pittsburgh en 1998. PET y PET/CT imaging experimentó un crecimiento
más lento en sus primeros años debido al costo de la modalidad y el requisito
para una a domicilio o cerca ciclotrón. Sin embargo, una decisión
administrativa para aprobar los reembolsos médicos de limitado PET y
aplicaciones de PET/CT en Oncología ha llevado al crecimiento fenomenal y
aceptación generalizada en los últimos años. Imágenes de PET/CT es ahora
una parte integral de Oncología para el diagnóstico, ensayo y control de
tratamiento.
Patologías más frecuentes donde utilizamos la Gammagrafía
La gammagrafía es una prueba diagnóstica de Medicina Nuclear que
consiste en la administración de una pequeña dosis de radioisótopo (trazador).
Este material se distribuye por todo el organismo y los distintos órganos lo
captan. Después, se utiliza una gammacámara para detectar los rayos gamma
que libera el trazador.
Las más frecuentes son:
Gammagrafía ósea: (gammagrafía de hueso) ayuda a diagnosticar y
evaluar una variedad de enfermedades y condiciones de los huesos
utilizando pequeñas cantidades de materiales radiactivos llamados
radiosondas que se inyectan en el torrente sanguíneo. La radiosonda viaja
a través del área examinada y entrega radiación en la forma de rayos
gamma que son detectados por una cámara gamma especial y una
computadora para crear imágenes de sus huesos. Debido a que puede
identificar actividad a nivel molecular dentro del cuerpo, la gammagrafía
ósea ofrece la posibilidad de identificar enfermedades en sus etapas
tempranas.
Los médicos ordenan una gammagrafía ósea para:
Encontrar cáncer de hueso o determinar si el cáncer de otra parte del
cuerpo, como el seno, el pulmón y la glándula prostática, se ha diseminado
hacia los huesos.
Diagnosticar la causa o la ubicación de un dolor óseo inexplicable, como
dolor en la parte baja de la espalda.
Ayudar a determinar la ubicación de un hueso anormal en las
estructuras óseas complejas, tales como el pie o la columna vertebral. La
evaluación de seguimiento se puede hacer entonces con una tomografía
computarizada (TC) o con una exploración con imágenes por resonancia
magnética (RMN).
Diagnosticar fracturas de huesos, como la fractura por estrés o una
fractura de cadera que no se ven claramente en las radiografías.
Encontrar daño óseo causado por una infección u otras condiciones,
tales como la enfermedad de Paget.
Cuadro comparativo
La tomografía axial computarizada
TAC es la obtención de imágenes con rayos X
de cortes o secciones de algún objeto
La Resonancia Magnética,
RESONANCIA MAG Resonancia Magnética Nuclear o
también conocida por sus siglas RM o
RMN, es un examen diagnóstico no
invasivo en el que se obtienen
imágenes del interior del cuerpo.
La ecografía es una de las pruebas
ULTRASONIDO diagnósticas de imagen que se pueden
utilizar para identificar el origen de las
molestias que sufre un paciente.
Se trata de una prueba de imagen
TOMOGRAFICA basada en radiaciones ionizantes (al
igual que las radiografías).
CIRUGIA LAPAROSCOPICA
Partiendo del año 1883, avanzando por las pruebas realizadas por el
doctor George Keling en el año 1901 y las otras realizadas en el año 1911 por
el doctor 1911 Bertram Berheim de este mismo procedimiento, llegamos al año
1918, donde el doctor Otto Goetze logra solucionar la problemática ocasionada
en las dos últimas pruebas, el neumoperitoneo. El doctor Goetze por medio
del diseño de una aguja, logro insuflar de una manera segura en el
procedimiento. Desde este punto, los avances de gran diferencia fueron
escasos, esto siendo hasta la década de los 30s a los 50s; donde encontramos
que el doctor Janos Veress, logro sacar a la luz el dispositivo de aguja para
inducir el neumoperitoneo, dispositivo que hasta la actualidad sigue siendo
usado. Otro avance para la década de los 50s fue el descubrimiento de la fibra
óptica en los procedimientos endoscópicos. Para esta misma época el Doctor
Alemán, Frank Frangeinhem diseña el primer insuflador de Co2.
En todo este tiempo, el uso y desarrollo del artefacto, los procedimientos
y las técnicas iban hacia un sentido para la imagenología médica, al igual que
la resonancia o los rayos X, esto fue hasta la década de los 80s, donde dos
cirujanos proponen su uso en procedimiento de heridas cortopunzantes.
Para el año 1985, el doctor de origen Frances decide realizar la primera
colecistectomía por vía laparoscópica a través de la exposición y triangulación
de la arteria y conducto cístico.
Desde ese punto a la actualidad, con el avance tecnológico y sofisticación
de los instrumentos, la cirugía de carácter mínimo invasivo sufrió un
crecimiento abrupto y exponencial, cada vez siendo más habitual y viable en
diversos casos que se presentan en el día a día, del ejercicio quirúrgico.
Usos: La cirugía laparoscópica recordando su principio filosófico como
un procedimiento mínimamente invasivo, siendo efectiva en el cumpliendo de
esto, posee una gran variedad de usos en la práctica. En un primer término
general, la cirugía laparoscópica puede ser usada en cualquier intervención
quirúrgica que comprenda el margen anatómico de la cavidad abdominal,
además de esto, con el avanzar del tiempo y sus respectivas pruebas se ha
calificado el uso de la cirugía laparoscópica en procedimiento de caracteres
gástricos, como colecistectomía, en un sentido urológico con una
prostatectomía y en ginecología como extirpación de quistes ováricos,
endometriosis y extracción de canceres de sentido ginecológico.
Además de estos usos en estas especialidades, también se amerita en
ocasiones por medio del servicio de urgencias para la atención de apendicitis
hernias estranguladas, etc. Por último, la cirugía laparoscópica a causa de su
demostración de la disminución de la tasa de infección de las paredes
abdominales, se usa en procedimientos de intervenciones por obesidad
mórbida
Funcionamiento: Según la sociedad americana por el cáncer, el
procedimiento laparoscópico comprende el uso de un tubo delgado y flexible
que es introducido en el abdomen y la pelvis para poder poseer una visión de
la región anatómica. Esta visión es permitida gracias a que unos de los
extremos del tubo poseen una luz acompañada de una cámara de alta
resolución la cual permitiría la visión clara del panorama del paciente
examinado. Ahora bien ¿Cómo funciona una cirugía laparoscópica?; de la
misma forma como antes fue explicado, la cirugía laparoscópica amerita la
realización de una pequeña incisión en la zona abdominal, por el cual se
introduce el laparoscopio y permite encontrar el campo que deberá ser
intervenido, en caso de la sospecha preliminar por parte del médico tratante
de alguna patología, malformación o anomalía dentro del cuerpo.
Aplicabilidad: La cirugía laparoscópica como antes fue descrita, posee
diferentes usos dentro de la medicina, es así como comprendemos de la
misma forma su aplicabilidad. La laparoscopia es aplicable principalmente
para el diagnóstico de diferentes afecciones en los pacientes, iniciando con
tumores, sangrados sin conocimiento del porqué se está produciendo,
obstrucciones deslocalizadas e infecciones avanzadas o en su primera etapa
evolutiva.
De una manera más específica, la cirugía laparoscópica puede aplicarse
para diagnosticar y de la misma manera tratar problemáticas de salud en las
mujeres, iniciando con fibromas, quistes ováricos o prolapso pélvico. Anexo a
esto, la amplitud de la aplicabilidad de la cirugía laparoscópica es tanta, que
puede usarse en embarazos ectópicos, ligadura de trompas y incontinencia
urinaria.
Ejemplos: De una manera retrospectiva hemos nombrado diferentes
procedimientos dentro de los márgenes de lo ameritado sobre las cirugías
laparoscópicas, pero, ahora bien, para poder entender en un sentido completo
todo este proceso, nos parece objetivo el desarrollar un caso donde fuese
aplicado una cirugía laparoscópica, siendo este el caso de una endometriosis
severa.
Posterior a la manifestación física del gran dolor producido en la área
pélvica y abdominal, se dirige una paciente femenina de 20 años de edad,
donde se le realiza el examen físico y se refiere a la unidad de ecografía donde
se localiza por medio de un ultrasonido la presencia de quistes ováricos y
también endometricos.
Posterior a esto se aplica una cirugía laparoscópica donde se logra tener
a la vista la longitud y el tamaño aproximado de los quistes, para luego por
medio de las pinzas realizar todos los procedimientos pertinentes a este
tratamiento quirúrgico, respetando siempre el concepto laparoscópico.
CIRUGIA ROBOTICA
Aplicación: La cirugía robótica se basa en el primer principio de la
cirugía laparoscópica básica en donde se hace uso de instrumentos y técnicas
mínimamente invasivas. Hasta este punto las similitudes se presentan, ya que
la cirugía robótica, como su nombre lo indica, antecede el uso de un robot el
cual es manejado por un profesional de la salud calificado en la operación del
mismo, que por medio de dos mandos logra realizar movimientos altamente
reducidos y precisos, reduciendo de manera general riesgos y recuperación
del paciente. Este robot por un lado cuenta con un visor en el cual el cirujano
podrá tener una imagen detallada, en diferencia de la cirugía laparoscópica
donde la imagen es reproducida en una pantalla con menos definición, además
de esto, cuenta con puertos intercambiables donde toda la instrumentaría
usada será siendo usada, dependiendo del caso desarrollado, con asistencia
de un instrumentista medico; por otra parte, el robot cuenta con dos mandos
diseñados de la forma más ergonómica posible para la sensibilidad y el mejor
entendimiento de su uso. Este robot afortunadamente ya está siendo usado
en el interior del país, centros de atención y clínicas como el centro médico
docente la trinidad o en el Hospital clínica Caracas poseen este modelo
bautizado como “Da Vinci”.
Tendencia futura: La cirugía robótica en la actualidad se encuentra en
un estadio bastante esperanzador, resultando cada vez más exitosos todos
los procedimientos a los cuales se está incluyendo la robótica. La tendencia
de su crecimiento y de su evaluación se pronostica paralelo al crecimiento de
la tecnología a nivel mundial, en diferentes opiniones escuchadas se espera
que se pueda incluir imagenología tridimensional para la facilidad del cirujano
al realizar la exploración, permitiendo tener una comparativa para mayor
seguridad y menor riesgo, además de explorar más en el campo de la
toracoscopia para reducir el riesgo de muertes por ruptura de los pulmones.
CIRUGIA REFRACTIVA
De que se trata: La cirugía refractiva es una modalidad de las cirugías
oftalmológicas donde se busca por medio de todos los procedimientos
quirúrgicos, corregir el defecto de graduación y calibración ocular en el
paciente. Pacientes con astigmatismo, hipermetropía, miopía, estrabismo etc,
son calificados para un procedimiento de cirugía refractiva. En las técnicas
quirúrgicas disponibles tenemos: Técnicas que actúan directo sobre la
superficie corneal, técnicas PRK o LASIK y técnicas intraoculares. Todas estas
técnicas pueden usarse tanto separadas como en simultaneo, dependiendo
del caso.
Técnica quirúrgica LASIK: La correcta técnica quirúrgica LASIK o Laser
assisted in Situ Keratomileusis es un procedimiento en el cual consiste en su
primera fase, luego de todas las evaluaciones y exámenes pertinentes, el retiro
del colgajo o flap por medio de un láser el cual proporciona el retiro de 90 a
100 micras de espesor para poder entrar en la segunda fase, donde con
bastante precisión, un profesional del área acciona el láser de luz ultravioleta
el cual vaporiza la estructura anatómica pertinente, sin afectar otras,
disminuyendo el grosor de la estructura que impedía la visión y permitiendo
luego de la recuperación necesaria, una visión sin necesidad de lentes u otros
procedimientos. Esta técnica tiene una duración aproximada de 10 años si se
realiza correctamente.
LOS LITOTRIPTORES
Aplicabilidad: Este artefacto inventando entre los 1970s y finalmente
usado con éxito en los humanos en el año 1980, está ideado con el objetivo
final de cualquier procedimiento satisfactorio, ya que es no invasivo. Siendo
funcional a través de ultrasonidos y rayos X, el litotriptor es usado para la
eliminación de cálculos en las vías urinarias, para posteriormente ser
expulsado por la orina, y brindar la mejoría al paciente. En los efectos
posteriores de este procedimiento novedoso se encuentra el dolor muscular
por las fuerzas de las ondas usadas.
Ventajas y desventajas: El litotriptor es una invención relativamente
novedosa para la medicina, con las ansias de poder expandir sus usos en base
a las investigaciones realizadas, sin embargo, para la actualidad, existen
cuestionamientos o aspectos a tomar en cuenta antes de someterse a este
tratamiento.
Ventajas: Las ventajas principales de este tratamiento seria lo nulamente
invasivo que es para el cuerpo, sin necesidad de incisiones o extracciones
quirúrgicas. Por otra parte, es tratamiento tiene la ventaja de una corta
duración de tiempo, llevando de 30 minutos a máximo 1 hora. La recuperación
rápida, llevando de 1 a 2 horas en observación y luego el retiro del hospital es
otra gran ventaja de esta técnica empleada.
Desventajas: Ahora bien, este tratamiento posee sus desventajas que
deben tomarse en cuenta, reiterando la ya nombrada, el dolor muscular
postratamiento, además de esto, también posterior a este, debe seguirse una
dieta para una mayor efectividad. Otra desventaja que está siendo sometida a
investigación es la afección por la larga exposición a los rayos X en el
tratamiento y finalmente la calificación para proceder con el tratamiento.
OTROS DISPOSITIVOS CON TECNOLOGIA INFORMATICA EN
MEDICINA
Realidad virtual: La realidad virtual es la experiencia inmersiva por
medio de un dispositivo dispuesto en forma de lentes que posee una gran
tecnología informática para poder lograr este sentimiento. Esta tecnología en
los últimos años ha estado llegando a diferentes espacios en la sociedad,
siendo la ciencia de la salud una de ellas. La realidad virtual actualmente en la
medicina está siendo un método revolucionario el cual está permitiendo a
través de un programa disponer la anatomía de una manera bastante real sin
la necesidad de un cuerpo humano, sus últimos avances han logrado poder
desarrollar de una manera increíble la reproducción de sonidos idénticos a los
producidos por ese órgano estudiado. Esta tecnología tiene una proyección
visionaria, la cual permitirá practicar intervenciones quirúrgicas tanto menores
como mayores sin comprometer la vida de ningún paciente.
Oxímetro de pulso: A pesar de ser un invento relativamente simple, el
presente artefacto inventado en el año 1974, obteniendo su primer resultado
efectivo en la misma fecha, oxímetro de pulso, es una herramienta en el
ejercicio diario de la medicina que nos permite medir el signo vital del oxígeno
en sangre. El oxímetro de pulso está dispuesto por un sistema y programa
diseñado que se activa en el momento inmediato de su apertura, emitiendo en
simultaneo una luz y origen LED, roja y una luz de origen infrarrojo.
Posteriormente a su posicionamiento efectivo en uno de los dedos de la mano
o en el lóbulo de la oreja, estos dos tipos de emisiones de luces impactaran
contra la sangre menos oxigenada y más oxigenada, respectivamente, dando
un resultado al final por medio de la pantalla en su parte superior.
CONCLUSION