Introducción A La Química Medicinal: Libros de
Introducción A La Química Medicinal: Libros de
Introducción A La Química Medicinal: Libros de
FACULTAD DE
CIENCIAS EXACTAS
INTRODUCCIÓN A LA QUÍMICA MEDICINAL
Luciana Gavernet
(coordinadora)
Los autores de este libro queremos agradecer al Profesor Extraordinario Dr. Luis Bruno-
Blanch por su contribución a la formación en Química Medicinal de los alumnos de la carrera de
Farmacia de la Facultad de Ciencias Exactas (UNLP) durante ininterrumpidos 40 años dedicados
a la docencia universitaria. Los continuos esfuerzos del Dr. Bruno-Blanch constituyen un aporte
fundamental para el desarrollo de las Ciencias Químicas y Farmacéuticas tanto a nivel científico,
como a nivel de formación de docentes-investigadores. Su devoción a la formación de recursos
humanos se ha traducido, recientemente, en la creación del Laboratorio de Investigación y Desa-
Prólogo _______________________________________________________________ 7
Luis E. Bruno Blanch
Introducción ___________________________________________________________ 8
Carolina L. Bellera, Mauricio E. Di Ianni y Luciana Gavernet
Capítulo 1
Descubrimiento y desarrollo de fármacos ________________________________________ 11
Carolina L. Bellera y Mauricio E. Di Ianni
Capítulo 2
Origen de los fármacos ______________________________________________________ 22
Mauricio E. Di Ianni y Carolina L. Bellera
Capítulo 3
Síntesis de fármacos________________________________________________________ 34
Laureano L. Sabatier, María L. Villalba y Luciana Gavernet
Capítulo 4
Descriptores moleculares ____________________________________________________ 57
Melisa E. Gantner
Capítulo 5
Métodos indirectos. Búsqueda racional de fármacos _______________________________ 72
Lucas N. Alberca y Alan Talevi
Capítulo 6
Métodos directos. Búsqueda y diseño racional de fármacos _________________________ 91
Melisa E. Gantner, Pablo H. Palestro y Luciana Gavernet
Capítulo 7
Profármacos _____________________________________________________________ 112
María L. Villalba y Melisa E. Gantner
Capítulo 8
Evaluaciones preclínicas en el descubrimiento de fármacos ________________________ 123
Andrea V. Enrique
Los autores______________________________________________________________136
Prólogo
La Química Medicinal o Química Farmacéutica tiene como objetivo el estudio de los fár-
macos desde el punto de vista químico, así como de los principios básicos de su diseño. Rigu-
rosamente, la IUPAC interpreta que la Química Medicinal comprende el descubrimiento, el
desarrollo, la identificación e interpretación del modo de acción de los compuestos biológica-
mente activos a nivel molecular. Se pone especial énfasis en las drogas, pero los intereses de
los químicos medicinales no solo se restringen a estas estructuras, sino que incluye compues-
tos bioactivos en general. Además, considera el estudio, la identificación y la síntesis de pro-
ductos metabólicos de las drogas y compuestos relacionados. Esta disciplina posee profundas
raíces en la química, con alcance hacia la biología, medicina y ciencias farmacéuticas. Por lo
tanto, las áreas a abordar tienen características netamente interdisciplinarias, como la química
orgánica, la fitoquímica, la farmacología, la toxicología, la biología molecular, la bioquímica, la
química física, la informática y las matemáticas. Asimismo, incluye el estudio de drogas exis-
tentes, sus propiedades farmacológicas, la interpretación de sus mecanismos de acción, efec-
tos tóxicos y las relaciones existentes entre la estructura química y la actividad biológica. Por
lo tanto, la enseñanza de la Química Medicinal como asignatura de grado de la carrera de
Farmacia resulta fundamental para el desarrollo del farmacéutico, a fin de proporcionarle las
herramientas necesarias para su capacitación y actualización en las metodologías asociadas
al descubrimiento de un nuevo compuesto bioactivo.
Como consecuencia del elevado grado de interacción entre disciplinas que posee la Quí-
mica Medicinal, es necesario definir un vocabulario específico para facilitar el estudio y la com-
prensión del contenido del libro. Para ello, el estudiante debe tener presente la terminología
detallada a continuación.
Droga “Me Too”: Fármacos estructuralmente muy similares a otros ya conocidos, única-
mente diferenciados por variaciones menores en el perfil farmacológico.
Compuesto Líder (Lead compound): Compuesto químico que manifiesta una acti-
vidad determinada NO superada por otros compuestos y cuyos cambios estructurales realizados
hasta el momento no han mejorado su actividad ni disminuido su toxicidad.
Modelado Molecular: Término que engloba a todo método teórico y/o computacional
usado para describir o imitar el comportamiento de moléculas.
Actividad biológica: Todo efecto benéfico, terapéutico, adverso o tóxico de una deter-
minada droga sobre la materia viva.
Luego de esta breve introducción, los invitamos a transitar las siguientes páginas del libro,
donde se describirán las estrategias generales vinculadas al origen y descubrimiento de fárma-
cos (Capítulos 1 y 2) y se detallarán metodologías para la síntesis química de dichos compuestos
(Capítulo 3). Luego se explicarán las herramientas computacionales útiles para la búsqueda o el
diseño racional de compuestos activos (Capítulos 4 a 6) y se enumerarán algunas estrategias de
optimización de estructuras para mejorar la llegada de los fármacos al sitio de acción (Capítulo
7). Finalmente, se analizarán diferentes metodologías de evaluaciones biológicas a nivel preclí-
nico utilizadas para el descubrimiento de fármacos (Capitulo 8).
Es nuestro deseo como docentes de la Cátedra de Química Medicinal que el contenido del
libro de cátedra resulte no solo interesante para la formación general de futuros farmacéuticos
sino también para clarificar dudas que puedan surgir en el período de aprendizaje de los estu-
diantes de la carrera de farmacia de la UNLP.
oscila entre los 12 y 15 años. Adicionalmente, existe un riesgo muy grande de fracaso. Por
ejemplo, las bibliotecas de compuestos de screening iniciales (entre 104-106 compuestos), con-
ducen a una única estructura que tiene alrededor de solo 8% de probabilidad de superar exi-
tosamente las pruebas clínicas.
Figura 1.1: Esquema general del proceso de descubrimiento y desarrollo de un fármaco. Adaptado de Trac Services
Regulatory Blog. The Drug Development Process (www.tracservices.co.uk).
bado destinado a seleccionar aquellos compuestos que se unen selectivamente al blanco mole-
cular de interés; en el caso del cribado virtual, se podrá utilizar un modelo de la estructura 3D de
la proteína blanco o ligandos de referencia asociados a un mecanismo de acción específico para
explorar las bases de datos. Ambas estrategias presentan ventajas y desventajas. Las fortalezas
del enfoque “primero el blanco terapéutico” incluyen la capacidad de aplicar el conocimiento quí-
mico y molecular para investigar las hipótesis moleculares específicas, y la mayor viabilidad de
aplicar el cribado a grandes bases de datos de moléculas pequeñas. Adicionalmente, los avan-
ces en la quimioinformática y bioinformática contribuyen enormemente al diseño, selección u
optimización de los candidatos a fármacos para su interacción con un blanco terapéutico. Una
desventaja de esta aproximación es que no se conoce a priori la capacidad de los fármacos así
identificados para modificar la progresión de una enfermedad o controlar su sintomatología, pu-
diendo observarse frecuentemente una ausencia de correlación entre la actividad in vitro de los
fármacos candidatos y su actividad in vivo.
En el “cribado fenotípico”, en cambio, la actividad del candidato puede extrapolarse con mayor
eficacia al impacto terapéutico en un estado determinado de enfermedad. La debilidad del enfoque
es la falta de una relación clara entre el mecanismo de acción y el efecto biológico, siendo común que
aquél se desconozca total o parcialmente. Un desafío explorado recientemente es el de incorporar
de manera efectiva nuevas tecnologías de cribado enfocados en el fenotipo.
costo de capital). Las diferencias en las bases de datos examinadas para realizar estas estima-
ciones, las metodologías y la diversidad de categorías terapéuticas analizadas conducen a la
amplia variación en el costo estimado. Las cifras más elevadas corresponden al análisis de in-
formación confidencial que proveen los laboratorios farmacéuticos, quienes presentan intereses
respecto a la publicación de altas cifras para justificar el valor de sus productos en el mercado y
para argumentar a favor de la extensión de las patentes de productos farmacéuticos.
A pesar de las diferencias en la estimación de los costos, estos números reflejan la importante
inversión que insumen los estudios necesarios para que los candidatos se puedan transformar
en medicamentos seguros y eficaces disponibles para su uso clínico.
El proceso de desarrollo está caracterizado por una alta tasa de fracaso. Las estimaciones de
la tasa de éxito de los medicamentos que entran en las fases clínicas varían desde 11,7% a
24,0%; es decir, sólo uno o dos de cada diez proyectos que ingresan a estudios clínicos logran
acceder al mercado farmacéutico bajo la forma de un medicamento innovador.
Alrededor de un 27% de los fracasos de los candidatos a fármacos en las fases preclínica y
clínica se deben a falta de eficacia, y más de un 30% a problemas relacionados con la seguri-
dad/toxicidad. En la Figura 1.3 se presenta la distribución de frecuencias de las causas de fraca-
sos de aquellos candidatos que llegan a la etapa de evaluación clínica.
Desconocido/otro
Costos
Toxicidad
Problemas comerciales
Farmacocinética/Biodisponibilidad
Formulación
Eficacia
Seguridad Clínica
0 5 10 15 20 25 30
Figura 1.3: Distribución de frecuencias de causas de fracaso de los candidatos a fármacos en fase clínica.
Un análisis del año 2014 realizado por el laboratorio farmacéutico AstraZeneca, ha demos-
trado que en el periodo 2001-2010, de entre 198 candidatos a fármacos de dicho laboratorio, 48
(24%) fallaron por razones de seguridad entre el inicio de los estudios de toxicidad y la entrada
a la fase I. De los 48 fracasos el 50% estaba relacionado a problemas de toxicidad en órganos
(detectados por histopatología) o por muertes inexplicables durante las 2 semanas posteriores
al inicio de la exposición.
En la Tabla 1.1 se detallan los problemas de toxicidad detectados para los 48 candidatos
que no lograron avanzar en las fases clínicas. Los datos anteriores revelan que, si bien la falta
de eficacia es una causa importante de atrición, se encuentra prácticamente a la par de la falta
de seguridad de los candidatos estudiados.
Es por ello que uno de los objetivos relevantes para los laboratorios farmacéuticos, y para todos
los profesionales químicos o farmacéuticos que trabajan en las etapas tempranas del descubrimiento
de fármacos es mejorar la capacidad para predecir la probabilidad de fracaso asociada a la toxicidad
antes de ingresar a las fases clínicas, dado que tomar la decisión de avanzar hacia la fase clínica
representa una significativa inversión financiera y de recursos de investigación y desarrollo (I + D).
Número de Candidatos
Predicción Toxicidad
a Fármacos
2 Hígado
1 Gastrointestinal
1 Sistema Nervioso Central
1 Riñón
4 Patologías cardiovasculares
2 Pulmón
2 Muerte por causa inespecífica
Detectado
3 Músculo
1 Páncreas
1 Tiroides
1 Lenticular
1 Toxicidad múltiple en órganos específicos
4 Función cardiovascular
24 (50%)a
1
Patología Cardiovascular
1
No detectado luego Sistema Nervioso Central
1
de 2 semanas Pulmonar
1
Reprotoxicidad
4 (8%)
3
Riñón
1
Hígado
2
Pulmón
1
Incierto Músculo
1
Testículo
1
Glándula Suprarrenal
2
Toxicidad en múltiples órganos
11 (23%)
Total 48 (100%)
Nota: a Este 50% comprende a los 20 compuestos (40%) retirados por causas atribuibles a toxicidades en órganos más
los 4 (10%) compuestos debido a los riesgos cardiovasculares agudos. Adaptado de Roberts et al, 2014.
un fármaco (aprobado para una indicación) para una segunda indicación en la que esté involu-
crado el mismo blanco molecular o una isoforma del mismo blanco molecular.
Figura 1.4: A) Proceso tradicional involucrado en el desarrollo de fármacos. Hit to Lead refiere al proceso de llegar a un
compuesto líder partiendo de un conjunto de hits. B) La fase del proceso donde el screening de alta performance (HTS),
el cribado virtual y la bioinformática están involucrados. C) Fases, donde aparecen las técnicas de optimización y co-
mienza la etapa hit to lead. D) El fármaco reposicionado puede evitar la fase I en el proceso de descubrimiento del
medicamento, solo si para el nuevo uso terapéutico es administrado en la misma forma farmacéutica y a dosis iguales o
menores a las utilizadas en su uso original. (Adaptado de Bellera CL et al. Curr Top Med Chem 2018 ,18(5):369-381.
En cuanto al fármaco reposicionado, este ha sido previamente aprobado para su uso clínico
y comercializado, y los posibles problemas de estabilidad y de manufactura ya han sido resueltos
(por ejemplo, ya se han superado los estudios de pre-formulación). Finalmente, aquellos com-
puestos cuya patente se ha vencido pueden brindar soluciones relativamente poco costosas para
nuevos problemas.
Los reposicionamientos exitosos probablemente han contribuido al interés de expansión de
las indicaciones terapéuticas de fármacos ya conocidos. Por ejemplo, el Sildenafil originalmente
fue investigado para el tratamiento de la hipertensión e isquemias cardíacas, pero se transformó
en un éxito de ventas por su uso en el tratamiento de la disfunción eréctil. Por su parte la aspirina
ha expandido sus indicaciones terapéuticas y hoy es ampliamente utilizada en la prevención de
accidentes cerebro y cardiovasculares en pacientes con una condición cardiovascular preexis-
tente. En la tabla 1.2 se observan diferentes ejemplos de reposicionamiento de fármacos.
Figura 1.5: Metodologías aplicadas en Reposicionamiento de Fármacos Asistida por Computadora (Adaptado de Be-
llera CL et al Mini Rev Med Chem 2015).
Nota: en capítulos siguientes de este libro describiremos algunas metodologías que se emplean en el di-
seño, búsqueda y reposicionamiento asistido por computadora que estudiaremos en química medicinal. La
integración de estas metodologías y otras más novedosas son de injerencia de la asignatura Nuevas estra-
tegias aplicadas al descubrimiento de fármacos, asignatura electiva para estudiantes de la carrera de Far-
macia de la UNLP.
Referencias
Bellera, C.L. et al (2015). High-throughput drug repositioning for the discovery of new treat-
ments for Chagas disease. Mini Review in Medicinal Chemistry, 15(3), 182-193.
Bellera, C.L. et al. (2018). Modern Approaches for the Discovery of Anti-Infectious Drugs for the
Treatment of Neglected Diseases. Current Topics and Medicinal Chemistry, 18(5), 369-381.
Cook, D. et al. (2014). Lessons learned from the fate of AstraZeneca’s drug pipeline: A five-di-
mensional framework. Nature Reviews Drug Discovery, 13(6), 419–431.
Mohs, R.C. & Greig, N.H. (2017). Drug discovery and development: Role of basic biological re-
search. Alzheimer’s and Dementia: Translational Research and Clinical Interventions, 60,
3(4), 651–657.
Roberts R.A., et al. (2014). Reducing attrition in drug development: smart loading preclinical
safety assessment. Drug Discov Today, 19, 341-347.
Cada una de estas etapas, involucra distintas metodologías las cuales se presentarán en deta-
lle a continuación.
1
No debe confundirse con el concepto de farmacóforo desarrollado más adelante en este libro.
Los hechos fortuitos o accidentales están presentes en todo el campo científico y la investi-
gación farmacéutica no es la excepción. En relación a este hecho, el científico francés Louis
Pasteur (1822-1895) enunció la famosa frase “Dans les champs de l'observation le hasard ne
favorise que les esprits préparés" (En el campo de la investigación el azar no favorece más que
a los espíritus preparados). A continuación, una serie de ejemplos ilustran la afirmación de Pas-
teur (Figura 2.1):
Durante la segunda guerra mundial, un barco estadounidense que trasportaba gas mostaza
(mostaza sulfurada, una poderosa arma química) exploto en un puerto italiano. Se observó que
muchos de los sobrevivientes que inhalaron el gas perdieron sus defensas naturales a cualquier
tipo de microorganismo. Estudios posteriores mostraron que los afectados habían sufrido una
destrucción masiva de sus glóbulos blancos. Es difícil visualizar como una droga que destruye
células podría ser útil para la salud, sin embargo, este gas fue de gran importancia para el des-
cubrimiento de agentes alquilantes (como las mostazas nitrogenadas) útiles en el tratamiento de
diversos cánceres entre ellos la leucemia.
Los trabajadores de una fábrica de caucho manifestaban un rechazo inexplicable a cual-
quier tipo de bebidas alcohólicas. Esto se debía a la exposición prolongada de los obreros a
un antioxidante utilizado en el proceso de elaboración del caucho, el cual evitaba la oxidación
hepática normal del etanol conduciendo a la acumulación de acetaldheido en el organismo.
Esto producía un estado desagradable al beber pequeñas cantidades de alcohol similar a
una intoxicación aguda con alcohol, de manera que las personas evitaban beber. El antioxi-
dante en cuestión, el disulfiram, se convirtió rápidamente en un medicamento utilizado para
tratar el alcoholismo crónico.
Sildenafil: el caso ya es parte de la cultura popular. La droga fue inicialmente diseñada
para tratar la hipertensión arterial y angina de pecho por su efecto vasodilatador. Durante los
ensayos clínicos se observó una muy baja eficacia para estas patologías, y la aparición de
Las civilizaciones antiguas dependían casi exclusivamente de su flora y fauna para poder
sobrevivir. Como resultado de esto se fueron revelando los efectos de muchos frutos, hojas,
raíces, flores, etc., con lo que surgieron muchos preparados con distintos usos terapéuticos a
partir de distintos vegetales. Al mismo tiempo, el pase de generación en generación de este
conocimiento fue incentivando la experimentación más profunda de muchas especies. Se citan
a continuación, algunos ejemplos.
Dantrona: fármaco laxante diseñado a partir de las propiedades purgantes de las raíces de
ruibarbo, efecto conocido hace varios siglos. Este fármaco está actualmente prohibido por la FDA
por su alto potencial carcinogénico.
Artemisinina: fármaco antimalárico descubierto gracias a la investigación de la planta Arte-
misia annua, utilizada por los médicos chinos por más de dos mil años para el tratamiento de
diversas dolencias, entre ellas la malaria.
Morfina: El uso del opio extraído de las capsulas de papaver somniferum se conoce hace
más de 7000 años. Además de guerras, narcotráfico y adicción, el opio ha dado origen a una
gran cantidad de medicamentos destinados principalmente a suprimir el dolor. A pesar de los
numerosos efectos adversos que posee, ningún opioide moderno obtenido por síntesis total o
semisintesis ha logrado superar el poderoso efecto analgésico del componente natural y mayo-
ritario del opio: la morfina.
Figura 2.2: Ejemplos de productos naturales de utilidad terapéutica o en agroquímica, con diversos grados de compleji-
dad estructural.
Morfina Analgésico
Penicilinas
Microorganismos Cefalosporinas
Antibióticos
(Hongos y Bacterias) Tetraciclinas
Aminoglucósidos
Tetrodotoxina
Animal Veneno/ Toxina
Batracotoxina
HTS es una metodología capaz de ejecutar una gran cantidad de ensayos de manera si-
multánea valiéndose de la robótica y tecnologías de avanzada. Para el caso de descubrimiento
de fármacos, el HTS permite evaluar una gran cantidad de nuevos prototipos activos prove-
nientes por ejemplo de síntesis orgánica, frente a una gran cantidad de ensayos biológicos
distintos a fin de determinar qué actividad biológica poseen. Esto lo convierte en una metodo-
logía no racional de prueba y error que conlleva un costo económico considerable. La gran
ventaja que posee es la velocidad y automatización del proceso. Se plica especialmente en
aquellos casos en los que no se conocen los mecanismos farmacológicos responsables de la
actividad de determinada droga.
Nuevos prototipos activos pueden encontrarse llevando a cabo análisis exhaustivos tanto de
repositorios digitales de bibliografía científica o de bases de datos de estructuras químicas. Como
se verá más adelante, estos estudios pueden conducirse en base al conocimiento del receptor
molecular de interés (método directo) o en base al conocimiento de las características estructu-
rales de las moléculas, responsables de determinada actividad biológica (métodos indirectos).
En los Capítulos 5 y 6 nos dedicaremos exclusivamente a esta metodología.
Los efectos adversos de muchas sustancias puedes ser explotados como indicación terapéu-
tica. Por ejemplo, dado que muchas sulfonamidas presentan efecto diurético a dosis altas, esta
familia de compuestos que fue inicialmente desarrollada como antibacterianos, se comercializa
también como fármacos diuréticos. Muchas veces, pequeños cambios en la estructura química,
conlleva cambios significativos en la actividad farmacológica. De esta manera, una sulfonamida
antibacteriana puede convertirse fácilmente en un diurético, un hipoglucemiante o un anticonvul-
sivo (Figura 2.4).
La variación química de sustituyentes (-R´s) fácilmente accesibles es uno de los métodos más
comunes para ajustar la actividad de las moléculas.
Sustituyentes Alquílicos. Los más fáciles de alterar son los –R´s alquilo unidos a grupos
amino, esteres y amidas. La técnica más extendida es la reacción de la molécula con un grupo
dador del –R que mediante un ataque electrofílico o nucleofilico intercambia el –R original por el
–R que se desea incorporar. La selectividad por un determinado sitio de acción puede conse-
guirse incorporando grupos alquílicos ramificados como los grupos isopropilo, isobutilo, etc. Un
ejemplo conocido es del análogo de la Adrenalina, Isoprenalina, en el cual se consigue una se-
lectividad por el receptor β-adrenérgico por sobre el α-adrenérgico, mediante el intercambio de
un metilo por un isopropilo (Figura 2.5).
Sustituyentes Aromáticos. Si una droga posee un anillo aromático, la posición de los susti-
tuyentes que este posea puede variarse y el resultado puede ser un aumento de la actividad
biológica. De la misma manera, el cambio de posición de un sustituyente impacta directamente
sobre las características electrónicas y estéricas de sus vecinos. Por ejemplo, el efecto atractor
de electrones de un grupo nitro afectará en mayor medida a la basicidad de un sustituyente
amino, si este se encuentra en la posición –para por sobre la posición –meta.
Esta estrategia implica la adición de grupos funcionales que aporten una vía de interacción
extra o accesoria con el blanco a la molécula original. Esto es muy útil cuando, por ejemplo, el
blanco molecular posee regiones en su sitio activo con distintas características estructurales,
siendo una región hidrofílica, otra hidrofóbica, etc. De esta manera, pueden adicionarse sustitu-
yentes con grupos polares para obtener un mayor número de puentes de hidrógenos o interac-
ciones iónicas con el blanco molecular. Adicionalmente, con esta metodología es posible trans-
formar un agonista en un antagonista en el caso de que la interacción conduzca a un estado
inactivo del receptor o blanco molecular.
Algunas drogas presentan dos importantes grupos de unión al blanco molecular separados
por una cadena hidrocarbonada. En tal caso, es posible que la longitud de dicha cadena no sea
la ideal para la mejor interacción. Por lo tanto, una táctica muy útil para modificar la actividad es
acortando o alargando dicha separación. Si la cadena que separa los grupos activos está for-
mada solo por sistemas de enlaces conjugados hablamos de vinólogos; en el caso de sistemas
que involucran grupos metileno, se trata de series de homólogos.
Esta estrategia es el caso emblemático de la controversia en torno a las drogas “me too”. Con
el objetivo de evitar restricciones de propiedad intelectual, muchas compañías farmacéuticas re-
emplazan el anillo central (aromático o hetero-aromático) de un determinado fármaco, por otro
similar (anillos fusionados, distinto heteroátomo o mayor número de carbonos en el anillo) consi-
guiendo estructuras activas similares, pero sin aportar mejoras significativas en el perfil farmaco-
lógico (misma potencia, mismos efectos adversos). Pese a ello, esta estrategia ha logrado dar
con algunas estructuras que presentan ventajas significativas con respecto a las originales (dro-
gas “me better”).
2.5. Isósteros
Desde el punto de vista clásico, los Isósteros son átomos o grupos de átomos que presentan
la misma valencia y por ende poseen similaridades fisicoquímicas (Figura 2.6). Por ejemplo, -SH,
-NH2 y -CH3 son isósteros de –OH. Mientras que –S, -NH y CH2, son isósteros de –O. En un
sentido más amplio. la generación de isósteros de una determinada molécula es una manera
racional de modificación estructural, mediante la cual se pueden conocer los efectos del tamaño,
polaridad, distribución electrónica y naturaleza de enlace sobre la actividad biológica. Por ejem-
plo, el Fluor puede considerarse un isóstero del Hidrógeno ya que poseen virtualmente el mismo
tamaño. Sin embargo, este átomo es mucho más electronegativo que el hidrógeno, de manera
que podemos conocer el efecto de la variación de las propiedades electrónicas en la actividad,
sin una intervención significativa de los efectos estéricos.
2.6. Bioisósteros
Los bioisosteros son grupos que pueden utilizarse para reemplazar a otros, reteniendo la ac-
tividad biológica deseada. Son habitualmente utilizados para intercambiar grupos que son rele-
vantes para la actividad biológica pero que por alguna razón generan problemas. Por ejemplo,
los primeros antihistamínicos presentaban el grupo tiourea como el principal contribuyente al
efecto farmacológico de esta familia de compuestos, pero que al mismo tiempo era el responsa-
ble de sus marcados efectos adversos. El remplazo de este grupo permitió conservar el efecto
antihistamínico y eliminar los problemas de toxicidad (Figura 2.7).
Las moléculas flexibles, con varios enlaces capaces de rotar, pueden adquirir un gran número
poses o formas en el espacio, las cuales se conocen como confórmeros o conformaciónes.
Sin embargo, solo una de estas posiciones es la que satisface más eficientemente los requeri-
mientos estructurales del blanco molecular para desencadenar la respuesta farmacológica. Esta
pose se conoce como conformación activa. El acceso a un gran número de conformaciones en
un compuesto flexible puede ser una desventaja, dado que es posible que este pueda adaptarse
a otros sitios activos, dando origen a efectos indeseados. En el hipotético caso de que se conoz-
can los requerimientos estructurales para la interacción con el blanco molecular, la estrategia de
rigidización molecular permitirá obtener una molécula capaz de activar dicho blanco de interés
sin la aparición de efectos adversos.
Referencias
La mayoría de los fármacos son moléculas relativamente pequeñas que han sido pensadas y
preparadas por químicos medicinales con experiencia en síntesis orgánica. Antes de comenzar
una síntesis esta debe planificarse, es decir, plantear las rutas sintéticas que permitan la obten-
ción de la molécula objetivo.
Denominaremos síntesis total a la síntesis química de un compuesto, a partir de precur-
sores relativamente sencillos y disponibles comercialmente. Las materias primas en este tipo
de síntesis habitualmente son compuestos derivados del petróleo de estructura simple. Por
ejemplo, el Citalopram es un inhibidor selectivo de la recaptación de serotonina empleado
para el tratamiento de la depresión, ataques de pánico, fobia social, etc. El enantiómero S
del racemato Citalopram se denomina Escitalopram, y actualmente ambos fármacos están
disponibles comercialmente. En el esquema 3.1 se representa la síntesis total del Escitalo-
pram, en donde se puede apreciar que el material de partida es la ftalimida, un compuesto
orgánico sencillo y asequible.
En una síntesis parcial o semisíntesis, se parte de un producto natural que no ha sido previa-
mente sintetizado, sino extraído y purificado de organismos por métodos de separación de mez-
clas. Esteroides y antibióticos β-lactamicos son casos de compuestos activos que se obtienen
por semisíntesis. Otro ejemplo es la Heroína, un opioide con propiedades analgésicas y habitual-
mente empleando como droga recreativa. Tal como se puede apreciar en el esquema 3.2, su
síntesis consiste simplemente de la acetilación de la morfina (un producto natural extraído de
Papaver somniferum).
Para moléculas más complejas, una síntesis convergente es con frecuencia preferible. En
este caso se sintetizan dos o más fragmentos separadamente que luego al unirse generan el
compuesto deseado. Las síntesis convergentes presentan las ventajas de ser más cortas, fáciles
de llevar a cabo y generan rendimientos globales más elevados. Un ejemplo es la síntesis de
Haloperidol (un antipsicótico convencional) que se representa en el esquema 3.4.
Debe mencionarse también que, además del rendimiento, resulta importante medir la pureza
de los compuestos sintetizados. Definiremos como sustancia pura a aquella que, sometida a
distintos procesos de purificación, mantiene sus propiedades fisicoquímicas invariantes. Ade-
más, en el caso de un fármaco es particularmente relevante el estudio de la identidad de las
impurezas: no es lo mismo decir que un compuesto tiene un 5 % de agua como impureza que
un 5% de cianuro, sales, solventes residuales, etc.
3. Planificación de Síntesis
En relación con la planificación de una síntesis química, estas metodologías han cambiado
en el tiempo y se han optimizado con el desarrollo de la química. Una estrategia es la asociación
directa, utilizada a en siglo XIX y a principios del siglo XX para la preparación de moléculas
objetivo. Consiste en reconocer dentro de la estructura un número de subestructuras o unidades
accesibles, las cuales se unen usando reacciones conocidas y preferentemente en un solo paso.
Un ejemplo es la síntesis de colorantes azoicos del Esquema 3.5.
Otra estrategia más general y muy utilizada se denomina análisis retrosintético, diseñada por
Corey en la década del 60. Esta metodología permite postular en forma teórica diferentes rutas
sintéticas para la molécula objetivo, mediante la desconexión de sus enlaces. La condición para
que esta desconexión sea útil es que exista una reacción química capaz de reconectar los frag-
mentos generados. Además, deben priorizarse fragmentos relativamente estables y lograr la ma-
yor simplificación posible de las reacciones.
Se definen como sintones a aquellos fragmentos estructurales (usualmente de carácter teó-
rico) que son producto de una desconexión. Por otra parte, aquel compuesto orgánico (o reac-
tivo) de existencia real que se utiliza en la práctica como fuente de generación del sintón se
denomina equivalente sintético. Dentro de las reacciones de síntesis más comunes están las del
tipo polar, las cuales pueden ser analizadas mediante una ruptura heterolítica teórica que genera
un sintón que posee un átomo polarizado negativamente (un donador de electrones) y otro que
posee un átomo polarizado positivamente (un aceptor de electrones). Por ejemplo, en la síntesis
de un éster (Esquema 3.6) se puede desconectar el enlace C-O para generar un sintón catiónico
y un aniónico. Nótese que las retrosíntesis se representan con una flecha de doble trazo pues
son reacciones antitéticas, de modo de diferenciarlas de las reacciones opuestas, las sintéticas,
que utilizan flechas de un solo trazo.
regenere, ya sea desde la anilina o desde el ácido benzoico. Debe recurrirse entonces a una
estrategia llamada interconversión del grupo funcional mediante la introducción de funciones la-
tentes, esto es, grupos que están presentes en los equivalentes sintéticos pero que no son parte
de la molécula objetivo.
La función amina se puede generar a partir del grupo nitro mediante reacciones de reducción
conocidas, por lo que este último grupo puede considerarse como función latente. Similarmente,
el grupo carboxilo puede generarse a partir de la oxidación de un grupo metilo unido a un anillo
aromático mediante la reacción de oxidación de cadena lateral (Esquema 3.9). Estas funciones
latentes tienen la ventaja de poder introducirse al anillo de benceno fácilmente mediante reac-
ciones de sustitución electrofílica aromática (nitración en medio acido o alquilación de Friedel-
Crafts, respectivamente).
La siguiente etapa sería la desconexión del p-nitrotolueno a tolueno. Este este último es un
reactivo accesible y posee un grupo metilo dador de electrones (y orientador en las posiciones orto
y para preferentemente), por lo que resulta más conveniente que la desconexión a nitrobenceno.
Por lo tanto, la propuesta de síntesis de Benzocaína se muestra en el Esquema 3.10.
Figura 3.2; Representación de síntesis de mezclas y en paralelo. En el primer caso en cada recipiente se mezcla un
reactivo Bi y varios Ai mientras que en el segundo se combina un reactivo Bi con solo uno del tipo Ai.
En la síntesis de fase sólida uno de los reactivos se une a un soporte sólido polimérico e
insoluble en el solvente de reacción (denominado resina). Luego este compuesto “anclado” se
hace reaccionar con el resto de los reactivos, quedando el producto final unido a la resina.
Posteriormente un simple proceso de filtración elimina todo lo que se encuentra en solución
(Figura 3.3). Esto permite por ejemplo trabajar con reactivos en exceso dado que aquellos
materiales que no reaccionan serán parte del filtrado en el proceso de aislamiento. La etapa
final es la separación (o desacople) del producto deseado de la resina mediante el uso de algún
reactivo adecuado. Este producto puede ser sometido posteriormente a procesos de purifica-
ción tradicional de ser necesario.
Figura 3.3: Esquema de síntesis en fase sólida. La resina se representa como una esfera naranja.
En relación con el soporte insoluble, estos tienen la función de facilitar el aislamiento de los
productos mediante separación por filtración. Sin embargo, los solventes penetran dentro de la
resina en distintas proporciones expandiendo su volumen (fenómeno conocido como hinchado
de la resina). Las resinas más usadas son granos de poliestireno entrecruzado con divinilben-
ceno, las cuales presentan características hidrofóbicas. En los anillos aromáticos de poliestireno
se ubican, en ciertos intervalos, los grupos ligantes. Estos grupos deben formar enlaces estables
con los reactivos utilizados para anclar los bloques constructores, pero deben ser capaces de
escindirse cuando la reacción se completa para liberar el producto final. Dado que los grupos
ligantes se encuentran distribuidos en toda la cadena polimérica del soporte, resulta importante
también la selección de un solvente que pueda hinchar lo suficiente la resina para permitir la
llegada de los grupos ligantes ubicados en el interior del polímero. Las resinas de poliestireno/di-
vinilbenceno se hinchan apropiadamente con solventes apolares, pero su hinchamiento es pobre
en solventes polares próticos.
Figura 3.4: Representación de la síntesis en fase sólida de péptidos. Los grupos protectores se representan con formas
de color verde.
En la Figura 3.5 se muestran las estructuras de algunos grupos ligantes utilizados frecuente-
mente en la síntesis de fase sólida. La resina de Merrifield es simplemente una derivatización de
la cadena polimérica con el grupo clorometilo. Alternativas a esta fase sólida son la resina de
Wang y la de Sasrin, las cuales poseen al menos un grupo alcoxi (dador de electrones) en el
anillo aromático, lo que las hace más lábiles a ácidos que la resina de Merrifield. Por el contrario,
la resina PAM es más resistente a ácidos ya que posee un ligante con un grupo atractor de
electrones. Otros ligantes como las resinas de Rink amida, permiten la preparación de amidas
primarias y las resinas dihidropirano presentan alternativas de anclaje, ya que en vez de grupos
ácidos pueden incorporarse en este caso grupos alcoholes por adición al doble enlace. Final-
mente pueden mencionarse las resinas fotolábiles, las cuales permiten el desacople del producto
final por irradiación con luz ultravioleta.
Figura 3.5. Estructura de grupos ligantes unidos a resinas utilizadas en síntesis en fase sólida. A: resina de Merrifield; B:
resina de Wang; C: resina de Sasrin; D: resina PAM, E: resina de Rink; F: resina de dihidropirano; G: resina fotolábil.
La síntesis en fase sólida representa una metodología con ciertas ventajas respecto de la síntesis
tradicional en solución. Principalmente la presencia de un soporte sólido permite el trabajo con reac-
tivos en exceso sin generar problemas en la etapa de aislamiento, dado que estos compuestos, junto
con otros subproductos solubles, son fácilmente removidos. En este mismo sentido resulta muy útil
para realizar reacciones en más de una etapa, ya que los productos de las reacciones intermedias
no necesitan purificarse. En cuanto a las condiciones de reacción, se admiten solventes de alto punto
de ebullición, que luego no deben evaporarse en el aislamiento como en la síntesis tradicional. Ade-
más, puede trabajarse con una mayor seguridad con sustancias tóxicas ya que al estar unidas al
soporte sólido son fácilmente manipulables.
Por otra parte, las resinas pueden ser regeneradas y reutilizarse; y en general las reacciones son
más amigables con el medio ambiente ya que prescinden de solventes y otros materiales que usual-
mente se utilizan en las etapas de aislamiento en la síntesis tradicional. Adicionalmente mediante
este tipo de soportes se facilitan reacciones químicas que resultan dificultosas en la síntesis tradicio-
nal. Por ejemplo, se favorecen las reacciones intramoleculares (como las ciclaciones) debido a las
condiciones de pseudodilución cercanas a los sitios de reactivos de la resina (Esquema 3.11).
Esquema 3.11. Síntesis de hidantoínas en fase sólida. Las esferas rojas representan el soporte sólido.
Figura 3.6: Estrategia de mezclar y separar para el desarrollo de síntesis combinatoria en mezclas.
En el caso del ejemplo, supongamos que la segunda mezcla es la más activa (Figura 3.7).
Dado que se conoce el último reactivo agregado, se sabe la identidad del último aminoácido del
péptido más activo, en nuestro caso Ala. Entonces se hace la primera resíntesis: se toman las
Figura 3.7: Proceso de deconvolución en la técnica de mezclar y separar. Las mezclas más activas se marcan en color rosa.
la identificación del compuesto activo aún en pequeñas cantidades. Para ello pueden incluirse
etiquetas en el mismo grano de la resina donde se realiza la síntesis de la molécula objetivo. En
estos casos el proceso involucra la construcción simultánea de dos compuestos, por lo que la
resina debe contener un grupo ligante con más de un sitio reactivo. Uno de ellos es la estructura
objetivo y el otro es una etiqueta (usualmente un péptido u oligonucleótido) que permitirá deducir
la composición de la molécula objetivo. En el esquema 3.12 se muestra un ejemplo que ilustra la
síntesis de un compuesto que tiene 3 bloques constructores, por lo que al final de la reacción la
etiqueta será un tripéptido cuya identidad definirá a los sustituyentes R, R’ y R’’ de la molécula
objetivo. Luego de la síntesis la estructura no peptídica se puede separar selectivamente de la
resina con los reactivos adecuados, dejando unida la etiqueta peptídica a la resina, la cual puede
ser secuenciada para la identificación del producto liberado. Del mismo modo puede usarse un
oligonucleótido como etiqueta, el cual puede amplificarse mediante alguna técnica adecuada.
formado por varillas de polietileno insertadas sobre una placa, en cuyo extremo libre se encuen-
tran inmovilizadas las resinas de poliestireno-divinilbenceno funcionalizadas con un grupo que
actúa de espaciador y que posee una función amino libre capaz de generar reacciones de aco-
plamiento. Los reactivos se colocan en reservorios cuyo espaciado coincide con el de las varillas.
En el caso de la síntesis de péptidos, por ejemplo, en los reservorios se ubican aminoácidos
protegidos y se sumergen las varillas de modo de generar el primer acoplamiento a la resina.
Luego se lavan las varillas y se realiza la remoción de los grupos protectores, para posterior-
mente repetir el proceso colocando otros aminoácidos protegidos en los reservorios. La etapa
final consiste en la liberación del péptido, la cual puede realizarse en los mismos reservorios que
sirven como recipientes adecuados para los ensayos biológicos.
Figura 3.8: Representación de la síntesis en paralelo por el sistema Multipin. El grupo espaciador se simboliza en rojo.
Las siglas NHP representan un grupo amino protegido como extremo del aminoácido.
La técnica de síntesis asistida por microondas (MAOS) ha sido ampliamente reconocida como
una importante herramienta alternativa para proporcionar energía térmica a una reacción, que
presenta numerosas ventajas respecto del calentamiento térmico. Entre ellas se encuentran: el
ahorro de tiempo y energía, la optimización de rendimientos, la obtención de productos en un
Las moléculas con momento dipolar permanente o inducido, bajo la influencia de un campo
eléctrico externo, tienden a alinear su momento dipolar con éste (Figura 3.9). Como el campo
aplicado oscila, los dipolos tienden a alinearse al mismo. Así, se genera una diferencia de fase
entre el dipolo y la orientación del campo. Esta diferencia de fase produce una pérdida de energía
en forma de calor por fricciones, colisiones moleculares y por pérdidas dieléctricas, dando lugar
al calentamiento dieléctrico por el mecanismo de rotación molecular. La cantidad de calor gene-
rada es directamente proporcional a la capacidad de los dipolos de alinearse con el campo apli-
cado. Es por esto que los gases no pueden calentarse mediante irradiación de microondas, de-
bido a que las distancias entre las moléculas en rotación son demasiado grandes y no poseen,
además, momentos dipolares adecuados para las pérdidas dieléctricas.
La segunda forma de transferencia de energía es la conducción iónica, que tiene lugar si hay iones
libres o especies iónicas presentes en la sustancia. Según este mecanismo, el calor se genera a
través de pérdidas por fricción, que resultan de la migración de iones disueltos cuando sobre ellos
actúa un campo electromagnético (Figura 3.9). Dichas pérdidas dependen del tamaño, carga, con-
ductividad de los iones disueltos e interacción de estos últimos con el disolvente.
Los efectos de la conducción iónica son especialmente importantes cuando se trabaja con
líquidos iónicos en microondas. En este caso, el mecanismo de conducción iónica es mucho más
fuerte que el de rotación dipolar en cuanto a lo que a la generación de calor se refiere. Asimismo,
el mecanismo de conducción iónica permite explicar el hecho de que algunos metales cuyo mo-
mento dipolar es nulo, se calientan efectivamente con microondas.
Figura 3.9: Ilustración esquemática de los mecanismos que generan calentamiento dieléctrico: Polarización dipolar (los
dipolos se alinean con el campo eléctrico) y conducción iónica (los iones migran en dirección al campo eléctrico).
Para cuantificar la capacidad que tiene una sustancia de transformar la radiación de microondas
en calor se utiliza el factor de disipación (tan δ) que indica la susceptibilidad a la radiación microondas.
Este factor se define como el cociente entre la pérdida dieléctrica (ε”), que muestra la eficiencia con
que la radiación electromagnética se transforma en calor, y la constante dieléctrica (ε,) que describe
la polarizabilidad de la molécula en un campo eléctrico (Ecuación 5.1).
tan δ: ε” / ε,
Para llevar a cabo una síntesis cuando las propiedades dieléctricas de la mezcla de reacción
son demasiado pobres para permitir un calentamiento eficiente por radiación de microondas, la
adición de pequeñas cantidades de aditivos (por ejemplo, sales o líquidos iónicos) que tienen
grandes valores de tan δ pueden superar significativamente estos problemas y posibilitan un
adecuado calentamiento de la mezcla. A su vez, es necesario determinar la necesidad del uso o
no de disolvente. La posibilidad de no usar disolventes para las reacciones con microondas es
una opción que en los últimos tiempos ha ido ganando adeptos siguiendo la filosofía de la química
verde, permitiendo reacciones más respetuosas con el medio ambiente y reduciendo costos.
Para el caso en que sea indispensable el empleo de un disolvente, un factor crucial para su
elección es su polaridad. Cuando los reactivos no absorben la radiación microondas, se ha de
utilizar un disolvente polar (ya sea de polaridad intermedia o elevada). Cuanto mayor es la pola-
ridad de un disolvente mayor es su capacidad para acoplarse con las microondas permitiendo
un aumento más rápido de la temperatura interna. En la tabla 5.1 se puede observar una clasifi-
cación de disolventes orgánicos de uso habitual en función de su facilidad para acoplarse con
las microondas.
Elevado tan δ > 0.5 Medio tan δ 0.1-0.5 Bajo tan δ <0.1
La síntesis asistida por microondas tiene influencia en varias etapas del descubrimiento de
fármacos y no se limita solo a áreas relacionadas con la síntesis orgánica. Por ejemplo, la tec-
nología de microondas también se está utilizando en el descubrimiento de blancos moleculares.
Los tiempos de reacción extremadamente cortos facilitados por MAOS permiten sintetizar com-
puestos de vida media corta que no se podrían obtener de otro modo utilizando métodos clásicos.
Un ejemplo de esta aplicación es la preparación de radio fármacos que contienen isótopos con
13
tiempo de vida media cortas (Figura 3.10; por ejemplo, C, 3H y 18
F). En estos ejemplos, esta
técnica ha permitido con éxito reducir el tiempo de reacción, y aumentar el rendimiento del pro-
ducto final (hasta duplicarlo en algunos casos).
Figura 3.10: Compuestos marcados preparados por síntesis orgánica asistida por microondas.
Andersen han aplicado está técnica en conjunto con catalizadores de metales de transición
en la síntesis de Tripanavir, un fármaco utilizado en combinación con el Ritonavir en la terapia
antiretroviral en pacientes infectados con VHI-1. Como se puede ver en el Esquema 3.10, las
reacciones se llevaron a cabo usando los mismos pasos que en la síntesis tradicional, sin em-
bargo, los tiempos de reacción para producir un buen rendimiento se redujeron desde horas a
tan solo unos pocos minutos.
Esquema 3.10: Alquilación asimétrica catalizada por molibdeno bajo irradiación microondas en la síntesis de Tripanavir.
A los cortos tiempos de reacción se suma la alta tasa de selectividad de las reacciones que
utilizan este medio alternativo de calentamiento, las que han abierto una puerta en la generación
de numerosas bibliotecas de nuevos compuestos. Un ejemplo de ello es el que se presenta en
el Esquema 3.11, donde se obtuvieron sub-bibliotecas a partir de scaffolds de dihidropirimidinas
utilizando una gran diversidad de reacciones clásicas.
Esquema 3.11: Esqueleto de dihidropirimidina utilizado para crear 9-sub-bibiotecas a partir de las siguientes reacciones: a)
aminocarbonilación catalizada por Pd (X=Br), b) N- arilación catalizada por Cu, c) N-acilacion con cloruros de ácido o anhídridos,
d) reacción del tipo Liebeskind-Srogl catalizada por Pd (Z<C=>S), e) N-alquilación de Mitsunobu, f) cicloadición de azida-alquino
catalizada por Cu (después de la bromación C6 y el desplazamiento con azida), g) alquilación de Mitsunobu (RX=OH), h) reac-
ción de Liebeskind-Srogl catalizada por Pd(RX=EtS), i)Formación de enlaces amida(RX=OH).
Referencias
1. Descriptores moleculares
Un descriptor molecular es una variable numérica, discreta o continua, que refleja distintos
aspectos de una estructura molecular. Los investigadores Todeschini y Consonni brindan la de-
finición más aceptada hasta el momento: “Los descriptores moleculares son el resultado final de
un procedimiento lógico-matemático el cual transforma la información química codificada dentro
de una representación simbólica de una molécula en un número útil o el resultado de un experi-
mento estandarizado”.
El número de descriptores moleculares propuestos hasta el momento en la literatura es real-
mente amplio. Básicamente, estos pueden ser de carácter empírico o teórico. Los descriptores
empíricos derivan de mediciones experimentales, mientras que los teóricos derivan de una re-
presentación simbólica de la molécula. Estos últimos son particularmente útiles debido a que no
requieren ninguna determinación experimental para caracterizar las moléculas y, como veremos
más adelante, algunos descriptores experimentales también se pueden obtener mediante apro-
ximaciones teóricas. Adicionalmente, un descriptor molecular puede describir a la molécula como
un todo (descriptores globales) o solo representar un fragmento presente en ella.
Cada representación molecular constituye una forma diferente de mirar, interpretar y extraer
información de la estructura de una molécula. Esencialmente, los descriptores moleculares pueden
clasificarse según la dimensionalidad de la representación molecular de la cual derivan en:
- descriptores independientes de la conformación espacial y/o de la orientación en el espacio
de la molécula y,
- descriptores dependientes de la conformación espacial y/o de la orientación en el espacio
de la molécula.
En este caso, el valor que asume el descriptor no depende del confórmero de la estructura a
partir de la cual se calculan, ni de la orientación del mismo en un marco de referencia determi-
nado. Se los conoce como descriptores de baja dimensionalidad (0-2D). La independencia de la
conformación espacial genera una de las principales ventajas que conlleva el uso de este tipo de
descriptores que es su bajo costo computacional, dado que no requieren de un análisis confor-
macional previo de las estructuras químicas (optimizando notablemente los tiempos de cálculo
empleados). Este grupo engloba varios subgrupos de descriptores moleculares tales como:
- Descriptores 0D: descriptores constitucionales derivados de la fórmula molecular. Son in-
dependientes de cualquier conocimiento sobre la estructura molecular. Describen solamente la
constitución de la molécula, pero no dicen nada sobre la conformación ni tipo de conectividad
presente. Los más simples son el peso molecular, número y tipo de átomos, suma de propieda-
des atómicas, el número de enlaces, entre otros.
- Descriptores 1D: describen fragmentos de las moléculas constituidos por el agrupa-
miento de sus átomos constituyentes (lista de fragmentos estructurales de la molécula) y no
requieren del conocimiento completo de la estructura molecular. De esta manera, son varia-
bles que señalan la presencia/ausencia o frecuencia de un tipo de átomo, grupo funcional o
subestructura/fragmento determinado de la molécula y asumen valores binarios (en el caso
que indiquen ausencia o presencia) o en su defecto valores no binarios pero discretos
(cuando indican la frecuencia de aparición).
Algunos autores incluyen en este subgrupo a descriptores globales como las propiedades
fisicoquímicas simples que surgen de mediciones experimentales estandarizadas: solubilidad,
valor de pKa, coeficiente de partición octanol/agua (logP), índice de refracción, entalpía de va-
porización, punto de ebullición, volumen molar, etc.
El coeficiente de partición octanol/agua (logP) ha sido la medida de lipofilicidad elegida en el
desarrollo de moléculas activas, para las cuales el transporte a través de las membranas bioló-
gicas es generalmente crítico. Además, es el parámetro fisicoquímico más popular para definir
la lipofilicidad de compuestos en los estudios estructura-actividad. Formalmente, el logP se de-
fine como el logaritmo decimal de la relación de las concentraciones en equilibrio de una sustan-
cia disuelta en un sistema bifásico consistente en dos disolventes considerablemente inmiscibles,
usualmente n-octanol y agua (Ecuación 4.1).
numérico a la influencia de los sustituyentes de un compuesto sobre el valor total del logP. Según
esta aproximación, el logP puede ser calculado considerando la contribución a la hidrofobicidad
de cada sustituyente a la molécula sin sustituir (o parent), y cada contribución se define como el
parámetro de lipofilia del sustituyente π (Ecuación 4.2).
Siendo H la molécula sin el sustituyente x. Por ejemplo, el valor π para el sustituyente metilo
aromático se puede calcular de acuerdo a la Ecuación 4.4:
Otro método de cálculo teórico del logP se conoce como método de Rekker (Ecuación 4.5), según
el cual el cálculo está basado en la descomposición de la molécula en pequeños fragmentos que
poseen un valor teórico de lipofilicidad (f).
En este caso el cálculo consiste en la resolución de dos sumatorias, una contiene la suma de
la contribución a la lipofilicidad de los fragmentos y otra la suma de términos de corrección. En
la Ecuación 4.5 el valor a corresponde al número de veces que está presente el fragmento f y
b al número de veces que se corrige el factor f. La suma de estos fragmentos más los términos
de corrección por efectos estéricos, electrónicos y de puentes de hidrógeno, da como resultado
el logP de la molécula. El valor de f se calcula mediante métodos estadísticos basados en el
análisis de fragmentos procedentes de moléculas con logP conocido.
Existen otras aproximaciones teóricas para el cálculo del logP, entre ellas el método de Leo,
el método de Moriguchi, etc. Todas estas aproximaciones funcionan en general muy bien para
compuestos simples, pero suelen presentar limitaciones para estructuras complejas por lo que
no debe olvidarse que este tipo de cálculos son aproximaciones que permiten tener una estima-
ción del logP.
Muchos otros descriptores fisicoquímicos también se pueden calcular mediante aproximacio-
nes teóricas como por ejemplo descriptores de efectos electrónicos como la constante electró-
nica de Hammet σ; descriptores de efectos estéricos como el factor estérico de Taft (Es), el
parámetro de Verloop y la refractividad molar; entre otros.
Descriptores 2D: se basan en la representación bidimensional o topológica de la molécula y
por este motivo se los conoce como descriptores topológicos.
La topología puede definirse como aquella parte del álgebra que estudia las posiciones e
interconexiones de los elementos dentro de un conjunto. Aplicada a las moléculas, ha dado
origen a una nueva disciplina llamada “topología molecular” o Teoría de Grafos Química, que
analiza las posiciones relativas y la conectividad de los átomos dentro de las moléculas.
Desde este punto de vista no se aborda el estudio de aspectos tales como la estructura
tridimensional del compuesto, los tipos de enlaces, ángulos entre ellos y, a veces, ni siquiera
la naturaleza de los átomos enlazados. La cuestión fundamental recae en qué átomos están
ligados entre sí y cuáles caminos conducen de un átomo a otro dentro de la molécula. De
esta manera los descriptores topológicos proporcionan información de constitución y conec-
tividad. El método topológico emplea los llamados “índices topológicos” para caracterizar
estructuralmente a un compuesto. Para definir dichos índices, el primer paso es representar
a los átomos por puntos (vértices) y a los enlaces por segmentos (ejes o aristas), eliminán-
dose ocasionalmente los átomos de hidrógeno. De esta manera, se obtiene el “grafo” de la
molécula. Posteriormente, se numeran aleatoriamente los distintos átomos (o vértices) y se
construye alguna “matriz topológica” (por ejemplo, matriz distancia, matriz adyacencia, matriz
de distancias topológicas máximas, etc). A partir de esta matriz y mediante operaciones al-
gebraicas más o menos sencillas se obtienen los “índices topológicos” más importantes, que
pueden caracterizar aspectos muy diversos de la estructura molecular tales como la forma,
el grado de ramificación o ciclación de una estructura química o la distribución de cargas
(Figura 4.1).
Figura 4.1: Esquema simplificado del cálculo de descriptores topológicos. La estructura química (isopentano en este
caso) es inicialmente representada como un grafo a partir del cual se pueden construir matrices, como la matriz de
adyacencia y la de distancia (dos de las matrices de menor complejidad en lo que respecta al cálculo de índices topoló-
gicos), de las que finalmente surge un valor denominado descriptor molecular topológico.
1/2
En la Ecuación 4.6, dij representa la distancia topológica entre los vértices vi y vj si se considera
el camino de longitud más corta. La longitud u orden del camino es el número de aristas que lo
componen.
Por su parte, el índice de Rándic (X) se define de acuerdo a la Ecuación 4.7:
⁄
⋅
En dicha ecuación, para cada arista (vi, vj), el degi es el grado de degeneración del vértice vi
y representa el número de vértices adyacentes al mismo.
Una de las desventajas de los descriptores topológicos es su naturaleza compleja y abstracta,
lo que los hace difíciles de interpretar desde el punto de vista fisicoquímico y en relación con los
aspectos biológicos. Por otra parte, es imposible para un descriptor independiente de la confor-
mación diferenciar isómeros de geometría, aunque sabemos, sin embargo, que las propiedades
fisicoquímicas y biológicas de éstos pueden ser muy distintas. Otra desventaja es que poseen
alto grado de degeneración, lo que significa que muchas veces poseen un mismo valor numérico
para estructuras diferentes. Esto se debe a que los índices topológicos derivan de representa-
ciones algebraicas del grafo (matrices) que sólo tienen en cuenta la conectividad entre los átomos
y no consideran la naturaleza de los mismos o de los enlaces covalentes que los unen. Así, por
ejemplo, ninguno de los índices previamente mencionados podría diferenciar a la anilina del fe-
nol, ya que ambos compuestos poseen grafos isomorfos. Para hacerlo se utiliza la estrategia de
ponderar de distinta manera los vértices y aristas del grafo según las propiedades químicas de
los átomos y enlaces involucrados, dando lugar a un nuevo conjunto de matrices ponderadas
que permiten derivar un nuevo grupo de descriptores topológicos cuyo tratamiento escapa al
contenido de este libro.
Figura 4.2: Gráficas de energía potencial de un sistema que posee uno o dos ángulos de torsión.
Los ángulos de torsión (también llamados ángulos diedros) de una molécula están definidos
por 4 átomos unidos entre sí por 3 enlaces. El número de ángulos de torsión presentes es una
molécula, determina el grado de libertad rotacional de la misma. En la imagen de la izquierda de
la Figura 4.2 se representa en forma bidimensional a la variación de la energía potencial de una
molécula en función de un único ángulo de torsión (θ1). En ella se pueden observar varios máxi-
mos y mínimos locales y también el mínimo global o absoluto. A la derecha, la variación de la
energía potencial se representa en función de dos ángulos de torsión (θ1 y θ2), resultando un
gráfico en tres dimensiones donde se observa una superficie de energía potencial, con sus mí-
nimos, máximos y puntos de ensilladura. Así, una hipersuperficie de energía potencial es una
gráfica de n+1 dimensiones, siendo n el número de grados de libertad del sistema, cuya forma
ya no puede conocerse para un sistema de 3 o más ángulos de torsión.
Nos encontramos entonces frente a un problema con múltiples variables donde la respuesta
que se obtiene depende en gran medida del punto de partida. El punto de partida lo puede cons-
tituir un confórmero cualquiera, que se optimiza mediante alguna técnica de minimización de la
energía, y se compara con otros confórmeros encontrados previamente para chequear que no
sea un duplicado. Si el nuevo confórmero así generado no había sido descubierto aún, se añade
a una lista acumulativa de confórmeros distinguibles entre sí. Este ciclo continúa utilizando una
nueva geometría de partida. Llegará un momento en que se habrán utilizado todas las geome-
trías iniciales posibles o en que no se encuentren nuevos mínimos, con lo que se dará por finali-
zada la búsqueda. Aquel confórmero de la lista con el valor de energía potencial más baja será
considerado el confórmero de menor energía correspondiente al mínimo global de energía de
esa molécula.
Como la etapa correspondiente a la minimización simplemente refina las estructuras de par-
tida hasta alcanzar el mínimo local más próximo, quien más controla la eficacia de la búsqueda
para alcanzar la convergencia son los métodos que generan los confórmeros iniciales. Éstos se
pueden dividir en cuatro categorías: (1) búsquedas deterministas que cubren todas las áreas del
espacio conformacional de forma sistemática (grid search o método sistemático), (2) métodos
estocásticos (Monte Carlo) que utilizan un elemento aleatorio para la exploración del espacio, (3)
algoritmos evolutivos y, (4) dinámica molecular.
1-Los métodos deterministas incluyen cualquier método por el cual la generación y evaluación
de una conformación de una molécula está determinada por la conformación anterior. De esta
manera, en una búsqueda sistemática se van variando cada uno de los ángulos de torsión de
forma sistemática y se va minimizando la energía de cada uno de los confórmeros así generados.
Por ejemplo, para una molécula con 3 ángulos diedros, y un incremento del valor de cada ángulo
de 60°, se generarán 63 = 216 configuraciones que deben ser optimizadas. Si el número de tor-
siones considerados es 6, esta cifra aumenta a 46656 (66), y para 9 torsiones, el número de
configuraciones generadas es superior a diez millones (69). Estos números sirven para poner de
manifiesto que, al ser un procedimiento combinatorio, la demanda computacional restringe su
uso a problemas con un número limitado de grados de libertad torsional.
2-Para sistemas que contienen muchos grados de libertad donde los métodos determinísticos
son demasiado costosos (generalmente porque el espacio de búsqueda es demasiado grande
para una búsqueda sistemática completa), suelen ser útiles los métodos estocásticos. Estos mé-
todos están basados en la técnica de búsqueda de Monte Carlo, a partir de la cual se genera un
conjunto de estructuras tridimensionales arbitrarias no relacionadas entre sí mediante la combi-
nación de un muestreo al azar (de ahí que el nombre del método haga referencia al célebre
/
casino) del movimiento total de la molécula y el empleo del factor de Boltzmann ( , siendo
Figura 4.3: Representación del empleo de dinámica molecular como método de búsqueda de conformaciones.
Una desventaja de los métodos estocásticos es que son esencialmente heurísticos; dado que
contienen un componente al azar no se puede controlar el proceso de forma de garantizar que
puedan encontrar una solución óptima o simplemente una solución. Sin embargo, para muchos
problemas estas técnicas han sido la única herramienta válida. Por otro lado, todavía no existe
un fundamento teórico para decidir el criterio de convergencia de una búsqueda conformacional
estocástica, en otras palabras, determinar cuándo el muestreo es suficiente, por lo que esta de-
cisión es hecha empíricamente y es siempre dependiente del sistema en estudio y los objetivos
de la búsqueda conformacional.
La finalidad de una búsqueda conformacional es encontrar las distintas conformaciones posi-
bles y ordenarlas de acuerdo con sus energías, para seleccionar aquellas con las energías más
bajas, que es de esperar que sean las que contribuyen a las propiedades del estado fundamental
de la molécula. Sin embargo, no debe olvidarse que si las energías de estos mismos confórmeros
se evaluaran en presencia de un disolvente polar, en lugar de in vacuo, es posible que un número
significativo de interacciones intramoleculares serán reemplazadas por interacciones más favo-
rables con moléculas del disolvente.
Descriptores 4D: examinan el espacio conformacional de los objetos moleculares, pero la
información estructural se considera para un conjunto de confórmeros (condicionalmente, la
cuarta dimensión), en lugar de una conformación fija como en el caso de los 3D. Ejemplos de
este tipo de descriptores son aquellos derivados de los métodos GRID o CoMFA (Comparative
Molecular Field Analysis).
En la Figura 4.4 se muestra un resumen esquemático de los descriptores moleculares y su
clasificación según la dimensionalidad de la representación molecular de la cual derivan.
Figura 4.4: Clasificación de los descriptores moleculares según la dimensionalidad de la representación molecular
de la cual derivan.
A modo de resumen puede decirse que los descriptores 0D derivan de la fórmula molecular y
no requieren conocimiento de la estructura molecular; los 1D derivan de listas de fragmentos
estructurales de la molécula y no requieren del conocimiento completo de la estructura molecular;
los 2D derivan de la representación bidimensional de la estructura molecular conocida como
grafo; los 3D derivan de la representación tridimensional de la molécula considerando para su
cálculo un confórmero de menor energía; mientras que los 4D también derivan de una represen-
tación 3D de la molécula pero utilizan para su cálculo un conjunto de confórmeros en relación a
un marco de referencia determinado. A medida que aumenta el contenido de información de un
descriptor molecular, aumenta el costo computacional para su cálculo.
núcleos, representando a los átomos) unidas a través de resortes (representando a los enlaces).
En esta aproximación los electrones no son considerados en forma explícita y la energía es cal-
culada en función de las posiciones de los núcleos como una suma de términos. Usualmente la
energía se expresa matemáticamente en lo que se denomina un campo de fuerza, en el cual se
desglosan las contribuciones directas e indirectas.
Las contribuciones directas (o también denominadas enlazantes) tienen que ver con la
energía asociada al estiramiento de enlaces, la oscilación angular y la rotación de los átomos a
través de los ángulos de torsión. La Figura 4.5 muestra una representación de este tipo de
interacciones. La interacción entre dos átomos que forman un enlace covalente puede
aproximarse a un potencial armónico dependiente de la longitud de enlace r, la cual se desvía
de una longitud de equilibrio r0. Similarmente, puede ajustarse a un potencial de este tipo a la
oscilación angular formada por tres átomos consecutivos que forman un ángulo ɵ que oscila
alrededor de ɵ0. También puede modelarse la energía asociada a la rotación de enlaces
mediante la variación de ángulos diedros, la cual puede generar efectos estéricos entre átomos
separados por 3 enlaces.
Figura 4.5: Representación de las interacciones enlazantes más importantes que contribuyen a un campo de fuerza de
mecánica molecular. Se incluyen las expresiones matemáticas que pueden utilizarse para cuantificar cada contribución.
Figura 4.6: Representación de las interacciones no enlazantes más importantes que contribuyen a un campo de fuerza de
mecánica molecular. Se incluyen las expresiones matemáticas que pueden utilizarse para cuantificar cada contribución.
Como se observa en las ecuaciones descriptas en las Figuras 4.5 y 4.6, los cálculos requieren
información y parámetros por ejemplo r0, ɵ0, K, γ, A, B, etc. Estos valores dependerán del tipo de
átomo que se considere en cada caso y se obtienen mediante métodos experimentales o cálculos
mecano-cuánticos. Este conjunto de parámetros se encuentra tabulado en los programas y
también forma parte del campo de fuerza. En otras palabras, los campos de fuerza contienen la
ecuación matemática que representa a la energía, la definición de los tipos de átomos que se
distinguen en el cálculo y sus parámetros asociados.
Los métodos que utilizan mecánica molecular son relativamente baratos en términos de costo
computacional, por lo que pueden utilizarse para obtener valores de descriptores y son los mé-
todos de elección cuando se requiere estudiar grandes moléculas como proteínas. En el Capítulo
6 describiremos su aplicación en el diseño y búsqueda de nuevos fármacos mediante técnicas
de simulación. La gran limitación de este tipo de cálculos es que no es posible determinar pro-
piedades electrónicas de las moléculas, debido a que los electrones no están incluidos explícita-
mente en esta aproximación.
Los métodos de origen cuántico utilizan la mecánica cuántica para el cálculo de las propieda-
des y energía de una molécula, considerando las interacciones núcleo-electrón del sistema. Con
esta metodología se representan explícitamente los electrones en los cálculos, por lo que es
posible derivar propiedades que dependen de la distribución electrónica y, por ejemplo, investigar
reacciones químicas en las cuales se producen roturas o formación de enlaces.
El punto de partida es la ecuación de Schrödinger, la cual en situaciones en que la energía
potencial es independiente del tiempo tiene la forma de la Ecuación 4.8 para una partícula de
masa m que se mueve a través del espacio bajo la influencia de un potencial V.
Ψ Ψ
8
Ecuación 4.8: Forma funcional de la ecuación de Schödinger independiente del tiempo para una partícula de masa m
que se mueve en el espacio con un potencial V.
más estables, estudiar el movimiento molecular, etc. Por otra parte, los cálculos a nivel cuántico
son muy útiles para determinar cargas parciales sobre los átomos, potenciales electrostáticos,
momentos dipolares, energías asociadas a los orbitales moleculares, energías de enlace, calores
de formación, etc. Estos valores pueden considerarse descriptores de una molécula y podrían
ser utilizados como variables independientes para la generación de relaciones estructura-activi-
dad. Cabe aclarar que estos descriptores de origen clásico y cuántico pueden considerarse den-
tro de la categoría de descriptores 3D pues son dependientes de la conformación.
Referencias
1. Cribado virtual
Las etapas tempranas del descubrimiento de fármacos implican la identificación de nuevos
hits contra un blanco molecular específico y las sucesivas optimizaciones para mejorar las pro-
piedades farmacológicas de dichos compuestos. Como ya se ha mencionado en el Capítulo 2,
la industria farmacéutica recurre principalmente al Cribado Farmacológico de Alto Rendimiento
(o High Throughput Screening - HTS) como estrategia para identificar en tiempos breves nuevos
andamios (scaffolds) moleculares con la actividad deseada. Sin embargo, las tecnologías nece-
sarias para la implementación de campañas de HTS requieren una inversión muy grande que
solo las compañías farmacéuticas y algunos centros académicos de países desarrollados pue-
den afrontar. Al costo del equipamiento en sí debe sumarse, además, los altísimos costos ope-
rativos que deben afrontarse para su utilización y mantenimiento.
Una metodología alternativa, también mencionada previamente como más racional y econó-
mica, es el Cribado virtual (en adelante, CV), también conocido como Screening Virtual o Scree-
ning in silico o Tamizado Virtual. Algunos autores describen al CV como el “uso de la informática
de alto rendimiento para analizar grandes bases de datos de compuestos químicos con el fin de
identificar posibles candidatos a drogas”. Otros autores amplían esta definición considerando al
CV como un “conjunto de técnicas computacionales que permiten, a partir de representaciones
de la estructura molecular de los compuestos químicos almacenados en grandes bases de datos,
identificar compuestos potencialmente interesantes desde el punto de vista farmacológico”. De
manera más simple, podemos definir al CV como la utilización de modelos o algoritmos compu-
tacionales para predecir cuáles compuestos de una biblioteca de compuestos químicos podrían
tener una cierta actividad deseada.
A continuación, se enumeran algunas de las características que hacen a la racionalidad de
esta estrategia:
a) Eficiencia en cuanto al costo y tiempo necesarios para su realización: Actualmente
existen una gran cantidad de bases de datos de compuestos químicos que se pueden descargar
y manipular de manera gratuita y que son actualizadas/expandidas de manera periódica o conti-
nua. Entre ellas pueden mencionarse ChEMBL, que a la fecha compila más de 1,8 millones de
compuestos químicos y más de 15 millones de datos de actividad biológica; PubChem, con más
de 96 millones de compuestos y más de 230 millones de datos de bioactividad y; DrugBank que
contiene alrededor de 10000 compuestos utilizados terapéuticamente o que se encuentran ac-
tualmente cursando estudios clínicos, de los cuales cerca de 9000 son pequeñas moléculas tipo
fármaco. Además, muchos de los programas que se utilizan para aplicar las técnicas de CV son
de libre acceso o se pueden conseguir licencias académicas gratuitas como el programa Chimera
y los diferentes paquetes de ChemAxon. También existen servidores online en los cuales se
pueden realizar CV sin necesidad de descargar programas. Más aún, dependiendo de la técnica
de CV a utilizar, es posible realizar el cribado con una simple computadora de escritorio. En este
sentido, el CV supera ampliamente al HTS, que en cualquiera de los casos requiere tecnología
de alto costo. Finalmente, puede mencionarse que, en tanto seleccionados mediante técnicas
con fundamento teórico, los hits que emergen del CV tienen mayores probabilidades de demos-
trar actividad biológica contra el blanco de interés que un compuesto químico que hubiera sido
elegido al azar, sin criterio racional.
b) Carácter teórico: No es necesario disponer de una muestra física de los compuestos
químicos a analizar ya que el proceso se realiza en base a representaciones digitales de las
moléculas. Además, se pueden considerar colecciones de compuestos que aún no han sido sin-
tetizados de manera de sintetizar o adquirir sólo aquellos que presenten altas probabilidades de
poseer la actividad de interés.
c) Carácter bioético: Las metodologías in silico reducen la cantidad de compuestos a eva-
luar tanto in vitro como in vivo (ciñéndose a los conceptos de reemplazo/reducción del uso de
modelos animales) y aumenta las probabilidades de resultados positivos en esas instancias. El
CV cumple con los principios internacionales para la investigación biomédica que involucra ani-
males (International Guiding Principles for Biomedical Research involving Animals, CIOMS), que
propone anteponer simulaciones computacionales y modelos in vitro a los estudios en animales
de laboratorio siempre que sea posible.
En general, las estrategias para la búsqueda y diseño racional de fármacos asistida por
computadora son clasificadas en dos categorías: Métodos indirectos (también llamados, métodos
basados en el ligando), en los cuales no es necesario conocer la estructura tridimensional del
blanco molecular y métodos directos (o métodos basados en la estructura), en los cuales es
indispensable poseer un modelo tridimensional de la macromolécula. Subrayamos aquí, además,
que cuando pensamos en diseño de fármacos siempre estamos considerando la eventual obten-
ción de un compuesto químico novedoso que no hubiera sido sintetizado hasta el momento. En
cambio, el CV, mayormente se enfoca en colecciones de compuestos que ya se conocen, que
fueron previamente sintetizados o aislados a partir de fuentes naturales.
El presente capítulo se centra en los métodos indirectos para la búsqueda racional de fármacos.
2. Métodos indirectos
Existe una gran cantidad de blancos moleculares de los cuales no se encuentra disponible su
estructura tridimensional y no es posible realizar un modelo tridimensional confiable mediante
técnicas de modelado comparativo. En esos casos, la información estructural de uno o más li-
gandos activos en el blanco molecular seleccionado puede utilizarse para identificar cuáles son
las características estructurales responsables de la actividad biológica de los mismos.
La hipótesis implícita de los métodos indirectos es que las moléculas similares exhibirán pro-
piedades de unión similares con respecto a un dado blanco molecular, en tanto la actividad bio-
lógica dependerá de la estructura química del mismo.
Los métodos indirectos de CV pueden utilizar características obtenidas de distintos niveles de
representación de las estructuras moleculares de los ligandos, habitualmente representaciones
bidimensionales (2D) y/o tridimensionales (3D). En los siguientes puntos de este capítulo se des-
cribirán tres grandes grupos de métodos indirectos: los basados en la similitud molecular, los
basados en el farmacóforo y, las metodologías basadas en descriptores moleculares (QSAR).
de las estructuras a comparar. Típicamente, las huellas digitales moleculares se construyen aso-
ciando cada bit a la presencia o ausencia de una propiedad estructural, las cuales pueden con-
tener información bidimensional o tridimensional.
En la Figura 5.1 se presenta un proceso simple de comparación de tres moléculas utilizando
como coeficiente de similitud el coeficiente de Tanimoto en su forma binaria (no considera el
número de veces que aparece una subestructura o característica molecular en una dada molé-
cula, tan solo su ocurrencia o no ocurrencia). Este coeficiente es uno de los más utilizados para
cuantificar similitud y se define por la Ecuación 5.1:
Figura 5.1: Esquema del proceso de comparación de tres moléculas por medio del coeficiente de Tanimoto.
Los métodos de similitud molecular son una buena estrategia para la realización de CV cuando el
número de ligandos activos conocidos de un blanco molecular es limitado, o en el peor de los casos,
cuando se conoce un único ligando. Las técnicas de CV basado en la similitud consisten en cuantificar
el grado de similitud entre la estructura que presenta la actividad deseada y las estructuras de los
compuestos que integran la base sometida al CV. Una ventaja interesante de este tipo de técnicas
es el bajo costo computacional que requieren, permitiendo realizar el cribado de grandes bases de
datos en poco tiempo. Hoy en día, el uso de estas técnicas es casi trivial en tanto la mayoría de los
repositorios químicos online utilizados para cribado incorporan funciones de búsqueda por similitud
molecular. Por tal motivo, es raro actualmente el uso de estas técnicas de manera aislada, y se suele
asociar a otros métodos indirectos o directos siempre que sea posible.
Figura 5.2:
Existen diferentes métodos estadísticos que permiten encontrar relaciones entre una variable
dependiente (la propiedad o actividad que se desea modelar) y uno o más descriptores molecu-
lares. Estas relaciones son conocidas como Relaciones Cuantitativas Estructura-Actividad o
QSAR (del inglés, Quantitative Structure-Activity Relationships) y pueden ser descriptas por la
siguiente Ecuación 5.2:
, , ,…,
Modelos QSAR cuantitativos: estos darán como resultado (o respuesta) una variable depen-
diente contínua, es decir, predecirán el valor numérico de la actividad (o propiedad) modelada. Por
ejemplo, este tipo de modelos podría dar como resultado el valor de la constante de inhibición (Ki) de
un compuesto frente a un blanco molecular, la concentración del compuesto que genera un 50% de
inhibición del blanco molecular (IC50), el valor del logP de un compuesto, etc.
Modelos QSAR cualitativos (modelos clasificadores): darán como resultado una res-
puesta cuyo valor estará asociado a una categoría previamente establecida. Por ejemplo, las
categorías pueden ser “inhibidores” y “no inhibidores” de un cierto blanco molecular, “tóxicos” y
“no tóxicos” para células humanas, etc. Esta estrategia es muy útil cuando se entrenan los mo-
delos con datos de diferentes fuentes (datos experimentales medidos en distintos laboratorios,
por ejemplo) ya que un modelo clasificador permite amortiguar, al menos parcialmente, la varia-
bilidad experimental presente en la base de datos.
Modelos QSAR de baja dimensionalidad: son aquellos modelos que utilizan descriptores mo-
leculares independientes de la conformación. Por lo tanto, estos modelos se obtienen a partir de
descriptores moleculares 0D, 1D y 2D. Los modelos constituidos enteramente por descriptores inde-
pendientes de la conformación tienen la ventaja de que no requieren la optimización conformacional
de las moléculas, por lo tanto, son poco demandantes computacionalmente. En los siguientes puntos
de este capítulo se detallarán algunas estrategias útiles para la obtención de modelos de este tipo.
Modelos QSAR de alta dimensionalidad: son aquellos modelos que utilizan descriptores de-
pendientes de la conformación de las moléculas. En esta categoría se agrupan los descriptores 3D y
4D. Las metodologías QSAR de alta dimensionalidad son más complejas y costosas computacional-
mente respecto a las metodologías QSAR de baja dimensionalidad ya que requieren de la optimiza-
ción conformacional 3D de cada una de las moléculas del conjunto de entrenamiento. La obtención
de las conformaciones 3D de mínima energía de estas moléculas es el factor más importante para
obtener modelos fiables ya que a partir de sus estructuras tridimensionales se calcularán los descrip-
tores moleculares. La aplicación de modelos QSAR de alta dimensionalidad en CV requiere un tiempo
considerablemente mayor que cuando se utilizan modelos QSAR de baja dimensionalidad ya que las
bibliotecas de moléculas para el CV deben ser optimizadas conformacionalmente antes de la aplica-
ción de los modelos. Los métodos QSAR-3D más populares, entre los que se destacan CoMFA,
CoMSIA y GRID/GOLPE, se basan en colocar cada molécula optimizada en una grilla y calcular el
valor que diferentes campos de fuerza (por ejemplo, coulómbico, estérico) ejercen sobre los vértices
de la misma (colocando generalmente un átomo o molécula de prueba en cada vértice), estable-
ciendo qué campo, y en qué zona de la grilla, es significativo para la actividad biológica.
Figura 5.3: Esquema de las etapas vinculadas al desarrollo de un Modelo QSAR y su aplicación al CV.
2
Las etapas generales para los modelos 3D son similares a las que se detallaran en este apartado, sólo que en todos
los casos antes del cálculo se descriptores se agrega una instancia de búsqueda conformacional, y en algunos casos
(por ej. CoMFA) una de alineamiento.
moleculares que pueden ser divididos en dos clases: los métodos jerárquicos como el agrupa-
miento de Ward y los métodos no jerárquicos como el de Jarvis-Patrick y k-means. La explicación
de estos métodos excede el contenido de este libro, pero la idea fundamental es agrupar sub-
conjuntos de compuestos con características moleculares comunes para luego muestrear repre-
sentativamente de cada subconjunto una fracción de los mismos para el conjunto de entrena-
miento y la fracción remanente para el conjunto de prueba.
Características del conjunto de entrenamiento: El conjunto de entrenamiento es una
muestra de compuestos químicos de la cual se infiere una relación entre la estructura molecular
y la actividad o propiedad de interés (el modelo QSAR). Se espera que esta relación sea gene-
ralizable a la “población” de compuestos químicos de la cual el conjunto de entrenamiento es
representativo. Por lo tanto, la selección de los compuestos del conjunto de entrenamiento es
crítica ya que define la región del espacio químico dentro de la cual la aplicación del modelo
tendrá validez. El valor predicho por el modelo de la actividad/propiedad biológica modelada será
confiable si y sólo si el compuesto predicho posee cierta similitud con alguna o varias de las
estructuras incluidas en el conjunto de entrenamiento. El espacio químico dentro del cual la apli-
cación del modelo QSAR es confiable se denomina “dominio de aplicabilidad” o “dominio de apli-
cación” del modelo. Entonces, si se desea aplicar el modelo generado en campañas de CV sobre
bibliotecas químicas que comprenden compuestos de gran heterogeneidad estructural, es con-
veniente que el conjunto de datos generado sea lo más abarcativo posible.
Otra característica que debe reunir el conjunto de entrenamiento es que los valores observa-
dos de la propiedad estudiada deberían presentar una buena distribución, idealmente uniforme
en un rango de entre tres y cuatro órdenes logarítmicos de la propiedad modelada. El requisito
de distribución uniforme es difícil de cumplir y se acepta como válida una distribución aproxima-
damente normal. La necesidad de una distribución uniforme tiene un fundamento lógico: por
ejemplo, si tenemos un conjunto de entrenamiento formado mayormente por compuestos que
poseen alta y mediana actividad, el modelo QSAR generado sólo va a predecir con exactitud
valores de compuestos muy activos y moderadamente activos, o incluso estará sesgado hacia
la asignación de altos valores de actividad, pero no nos permitirá diferenciar compuestos activos
de inactivos. En otras palabras, el modelo no identificará qué características estructurales son
desfavorables a la actividad por no estar los compuestos poco activos e inactivos representados
dentro del conjunto de entrenamiento.
Un último requisito que se le pide tradicionalmente a los compuestos del conjunto de entrena-
miento es que posean un mecanismo de acción común, esto es, interaccionen con el mismo receptor
o blanco molecular y presenten el mismo sitio de unión. No obstante, se han modelado exitosamente
en muchas oportunidades respuestas fenotípicas “ciegas” al mecanismo de acción considerado.
Una vez generados ambos conjuntos de trabajo, se procede al cálculo del valor que asumi-
rán los descriptores moleculares para las moléculas del conjunto de entrenamiento. Como ya
se mencionó, dependiendo del tipo de los descriptores que se calculen podremos obtener mo-
delos QSAR dependientes o independientes de la conformación. Sin embargo, hay que tener
en cuenta que para el cálculo de los descriptores dependientes de la conformación es necesa-
ria la optimización geométrica previa de las moléculas. Entre los softwares disponibles para el
cálculo de descriptores moleculares podemos nombrar el Dragon, RDKIT, PaDEL y WEKA,
entre muchos otros.
Como ya se mencionó, los métodos de selección de variables (en este caso, descriptores
moleculares) se presentan en dos grupos, los métodos lineales y los enfoques no lineales. En
la Tabla 5.1 se enumeran algunos de los métodos más usados para la selección de variables
tanto lineales como no lineales. En todos los métodos las variables se introducen en el modelo
a través de una forma algorítmica y una función de aptitud (o de "fitness") o ciertos criterios de
selección determinan qué variable debe ser retenida o eliminada del modelo.
Selección por pasos (combina los dos méto- Recocido simulado generalizado
dos anteriores)
Entre los métodos que se utilizan para la construcción de los modelos independientes des-
pués de la etapa de selección de variables o que incluyen una estrategia de selección de varia-
bles se pueden nombrar: Regresión Lineal Múltiple, Regresión de Componentes Principales, Mí-
nimos Cuadrados Parciales, Redes Neuronales Artificiales, Maquinas de Soporte Vectorial, Ár-
boles de Decisión, etc.
Se puede pensar que los errores en los que el modelo incurrirá al predecir la propiedad serán
mayores o iguales a los errores presentes en los datos experimentales; por lo tanto, se desea
disponer de datos experimentales sin errores significativos.
Cuando el conjunto de entrenamiento es compilado a partir de datos de literatura, se pre-
senta una limitación para desarrollar un modelo QSAR con una variable dependiente conti-
nua (por ejemplo, IC50 o Ki), dado que los datos reportados no corresponden a las mismas
condiciones experimentales (provienen de diferentes ensayos en distintos laboratorios). Para
superar esta limitación se puede recurrir a los modelos QSAR clasificatorios lineales como
los que se obtienen por la técnica conocida como Análisis Lineal Discriminante (ALD) o
modelos QSAR clasificatorios no lineales como los obtenidos mediante Árboles de Deci-
sión. Debido a su sencillez, en las próximas líneas se presenta una breve descripción de
estos dos métodos, sin embargo, cabe la aclaración de que no son los únicos utilizados en
para la generación de modelos QSAR cuantitativos.
Esta técnica permite obtener un modelo clasificador lineal capaz de distinguir entre compues-
tos que presenten la actividad deseada (por ej, inhibidores de cierta enzima) de compuestos sin
la actividad deseada (en el ejemplo, no inhibidores de la enzima elegida como blanco molecular).
ALD es un método de aprendizaje supervisado destinado a encontrar una combinación lineal
de variables independientes (en nuestro caso, los descriptores moleculares) capaz de diferenciar
entre objetos de dos o más categorías (en nuestro anterior, dos: ACTIVOS e INACTIVOS). La
función discriminante (FD) obtenida corresponde a un plano en el espacio k-dimensional (siendo
k el número de descriptores incluidos en el modelo) que, idealmente, deja a uno y otro lado los
compuestos activos e inactivos. La Ecuación 5.3 representa en general a una FD:
traria que funciona como etiqueta de las categorías. Por ejemplo, el valor 1 se asocia a los com-
puestos ACTIVOS y el -1 a los INACTIVOS. Dado que la función que se busca no predecirá una
variable continua sino la categoría a la que pertenece cada elemento, el ALD y otras técnicas
destinadas a encontrar modelos clasificadores pueden ser útiles para manejar datos ruidosos.
Árboles de Decisión
Los árboles de decisión son ampliamente utilizados debido a su capacidad predictiva, su fa-
cilidad de interpretación y su robustez para trabajar con datos ruidosos. Esta metodología permite
obtener árboles de clasificación mediante un método jerárquico divisivo. Para construir un árbol
se utilizan reglas de división del tipo: dado un elemento o a ser clasificado por una propiedad ,
“si > entonces el elemento pertenece a la clase A y si ≤ entonces pertenece a la clase
B” (siendo en este caso un descriptor y el valor de corte para ese descriptor). Se procede a
realizar una serie de divisiones binarias de los datos en subconjuntos (nodos internos), hasta
llegar a un árbol maximal donde se reparten todas las observaciones en la hojas o nodos termi-
nales (ver Figura 5.4). En cada nodo del árbol, el algoritmo elige el descriptor que más eficaz-
mente divide el conjunto de entrenamiento en subconjuntos enriquecidos en una clase u otra.
Para el caso de la clasificación, cuando ninguno de los descriptores proporciona una ganancia
de información, se crea un nodo terminal (hoja) donde se asigna la clase que está más repre-
sentada en el grupo de compuestos asignados al nodo.
Figura 5.4: Árbol de decisión. “x” e “y” representan el valor de corte del descriptor de cada nodo.
Validación interna
Validación cruzada (cross-validation): Las estrategias por excelencia son las técnicas de-
nominadas Leave One Out (LOO, “Dejar uno afuera”) y Leave Group Out (LGO, “Dejar un grupo
afuera”). Estas estrategias permiten determinar la robustez de los modelos QSAR generados
identificando si entre los compuestos del conjunto de entrenamiento hay algunos que influyen en
mayor medida en el modelo generado (descriptores incluidos, valor de los coeficientes de regre-
sión). La técnica consiste en la remoción de un número n (n igual a 1 corresponde a la técnica
de LOO) de compuestos del conjunto de entrenamiento, la generación del modelo con los com-
puestos restantes, y la evaluación del nuevo modelo en el conjunto de compuestos removidos.
Este proceso se repite hasta que todos los compuestos del conjunto de entrenamiento han sido
removidos y evaluados por lo menos una vez.
Test de Aleatorización de Fisher: este ensayo se utiliza para descartar la probabilidad de
correlación azarosa entre las variables independientes (los descriptores) y la variable depen-
diente (la propiedad o actividad). El método supone aleatorizar los valores de la variable depen-
diente en el conjunto de entrenamiento, cancelando por tanto cualquier relación que pudiera
existir entre la estructura y la actividad. Posteriormente, se generan nuevos modelos para evaluar
si existe probabilidad de correlación azarosa entre las variables independientes y la variable de-
pendiente. Idealmente se espera que los modelos generados por aleatorización sean estadísti-
camente inferiores al modelo elegido.
Validación Externa: Esta validación consiste en evaluar la capacidad que poseen los mode-
los en la predicción de la actividad de un conjunto de moléculas que no hayan sido utilizadas
para la generación de los modelos. Aunque las validaciones internas hayan obtenido buenos
resultados, la gran mayoría de los especialistas coinciden en que el poder predictivo de los mo-
delos QSAR sólo se puede establecer si el modelo se aplica con éxito para predecir los com-
puestos de un conjunto de prueba externo de tamaño adecuado. Para realizar esta validación,
se aplican los modelos obtenidos en el conjunto de entrenamiento para predecir la actividad de
los compuestos del conjunto de prueba.
Evaluación del desempeño de los modelos QSAR y selección del valor de corte.
Dos indicadores relevantes para estimar el desempeño de un modelo QSAR son su sensibi-
lidad ( , la tasa de verdaderos positivos) y su especificidad ( , la tasa de verdaderos negati-
vos). Estos factores se definen por las Ecuaciones 5.4 y 5.5:
Donde indica los falsos negativos (en nuestro caso, compuestos ACTIVOS que son clasi-
ficados por el modelo como INACTIVOS), indica los falsos positivos (compuestos INACTIVOS
que son clasificados por el modelo como ACTIVOS), indica los verdaderos negativos (com-
puestos INACTIVOS clasificados como INACTIVOS) y indica los verdaderos positivos (com-
puestos ACTIVOS clasificados como ACTIVOS).
Cuando se utilizan modelos QSAR con fines clasificatorios cada molécula del conjunto de
datos que se está evaluando obtendrá un resultado numérico único (o score) luego de la aplica-
ción del modelo (volcado en el eje de las ordenadas, Figura 5.5). Se debe establecer un valor de
corte del score a partir del cual se considerarán ACTIVOS e INACTIVOS los compuestos calcu-
lados. Por medio de la modificación de este valor de corte se puede observar que y evolu-
cionan de forma opuesta, por lo tanto, no es posible optimizar ambos parámetros de manera
simultánea y se debe encontrar un balance adecuado entre los mismos. Para tal fin, se utilizan
las curvas Receiver Operating Chracteristics (ROC), que son representaciones gráficas de la
versus 1- con las que es posible establecer el valor de corte óptimo de las funciones discrimi-
nantes (Figura 5.5).
Figura 5.5: Esquema de la construcción de una curva ROC. Las figuras a), b) y c) representan gráficas de número de
compuestos (eje y) versus el score obtenido por el modelo (eje x). Se puede observar como varían las proporciones de
VN, VP, FN y FP cuando se modifica el valor de corte del score en los puntos A, B y C. d) Curva ROC.
Por otro lado, el área bajo la curva ROC (AUCROC) constituye una métrica valiosa para
evaluar si el modelo se comporta significativamente mejor que una clasificación al azar y tam-
bién permite comparar estadísticamente el desempeño de distintos modelos. Como puede ob-
servarse en la Figura 5.5, los ejes del gráfico de la curva ROC adoptan valores entre entre 0 y
100, aunque también pueden normalizarse a valores entre 0 y 1, por lo que un modelo ideal
(Se y Sp igual a 1) corresponde a una curva que delimita una superficie cuadrada de área = 1.
Un modelo clasificador que no difiera de la clasificación al azar obtendrá un AUCROC de 0,5.
La capacidad de predicción de los modelos irá por lo tanto incrementándose a medida que el
AUCROC aumente (se aleje hacia arriba de la línea diagonal) considerándose como un modelo
clasificador perfecto a aquel que obtiene un AUCROC = 1.
La selección de un determinado balance entre y no es una cuestión estadística, sino
que depende del contexto. Por ejemplo, si pensamos en un laboratorio del ámbito público con
bajos recursos económicos se priorizará sobre para reducir el número de falsos positivos
(compuestos que ensayarían en un test biológico, pero no tendrían la actividad predicha sobre
el blanco molecular elegido). Esto significa, no obstante, que para reducir el número de falsos
positivos se arriesga a perder andamios/motivos estructurales activos potencialmente valiosos.
Lo contrario ocurrirá en laboratorios con altos recursos económicos, seguramente se priorizará
la frente a la de manera de no perder ningún candidato potencialmente valioso.
7) Cribado Virtual:
Una vez seleccionado y validado el mejor modelo QSAR se procede al CV de la base de datos
elegida. Para llevar a cabo esta tarea, primero, para cada una de las moléculas de la base de
datos a cribar, se realiza el cálculo de los descriptores moleculares que forman parte del modelo
y luego, los valores obtenidos de los descriptores obtenidos se insertan en el modelo QSAR. De
esa forma, el modelo obtiene un score (o una probabilidad) para cada uno de los compuestos de
la biblioteca. Si el modelo generado era del tipo cuantitativo, el score representará el valor predi-
cho de la actividad, mientras que si el modelo era del tipo QSAR cualitativo el valor del score se
compara con el valor de corte seleccionado y de esa forma se predice la categoría o clase de
cada compuesto.
Referencias
vías metabólicas críticas y pueden funcionar como blancos terapéuticos. Además, el PDB alberga
complejos de estructuras unidas a sus sustratos naturales o a fármacos, lo que proporciona una
información muy valiosa respecto del origen de las interacciones intermoleculares que justifican
la actividad biológica.
La cristalografía de rayos X en proteínas (o ácidos nucleicos) consiste en hacer incidir un haz
de luz de longitud de onda correspondiente a los rayos X (del orden de las distancias interatómi-
cas) sobre un conjunto ordenado de moléculas que conforman un cristal. Este cristal actúa como
un amplificador para aumentar la señal producida por la difracción del haz de luz incidente sobre
las proteínas. Dado que el patrón de difracción generado depende de la densidad electrónica
alrededor de los átomos, esta información servirá para deducir la posición de los núcleos atómi-
cos y, en consecuencia, permitirá la elucidación de la ubicación de los átomos y finalmente se
obtendrá la estructura completa.
Las herramientas fisicomatemáticas para la resolución de la estructura están basadas en la
teoría de la difracción de la luz y se utiliza como medida experimental de partida a las intensida-
des de las ondas difractadas. Este método resulta excelente en el caso de macroestructuras
rígidas que pueden generar cristales ordenados. Sin embargo, en el caso de proteínas capaces
de presentar regiones más flexibles resulta menos preciso, ya que la densidad electrónica para
cada átomo se encuentra dispersa en un espacio mayor. Una medida de la precisión en la que
se define la posición de los átomos en la estructura está determinada por la resolución. Este valor
se relaciona directamente con la información experimental colectada, la cual depende de la cali-
dad del cristal irradiado. En la actualidad estructuras con valores de resolución de aproximada-
mente 1Å se consideran muy ordenadas y es posible deducir fácilmente la ubicación de los áto-
mos en el mapa de densidad electrónica. En el otro extremo se encuentran los experimentos de
baja resolución (valores de 3Å o más) los cuales permiten sólo la observación del contorno de la
cadena proteica y la posición de los átomos debe inferirse en mayor medida. Podemos definir
como regla general que, si analizamos un conjunto de estructuras obtenidas por distintos expe-
rimentos de rayos X, aquellas con menor valor de resolución reportada generarán una mayor
confianza en la ubicación de sus átomos.
En resumen, la cristalografía de rayos X es una de las técnicas más utilizadas para la elucida-
ción de la estructura tridimensional de macromoléculas. Para su realización resulta imprescindible
obtener cristales difractantes de la proteína, lo que representa la mayor dificultad del experimento.
Debe mencionarse también que, al estar basada en la densidad electrónica, la cristalografía de
rayos X sirve para la localización de átomos pesados, pero difícilmente detecta átomos de hidró-
geno (el más liviano de los átomos, que posee solo un electrón). Además, es posible que en ciertos
casos resulte complicado discernir entre elementos con números atómicos semejantes.
Otra técnica utilizada para la determinación de la estructura de macromoléculas es RMN. Este
método se basa en las propiedades de ciertos átomos que presentan spin nuclear, como es el
caso del hidrógeno cuyo valor de spin nuclear es ½ para su isótopo más abundante (1H).
En presencia de un campo magnético externo, el momento magnético del núcleo de hidrógeno
puede alinearse de dos maneras: a favor del campo externo (más estable) o en contra del campo.
Por lo tanto, para cada valor de intensidad de campo magnético externo es posible aplicar una deter-
minada cantidad de energía para conseguir la inversión de la orientación. En otras palabras, cuando
la energía necesaria para generar la transición del momento de spin nuclear (dependiente del campo
magnético externo) coincide con la energía aplicada por una radiación externa, se produce una ab-
sorción y puede registrarse una señal. Este experimento es útil para la determinación de la estructura
de una molécula porque la frecuencia de absorción del protón no es igual para todos ellos, sino que
depende de su ambiente, esto es, la densidad electrónica que hay a su alrededor y la presencia de
otros protones cercanos. Dado que una molécula orgánica generalmente posee una estructura con
átomos de hidrógeno con distinto entorno, suele generarse un espectro de absorción con más de una
señal. Cada una de estas señales representa a grupos de protones equivalentes que servirán para
deducir la estructura molecular.
Los compuestos orgánicos poseen mayoritariamente átomos de carbono, hidrógeno, oxígeno
y nitrógeno. Además del átomo de hidrógeno, los átomos de carbono y nitrógeno poseen isótopos
con spin ½ (13C y 15N), pero son los isótopos menos abundantes. Es por ello que la espectroscopia
más usada es la de protones, aunque se pueden usar las otras acumulando señales.
En cuanto a la aplicación de esta técnica en la elucidación de macroestructuras como las proteí-
nas, los espectros resultan sumamente complejos debido a la gran cantidad de señales superpuestas
que estos compuestos generan. Por este motivo, en estos casos se recurren a experimentos de RMN
denominados multidimensionales. Estos métodos son capaces de disminuir la superposición de se-
ñales y generar más información respecto a su correlación dado que permiten inferir qué núcleos son
cercanos a otros. Además de detectar los átomos de hidrógeno, una de las mayores ventajas del
uso de RMN en la determinación de proteínas es que el método provee información acerca de las
moléculas en solución, en oposición a los experimentos de rayos X que dan como resultado un pro-
medio estático de la estructura. Esto resulta útil en el caso de proteínas flexibles ya que permite ob-
tener información dinámica de las mismas. De hecho, como resultado del experimento se obtiene un
conjunto de conformaciones posibles de la macromolécula. La mayor desventaja del método es que
resulta difícil de utilizar para proteínas muy grandes (unos 40 kDa o más) debido en gran parte a la
complejidad de los espectros.
Hasta aquí se han mencionado las dos metodologías experimentales más utilizadas para la elu-
cidación de estructuras 3D de macromoléculas, entre las que pueden encontrarse blancos molecula-
res útiles para el diseño de fármacos. Cuando no se dispone de dichas estructuras, se pueden cons-
truir modelos tridimensionales teóricos utilizando técnicas de modelado por homología, modelado de
comparación de plegamientos (o threading), o por métodos Ab Initio. Estas herramientas se inspiran
en el trabajo realizado por Anfinsen y colaboradores, quienes observaron que una cadena aminoací-
dica de ribonucleasa desnaturalizada en solución alcanza el estado nativo en un tiempo razonable.
Estos experimentos sentaron las bases para demostrar que: (1) una proteína puede ser identificada
únicamente por su secuencia de aminoácidos; (2) esta secuencia es la responsable de codificar la
funcionalidad in vivo de la proteína y (3) la secuencia de aminoácidos contiene la información nece-
saria para que la proteína adquiera su forma funcional, basándose exclusivamente en las interaccio-
nes intramoleculares y con el solvente que la rodea.
Cuando una proteína nueva se descubre, lo primero que se determina es su estructura pri-
maria (o secuencia). El modelado por homología es una metodología basada en la comparación
de la secuencia de la proteína cuya estructura se quiere modelar (secuencia problema) con otra
(u otras) cuya estructura es conocida (secuencia molde). En esta técnica la proteína problema y
la que actúa como molde se consideran homólogas.
Debe tenerse en cuenta que la homología es una inferencia o una conclusión respecto de la
existencia de una relación ancestral entre la secuencia problema y la secuencia molde; obtenida
a partir de la comparación de éstas. Para llegar a esta conclusión inicialmente se debe realizar
un alineamiento entre ambas, que permita establecer su parecido. Los parámetros para consi-
derar durante la comparación son similitud e identidad, los cuales derivan de la observación del
alineamiento. La similitud de secuencia hace referencia al porcentaje de residuos alineados que
tienen propiedades fisicoquímicas similares, por lo que pueden ser más fácilmente sustituibles
entre ellos. La identidad de secuencia se refiere al porcentaje de aminoácidos idénticos alineados
entre las dos secuencias. Cuando un alineamiento revela una similitud significativa entre un
grupo de secuencias, estas pueden considerarse como homólogas. Si se conoce la estructura y
función de una de estas secuencias “molde", esta información puede ser transferida a aquellas
homólogas cuya arquitectura tridimensional no ha sido determinada aún.
El procedimiento general para el desarrollo del modelado por homología incluye las siguientes
etapas: búsqueda e identificación en bases de datos de proteínas relacionadas al problema que
puedan ser utilizadas como molde; realineamiento de secuencias entre las proteínas molde se-
leccionadas y la problema; construcción del modelo tridimensional basado en las regiones ali-
neadas y en la predicción de coordenadas de átomos no alineados; refinamiento del modelo
mediante minimización energética y evaluación del mismo (Figura 6.1).
Figura 6.1: Esquema general de las etapas de un proceso de modelado por homología.
2. Docking molecular
Usualmente el proceso de búsqueda del modo de unión devuelve varios resultados posi-
bles. Para determinar cuál es el más probable se utiliza una función de evaluación. Este valor
ordena las poses obtenidas asociándoles un valor numérico relacionado con la energía libre
de unión del complejo, que permite seleccionar las mejores posiciones relativas ligando-re-
ceptor (Figura 6.2).
Por otra parte, existen diferentes aproximaciones respecto del grado de flexibilidad con que
se considera el ligando y el blanco molecular en la simulación. Se habla de docking rígido cuando
se propone al ligando y al blanco como cuerpos rígidos, limitando el proceso de búsqueda de
poses a encontrar la mejor complementariedad geométrica/fisicoquímica posible. Por su parte,
el docking flexible involucra el acceso a diferentes conformaciones del ligando, del blanco mole-
cular o de ambos al mismo tiempo.
Las capacidades computacionales actuales permiten el empleo de docking flexible, aunque
si se realiza un cribado virtual aparecerán limitaciones relacionadas con el elevado tiempo de
cálculo que implica el docking de miles (o incluso millones) de moléculas sobre un blanco mole-
cular. De hecho, considerar correctamente la flexibilidad del sistema es uno de los mayores desa-
fíos en este tipo de herramientas de modelado.
De lo explicado anteriormente se desprende que en un proceso de simulación por docking
conviven dos tipos de algoritmos: uno encargado de generar diferentes conformaciones relativas
entre ligando-blanco molecular, y otro capaz de evaluar numéricamente las interacciones mole-
culares en cada una de esas conformaciones; a fin de determinar cuáles son las más probables.
A continuación, se describen algunos ejemplos de estos algoritmos.
El modo de unión del ligando con respecto al blanco molecular puede ser definido por la
conformación adoptada por el ligando, su posición y orientación en el sitio activo. Cada una de
estas variables describe un grado de libertad en un espacio de búsqueda multidimensional.
Un algoritmo de búsqueda riguroso debería muestrear todos los modos de unión posibles
entre las dos moléculas involucradas en el docking. Sin embargo, esto es impráctico en términos
computacionales debido al gran tamaño del espacio conformacional. Además, el problema se
incrementa en un cribado virtual si se considera, por un lado, la flexibilidad del receptor y por otro
el tamaño de las bases de datos de miles de ligandos que suelen utilizarse. Consecuentemente,
sólo una pequeña parte del espacio conformacional suele ser muestreada, y esta exploración
debe ser realizada con la suficiente exactitud como para identificar la conformación que mejor
interacciona con la estructura del blanco molecular.
Los métodos de búsqueda más utilizados modifican la conformación del ligando y pueden
clasificarse como sistemáticos o estocásticos. Debe mencionarse aquí que en el Capítulo 4 he-
mos detallado métodos de búsqueda de conformaciones en otro contexto (cálculo de descripto-
res de alta dimensionalidad), pero los algoritmos matemáticos utilizados son similares a los que
se detallan en este capítulo.
Entre los métodos sistemáticos se encuentran las metodologías de búsqueda de conforma-
ciones generadas mediante la modificación sistemática de sus ángulos de torsión en un incre-
mento fijo (por ejemplo, cada 10 grados). Se crea, entonces, un gran número de conformaciones
definidas por todas las combinaciones posibles de valores de ángulos de torsión, las cuales son
analizadas en su interacción con el blanco molecular. El mayor problema de esta técnica es el
gran número de confórmeros creados, el cual se incrementa enormemente con el número de
enlaces móviles. Por lo tanto, la aplicación de este tipo de métodos, en su forma pura, es muy
limitado. Normalmente se aplican restricciones en los ángulos de torsión y limitaciones para re-
ducir la dimensionalidad del problema.
Otro método sistemático muy utilizado es el de la fragmentación, el cual consiste en “cortar”
el ligando para generar fragmentos de su estructura, los cuales son analizados en su interacción
dentro del sitio activo mediante la función de evaluación del docking. Inicialmente se realiza el
docking con el fragmento de mayor tamaño (o con aquellos que son rígidos) y sobre la mejor
conformación obtenida se van añadiendo los siguientes fragmentos a la estructura (en todas las
conformaciones posibles, quedando la más estable) de modo de ir construyendo gradual e incre-
mentalmente el ligando completo dentro del sitio de unión del blanco molecular.
En cuanto a los métodos estocásticos, estos operan generando cambios al azar en los
grados de libertad del ligando partiendo de una conformación inicial y, en algunos casos,
también en residuos del blanco molecular. La nueva conformación obtenida es evaluada con
la función de evaluación del docking, que analiza la energía de interacción en el complejo
Figura 6.3: Esquema de los datos que definen un cromosoma utilizado en algoritmos genéticos para búsqueda confor-
macional. Incluye las coordenadas del centro de masa (X, Y y Z), los cuaterniones que definen la orientación y rotación
del cuerpo rígido (q1, q2, q3 y q4) y los ángulos de torsión (t1 y t2) para la molécula de referencia.
Población Inicial
Docking Terminación
Entrecruzamientos y
mutaciones
Nueva generación
En una simulación por docking, la función de evaluación calcula en forma simplificada la ener-
gía de unión entre un ligando y un blanco molecular. Para ello utiliza cálculos basados en un
tratamiento clásico de las moléculas que tienen como principal ventaja el reducido costo compu-
tacional respecto a los estudios mecano-cuánticos, por lo que resultan muy útiles en el estudio
de sistemas donde intervienen macromoléculas.
Las funciones de evaluación aplicadas tradicionalmente se clasifican en tres grupos principa-
les: basadas en campos de fuerza (force field-based), empíricas y basadas en el conocimiento
Ecuación 6.1: Ejemplo de forma funcional para el cálculo de energía potencial. El primer término representa a la contri-
bución de interacciones de Van der Waals, el segundo a las de puente de hidrógeno, el tercero a las fuerzas electrostá-
ticas y el último a la desolvatación.
Las fuerzas de tipo Van der Waals son generalmente representadas mediante los potenciales de
Lennard-Jones, dependientes de la distancia interatómica rij. Estos potenciales, también conocidos
como potenciales 6-12 (en alusión a los exponentes numéricos) comprenden la suma de dos térmi-
nos, uno atractivo que prevalece a distancias largas y otro repulsivo que, por el contrario, predomina
a cortas distancias. La contribución electrostática está descripta en este caso como una formulación
Coulómbica entre las cargas puntuales qi y qj, con una función dieléctrica dependiente de la distancia
rij), que reduce la contribución de las interacciones carga-carga. Algunas funciones también incorpo-
ran un término correspondiente a las interacciones de puente de hidrógeno, las cuales pueden repre-
sentarse de distinta manera. Una de ellas determina la contribución de estas interacciones con un
potencial similar al de Lennard-Jones, pero con exponentes 10-12 y un valor de E(t) que depende del
ángulo t formado por los átomos que participan del puente de hidrógeno, ya que en este tipo de
fuerzas influye la direccionalidad del enlace.
Debe mencionarse que el cálculo de la energía libre de unión ligando-blanco molecular implica
también analizar la contribución entrópica del sistema. Esto resulta difícil de describir debido a la
Ecuación 6.2: Algoritmo que representa la pérdida de entropía conformacional en una función de evaluación de docking.
Para el cálculo de todas estas ecuaciones es necesario especificar parámetros que reflejen al
sistema real (por ejemplo Aij, Bij, E(t) etc.). Por tanto, dentro de la representación física de estas inter-
acciones es fundamental la tipificación de los átomos del sistema. A cada uno de ellos debe asignarse
lo que se llama “AtomType”, que tendrá asociado los parámetros incluidos en los distintos términos
de la ecuación general de energía potencial. En líneas generales AtomType además de contener
información sobre un determinado átomo debe incluir el estado de hibridación de éste lo que definirá
una geometría asociada a un potencial, como sp3 (tetraédrica), sp2 (trigonales), sp (lineales). Ade-
más, cada término contiene coeficientes optimizados mediante regresión lineal a partir de datos em-
píricos de energía libre de un conjunto de complejos ligando-proteína caracterizados experimental-
mente (coeficientes W en las ecuaciones 6.1 y 6.2).
tasa de falsos positivos, según varía el valor de corte. Al igual que para los métodos indirectos, a
medida que el área bajo la curva ROC del modelo se acerca al valor 1 (clasificación perfecta), mayor
será la capacidad discriminante del modelo seleccionado.
Otra herramienta de testeo de los programas es reproducir el modo de unión de un complejo
conocido, lo que permite validar el algoritmo de búsqueda. Así, si se cuenta con la estructura
experimental del complejo ligando-blanco molecular, una estrategia de validación es analizar la
capacidad de imitar la conformación experimental de dicho complejo luego de la realización del
docking con el programa seleccionado (re-docking).
Una vez validado el modelo, este puede utilizarse para predecir la interacción del blanco mo-
lecular en estudio con un candidato de interés o con bases de datos de pequeñas moléculas,
donde el número de moléculas activas (y sus modos de unión) es desconocido. Esto último se
denomina cribado virtual por métodos directos y será desarrollado en el apartado siguiente. A
continuación, se muestra un esquema de las etapas a desarrollar en un proceso de docking de
un ligando en un blanco molecular (Figura 6.5).
sitio de unión. Esto generalmente es posible gracias a información experimental o a datos de lite-
ratura, aunque debe mencionarse que en ciertos casos el sitio de unión se desconoce y puede
plantearse un docking ciego sobre toda la macroestructura o el uso de otros programas que buscan
posibles sitios de unión dentro de una proteína. La siguiente etapa requiere preparar el potencial
ligando, esto es, moléculas orgánicas pequeñas que deben estar debidamente protonadas al pH
de trabajo y debe analizarse si existen posibles isómeros o tautómeros de las mismas que deban
también dockearse. La tercera etapa, que es la parte medular del método, consiste en el docking
propiamente dicho: el algoritmo (previamente validado) ubica al ligando dentro del sitio de unión en
una gran cantidad de orientaciones/conformaciones y con su función de evaluación realiza un ran-
king de los posibles modos de unión del candidato. Finalmente se analizan los resultados y se
evalúa la capacidad del ligando de interaccionar con el sitio activo.
Las etapas iniciales para realizar un cribado virtual mediante docking coinciden con las necesa-
rias para realizar la simulación con una única molécula. Sin embargo, dado que el procedimiento
devuelve una gran cantidad de posibles candidatos ordenados de acuerdo con su función de eva-
luación, resulta muy importante realizar un análisis previo de las capacidades de los programas
para seleccionar compuestos que sean verdaderamente activos. Es decir, luego de la etapa de la
validación del programa se debe encontrar un valor de corte (esto es, un valor de la función de
evaluación límite) a partir del cual los compuestos se predicen activos. Este valor límite tendrá
asociado un determinado porcentaje de sensibilidad y especificidad que satisfaga los requerimien-
tos del investigador. Como ya se mencionó para el caso de métodos indirectos, la sensibilidad
representa la tasa de compuestos activos pertenecientes al conjunto de testeo clasificados correc-
tamente (es decir que superan el valor de corte) y la especificidad muestra la tasa de compuestos
inactivos clasificados correctamente (que no superan el valor límite). Podemos resumir las etapas
de un cribado virtual por docking como las siguientes (Figura 6.6):
1) Obtención de la estructura tridimensional del receptor. Como se discutió ampliamente al co-
mienzo de este capítulo, la estructura puede estar determinada de forma experimental o alternativa-
mente, se puede recurrir a alguna metodología de predicción como el modelado por homología.
2) Selección y validación del programa de docking que mejor se ajusta a nuestro sistema
en estudio. Siempre que sea posible se debe validar tanto el algoritmo de búsqueda (re-
docking) como la función de evaluación (conjunto de prueba o testeo). En esta etapa se
realiza el cálculo de curva ROC y métricas de enriquecimiento del mismo modo que se utili-
zan en los métodos indirectos.
3) Selección del valor de corte óptimo de la función de evaluación para discriminar entre acti-
vos e inactivos según las preferencias del investigador (relación sensibilidad/especificidad ade-
cuada). Una vez validado el modelo, ya puede utilizarse para realizar el cribado virtual, es decir,
predecir la interacción de nuestro blanco molecular con bases de datos de pequeñas moléculas
donde el número de moléculas activas (y sus modos de unión) es desconocido.
4) Descarga de las representaciones digitales de las estructuras químicas de la base de datos
a cribar y pre-tratamiento de todos los ligandos para definir el estado de protonación, los tautó-
meros e isómeros (en caso de poseer más de uno), cálculo de cargas soportadas por cada átomo
y minimización energética.
5) Docking de todos los compuestos de la base de datos utilizando el modelo desarrollado
y validado.
6) Ordenamiento de los compuestos según su valor de función de evaluación o score (de más
negativo a más positivo).
7) Selección de los mejores candidatos (compuestos mejor rankeados con score más nega-
tivo) para su evaluación experimental. En este punto, además del score, se deben analizar las
interacciones del compuesto en el sitio activo según la predicción del docking. Finalmente, la
predicción del docking se combina con la experticia del investigador junto al conocimiento basado
en la literatura para la selección final de los candidatos a evaluar experimentalmente.
Figura 6.6: Esquema de las etapas del cribado virtual mediante docking molecular
Si bien las técnicas de docking se presentan como las más atractivas desde el punto de
vista gráfico, las mismas muestran tres grandes limitaciones. La primera de ellas es de
carácter coyuntural y tiene que ver con que la mayoría de las estructuras proteicas disponi-
bles experimentalmente corresponden a proteínas solubles, dada la dificultad intrínseca li-
gada a la obtención de proteínas de membrana y transmembrana como canales iónicos,
transportadores de eflujo, etc., en forma de cristales ordenados. La segunda limitación res-
ponde al costo computacional de la técnica comparada con los métodos indirectos, ya que
es prácticamente imposible evaluar una gran cantidad de conformaciones de los ligandos
cuando se trabaja con grandes bases de datos (como, por ejemplo, ZINC). En otras pala-
bras, la metodología no permite analizar una gran cantidad de moléculas en un corto período
de tiempo. Finalmente, la capacidad de predicción de los programas de docking es alta-
mente dependiente del blanco molecular. La limitada exactitud de los programas de docking
tiene su origen en las relativamente simples funciones de evaluación, que no logran reflejar
completamente los fenómenos de desolvatación y reorganización del receptor y no capturan
adecuadamente los factores entrópicos. Además, la mayor parte de las funciones de eva-
luación no consiguen modelar la unión de inhibidores covalentes ni iones. Todas estas limi-
taciones redundan en una alta tasa de falsos positivos.
Por otra parte, pese a que la utilización en cribado virtual de los métodos basados en la
estructura y los métodos basados en ligandos individualmente han demostrado un inmenso
potencial para recuperar hits iniciales, se hace evidente que muchas veces estos procedi-
mientos no pueden cumplir todos los requisitos prácticos del descubrimiento de fármacos
por sí solos. Además, con el aumento continuo del tamaño de las bibliotecas virtuales a
cribar y el costo computacional asociado con algunos enfoques de cribado, especialmente
del docking flexible, es indispensable integrar diferentes enfoques de cribado para filtrar
compuestos. Los métodos mixtos, híbridos o combinados conjugan metodologías basadas
en el ligando y basadas en la estructura de forma secuencial o paralela para realizar el
cribado. Alternativamente se pueden combinar de forma secuencial o paralela métodos del
mismo tipo. La forma más común de combinar estos métodos es usarlos en un embudo
secuencial similar a lo que comúnmente se conoce como cribado virtual jerárquico o en
cascada (HLVS, por sus siglas en inglés hierarchical virtual screening). Esta estrategia se
basa en la aplicación secuencial de una serie de filtros computacionales para reducir una
gran base de datos de pequeñas moléculas a un número de compuestos suficientemente
pequeño (y promisorio) como para poder avanzar a los ensayos experimentales (Figura
6.7.A). En su mayoría, se utilizan enfoques basados en ligandos de bajo costo computacio-
nal, como la búsqueda por similitud, el screening farmacofórico o modelos QSAR durante
los pasos iniciales de un protocolo HLVS. Los métodos que requieren recursos computacio-
nales comparativamente altos, como el docking molecular e incluso la simulación de diná-
mica molecular, se utilizan una vez que el número de compuestos a analizar disminuye a
un número razonable. La implementación de HLVS mixto es particularmente ventajoso en
los casos en los que se cuenta tanto con información de ligandos como información estruc-
tural, ya que toma en cuenta toda la información disponible en la identificación de nuevos
hits, mejorando el rendimiento del cribado virtual al disminuir el número de falsos positivos
y aumentar los verdaderos positivos, optimizando tiempos y recursos.
A diferencia del HLVS, en el cribado virtual paralelo (PVS) se ejecutan en paralelo varios
métodos complementarios y los mejores hits rankeados según cada método se seleccionan para
ser evaluados experimentalmente (Figura 6.7.B).
Figura 6.7: Cribado virtual mixto: integración de enfoques basados en el ligando y basados en la estructura. (A)
Cribado virtual jerárquico (HLVS): una serie de filtros se aplican secuencialmente para reducir el número de com-
puestos que se seleccionarán para su evaluación experimental. Usualmente los métodos basados en ligandos, de
menor costo computacional, se aplican en las primeras etapas, seguidos por los métodos basados en la estructura
de mayor costo de cálculo. (B) Cribado virtual paralelo (PVS): los filtros basados en el ligando y en la estructura
se aplican de forma independiente en el mismo (o similar) número de compuestos.
4. Dinámica molecular
La dinámica molecular clásica es una herramienta también basada en la mecánica molecular,
la cual realiza la simulación de la interacción de átomos y moléculas a lo largo del tiempo. A
diferencia del docking, en este tipo de simulaciones es posible calcular propiedades dinámicas,
estructurales y termodinámicas del sistema en estudio. Para ello se genera información a nivel
microscópico (como la posición y el momento de cada partícula) y mediante el uso de la mecánica
estadística se la relaciona con observables a nivel macroscópico. En otras palabras, para cono-
cer las propiedades dinámicas y termodinámicas globales de un sistema, resulta necesario co-
nocer la probabilidad de hallar a dicho sistema en cada uno de sus estados microscópicos posi-
bles. Debe entonces construirse un gran conjunto de réplicas del sistema para generar un agru-
pamiento de microestados (o ensamble) sobre el cual puedan calcularse las propiedades como
un promedio. En la práctica, la construcción de este ensamble resulta imposible mediante simu-
laciones computacionales. Sin embargo, la dinámica molecular aporta los medios necesarios
para poder estudiar la evolución temporal de un estado microscópico. Esto permitirá que el sis-
tema pase por diferentes microestados accesibles y con ellos calcular un promedio de las pro-
piedades en el tiempo. Esta idea de que un promedio temporal de una propiedad (a tiempo infi-
nito) es igual al promedio del ensamble completo constituye la hipótesis ergódica de la mecánica
estadística. Dado que no podrá lograrse una simulación a tiempo infinito, el muestreo de micro-
estados obtenido por dinámica molecular será incompleto, y esto debe tenerse en cuenta sobre
todo cuando se deseen calcular en forma muy precisa propiedades que dependan de estados
de alta energía relativa.
La dinámica molecular genera las configuraciones de un sistema mediante la resolución de
las ecuaciones de movimiento. Mediante la integración de la ecuación que representa la segunda
ley de Newton (Ecuación 6.3) puede calcularse la trayectoria, es decir, la variación a través del
tiempo de la posición y la velocidad de las partículas. Para esto es necesario conocer la fuerza
que actúa sobre cada partícula, la cual en el caso de un sistema complejo como una macromo-
lécula varía cada vez que estas cambian de posición.
Ecuación 6.3: Ecuación que representa la segunda ley de Newton. Xi es la coordenada de la partícula i, t es el tiempo,
Fxi es la fuerza sobre la partícula en la coordenada xi y mi es la masa de la partícula.
Figura 6.8: Esquema del cálculo de las posiciones de los átomos mediante dinámica molecular.
1 cos
2 4
á
Ecuación 6.4: Ejemplo de forma funcional de un campo de fuerza utilizado en la dinámica molecular.
Tal como en el caso del docking molecular, la forma funcional de los campos de fuerza con-
tiene parámetros cuyos valores varían según los tipos de átomos y usualmente son obtenidos
utilizando datos experimentales o mediante cálculos mecano-cuánticos. Dado que en estos sis-
temas las fuerzas sobre cada átomo se modifican con el cambio de posición de la partícula (o de
sus vecinas) existe un acoplamiento entre los movimientos que impide una resolución analítica
de la ecuación de Newton (Ecuación 6.3). En estas circunstancias las ecuaciones de movimiento
se resuelven usando el método de diferencias finitas, cuya idea principal consiste en partir la
integración en pequeños intervalos de tiempo fijo t, dentro de los cuales las fuerzas se asumen
constantes. Una vez calculada la fuerza en este segmento es posible determinar la aceleración
de las partículas y mediante el conocimiento de las posiciones y velocidades a un tiempo t es
posible calcular las posiciones y velocidades a tiempo t + δt. Esto implica que la simulación
“avanza en el tiempo” y el proceso puede repetirse un número predefinido de ciclos para generar
el ensamble de conformaciones (Figura 6.8).
Resulta útil mencionar aquí que en los sistemas biológicos raras veces las macromoléculas
se encuentran aisladas y suelen estar inmersas en un entorno de membrana o de moléculas de
aguas. A diferencia del docking, la dinámica molecular permite analizar la influencia del entorno
mediante el uso de moléculas de solvente en forma explícita. Por ejemplo, es muy probable que
en un entorno acuoso exista un apantallamiento de las interacciones electrostáticas entre dos
átomos expuestos al solvente; o que moléculas de agua sean partícipes de interacciones del tipo
puente de hidrógeno con el ligando o el blanco molecular. Estas consideraciones hacen de la
dinámica molecular una herramienta más precisa a la hora de estudiar la estructura, la dinámica
y la termodinámica de sistemas biológicos.
Adicionalmente, la dinámica molecular permite analizar a los blancos moleculares como es-
tructuras flexibles, a diferencia del docking molecular donde dicha flexibilidad no se tiene en
cuenta o se considera parcialmente. Es por eso que en la actualidad el docking molecular es
recomendable como herramienta para el cribado virtual de grandes bases de datos (ya sea como
metodología única o como parte de un protocolo de cribado mixto), pero debe recurrirse a la
dinámica molecular para la optimización de fármacos, pues esta última metodología permite un
estudio mucho más profundo de las interacciones ligando-blanco molecular responsables de la
acción biológica.
Referencias
Anfinsen, C. B. (1973). “Principles that govern the folding of protein chains". Science, 181,
pp. 223-230.
Di Ianni, M. E. (2015). Topología molecular aplicada a la búsqueda de nuevos fármacos para el
tratamiento de la epilepsia refractaria (Tesis doctoral). Recuperada del repositorio institucional
de la Universidad Nacional de La Plata.
Kitchen, D. B., Decornez, H., Furr, J. R., Bajorath, J. (2004) “Docking and scoring in virtual
screening for drug discovery: methods and applications". Nature reviews. Drug discovery,
3, pp. 935-949.
Kumar A., Zhang K. Y. (2015). “Hierarchical virtual screening approaches in small molecule drug
discovery”. Methods. 71, pp 26-37.
Palestro, P. H. (2016). Búsqueda de nuevos anticonvulsivos a partir de métodos computacio-
nales (Tesis doctoral). Recuperada del repositorio institucional de la Universidad Nacional
de La Plata.
Un profármaco ideal será aquel donde el compuesto activo (el fármaco) se une a un transpor-
tador mediante un enlace covalente lábil (carrier-linked prodrugs) (Figura 7.1). Dicho enlace debe
ser lo suficientemente lábil, y al mismo tiempo lo suficientemente estable, para permitir la liberación
efectiva del fármaco in vivo. Tanto el profármaco como el transportador no deben ser tóxicos una
vez liberado el fármaco, ni conducir a metabolitos tóxicos. Por último, debe ser inactivo in vitro.
Figura 7.1: Representación del concepto de profármaco para superar o minimizar las barreras en el desarrollo
de un fármaco.
El diseño de profármacos ofrece una alternativa válida para incorporar a la terapéutica aque-
llos compuestos que por alguna causa no pudieron pasar las fases clínica I, II o III; o que, ha-
biéndolas pasado, en el posterior uso durante la fase IV, se observan efectos adversos o limita-
ciones. Es decir, los profármacos pueden rescatar a estructuras activas en los modelos biológi-
cos pero que presentaron inconvenientes en el uso en humanos.
2. Clasificación de profármacos
Podemos dividir a los profármacos en dos clases: aquellos que se unen a un transportador y
los que se denominan bioprecursores.
Figura 7.2: Concepto esquemático de la bioconversión de profármacos basados en un éster del ácido carboxílico corres-
pondiente (reacción superior) y un éster de un alcohol (reacción inferior), cada uno de los cuales puede utilizarse como
un transportador o fármaco.
Son aquellos que resultan de la modificación de la estructura molecular del fármaco y nece-
sitan una activación metabólica en el organismo (ej. oxidación, reducción) para regenerar el prin-
cipio activo.
Un ejemplo de este tipo de profármaco es el Omeprazol, un potente inhibidor de la secreción de
ácido del estómago (Esquema 7.1), el cual es activado de forma selectiva en el medio ácido de la
mucosa del estómago dando lugar a una sulfenamida tras una serie de reacciones químicas. Esta
sulfenamida es la especie activa que presenta el efecto inhibidor en la bomba de protones.
Figura 7.3: Modificación estructural del antimicótico de uso local Tioconazol que originó al Fluconazol, agente antifún-
gico utilizado en forma sistémica.
Figura 7.4: Profármacos de antiinflamatorios A. Éster fosfato de Dexametasona. B. Éster fosfato de Oxifenbutazona.
La unión de aminoácidos a fármacos insolubles en agua por medio de un enlace éster es otra
estrategia comúnmente empleada. A pH fisiológico, el aminoácido presente en el profármaco se
encuentra ionizado, aumentando la solubilidad en agua de la molécula. Este tipo de estrategia
presenta la ventaja de que, una vez activado el fármaco in vivo, el transportador liberado (un
aminoácido o un oligopéptido) no presenta toxicidad en el organismo.
En cuanto a los grupos moduladores neutros para aumentar la solubilidad del fármaco en
agua, usualmente se utilizan dioles, polioles y polímeros como los polietilenglicoles (PEG). Un
ejemplo en la mejora de la solubilidad acuosa con grupos neutros se observa en los profármacos
de Paclitaxel, un anticancerígeno, esterificado con PEG (Figura 7.5).
Figura 7.5: Fármaco Paclitaxel y su profármaco PEG-paclitaxel, el cual presenta una mejor solubilidad acuosa.
Para que un fármaco administrado por vía oral llegue a circulación sistémica tiene que atra-
vesar la membrana del tracto gastrointestinal. La capacidad de un fármaco para atravesar dicha
membrana está directamente relacionada con la lipofilia de la molécula. Por ello, aumentar la
lipofilia de un fármaco es una estrategia empleada con frecuencia para mejorar el transporte
pasivo en el intestino en casos de fármacos portadores de grupos polares como ácidos carboxí-
licos, fosfonatos, o de derivados nucleosídicos. En estos casos se diseñan profármacos que en-
mascaran los grupos polares ionizables, teniendo en cuenta el balance que debe haber entre la
solubilidad en agua necesaria para su disolución en el tracto gastrointestinal y el aumento de
lipofilia necesario para su posterior absorción por difusión pasiva.
Existen numerosos casos de profármacos diseñados mediante esta estrategia. Por ejemplo,
los análogos de nucleósidos utilizados para el tratamiento de infecciones virales, los cuales pre-
sentan baja absorción por vía oral. Uno de ellos es el Aciclovir, para el cual se desarrolló el
profármaco Valaciclovir (Figura 7.6). El cambio estructural consistió en generar una función éster
Figura 7.6: Profármacos de antivirales esterificados con aminoácidos para aumentar su absorción intestinal.
En el caso del antiviral Penciclovir, este presenta una biodisponibilidad del 4% cuando es
administrado por vía oral en humanos. Sin embargo, su profármaco Famciclovir (Esquema 7.3),
en el cual los dos grupos hidroxilo primarios se acetilaron y el grupo carbonilo de la posición 6
de la base fue eliminado, muestra un gran aumento en su biodisponibilidad oral (75%).
Esquema 7.4: Hidrólisis enzimática del profármaco Enalapril a su forma activa Enalaprilato.
La rápida descomposición metabólica del fármaco también puede protegerse mediante una
estructura de profármaco. Esto se realiza mediante el enmascaramiento de los grupos funciona-
les metabólicamente lábiles. Este es el caso del Bambuterol, profármaco del broncodilatador
Terbutalina, que presenta sus grupos fenólicos enmascarados en forma de carbamatos. Con la
administración de una única dosis diaria del profármaco se consigue el mismo efecto que con la
administración de tres dosis de Terbutalina. El profármaco es hidrolizado a Terbutalina por acción
de colinesterasas no específicas (Esquema 7.5).
Otro enfoque para mantener un nivel sostenido de un fármaco en sangre durante períodos de
tiempo prolongados es asociar deliberadamente un grupo muy lipofílico al fármaco, generando así
un profármaco. De esta manera, el profármaco tiende a almacenase en el tejido graso desde donde
se libera de manera constante y lenta hacia el torrente sanguíneo, donde finalmente se convierte
en el compuesto activo. Ejemplo de ello es el éster lipofílico del fármaco antipsicótico Flupenazina
(Figura 7.7). El profármaco se administra por vía intramuscular y pasa lentamente desde el tejido
graso a circulación sistémica, donde se hidroliza rápidamente generando la forma activa.
Por otra parte, una de las limitaciones de los fármacos es la inespecificidad de su acción o
falta de selectividad. Mediante el uso de profármacos es posible direccionar el compuesto activo
hacia tejidos específicos, tal que el mismo se libere preferentemente en el sitio de acción, evi-
tando así altas concentraciones sistémicas del compuesto activo, y de esa manera, reduciendo
los efectos secundarios por interacciones inespecíficas. Por ejemplo, dirigir un fármaco al sis-
tema nervioso central (SNC) es una tarea compleja, debido a la presencia de la barrera hema-
toencefálica, encargada, entre otras cosas, de impedir el paso de agentes externos desde el
sistema sanguíneo al cerebro. Sin embargo, el conocimiento de los mecanismos de transporte y
de la actividad enzimática en dicha barrera puede permitir elevar los niveles de un fármaco en el
SNC empleando una aproximación profármaco adecuada. Esta estrategia se ha utilizado con la
Dopamina, fármaco empleado en pacientes con la enfermedad de Parkinson, que no atraviesa
la barrera hematoencefálica. El profármaco de Dopamina, denominado Levodopa, atraviesa
tanto el tracto gastrointestinal como la barrera hematoencefálica debido a que es sustrato del
transportador de aminoácidos neutros LAT1 expresado en ambos sitios. Una vez en el tejido
cerebral, la Levodopa es descarboxilada a Dopamina (Esquema 7.7). Adicionalmente, para evitar
los efectos sistémicos de la Dopamina y aumentar su biodisponibilidad en el SNC (dado que sólo
una pequeña parte de la Levodopa entra al cerebro), se administra asociada a inhibidores peri-
féricos de la descarboxilasa como Beserazida y Carbidopa, aumentando su tolerancia y efectivi-
dad clínica.
Por otra parte, en la actualidad, uno de los retos en la quimioterapia del cáncer es el transporte
selectivo del fármaco a las células tumorales sin afectar a las células sanas, como una forma de
reducir los graves efectos adversos de los fármacos quimioterápicos. Las células tumorales pre-
sentan ciertas diferencias respecto a las células sanas, ya que su alta tasa de proliferación y su
actividad biorreductora hacen que ciertas enzimas estén sobreexpresadas y puedan ser emplea-
das para la activación selectiva de profármacos en dichas células tumorales. Un buen ejemplo
de profármaco activado por enzimas específicas de tumores es la Capecitabina, que se adminis-
tra por vía oral a pacientes con cáncer de mama y colorrectal metastásico. La Capecitabina es
un profármaco del 5-fluorouracilo que tras su absorción oral experimenta tres pasos de activa-
ción, dando lugar a altas concentraciones de 5-fluorouracilo en el tumor. Estas etapas de activa-
ción son: (a) hidrólisis en el hígado por acción de carboxilesterasas, (b) desaminación en el hí-
gado y en células tumorales mediada por la citidina desaminasa y (c) liberación específica de 5-
fluorouracilo en las células tumorales por acción de la enzima timidina fosforilasa (sobreexpre-
sada en dichas células) (Esquema 7.8).
Referencias
Cabrera, S. (2010). Profármacos: pasado, presente y futuro. Anales de Química. 2010, 106(3),
207–214.
Patrick,G.L (2013). An Introduction to Medicinal Chemistry 5th Edition. Ed. Oxford University
Press. ISBN: 978-0-19-969739-7.
Samaja,G. (2011). Noveles heterociclos con actividad anticonvulsivante derivados del Myo-
inositol y Ácido Valproico (tesis doctoral). Recuperada del repositorio institucional de la Uni-
versidad Nacional de La Plata.
Los estudios preclínicos constituyen un programa para evaluar la eficacia y seguridad de com-
puestos seleccionados con probabilidad de ser un fármaco. Este programa está sujeto a continuos
cambios basados en el progreso del conocimiento científico, y se adapta a múltiples intereses de la
comunidad científica, de la industria farmacéutica, y de las autoridades regulatorias.
Una vez identificados y seleccionados los compuestos candidatos a nuevos fármacos, se lle-
varán a cabo las pruebas experimentales para determinar los perfiles farmacodinámicos, farma-
cocinéticos y toxicológicos siguiendo los siguientes pasos:
Entre las técnicas de screening de alto rendimiento usadas para recopilar datos farmacoci-
néticos de múltiples candidatos a fármacos en un solo experimento se encuentra el Cassette
dosing, o dosificación en casete. El típico estudio farmacocinético cassette dosing involucra la
administración simultánea de 5 a 10 compuestos a cada animal de un grupo de animales. Se
obtienen muestras de sangre en serie y se utilizan técnicas de cromatografía de líquidos con
espectrómetro de masas para medir la concentración de los analitos en cada muestra. Por lo
tanto, en lugar de ejecutar 5-10 estudios de farmacocinética separados, se puede obtener una
cantidad similar de información de un solo estudio. Esta metodología puede facilitar la evalua-
ción rápida de muchos compuestos con menor número de animales, aunque también presenta
inconvenientes:
En primer lugar, generalmente los 5-10 candidatos evaluados son de estructura química si-
milar. Debido a las similitudes estructurales, las interacciones metabólicas de fármacos son más
probables. Es probable que las estructuras comunes usen vías metabólicas similares que pueden
conducir a la saturación de las mismas, lo que da lugar a bajos valores de aclaramiento. Esto
puede sugerir que los fármacos tienen tiempos de residencia más largos de lo que se esperaría
cuando se dosifican por separado.
En segundo lugar, la dosificación oral presenta el problema adicional de las interacciones
relacionadas con la absorción y el metabolismo de primer paso, por lo que es preferible usar la
dosificación intravenosa (IV) para el experimento. Sin embargo, en muchos casos la solubilidad
del compuesto impide la preparación de una formulación IV aceptable.
En tercer lugar, los desafíos analíticos se magnifican con la dosificación en casete. Los avan-
ces en la espectrometría de masas en los últimos 15 años han reducido la necesidad de separa-
ción cromatográfica en una columna. Sin embargo, con compuestos estructuralmente similares
que difieren por pequeñas diferencias de peso molecular, puede haber problemas con la identi-
ficación de cada uno de ellos. Estas cuestiones pueden resolverse, pero por lo general requieren
un trabajo analítico adicional para asegurar que se produzca una separación temporal de los
analitos en la columna.
La dosificación de casete ha generado controversias debido a las preocupaciones respecto a
los errores que posee. Algunos informes afirman que se obtienen datos farmacocinéticos fiables,
pero sólo unos pocos han demostrado realmente una correspondencia razonable de los paráme-
tros farmacocinéticos obtenidos de la dosificación de casete y la dosificación convencional de un
solo compuesto. Sin embargo, esta técnica sigue siendo una herramienta útil para evaluar la
farmacocinética comparativa de una serie de compuestos. Ha sido utilizada satisfactoriamente
para evaluar la farmacocinética de un amplio rango de estructuras químicas en múltiples espe-
cies incluidas ratas, ratones, perros y monos.
En cada paso, el compuesto tendrá que cumplir con criterios de “comportamiento” específicos
para poder proseguir con los estudios.
Tal como en el ejemplo mencionado, la batería de ensayos que se realiza a un nuevo fármaco
puede incluir estudios in vitro y estudios in vivo.
Estudios in vitro
Los estudios in vitro (del latín: dentro del vidrio) se refieren a técnicas para realizar experi-
mentos en un ambiente controlado fuera de un organismo vivo. Apuntan a describir los efectos
de una variable experimental en un subconjunto de las partes constitutivas de un organismo, con
una tendencia a enfocarse en órganos, tejidos, células, componentes celulares, proteí-
nas y/o biomoléculas. Son apropiados, por ejemplo, para deducir un mecanismo de acción, de-
bido a que presenta menos variables y reacciones amplificadas, obteniendo resultados más dis-
cernibles. La principal ventaja de los modelos in vitro es que permiten un enorme nivel de simpli-
ficación del sistema de estudio, por lo que el investigador puede centrarse en un pequeño número
de componentes. Por ejemplo, la identidad de las proteínas del sistema inmune (por ejemplo,
anticuerpos), y el mecanismo por el cual se reconocen y se unen a los antígenos extraños, se-
guiría siendo muy oscuro si no fuera por el uso extensivo de técnicas in vitro para aislar las
proteínas, identificar las células y los genes que las producen, el estudio de su interacción con
los antígenos, e identificación de cómo las interacciones conducen a las señales celulares que
activan otros componentes del sistema inmune.
Otra ventaja de los ensayos in vitro es que requieren pequeñas cantidades de los compuestos
a ensayar.
La principal desventaja de los estudios experimentales in vitro es que a veces puede ser muy
difícil extrapolar los resultados a la biología del organismo intacto. Los investigadores deben ser
cuidadosos para evitar la mala interpretación de sus resultados, que a veces puede llevar a con-
clusiones erróneas acerca de organismos y biología de sistemas.
Estudios in vivo
In vivo (latín: dentro de lo vivo) significa “que ocurre o tiene lugar dentro de un organismo”.
En ciencia se refiere a experimentación hecha dentro de un organismo vivo completo, usual-
mente animales, el ser humano o plantas.
La capacidad de reproducir enfermedades humanas en modelos animales presenta una
gran ventaja para la medicina experimental moderna. El modelo animal ideal es un modelo que
reproduce el desorden humano en todos los aspectos. Alternativamente, el modelo animal po-
dría ser isomorfo, cuando el trastorno se replica pero no la etiología subyacente (que en mu-
chas enfermedades es insuficientemente conocida o no se conoce en absoluto); o predictivo,
cuando no se asemeja al trastorno humano, pero permite predicciones acerca del mismo o de
la respuesta al tratamiento.
Los compuestos que pasan satisfactoriamente por los procedimientos iniciales de selección y
perfil farmacológico deben evaluarse para identificar los efectos nocivos que producen sobre las
estructuras y funciones de los sistemas vivos. El objetivo de los estudios de toxicidad es establecer
dichos efectos en diferentes especies animales, anticipar posibles efectos tóxicos en el hombre y
decidir si el nuevo fármaco es razonablemente seguro para su experimentación clínica.
Aunque ningún producto químico es completamente seguro (debido a que todas las sustan-
cias son tóxicas y solo la dosis determina la toxicidad), con frecuencia es posible estimar el
riesgo o peligro potencial que un agente químico puede ocasionar sobre la salud humana
cuando es objeto de exposición aguda o crónica. Para este propósito se utilizan animales ex-
puestos a dosis únicas (toxicidad aguda) o repetidas (subaguda, subcrónica y crónica) del fár-
maco por la vía de administración que se pretende emplear en el humano. Si se piensa admi-
nistrar el fármaco por varias vías se deben hacer los estudios correspondientes en cada vía
empleada, al menos de toxicidad aguda y subaguda (hasta 4 semanas de exposición). En los
El animal de laboratorio es una de las piezas fundamentales en las ciencias biomédicas. Son
usados como modelos para investigar y comprender las causas, diagnóstico y tratamiento de
enfermedades que afectan al humano y a los animales, además de sus importantes aportes en
la docencia biológica y en el desarrollo, producción y control de medicamentos, alimentos y otros
insumos, donde en muchos casos hasta la fecha son insustituibles.
El uso de los animales de laboratorio en las investigaciones biomédicas representa un ele-
mento fundamental en el desarrollo de importantes avances en la prevención y tratamiento de
las enfermedades transmisibles y no transmisibles. Basta recordar las vacunas de la rabia, vi-
ruela, tétanos, difteria, tos convulsa y poliomielitis; el desarrollo de diversos antibióticos, la insu-
lina y el conocimiento de las bases genéticas de la herencia. Los avances de la investigación en
cáncer, cardiología, trasplantes de órganos, síndrome de inmunodeficiencia adquirida, enferme-
dad de Alzheimer, etc. se deben también a las contribuciones de los estudios realizados en ani-
males de laboratorio. Estos animales son para el investigador un reactivo biológico, por lo que
su pureza debe ser vigilada, controlada y contrastada, al igual que cualquier reactivo, sin descui-
dar su posible contaminación biótica. Por esta razón se requiere la producción de animales “es-
tandarizados o definidos” con características genéticas y sanitarias definidas, criados en ambien-
tes controlados que respeten los requerimientos de la especie, con el correcto cumplimiento de
los principios éticos y de bienestar animal.
Dentro de los modelos de experimentación sin duda el ratón es el más conocido y utilizado
en la mayor parte de las experiencias in vivo. Es en general el modelo elegido para conocer la
reacción de un organismo mamífero frente a una agresión, una intoxicación o una infección ex-
perimental (parasitaria, bacteriana o vírica); o a reacciones o trastornos inmunológicos, oncolo-
gía, teratología y embriología. Muchos investigadores consideran al ratón como un modelo ani-
mal casi perfecto porque además de su corto tiempo generacional, alta performance reproductiva
y fácil mantenimiento, son los animales más sofisticados que pueden ser utilizados por los inves-
tigadores. La rata ocupa el segundo lugar, la cual se emplea además en investigaciones nutri-
cionales, comportamentales y endocrinológicas. El conejo es utilizado fundamentalmente en la
producción de antisueros; farmacología; toxicología; teratogenicidad y reproducción. Los coba-
yos son modelos de estudios inmunológicos, farmacológicos y nutricionales. El hamster se utiliza
fundamentalmente en la reproducción, citogénesis e inmunología.
En la actualidad se ha desarrollado y perfeccionado una gran variedad de modelos animales,
a fin de cubrir las exigencias de los investigadores para llevar a cabo los experimentos cada vez
más sofisticados. Existen más de 478 cepas consanguíneas de ratón y 234 de rata de laboratorio.
Dentro de éstas, las hay de uso general o especial, como los modelos para enfermedades auto-
imnunes, endócrinas y tumorales. También se destacan los híbridos F1, cepas congénitas, coiso-
génicas, transgénicos y knock-out.
Idealmente, el modelo debe ser homólogo, es decir, que los signos y la evolución de la con-
dición que se está estudiando en el animal sean idénticos a los de la especie original, aunque
esto no es muy frecuente y se suelen utilizar modelos parciales, no capaces de imitar completa-
mente el proceso, pero permiten el estudio de ciertos aspectos de la condición evaluada.
o puede ser necesaria antes de finalizado el mismo, por razones de dolor o distrés, en todo caso
que no pueda ser aliviado con analgésicos o sedantes u otros tratamientos.
La mayoría de los estudios preclínicos se realizan en las instalaciones de las grandes com-
pañías farmacéuticas. Sin embargo, suelen recurrir a centros especializados de investigación por
contrato (CROs) que cuentan con el material y la tecnología necesaria para la realización de
estudios complejos.
En Argentina contamos con una plataforma tecnológica (PPL) financiada por el Ministerio de Cien-
cia, Técnica e Innovación Productiva, conformada por la Universidad de Buenos Aires, el Consejo
Nacional de Investigaciones Científicas y Técnicas y la Universidad Nacional de La Plata (EBAL).
Esta plataforma tiene como objetivo mejorar la calidad de los animales de laboratorio que se emplean
en nuestro país y realizar ensayos preclínicos acorde con la normativa de la Administración Nacional
de Alimentos, Medicamentos y Tecnología Médica (Disposición 6677/2010) y con los criterios fijados
por la International Conference for the Harmonization of Technical Requirements for Registration of
Pharmaceuticals for Human Use (ICH) bajo el marco de las Buenas Prácticas de Laboratorio (BPL)
(http://www.ebal.com.ar/index.php)
Los estudios preclínicos se llevan a cabo según las buenas prácticas de laboratorio (GLP), en
condiciones ambientales muy especiales para garantizar que no interfieran factores ajenos al
fármaco ensayado y con la participación multidisciplinaria de farmacólogos, veterinarios, farma-
céuticos, químicos analíticos, anatomopatólogos, etc. Sin embargo, el uso de animales, particu-
larmente en estudios de toxicología ha sido criticado debido a la percepción de crueldad que
conllevan. En respuesta a este reclamo, y con el propósito de reducir el número de animales
sacrificados en los estudios preclínicos, se recomienda a los grupos de investigación no duplicar
estudios y evitar aquellos que son irrelevantes en el hombre por extrapolación. Además, en los
casos en que sea posible se deben utilizar métodos alternativos, como ensayos en cultivos de
diferentes líneas de células humanas, que incrementen la calidad de los ensayos y de la infor-
mación. Por último, los objetivos actuales de la farmacología preclínica han sido redefinidos hacia
propósitos más humanos como, por ejemplo, que la muerte no sea un objetivo en los estudios
de toxicidad aguda.
y dolor; libertad de lesión y enfermedad; libertad de miedo y angustia y libertad de expresar pa-
trones de conducta esenciales para la especie. Tanto la última de las 5 libertades como el prin-
cipio de Refinamiento tienen directa relación con el enriquecimiento ambiental, que se define
como cualquier modificación en el ambiente de animales cautivos con el fin de proveerle estímu-
los y mejorar su bienestar físico y psicológico. Animales privados de realizar conductas naturales
específicas para su especie han mostrado signos de sufrimiento como alteraciones conductua-
les, estrés crónico y otras condiciones patológicas que pueden perturbar los resultados obtenidos
en una investigación. Existen enriquecimientos sociales, físicos, sensoriales, nutricionales, ocu-
pacionales y cognitivos. El enriquecimiento a seleccionar debe ser específico para cada especie,
considerando también características como raza, género, edad, estatus social, tipo de interacción
del animal con su medio y variaciones individuales, por lo que los elementos y programas incor-
porados deberían estar comprobados y validados para tal fin.
Referencias
Coordinadora
Gavernet, Luciana
Licenciada en Química (2001) y Doctora de la Facultad de Ciencias Exactas – Universidad Na-
cional de La Plata (UNLP) (2006). En 2009 ingresó a la Carrera del CONICET y actualmente
reviste la categoría de Investigadora Adjunta. Desde 2018 es Profesora Titular a cargo de la
asignatura Química Medicinal de la Facultad de Ciencias Exactas (UNLP). Ha publicado más de
30 artículos en publicaciones científicas y más de 70 presentaciones a congresos. Ha recibido
subsidios de financiamiento científico y premios entre los cuales se encuentra el premio “Ciencia,
Tecnología e Innovación 2017” otorgado a investigadores por la Comisión de Investigaciones
Científicas de la Provincia de Buenos Aires por el proyecto: Inhibidores de Anhidrasa Carbónica
para el Tratamiento de la Epilepsia Febril. Ha dictado diversos cursos de postgrado y conferen-
cias en ámbitos nacionales e internacionales. E-mail: lgavernet@biol.unlp.edu.ar
Autores
fesora Adjunta de las Cátedras de Química Medicinal y Nuevas Estrategias Aplicadas al Descu-
brimiento de Fármacos - Facultad de Ciencias Exactas - UNLP. En 2016 ingresó a la Carrera del
Investigador Científico del CONICET. Ha recibido subsidios de financiamiento científico y pre-
mios destacados entre los cuales se encuentra el Premio a la Innovación de UNLP en 2015. Sus
contribuciones científicas incluyen unas 25 publicaciones nacionales e internacionales, inclu-
yendo artículos originales, artículos de revisión, capítulos de libro y patentes de invención, ma-
yormente vinculados al desarrollo de nuevos tratamientos para la enfermedad de Chagas y te-
máticas biofarmacéuticas. E-mail: cbellera@biol.unlp.edu.ar
se encuentran la Distinción como Joven destacada en Ciencias 2017 otorgado por la Municipali-
dad de Coronel Suárez y el premio "Dr. Enrique Herrero Ducloux 2017" en el área de Química
Teórica otorgado por la Asociación Química Argentina (AQA). Actualmente se encuentra finali-
zando una beca postdoctoral de CONICET. E-mail: mgantner@biol.unlp.edu.ar
Talevi, Alan
Farmacéutico y Licenciado en Ciencias Farmacéuticas (2004) y Doctor de la UNLP (2007). Ob-
tuvo el premio de la Asociación Química Argentina a la mejor tesis en el área de la Química
Computacional (2008) y el Premio a la Labor Científica y Tecnológica de la UNLP (2016). En
2010 ingresó a la Carrera del Investigador Científico de CONICET y desde 2012 es Profesor
Adjunto a cargo de la asignatura Biofarmacia de la Facultad de Ciencias Exactas (UNLP). Ha
publicado más de 50 artículos en publicaciones periódicas y más de 20 capítulos de libro. Ha
sido editor de 2 libros del sello Springer. Fue Jefe del Departamento de Ciencias Biológicas (Fa-
cultad de Ciencias Exactas) entre 2015 y 2017. Desde 2018 es director del Laboratorio de Inves-
tigación y Desarrollo de Bioactivos (LIDeB) de la UNLP. Ha dictado diversos cursos de maestría
y de postgrado en Argentina (UNLP, UBA), Uruguay (UDeLaR) y México (CONACYT). E-mail:
atalevi@biol.unlp.edu.ar
1. Química Farmacéutica. I. Gavernet, Luciana II. Gavernet, Luciana, coord. III. Bruno
Blanch, Luis Enrique, prolog.
CDD 615