Una Ojeada A La Materia

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 13

UNA OJEADA A LA MATERIA

Autores: GUILLERMO AGUILAR SAHAGÚN / SALVADOR CRUZ JIMÉNEZ /


JORGE FLORES VALDÉS

I. ESTADOS DE LA MATERIA
HIELO, agua, vapor... tan distintos en apariencia e idénticos en lo esencial. El hielo, frío y
que mantiene su forma; el agua, líquida y que adopta la forma de su recipiente; el vapor de
agua, caliente, que tiende a llenar todo el espacio que lo contiene. Sin embargo, éstas son tan
sólo tres formas distintas -fases, las llaman los físicos- de la misma sustancia, el agua.
Cambiando su temperatura, el agua puede pasar de una fase a otra. Y esto no sólo se da en
ella sino que ocurre con todas las sustancias. Con el paso de las diversas civilizaciones, el
hombre ha inventado y descubierto procesos y máquinas que le permiten dar a una sustancia
la fase deseada: sólida, líquida o gaseosa. Los hornos de las fundiciones son capaces de
derretir metales como el hierro, plomo y otros; hay fábricas que producen hielo seco, que no
es otra cosa que el bióxido de carbono solidificado. Y tenemos máquinas que licuan el aire,
refrigeradores que solidifican el agua y calderas que la vaporizan.
Estas máquinas alteran no sólo la temperatura de la sustancia, sino que también cambian su
presión o su volumen. La relación entre estos tres factores, temperatura, presión y volumen,
depende de la fase en que se encuentre la sustancia. Esta relación, que resume un enorme
conjunto de observaciones experimentales, era conocida, en muchos casos, desde hace
bastante tiempo. Así, desde el siglo XVII se conocían las leyes de los gases, formuladas por
Boyle, Mariotte, Charles y Gay Lussac, y que se pueden resumir diciendo que el producto de
la presión por el volumen es proporcional a la temperatura del gas.
Esta relación es válida para todas las sustancias gaseosas a muy baja presión; en el caso
opuesto, cuando la presión es muy alta, como la que se produce después de una explosión,
también es posible encontrar relaciones entre la presión, el volumen y la temperatura, que son
de carácter muy general. Para valores intermedios de la presión, las cosas se complican y ya
no es posible hallar relaciones simples. Los físicos y los químicos han recurrido entonces a
los diagramas PVT, que les permiten observar las condiciones en que se dan cada una de las
fases, y el tipo de proceso que puede llevar de una a otra.
Entre las condiciones de presión y temperatura, existe una, la llamada condición normal,
porque es muy parecida a la que soportamos en la vida cotidiana. La condición normal se da a
una temperatura de 20°C y a una presión de una atmósfera. En condiciones normales, el agua
es líquida, el oro y la plata son sólidos, y el hidrógeno, el oxígeno y el hielo se presentan en
su fase gaseosa. ¿Por qué ocurre esto?
Resolver este porqué, y muchos otros que luego veremos, constituye un reto al que se da el
nombre de física. Narrar un poco de su historia y de la situación en que se encuentra hasta
nuestros días, forman el relato que ahora emprenderemos.

III. EL ATOMISMO DE LOS GRIEGOS


COMO nos interesa aquí relatarla, la historia de la física, o filosofía de la naturaleza, empieza
con Demócrito, cuatrocientos años antes de Cristo. En la antigua Grecia, Demócrito y sus
discípulos profesaban la doctrina del atomismo, según la cual las partes más elementales de la
materia son diminutas, sólidas, incompresibles e indivisibles. Siendo indivisibles, se les llamó
átomos. Demócrito afirmaba que los cambios ocurrían en el universo según se colocaban esas
minúsculas partículas; las propiedades de la materia, por su parte, correspondían a las
características de los átomos que la formaban. Con ello, la concepción del mundo era más
objetiva, ya no dependiente de los caprichos del hombre; Las sensaciones de dulce, amargo y
ácido, se debían a átomos con diferentes características: átomos lisos, sin protuberancias que
rasguen y que irriten nuestros sentidos, producirían una sensación dulce, mientras que átomos
rugosos o con aristas cortantes nos dejarían una sensación amarga o ácida.
Aunque la doctrina de Demócrito pueda parecer ahora ingenua, se deben reconocer sus
grandes implicaciones filosóficas. La naturaleza se separa del albedrío humano y se hace
externa, independiente, aun indiferente al hombre.
Contrasta esta concepción atomista de la naturaleza con las ideas platónicas, según las cuales
un pensamiento ordenador había construido al mundo, siendo los elementos últimos de la
materia los cuerpos simples, los poliedros regulares. El tetraedro, el más sutil, el más agudo,
es el constituyente del fuego; el octaedro, el del aire, que puede descomponerse en dos
tetraedros; el cubo, el de la tierra y él icosaedro, el del agua. Con ello se explican los cuatro
elementos de Empédocles, quedando suelto el último elemento, al cual correspondería el otro
poliedro regular, el dodecaedro; parece ser que Dios empleó el dodecaedro para el Todo,
cuando dibujó el orden final. Contrasta esta geometrización de la física, en la que los entes
más elementales son los cuerpos platónicos, con el número ilimitado de posibilidades que
ofrecen Demócrito y su escuela.
Muy poco de nuevo nos proponen para entender la estructura de la materia Aristóteles y su
escuela, o la ciencia medieval. De hecho, antes del siglo XIX, los grandes científicos se
ocuparon más bien del movimiento macroscópico de los cuerpos y de la astronomía, y no fue
sino hasta los trabajos del químico francés Joseph Proust y de su colega inglés John Dalton,
que el concepto atómico de Demócrito revivió y tomó su lugar en la ciencia.

IV. LA MECÁNICA DE GALILEO Y NEWTON


HUBO de llegar el Renacimiento europeo, tan vivo e innovador, para que la ciencia moderna
y sus reglas comenzaran a definirse. El misterio de las catedrales góticas y de la alquimia
quedan atrás. Se invita a la experimentación en muchos ámbitos y no tarda en surgir un
Galileo, quien tal vez sea el primer físico experimental en el sentido que hoy damos a este
término. Pocos años después, el gran Newton hace cuatro contribuciones fundamentales al
avance de la física: formula las leyes de movimiento de los cuerpos, descubre la ley de la
gravitación universal, postula que la luz está formada por corpúsculos e inventa el cálculo
infinitesimal. Pocos habrían de hacer tantas y tan notables contribuciones a la ciencia.
Aunque Newton no las formuló así, es conveniente para nuestros propósitos posteriores hacer
un breve resumen de las leyes del movimiento, que son tres, y que constituyen la base de lo
que llamamos la mecánica clásica. Newton se dio cuenta de que para describir el movimiento
de una partícula se requiere de un marco de referencia, o sea de un sistema de coordenadas,
que nos ayude a fijar la posición de la partícula, y de un sistema de relojes, que nos indique
cómo transcurre el tiempo. Entre todos estos sistemas de referencia, postulamos que existe
uno en que una partícula aislada se moverá con velocidad constante, tanto en magnitud como
en dirección. A este sistema de referencia le llamaremos inercial. Además, si existe otro
sistema de coordenadas que se mueva con velocidad constante respecto a uno inercial, ese
otro sistema también será inercial. Es decir, si existe un sistema inercial, habrá un número
infinito de ellos. Postulamos también que las leyes de la mecánica no dependen del sistema
inercial que se elija. A este último postulado, se le llama principio de relatividad de Galileo.
Ambos postulados constituyen la primera ley de movimiento, que es una ley muy general y
válida no sólo en el mundo clásico de la física, sino también en el mundo relativista de
Einstein que luego describiremos. Y, lo que es más, también válida en el dominio de la física
microscópica, la mecánica cuántica. Esta ley, pues, formulada como hemos indicado, ha
resistido todos los embates de miles y miles de físicos y los resultados de una enormidad de
experimentos y observaciones a lo largo de tres siglos.
Luego tenemos la segunda ley de Newton, que define la fuerza, resultado de la acción de un
cuerpo sobre otro, y que es igual al producto de la masa por la aceleración que sufre ese
cuerpo. Esta ley ya no resistió la revolución cuántica y fue reemplazada por otras, de mayor
generalidad, como luego veremos. Tiene una jerarquía, pues, menor que la primera ley.
Finalmente, la tercera ley de Newton es todavía más particular y nos dice que a toda acción
que un cuerpo ejerce sobre otro, corresponde una reacción que éste último ejerce sobre el
primero; la reacción es igual en magnitud y dirección a la acción pero de signo opuesto.
Si juntamos tres de las cuatro grandes contribuciones de Newton, las leyes de movimiento, la
gravitación y el cálculo diferencial, podemos explicarnos la rotación de los planetas alrededor
del Sol regidos por las leyes que el astrónomo real de Dinamarca, Kepler, descubrió al
resumir sus observaciones sobre las órbitas de los planetas. No es este un logro menor; desde
la más remota antigüedad había intrigado este problema al hombre de todas las civilizaciones.

VI. RENACE EL ATOMISMO


YA MENCIONAMOS a Proust y a Dalton, quienes mostraron que al combinarse algunos
elementos químicos para formar compuestos, lo hacen siempre de manera tal que las
cantidades de un cierto elemento que se combinan con las de otro cualquiera, están siempre
en proporción a sus pesos, y serán siempre múltiplos enteros de uno al otro. Dalton concluyó
que esta ley se puede explicar si se supone que los elementos están formados por átomos,
siendo los compuestos químicos la combinación del átomo de un elemento con uno o más
átomos de algún otro elemento. La hipótesis atomista de Demócrito, formulada más de 2000
años antes, tomó nueva vida con los trabajos de Dalton.
La teoría atómica de la materia avanza incontenible en el siglo XIX, mano a mano con la
revolución industrial. Amadeo Avogrado, físico italiano, distingue claramente entre átomo y
molécula, que seria la unión de varios átomos, y establece la llamada ley de Avogadro, válida
para los gases perfectos o ideales: iguales volúmenes de diferentes gases, a la misma presión
y temperatura, contienen el mismo número de moléculas. El químico ruso Dimitri
Mendeleiev, por su parte, arregla los elementos de acuerdo a su peso atómico y establece
conexiones entre las propiedades de diferentes substancias. Genera así la tabla periódica de
los elementos, que él consideraba no como un mero sistema para clasificarlos, sino como una
ley de la naturaleza, que podría ser usada para predecir nuevos hechos. Con ella predijo la
existencia de nuevos elementos, que faltaban en su tabla periódica; su profecía se cumplió
pocos años después, al descubrirse el galio, el escandio y el germanio. Ahora sabemos que
esta tabla y sus regularidades en si no constituyen una ley de la naturaleza, sino que pueden
explicarse por la teoría cuántica de los átomos complejos. Esto, sin embargo, no ocurrió sino
hasta cerca de 60 años después de los trabajos de Mendeleiev.
Una vez aceptada la teoría atómica de la materia, los físicos del siglo XIX desarrollaron la
teoría cinética de los gases. Según ella, un gas está formado por un gran numero de moléculas
(o de átomos) en continuo movimiento regido por las leyes de Newton. Cuando alguna de
estas moléculas choca con la pared del recipiente que contiene el gas, ejerce una fuerza sobre
esa pared: esta es la versión cinética de la presión. También la temperatura se puede explicar.
Al moverse con una cierta velocidad, una partícula de masa dada tiene una energía cinética
igual al producto de su masa por la mitad del cuadrado de la velocidad. La temperatura es
proporcional a la energía cinética promedio de las moléculas en el gas. Elevar su temperatura
significa dar mayor movilidad a las moléculas. Con estos conceptos de presión y temperatura,
la teoría cinética explicó las leyes de los gases, lo que dio más fuerza al atomismo. Para
propósitos posteriores, es conveniente recalcar aquí que para lograr tanto éxito, la teoría
cinética de los gases se concentró sólo en el movimiento de moléculas, sin tomar en cuenta
que una de ellas podría chocar con alguna otra. A un modelo tal, lo llamamos ahora modelo
de partícula independiente.
Cuando bajamos la temperatura, la energía cinética de las moléculas disminuye y se puede
llegar a un punto en que las moléculas estén casi en reposo, a lo más oscilando respecto a una
posición de equilibrio. Es obvio que esto es un sólido. Si las posiciones de equilibrio de las
moléculas forman un arreglo ordenado, como en una greca, entenderíamos las hermosas
facetas de un cristal; si el ordenamiento no es tan perfecto, tendríamos un sólido amorfo.
¿Cuál de estos ha de ser el caso? o ¿cuál será el arreglo preferido para una sustancia dada? No
podemos averiguarlo, a menos que conozcamos más de cerca a las moléculas y al átomo.

VII. LA LUZ DE LOS ELEMENTOS


LA FÍSICA macroscópica llegó a establecer sus leyes viendo a los objetos. De esta manera,
Galileo estableció la ley de la caída libre de los cuerpos y Kepler encontró las leyes del
movimiento de los planetas. El agente que lleva la información del sistema físico al
observador, al físico o astrónomo experimental, es la luz que penetra su sentido de la vista. La
óptica, que estudia la luz, habría de desempeñar, pues, un papel esencial en el desarrollo de la
teoría atómica de la materia.
La luz fascinó siempre al hombre y desde luego a los grandes científicos. A la óptica se
dedicaron también Galileo y Newton. Este último, en 1660, observó el fenómeno de
descomposición de la luz blanca en diferentes colores al pasarla a través de un prisma. Dos
siglos después, Bunsen desarrolló el mechero que lleva su nombre y que revolucionó los
trabajos en el laboratorio químico. Jugando con su mechero, Bunsen observó que los
diferentes elementos emiten luz de colores característicos. Su espectro de emisión de luz,
como se le llamó, es discreto, a diferencia del espectro de la luz blanca, superposición de
todos los colores, que es un espectro continuo. Con ello teníamos un arma poderosa para el
análisis elemental de una substancia. Bastaba ponerla en la llama de un mechero y forzarla a
que emitiera luz. Luego se analizaba su espectro de emisión, pasando la luz que producía por
un prisma, como hizo Newton. Viendo qué colores emitía y comparándolos con los de los
distintos elementos, era fácil deducir su contenido. Esta es la base de la espectroscopia óptica
y el instrumento utilizado para producir y analizar la luz se llama espectroscopio óptico.
Los descubrimientos de Bunsen, aunados a la teoría electromagnética de la luz propuesta por
Maxwell, permitieron establecer la relación entre el color de la luz y la frecuencia de la onda
electromagnética. El espectro de emisión de un átomo corresponde a la emisión de ondas
electromagnéticas de frecuencias particulares.
Pero ahora podemos proceder a la inversa. No dejar que los elementos emitan luz, sino que la
absorban. Tomando, por ejemplo, vapor de sodio, hacemos pasar por él un haz de luz blanca
y observamos la luz que lo cruza en un espectroscopio. Se encuentran que el espectro es
continuo salvo por unas líneas oscuras, que son exactamente del mismo color de los rayos
que emite el sodio. Este nuevo espectro, llamado de absorción, es el negativo del espectro de
emisión. Los elementos emiten y absorben luz con los mismos colores característicos. A
través de una mica transparente de color rojo, todo lo vemos rojo.
El estudio de los fenómenos de absorción de la luz, se logra recurriendo a una nueva forma de
hacer experimentos, más activa. Ya no esperamos a observar pasivamente a que un átomo o
molécula emita radiación electromagnética y luego contentarnos con analizarla en un prisma.
Ahora forzamos la interacción de un agente externo -la luz- con el sistema que queremos
estudiar. Observando lo que ocurre después de esta colisión, concluimos sobre las
propiedades del sistema. Esto constituye toda una nueva forma de ver, más controlada, a los
objetos, que no son ya necesariamente macroscópicos. Nos permite penetrar a su interior.
Como veremos luego, éstas y otras espectroscopias, en que el agente no sólo es la luz sino
incluso partículas, átomos, moléculas y otros, constituyen la base de la física moderna, y nos
han permitido averiguar muy a fondo la estructura de la materia.

VIII. LAS PRIMERAS IDEAS CUÁNTICAS


LAS primicias cuánticas se deben a Planck y a Einstein. En la Navidad de 1900, el gran
teórico alemán Max Planck presentó ante la Academia de Ciencias de Berlín un postulado
extraño. Para explicar la radiación que emiten los cuerpos incandescentes, Planck se vio
forzado a suponer que la energía electromagnética se produce y propaga en múltiplos de un
paquete de energía, cuanto como lo llamó. El cuanto de energía es proporcional a la
frecuencia de la onda, con una constante de proporcionalidad h, que luego llevó el nombre de
Planck. Con esta rara suposición, tan ajena a la física clásica, Planck pudo explicar lo que se
observaba experimentalmente para la radiación que emitía un cuerpo cuando se aumenta su
temperatura. La idea de los cuantos se origina, pues, en un problema termodinámico que era
un verdadero quebradero de cabeza para los científicos de fines del siglo XIX.
Es de imaginarse la conmoción científica que produjo la hipótesis de Planck, verdadero
origen de la física moderna. Poco tiempo después, tan sólo cinco años, Einstein volvió a
emplearla para explicar otro extraño fenómeno, el efecto fotoeléctrico. Cuando se ilumina
con luz a ciertos materiales éstos pueden, en las condiciones apropiadas, hacer que se cierre
un circuito eléctrico. Este fenómeno es la base de las celdas fotoeléctricas usadas
comúnmente hoy en día, para evitar que se cierre la puerta de un elevador por ejemplo. Otra
vez, la teoría electromagnética clásica, que supone la luz como una onda, es incapaz de
explicar el efecto. En cambio, si se supone que el cuanto de luz existe, y que le comunica toda
su energía a los portadores de la electricidad que están en el material fotoeléctrico, los
resultados experimentales se adecuan a la teoría. Ese mismo año de 1905, el oscuro empleado
de la oficina de patentes de Berna explicó el efecto fotoeléctrico, inventó la teoría de la
relatividad de la cual luego hablaremos y explicó las observaciones hechas cien años antes
por el botánico inglés Robert Brown, sobre el movimiento de pequeñas partículas
suspendidas en un fluido, el conocido movimiento browniano. Quince años después, Einstein
recibiría el premio Nobel de Física por su explicación del efecto fotoeléctrico.
Veamos ahora cómo evolucionaron estas ideas cuánticas para entender el átomo.

IX. EL ÁTOMO TIENE ESTRUCTURA


EN 1895 Roentgen descubrió los rayos X. Cuando se conectan dos electrodos a una fuente
de voltaje y se rodean con un tubo de vidrio al vacío, es decir, se construye un tubo de
Crookes, se generan los rayos llamados catódicos. Éstos, al chocar contra una superficie
cualquiera, producen una radiación muy penetrante. Aunque fueron descubiertos por
accidente, y al principio se consideraron de naturaleza diferente a la luz, no pasaron sino unos
cuantos meses para que ya los médicos emplearan sus penetrantes radiaciones para obtener
radiografías del esqueleto humano. El descubrimiento de los rayos X -X por misteriosos-
encendió el entusiasmo de los físicos y en un tiempo no había investigador experimental que
no tuviera un tubo de Crookes para experimentar con él.
Habría que entender, primero, la naturaleza de los rayos catódicos. Algunos científicos los
suponían un nuevo estado de materia, hasta que Thomson descubrió que eran en realidad
pequeños corpúsculos materiales, con carga eléctrica negativa y una masa cerca de 2 000
veces menor que la del átomo de hidrógeno, el más ligero de todos. Thomson descubrió, por
lo tanto, el electrón. Con ello ya podíamos explicarnos el origen de los rayos X. Podrían
surgir al frenar rápidamente los electrones, cuando éstos chocan contra una superficie. Según
la teoría electromagnética de Maxwell, toda carga eléctrica que se acelera genera radiación.
Mientras mayor sea esa aceleración, mayor es la frecuencia de la radiación emitida y de ahí
su gran energía y poder de penetración. Aunque como veremos más adelante, ésta no es la
historia completa, en esencia es la explicación correcta.
El haber encontrado el electrón, partícula de carga negativa, sugirió a Thomson que el átomo
podría no ser indivisible. Por primera vez surgió la posibilidad de que pudiera tener estructura
y Thomson planteó su modelo del pudín de pasas: los electrones se hallarían embebidos en
una zona de carga positiva como las pasas en un pastel. Con ello se aseguraba la neutralidad
eléctrica del átomo. Este modelo de Thomson fue deshecho por los descubrimientos de un
discípulo suyo, el físico neozelandés Ernest Rutherford, como ahora veremos.
Todavía en el siglo XIX, un año después del descubrimiento de Roentgen, Henri Becquerel
encontró otro tipo de rayos misteriosos. A él se sumaron los esposos Pierre y Marie Curie,
uniendo esfuerzos para entender a las recién llegadas radiaciones. Fue Rutherford quien las
clasificó en tres clases: alfa, beta y gamma. La primera, de carga positiva, consiste en
partículas cuya masa es muy semejante a la del átomo del helio, el segundo elemento de la
tabla de Mendeleiev. Se demostró también que los rayos beta eran electrones y que los
gamma tenían características semejantes a las de los rayos X, aunque con un poder de
penetración todavía mayor.
Usando los rayos alfa, Rutherford se construyó su propia espectroscopia. Decidió que las
partículas alfa serían útiles para obtener información sobre el átomo, ya que son tan pequeñas
y veloces. En particular, si el modelo de pudín de pasas era el correcto, se esperaba que las
partículas alfa no rebotaran contra el átomo. Los electrones, tan ligeros, no podrían
desviarlas. Además, la carga positiva, el pudín, vería su carga apantallada por la de los
electrones. Cuál no sería su sorpresa, cuando encontró que al bombardear laminillas de oro
con partículas alfa, algunas de ellas rebotaban como si golpeasen contra algún objeto
impenetrable. La única salida era desechar el modelo de Thomson y suponer que el átomo
semejaba a un pequeño sistema planetario, con una región pequeñísima y muy masiva con
carga positiva, en el papel del Sol, y un conjunto de electrones orbitando a su alrededor, como
si fueran planetas. Al descubrir esa zona tan masiva y positiva, Rutherford encontró el núcleo
atómico y puso las bases para entender la estructura atómica, los rayos X y tantas otras cosas.

XI. LA NUEVA FÍSICA


NEWTON propuso un modelo corpuscular de la luz apropiado para la óptica geométrica que
trata con rayos. Los fenómenos luminosos de interferencia y de difracción, típicamente
ondulatorios, requieren que la luz sea una onda. Maxwell nos hace ver que los entes que
oscilan son los campos eléctricos y magnéticos. Einstein recupera el viejo modelo
corpuscular, pues en el efecto fotoeléctrico y en otros, como el efecto descubierto por
Compton, la luz se comporta como una partícula de energía y momento lineal bien definidos.
Estamos, pues, frente a la dualidad partícula-onda de la luz.
¿Qué pasaría -se preguntó Louis de Broglie- si esta dualidad partícula-onda se diera también
para otros entes microscópicos, como el electrón? En este caso, si repetimos el experimento
de difracción, es decir, si hacemos pasar un rayo de electrones por una abertura apropiada,
veremos patrones de difracción. El experimento fue realizado por los físicos norteamericanos
Davison y Germer, quienes lanzaron electrones lentos contra la superficie de un cristal de
níquel. Sus observaciones podían explicarse usando la hipótesis de De Broglie, al asociar al
electrón una onda cuya longitud de onda era inversamente proporcional al momento lineal del
electrón, es decir, al producto de su masa por su velocidad. La constante de proporcionalidad,
como en el caso de Planck y de Einstein, era otra vez la constante de Planck h.
Poco después, Erwin Schrödinger, físico vienés, generalizó las ideas de De Broglie que
trataban sólo con electrones aislados, y asoció una onda también a los electrones dentro del
átomo. Las órbitas estacionarias de Niels Bohr correspondían ahora a aquellos valores de la
energía y del momento del electrón, tales que con un número entero de longitudes de onda se
cubría toda la órbita. Schrödinger obtuvo, para los electrones en el átomo, la ecuación que
hoy lleva su nombre. En este caso, el electrón se encuentra sujeto al campo eléctrico que
produce el núcleo, que está cargado positivamente y que lo atrae. Pero la ecuación de
Schrödinger es más general; de hecho, es aplicable a todos los sistemas microscópicos que no
se muevan muy rápidamente, es decir, aquellos cuya velocidad es mucho menor que la de la
luz.
Antes de De Broglie y Schrödinger teníamos la paradoja partícula-onda para la luz; luego de
ellos, esta dualidad se manifestó omnipresente en el mundo microscópico. A veces debíamos
hablar de una partícula y su trayectoria; otras, de una onda y su difracción e interferencia.
Todo ello no ocurría en el movimiento de los cuerpos macroscópicos: planetas, proyectiles,
locomotoras. Algo había en el mundo de lo pequeño que no habíamos tomado en cuenta y
que podría dar la salida a esa situación paradójica. Werner Heisenberg lo encontró. Al hacer
una partícula más y más pequeña, la hacemos más y más sensible a perturbaciones. ¡Y el
proceso mismo de observación para medir sus propiedades, es una perturbación! Así, cuando
deseamos "ver" al electrón, habremos de iluminarlo y esperar que la luz se refleje en él; pero
esta luz está formada de cuantos, que al chocar con el electrón alteran su estado inicial.
Mientras mayor sea la precisión con que queramos localizar al electrón, menor deberá ser la
longitud de onda de la luz que empleemos para iluminarlo y, por tanto, mayor será su
frecuencia. En consecuencia, los corpúsculos de la luz son más energéticos y al chocar con el
electrón alteran mas su velocidad. El análisis de Heisenberg nos dice, pues, que no es posible
definir con tanta precisión como deseemos y simultáneamente, la posición y la velocidad (o el
momento lineal) de una partícula. Pero un poco de reflexión nos lleva a concluir de inmediato
que, entonces, el concepto de trayectoria o de órbitas no tiene sentido en el microcosmos. Las
paradojas empiezan a diluirse.
Si en una teoría se elimina un elemento, otro ha de reemplazarlo. Si ya no existen trayectorias
sino ondas de De Broglie o de Schrödinger, ¿cómo es que éstas reemplazan al viejo concepto
de órbita? La respuesta la dio Max Born, poco después que Schrödinger y Heisenberg
inventaron la mecánica cuántica. Lo que indica, según él, la onda que es solución de la
ecuación de Schrödinger, es la probabilidad de encontrar a la partícula. Es decir, en aquellas
regiones del espacio en que la solución de Schrödinger sea nula, es imposible hallar a la
partícula. Pero en las zonas del espacio en que esa onda sea distinta de cero, sólo sabemos
que es probable encontrarla, aunque nunca tengamos la certeza absoluta. El principio de
Heisenberg destruye la certidumbre y el determinismo clásicos. Por ello se le llama el
principio de incertidumbre; es sin duda uno de los pilares básicos de la física actual.
XIV. OTRA VEZ LA TABLA PERIÓDICA
MENDELEIEV había ordenado los elementos químicos de acuerdo con su peso atómico y en
una tabla tal que los elementos con propiedades químicas semejantes aparecen en la misma
columna. Sigamos el juego de Mendeleiev, pero colocando ahora en la misma columna
aquellos elementos que tengan el mismo número de electrones en su capa externa, siempre en
consonancia con el principio de Pauli y el de mínima energía. Tendríamos entonces que el
berilio, el magnesio, el calcio, el estroncio, el bario y el radio, caen todos en la misma
columna, pues todos tienen dos electrones en su capa externa. Pero esto mismo obtuvo
Mendeleiev con los átomos cuya valencia es 2. Lo que sucede, claro está, es que la estructura
electrónica de la capa externa determina las propiedades químicas del átomo. En otros
términos, son los electrones de valencia los que participan en el enlace químico. Empezamos
a vislumbrar una explicación, basada en las ideas cuánticas, de la tabla periódica de los
átomos.
Los elementos cuyo número atómico Z implica completar una capa también forman una
columna. Agregarles un electrón requiere un gasto fuerte de energía, pues el nuevo electrón
ha de ocupar una nueva capa. Son, por tanto, poco activos para unirse con otros átomos, es
decir, químicamente inertes. Los elementos con esta propiedad son el helio, el neón, el argón,
el kriptón, el xenón y el radón, o sea los gases nobles. Con ello empieza la teoría cuántica del
átomo a contestar algunas de las preguntas mencionadas al principio.
Luego de la columna de los gases nobles, vendría la columna de elementos con un electrón
fuera de la última capa completa o cerrada. Estos elementos (litio, sodio, potasio, rubidio,
cesio y francio) son semejantes entre sí. Se les conoce genéricamente como metales alcalinos.
Los que tienen dos electrones fuera de capa cerrada, que ya mencionamos, son también
metálicos aunque menos reactivos que los alcalinos. Se les conoce como los alcalino térreos.
Así continuamos, colocando electrones en la capa más externa, hasta llegar a los elementos
que sólo requieren de un electrón para llenar esa capa.
Estos son los halogenuros (flúor, cloro, bromo, iodo, y astatinio) que tienen gran afinidad
para combinarse con un átomo metálico alcalino. Intuitivamente esto es claro: cada tipo de
átomo tiene el electrón que el otro necesita para cerrar una capa.
De esta forma, hemos clasificado a los elementos en cuatro categorías: los gases nobles, los
metales, los halogenuros y una cuarta clase, los metaloides como el germanio y el arsénico.
Empezamos a establecer conexiones entre la ecuación de Schrödinger, resuelta en forma
aproximada usando el modelo de capas atómico, y la tabla periódica que Mendeleiev obtuvo
empíricamente basándose en las propiedades químicas de los elementos. Se ha reducido el
entender la Tabla de Mendeleiev a una aplicación de leyes más generales, las leyes cuánticas
contenidas en la ecuación de Schrödinger y el principio de Pauli.

X. LOS ACELERADORES NUCLEARES


EL DESARROLLO de estos aparatos -los aceleradores nucleares- exigió de múltiples avances
tecnológicos. Para acelerar los proyectiles se requería producir altos voltajes; para guiarlos
era necesario construir a voluntad complicados imanes; con objeto de estar seguros que sólo
un blanco y un proyectil dados tomaran parte en la colisión, fue preciso evacuar la región del
choque, lo cual implicó desarrollar técnicas de alto vacío, hoy presentes en tanta industria
moderna.
Finalmente, para contar y detectar las partículas salientes del choque, se necesitó desarrollar
detectores, contadores electrónicos y otros sistemas. Todo ello habría de tener, y seguramente
seguirá teniendo, enormes repercusiones en nuestro mundo moderno, tan lleno de tecnología,
mucha de ella creada por el afán de unos cuantos científicos por entender al núcleo y sus
partes.
Los primeros aceleradores fueron del tipo de Cockroft-Walton. Pronto fueron superados por
los Van de Graaff, con los que se hicieron los primeros experimentos nucleares precisos. Con
uno de ellos se inicia la participación de México en la física nuclear. Al iniciarse los años
cincuenta, el entonces coordinador de la Investigación Científica de la UNAM, doctor Nabor
Carrillo, visitó una fábrica de aceleradores cerca de Boston. Quedó muy impresionado con lo
que podría lograrse con estas máquinas y, viendo que su precio se hallaba al alcance de la
Universidad, a su regreso a México comunicó su entusiasmo al rector y al gobierno federal.
Por aquella época, la nueva sede de la UNAM se hallaba en construcción, y así se logró que
llegara al Pedregal de San Ángel, a la Ciudad Universitaria, un acelerador Van de Graaff que
se terminó de instalar en el Instituto de Física en 1952. Con ello no sólo contó ese Instituto
con el primer laboratorio en funcionar en la Ciudad Universitaria, sino con el más avanzado
aparato para investigación nuclear en toda América Latina. Desde un poco antes, en 1950,
sale un grupo de jóvenes investigadores a especializarse en las nuevas técnicas nucleares,
principalmente al Instituto Tecnológico de Massachusetts, ITM, institución con la que
habrían de mantenerse, hasta el presente, magníficas relaciones de investigación en el campo
nuclear.
Muchos y variados fueron los temas que los investigadores mexicanos abordaron en sus
experimentos durante más de diez años. Veamos los que se refieren al conocimiento básico
del núcleo.
Al igual que los átomos, los núcleos y de hecho todo sistema microscópico muestran ciertas
energías características, el espectro que antes mencionamos, y que dio origen a la hipótesis de
Niels Bohr. Esto se demostró, en el caso del núcleo, haciendo incidir partículas ligeras como
el protón, el neutrón y aun el conjunto de los dos, llamado deuterón, contra blancos nucleares
formados por distintos elementos químicos: carbono, oxígeno, calcio, plata, plomo, etc. Se
observó que las partículas ligeras formaban un compuesto con el núcleo blanco, el núcleo
compuesto, y que emergían con pérdidas de energía características. De estas últimas se
dedujo que el núcleo podía tener estados discretos de energía. El análisis de estos estados fue
una de las ramas principales de la física nuclear, la espectroscopia nuclear, la segunda
espectroscopia. Usando tanto el Van de Graaff del IFUNAM, como otros aceleradores en el
extranjero, los físicos mexicanos descubrieron y caracterizaron muchos de estos estados o
niveles de energía.
Al mismo tiempo se desarrollaron una buena cantidad de instrumentos nucleares asociados
con el acelerador. En particular, el laboratorio Van de Graaff se especializó en desarrollar
espectrómetros magnéticos, con los cuales era posible medir con alta precisión la velocidad
de las partículas resultantes de la reacción nuclear. Algunos de estos aparatos se encontraron
entre los más finos en su tiempo.

XXIII. LA HISTORIA DE LOS CRISTALES


ESBOZADA una imagen de la materia, desde los cuerpos macroscópicos hasta las partículas
elementales, vamos a aplicar nuestras ideas para entender a los sólidos y en particular a los
sólidos cristalinos, y poder contestar así las preguntas que hicimos al principio. Para ello
formularemos la teoría atómica del sólido, con la que se trata de entender las propiedades de
los cristales en base a las de los átomos que lo forman y a la manera en que ellos interactúan,
aplicando siempre la mecánica cuántica. Otra vez tenemos todos los elementos de la teoría de
un sistema físico: la descripción de los subsistemas, la interacción entre éstos y las leyes de
movimiento. De ahí extraeremos conclusiones que luego habrán de verificarse
experimentalmente, con la consecuente retroalimentación a la teoría. Esta es la espiral sin fin
de la física.
Un sólido cristalino está formado por un arreglo ordenado de átomos. Este arreglo o red
cristalina puede generarse repitiendo indefinidamente un arreglo elemental, llamado celda
unidad. De esta forma se obtiene una estructura periódica que permanece invariante frente a
unas ciertas translaciones, como las grecas de Mitla.
Podemos imaginarnos una infinidad de celdas unidad y, por tanto, de grecas o redes
cristalinas resultantes. Sin embargo, las matemáticas han puesto cortapisas a nuestra
imaginación pues el requisito de invariancia translacional es fuerte. Por ejemplo, las celdas
unidad no pueden ser de forma pentagonal, ya que con pentágonos no es posible cubrir un
plano totalmente sin dejar resquicios. Los geómetras han encontrado que sólo unos cuantos
cientos de estructuras cristalinas diferentes son posibles y los han clasificado
minuciosamente.
Aunque ya los griegos habían hecho observaciones sobre los cristales, su estudio se inicia en
el siglo XVII, por Stensen y Guglielmini, llegándose a encontrar en 1772 una ley enunciada
por Romé de l'Isle: en todos los cristales de la misma substancia, los ángulos entre caras
correspondientes tienen el mismo valor (cuando se les mide a igual temperatura). De l'Isle no
logró proponer un modelo que diera cuenta de su observación y fue René Just-Haüy, al dejar
caer un cristal de calcita y observar las caras idénticas de los fragmentos, quien sugirió la
existencia de la celda unidad a la que llamó molécula integrante. Él empleaba sólo tres tipos
distintos de moléculas integrantes pero, como ya lo mencionamos, se tienen muchos más
como demostró Bravais el siglo pasado.

XXVIII. LA SUPERCONDUCTIVIDAD
DESDE los tiempos de Romé de l'Isle hasta la era actual, que bien podría llamarse la de la
microelectrónica, han transcurrido tan sólo dos siglos. Creemos ahora entender qué es un
sólido y cómo modificar muchas de sus propiedades. En particular, hemos visto que es
posible controlar la conductividad de muchos materiales y la consecuencia tecnológica tan
impresionante que ello ha tenido. En nuestra discusión, el papel central lo han desempeñado
los electrones, sin que aparentemente intervengan, salvo en forma incidental, los iones.
Aunque de la estructura cristalina y del tipo de átomo surgen las características de las bandas,
nunca hemos aquí considerado que los iones puedan también moverse.
Sin embargo, es claro que los iones también se mueven, aunque lo hacen con menor celeridad
que los electrones, ya que son miles de veces más pesados. Por otro lado, mientras el sólido
permanezca como tal, los iones no podrán deambular por el cristal. Nuestra idea misma de un
sólido, a diferencia de un líquido o de un gas, implica que los iones se encuentren limitados a
la vecindad de su posición de equilibrio. Los iones, pues, sólo podrán oscilar con respecto a
esos puntos de equilibrio. Y cuando la amplitud de la oscilación sea muy grande, comparable
a la distancia interatómica en la red, el cristal empezará a fundirse.
Pensemos entonces en un modelo para las vibraciones de la red: los átomos se acoplan a sus
vecinos próximos con algún tipo de resorte. Este es un modelo razonable, ya que los iones
sólo vibran. Entre todos los posibles movimientos de los iones existen unos, llamados modos
normales, en que todas las partículas oscilan con la misma frecuencia. A los cuantos de
energía de estos osciladores normales se les conoce técnicamente con el nombre de fonones.
Los fonones se parecen mucho a unas partículas microscópicas reales: tienen una velocidad y
energías bien definidas; son del tipo bosón. Por otro lado, no pueden existir sin la malla, es
decir, fuera del cristal. (Recuérdese que tal vez éste sea el caso de las partículas más
fundamentales, los quarks.) Además, comunicando al sólido más energía, los átomos pueden
vibrar más, creándose más excitación, o sea más fonones. Por otro lado, enfriando el cristal se
logra que haya menos fonones. Por lo tanto, estas excitaciones de la malla se pueden crear y
destruir.
Los fonones son responsables de muchos fenómenos en los sólidos. En particular de la
resistividad eléctrica, pues interfieren con los electrones. Como ya vimos, al bajar la
temperatura los átomos se aquietan y desaparecen los fonones. Cuando bajamos mucho la
temperatura, ya muy cerca del cero absoluto, puede darse que a través de los iones un
electrón atraiga a otro, venciendo la repulsión eléctrica entre las cargas negativas. Con esto,
los dos electrones corren juntos y forman una pareja que, por estar formada de dos fermiones,
se comporta como un bosón, que puede moverse sin resistencia a través del cristal. ¡Estamos
ahora frente a un superconductor!
Esta explicación de la superconductividad se dio apenas hace veinticinco años, aunque la
observación de este fenómeno de bajas temperaturas data de principios de siglo. El estado
superconductor es muy diferente al estado normal de los metales. Presenta una resistencia
muy baja, no permite que un campo magnético penetre a su interior, en fin, representa toda
una fase diferente. Dadas sus posibles aplicaciones: líneas de transmisión sin pérdida,
electroimanes que pudieran generar campos magnéticos enormes, una gran cantidad de
trabajo teórico y experimental se ha hecho en las últimas décadas para entender a los
superconductores. Especial atención se ha puesto en buscar materiales que sean
superconductores a la temperatura más alta posible, incluso a la temperatura ambiente.
Aunque esto no se ha logrado todavía, si algún día ello fuera accesible, la superconductividad
se convertiría sin duda en una de las principales tecnologías al alcance del hombre.

También podría gustarte