MATERIAL COMPLETO SOBRE ÁTOMO PATÍCULAS Y MODELOS Completo
MATERIAL COMPLETO SOBRE ÁTOMO PATÍCULAS Y MODELOS Completo
MATERIAL COMPLETO SOBRE ÁTOMO PATÍCULAS Y MODELOS Completo
https://iessantaeulalia.educarex.es/datos/Paginas_Departamentos/dpto_Fisica_Quimica/archi
vos/atomo/historia_atomo.htm?fbclid=IwAR34psGQsUcW20N0DOaZhgZ0alcw04bweCIayKjcP
UtLm9zbRlHZqLuGlVM
INDICE
1.- Introducción
3.- La Luz
9.- El Electromagnetismo
11.- Resumen
1.- Introducción
6.- Resumen
El Fotón: Planck, Einstein y Compton ...........................................13
1.- Introducción
7.- Resumen
El Protón: Rutherford
..................................................................17
1.- Introducción
4.- El Núcleo
6.- Resumen
1.- Introducción
7.- Resumen
El Positrón: Dirac y Anderson ....................................................26
1.- Introducción
6.- El Positrón
7.- Resumen
1.- Introducción
2.- El decaimiento
4.- El neutrino
5.- Resumen
1.- Introducción
3.- El muon
4.- El pion
5.- Resumen
Proliferación Hadrónica: Mesones, Bariones y sus descubridores...38
1.- Introducción
6.- Resumen
1.- Introducción
5.- El color
8.- El confinamiento
9.- El “Encanto”
12.- Resumen
- Unificación Electrodébil: Salam, Weinberg, Van der Meer y Rubbia................49
1.- Introducción
9.- Resumen
- Conclusión ..................................................................................54
1. INTRODUCCIÓN
EN EL siglo V a. C., los griegos sugirieron que la materia está compuesta de partículas
elementales indivisibles. Su intención era explicar las propiedades de la inmensa variedad
de sustancias encontradas hasta entonces con base en las de un número reducido de
materiales elementales. La esencia de estas sustancias, pensaban ellos, se encontraba
presente aun en la cantidad más pequeña que se pudiese obtener:
los átomos (= indivisible).
2. LA ELECTRICIDAD Y EL MAGNETISMO
La capacidad de la magnetita para orientarse con respecto a la tierra fascinó a los antiguos,
quienes pronto pudieron aplicarla a la navegación. Hacia fines del siglo XVI el inglés
William Gilbert fue el primero en utilizar métodos científicos al estudio de la atracción que
ejerce la magnetita sobre algunos metales y la repulsión que ejerce sobre sí misma en
cierta orientación. Gilbert mismo fue el primero en sugerir que la tierra posee un campo
magnético.
En 1773 el químico francés Charles-François de Cisternay Du Fay observó que las limaduras
de hierro, luego de estar en contacto con vidrio electrificado, se repelían entre sí, aunque
eran atraídas por otras que habían estado en contacto con resina electrificada. De ahí
surgió la idea de electricidad vítrea y electricidad resinosa como dos versiones diferentes
del mismo fenómeno. Hacia 1745 el norteamericano Benjamín Franklin llegó a la conclusión
de que se trataba de un solo tipo de fluido constituido por partículas extremadamente
pequeñas.
3. LA LUZ
El argumento de Fermat considera la trayectoria que seguiría la luz para viajar de un punto
(A) en un medio en que su velocidad (V) es mayor, a otro punto (B) en un medio en el que
la velocidad de la luz (V') es menor (véase figura 1).
Figura 1. Principio de Fermat. La luz viaja de A a B siguiendo la trayectoria que minimiza el
tiempo.
La hipótesis de Fermat es que la trayectoria preferida sería aquella en que la luz tardase
menos en llegar de A a B. Tómese como ejemplo el paso de la luz del aire al agua. Si
denotamos como P al punto intermedio en que la trayectoria corta la superficie del agua, es
claro que V = V' implica que A, P y B están alineados. Sin embargo, si V es mayor que V',
para hacer más corto el tiempo de recorrido conviene aumentar la longitud de la
trayectoria en el aire y disminuirla en el agua donde viaja más despacio. Es decir, el
segmento AP sería mayor que en el caso V = V' y el PB menor. Por lo anterior, A, P y B no
estarán alineados y el cociente entre el seno de los ángulos que forman AP y PB con la
perpendicular a la superficie del agua en el punto P resulta ser igual al cociente V/V' que es
el índice de refracción de Snell.
La hipótesis corpuscular fue sostenida en 1644 por el filósofo francés René Descartes, y
posteriormente por Newton, quienes explicaban el fenómeno de la refracción como el
efecto de una fuerza, de atracción en el caso del paso de aire a agua, que sólo actuaba
sobre las partículas de luz durante el instante en que éstas cambiaban de medio. Esta
fuerza, perpendicular a la superficie que separa a los medios, provocaba una aceleración en
las partículas. Es decir, según el modelo corpuscular descrito por Newton en su
trabajo Optiks, publicado en 1704, la velocidad de la luz debería ser mayor en el agua que
en el aire. Por otra parte, la explicación que da Huygens en su Traitè de la Lumière,
publicado en 1690, implica que las ondas luminosas viajan a mayor velocidad en el aire que
en el agua. Bastaría entonces con medir la velocidad de la luz en ambos medios para
resolver el problema. Sin embargo, pasó mucho tiempo antes de que esto ocurriera.
Mientras tanto, la química dio un paso enorme en el entendimiento de la estructura de la
materia.
4. DALTON Y LOS PESOS ATÓMICOS
Hacia 1802 el inglés John Dalton encontró ciertas relaciones entre las masas de una gran
variedad de elementos. Nacido en 1766, hijo de un tejedor, a principios del siglo XIX
encontró que las cantidades relativas de elementos necesarias para formar un compuesto
químico son siempre las mismas. Por ejemplo, para formar agua son necesarios ocho
gramos de oxígeno por cada gramo de hidrógeno. Cualquier excedente de alguno de los
componentes queda sin reaccionar. Según Dalton, estas proporciones constantes indicaban
que, si el agua estaba compuesta de partículas —que ahora llamamos moléculas— cada una
de las cuales consistía en un átomo de hidrógeno y uno de oxígeno, entonces la relación
ocho a uno indicaría que el átomo de oxígeno pasaba ocho veces más que el de hidrógeno.
Dalton llamó a este número (ocho) el peso atómico del oxígeno, como una medida relativa
al hidrógeno1 . Dalton hizo notar también que las masas de los elementos eran muy
cercanas a múltiplos enteros de la del hidrógeno, lo que indujo al médico inglés William
Prout a proponer, en 1815, que todos los elementos químicos estaban constituidos por
números enteros de átomos de hidrógeno.
En 1808 el francés Joseph Luis Gay-Lussac descubrió que, además de la proporción en los
pesos encontrada por Dalton, los gases se combinan de acuerdo con una relación de
volúmenes fija. Por volumen Gay-Lussac se refería al gas contenido en un mismo recipiente
en idénticas condiciones de presión y temperatura. Siguiendo con nuestro ejemplo, dos
volúmenes de hidrógeno se combinan con uno de oxígeno para formar dos volúmenes de
vapor de agua.
Siguiendo la receta de Avogadro fue posible deducir la fórmula química de un gran número
de compuestos. Durante el resto del siglo XIX, estas fórmulas sirvieron para deducir
relaciones entre los pesos atómicos (relativos al hidrógeno) de los elementos que forman
los compuestos, tal como Dalton pretendió hacer en un principio. Como confirmación de las
ideas de Avogadro, se encontró que el peso atómico de un mismo elemento contenido en
diferentes compuestos químicos es siempre el mismo. Si la hipótesis de Avogadro fuera
errónea, las fórmulas químicas que de ella se derivaron difícilmente darían resultados
consistentes respecto a los pesos atómicos. El éxito del método para predecir las
proporciones necesarias en la preparación de compuestos químicos sirvió de apoyo a los
pocos físicos y químicos que, hacia finales del siglo, aceptaban la existencia de los átomos.
La idea de que las moléculas son combinaciones de números enteros de átomos originó el
concepto de valencia. La valencia de un elemento se define como el número de pesos
atómicos de hidrógeno, o de cualquier otro elemento de valencia unitaria, que se combinan
con ese elemento para formar un compuesto. Por ejemplo, la valencia del oxígeno es dos.
Luego de determinar la valencia de todos los elementos conocidos, los químicos del siglo
XIX empezaron a encontrar que las propiedades químicas de los elementos estaban
relacionadas con esa valencia. Por ejemplo, una de las familias de elementos de valencia
unitaria incluye al flúor, al cloro, al bromo y al yodo, que son gases corrosivos, que
reaccionan con metales para formar sales cristalinas. Otra familia de elementos de valencia
unitaria incluye el litio, sodio y potasio, que son metales que reaccionan violentamente al
contacto con el agua.
Los esfuerzos por clasificar elementos en familias de acuerdo con sus propiedades se
intensificaron hacia la segunda mitad del siglo pasado. Por ejemplo, en 1863 el inglés J. A.
R. Newlands hizo una tabla cíclica en la que acomodaba los elementos de acuerdo con su
peso, utilizando el hecho, por entonces ya establecido, de que los elementos cuyos pesos
atómicos difieren en ocho unidades muestran propiedades químicas muy parecidas entre sí.
En 1869 el químico ruso Dmitri Ivanovich Mendeleev propuso una tabla en la que agrupaba
a los elementos de acuerdo con sus propiedades físicas y químicas, su valencia y su peso
atómico. La tabla de Mendeleev agrupaba a los elementos en 17 columnas, cada una con
una familia que poseía propiedades químicas muy parecidas. En 1871, Mendeleev modificó
su tabla periódica reduciéndola a sólo ocho columnas. Un detalle interesante en este
trabajo fue que al acomodar los elementos en la nueva tabla quedaban seis espacios
vacíos. Si tenían validez los arreglos de Mendeleev, se podía considerar como una
predicción la existencia de elementos aún no descubiertos que debían llenar los espacios
en blanco. Tres de esos elementos (escandio, galio y germanio) fueron descubiertos poco
tiempo después y mostraban propiedades muy parecidas a las predichas por Mendeleev. De
los otros tres, el renio y el polonio fueron descubiertos hacia fines del siglo XIX y el
tecnecio sólo fue descubierto en reacciones nucleares a mediados del siglo XX. La
capacidad predictiva de la tabla periódica reforzó la confianza en la teoría atómica.
Mendeleev, nacido en Siberia en 1834, además de su aportación a la química, tenía ideas
revolucionarias en agronomía y en política, al punto de que se ganó enemigos importantes
en el gobierno ruso de aquel entonces.
7. FARADAY Y LOS IONES
Una propiedad que liga claramente a la materia con la electricidad, también descubierta a
principios del siglo XIX, se refiere a la disociación de compuestos químicos por corrientes
eléctricas en un proceso conocido como electrólisis. Este proceso fue descubierto
accidentalmente en 1800 por William Nicholson y Antony Carlisle mientras estudiaban la
operación de baterías eléctricas. Utilizando gotas de agua para mejorar el contacto
eléctrico de una batería, notaron que se producían burbujas. Luego, al estudiar con más
cuidado el fenómeno, se dieron cuenta de que cerca de la terminal negativa de la batería el
gas liberado era hidrógeno, mientras que en el lado positivo se producía oxígeno. Pronto se
estudió la disociación de otros compuestos utilizando este método. Uno de los trabajos más
extensos realizados en este campo fue el de sir Humphrey Davy, quien con la ayuda de la
electrólisis descubrió los elementos sodio y potasio al someter ciertas soluciones salinas a
la acción de corrientes eléctricas.
Faraday, de acuerdo con la teoría atómica, dedujo que debería existir una cantidad
irreducible de carga necesaria para disociar un compuesto. La carga utilizada en producir
las cantidades observadas de hidrógeno u oxígeno a partir de agua, por ejemplo, era un
múltiplo de la unidad electrolítica de carga básica.
Dada la poca precisión de los aparatos desarrollados hasta entonces, a Faraday le era
imposible deducir el valor de la carga necesaria para ionizar una sola molécula a través de
la electrólisis, es decir, de la unidad electrolítica de carga. Esta situación era similar a la
que había enfrentado Dalton con la masa de los átomos. Por lo tanto, Faraday, al igual que
Dalton, se concretó a establecer relaciones entre las cantidades de elementos producidos
por electrólisis con una carga fija. De esta manera determinó que la carga eléctrica para
producir un mol de cualquier material es 96450 coulombs, unidad ahora conocida
como constante de Faraday o simplemente Faraday. Si el número de Avogadro nos indica la
cantidad de moléculas contenidas en un mol, su conocimiento habría permitido obtener
directamente la masa y la carga de una molécula a partir de los hallazgos de Dalton y
Faraday, respectivamente. Sin embargo, incluso sin esa información, el cociente entre el
faraday y la masa de un mol de hidrógeno permitió entonces saber la relación entre la
carga más elemental y la masa más elemental, que resultó ser 1.044.10-8 kg/coulomb.
8. LA LUZ COMO UNA ONDA
Otro tema que interesó a Faraday —en el que hizo una de sus más grandes aportaciones—
fue la naturaleza de la luz. Como se recordará, a principios del siglo XVIII dos grandes de
la física, Newton y Huygens, basados en concepciones diferentes, habían llegado a
predicciones que se contradecían en cuanto a la velocidad de la luz en diferentes medios.
Esta discrepancia tan clara daba una oportunidad para discernir entre las concepciones
corpuscular y ondulatoria de la luz.
Pasaron más de cien años hasta que el físico francés Armand Fizeau hizo la primera medida
precisa de la velocidad de la luz en el aire. Utilizando un espejo semitransparente, desde su
casa en el barrio de Suresnes en París, Fizeau dirigió un haz de luz hacia un espejo
colocado a más de ocho kilómetros en la punta del cerro Montmartre. Observando el reflejo
distante a través del mismo espejo semitransparente, Fizeau interrumpió el haz por medio
de un engranaje giratorio, con cuyos dientes se producía un haz intermitente. Cuando el
tiempo que tardaba la luz en ir y volver a Montmartre era igual al tiempo de giro necesario
para el avance de un diente, los destellos desaparecían por completo. Una simple relación
geométrica le permitió, en 1849, deducir que la velocidad de la luz era de 313 000 km/seg.
Posteriormente, en 1862, ayudado ahora por su asistente Jean B. L. Foucault, el cual
sustituyó el engranaje por un espejo rotatorio, obtuvo un valor un poco menor de 298 000
km/seg, que es apenas un 1% diferente del más preciso obtenido en nuestros días. El
propio Foucault determinó que la velocidad de la luz en el agua es menor que en el aire, de
acuerdo con la predicción de la teoría ondulatoria apoyada por Huygens, con lo que se dio
un duro golpe a la concepción corpuscular de la luz.
9. EL ELECTROMAGNETISMO
Hacia principios del siglo XIX la idea de que la luz es producto de un fenómeno ondulatorio
prevalecía sobre la concepción corpuscular. Sin embargo, poco se sabía acerca de su
naturaleza y nadie sospechaba su estrecha relación con los
fenómenos electromagnéticos. Tanto la electricidad como el magnetismo reflejan su acción
en fenómenos como la atracción o repulsión de cuerpos cargados o imanes. En 1785, el
francés Charles-Augustin Coulomb demostró que la fuerza entre cargas y entre imanes es
inversamente proporcional al cuadrado de la distancia que los separa. En 1820 el danés
Hans Christian Oersted, profesor de física en la Universidad de Copenhague, durante una
de sus clases se percató de que la dirección que indica una brújula se ve afectada al hacer
pasar una corriente eléctrica por un alambre cercano. Por aquellas fechas varios
investigadores buscaban alguna relación entre la electricidad y el magnetismo, pero a
nadie se le había ocurrido acercar un imán tan ligero a un alambre o a una bobina. Oersted,
intrigado, estudió más a fondo el fenómeno. La fuerza entre el imán y el alambre
aumentaba con la corriente eléctrica, y se invertía al cambiar el sentido de la corriente.
También observó que la fuerza se sentía en el alambre, como si se tratara de dos imanes.
Oersted publicó sus resultados en julio de 1820, y en septiembre dio una plática en París
ante una audiencia que incluía a André Marie Ampère, profesor de matemáticas de la Ècole
Polytéchnique. Una semana después, el propio Ampère anunciaba que las fuerzas de
Oersted también actuaban entre dos alambres que acarrearan corriente eléctrica.
Volviendo a Faraday, en 1831 él buscaba demostrar que si una corriente eléctrica afecta a
un imán, entonces el imán debería afectar a la corriente. Con este propósito, primero rodeó
imanes con alambres, sin encontrar ningún efecto. Posteriormente utilizó dos bobinas, una
conectada a una batería y otra a un medidor de corriente. Con este arreglo Faraday notó
que mientras que la corriente fluía uniformemente por la primera bobina, no se registraba
ninguna corriente en la segunda, la cual sólo indicaba alguna reacción al conectar o
desconectar el circuito de la primera. Pronto se dio cuenta de que el mismo efecto era
válido para un imán permanente y un alambre. Al mover el imán, el alambre registraba una
corriente. Observaciones similares y aparentemente independientes fueron reportadas por
el norteamericano Joseph Henry en 1832.
En 1846 Faraday observó que el plano de oscilación (polarización) de un haz de luz podía
ser modificado por campos magnéticos intensos. Esto mostraba por primera vez alguna
relación entre la luz y el electromagnetismo. Faraday mismo sugirió, con base en lo
anterior, que la luz podría consistir en oscilaciones transversales a las líneas de fuerza
eléctrica o magnética. Según esto, el origen de la luz debería consistir en algún tipo de
vibración eléctrica dentro del cuerpo que emite la luz. En uno de sus últimos experimentos,
Faraday expuso una flama de sodio a la acción de un campo magnético para buscar algún
efecto sobre el espectro luminoso, pero no logró observar cambio alguno. Como veremos
más adelante, un experimento similar dio a Zeeman el Premio Nobel años más tarde.
Por estas épocas aparece en escena uno de los físicos teóricos más notables de todos los
tiempos: James Clerk Maxwell. Nacido en 1831 en el seno de una familia acomodada,
Maxwell recibió una educación esmerada; tuvo como maestros a los mejores matemáticos
ingleses de su época. Su posición económica le permitió renunciar a los 34 años a su cargo
de profesor en el King's College de Londres para dedicar mayor tiempo a la investigación.
Su obra expresa, en términos matemáticos de gran elegancia, teorías sobre temas como la
termodinámica y la teoría cinética de los gases. Poco antes de dejar el King's College
publicó su trabajo Teoría dinámica del campo electromagnético y, años después, su Tratado
de electricidad y magnetismo, en el que reduce a cuatro ecuaciones fundamentales su
teoría, la cual describe precisamente la fenomenología de Faraday y otros. Las ecuaciones
de Maxwell representan el conjunto de condiciones que determinan el campo
electromagnético.
11. RESUMEN
Hasta el siglo XVIII, los hallazgos más importantes en la búsqueda de respuestas a las
interrogantes de los griegos fueron principalmente en el entendimiento de los fenómenos
eléctricos y magnéticos por una parte, y de la luz por la otra. En cuanto a la constitución de
la materia, durante más de dos mil años la alquimia permaneció dominada por brujos y
charlatanes, con lo que se obscureció la labor de unos pocos que lograron sistematizar
algunas reacciones químicas simples. El trabajo de John Dalton sobre los pesos atómicos ,
a principios del siglo XIX cambió ese panorama y sentó las bases para el establecimiento
de la química como una ciencia , con el consiguiente fortalecimiento de la teoría atómica.
Otro paso fundamental ocurrido durante el siglo XIX fue la unificación de los fenómenos
eléctricos y magnéticos, en una descripción que acabó de explicar la naturaleza misma de
la luz.
1. INTRODUCCIÓN
En el capítulo anterior vimos cómo, hacia fines del siglo XIX, se logró una descripción
unificada de los fenómenos electromagnéticos. Si la luz resulta de la vibración de cargas, la
siguiente pregunta a responder es, ¿por qué los átomos emiten luz?, ¿hay algo que vibre
dentro de ellos? Como veremos a continuación, la respuesta de la última pregunta es: sí, el
electrón. Las primeras evidencias de la existencia de esa partícula son muy antiguas y
están asociadas con la electricidad, es decir, con los fenómenos relacionados con el
movimiento, acumulación o deficiencia de electrones en la materia.
El fenómeno eléctrico más espectacular es el de las descargas entre nubes (los rayos), que
originalmente era asociado al estado de ánimo de algunas deidades; fue Benjamín Franklin
el primero en demostrar su naturaleza eléctrica en su famoso experimento con cometas de
papel. Sin embargo, los rayos resultaron demasiado esporádicos e incontrolables como
para permitir su estudio sistemático.
Las descargas eléctricas a través de gases habían sido observadas en el laboratorio por
Francis Hauskbee quien, en 1709, reportó la aparición de una luz extraña cuando
electrificaba un recipiente de vidrio que contenía aire a baja presión. Otros estudiosos del
fenómeno fueron William Watson, quien en 1748 notó la aparición de flamas en la zona de
vacío de sus barómetros de mercurio, y Michael Faraday, quien en 1838 realizó
experimentos con descargas eléctricas a través de gases enrarecidos. La conducción
eléctrica a través de gases intrigó a Faraday, ya que incluso los gases que eran
considerados como aislantes, cuando eran enrarecidos, propiciaban fácilmente ese tipo de
descargas. ¿Sería posible la conducción eléctrica en el vacío? En tal caso, se podría estudiar
directamente la naturaleza del fluido eléctrico.
Antes de que se lograra dar respuesta a esta pregunta, debieron desarrollarse tres técnicas
experimentales fundamentales: una bomba de vacío eficiente, un sello metal-vidrio que
permitiera transmitir el potencial eléctrico a los electrodos dentro de la zona evacuada y la
bobina de inducción para obtener las enormes diferencias de potencial requeridas. La
necesidad de este tipo de cambios se aprecia mejor si se considera que Faraday utilizaba
un tubo de vidrio tapado en ambos extremos por corchos a través de los cuales hacía pasar
alambres para conectar los electrodos internos a una batería.
Las primeras bombas de vacío funcionaban con pistones ajustados a sus respectivos
cilindros a través de empaques que sellaban muy mal. No fue sino hasta 1855 que Johann
Heinrich Geissler inventó en Bonn, Alemania, una bomba que utilizaba columnas de
mercurio como pistones, y que eliminaba así los empaques. De este modo, se lograron
obtener presiones de una diezmilésima de atmósfera. Simultáneamente, el mismo Geissler
desarrolló nuevos tipos de vidrio cuyos coeficientes de dilatación eran iguales a los de
algunos metales, con lo que permitió pasar alambres a través de vidrio fundido sin peligro
de que se formaran fracturas por las que se perdiera el vacío.
Otra mejora indispensable fue la obtención de grandes diferencias de potencial eléctrico.
En este sentido, la contribución de otro alemán, Heinrich Daniel Ruhmkorff, fue importante.
Como ya se mencionó, los primeros experimentos con tubos de descarga obtenían sus
voltajes de baterías enormes conectadas en serie. Ruhmkorff modificó la bobina de
inducción para obtener algo parecido a las bobinas de los automóviles actuales, con las que
se producen descargas de miles de voltios a partir de una batería de menos de diez voltios.
Con estos avances, en 1858 el profesor alemán Julius Plucker estudió la conducción de
electricidad a través de gases a muy baja presión utilizando un tubo de vidrio en el que
colocó dos placas metálicas en la parte interior de los extremos. Tal como se había
observado antes para un vacío pobre, Plucker vio cómo se iluminaba todo el tubo al aplicar
electricidad a las placas. Sin embargo, cuando casi todo el gas era evacuado notó que esa
luz desaparecía quedando tan sólo un resplandor verdoso en el vidrio cercano a la zona de
la placa conectada a la terminal positiva de su fuente de electricidad (el ánodo); la imagen
luminosa no dependía mucho de la posición de ese electrodo. Más bien, parecía como si la
luminosidad en esa zona fuera producida por algún tipo de rayos emitidos por la placa
conectada al cátodo, y que viajaban de una placa a la otra a través del vacío. Plucker
también observó que la posición de la imagen luminosa podía ser modificada si se acercaba
un imán a la zona del ánodo. Un alumno de Plucker, J. W. Hittorf, encontró que al
interponer objetos entre el cátodo y el ánodo se producían sombras en la imagen luminosa,
con lo que reforzó la idea del origen catódico para esos rayos. El nombre de rayos
catódicos fue introducido años después por el investigador alemán Eugen Goldstein, quien
además demostró que las propiedades de esos rayos no dependían del material de que
estuviera hecho el cátodo.
Una de las primeras teorías sobre la naturaleza de los rayos catódicos fue propuesta por el
inglés William Crookes, quien sugirió que se podía tratar de moléculas de gas, cargadas
eléctricamente en el cátodo y, posteriormente, repelidas violentamente por la acción del
campo eléctrico. Goldstein puso en duda esta hipótesis basado en la gran penetrabilidad
que demostraban tener los rayos catódicos, lo cual había sido interpretado por el físico
alemán Heinrich Hertz como una indicación de que, en lugar de partículas, los rayos
catódicos serían ondas electromagnéticas tal como él mismo había demostrado que era la
luz. Sin embargo, en 1895 el físico francés Jean Baptiste Perrin encontró que los rayos
catódicos depositaban carga en un electroscopio, con lo que confirmó que se trataba de
partículas cargadas. Fue por aquellas fechas que el inglés Joseph John Thomson se interesó
en medir la velocidad de dichas partículas.
4. THOMSON Y EL ELECTRÓN
Para medir la velocidad de los rayos catódicos, Thomson los hacía pasar por la combinación
de un campo eléctrico y uno magnético, producidos por un par de placas conectadas a una
batería y por un par de electroimanes, respectivamente (véase figura 2). Tanto la fuerza
eléctrica como la magnética ejercidas sobre las supuestas partículas eran directamente
proporcionales a la relación entre su carga y su masa. Sin embargo, la fuerza magnética
depende, además, de la velocidad. Con este principio, Thomson ajustaba ambos campos
para compensar con el segundo la
Figura 2. Tubo de rayos catódicos. Los electrones emitidos por el cátodo (C) son acelerados
por el campo eléctrico hacia el ánodo (A) que deja pasar algunos por un orificio central. La
trayectoria de este haz es afectada por la acción de un campo magnético y uno eléctrico.
J.J. Thomson buscaba cancelar esos efectos para determinar la velocidad de los electrones.
Los resultados del trabajo de Thomson indicaban que la velocidad de los rayos con los que
él trabajaba era, aproximadamente, diez veces menor que la de la luz. Sin embargo, lo que
más llamó su atención es que la relación carga/masa obtenida era mil veces mayor que la
esperada para iones. Este resultado sugería que, si los rayos catódicos tenían algún origen
atómico, se trataba de partículas (los electrones) mil veces más ligeras que el átomo de
hidrógeno. Estas partículas resultaron ser los electrones.
Estrictamente, el que la masa del electrón fuese mil veces menor que la del átomo que lo
contenía era sólo una de las posibles interpretaciones, que dependía de suponer que la
carga del electrón era igual a la unidad electrolítica de carga. Fue entonces necesario
determinar experimentalmente, y en forma independiente, la carga y/o la masa del
electrón.
Thomson y otros de sus colegas, J. S. E. Townsend y H. A. Wilson, cada uno por su cuenta,
diseñaron métodos para medir la masa de las gotitas que se formaban alrededor de cada
ion. Townsend, por ejemplo, separaba el líquido de las gotitas que se formaban alrededor
de iones, midiendo la carga total. La masa de cada gotita era deducida de la velocidad de
caída bajo la acción conjunta de la gravedad y la viscosidad del aire. La masa total del
líquido dividido por la masa de cada gotita determinaba el número de gotitas acumuladas, y
la carga total dividida por el número de gotitas daba la carga de cada gotita. En el supuesto
de que cada gotita creció alrededor de un ion, la carga de cada gotita sería la carga del ion.
Y ya que este tipo de ionización se puede asociar con la pérdida de un electrón por parte de
una molécula, la carga del ion es de la misma magnitud que la del electrón perdido, puesto
que la molécula no ionizada es eléctricamente neutra. El método de Thomson utilizaba
medidas de conductividad eléctrica y térmica de la nube gaseosa para determinar la masa
líquida, mientras que H. A. Wilson mejoró el método de Townsend al incluir un campo
eléctrico variable, paralelo al gravitacional, que permitía una medida más directa de la
carga de cada gotita. Sus resultados, publicados independientemente entre 1897 y 1903,
indicaban que la carga iónica era del orden de l0-19 coulombs.
Las medidas del grupo de Thomson, a pesar de ser bastante cercanas al valor aceptado
actualmente (1.6021.10-19 coulomb), fueron vistas con desconfianza y abrieron el camino
para medidas más precisas. En 1906, el físico norteamericano Robert Andrews Millikan
atacó el problema repitiendo las medidas de H. A. Wilson con la ayuda de Harvey Fletcher,
entonces estudiante de doctorado. Pronto se dieron cuenta que la masa de las gotitas
variaba rápidamente debido a la evaporación. Para minimizar este efecto empezaron a
utilizar gotitas de aceite. Otro cambio importante fue que, en lugar de observar el
comportamiento global, Millikan se concentró en el comportamiento de gotas individuales
al ser expuestas al efecto combinado de la gravedad y el campo eléctrico a la manera de
Wilson. Los resultados mostraron que, si bien la carga inicial de cada gotita observada era
enorme comparada con lo reportado por Thomson y su grupo, ésta fluctuaba de una a otra
(para la misma gotita) en pasos discretos. Pronto se dieron cuenta de que estas diferencias
eran múltiplos pequeños de una misma carga, aparentemente debidas a la pérdida o
ganancia de algunos electrones por interacción con el medio en su trayecto. Luego de un
simple análisis estadístico, esto los llevó a deducir 1.592.10 -19 coulombs como la carga del
electrón, que se denota comúnmente con la letra e. Millikan recibió el Premio Nobel en
1923 por este trabajo.
Una vez determinada la carga del electrón, su masa pudo ser deducida utilizando la
relación carga/masa medida por Thomson, que dio como resultado 9.10 -31 kg. El propio
Millikan dedujo el número de Avogadro, simplemente dividiendo el faraday por e, que dio
como resultado: 6.06.1023 moléculas por mol, y la masa del ion de hidrógeno a partir de la
relación carga/masa deducida en electrólisis, que dio 1.66 .10 -27 kg. Es decir, la masa del
electrón es casi 1/2000 de la del átomo que lo contiene. Un cálculo aritmético simple
también permitió a Thomson deducir que las dimensiones de un átomo son del orden de 10 -
10
metros.
Para terminar, vale la pena hacer notar que, si bien Zeeman y otros realizaron
simultáneamente investigaciones cuyos resultados muestran inequívocamente la existencia
del electrón, el crédito de este descubrimiento se otorga casi enteramente a Thomson. Esto
puede deberse a que, desde su publicación original, Thomson hizo hincapié en el
carácter elemental del electrón, al considerarlo una fracción del átomo.
6. RESUMEN
Los estudios enfocados a entender la naturaleza del fluido eléctrico fueron motivados
inicialmente por las descargas a través de gases. En tal labor se requirió el desarrollo de
técnicas de vacío y de otras que dieron como resultado el tubo de rayos catódicos. El
descubrimiento de que estos rayos están constituidos por partículas cargadas fue la labor
de J. J. Thomson quien, antes de deducir la naturaleza elemental, necesitó demostrar que
su masa era mucho menor que la de los átomos que las contenían.
1. INTRODUCCIÓN
Volvamos ahora al viejo problema de la naturaleza de la luz. En otro capítulo vimos cómo,
hasta el siglo XVIII, la luz era vista por unos como un haz de partículas y por otros como
un fenómeno ondulatorio y cómo, durante el siglo pasado, la interpretación ondulatoria de
la luz dominó, quedando sólo un par de fenómenos sin explicar con base en ese modelo. La
solución a los problemas que revisaremos a continuación fue tan desconcertante como
reveladora: la luz está compuesta por paquetes de onda. Estas ondas-partícula se
denominan fotones, y son las mensajeras del campo electromagnético. No poseen masa y
su velocidad impone un límite al que ninguna partícula material puede viajar. En este
capítulo se describe la evolución de las ideas y los experimentos que llevaron a tan original
conclusión.
2. EL ORIGEN DE LA LUZ
El éxito de la teoría de Maxwell reforzó la idea de que la luz, tal como lo sospechó Faraday,
es producida por vibraciones eléctricas dentro del cuerpo emisor. En 1896 Pieter Zeeman,
de la Universidad de Leyden, utilizó una finísima malla de difracción recién desarrollada por
Rowland en la Universidad Johns Hopkins para repetir el experimento propuesto por
Faraday sobre posibles efectos ante la acción de un campo magnético en el espectro de
emisión del sodio. Zeeman observó un ensanchamiento en las líneas espectrales tan pronto
encendía su electroiman Tal ensanchamiento, indicó, es proporcional a la intensidad del
campo magnético. Su profesor y colega, Hendrik Antoon Lorentz, propuso una explicación
teórica para tal efecto. Según Lorentz, la radiación es emitida por cargas que vibran dentro
de los átomos del cuerpo luminoso. Esta oscilación estaría separada en dos componentes,
una paralela y una perpendicular al campo magnético externo. Ya que sólo la oscilación
perpendicular sería sensible al campo, la frecuencia asociada a este movimiento se vería
ligeramente afectada. Lorentz concluyó que el efecto debería implicar, no un
ensanchamiento, sino la separación de cada línea espectral en tres componentes.
Motivado por el éxito obtenido al explicar las observaciones de Zeeman, Lorentz extendió la
teoría de Maxwell al caso de la emisión y absorción de luz por electrones oscilantes en la
materia. Según este modelo, cuando la luz (ondas electromagnéticas) penetra la materia,
los campos eléctricos oscilantes inducen oscilaciones en los electrones del medio. La
oscilación de estas cargas, a su vez, produce ondas electromagnéticas secundarias en
todas direcciones. Tal descripción explica elegantemente el principio de Huygens, la
dispersión, reflección y otros fenómenos ondulatorios de la luz antes descritos.
Hacia fines del siglo XIX era claro que la absorción y emisión de luz por los cuerpos se
debía a la interacción de la radiación electromagnética con los electrones del medio, al
hacerlos vibrar. Ya que la teoría de Maxwell se refiere a la radiación electromagnética en
general, y no sólo a la luz visible, era importante generalizar estas ideas para entender los
fenómenos de absorción y emisión de radiación térmica por un medio. Por simplicidad, los
teóricos de la época consideraban el caso más simple: un cuerpo negro. Según el modelo
ideal, un cuerpo negro es aquel que es capaz de absorber radiación de cualquier frecuencia
o color.
Se puede simular bien un cuerpo negro, por ejemplo, con un orificio en una esfera. La
radiación que incide en tal orificio se refleja múltiples veces en el interior de la esfera,
habiendo en cada reflexión alguna pérdida por absorción. Si las dimensiones del hoyo son
pequeñas comparadas con la superficie de la esfera, la probabilidad de que la radiación
reflejada internamente escape en su totalidad por el orificio antes de ser absorbida es,
idealmente, cero. La radiación que emerge por el orificio refleja el espectro de emisión del
propio cuerpo, que es sólo función de su temperatura. La intensidad de esta radiación
puede ser medida como función de la frecuencia, o sea el espectro del cuerpo negro.
Mediciones de este estilo ya habían sido efectuadas por varios laboratorios en el siglo XIX.
En principio, debería ser fácil entender la relación observada entre la frecuencia y la
intensidad.
El cuerpo negro está compuesto de átomos que contienen electrones. Al calentar el cuerpo,
los electrones vibran y emiten radiación electromagnética. Ya que el cuerpo negro absorbe
todas las frecuencias con igual probabilidad, y la emisión es sólo el proceso inverso, uno
debería esperar que todas las frecuencias fueran emitidas con igual probabilidad. Según
este modelo, la energía de una vibración aumenta en una relación proporcional al cuadrado
de la frecuencia de la vibración, por lo que una igual probabilidad de emisión implica una
energía que aumenta geométricamente con la frecuencia. Los resultados experimentales,
sin embargo, indicaban que la intensidad disminuía a partir de cierta frecuencia máxima, la
cual es función de la temperatura del cuerpo.
Existía, además, otro fenómeno asociado a la luz que parecía inexplicable con base en la
teoría de Maxwell. Se trata de un efecto conocido como fotoeléctrico (véase figura 3). En
1887, Heinrich Rudolf Hertz descubrió que podía inducir la descarga eléctrica entre dos
esferas cargadas al iluminar con luz ultravioleta la zona de descarga. Poco después
Wilhelm Hallwachs, investigando este efecto, notó también que la luz ultravioleta era capaz
de descargar placas de cinc cargadas negativamente. Luego se dio cuenta de que este
efecto persistía en otros metales, incluso si disminuía la intensidad de la luz. Sin embargo
encontró que el efecto desaparecía si, en lugar de ultravioleta, utilizaba luz roja o infrarroja
aun cuando la intensidad fuera aumentada enormemente. Años después, al descubrirse el
electrón, quedó establecido que la descarga de las placas se debía a la pérdida de
electrones por acción del campo electromagnético de la luz incidente.
Figura 3. Efecto fotoeléctrico. Hallwachs descubrió que la luz es capaz de arrancar electrones de una superficie siempre
que su frecuencia supere un cierto umbral (Vo) relacionado con la energía que liga a los electrones.
Según la teoría electromagnética de Maxwell, la energía asociada a la luz incidente
dependía tanto de su frecuencia como de su intensidad. De acuerdo con esto, si bien la luz
roja tiene menor frecuencia, al aumentar la intensidad debería vencerse el potencial que
ata a los electrones a la superficie. Inversamente, al disminuir la intensidad de la luz
ultravioleta, deberían disminuir, proporcionalmente, los fotoelectrones. Ambas
predicciones contradecían las evidencias experimentales de Hertz y Hallwachs.
En resumen, la teoría electromagnética de Maxwell, que había explicado con gran éxito la
fenomenología de la luz, parecía tropezar ahora con problemas al aplicarse a los
fenómenos asociados a la radiación calorífica y al efecto fotoeléctrico. Principia el siglo XX
y toca su turno a Max Planck.
4. EL CUANTO DE PLANCK
Planck nació en Kiel, Alemania, en 1858, en el seno de una familia de abogados. En 1867
los Planck se fueron a vivir a Munich, donde Max inició sus estudios en física. De ahí fue a
Berlín, donde tuvo como profesores a Kirchhoff y a Helmholtz. En 1879, de vuelta a Munich,
recibió el doctorado con una tesis sobre termodinámica. En Kiel consiguió su primer puesto
como profesor, en el que permaneció hasta 1889 cuando, a la muerte de Kirchhoff, Planck
heredó su plaza en Berlín. Hacia 1897 comenzó a trabajar en el problema de la emisividad
del cuerpo negro. Convencido de que la radiación del cuerpo negro no depende de la
naturaleza de las paredes sino, tan sólo, de su temperatura, Planck atacó el problema
imaginando que la absorción y emisión de radiación se realizaban a través de osciladores.
Años antes, en 1893, el alemán Wilhelm Wien (Premio Nobel de 1911) había logrado
combinar la formulación de Maxwell con las leyes de la termodinámica para tratar de
explicar la emisividad del cuerpo negro pero, como sabemos, sus predicciones no
coincidieron con el experimento. Impresionado por la elegancia del trabajo de Wien, Planck
intentó modificarlo y generalizarlo para ajustar los datos experimentales, usando como
truco de cálculo una fragmentación de la energía transferida por los osciladores
en paquetes, cuyo tamaño pensó reducir para recuperar la forma continua del flujo de
energía entre los osciladores. Sin embargo, encontró que sólo se ajustaban los observables
experimentales si el tamaño de sus paquetes permanecía finito. Si bien este resultado
permitió resolver un problema, el de la radiación del cuerpo negro, la verdadera magnitud
del significado de los paquetes, los cuantos de Planck, pasó desapercibida hasta que un
modesto empleado de la oficina de patentes en Berna, como se verá en seguida, utilizó el
concepto para explicar el efecto fotoeléctrico. Planck recibió el Premio Nobel en 1918 por el
trabajo recién descrito.
5. EINSTEIN Y EL FOTÓN
Albert Einstein nació en Ulm, Alemania, el 14 de marzo de 1879. Seis semanas después, su
familia se trasladó a Munich, donde Albert recibió la educación primaria; posteriormente
estudió en Aarau, Suiza, e ingresó en 1896 al Politécnico de Zurich, para prepararse como
maestro de física y matemáticas. En 1901 recibió su diploma y se nacionalizó suizo. Al no
encontrar trabajo como maestro, tomó un puesto como asistente técnico en la oficina de
patentes de Berna. En 1905 obtuvo su doctorado y publicó tres trabajos que pasarían a ser
considerados entre los más importantes en la física de nuestro siglo.
En marzo de 1905, Einstein publicó el artículo que nos concierne aquí, y que fue
considerado por el Comité Nobel como el principal motivo para otorgarle el premio en 1921.
En él explica sus ideas sobre la generación y la transformación de la luz, y aplica su modelo
a la descripción del efecto fotoeléctrico. La idea de Einstein utiliza el resultado de Planck
sobre la aparente emisión de energía de un cuerpo negro en forma de paquetes; sin
embargo, Einstein propone que la cuantización es una propiedad intrínseca de la luz y no
de los osciladores como había pensado Planck. En este nuevo modelo, la luz es una onda
electromagnética, tal como lo propuso Maxwell, sólo que en lugar de tratarse de una onda
continua se encuentra modulada en paquetes de energía. Esto implica una dualidad de
características pues, a pesar de ser una onda, al estar localizada en el espacio y poseer una
energía definida, presenta características similares a las de las partículas.
5. PARTÍCULAS Y ONDAS
El proponer que, tal como la materia, la energía también se encuentra atomizada, fue una
idea genial que trajo consigo el desarrollo de la mecánica cuántica. Las predicciones de
Einstein sobre el efecto fotoeléctrico fueron verificadas con precisión por Millikan en 1914-
1916. Sin embargo, había una diferencia entre cuantos de energía y las partículas, pues
estas últimas también se caracterizan por un ímpetu lineal. La posibilidad de asignar
ímpetu a los cuantos no puede ser asociada a un solo autor o a un solo trabajo, si bien
hacia 1916 el propio Einstein ya se refería a los cuantos en este sentido. Tuvieron que
pasar varios años antes que esta hipótesis pudiera ser comprobada. Los primeros
experimentos fueron realizados por el norteamericano Arthur Holly Compton (Premio Nobel
1927) y consistían en estudiar la dispersión de rayos X por electrones. Las observaciones
de Compton confirmaron que al chocar un cuanto de luz con un electrón, éstos dividen su
energía y su ímpetu de acuerdo con la cinemática que se esperaría del choque entre dos
partículas. En octubre de 1926, Gibert Newton Lewis, en un artículo en la revista
inglesa Nature, se refirió por primera vez a los cuantos de energía como fotones, lo que
implicaba la aceptación del cuanto de luz en el campo de las partículas elementales.
Paradójicamente, al tiempo que se consolidaba el concepto del fotón como una partícula, el
concepto de materia, y por tanto el de partícula, perdió el sentido determinista que hasta
entonces se le asociaba. En 1924 el príncipe francés Louis Victor de Broglie propuso una
teoría sobre el electrón, que posteriormente fue generalizada para el resto de las
partículas, en la cual se consideraba al electrón como un paquete de onda, similar al fotón,
pero con masa. La teoría de De Broglie, que le mereció el Premio Nobel en 1929, fue
comprobada con éxito tres años después por Clinton Davisson y Lester Germer al observar
la difracción de electrones a través de un cristal. Desde entonces, onda y partícula, energía
y materia, se confunden, y el paso de una a la otra se rige por las leyes de la relatividad y la
mecánica cuántica.
5. RESUMEN
EL PROTÓN: RUTHERFORD
1. INTRODUCCIÓN
Con el descubrimiento del electrón se reveló que el átomo es, paradójicamente, divisible.
Quedaba entonces por explicar la estructura del átomo. Con el descubrimiento del núcleo
atómico se inició una nueva etapa en la búsqueda de lo elemental: las partículas nucleares.
La primera de ellas, el protón, es el núcleo del átomo de hidrógeno y, combinado con
neutrones, es constituyente básico de los núcleos del resto de los elementos. Su nombre se
deriva de la voz griega para principal o primero ()
Comparado con el electrón, el protón posee una carga de idéntica magnitud pero de signo
opuesto y una masa casi 2 000 veces superior. Esta relación carga/masa refleja su poca
movilidad relativa y, por lo tanto, el que los fenómenos asociados al transporte de carga
hayan podido ser entendidos tan sólo tomando en cuenta al electrón. Por otra parte, como
se vio en el capítulo II, desde principios del siglo XX y basado en las observaciones de
Dalton, Prout intuyó el carácter elemental del protón al proponer que todos los elementos
estarían formados de números enteros de átomos de hidrógeno.
2. RAYOS X Y RADIACTIVIDAD
Durante los últimos años del siglo pasado, el mundo de la física se vio conmovido por una
serie de descubrimientos revolucionarios que culminaron, como ya vimos, con el del
electrón por Thomson en 1897. Primero fueron los rayos X, por Wilhelm Konrad Röntgen en
1895. En Wurzburg, Alemania, Röntgen encontró que los rayos catódicos, al incidir sobre el
vidrio del aparato que los generaba, producían radiaciones muy penetrantes capaces de
velar placas fotográficas cubiertas y de producir fluorescencia en algunos materiales, aun
cuando ante éstos se interponían obstáculos delgados, como hojas de papel. Este
descubrimiento sirvió de motivación para ciertos estudios de Henri Becquerel, en París, el
cual estaba muy interesado en entender el fenómeno de la fluorescencia.
Por una casualidad afortunada, entre los materiales fluorescentes utilizados por Becquerel
había una sal de uranio. Los primeros experimentos con ese material dieron resultados
interesantes pues, luego de un día de exposición, encontró que las placas fotográficas
mostraban, tenuemente, las siluetas del cobre. Sin embargo, el clima parisino ese febrero
no favorecía mucho sus experimentos, pues estuvo nublado el resto del mes, por lo que
decidió guardar sus atados de placas con muestras en un cajón, esperando días más
soleados.
El 3 de marzo, cuando el tiempo mejoraba, reinició sus experimentos. Al revelar las placas
fotográficas de los días nublados, que habían estado en su cajón la mayor parte del tiempo,
se sorprendió al encontrar que éstas se encontraban veladas intensamente con siluetas
bien marcadas. A partir de ese momento, y todavía pensando que el fenómeno se debía a
algún tipo de fluorescencia inducida por la luz solar recibida anteriormente, decidió repetir
sus experimentos pero ahora manteniendo las sales en la obscuridad. Dos meses después,
las sales seguían emitiendo radiación con igual intensidad. Además notó que esas
radiaciones eran producidas por cualquier sal de uranio, fosforescente o no, con luz o sin
ella, por lo que concluyó que el fenómeno estaba directamente relacionado con la presencia
de uranio en los compuestos. Becquerel había descubierto la radiactividad.
Poco tiempo después, también en París, la polaca Marie Sklodowska-Curie descubrió que el
torio tenía propiedades similares a las del uranio y, junto con su marido, el francés Pierre
Curie, descubrió el elemento radio que es millones de veces más activo que el uranio. Por
estos descubrimientos, Becquerel, Pierre y Marie Curie recibieron el Premio Nobel en 1903.
No obstante, quedaba en pie la pregunta: ¿Qué es la radiactividad?
Figura 4. Tipos de radiación nuclear. Rutherford clasificó a los productos del decaimiento
de fuentes radioactivas naturales en rayos y . Si éstas poseen carga, su signo puede
ser inferido con la ayuda de un campo magnético perpendicular (matriz de puntos).
En 1899 el propio Becquerel descubrió que los rayos podían ser deflectados por un campo
magnético y lo hacían en la misma dirección de los electrones de Thomson. Convencido de
que se trataba de las mismas partículas, usó la metodología de éste y encontró que la
relación carga/masa de los rayos era, en efecto, muy parecida a la de los electrones.
4. EL NÚCLEO
Una vez descubierto el núcleo, la pregunta inmediata fue ¿de qué está compuesto? Ya
desde los tiempos de Dalton y Faraday un siglo atrás, los pesos atómicos se referían al del
hidrógeno. Dalton hizo notar que las masas de los elementos eran muy cercanas a
múltiplos enteros de la del hidrógeno, lo que indujo al médico inglés William Prout a
proponer, en 1815, que todos los elementos químicos estaban constituidos por números
enteros de átomos de hidrógeno. Una vez descubierto el electrón y el núcleo, era razonable
suponer que los núcleos de los elementos estuvieran hechos de números variables de
protones. Sin embargo, los núcleos no podían estar hechos de simples conjuntos de
protones ya que su carga era típicamente la mitad del número de protones que se
necesitaría para explicar su masa, lo que contradecía la evidencia sobre la neutralidad
eléctrica de los átomos.
La constitución del núcleo sólo podía ser revelada si se pudiera romper uno y analizar los
pedazos. En 1915, Mardsen, antes de volver a Nueva Zelanda como profesor, hizo notar a
Rutherford que al bombardear aire con partículas aparecían algunas partículas que tenían
un alcance extraordinariamente largo. En 1917, Rutherford decidió estudiar el problema
con la hipótesis de que se trataba de átomos de alguno de los gases presentes en el aire.
En junio de 1919, publicó un trabajo en el que anunciaba que estas radiaciones no eran
otra cosa que núcleos de hidrógeno arrancados al nitrógeno del aire por las . En su
artículo dice que, habiendo observado por primera vez la desintegración de un núcleo, la
aparición de núcleos de hidrógeno demostraba que estos últimos eran parte constitutiva
del núcleo atómico.
Como ya se mencionó, Ernest Rutherford recibió el Premio Nobel en química, en 1908, por
haber descubierto que las partículas no son otra cosa que iones del helio. Sin embargo,
Rutherford es más conocido por haber descubierto el núcleo.
4. RESUMEN
EL NEUTRÓN: CHADWICK
1. INTRODUCCIÓN
El descubrimiento del protón puso de manifiesto que, si bien éste debía ser uno de los
constituyentes fundamentales del núcleo, no era el único. Revisemos ahora los hechos que
llevaron al hallazgo de la segunda partícula nuclear, el neutrón. Como su nombre lo indica,
se trata de un objeto eléctricamente neutro, cuya masa resulta ser parecida a la del protón,
además de que es relativamente escaso en la naturaleza pues, en libertad, decae
rápidamente emitiendo un protón, un electrón y un (anti) neutrino. Neutrones y protones
se mantienen unidos formando núcleos atómicos, debido a una fuerza de atracción cuya
magnitud es tal que se le denomina interacción fuerte. Bajo esta influencia, el neutrón es
capaz de mantenerse dentro del núcleo como un ente estable.
2. LOS ISÓTOPOS
A la similitud entre las masas del protón y del neutrón se debe que el número atómico de
los elementos resulte cercano a un múltiplo entero de la masa del átomo de hidrógeno,
como se percató Prout el siglo pasado. Sin embargo, químicamente todo elemento se
caracteriza sólo por el número de sus electrones, que es el mismo que el de los protones en
su núcleo. Es decir que desde el punto de vista de sus propiedades químicas el número de
neutrones que posee el núcleo de un átomo es irrelevante. Por otra parte, las fuerzas
nucleares restringen la existencia de núcleos estables a aquellos cuyo número de
neutrones sea parecido al de protones. En general, para cada elemento hay más de un
número posible de neutrones en su núcleo. Para distinguir entre cada tipo de núcleo, de un
mismo elemento, se utiliza el nombre de isótopo ( = igual, = lugar, o sea, los que
tienen el mismo lugar en la tabla periódica) (véase figura 5).
Figura 5. Tabla periódica de los elementos. En ella se agrupan los elementos en 18 familias
(columnas) según sus propiedades químicas. Al ordenar a los miembros de cada familia
según su peso atómico se encuentran hasta siete periodos (renglones). Los isótopos de un
elemento, por poseer las mismas propiedades químicas, ocupan un mismo sitio en esta
tabla. De ahí su nombre.
3. ¿ELECTRONES EN EL NÚCLEO?
Una vez descubierto el protón, la estructura de la materia parecía ser simple si se suponía
que la masa y la carga se concentran en forma elemental en dos partículas fundamentales:
el electrón y el protón. Esto explicaba que la carga de cualquier átomo resultara ser un
múltiplo entero de la carga del electrón, que es la misma que la del protón pero de signo
opuesto. Además, una vez establecida la existencia de los isótopos, se vio que era la masa
de éstos la que resultaba ser muy cercana a un múltiplo de la masa de protón. Bastaba
entonces con suponer que el núcleo estaba constituido por el número de protones
necesario para explicar su masa y un número tal de electrones que neutralizara la carga
excedente igualándola a la carga característica de cada elemento.
La idea alternativa de una partícula neutra con masa similar a la del protón había sido
propuesta por Ruthefford en una conferencia en 1920. Según él, esta partícula podía
originarse en un átomo de hidrógeno en el que el electrón habría caído al nucléo
neutralizándolo eléctricamente.
Esta concepción, sin embargo, parecía innecesaria por aquella época. Por otra parte, la
presencia de electrones en el núcleo parecía ser apoyada por el decaimiento , en el que el
núcleo emite un electrón de gran energía (el llamado rayo ).
5. RADIACIONES PENETRANTES
La primera evidencia experimental de la existencia del neutrón fue observada por Walter
Bothe y su alumno Herbert Becker en Alemania, aunque ellos no lo supieron interpretar
como tal. Bothe nació en 1892 en el pueblo de Orainenburg, cerca de Berlín. Tomó clases
con Planck e inició su carrera como ayudante de Geiger en Berlín. En 1928, Bothe y Becker
se interesaron por averiguar si las desintegraciones nucleares reportadas por Rutherford
estaban acompañadas por algún tipo de radiación. En sus experimentos bombardeaban
berilio con partículas que eran producto del decaimiento del polonio. Utilizando métodos
eléctricos de detección, algo novedoso para su época, encontraron que efectivamente
aparecía cierto tipo de radiaciones muy penetrantes que ellos interpretaron como rayos .
Este tipo de radiaciones también aparecían al bombardear litio y boro. Lo más notable de
su hallazgo era que, al determinar la energía de esas radiaciones, a través de su atenuación
en diferentes materiales, concluyeron que ésta debería ser mayor que la energía de los
incidentes, lo que fue interpretado vagamente como un efecto de la desintegración.
Estos resultados intrigaron a la pareja francesa Joliot-Curie. Irène Curie, nacida en 1897,
era hija de Pierre y Marie Curie, pioneros de la radiactividad y descubridores de elementos
como el radio y el polonio. Frederic Joliot era ayudante de Marie cuando conoció a su hija
Irène, tres años mayor que él y con quien se casó en 1927. Entre los primeros intereses
científicos de la nueva pareja estuvieron los de reproducir y profundizar en los resultados
de Bothe y Becker, utilizando una fuente muy poderosa de polonio propiedad de Marie. En
enero de 1932, los Joliot-Curie publicaron otro hallazgo sorprendente relacionado con las
mencionadas radiaciones: éstas eran capaces de expeler protones de una capa de parafina.
Al tratar de medir la energía de estos protones encontraron que era enorme. Siguiendo la
sugerencia de Bothe, los Joliot-Curie calcularon que, si fuesen rayos , éstos deberían
tener, al menos, diez veces más energía que los del polonio que los originaba. Tal
resultado los llevó incluso a dudar sobre la conservación de la energía en los procesos de
desintegración.
El mecanismo por medio del cual se suponía que la supuesta radiación arrancaba los
protones de la parafina era un efecto predicho por Einstein en 1905 y confirmado por A. H.
Compton en 1923. El efecto Compton, como se le conoce, se debe a la dispersión de fotones
por partículas. Este efecto había sido observado en la interacción entre rayos X y
electrones, pero es igualmente válido para la dispersión de rayos por protones. Sin
embargo, los protones son casi 2 000 veces más pesados que los electrones, por lo que,
para arrancarlos de un sólido, serían necesarios de gran energía. Otro problema con esta
interpretación era que, dado el número de protones observados, habría que suponer que la
probabilidad de colisión entre estos y los protones de la parafina era millones de veces
mayor a la que se esperaría de extrapolar el cálculo válido para el electrón.
6. CHADWICK Y EL NEUTRÓN
Su fe en la existencia de tal partícula resurgió al leer los resultados del matrimonio Joliot-
Curie, ya que Chadwick consideraba difíciles de creer las interpretaciones de estos
trabajos. En menos de un mes, realizó una serie de experimentos que lo llevaron a la
conclusión de que las radiaciones de Bothe no eran otra cosa que los neutrones que él
buscaba. Chadwick quiso probar la capacidad de las radiaciones de Bothe para arrancar
núcleos de superficies. Pronto encontró que podían eyectar núcleos de nitrógeno de un
polímero cianurado con energías considerables. Al repetir el cálculo de los Joliot-Curie,
suponiendo todavía que se tratase de rayos , encontró que la energía necesaria para
arrancar esos nitrógenos era casi el doble de la requerida para explicar el caso de los
protones de la parafina. Es decir, la energía estimada, para los mismos rayos , difería
enormemente de un caso al otro. Sin embargo, si en lugar de rayos y se suponía que se
trataba de algún tipo de partícula, la masa que se deducía en ambos casos (protones de
parafina y nitrógenos del polímero) resultaba ser consistentemente la misma y
aproximadamente igual a la del protón. Por otro lado, la gran penetrabilidad de estas
radiaciones implicaba que, de ser una partícula, ésta debería ser neutra. Cabe recordar que
las partículas cargadas, debido al gran alcance de la fuerza eléctrica, interactúan con las de
los átomos a todo lo largo de su trayectoria dentro de un material, por lo que pierden
energía rápidamente.
Es difícil definir quién o a partir de cuándo el neutrón pasó a ser considerado como la
segunda partícula elemental constituyente del núcleo tal como ahora se concibe. El primer
modelo del núcleo con base en neutrones y protones fue propuesto por Heisenberg en
1932. En este modelo los protones y neutrones estaban ligados por el intercambio de
electrones, pues todavía se seguía con la idea de que había electrones en el núcleo. Si la
fuerza responsable de la interacción entre neutrón y protón surgía de este intercambio, una
consecuencia lógica del modelo de Heisenberg sería una diferencia en la interacción
neutrón-protón con el sistema protón-protón en que no habría electrones que intercambiar.
En 1936, las medidas de dispersión protón-protón hechas por Merle Antony Tuve, N.
Heisenberg y L. R. Hafstad demostraron que estas interacciones son tan fuertes como
aquellas para el sistema neutrón-protón. Ese mismo año, Gregory Breit y E. Feenberg, así
como, independientemente, Benedict Cassen y Edward Uhler Condon, propusieron un
modelo de fuerzas nucleares en el que neutrones y protones interaccionaban
indistintamente entre sí. En estas ideas quedaba ya implícita la condición del neutrón como
partícula elemental en el mismo nivel del protón. El propio Chadwick, al recibir el Premio
Nobel en diciembre de 1935, ya habló del neutrón como constituyente elemental del núcleo
aunque sin dar una idea clara de la naturaleza de su interacción con el protón.
7. RESUMEN
La sistemática derivada de las masas de los núcleos indicaba la existencia de masa neutra
en ellos. La primera interpretación para esto fue que podría tratarse de combinaciones de
protones y electrones. Tal modelo, sin embargo, pronto encontró dificultades para explicar
algunas evidencias experimentales. En 1928, Bothe y Becker descubrieron un nuevo tipo de
radiaciones que despertaron el interés de varios investigadores. Entre ellos se encontraba
Chadwick, quien había dedicado parte de su tiempo a explorar una hipótesis alternativa de
su maestro Rutherford sobre la existencia de una partícula neutra: el neutrón , que logró
esclarecer en 1932.
El positrón es un electrón con carga positiva. La interacción con el electrón puede resultar
en la aniquilación de ambos, con lo que se produce un par de fotones cuya energía equivale
a la masa del par electrón-positrón. Esta propiedad define al positrón como la antipartícula
asociada al electrón. Los primeros indicios de la existencia del positrón surgieron, como
veremos a continuación, del esfuerzo teórico por deducir la estructura electrónica del
átomo.
2. EL ÁTOMO DE BOHR
Tan pronto como Rutherford descubrió el núcleo y propuso un modelo para el átomo en que
los electrones giraban alrededor del núcleo, surgieron las objeciones. Un electrón, debido a
que es una partícula cargada, cuando se mueve en torno al núcleo, bajo la acción de
atracción de su carga eléctrica, debería irradiar ondas electromagnéticas, con lo que
perdería energía. Así, en la concepción clásica de Maxwell, ese arreglo sería altamente
inestable. El primero en introducir las ideas cuánticas a este problema fue Niels Bohr.
Niels Hendrik David Bohr nació en Dinamarca el 7 de octubre de 1885. Hijo de una familia
de tradición universitaria y amplios medios económicos, Bohr ingresa a la Universidad de
Copenhague en 1903, y permanece allí hasta obtener su doctorado en 1911. En marzo de
1912, Bohr visitó a Rutherford en su laboratorio de Manchester. Durante su estancia
aprendió las técnicas experimentales usadas en radiactividad e inició trabajos sobre la
estructura atómica, enfocándose originalmente a comprender la absorción de partículas en
la materia. A finales de julio regresó a Copenhague, su ciudad natal. En abril de 1913
publicó el primer artículo en el que introduce las ideas de Planck sobre la cuantización para
explicar las reglas espectrales empíricas derivadas anteriormente por Balmer para el átomo
de hidrógeno (véase figura 6). Aunque el éxito de Bohr en este aspecto fue rotundo, sus
ideas no fueron tomadas en serio inmediatamente, pues su formulación contenía varios
postulados introducidos en forma un tanto arbitraria.
Figura 6. El átomo de Bohr. En un átomo de hidrógeno excitado, el electrón se encuentra en
órbitas externas, decayendo a las más internas vía la emisión de la luz. La longitud de onda
() correspondiente disminuye al aumentar la energía de la transición. Para una órbita
inicial dada, las diversas alternativas de decaimiento forman una serie.
Para garantizar la estabilidad del átomo, Bohr propuso que los electrones sólo se mueven
en órbitas estacionarias. Los únicos cambios energéticos del sistema son aquellos en que
los electrones pasan de una órbita estacionaria a otra. El segundo postulado de Bohr indica
que la radiación electromagnética esperada clásicamente para un electrón que gira
alrededor del núcleo, sólo ocurre durante la transición entre órbitas estables y no mientras
la estructura electrónica se mantenga inalterada. Con esto Bohr introducía una explicación
para la observación de líneas espectrales bien definidas, en lugar del continuo de radiación
predicho por el electromagnetismo de Maxwell.
Ya en 1921 el modelo de Bohr, mejorado por él mismo y por otros autores, describía al
átomo como un arreglo de electrones que giran alrededor del núcleo en órbitas
caracterizadas por tres numeros cuánticos, que determinan el número de cuantos de
energía, de momento angular y su orientación. Tal modelo, sin embargo, no explicaba
algunos fenómenos como el llamado efecto Zeeman anómalo.
3. PAULI Y EL ESPÍN
Como se recordará, hacia fines del siglo XIX Zeeman realizó un experimento para
determinar el efecto del campo magnético sobre el espectro atómico. Lo que observó, con
un equipo poco preciso, fue el ensanchamiento de las dos líneas espectrales del sodio.
Lorentz interpretó que este fenómeno se debía a una descomposición de cada una de estas
líneas primarias en tres, lo que reflejaba las posibles orientaciones del plano de la
oscilación respecto al campo magnético. Esta predicción no pudo ser probada sino hasta un
año después, en que Alfred Marie Cornu utilizó un equipo más complejo que el de Zeeman.
Sin embargo, Cornu encontró que, si bien las líneas espectrales principales del sodio se
subdividen, éstas lo hacen en seis y cuatro secundarias respectivamente y no en tres y tres
como predijo Lorentz. Este fenómeno, conocido como efecto Zeeman anómalo, permaneció
sin explicación hasta 1924, cuando el joven austriaco de 24 años Wolfgang Pauli le dio una
explicación al postular la existencia de un cuarto número cuántico y de una nueva ley
fundamental de la naturaleza: el principio de exclusión. Según éste, en el átomo no puede
haber dos electrones con los mismos números cuánticos. Esto implica que cada órbita
electrónica está poblada por un número máximo de electrones, dependiendo de su
momento angular. Una predicción inmediata del modelo es la descomposición de las líneas
espectrales del sodio en seis y cuatro, igual a lo observado por Cornu. Pauli recibió el
Premio Nobel en 1945 por esta contribución.
4. LA ELECTRODINÁMICA CUÁNTICA
Hacia 1926, la necesidad de una formulación relativista para la mecánica cuántica era
evidente y mantenía ocupados a algunos de los físicos teóricos más brillantes de la época.
La primera descripción cuántico-relativista para el electrón fue lograda por Paul Adrien
Maurice Dirac en Cambridge.
Dirac nació en Bristol, Inglaterra, en 1902, de padre suizo y madre inglesa. Empezó
estudiando ingeniería eléctrica en su ciudad natal pero pronto se decidió por las
matemáticas. En 1925, ya en Cambridge, se interesó por la teoría cuántica, recientemente
desarrollada por Heisenberg. Su habilidad matemática le permitió plantear una formulación
nueva de la mecánica cuántica que publicó ese mismo año. En 1928 encontró una manera
de escribir una ecuación cuántico-relativista para el electrón. De su derivación surgía
automáticamente un grado de libertad con todas las características del espín. Tal
predicción dio prestigio y respeto a la formulación de Dirac.
La teoría de Dirac permite calcular la energía del electrón, incluida su masa en reposo. Sin
embargo, predecía la existencia de un conjunto de estados de energía negativa, idénticos al
conjunto de estados de energía positiva que él se proponía encontrar. Esto fue visto,
inicialmente, como un defecto de la teoría, pues sugería la existencia de una partícula
idéntica al electrón pero de carga positiva que hasta entonces nadie había observado.
La presión sobre Dirac fue enorme. Heisenberg encontró que la formulación de Dirac había
causado más confusión que orden y la calificó como "el capítulo más triste en la física
moderna". Con el ánimo de dar una interpretación creíble a su teoría, Dirac propuso que tal
partícula podría ser el protón, pero Hermann Weyl pronto hizo notar que la simetría de las
ecuaciones implicaba que la tal partícula debería tener la misma masa del electrón. En
1930, Robert Oppenheimer se dio cuenta de que suponer que se trataba de protones,
implicaba que el átomo de hidrógeno se aniquilaría en una fracción de segundo.
Convencido, Dirac postuló en 1931 la existencia de electrones positivos como la única
interpretación posible a su teoría.
Entre 1911 y 1912 el austriaco Victor Franz Hess investigó sistemáticamente este
fenómeno y encontró que la radiación aumentaba a partir de los mil metros, y llegaba a ser
el doble de lo medido en la superficie de la Tierra a cinco mil metros de altura. Hess
propuso entonces que, en efecto, existe un flujo importante de radiaciones proveniente del
espacio. La intensidad de estas radiaciones resultó estar poco correlacionada con el día o la
noche, lo que llevó a suponer que el origen de estas radiaciones no era solar
necesariamente.
En 1930, Robert Andrews Millikan, el mismo que midiera la carga del electrón, decidió
montar un experimento equipado con cámaras de Wilson e imanes más poderosos que los
utilizados hasta entonces. Para dirigir este proyecto, Millikan escogió a Carl David
Anderson.
6. EL POSITRÓN
7. RESUMEN
El modelo planetario del átomo implicaba, para el electrón, una pérdida constante de
energía de traslación, por lo que debía caer al núcleo en poco tiempo. En 1913 Bohr dio una
solución a este dilema haciendo uso de la cuantización de Planck. El éxito de este modelo
fue modesto, ya que sólo explicaba los espectros atómicos mas simples. En 1924 Pauli
propuso la existencia de una cualidad extra para el electrón que, un año después, fue
interpretada por Uhlenbeck y Goudsmit como el espín. Estos modelos cuánticos no
consideraban los efectos relativistas a los que está sujeto el electrón. En 1928 Dirac logró
una descripción cuántico-relativista del electrón , cuyo único defecto fue predecir la
existencia de la antimateria. La comprobación experimental de esto, basada en la
observación de los rayos cósmicos , fue realizada por Anderson en 1932.
EL NEUTRINO: PAULI, FERMI, REINES Y COWAN
1 INTRODUCCIÓN
La imagen simplista de un núcleo compuesto de neutrones y protones unidos por una gran
fuerza de atracción dejaba sin explicar una fenomenología bien conocida: el decaimiento
. Como se ha visto, algunos núcleos son capaces de emitir electrones y positrones. La
pregunta es: Si éstos no existían previamente dentro del núcleo, ¿cómo se producen las
partículas? A finales de la década de 1920, surgió el modelo que explicó esta
fenomenología postulando la existencia de una nueva fuerza nuclear,
denominada débil porque su magnitud relativa era pequeña frente a las otras relevantes en
el núcleo. Bajo la acción de la fuerza débil, el núcleo puede transformar neutrones en
protones, y viceversa, emitiendo electrones o positrones. El único problema del modelo era
que, para explicar las observaciones, requería de la existencia de una nueva partícula,
el neutrino.
Durante mucho tiempo sólo el éxito de esa teoría apoyó la existencia del neutrino, pero
tuvieron que pasar veinticinco años antes de su confirmación experimental. A la fecha se
conocen dos tipos diferenciados de neutrinos, y es muy probable que haya un tercero. Sin
embargo, la masa de ninguno de ellos se ha medido, aunque sí se sabe con certeza que es
muy pequeña, o que incluso puede ser cero.
2. EL DECAIMIENTO
Como se vio antes, en 1898 Rutherford clasificó los modos de decaimiento de los elementos
radiactivos de acuerdo con su penetrabilidad, en rayos (menos penetrantes) y (más
penetrantes). Posteriormente Villard detectó la presencia de rayos aun más penetrantes
que, por consistencia, denominó rayos. Al inicio del presente siglo, las investigaciones
revelaron que los rayos son iones del elemento helio; que los son electrones de alta
energía y que los son radiación electromagnética, también de gran energía.
Una incógnita que pronto se planteó fue la forma del espectro de energía de estas
radiaciones. En 1904 William Henry Bragg, ex alumno de Thomson que por esas fechas
trabajaba en Adeline, Australia, midió la energía de los a través de su penetrabilidad en
diferentes medios. Un año después, en un trabajo publicado con su ayudante Richard
Daniel Kleeman, Bragg demostró que en el espectro de las partículas emitidas por un
elemento dado aparecían grupos (líneas) de energías bien definidas que eran
características de cada elemento radiactivo. Esto revelaba que no sólo los núcleos de un
elemento eran idénticos, sino que al desintegrarse emitían de la misma velocidad. Bragg
y su hijo, William Lawrence, recibieron el Premio Nobel en 1915 por su análisis de
estructuras cristalinas en el que utilizaban rayos X, tema que también fue de su interés y
por el que son más conocidos.
La siguiente incógnita en este tema fue el espectro de las radiaciones . En 1906, Otto Hahn
y Lise Meitner empezaron a investigar el problema con la idea de generalizar los resultados
de Bragg al decaimiento . Sin embargo, en este caso el problema era más complicado ya
que los , por su masa tan reducida, al interactuar con la materia son dispersados
rápidamente y resulta difícil establecer una relación entre energía y alcance lineal. En
1909, Hahn y Meitner publicaron sus primeros resultados, de los que se deduce que medir
el alcance de los no era el mejor método para deducir su espectro. En 1910 Hahn intentó
una nueva técnica en que utilizaba un campo magnético, para separar la energía de los , y
una placa fotográfica. Como este método mostrara líneas en la imagen, fue inicialmente
tomado como la anhelada confirmación de que los , igual que los , eran emitidos con
energías fijas, características de cada elemento. Sin embargo, en 1913, James Chadwick,
quien posteriormente descubriría el neutrón, sustituyó la placa fotográfica por un detector
eléctrico y demostró que el espectro de los es más bien un continuo al que se superponen
algunos grupos de menor importancia.
Poco después de este trabajo, Chadwick viajó a Berlín para pasar una temporada y trabajar
con Geiger, pero lo sorprendió la primera Guerra Mundial y fue tomado prisionero y enviado
a un campo de concentración. Ahí conoció a Charles Drummond Ellis, militar inglés, quien le
ayudó en algunos experimentos llevados a cabo durante el cautiverio. Contagiado con el
entusiasmo de Chadwik, Ellis decidió dedicarse a la física. Al fin de la guerra se fue a
Cambridge a trabajar con Rutherford. En su primera publicación, Ellis demostró que las
líneas superpuestas al espectro continuo de los se debían a electrones arrancados al
átomo tras absorber la energía de un rayo . En 1925 publicó un trabajo junto con William
Alfred Wooster, en el que, por un método diferente, llegaron a demostrar que el espectro
de los es un continuo (véase figura 7).
Figura 7. Espectro del decaimiento . En una transición débil, la energía queda repartida
arbitrariamente entre el electrón y el antineutrino. Por esta razón, a pesar de tratarse del
decaimiento de un estado cuántico con energía definida (Eo), en el espectro de las 's no se
forman grupos sino un continuo que se extiende hasta la energía máxima.
Este resultado llevaba a conclusiones contradictorias con respecto a la imagen que se tenía
de los núcleos y de su decaimiento. Si todos los núcleos son idénticos, antes y después del
decaimiento, ¿a qué se debe que la energía de los que emiten no sea la misma? En 1929,
Bohr interpretó este fenómeno como evidencia de que en el núcleo ¡no se conserva la
energía! Un año después, Pauli propuso una interpretación alterna, en la que suponía la
existencia, en el núcleo, de una partícula neutra (que originalmente denominó neutrón) de
masa pequeña que era emitida al mismo tiempo que el , de manera que la energía del
decaimiento quedaba repartida en forma arbitraria entre ellas. Cabe recordar que por esa
fecha el núcleo era considerado como un agregado de protones y electrones. En este
sentido, Pauli propuso que si su neutrón tuviese un espín idéntico al del protón y el
electrón, se resolvería simultáneamente el dilema del nitrógeno 14 .
3. EL MODELO DE FERMI
En 1933 Enrico Fermi desarrolló una teoría sobre el decaimiento en la que incorpora la
partícula de Pauli, a la que llamó neutrino, que es el equivalente italiano
a neutroncito. Según Fermi, cuando un neutrón se transforma en un protón, lo hace
emitiendo un electrón y un neutrino. Estas partículas son creadas en el momento del
decaimiento, en el mismo sentido que el fotón se crea en una transición electromagnética.
En este caso se trataría de una transición inducida por una nueva fuerza a la que, por su
pequeña magnitud, se le conoce como débil. La predicción de Fermi para el espectro de las
permitió deducir que la masa del neutrino debería ser muy pequeña. El neutrino, por
carecer de carga eléctrica y poseer una masa despreciable, sólo es sensible a la fuerza
débil, por lo que su probabilidad de interactuar con la materia es verdaderamente baja.
Esto dificulta su detección, al punto que tuvo que transcurrir mucho tiempo antes de que su
existencia pudiese ser confirmada experimentalmente. Sin embargo, ante la alternativa de
poner en duda un principio tan sólido como el de la conservación de la energía, los físicos
aprendieron a vivir con un neutrino, a la vez misterioso y necesario.
4. EL NEUTRINO
Una manera de detectar neutrinos sería un proceso inverso al del decaimiento , en el que
un neutrino y un electrón convergen simultáneamente sobre un protón para convertirlo en
un neutrón. Este encuentro debe ser realmente raro; sin embargo, otro proceso equivalente
sería aquel en el que un neutrino y un protón interaccionaran para producir un neutrón y
un antielectrón (positrón). Para poder observar este proceso es necesario un flujo enorme
de neutrinos que compense la baja probabilidad de la interacción. Tal condición sólo se
presentó con la invención de los reactores nucleares, de los que emergen grandes
cantidades de neutrinos. A principios de la década de 1950, Frederick Reines y Clyde
Lorrain Cowan iniciaron el diseño de un detector capaz de registrar un evento como el
descrito.
El experimento de Reines y Cowan debía contar con un gran volumen de algún compuesto
químico rico en hidrógeno para aumentar las probabilidades de que el neutrino
interactuase con un protón del medio. La interacción que se buscaba dejaba como residuos
un positrón y un neutrón, partículas que serían detectadas por métodos indirectos. El
positrón, a poco de ser creado, se topa con un electrón del medio para aniquilarse
produciendo dos rayos , cuya energía es equivalente a la de la masa del electrón. La
detección del neutrón requiere añadir al líquido algún material que sea eficiente para
absorber en su núcleo neutrones, produciéndose una reacción nuclear en la que se emite
un rayo característico. El problema se reduce pues a detectar tres rayos . Para observar
este tipo de rayos se utilizan medios llamados centelleadores, que tienen la propiedad de
transformar la energía de los que absorben en destellos de luz visible a la que, además,
son transparentes. La intensidad de cada destello es proporcional a la energía del rayo
absorbido. De esta manera, con detectores de luz colocados en las paredes del contenedor
del líquido centelleador, se colecta la luz producida en cada evento y se analiza.
5. RESUMEN
Por su modo de interactuar con la materia, los rayos y , productos del decaimiento
radiactivo, se agrupan en energías muy definidas, lo que permitió apreciar en forma
inmediata la naturaleza cuántica de las transiciones correspondientes. Por el contrario, los
rayos (electrones) emitidos por el núcleo no mostraban esta característica . En 1930,
Pauli dio una interpretación a este fenómeno que fue posteriormente desarrollada por
Fermi . El modelo sugería que en el decaimiento , además del electrón, se emitía
simultáneamente otra partícula, neutra y de masa muy pequeña, que compartiría la energía
del decaimiento. De esta forma se "borraba" la estructura de grupos del espectro, y se
observaba solo el continuo. El neutrino, como se le denominó por ser pequeño y neutro, es
una partícula muy difícil de detectar, al punto que pasó un cuarto de siglo antes de que
Reines y Cowan la descubrieran experimentalmente . A este neutrino, asociado sólo al
decaimiento , se le conoce ahora como neutrino electrónico, para diferenciarlo de otros
cuya historia se reseñará después (véase capítulo X).
1. INTRODUCCIÓN
La interacción fuerte que mantiene unidos a protones y neutrones dentro del núcleo
requirió de una formulación sólida que permitiera entender la estructura interna del
núcleo. Veamos ahora cómo, siguiendo el modelo de Maxwell para el electromagnetismo,
Hidekei Yukawa propuso que (como el fotón) deberían existir las partículas mensajeras de
la interacción fuerte, los mesones.
La aparición del neutrón permitió dar una explicación satisfactoria a casi todas las
dificultades que emergían del antiguo modelo de la estructura nuclear con base en
protones y electrones. Sólo quedaba pendiente describir la fuerza que une al núcleo. Varias
cualidades se pueden deducir de la información sistemática que se acumuló a lo largo de
varios años. Por ejemplo, la física atómica, que tanto éxito tenía en ese entonces, ignoraba
por completo el efecto de una fuerza extraña en el núcleo. Esto indica que la fuerza nuclear
sólo es importante a distancias nucleares. Esta fuerza, denominada por esto mismo
de corto alcance, debería ser predominantemente de atracción para garantizar la
estabilidad del núcleo al contrarrestar la repulsión eléctrica entre los protones. Otras
evidencias imponían más restricciones sobre el tipo de fuerza en cuestión.
En 1935 el físico japonés Hidekei Yukawa introdujo la idea de campo nuclear, en el mismo
sentido en que las ecuaciones de Maxwell describen el campo electromagnético. Yukawa
nació en Tokio en 1907, hijo de un profesor de geología de apellido Ogawa; sin embargo,
en 1932 Yukawa se casó con Sumiko Yukawa de quien adoptó el apellido.
La teoría de campo introduce la idea de interacción a distancia a través del intercambio de
algún tipo de partícula intermedia. En el caso del campo electromagnético, esta partícula es
el fotón. Al buscar un símil con estas ideas, Yukawa se dio cuenta de que existe una
relación inversa entre el alcance de la fuerza a describir y la masa de la partícula
intermedia. Por ejemplo, el campo electromagnético es de alcance infinito, por lo que la
masa del fotón resulta ser cero. Siendo la fuerza nuclear de corto alcance, Yukawa dedujo
que la partícula intermedia debería tener una cierta masa. Ya anteriormente, cuando aún
se creía en la existencia de electrones en el núcleo, Heisenberg propuso que la fuerza de
atracción entre los protones resultaba del intercambio de electrones, tal como las fuerzas
intermoleculares. Sin embargo, usando los argumentos de Yukawa, resultaba que, si la
partícula intermedia era el electrón, su masa correspondería a un alcance unas cien veces
mayor al requerido para las fuerzas nucleares. En 1935, Yukawa propuso la existencia de
un nuevo tipo de partículas responsables de transmitir la fuerza nuclear, cuya masa
debería ser aproximadamente doscientas veces mayor que la del electrón. Originalmente,
Yukawa se refirió a estas partículas como pesadas. Poco tiempo después se propusieron
nombres como yukón y mesón (por poseer una masa intermedia entre la del electrón y el
protón, del griego = medio), perdurando este último.
3. EL MUON
La idea del mesón quedó, en apariencia, olvidada hasta 1937, en que C.D. Anderson, el
descubridor del positrón, y sus colaboradores, S. H. Neddermeyer, C. E. Stevenson y J. C.
Street reportaron haber observado en las trazas dejadas por rayos cósmicos partículas de
masa aproximadamente de doscientas veces la del electrón. La relación con lo predicho por
Yukawa parecía clara. A esta partícula se le denominó mesotrón por un tiempo, y
actualmente se le denomina muon, o leptón ()
Hacia el fin de la guerra, en 1945, los observadores de rayos cósmicos habían establecido
la existencia de dos componentes principales en la radiación, una denominada suave por
ser atenuada fácilmente en los detectores y que consiste principalmente de electrones y
fotones, y otra denominada dura, por su gran penetración y que estaba formada
predominantemente de muones. Una serie de experimentos realizados hacia fines de la
década de 1930 y principios de la de 1940 demostraron que los muones eran inestables
pues decaían en dos millonésimas de segundo. La masa de estas partículas, inferida a
partir de su penetración, había sido medida desde 1937 por el grupo de Anderson, y resultó
ser unas 210 veces mayor que la masa del electrón. También se observó la existencia de
muones de carga positiva y muones de carga negativa; en ambos casos, la carga era
idéntica en magnitud a la carga del electrón.
En 1947 Marcello Conversi, Ettore Pancini y Oreste Piccioni reportaron un estudio, realizado
mientras se refugiaban en un sótano de Roma, sobre la interacción de muones con núcleos.
En su trabajo demuestran que los muones positivos siempre decaen produciendo
positrones y que los muones negativos son, de preferencia, capturados por núcleos
pesados; por otro lado, aseguraban que al interaccionar con núcleos ligeros se
desintegraban y producían electrones. Estas observaciones contradecían el
comportamiento predicho para los mesones negativos de Yukawa, los que deberían ser
absorbidos por cualquier núcleo, pesado o ligero. Además, la vida media esperada para las
partículas de Yukawa debería ser, al menos, cien veces inferior a la que se midió para los
muones.
4. EL PION
Como una posible explicación a estos problemas, varios investigadores, entre ellos Hans
Albrecht Bethe, Robert Eugene Marshak, y los japoneses Yasutaka Tanikawa, Shoichi
Sakata y Takesi Inoue sugirieron que lo observado hasta entonces no correspondía a los
mesones de Yukawa sino a residuos de su decaimiento. En 1947 apareció publicado un
trabajo de Lattes, Occhialini y Powell con evidencias experimentales en favor de esta
interpretación. Cesare Mansueto Giulio Lattes nació en Curitiba, Brasil, en 1924. Durante la
guerra, el italiano Giusepe Paolo Stanislao Occhialini se refugió en Sao Paulo, donde tuvo
como alumno a Lattes. Al emigrar a Inglaterra, Occhialini se llevó a Lattes con él a Bristol a
trabajar en el laboratorio de Cecil Frank Powell. El trabajo de Lattes y sus colaboradores se
basó en imágenes de trazas dejadas por partículas cargadas en emulsiones fotográficas
(véase figura 8). Estas trazas muestran claramente trayectorias en las que un mesón se
detiene en la emulsión y al final de su trayectoria aparece un muon, de menor energía y
masa. La interpretación de los autores es que los primeros mesones, bautizados por ellos
mesones , son los verdaderos mesones de Yukawa, mientras que los muones, producto de
su decaimiento, son otras partículas que tienen poco que ver con las partículas
responsables de la fuerza nuclear. Por el descubrimiento del mesón , o pion, Powell recibió
el Premio Nobel en 1950 (¡con lo que quedaron sin un reconocimiento equivalente el
brasileño y el italiano!)
Figura 8. Decaimiento del pion. Las trazas que deja un pion al decaer en placas fotográficas
muestran dos vértices. En esta figura se muestran cuatro ejemplos de esto. En la parte
inferior, un pion deja una traza corta (debido a su vida media), que termina con el
decaimiento en un muon más un neutrino (que no deja huella en la placa). En el vértice
superior, el muon (cuya vida es mayor) decae en un electrón más dos neutrinos.
Una vez más, hacia octubre de 1947 parecía que se había logrado el anhelado sueño de
entender la estructura de la materia. Con los fotones, electrones, protones, neutrones,
positrones y piones descubiertos y la certeza de la existencia del neutrino, todo parecía
tener explicación y orden dentro de lo entonces considerado como elemental. Todo...
menos el muon, a quien algunos llamaron la broma divina. Sin embargo, este panorama,
casi perfecto, fue sólo el fin de otra etapa, que podríamos denominar nuclear, de la
búsqueda de lo elemental.
5. RESUMEN
Una vez establecida la constitución del núcleo, formado por protones y neutrones, el
problema siguiente fue entender la fuerza que los mantiene unidos . En su primer modelo
teórico sobre esta fuerza, Yukawa predijo la existencia de una partícula emisaria de ese
campo, partícula cuya masa debía ser intermedia entre la del electrón y el protón:
el mesón. Poco tiempo después, una partícula tal, el muon, fue descubierta en los rayos
cósmicos; sin embargo, sus propiedades eran muy diferentes a las predichas para el
mesón. Años después, Lattes, Occhialini y Powell descubrieron la verdadera partícula de
Yukawa .
1. INTRODUCCIÓN
EL descubrimiento del pion completó una etapa en la física de las partículas elementales.
La materia era concebida como hecha de átomos ligados por fuerzas eléctricas. Una
perturbación suficiente, en este nivel, implica la emisión de fotones debida al reacomodo
de electrones. En el centro del átomo, el núcleo ejerce su atracción sobre los electrones, y
contiene la totalidad de la carga eléctrica positiva y casi toda la masa. El núcleo está
constituido por protones y neutrones que interaccionan entre sí a través de nuevas fuerzas,
una de ellas responsable de la atracción y estabilidad del núcleo, mientras la otra, de
menor intensidad, se manifiesta en el decaimiento , en el que el núcleo emite electrones o
positrones. La fuerza electromagnética tiene al fotón, y la fuerza nuclear fuerte tiene al
pion. Por otra parte, la fuerza nuclear débil requiere de la existencia de una partícula aún
no descubierta (el neutrino). En cambio, aparece el muon como miembro sorpresa entre la
familia de las partículas descubiertas.
2. LAS V, LA Y OTRAS
Figura 9. Decaimiento de las partículas V o . Las lineas gruesas representan las trazas
dejadas por una de estas partículas al decaer en una cámara de Wilson. La imagen de la
izquierda corresponde a una partícula neutra (que no deja huella) decayendo en dos
cargadas, y la de la derecha una carga que decae en otra cargada más una neutra.
Hacia 1953 los expertos intentaron coordinar sus esfuerzos y, como primera acción,
adoptaron la nomenclatura de mesones para los piones y los muones, mesones para
aquellos de masa intermedia entre el pion y el protón, e hiperones para aquellas partículas
con masa superior a la del protón y el neutrón, como las . Posteriormente se introdujo el
término de barión para congregar a los nucleones (protón o neutrón) y a los hiperones en
un solo grupo.
En cuanto a los mesones , se encontraron dos grupos: aquellos que decaen vía la emisión
de dos partículas (piones), denominados y aquellos que decaen en tres partículas (ya
sean piones, muones y/o neutrinos), entre los que se hallaban las , las y las X. Entre los
mesones parecía haber ciertas similitudes. Por ejemplo, las , las y las X mostraban
tener vidas medias muy parecidas. Además, las mediciones de las masas de las y las
resultaron ser idénticas.
3. VIOLACIÓN DE LA PARIDAD
Hacia 1955 la evidencia experimental acumulada seguía indicando una notable similitud
entre las vidas medias, por un lado y las masas de las partículas y , por otro. Escépticos
sobre una coincidencia tal, los chinos Cheng Ning Yang y su alumno Tsung Dao Lee se
dieron cuenta de que, respecto de la fuerza débil propuesta por Fermi años atrás, nadie
había comprobado la validez del principio de paridad, e hicieron notar que, si esta regla
fuera violada por la fuerza de Fermi, no habría problema en unificar la y la en una sola
partícula. Las pruebas experimentales sobre esta hipótesis fueron realizadas por primera
vez por otro investigador chino, la señora Chien Shiung Wu de la Universidad de Columbia.
Por su trabajo teórico, Lee y Yang recibieron el Premio Nobel en 1957.
En su experimento, Wu observó el decaimiento del Co60 por emisión de rayos
(electrones). Como se vio antes, los electrones poseen un momento magnético intrínseco
debido a su espín, de manera que se les puede considerar como pequeños imanes. Si la
muestra radiactiva es expuesta a un campo magnético externo, los emitidos se alinean
con el campo rompiendo la isotropía. Es decir, los electrones se polarizan por la influencia
del campo magnético externo. Si el decaimiento conservase la paridad, deberían emitirse
tantos electrones cuyo espín fuese paralelo respecto al campo externo como en una
dirección antiparalela, es decir, dirigida en el sentido inverso. La observación de Wu indicó
claramente que esta simetría no existía.
La violación de la paridad fue sólo el primero de los golpes que recibieran los llamados
principios de conjugación PTC (paridad, tiempo y carga). Según estos, no sólo el cambio de
paridad, sino también la inversión en el sentido del tiempo o el intercambio de partículas
por sus antipartículas debería dejar inalterada la descripción física. En la actualidad sólo
sobrevive, como principio, aquel en el que la conjugación simultánea de las tres variables
P, T y C deja invariante la descripción de cualquier fenómeno físico, incluido el decaimiento
, efecto de la fuerza débil.
Otra sorpresa acarreada por las nuevas partículas, en este caso las , se refiere a una
marcada asimetría entre la relativa facilidad con que éstas se producen, comparada con su
vida media. La asociación entre la probabilidad de crear una partícula y su vida media
indica que las partículas que se crean fácilmente viven poco y viceversa. Sin embargo, las
partículas V parecían tener una vida media notablemente mayor que la esperada de
acuerdo con esta regla. Para resolver este dilema, el estadunidense Murray Gell-Mann, de
quien sabremos más en el próximo capítulo, propuso la existencia de un nuevo número
cuántico llamado extrañeza, que se conserva en las interacciones en que actúa la fuerza
fuerte, pero no en aquellas en que actúa la débil. De esta forma, en la creación de
partículas , que ocurre vía la interacción fuerte se conserva la extrañeza al crearse
simultáneamente una partícula asociada. Sin embargo, al decaer por acción de la fuerza
débil, la violación de la extrañeza aumenta la vida media.
Entre los primeros estudios interesantes estuvieron los de Fermi, quien, con un ciclotrón en
la Universidad de Chicago, produjo haces de piones que utilizaba para bombardear
protones. En 1953 sus observaciones indicaron la existencia de resonancias pion-nucleón,
que él denominó partículas . Las resonancias pueden verse como partículas de vida media
muy corta.
Como ya vimos, en 1956 Reines y Cowan demostraron la existencia del neutrino, utilizando
el reactor de Savannah River. Poco tiempo después, mientras el dilema sobre la paridad se
resolvía, los físicos experimentales intentaron producir haces de neutrinos para poder
estudiar con detalle la interacción débil. Un proceso que debía ocurrir con cierta frecuencia,
pero que jamás se había observado, era el decaimiento de un muon en un electrón más un
rayo . Tal proceso se entendió como la emisión de un electrón acompañado de un par
neutrino-antineutrino en que la aniquilación de estos últimos producía la mencionada.
¿Qué inhibía este mecanismo? Una posibilidad era que hubiera algo que evitara que el par
neutrino-antineutrino se aniquilara, indicando la existencia de dos tipos distinguibles de
neutrinos.
Hacia 1963, el número de partículas elementales había aumentado hasta casi un ciento. Las
sensibles a la interacción fuerte, ahora denominadas hadrones, que englobaban a los
bariones y a los mesones, formaban el grueso de ellas. Con sólo cuatro leptones, sin contar
sus respectivas antipartículas, el número considerablemente mayor de hadrones
descubiertos hasta entonces, y especialmente la existencia de estados excitados para
muchos de ellos, indicaba marcadamente la existencia de una estructura interna en estas
partículas, es decir que su calidad de elementales era ya cuestionable. ¿De qué están
hechos los hadrones?
6. RESUMEN
1. INTRODUCCIÓN
Del gran volumen de datos acumulados hacia principios de la década de 1960, comenzaron
a hacerse evidentes ciertas regularidades interesantes. Como se ha visto, las partículas
podían ser clasificadas, según si eran o no sensibles a la fuerza nuclear fuerte, en hadrones
y leptones. Los hadrones más ligeros son cientos de veces más pesados que el electrón, lo
que podría indicar alguna relación entre su masa y la magnitud de la fuerza que los
gobierna. Además, los hadrones aparecen en grupos. Por ejemplo, el neutrón y el protón,
desde el punto de vista de sus números cuánticos, son idénticos excepto por su carga
eléctrica y la ligera diferencia de sus masas. Esto fue tomado como indicación de que
podría tratarse de dos aspectos de una misma partícula: el nucleón. A partir de entonces
siguieron apareciendo familias de partículas de este tipo, denominadas multipletes de
carga, como los piones (3), las = (3) y las (2). Otro hallazgo notable fue el
descubrimiento de todo un espectro de estados excitados para varios de los hadrones.
¿Podría existir una subestructura?
2. BUSCANDO UN ORDEN
Ya en 1949 Fermi y su alumno chino Chen Ning Yang, el mismo que predijo la violación de
la paridad para los procesos débiles, habían sugerido la posibilidad de que los mesones no
fueran elementales sino que estuvieran compuestos de pares nucleón-antinucleón. El
descubrimiento de las partículas extrañas motivó luego al japonés Shoichi Sakata a
extender estas ideas con la inclusión de la como constituyente fundamental de los
mesones. Se trataba entonces de encontrar una manera de asociar un par específico de
estos bariones a cada mesón. Debido a las diferentes maneras de acoplar los números
cuánticos, cada par barión-antibarión podía, según ellos, generar una variedad de mesones
distintos. En 1959 los alumnos de Sakata, M. Ikeda, Y. Ohnuki y S. Ogawa, estudiaron este
problema, encontrando que los tres hadrones, el triplete (n, p, ), podían ser asociados a
una configuración tridimensional de un grupo de transformaciones matemáticas
denominado SU (3), y las respectivas antipartículas a otra configuración del mismo tipo.
El propósito de agrupar hadrones en multipletes era encontrar una simetría mayor que
permitiera descubrir relaciones más estrechas entre estas partículas. Por ejemplo, la
similitud entre la masa del protón y del neutrón puso de manifiesto la idea de isospín. Este
número cuántico distingue entre los dos estados de carga del nucleón (protón o neutrón).
Si la masa de p y n fuera idéntica la simetría sería exacta; sin embargo, las fuerzas
electromagnética y débil alteran (o rompen) esta simetría separando las masas de los
nucleones. La separación, en este caso, es pequeña porque la fuerza responsable de la
ruptura es también pequeña comparada con la fuerza fuerte. Este mismo argumento
permite entender la ligera desviación entre las masas de los piones y también entre los
mesones . La mayor separación entre las masas de los piones y los mesones . se pensó,
podría deberse al rompimiento de una simetría mayor asociada a diferentes componentes
de la fuerza nuclear fuerte.
A pesar de que la propuesta del triplete (n, p, ) como componente fundamental pronto
encontró objeciones serias, el juego de las simetrías había empezado y varios
investigadores comenzaron a tratar de encontrar relaciones entre grupos de
En 1962, luego del descubrimiento de la primer resonancia Gell-Mann sugirió que esta
partícula podía formar un decuplete, también predicho por SU (3), con los multipletes y .
De ser así, debería existir un nuevo barión: la omega- . A principios de 1964, V. E. Barnes
y su grupo observaron una partícula con las propiedades predichas por Gell-Mann.
Quedaban, sin embargo, dos problemas evidentes: el SU (3) predice muchos
más supermultipletes que los que observamos y, más importante aún, no existía una
interpretación física que respaldase al modelo.
4. LOS CUARKS
Otra objeción que surgió de inmediato se relaciona con la estadística de los cuarks. Estas
partículas deben tener espín semientero, es decir, son fermiones. Como tales, debido al
principio de exclusión de Pauli, un barión no debería contener dos cuarks con los mismos
números cuánticos. Sin embargo, en las reglas del modelo original de Gell-Mann para
construir bariones, era necesario introducir dos, y hasta tres cuarks idénticos.
5. EL COLOR
El mismo año en que apareció el modelo de los cuarks, Oscar Wallace Greenberg propuso
que los cuarks no obedecen ni la estadística de Fermi, ni la de Bose, sino
una paraestadística en que se permitía a tres cuarks idénticos ocupar un mismo estado.
Una alternativa, aparentemente independiente, fue publicada por Moo-Young Han y
Yoichiro Nambu en 1965. Ésta consistía en asociar a los cuarks una cualidad extra, parecida
a la carga eléctrica, sólo que en tres variedades, que posteriormente se denominó color.
Según el modelo de Han y Nambu, existen tres colores, por ejemplo: rojo, amarillo y
azul. Los cuarks están dotados de color (color positivo) y los anticuarks
de anticolor (color negativo). La suma de un color con su anticolor, así como la suma de los
tres colores, da como resultado partículas incoloras (color cero). Color y anticolor, así como
colores distintos, se atraen. Colores o anticolores iguales se repelen. El resultado: los
cuarks tienden a agruparse, ya sea por pares cuark-anticuark de un mismo color, formando
mesones incoloros, ya sea por ternas de cuarks de diferentes colores, formando bariones
incoloros. En resumen, el color de los hadrones es siempre cero. En 1966 Greenberg
demostró que el modelo del color era equivalente a su modelo de la paraestadística, razón
por la cual algunos autores atribuyen a Greenberg la introducción del color en la teoría de
los cuarks.
La introducción del color tiene como consecuencia multiplicar el número de cuarks por tres.
Sin embargo, la condición de que los hadrones sean incoloros evita que aumente el número
de hadrones predichos, pues todas las combinaciones de cuarks que contienen color
diferente de cero se eliminan. Si bien la inclusión del color daba una salida al problema de
la estadística, restaba elegancia al modelo original que parecía explicar el origen de más de
ochenta hadrones conocidos entonces con base en sólo tres cuarks. Otra complicación era
justificar las reglas de interacción entre los cuarks de colores, y dar una formulación para
el campo gluónico.
6. LOS PARTONES
El modelo de los cuarks siguió siendo visto con escepticismo hasta que en 1968
aparecieron las primeras evidencias experimentales directas sobre la existencia de una
estructura interna para el protón. Siguiendo un criterio parecido al que usó Rutherford
sesenta años antes para estudiar la distribución de carga en el átomo, un grupo de
científicos norteamericanos guiados por Henry W. Kendall y Wolfgang K. H. Panofsky
realizaron una serie de experimentos para determinar la distribución de carga dentro del
protón. El experimento consistió en bombardear protones con electrones de muy alta
energía.
El modelo de los cuarks sólo sugería la existencia de tres partículas dentro del nucleón. Se
ignoraba cómo estaban ordenados dentro y la forma de la fuerza que los unía, si bien ésta
debería ser lo suficientemente grande como para que jamás se hubiera visto un cuark libre.
Con estas bases, se desarrolló una teoría de la dispersión de leptones por un conjunto de
partículas altamente correlacionadas. Sin embargo, los resultados experimentales no
concordaban con las predicciones. Poco tiempo después, el controvertido pero genial físico
estadounidense Richard Phillips Feynman propuso un modelo alternativo.
Según Feynman, el leptón incidente ve al protón como una bolsa llena de partículas sin
estructura, que él denominó partones, y que, con excepción de las paredes de la bolsa, se
mueven libremente dentro del nucleón. Las predicciones del modelo de Feynman
reproducían algunos aspectos importantes de los datos, pero quedaba por especificar qué
eran los partones.
Los resultados anteriores despertaron gran interés entre las comunidades teóricas y
experimentales. Pronto el grupo Kendall-Panofsky y otros en Europa utilizaron haces de
muones y de neutrinos para estudiar el fenómeno. Como resultado se llegó a la conclusión
de que los centros dispersores dentro del protón eran consistentes con partículas de espín
1/2 y carga eléctrica fraccionaria.
7. CROMODINÁMICA CUÁNTICA
En ausencia de cuarks libres, la idea de color sólo podía comprobarse indirectamente
comparando predicciones de modelos con y sin color. Un experimento de este tipo fue
realizado en 1970 por un grupo del laboratorio de Frascati, cerca de Roma. Las colisiones
entre electrones y positrones de gran velocidad disipan energía produciendo pares
partícula-antipartícula (leptones y/o hadrones). La producción relativa entre pares de
hadrones y, digamos, pares de muones depende de un coeficiente llamado R. A energías
suficientemente altas,R. es simplemente la suma de los cuadrados de las cargas de todos
los cuarks y todos los leptones. Suponiendo que sólo hay dos leptones cargados, el electrón
y el muon, el valor medido de R. puede utilizarse para deducir el número de cuarks que
existen. Por ejemplo, si sólo hay tres cuarks, R. debería valer 2/3, mientras que si hay
nueve cuarks el resultado debería ser 2. El experimento de Frascati, medido a 1.5 GeV (1
GeV = 1 000 MeV), encontró que el parámetro R. era de 2.5, hecho que apoyaba
fuertemente la teoría del color.
El problema de los infinitos en EC, que causó ciertos dolores de cabeza al propio Dirac
mientras desarrollaba la primera versión de esa teoría, fue resuelto por un método
conocido como renormalización. Este consiste en suponer que, si bien el electrón no tiene
dimensiones, la energía del campo se materializa produciendo un mar de pares (partícula-
antipartícula) virtuales. La generación de estos pares es virtual en el sentido de que, al
crearse, violan temporalmente el principio de conservación de la energía, solapadas por
otro principio, el de la incertidumbre de Heisenberg, lo que garantiza que no pueden ser
observadas directamente. Sin embargo, estas partículas se encargan de apantallar la carga
eléctrica infinita que tendría un electrón desnudo (sin su mar de pares virtuales),
disminuyendo el campo eléctrico que ésta genera. El número de pares aumenta con la
distancia, y se reduce en la misma proporción el campo eléctrico, lo que da por resultado
un campo equivalente al de una carga finita.
8. EL CONFINAMIENTO
En el caso de la CC, los cuarks desnudos también están rodeados por un mar de pares
cuark-anticuark virtuales que apantallan la carga de color. Sin embargo, a diferencia del
caso de la EC, en la que los emisores del campo son neutros, en CC los gluones poseen una
carga de color neta, diferente de cero. Esto tiene como consecuencia que, al aumentar el
número de gluones con la distancia, la carga de color aumenta en la misma proporción. Es
decir, la fuerza entre cuarks no disminuye con la distancia sino que aumenta. Esto,
denominado confinamiento, evita que los cuarks escapen de los hadrones que los
contienen.
El efecto neto es equivalente a imaginar que los hadrones estén compuestos por conjuntos
de cuarks ligados por resortes. Mientras se mantienen juntos, la fuerza de los resortes es
débil y se comportan como libres. Si se agrega energía, de manera que los cuarks tiendan a
alejarse, la fuerza de atracción entre ellos aumenta por la acción de los resortes. Un cuark
puede alejarse de un hadrón hasta el punto en que la energía de atracción del campo es
equivalente a la masa de un par cuark-anticuark. Entonces, el resorte se rompe pero el
cuark no queda libre, pues, por atracción de color, el anticuark recién creado se le une a
través de un nuevo resorte, mientras que el nuevo cuark toma el lugar del cuark que se
separó. En resumen, la predicción es que, tal como la evidencia experimental lo indica, los
cuarks no pueden quedar aislados por mucho tiempo, y que al estar unidos en un hadrón se
comportan casi como si estuvieran libres. El confinamiento gluónico da una explicación a la
bolsa del modelo de partones de Feynman.
9. EL "ENCANTO"
Desde la postulación del modelo de los cuarks, en 1964, los norteamericanos James Daniel
Bjorken y Sheldom Lee Glashow propusieron la existencia de un cuarto sabor para los
cuarks: el encanto. Con miras a una posible teoría unificada de las partículas elementales
se buscaban simetrías entre leptones y cuarks. Como se ha dicho, hasta entonces se habían
descubierto cuatro leptones (el electrón, el muon, y sus respectivos neutrinos) y sólo tres
sabores de cuarks (u, d y s) ¿Habría un cuarto sabor? La sistemática observada en la
interacción de partículas, hacia 1967, también motivó a John Iliopoulos, Luciano Maiani y al
propio Glashow a insistir en la existencia de un cuarto sabor. Sin embargo, estos
argumentos aislados no eran suficientes para tomar en serio tal hipótesis.
Desde 1970 las medidas del coeficiente R en la interacción entre leptones fueron repetidas
a energías cada vez mayores, a medida que los aceleradores lo permitían. Como se
mencionó, el valor de Rdebería tender a una constante, a altas energías. En 1973, sin
embargo, las medidas a 2 GeV dieron un valor de R = 4.7 y, posteriormente, una medida a
2.5 GeV mostró un valor de R = 6.0. De ser cierto, esto implicaría que las conclusiones
sobre el color de los cuarks eran prematuras. Intrigado por este fenómeno, en el
laboratorio SLAC de Stanford, Burton Richter y su grupo iniciaron un programa de medidas
sistemáticas de R,a intervalos de energías más finos. En noviembre de 1974, descubrieron
que el aumento en R se debía a la presencia de una resonancia enorme y muy aguda
localizada a 3.1 GeV, que denominaron partícula . La interpretación de este fenómeno
requería, inequívocamente, la existencia del cuarto sabor.
Curiosamente, por la misma época, pero con una motivación diferente, Samuel Ting y un
grupo del Instituto Tecnológico de Massachussetts (MIT) que trabajaba en el laboratorio de
Brookhaven buscaban un nuevo mesón. Meses antes que el grupo de SLAC, Ting había
encontrado la misma resonancia pero, cauteloso, repetía sus medidas para confirmar su
hallazgo. Horas después de enterarse del descubrimiento de Richter, el propio Ting anunció
sus resultados bautizando a su partícula como J. Esta discrepancia en nomenclaturas dio
como resultado que, en la actualidad, a esa resonancia se le conozca como J/. Diez días
después de este descubrimiento, el grupo de SLAC encontró una nueva resonancia a 3.7
GeV, llamada '.
Como tantas otras veces, los cuatro leptones y los cuatro sabores de cuarks daban la
impresión de haber llegado a una etapa de armonía, que sugería el fin del camino. Pero,
como también es costumbre, este panorama habría de cambiar en pocos meses. Una vez
resuelto el dilema de las resonancias encantadas, se podía extraer un valor estable
para R. Con un nuevo cuark, cuya carga eléctrica resultó ser 2/3 de la del electrón, el valor
previsible de R debería ser 3.3; sin embargo, el valor observado era cercano a 5.
En agosto de 1975, un grupo del SLAC dirigido por Martin Lewis Perl reportó haber
encontrado evidencias para la existencia de un nuevo leptón, al que nombraron (por ser el
tercero). Un nuevo miembro de la familia de leptones era bastante inesperado; sin
embargo, llegaba justo a tiempo para explicar la mayor parte de la discrepancia en el valor
de R, ya que la tiene, como el electrón y el muon, una carga eléctrica unitaria. El nuevo
leptón es casi cuatro mil veces más pesado que el electrón, o sea, tiene veinte veces la
masa del muon. Pero... ¿y la simetría entre el número de cuarks y el de leptones?
Nuevamente, motivados por una posible simetría, Leon Max Lederman y su grupo
del Fermilab, cerca de Chicago, analizaron las predicciones para la masa de un nuevo cuark.
Llevando casi hasta el límite de capacidad a su acelerador, en 1977 descubrieron una nueva
resonancia que denominaron . Pocos meses después, al mejorar su resolución en energía,
el mismo grupo descubrió que se trataba de tres resonancias, y no sólo de una. Eran los
primeros miembros del espectro de resonancias de mesones asociados a un nuevo sabor de
cuarks: la belleza fue descubierta y dada a conocer por primera vez en 1980 por D.
Andrews y su grupo de la Universidad de Cornell.
12. RESUMEN
Los primeros intentos por descubrir una subestructura para los hadrones se dieron en la
década de 1950, años en los que se introdujeron las ideas matemáticas de grupos de
simetrías ; luego de algunos fracasos, surgieron algunas regularidades que permitieron,
incluso, predecir con éxito la existencia de nuevas partículas . Gell-Mann, especie de
Mendeleev moderno, pronto se dio cuenta de que un modelo simple, con base en tres
partículas, los cuarks, explicaba gran parte de la fenomenología observada . Pronto surgen
algunas inconsistencias que requieren agregar al modelo una nueva cualidad: el color . El
escepticismo de muchos por los cuarks de colores se redujo al aparecer evidencias
experimentales de una subestructura para el protón . Con esto, la física teórica tuvo que
desarrollar el formalismo que permitiese cálculos más cuantitativos: la cromodinámica
cuántica . Los primeros resultados de este esfuerzo permitieron explicar algunas
incógnitas, como el confinamiento de los cuarks . La armonía de esta teoría con la
fenomenología de las interacciones débiles sugirió la existencia de un nuevo cuark:
el encantado. La aparición de nuevos leptones requirió más añadidos al modelo de los
cuarks .
1. INTRODUCCIÓN
Existe una relación muy estrecha entre el concepto de partícula y el de fuerza. A las
partículas se les clasifica según el tipo de fuerza al que son sensibles, mientras que los
campos de fuerza son transmitidos por partículas. Otra idea íntimamente ligada a las
partículas y fuerzas es la de simetría. Hasta ahora se ha revisado el avance en el
descubrimiento de la estructura más elemental de la materia en lo referente a sus
partículas. Este capítulo enfoca la evolución de la idea de una fuerza elemental, las
simetrías encontradas, sus predicciones en términos de partículas intermediarias y su
confirmación experimental.
El ser humano se vale constantemente de simetrías para aplicar a diversas situaciones una
cantidad reducida de leyes físicas fundamentales. Galileo y Newton, por ejemplo,
descubrieron que las leyes de la caída libre son simétricas con respecto a los
desplazamientos en la posición, la orientación y el tiempo. O sea, si se eliminan factores
externos, la descripción del movimiento es independiente de dónde se realicen los
experimentos, desde qué ángulo se les observe o cuándo ocurran.
Cada simetría tiene como consecuencia una ley de conservación, entendida ésta como una
cualidad que no cambia en el tiempo. Por ejemplo, que los resultados de un experimento
sean independientes del lugar en el que se realicen es una invariancia translacional en el
espacio que implica la conservación del ímpetu o momento lineal. Lo inverso también es
cierto: cuando una cantidad se conserva, esto indica la existencia de una simetría. La
conservación de la energía implica una invarianciatranslacional en el tiempo, es decir, que
no importa a partir de cuándo empezamos a medir el tiempo. La invariancia respecto de la
orientación se refleja en la conservación del momento angular.
Hacia principios del siglo pasado se sabía de la existencia de tres tipos de fuerzas en la
naturaleza: la gravitacional entre las masas, la eléctrica que actúa entre las cargas y la
magnética entre los imanes. Los trabajos de Faraday y Ampère demostraron la existencia
de una simetría entre las fuerzas eléctrica y magnética al observar que cargas en
movimiento generan campos magnéticos y que campos magnéticos variables generan
corrientes eléctricas. La interdependencia de estas fuerzas indicó que se trataba de
distintas manifestaciones de una sola fuerza: la electromagnética.
Las simetrías se pueden clasificar como globales y locales. Para ilustrar el concepto de
simetría global, considérese un experimento en el que se mida el campo eléctrico generado
por un conjunto de cargas, de ambos signos, colocadas arbitrariamente en un laboratorio.
En esas condiciones, la teoría de Maxwell establece que el campo eléctrico entre dos
puntos se da simplemente por la diferencia de potencial entre ellos. Esto implica una
simetría, ya que el campo permanece invariante ante la suma o resta, global, de un
potencial constante arbitrario. Por depender de medidas relativas, el campo eléctrico es
independiente de la convención o escala que se haya escogido para medir la carga
eléctrica. Esto constituye una invariancia de norma global. El término norma se refiere a la
elección de una escala o patrón de longitud, si bien la palabra también es comúnmente
sustituida por calibre, aforo, o el término inglés gauge.
Una teoría general del campo eléctrico debe tomar en cuenta, no sólo cargas estáticas, sino
experimentos con cargas en movimiento. Si sólo actuase la fuerza eléctrica, el movimiento
arbitrario de las cargas en el laboratorio rompería la simetría del campo electrostático. Sin
embargo, al moverse, las cargas generan campos magnéticos que permiten restablecer la
simetría en forma local. Es decir, cualquier cambio en el potencial eléctrico puede
combinarse, localmente, con un cambio en el potencial magnético de manera que los
campos eléctricos y magnéticos sean invariantes.
4. EL CAMPO DÉBIL
La primera formulación teórica sobre la fuerza débil fue propuesta por Enrico Fermi en
1934. Esta téoría es una analogía con la del campo electromagnético en el que las
partículas interactuantes emiten y absorben fotones. Sin embargo, el decaimiento implica
la emisión de partículas (electrones o positrones) cargadas, por lo que debería haber
partículas intermediarias con carga eléctrica (véase figura 11), las denominadas
partículas W (weak = débil). En este sentido, y basado en la aparente similitud de alcances
entre las fuerzas nucleares, Yukawa propuso, en su primer trabajo sobre el campo nuclear,
que el mediador de la fuerza débil podía ser el mismo mesón. Esta idea fue refinada, poco
después, por varios autores, como Nicholas Kemmer (alumno de Pauli) y el sueco Oskar
Klein. En 1937 Kemmer propuso la existencia de un tercer mediador, neutro. En 1938 Klein,
usando una idea primitiva de grupo de simetrías, sugirió que el compañero neutro de
las W podía ser el propio fotón. En los años cuarenta, las evidencias experimentales
demostraron ciertas similitudes entre el decaimiento y el decaimiento muónico del pion.
Esto fue tomado como evidencia de la universalidad de las interacciones débiles.
Figura 11. El decaimiento del neutrón. Según el modelo de los bosones intermediarios,
este proceso ocurre en dos etapas. Primero, el neutrón se transforma en un protón
emitiendo una partícula W virtual, misma que decae en una segunda etapa en un electrón y
un antineutrino. Ya que la creación de la W viola temporalmente la conservación de la
energía (de ahí lo virtual), la distancia que ésta recorre está limitada por el principio de
incertidumbre de Heisenberg.
En 1958 John Ward y su alumno pakistaní Abdus Salam encontraron que, si la formulación
que describe a la fuerza débil pertenece a la familia de las teorías de norma con simetría
local, debería existir entonces un bosón intermediario con masa pero sin carga.
Originalmente a esta partícula se le llamó X (por ser la letra que sigue de la W), aunque
ahora se le denomina Z. Esta nueva partícula mediaría, por ejemplo, en la dispersión
neutrón-neutrino, en la que no participa el campo electromagnético. Si hubiese una
unificación entre estos dos campos, es decir si las fuerzas débil y electromagnética fueran
sólo dos manifestaciones de una misma fuerza, la electro-débil, ¿a qué se debe que una de
ellas tenga alcance infinito y la otra sólo se sienta a distancias nucleares? Dicho en otras
palabras, ¿por qué el multiplete de mediadores del campo electrodébil contiene a la vez
partículas con masa (las W y la Z) y sin masa (el fotón)?
Los primeros intentos por unificar las fuerzas débil y electromagnética se inspiraron en el
intento fallido de unificar a la fuerte y a la electromagnética que había sido realizado por
Yang y su colega Robert Lawrence Mills en 1954. Como se recordará, la fuerza fuerte es
simétrica con respecto al intercambio de protones y neutrones; es decir que si se ignoran
los efectos de la carga eléctrica del protón, un núcleo en el que se intercambien todos sus
protones por neutrones y viceversa no sería distinguible del núcleo original. Esto indica una
simetría global de norma. Una formulación completa de las interacciones fuertes debe
considerar el caso más general de intercambios locales neutrón-protón. Como antes, la
simetría global se pierde y para restablecerla localmente es necesario agregar algo. En este
caso, sin embargo, es necesario suponer la existencia, no de una, sino de cuatro partículas
sin masa. Dos de éstas, denominadas particulas de Yang-Mills, son neutras, y una de ellas
podría identificarse con el fotón. Las dos restantes tienen la peculiaridad de poseer carga
eléctrica, una positiva y otra negativa.
La teoría de Yang-Mills fue objetada casi de inmediato por varias razones fundamentales.
Entre las más obvias estaba su predicción de la existencia de fotones cargados. Si hubiera
partículas cargadas con masa inferior a la del electrón, el Universo sería totalmente
distinto del que conocemos. Sin embargo, esta formulación posee algunas características
matemáticas tan especiales que motivaron a los físicos teóricos a buscar alguna manera de
modificarla para eliminar sus defectos más que a desecharla.
7. UNIFICACIÓN ELECTRO-DÉBIL
En 1967 Steven Weinberg, por un lado, y Salam y Ward por otro, propusieron una teoría de
interacciones débiles basada en una versión de la teoría de Yang-Mills según la cual tres de
las partículas del campo correspondiente, una neutra y las otras dos cargadas, adquirían
masa mediante un proceso de rompimiento espontáneo de la simetría. En este modelo, el
campo de Higgs, responsable del rompimiento de simetría, introduce, a su vez, cuatro
nuevas partículas, pero tres de ellas se mezclan con las partículas de Yang-Mills de manera
que las dos cargadas y una de las neutras adquieren masa, y son identificadas con la W y
la Z. La cuarta partícula de Yang-Mills, que es neutra, permanece sin masa, y resulta ser el
fotón. De este nuevo arreglo sobra una partícula de Higgs que no se mezcla y, por lo tanto,
queda como una predicción de la teoría. Había, sin embargo, algunos problemas serios por
resolver. En cuanto a la teoría misma, había que probar que el modelo
fuese renormalizable, en el mismo sentido en que Feynman y otros tuvieron que probar
esto para la electrodinámica cuántica. Pero la mayor dificultad era experimental ya que,
excepto por el fotón, ninguna de las otras partículas habían sido observadas.
8. LAS W Y LAS Z.
La masa predicha para la Z y las W estaba entre 80 y 90 GeV, razón por la cual tuvieron que
pasar diez años antes de que estas partículas pudieran ser producidas directamente en un
laboratorio. Ésta fue la labor de Simón van der Meer y Carlo Rubbia. El primero desarrolló la
técnica de aceleradores que hacía falta para observar colisiones de protones con
antiprotones a más de 90 GeV. El segundo construyó un sistema de detección de más de
500 metros cúbicos llenos de cables y artefactos con un peso total superior a las 2 000
toneladas. Hacia enero de 1983, Rubbia anunció los resultados de sus primeros
experimentos, en los que se observaron más de mil millones de eventos, seis de los cuales
caían en la posición predicha para la masa de las W. El trabajo fue publicado por 135
coautores de catorce instituciones de investigación, la mayor parte de ellas europeas. En
junio del mismo año, otra publicación del mismo grupo anunciaba los cinco primeros
eventos en los que se identificaba una Z. Dos meses después ya eran ocho. En diciembre de
1984, Van der Meer y Rubbia recibían el último Premio Nobel en partículas elementales del
periodo que cubre este libro.
9. RESUMEN
CONCLUSIÓN
Desde la hipótesis atómica de los griegos, en tres ocasiones el ser humano creyó haber
alcanzado el anhelado nivel de lo verdaderamente elemental e indivisible. Primero, los
átomos, luego los componentes del núcleo y, recientemente, los cuarks y los leptones. En
cada paso una relación entre los constituyentes más básicos del momento permitió inferir
la existencia de bloques más elementales y, aparentemente, menores en número. La
motivación misma de todo esto es sólo la intuición de que cada estructura tiene una
infraestructura que es más simple que las anteriores. Esta tendencia a la simplificación,
también aplicada a la idea de fuerza, es un concepto meramente estético y representa el
punto de contacto más extraordinario entre la ciencia y el arte.
Los primeros indicios de una nueva síntesis han empezado a aparecer. Hemos visto surgir
ciertas simetrías interesantes entre leptones y cuarks. Primero, los leptones aparecen por
parejas de partículas cargadas y sus correspondientes neutrinos. Por otra parte, parece
haber tantos sabores de cuark como leptones. Más aún, cuando se toman en cuenta las
masas de las partículas (exceptuando a los neutrinos) ellas permiten arreglar a los
leptones y a los cuarks por generaciones. La primera generación (la más ligera) tiene al
electrón y su neutrino por una parte y a la pareja de cuarks u y d por la otra. La segunda
generación, con masas cientos de veces superiores, contiene al muon con su neutrino y a
los cuarks s y c. A la tercera generación, con masas un orden de magnitud mayores que las
de la segunda generación, pertenecen el leptón con su neutrino y los cuarks b y t.
Si el cuark tiene una subestructura, ésta aún no se hace aparente en los experimentos de
dispersión a las energías más altas alcanzadas hasta ahora (mil GeV, es decir 1 Tera eV, o
TeV). Por otra parte, así como la comprobación experimental de la unificación electrodébil
ocurre vía bosones intermedios cuya masa implicó experimentos a energías cercanas a 100
GeV, la próxima unificación (GUT) debería ser mediada por partículas con masas muchos
órdenes de magnitud mayores a lo alcanzado hasta ahora. Es decir, la nueva física
requerirá de un esfuerzo enorme en cuanto a la tecnología de aceleradores. ¿Qué tan
factible es esto?
En la cruzada por lo fundamental el ser humano ha tenido que abandonar una serie de
principios basados en la observación de lo macroscópico. Tal es el caso de las diferencias
entre materia y energía, espacio y tiempo, conceptos que aún forman parte de nuestra
educación primaria. Otro ejemplo es el del determinismo, las partículas y las ondas se
confunden y el mundo microscópico nos ha enseñado que
lo único que podemos predecir con precisión es la probabilidad de que algo ocurra...
¿Desistiremos algún día de preguntarnos de qué estamos hechos?
3.- La Luz
9.- El Electromagnetismo
11.- Resumen
1.- Introducción
6.- Resumen
1.- Introducción
2.- El origen de la luz
7.- Resumen
El Protón: Rutherford
..................................................................17
1.- Introducción
4.- El Núcleo
6.- Resumen
El Neutrón: Chadwick
................................................................21
1.- Introducción
2.- Los Isótopos
7.- Resumen
1.- Introducción
6.- El Positrón
7.- Resumen
1.- Introducción
2.- El decaimiento
4.- El neutrino
5.- Resumen
El Muon y los Piones: Yukawa, Latles, Occhialini y Powell
..........34
1.- Introducción
3.- El muon
4.- El pion
5.- Resumen
1.- Introducción
6.- Resumen
Los Cuarks: Gell-Mann y Zweig
...................................................42
1.- Introducción
5.- El color
8.- El confinamiento
9.- El “Encanto”
12.- Resumen
................49
1.- Introducción
9.- Resumen
- Conclusión ..................................................................................54