Paul Davies
Debemos, pues, reconocer que el microcosmos no está regido por leyes
deterministas que regulen con exactitud el comportamiento de los átomos y de
sus componentes, sino por el azar y la indeterminación.
Así, una partícula como el electrón tiene un comportamiento ondulatorio,
a la vez que las ondas electromagnéticas también presentan características
corpusculares. No existe contrapartida cotidiana a la dualidad
«onda–partícula», de manera que el microcosmos no es una mera versión
liliputiense del macrocosmos, sino algo cualitativamente distinto, casi
paradójicamente distinto. En este extraño mundo de los cuantos, la intuición
nos abandona y pueden ocurrir cosas aparentemente absurdas o milagrosas. En
este capítulo examinaremos algunas de las consecuencias de la teoría cuántica y
describiremos la naturaleza verdaderamente insustancial del, en apariencia,
concreto mundo de la materia.
El principio de incertidumbre de Heisenberg pone restricciones a la
exactitud con que se puede determinar la localización y el movimiento de las
partículas, pero estas dos magnitudes no son las únicas que pueden medirse. Por
ejemplo, podríamos estar más interesados por la velocidad del «spin» de un
átomo o por su orientación.
O bien, podríamos necesitar medir su energía o el tiempo que tarda en
pasar a un nuevo estado energético.
Es posible analizar las observaciones de estas magnitudes de la misma
manera que se utilizó el microscopio de rayos gamma, descrito en el capítulo
anterior, para estimar la incertidumbre de la posición y del impulso.
Para ilustrar estas nuevas posibilidades, supongamos que queremos
determinar la energía de un fotón de luz. De acuerdo con la hipótesis cuántica
original de Planck, la energía de un fotón es directamente proporcional a la
frecuencia de la luz: al doble de frecuencia corresponde el doble de energía.
Un procedimiento práctico de medirla consiste, pues, en medir la frecuencia de
la onda luminosa, lo que puede hacerse contando el número de oscilaciones (es
decir, de crestas y vientres de la onda) que pasan en un determinado intervalo
de tiempo. Para la luz visible es grandísimo: alrededor de mil billones por
segundo. Para que la operación tenga éxito es menester evidentemente que al
menos se produzca una oscilación de la onda, y a ser posible varias, pero cada
oscilación requiere un intervalo de tiempo determinado. La onda debe pasar
desde la cresta al vientre y de nuevo a la cresta. Medir la frecuencia de la
luz en una fracción de tiempo inferior a ésta es a todas luces imposible,
incluso en teoría. En el caso de la luz visible, la duración necesaria es muy
breve (una milbillonésima de segundo). Las ondas electromagnéticas con
longitudes de onda mayores y menor frecuencia, tales como las ondas
radiofónicas, pueden precisar algunas milésimas de segundo para cada
oscilación. Consiguientemente los fotones de las ondas de radio tienen muy poca
energía. Por el contrario, los rayos gamma oscilan centenares de veces más de
prisa que la luz y la energía de sus fotones es cientos de veces mayor.
Estas sencillas consideraciones ponen de manifiesto que existe una
fundamental limitación de la exactitud con que puede medirse la frecuencia, y
por tanto la energía, en un intervalo dado de tiempo. Si la duración es menor
que un ciclo de la onda, la energía queda muy indeterminada, por lo que hay una
relación de incertidumbre que vincula la energía y el tiempo que es idéntica a
la relación ya expuesta entre posición e impulso. Para conseguir una exacta
determinación de la energía, es necesario hacer una larga medición, pero si lo
que nos interesa es el momento en que sucede un acontecimiento, entonces una
determinación exacta sólo puede hacerse a expensas del conocimiento sobre la
energía. Hay aquí, pues, un equilibrio entre información sobre la energía e
información sobre el tiempo similar a la mutua incompatibilidad entre la
posición y el movimiento. Esta nueva incertidumbre tiene consecuencias de lo
más espectaculares.
Antes de volver a cuestiones de mayor amplitud, debemos subrayar un punto
importante. La limitación de las mediciones de la energía y del tiempo, al
igual que las de la posición y el impulso, no son meras insuficiencias
tecnológicas, sino propiedades categóricas e inherentes de la materia. En
ningún sentido cabe imaginar un fotón que «realmente» posea en todos los
momentos una energía bien definida, aun cuando nos sea imposible medirla, ni
tampoco un fotón que surja en un determinado momento con una frecuencia
concreta. La energía y el tiempo son características incompatibles para los
fotones, y cuál de las dos se ponga de manifiesto con mayor exactitud depende
por completo de la clase de las mediciones que elijamos efectuar.
Vislumbramos ahora, por primera vez, el asombroso papel que el observador
desempeña en la estructura del microcosmos, pues los atributos que poseen los
fotones parecen depender precisamente de las magnitudes que el experimentador
decida medir. Además, la relación de incertidumbre energía–tiempo, como la de
la posición–impulso, no se limita a los fotones, sino que es válida para toda
la actividad subatómica.
Una consecuencia inmediatamente perceptible de la relación de
incertidumbre energía–tiempo se refiere a la calidad de la luz que emiten los
átomos. Como se ha mencionado, los colores que irradian las distintas
sustancias vienen determinados por el espaciado de los niveles atómicos de
energía, y esto permite a los físicos identificar los distintos productos
químicos con la mera observación de su espectro luminoso. Un típico espectro,
por ejemplo, de un tubo fluorescente lleno de gas, presenta una serie de rayas
bien marcadas que representan las distintas frecuencias (es decir, las
energías) de la luz que emana ese tipo de átomos. Cada raya la producen fotones
con una energía determinada que se emiten cuando los electrones de los átomos
de gas saltan de los niveles superiores a los inferiores.
Hay en estas rayas un importante detalle que ilustra maravillosamente la
relación de incertidumbre energía–tiempo. La emisión de un fotón individual
ocurre cuando un electrón es empujado (por ejemplo, por una corriente
eléctrica) a un nivel energético superior, de modo que el átomo pasa
transitoriamente por un estado de excitación. Pero el estado de excitación sólo
en parte es estable y pronto los electrones vuelven al estado más cómodo de
baja energía.
La duración del estado de excitación depende de varios factores, como son
la distribución de los demás electrones y la diferencia energética entre los
estados, y oscila enormemente entre una millonésima de billonésima de segundo y
una milésima de segundo e incluso más. Si la duración es muy corta, entonces la
relación de incertidumbre tiempo–energía exige que la energía de los fotones
emitidos no esté muy bien definida. Desde el punto de vista del observador,
esto significa que una masa de átomos idénticamente excitados no producirá, al
retornar a su estado anterior, fotones idénticos. Por el contrario, la masa de
fotones variará en cuanto a energía y por tanto en frecuencia. Al mirar la luz
de millones de átomos, el observador no ve un color exactamente definido, sino
una mancha de color concentrada alrededor del centro de la raya espectral. Las
mismas rayas, por tanto, no son del todo claras, sino de bordes borrosos, y su
anchura está directamente relacionada con la duración del estado de excitación
atómica. Así pues, un estado de corta duración da una raya ancha debido a que
los fotones tienen una energía muy incierta, mientras que una raya estrecha
indica una larga duración y una cantidad de energía bastante definida.
Midiendo el ancho de las rayas los físicos pueden deducir la duración del
correspondiente estado de excitación.
Una de las consecuencias más notables de la relación de incertidumbre
energía–tiempo es la transgresión de una de las más apreciadas leyes de la
física clásica. En la vieja teoría newtoniana de la materia, la energía se
conserva rigurosamente. No hay manera de crear ni de destruir energía, si bien
pueden transformarse de una a otra forma. Por ejemplo, un hornillo eléctrico
transforma la energía eléctrica en calor y luz; una máquina de vapor transforma
la energía química en energía mecánica, y así sucesivamente. Cualquiera que sea
el número de veces en que se transforme o divida, sigue habiendo la misma
cantidad total de energía. Esta ley fundamental de la física ha desmantelado
todos los intentos de inventar el «perpetuum mobile» –la máquina que funcione
sin combustible–, pues es imposible sacar energía de la nada.
En el terreno cuántico, la ley de la conservación de la energía resulta
discutible. Afirmar que la energía se conserva nos obliga, al menos en
principio, a poder medir con exactitud la energía que hay en un momento y en el
siguiente, para comprobar que la cantidad total se ha mantenido invariable. Sin
embargo, la relación de incertidumbre energía–tiempo exige que los dos momentos
en que se comprueba la energía no deban ser demasiado próximos, o bien habrá
cierta indeterminación en cuanto a la cantidad de energía. Esto abre la
posibilidad de que en períodos muy breves la ley de la conservación de la
energía pudiera quedar en suspenso. Por ejemplo, podría aparecer energía
espontáneamente en el universo, siempre que volviera a desaparecer durante el
tiempo que concede la relación de incertidumbre. Hablando en términos
pintorescos, un sistema puede «tomar prestada» energía según un arreglo
bastante especial: la debe devolver en un plazo muy breve. Cuanto mayor es el
préstamo, más rápida ha de ser la devolución. A pesar del limitado plazo del
préstamo, veremos que durante su duración es posible hacer cosas espectaculares
con la energía prestada.
Dado que nos ocupamos de sistemas subatómicos, las cantidades de energía
en cuestión son muy pequeñas para los estándares cotidianos. No hay
posibilidad, por ejemplo, de hacer funcionar una máquina a base de energía
prestada, como era la ilusión de los inventores medievales. La energía que
emite una luz eléctrica en un segundo sólo puede ser tomada prestada, gracias
al principio de incertidumbre, durante una billonésima de billonésima de
billonésima de segundo. Dicho de otro modo, el mecanismo de préstamo cuántico
sólo asciende a una fracción de la emisión de una lámpara eléctrica
correspondiente a un uno seguido de treinta y seis ceros.
En el terreno subatómico las cosas son distintas porque las energías son
mucho menores que en la vida diaria y hay tanta actividad que incluso períodos
de tiempo que son absolutamente diminutos para nosotros permiten que ocurran
muchas cosas. Por ejemplo, la energía necesaria para elevar un electrón a un
estado atómico excitado es tan pequeña que puede tomarse prestada durante
varias milésimas de billonésimas de segundo. Puede que parezca tratarse de un
período no muy largo, pero permite importantes efectos. Si un fotón encuentra
un átomo, puede ser absorbido, provocando que el átomo se excite al pasar un
electrón a un nivel energético superior. Si el fotón no tiene la bastante
energía para elevar el electrón, el déficit puede tomarse prestado, lo que
permite que la excitación ocurra temporalmente. Si el déficit energético no es
demasiado grande, el préstamo puede ser bastante largo, tal vez de una mil
billonésima de segundo. Este tiempo es lo bastante largo para que el electrón
gire alrededor del átomo y en cualquier caso es comparable a la duración del
estado de excitación. El resultado es que, cuando se devuelve el préstamo y el
fotón es reemitido, el átomo ha estado excitado el suficiente tiempo para
reordenar su forma, de manera que el fotón emitido no lo será en la misma
dirección del primero. Esto cabe describirlo diciendo que el fotón entrante ha
sido desviado por el átomo hacia otra dirección.
Cuanto más se aproxima el fotón a la energía exacta necesaria para elevar
el electrón al estado de excitación, menor es el préstamo y mayores la duración
y el efecto dispersante. Puesto que la energía es proporcional a la frecuencia,
que a su vez es una medida del color de la luz, de ahí se deduce que los
distintos colores se dispersarán en distinto grado. Por eso, hay materiales que
son transparentes a unos colores y no a otros, de manera que se ven coloreados
al mirar a su través. La dispersión preferencial de la luz de frecuencia alta
explica por qué el cielo es azul: la luz blanca del sol contiene muchas
frecuencias entremezcladas. Las frecuencias altas corresponden a los colores
como el azul y el violeta, las frecuencias bajas al verde y el rojo. Cuando la
luz del sol choca con los átomos del aire en la alta atmósfera, parte de la luz
azul se desperdiga coloreando el cielo y la restante luz, a la que se le ha
robado su azul, es rica en frecuencias bajas, por lo que parece amarilla. Esta
es la razón de que el Sol sea de color amarillo. Cuando se ve cerca del
horizonte, la mayor profundidad de la capa de aire que atraviesa la luz
multiplica este efecto, aumentando la disipación de las frecuencias bajas, y el
Sol adopta un color rojizo.
A manera de ilustración adicional de la incertidumbre energética,
examinemos el problema de hacer rodar una bola sobre un montículo. De
impulsarla con poca energía, la bola alcanza sólo parte de la altura del
montículo, donde se detiene y rueda de vuelta. Por otra parte, de lanzarla con
mucha energía la bola conseguirá llegar hasta la cumbre del montículo, donde
comenzará a rodar hacia abajo por el lado opuesto. Se plantea entonces el
problema de si la bola puede tomar prestada la suficiente energía, mediante el
mecanismo de préstamo de Heisenberg, para superar el montículo aun cuando haya
sido lanzada a muy poca velocidad.
Para comprobar estas ideas se puede estudiar el comportamiento de los
electrones, que hacen el papel de bolas, cuando entran en el campo de una
fuerza eléctrica que actúa lo mismo que un montículo desacelerando el ascenso
de los electrones. Si se disparan electrones contra esta barrera electrónica se
comprueba efectivamente que algunos atraviesan la barrera, incluso cuando la
energía de lanzamiento es muy inferior a la que necesitan para superar el
obstáculo según las consideraciones extracuánticas. Si la barrera es delgada y
no demasiado «alta», la energía necesaria pueden tomarla prestada los
electrones durante el breve período de tiempo necesario para que los electrones
se desplacen a través de ella. Por tanto, el electrón aparece al otro lado de
la barrera, aparentemente habiéndose abierto paso a su través. Este llamado
efecto túnel, como todos los fenómenos controlados por la teoría cuántica, es
de naturaleza estadística: los electrones tienen una cierta probabilidad de
atravesar la barrera. Cuanto mayor sea el déficit energético, más improbable es
que el principio de incertidumbre les sirva de fiador. En el caso de una bola
real que pese unos cien gramos y de un montículo de diez metros de altura y
diez metros de espesor, la probabilidad de que la bola se abra paso a través
del montículo cuando todavía está a un metro de la cima es sólo una entre un
uno seguido de un billón de billones de billones de ceros.
Aunque irrelevante para los objetos macroscópicos, el efecto túnel es
vital para algunos procesos subatómicos. Uno de estos procesos es la
radioactividad. El núcleo del átomo está rodeado de una barrera similar a un
montículo, provocado por la competencia entre la repulsión eléctrica y la
atracción nuclear. Las partículas que forman parte del núcleo, como los
protones, son fuertemente repelidas por las cargas eléctricas de todos los
protones vecinos, pero habitualmente no son expulsadas del núcleo debido a que
la fuerza eléctrica es superada por fuerzas atractivas mayores que mantienen el
núcleo unido. No obstante, estas últimas tienen un alcance muy reducido y
desaparecen por completo fuera de la superficie del núcleo. De ahí se sigue
que, si un protón fuera apartado a una corta distancia del núcleo y dejado en
libertad, sería lanzado hacia fuera a gran velocidad por el campo eléctrico,
siendo impotente para impedirlo la fuerza nuclear, como consecuencia de su
aislamiento del núcleo.
Las emanaciones de alta velocidad de núcleos atómicos radiactivos fueron
descubiertas por Henri Becquerel en 1898 y denominadas rayos alfa. Pronto se
descubrió que en absoluto eran rayos, sino partículas; en realidad son cuerpos
compuestos que constan de dos protones unidos con dos neutrones. La explicación
del escape de las partículas alfa de los núcleos radiactivos se basa en el
efecto túnel. La partícula alfa, cuando está dentro del núcleo, no tiene la
suficiente energía para superar los lazos de la fuerza nuclear que mantiene
unidos las partículas. Permanece atrapada en el núcleo por una barrera de
fuerza que no puede sobrepasar. Sin embargo, tomando energía prestada durante tan
sólo una millonésima de billonésima de segundo –que es lo que tarda una
partícula alfa en recorrer las diez millonésimas de millonésima de centímetro
de la superficie nuclear–, la partícula puede escapar. En un préstamo de tan
corta duración, la energía que se toma prestada es comparable a la energía que
existe en la partícula alfa, de modo que su comportamiento sufre una profunda
modificación.
Atraviesa la barrera y aparece del otro lado, donde la fuerza eléctrica
libre de trabas, la lanza a enorme velocidad convirtiéndola en un rayo alfa. En
todo núcleo donde esto sea posible, hay una cierta probabilidad de que, tras un
determinado tiempo, se produzca una emisión alfa. Así, en una gran masa de
átomos radiactivos, al duplicarse este tiempo se producirán el doble de
emisiones. Por tanto, toda materia radiactiva tiene una determinada vida media
contra la desintegración, cuya duración depende sensiblemente del tamaño y el
espesor de la barrera que constituye la fuerza nuclear.
Un comportamiento igual de notable presentan las partículas cuya energía
excede la necesaria para superar la barrera. Debido a la naturaleza ondulatoria
de la materia, algunas ondas se reflejan en la barrera, por mucha energía que
tenga la partícula. Esto implica una determinada probabilidad de que la
partícula rebote en una barrera por mínima que ésta sea. De hecho hay una
probabilidad, aunque increíblemente pequeña, de que una bala rebote al chocar
contra una hoja de papel.
A comienzos de la década de 1930, la teoría cuántica se combinó con la
relatividad especial, gracias en gran medida a la obra de Paul Dirac, e
inmediatamente abrió nuevos horizontes. Hasta entonces, las ecuaciones que
utilizaban los físicos para describir las ondas de la materia, las ecuaciones
de Schrödinger, eran matemáticamente inconsistentes con el principio de la
relatividad especial. Dirac buscaba unas ecuaciones sustitutivas, pero encontró
que no se podía conseguir una fórmula satisfactoria utilizando los tipos de
objetos matemáticos entonces conocidos. Le fue necesario inventar un nuevo tipo
de magnitud, llamada «spinor», que permitiera a sus ecuaciones las simetrías
adicionales inherentes a la teoría de la relatividad. La ecuación de Dirac
predice en general resultados que se diferencian poco de los de la anterior
ecuación no–relativista. Pero de ella surgieron dos rasgos nuevos y de profunda
significación.
El primero se refiere al comportamiento de las partículas cuando se las
somete a rotación. Las leyes de la mecánica cuántica hacen predicciones
concretas sobre el comportamiento de los cuerpos que se mueven siguiendo
trayectorias curvas, tales como órbitas circulares. Dirac descubrió que para
que estas leyes se sostengan es preciso suponer que la propia partícula e de
alguna manera rotando (en inglés «spinning», de donde el nombre de «spinor»).
El movimiento del electrón alrededor del átomo, por ejemplo, se parece al de la
Tierra (que también rota sobre su propio eje) yendo alrededor del Sol. La
rotación intrínseca del electrón tiene un rasgo incómodo, sin embargo, que no
presenta la rotación de la Tierra. Imagínese una bola que rota en el sentido de
las agujas del reloj alrededor de un eje vertical. Si se voltea la bola de
arriba abajo, rotará en sentido contrario a las agujas del reloj alrededor del
mismo eje vertical. Continuando el giro de la bola hasta completar los 360º, de
vuelta a su posición original, volverá a girar en el sentido de las agujas del
reloj.
Esta descripción parece tan evidente que uno tiende a darla por sentada y
a suponer que se aplica también a los pequeños cuerpos rotatorios, incluidos
los electrones.
Lo extraordinario es que los electrones sencillamente no vuelven a su
situación anterior cuando se les da una vuelta entera. En realidad, necesitan
dos revoluciones completas y sucesivas para volver a la misma posición. Es como
si los electrones tuviesen una doble perspectiva del universo, un rasgo casi
sin paralelo en los cuerpos macroscópicos y absolutamente misterioso desde el
punto de vista de la experiencia cotidiana.
El origen de la doble naturaleza de los electrones afecta, durante las
rotaciones, al comportamiento de la onda que llevan asociada.
Resulta que después de una sola revolución, la onda vuelve, por así
decirlo, con las crestas y los vientres intercambiados, y sólo una segunda
rotación restaura la configuración original. Todo esto indica que el movimiento
giratorio interno de las partículas subatómicas tiene en realidad un carácter
muy distinto al de la sencilla idea de una esfera rotatoria. Sin embargo, el
«spin» intrínseco puede medirse en el laboratorio y, en realidad, se infirió su
existencia a partir de unas curiosas líneas dobles muy concretas en el espectro
atómico, antes de que Dirac llegase a su explicación. No todas las partículas
subatómicas poseen esta peculiar rotación de tipo Dirac, con su doble carácter.
Hay partículas que en absoluto rotan y no presentan la doble imagen, mientras
que otras tienen dos o cuatro unidades de «spin». No obstante, las partículas
conocidas –electrones, protones y neutrones– que componen la materia ordinaria,
son todas partículas de tipo Dirac, con el característico «spin».
El trabajo de Dirac dio lugar a otro sensacional resultado que es todavía
más extraordinario que el «spin» intrínseco. Las consecuencias completas de la
ecuación de Dirac no se extrajeron sino al cabo de años, pero desde el
comienzo, en 1931, el propio Dirac se concentró en un rasgo simple pero
peculiar de sus nuevas matemáticas. Como todos los físicos, Dirac consideraba
que las ecuaciones eran algo a resolver y suponía que cada solución
representaba la descripción de alguna situación física real. Así, por ejemplo,
si se utilizaba la ecuación para estudiar el movimiento de un electrón que
orbita alrededor de un núcleo de hidrógeno, entonces cada solución debía
corresponder a un posible estado concreto de movimiento. Como era de esperar,
la ecuación de Dirac poseía un número infinito de soluciones, una para cada
nivel energético del átomo, y todavía más para los movimientos de los
electrones energéticos que se mueven desligados de la atracción del núcleo de
hidrógeno. Lo sorprendente fue, no obstante, el descubrimiento de todo un
conjunto de soluciones adicionales que no tenían ninguna contrapartida física
evidente. De hecho, a primera vista parecían carecer por completo de sentido.
Para cada solución de la ecuación de Dirac que describe un electrón con una
energía dada, hay una especie de solución refleja que describe otro electrón
con igual cantidad de energía negativa.
La energía, lo mismo que el dinero, se consideraba hasta entonces una
cualidad puramente positiva. Un cuerpo posee energía si se mueve, si tiene
carga eléctrica o si es excitado de cualquier otro modo. Probablemente sea
posible extraer toda la energía de un cuerpo hasta dejarlo a cero de energía,
pero ¿qué significa una energía inferior a cero? ¿Qué aspecto tendría y cómo se
comportaría un cuerpo con energía negativa? Al principio, Dirac desconfiaba
mucho de estas soluciones reflejas, cuya evidente interpretación era que se
trataba de caprichos extrafísicos –mero exceso de equipaje matemático– y no de
descripciones del mundo real. Sin embargo, la experiencia ha demostrado que
cuando existe una solución matemática a una ley de la naturaleza, también
suelen existir contrapartidas físicas. Dirac estudió qué ocurriría si estos
curiosos estados de energía negativa fueran estados verdaderamente posibles de
la materia. Se dio cuenta de que presentaban una gran paradoja, porque en
apariencia permitían que cualquier electrón ordinario (es decir, de energía
positiva) saltara a un estado de energía negativa mediante la emisión de un
fotón. Entonces, lo que habitualmente suele considerarse el estado energético
mínimo o estado fundamental de, pongamos, el átomo de hidrógeno ya no sería, a
fin de cuentas, el estado mínimo, y habría que volver al problema clásico de
cómo se evita que los átomos se colapsen. Además, no hay límites al tamaño
negativo de los estados de Dirac, de tal modo que toda la materia del universo
amenaza con caer en un pozo sin fondo entre una infinita lluvia de rayos gamma.
Para evitar esta catástrofe, Dirac hizo una notable propuesta.
¿Qué pasaría si la materia ordinaria eludiera la caída infinita debido a
que todos los estados de energía negativa estuvieran ya ocupados por otras
partículas? El razonamiento que hay tras esta idea brota de un importante
descubrimiento hecho por el físico alemán Wolfgang Pauli en 1925. Pauli estudió
las propiedades de las partículas con «spin», pero no aisladas, sino
colectivamente. La curiosa naturaleza doble del «spin» intrínseco está
íntimamente relacionada con la manera en que dos o más de tales partículas
responden a la proximidad de las demás. Como consecuencia de sus propiedades
ondulatorias, dos electrones percibirán su mutua presencia, absolutamente al
margen de la fuerza eléctrica que actúe entre ellos, porque las crestas y los
vientres de la onda del uno se superpondrán e interferirán con las crestas y
vientres del otro. Un estudio matemático de este efecto demuestra que existe un
tipo de repulsión que evita que haya más de un electrón que ocupe en cada
momento el mismo estado. Dicho de manera informal, dos electrones no pueden
agolparse demasiado cerca. Es como si cada electrón poseyera una pequeña unidad
de territorio que no puede ser invadido por sus semejantes.
El principio de exclusión de Pauli, como llegó a denominarse la propiedad
territorial, conduce a algunos efectos importantes.
Implica que los electrones densamente apretados tengan una extraordinaria
rigidez, puesto que la tendencia a la exclusividad les impide apretujarse en el
mismo espacio.
Uno de los lugares donde la concentración de la materia es más feroz es
el centro de las estrellas. El inmenso peso de las estrellas hace que sus
núcleos se encojan bajo la gravedad de las enormes densidades, quizá de hasta
mil millones de kilogramos por centímetro cúbico. Mientras continúan ardiendo,
impiden una mayor contracción mediante la producción de grandes cantidades de
calor que elevan la presión interior. En último término, empero, el combustible
se va consumiendo y se produce una progresiva contracción hasta que los
electrones empiezan a sentirse incómodos por la proximidad de sus vecinos.
Entonces entra en juego el principio de Pauli que trata de impedir que la
estrella continúe aplastándose. En las estrellas como el Sol, se tardará unos
cinco millones de años más en llegar a tal estado, pero cuando se alcance las
consecuencias serán espantosas. Las propiedades de esta materia ultraaplastada
están predominantemente controladas por la actividad colectiva de los electrones.
Un resultado de este principio de exclusividad es que el material estelar se
comporta de manera extraña en presencia del calor. Al inyectar calor, en lugar
de provocar que la materia se expanda y enfríe, el calor permanece atrapado,
elevando la temperatura.
Si este proceso prosigue hasta el punto en que comienzan a arder nuevas
reservas de combustible estelar, el calor contenido crece súbitamente como en
una olla a presión sobrecalentada y el núcleo de la estrella explota, en un
paroxismo no lo bastante violento para deshacerla en fragmentos, pero sí lo
bastante traumático para alterar drásticamente su estructura, pasando de ser
una gran estrella roja y fría a ser una gigante azul muy caliente. Por último,
todo el combustible se quema y una estrella como nuestro Sol acaba sus días
encogiéndose hasta un tamaño como el de la Tierra, sostenida contra nuevos
desmoronamientos por los electrones.
Otro lugar donde la rigidez entre los electrones desempeña un papel vital
es el interior del átomo. Un gran átomo puede contener docenas de electrones
orbitando alrededor del núcleo y, a primera vista, parece que todos ellos
deberían desmoronarse hasta el mínimo de energía disponible. De ocurrir así,
todos los electrones quedarían revueltos en estrecha proximidad y de forma
caótica, y es dudoso que pudieran formarse tan siquiera enlaces químicos
estables. Lo que en realidad se ha visto que sucede es que los electrones se
apilan en ordenadas capas unos alrededor de los otros, evitando las capas
inferiores el desmoronamiento de las superiores, de acuerdo con el principio de
exclusión de Pauli. Sin el juego de este principio, todos los átomos pesados se
descompondrían en una masa informe.
Volviendo al problema de los estados de energía negativa de Dirac, el
principio de Pauli ofrece una solución a la paradoja.
Al igual que a los electrones de un átomo se les impide caer a los
niveles más bajos de energía al estar estos niveles ocupados por otros
electrones, también los simples electrones verían impedida su caída en el pozo
sin fondo si el pozo ya estuviera lleno de electrones. La idea es sencilla,
pero padece de un evidente defecto.
¿Dónde están todos esos electrones (y demás partículas) de energía
negativa que bloquean el pozo? Al no tener éste fondo, sería menester un número
infinito de partículas para rellenarlo. La respuesta de Dirac parece a primera
vista poco convincente. Argumenta que este conjunto infinito de partículas es
invisible, de modo que lo que normalmente nosotros consideramos el espacio
vacío no está realmente vacío, sino lleno de un infinito mar de materia de
energía negativa no detectada.
A pesar de lo que tiene de disparatada, la idea de Dirac cuenta con
cierta capacidad de predicción.
Examinemos, por ejemplo, cómo respondería uno de estos habitantes
invisibles del espacio a la presencia de un fotón. Al igual que un electrón
cualquiera, el electrón de energía negativa absorbe el fotón y utiliza su
energía para saltar a un estado energético superior, siempre que haya espacio
disponible. Si la energía del fotón es lo bastante grande, puede elevar
directamente al electrón negativo fuera del pozo, colocándolo en un estado de
energía positiva normal, donde hay mucho sitio. Tal acontecimiento sería
presenciado por nosotros en forma de abrupta aparición de la nada de un nuevo
electrón y la simultánea desaparición de un fotón. Puesto que el electrón con
energía positiva es observable, la transición de la energía negativa a la
positiva significa que el electrón sencillamente se materializa saliendo del
espacio vacío. Pero no es eso todo.
Deja tras de sí un agujero en el mar de energía negativa. Si bien la
presencia de un electrón de energía negativa es invisible, su ausencia (es
decir, el agujero) debe ser visible. La ausencia de energía negativa, de una
partícula con carga negativa, debe aparecer ante nosotros como la presencia de
una energía positiva, de una partícula con carga positiva. Así pues, junto al
recién creado electrón habrá una especie de partícula espejo con carga eléctrica
contraria, positiva.
Por tanto, la teoría de Dirac predice un tipo completamente nuevo de
materia, actualmente denominada antimateria. Un fotón energético debe ser capaz
de crear el par electrón–antielectrón o bien el par protón–antiprotón. En 1932,
Carl Anderson, un físico norteamericano, descubrió un antielectrón
(habitualmente llamado positrón) entre los residuos subatómicos de una lluvia
de rayos cósmicos. Desde entonces se han producido en los laboratorios cientos
de partículas de antimateria, confirmando espectacularmente la ecuación de
Dirac.
Como se esperaba, la antimateria no sobrevive mucho tiempo. El hueco que
queda en el mar de energía negativa será buscado por cualquier partícula de
energía positiva situada por encima. Si un electrón ordinario encuentra tal
agujero, desaparecerá en su interior y se desvanecerá del universo, emitiendo
un rayo gamma como pago de su pérdida de energía. Este proceso es el inverso de
la creación del par y se interpreta como que el encuentro de un electrón con un
positrón conduce a su mutua aniquilación. De manera que siempre que la materia
y la antimateria se encuentran, el resultado es una desaparición explosiva.
La idea de que la materia se cree y se aniquile es una consecuencia de la
teoría de la relatividad, que Dirac incorporó cuidadosamente a su ecuación. En
el capítulo 2 vimos que si un cuerpo se acelera hasta cerca de la velocidad de
la luz, se irá volviendo cada vez más pesado como procedimiento para impedir
ser empujado más allá de la barrera de la luz.
El exceso de peso representa la conversión de la energía en masa, que a
menor velocidad se dirigiría, por el contrario, a aumentar la velocidad del
cuerpo. De ahí se deduce que la masa es, en realidad, una mera forma de energía
encerrada. Por ejemplo, un protón contiene una billonésima de billonésima de
gramo de masa, pero tan concentrada está esta energía enjaulada que incluso una
cantidad de materia tan pequeña puede producir un destello de luz visible para
el ojo humano a diez metros de distancia. La conversión de la energía en
materia explica la súbita aparición de los pares partícula–antipartícula por el
mecanismo de Dirac, estipulándose la cantidad de energía necesaria según la
famosa fórmula de Einstein E = mc2. El proceso inverso, en el que la
materia se convierte en energía, también ocurre en las bombas atómicas y en las
centrales atómicas, así como en el Sol, cuya fuente de energía es la
desaparición de cuatro millones de toneladas de masa por segundo.
Si la masa no es sino una forma de la energía, como sostiene Einstein,
entonces la energía, lo mismo que la masa, debe tener peso. ¿Qué ocurre con los
cuatro millones de toneladas de materia solar que se pierden cada segundo? La
respuesta es que se convierten en luz solar, de tal modo que un segundo de luz
solar debe pesar cuatro millones de toneladas. ¿Cómo se puede comprobar esto?
La cantidad total de luz solar que choca cada segundo contra la Tierra pesa la
miseria de dos kilos, de tal modo que sería vano recoger la luz solar y
pesarla.
Sorprendentemente, es mejor estrategia pesar la luz aún más débil de las
estrellas lejanas. Utilizando la gravedad solar para aumentar el peso de la luz
algo por encima de su peso en la Tierra, puede pesarse un rayo de luz estelar
que roza el borde del Sol observando su combamiento por la gravedad solar. Esto
es lo que hizo Eddington durante el eclipse solar de 1919.
Aunque resulte impresionante, la teoría de Dirac del mar de partículas
invisibles de energía negativa resulta difícil de tragar literalmente. Los
posteriores progresos matemáticos demostraron que en realidad su modelo sólo es
heurístico y que la ecuación de Dirac requiere una nueva elaboración matemática
para poder explicar globalmente la aparición y desaparición de la materia. En
la teoría más moderna, la creación y la aniquilación de pares ocurre como
antes, pero las dificultades que presentaban los estados de energía negativa no
surgen en los mismos términos.
Cuando se combina la probabilidad de creación de un par de partículas con
la relación de incertidumbre entre la energía y el tiempo de Heisenberg, se
hacen posibles algunos efectos nuevos y espectaculares. Sacar un electrón del
mar de energía negativa y, en consecuencia, crear un par electrón–positrón
exige un rayo gamma de energía igual, como mínimo, a 2mc2, el doble
del segundo término de la ecuación de Einstein.
No obstante, esta cantidad bastante grande de energía puede tomarse
prestada durante alrededor de una mil millonésima de billonésima de segundo, lo
que permite al par electrón–positrón pasar transitoriamente por la existencia
antes de volver a desvanecerse. Estos pares fantasmas llenan todo el espacio.
Lo que nosotros solemos considerar como espacio vacío es, en realidad, un
mar de incesante actividad, lleno de todas clases de materia no permanente;
electrones, protones, neutrones, fotones, mesones, neutrinos y otras muchas más
especies de materia, cada una de las cuales sólo existe durante ínfimas
fracciones de tiempo. Para distinguir estos intrusos de las formas más
permanentes de materia que todos conocemos, los físicos utilizan la palabra
«virtual» para los primeros y «real» para las últimas.
Esta «melée» fantasmal no es una simple metáfora de los teóricos, pues
las fluctuaciones de la ebullición pueden producir efectos cuantificables, incluso
en los objetos cotidianos. Por ejemplo, el estado gelatinoso de determinadas
pinturas procede de fuerzas moleculares inducidas por estas fluctuaciones del
vacío. También es posible perturbar el vacío introduciendo materia. Una plancha
de metal, que refleja la luz, también refleja los evanescentes fotones
virtuales del vacío. Atrapándolos entre dos placas paralelas es posible alterar
ligeramente su energía, lo que produce una fuerza cuantificable en las placas.
Estas nuevas posibilidades modifican drásticamente la imagen que tenían
los físicos de las partículas subatómicas. El electrón, por ejemplo, ya no
puede considerarse como un simple objeto puntual, pues está continuamente
emitiendo y absorbiendo fotones virtuales a través del mecanismo de préstamo de
energía de Heisenberg. Por tanto, cada electrón está envuelto en una nube de
fotones virtuales y, si nos acercamos más, deducimos también la presencia de
protones, mesones, neutrinos y todas las demás especies de partículas virtuales
que zumban alrededor del electrón como un enjambre en acción. En realidad,
todas las partículas subatómicas están revestidas de esta especie de elaborada
y compleja capa de materia virtual.
A veces la nube virtual produce inesperados efectos físicos. Por ejemplo,
el neutrón es una partícula eléctricamente neutra, como su mismo nombre indica,
de modo que no transporta ninguna carga eléctrica.
No obstante, todo neutrón está revestido de una nube de partículas
virtuales, parte de las cuales tienen carga eléctrica. Siempre estará presente
el mismo número de cargas positivas y de negativas, pero éstas no han de estar
necesariamente en el mismo lugar. Por tanto, existe la posibilidad de que un
neutrón esté rodeado de capas de partículas virtuales con carga eléctrica, como
son los mesones.
Por ello, cuando se dispara un electrón contra un neutrón, desperdigará
esta electricidad, lo que permitirá trazar un mapa de la distribución de la
carga alrededor del neutrón. Además, al ser una partícula de tipo Dirac, el
neutrón posee un «spin» intrínseco, lo que quiere decir que conforme rota
arrastra a su alrededor estas capas cargadas, estableciendo minúsculas
corrientes eléctricas. Estas corrientes crean un campo magnético medible en el
laboratorio. Cuando se realizó esta medición por primera vez, en 1933, produjo
consternación entre los físicos, que no contaban con que un objeto
eléctricamente neutro tuviera campo magnético.
Podemos imaginar que cada partícula transporta consigo todo un séquito de
partículas virtuales.
Ninguna de las partículas virtuales vive lo bastante para adquirir el
título de entidad independiente, pues pronto es reabsorbida por su progenitor.
A su vez, cada partícula virtual transporta su propia subnube de otras
partículas virtuales cuya existencia es aún más evanescente, y así
sucesivamente hasta el infinito. Si, por la razón que fuera, el vehículo
progenitor desapareciera, las partículas virtuales no podrían ser absorbidas y
serían promocionadas a reales. Esto es lo que ocurre cuando la materia
encuentra a la antimateria; por ejemplo, cuando un protón tropieza con un
antiprotón, ambos desaparecen de repente y quedan algunos mesones, o quizá
fotones, de la nube virtual que no tienen adónde ir. Por tanto, aparecen en el
universo como nuevas partículas de materia real, una vez satisfecho su préstamo
de Heisenberg, de una vez por todas, con la masa–energía del par
protón–antiprotón sacrificado.
Con ayuda de la relación de incertidumbre energía–tiempo se pueden
explicar otros muchos fenómenos subatómicos. Uno de los problemas fundamentales
de la microfísica es explicar cómo dos partículas se afectan mutuamente por
medio de una fuerza eléctrica.
Antes de la teoría cuántica, los físicos imaginaban que cada partícula
cargada estaba envuelta en un campo electromagnético que actuaba sobre las
demás partículas cercanas dando lugar a una fuerza.
Cuando la teoría cuántica demostró que las ondas electromagnéticas están
confinadas en los cuantos, se intentó describir todos los efectos del campo
electromagnético en función de los fotones. No obstante, cuando dos electrones
se repelen mutuamente, no hay necesidad de que participe ningún fotón visible,
y la explicación hubo de esperar hasta que se desarrolló la noción de partícula
o cuanto virtual en la década de 1930. La fuerza eléctrica de atracción y de
repulsión se entiende ahora de la siguiente manera.
Cada electrón está rodeado de una nube de fotones virtuales, cada uno de
los cuales sólo vive transitoriamente de la energía que toma prestada antes de
ser reabsorbido por el electrón. Cuando se acerca otra partícula cargada, surge
sin embargo una nueva posibilidad. Una de las partículas podrían crear un fotón
virtual que podría ser absorbido por la otra. El análisis matemático revela que
este intercambio de fotones virtuales produce de hecho una fuerza entre las
partículas que posee exactamente las mismas características que cabe esperar de
un campo magnético.
Tras el éxito de explicar satisfactoriamente las fuerzas eléctricas (y
magnéticas) en función del intercambio de fotones, se planteó el problema de si
las demás fuerzas de la naturaleza –las fuerzas de la gravedad y del núcleo– no
se podrían describir de manera similar. La cuantización de la gravedad es un
tema importante que pospondremos para el próximo capítulo. El problema del
origen de las fuerzas nucleares se resolvió a mediados de los años treinta.
La fuerza nuclear fuerte que mantiene unidos a los componentes del núcleo
(protones y neutrones) tiene una naturaleza absolutamente distinta que la
fuerza electromagnética. En primer lugar, es varios cientos de veces mayor,
pero aún más problemática es la forma en que varía con la distancia. La fuerza
eléctrica entre dos partículas cargadas disminuye lentamente conforme se
alejan, de acuerdo con la llamada ley de la gravitación universal. Por el
contrario, la fuerza nuclear no se altera mucho en distancias pequeñas, hasta
que las partículas distan entre sí alrededor de una diez billonésima de
centímetro, en que de repente desciende a cero. La abrupta desaparición de la
fuerza nuclear en tan corto espacio es vital para la estructura y la
estabilidad de los núcleos, pero significa que no puede explicarse por el
intercambio de cuantos similares a los fotones virtuales.
La solución la encontró el físico japonés Hideki Yukawa en 1935. Propuso
que las partículas nucleares intercambiaban cuantos virtuales de un nuevo tipo
de campo –el campo nuclear–; pero, a diferencia de los fotones virtuales, los
cuantos de Yukawa poseen masa.
Cómo la presencia de la masa da lugar a una fuerza de extensión limitada
puede comprenderse fácilmente a partir de la relación de incertidumbre
energía–tiempo. De acuerdo con la ecuación de Einstein E = mc2, la
masa es una forma de energía y, como ya hemos visto, al crearse una masa se
gasta una gran cantidad de energía. Para crear un cuanto virtual de Yukawa es
necesario tomar prestada mucha más energía para poder dar lugar a la masa. En
función del mecanismo de Heisenberg, la duración del préstamo debe ser
proporcionalmente más corta, de modo que la distancia a que puede desplazarse
la partícula virtual de Yukawa es muy limitada. Yukawa elaboró un tratamiento
matemático completo y descubrió que la fuerza entre las dos partículas
nucleares debe en realidad disminuir rápidamente al superar cierto límite. Como
era de esperar, el límite guarda una relación simple con la masa del cuanto
virtual y, utilizando el dato experimental de que la fuerza se desvanece
alrededor de la diez billonésima de centímetro, Yukawa pudo determinar que la
masa de su cuanto era de, más o menos, trescientas veces la masa de un
electrón.
En este punto surgió una nueva e interesante posibilidad. Así como los
fotones virtuales pueden promocionarse a reales por el sistema de aniquilar los
electrones a que están vinculados, quizá también fuera posible dar existencia
independiente a las partículas virtuales de Yukawa si se aniquilaran las
partículas del átomo a que estaban vinculadas. Por ejemplo, si un antiprotón
choca con un protón, entonces, la abrupta y mutua desaparición de este par
debería dar lugar a una lluvia de nuevas partículas. Yukawa llamó a éstas
mesones, puesto que su masa se sitúa en algún punto intermedio entre la de los
electrones y la de los protones. Unos diez años después se descubrieron los
mesones de Yukawa, al igual que los positrones de Dirac, en los residuos
subatómicos de los rayos X. En la actualidad, se producen de forma rutinaria,
mediante la aniquilación de antiprotones y por otros muchos procedimientos, en
los gigantescos aceleradores de partículas.
Aunque muchas de las ideas expuestas en este capítulo se han presentado
de manera muy elemental y en realidad requieren un tratamiento matemático
completo para hacerlas exactas y precisas, no obstante, sus consecuencias son
importantes. El mundo en apariencia concreto que nos rodea resulta ser una
ilusión cuando sondeamos los microscópicos escondrijos de la materia.
Encontramos ahí un mundo cambiante, de transmutaciones y fluctuaciones, donde
las partículas materiales pierden su identidad e incluso desaparecen por
completo.
Lejos de ser un mecanismo de relojería, el
microcosmos se disuelve en una especie de mundo caótico y evanescente donde la
fundamental indeterminación de los atributos observables trasciende muchos de
los más valiosos principios de la física clásica. El afán por buscar una
legalidad subyacente a toda esta anarquía subatómica es fuerte, pero, como
veremos, en apariencia infructuoso. Tenemos que aceptar el hecho de que el
mundo es mucho menos sustancial y fiable de lo que hasta ahora imaginábamos.
Capítulo IV de Otros mundos
No hay comentarios:
Publicar un comentario