25.9.12

“UN ACERCAMIENTO A UN INQUIETANTE ASPECTO DE LA MECÁNICA CUÁNTICA”


Rafael González Farfán

“La mecánica cuántica es la descripción del comportamiento
de la materia y de la luz en todos sus detalles, y en particular,
de todo aquello que tiene lugar a escala atómica. A muy pequeña
escala, las cosas NO se comportan en absoluto como aquéllas de las
cuales tenemos una experiencia directa. No se comportan como ondas,
no se comportan como partículas, como nubes ni como bolas de billar,
ni como un peso sobre una cuerda, ni como nada que se haya visto jamás”
(Richard Feynman)

1. ESCENARIO.

Prácticamente hasta casi finales del siglo XIX, el pensamiento científico occidental participaba de la idea de que la ciencia en general y la física en particular, estaban en el umbral de dar las respuestas sobre el comportamiento y las leyes de la Naturaleza. La mecánica de Newton se había mostrado más o menos eficaz, durante años, en las predicciones que con ella de base se hacían en los movimientos del Sistema Solar, y sólo quedaba afinar las técnicas de observación y de cálculo. Básicamente, todo quedaba inmerso en un espíritu determinista y positivista que vería, con el comienzo del siglo, tambalear y derribar sus más profundos cimientos. El descubrimiento de la radiactividad, el efecto fotoeléctrico, la relatividad, la radiación del cuerpo negro, los modelos atómicos, los descubrimientos en el terreno de la astronomía, etc... no hicieron más que firmar el parte de defunción de una física “clásica” que ya no se sostenía.

1.1 Ondas y partículas.

Habitualmente la física clásica distingue dos clases de objetos con los que trabaja: las partículas y las ondas. Las primeras tienen un carácter físico definido en el sentido de poseer una determinada masa, podérsele asignar una determinada posición, velocidad, energía, localización, etc., y participar y “respetar” las leyes de la física habitual. Se dice que son “corpúsculos discretos”. Las ondas, en cambio, son propagadoras de energía sin que transporten materia, están “deslocalizadas” ocupando todo el espacio de modo contínuo. En este sentido, la Mecánica Cuántica nos traerá como principal novedad la indiferenciabilidad de estas ideas en las partículas que pululan el nivel subatómico.
Un experimento mental[1] nos ayuda a comprender lo que se quiere decir. Imaginemos que la fuente S de la
figura es una ametralladora que dispara balas de forma desordenada sobre una pared en la que hay practicados dos orificios T1 y T2 y tras el que existe una pantalla E. En el segundo caso la fuente S emite ondas. Al cerrarse T2 los puntos de impacto pasan sólo por T1 y en la pantalla quedan registrados como una mancha homogénea y algo agrandada por “el efecto borde”. Lo mismo cabe esperar que suceda al cerrar T1, esperándose una máxima densidad de impactos en la dirección ST1. Si abrimos simultáneamente T1 y T2, cabe esperar que la distribución de los impactos sea la que corresponda (en la pantalla) a la curva I1,2 entendiendo que las balas que han alcanzado la pantalla han pasado bien por T1 o por T2. Esta I1,2 es la suma de las curvas I1 e I2.
Repitamos el experimento con ondas. Todo parece transcurrir de un modo similar al anterior cuando abrimos de modo independiente bien T1 o T2. Sin embargo, el asunto cambia al abrir simultáneamente ambos agujeros y la curva que registra el fenómeno global NO es la suma de I1 e I2, sino algo diferente, ya
que la onda es un fenómeno NO localizado, y pasa al mismo tiempo por los agujeros T1 y T2, mientras que
los corpúsculos lo hacen bien por uno bien por otro. Del mismo modo, debido a fenómenos de interferencia, difracción y desfase, aparece la forma de la gráfica de I1,2 para las ondas. Este mismo tipo de comportamiento es típico de la luz, tal y como Thomas Young puso de manifiesto en 1803[2]. A partir de
entonces se pensaba en términos de ondas para referirse a la luz, olvidando por completo el carácter corpuscular que Newton había ya establecido. Casi un siglo más tarde que Young, volvió a retomarse el
carácter corpuscular (otra vez) para la luz de la mano de Einstein y el efecto fotoeléctrico. A partir de entonces comenzó a hablarse de dualidad onda-corpúsculo pues estos aspectos se vieron que NO eran
exclusivos para los fenómenos luminosos, sino que también, por ejemplo, los electrones experimentaban
difracción. La puerta para la naturaleza dual de las partículas y la materia estaba abierta.
La aparición del carácter dual en la naturaleza planteaba profundos problemas. Uno de ellos, por ejemplo, era el de la misma medida ya que una partícula cuántica NO puede, a la manera de los corpúsculos clásicos, localizarse de forma clara como las partículas.

2. LA CATÁSTROFE ULTRAVIOLETA.

Realmente esta llamada catástrofe fue la antesala de la Mecánica Cuántica y con ella una nueva visión de la
Naturaleza que tiene por base ese carácter dual de la materia del que se ha hablado antes.
Todo comenzó con el análisis de la radiación del cuerpo negro en términos y esquemas de la física clásica. Como es sabido, cuando un cuerpo se calienta cambia de color, emigrando éste según la temperatura, como puede verse en la figura adjunta. Esta “emigración del color” llega hasta valores que el ojo no es capaz de percibir como el ultravioleta o el infrarrojo.
A partir de la segunda mitad del XIX los físicos comienzan a interesarse por el modo en cómo los cuerpos
emiten luz cuando se calientan o las absorben cuando se enfrían. Es lo que conocemos, en aproximación, como “radiación del cuerpo negro”. En realidad, tal cuerpo no existe, es sólo una idealización de un cuerpo que es capaz de absorber y emitir TODA la radiación que recibe, analizando la luz emitida (en función de la temperatura a que se ha visto sometido el cuerpo).
Los resultados de estos estudios se resumieron en dos propuestas diferentes y NO concordantes. Por un lado, en 1893 el físico alemán Wien propone una ley empírica que explicará los resultados observacionales de la zona del espectro de la zona ultravioleta, pero fracasa en la zona del infrarrojo. Por otro lado, los ingleses Rayleigh y Jeans proponen otras ecuaciones que explican la zona del infrarrojo, pero no la del ultravioleta. Entonces aparece en escena un artículo de Max Planck que marca el inicio de la Mecánica Cuántica.
En esencia, el trabajo de Planck propone una idea revolucionaria en la física, increíble incluso para él mismo en sus principios. Propone la discontinuidad de la energía. Hasta entonces, la física clásica proponía que en los procesos de emisión y absorción de energía, ésta se emitía/absorbía de modo contínuo, mientras que lo que Planck propone es justo lo contrario, que en esos procesos, la energía se intercambia de modo discreto.
Hasta este momento, las magnitudes físicas podían clasificarse en continuas y discretas. Por ejemplo, la masa de un cuerpo es una magnitud continua ya que puede medirse ésta –en principio- sin limitación de decimales, todo depende de la sensibilidad del aparato usado. Así podremos decir que la masa de algo es 34,566734...gramos, o que la temperatura de un líquido es 21,678... ºC. En cambio, el número de monedas que llevamos en el pantalón podrán ser 4 ó 5 pero no 4,21..., esto es, será un número “concreto”, (discontinuo) múltiplo de una unidad mínima. Planck proponía una cosa parecida a esto para el caso de la energía. Según sus ideas, la porción (unidad) mínima de energía intercambiada en los procesos depende de la frecuencia de la radiación. Enuncia esto de un modo que ha hecho historia E = h · n. Dicho de otro modo,
para cada energía de radiación (E) y para cada frecuencia (n) de esta radiación, existe una determinada constante h, de tal modo que si se divide E por n (E/n) se obtiene siempre h, o 2h o 3h... Esto es, debido a esta constante de proporcionalidad, no se puede producir radiación para otras partículas de energía que NO sea múltiplos enteros de h.
Las ideas de discontinuidad serían usadas y ampliadas por Einstein para explicar el efecto fotoeléctrico, y a partir de entonces, ya nada sería lo mismo. De hecho, subrayó que la hipótesis de Planck exigía una revisión teórica importante, y que “sus” cuantos no podían ser considerados como un simple artificio matemático sin dimensión física real, sino que tenían implicaciones físicas muy importantes. Por lo pronto, con la interpretación de Einstein se rescata el concepto de partícula para entender la naturaleza de la luz, que había quedado “olvidado” tras sus “nuevas” atribuciones de onda. Con las aplicaciones de las ideas de Einstein al efecto fotoeléctrico se encuentra, de nuevo, el mismo valor para la constante de Planck, verificándose, por tanto la idea principal de la naturaleza discontinua par la propia luz. A partir de 1923 se hablará de fotones para referirse a los granos de luz ideados por Einstein. Fue precisamente también a partir de este año de 1923 cuando el aristócrata francés Louis de Broglie plantea que esa dualidad onda-corpúsculo para la luz pudiera hacerse extensivo a todas las partículas, empezando por los mismos electrones. La idea era genialmente inquietante para la nueva física que estaba naciendo.

3. UNA NUEVA PERSPECTIVA PARA EL ÁTOMO.

A finales del XIX y comienzos del XX se realizan una serie de experimentos y se consiguen una serie de hechos que hacen tambalear la idea de un átomo como último constituyente de la materia. J.J. Thomson pone de manifiesto la existencia de los electrones, y los experimentos de Rutherford hacen pensar firmemente en una estructura interna para el átomo. Sin embargo, el modelo de Rutherford pronto se mostraría deficiente en su propuesta de átomo al estilo de sistema planetario en miniatura, ya que de aceptarse no explicaría cómo los electrones, orbitando en torno al núcleo, no caerían en éste al tratarse de cargas eléctricas aceleradas y por tanto, emisoras de energía. Las deficiencias del modelo comienzan subsanándolas el danés Niels Bohr que además incluye la idea de los cuantos de Planck, y de discontinuidad, en su modelo atómico.
En el interior de los átomos, los electrones sólo pueden gravitar en una órbita circular, que en ningún caso puede variar de modo contínuo. Esto es, los electrones han de mantenerse obligatoriamente sobre órbitas definidas y muy precisas, y les es imposible descender por debajo de una órbita denominada “fundamental”. De este modo, Bohr propone la idea de cuantización para las órbitas electrónicas. Comienza a hablarse de “estados cuánticos” para caracterizar a los electrones en la órbita de un átomo, de modo que los electrones podrán cambiar de órbita mediante un salto cuántico si se le suministra una determinada cantidad de energía en forma de fotón para alcanzar una órbita mayor. Si por el contrario pierde esa energía en forma de fotón, descenderá a una órbita inferior. Este modelo consigue, por ejemplo, explicar las líneas espectrales del átomo de hidrógeno.
Pronto aparecen en la escena cuántica el austriaco Erwin Schrödinger y Werner Heisenberg que proponen toda una nueva reformulación de la naciente física. El primero consigue formular una ecuación que describe el átomo de hidrógeno y al electrón como “vibraciones electrónicas” repartido en forma de nube, deslocalizada, alrededor del núcleo. El segundo es el fundador de la “Mecánica de matrices” para describir cada propiedad física. Ambas formulaciones de la Naturaleza se demostraron totalmente equivalentes.

3.1. El V congreso Solvay de Bruselas de 1927: los que transformaron el mundo, reunidos por única vez.

Toda la avalancha de acontecimientos que venían precipitando el advenimiento de la nueva Física, se presentan con toda su crudeza en el V Congreso Solvay, celebrado en Bruselas en 1927, y que tenía como
objetivo principal la discusión de los resultados obtenidos por la nueva mecánica cuántica desde 1925. De
aquí no sólo salen fortalecidas las nuevas ideas, sino que –lo que es más importante- una nueva forma de
interpretar el mundo que acarrea un enfrentamiento histórico entre Einstein y Bohr, que la historia derimiría a favor del segundo, que por cierto, abandera la llamada interpretación de Copenhague cuyo núcleo principal lo constituye el llamado “principio de complementariedad”. Mientras que la mayoría de los físicos asistentes al congreso ya conocían las ideas de Bohr (por habérselas oído en unas conferencias anteriores) a Einstein les resultan totalmente novedosas y durante esos mismos 6 días de congreso se esfuerza en refutar ideando experimentos mentales a los que tanto le gustaba acudir, pero –al parecer- sin existo, ya que el mismo Bohr los rebatía.
El principal punto de fricción entre estos dos colosos de la física, residía en el carácter probabilístico (estadístico, si se quiere) y NO determinista que introducía la Mecánica Cuántica y que no era compartido
por Einstein, además del papel fundamental que juega el propio observador en los experimentos que realiza. En efecto, a partir de 1927 la mecánica cuántica impone límites a la validez de aplicación de la física clásica a la par que ofrece una interpretación a las paradojas que ha venido presentando en los nuevos descubrimientos que escapan a la antigua interpretación. En la primavera de ese mismo año, Heisenberg lanza su principio de indeterminación, Born su teoría de la complementariedad, y ambos exponen los métodos matemáticos de la nueva mecánica, llenos de rigor y sutiliza. Tras ello, Born y Heisenberg se preguntan por qué la mecánica de matrices parece incapaz de proporcionar información directa acerca de fenómenos “reales”, frente a fenómenos “posibles”. Se trata de una impotencia esencial que desemboca en admitir que el determinismo clásico NO es aplicable en la nueva mecánica. Indeterminación no significa imprecisión. De hecho, cada magnitud característica de los fenómenos atómicos puede medirse con tanta precisión como se desee, lo mismo que en la teoría clásica; pero si se quiere medir simultáneamente magnitudes unidas canónicamente (es decir, en términos del cálculo de operadores) entonces, resulta imposible descender por debajo de cierto límite. El hecho de que ese límite venga dado por una relación en donde interviene la constante h de Planck aclara al mismo tiempo el verdadero sentido de ésta: la constante de Planck es la medida universal de la indeterminación introducida en las leyes naturales por el dualismo de las ondas y los corpúsculos.
Los trabajos de Bohr en esta nueva mecánica van a imprimirle un marcado sello filosófico. Lo propio de esta nueva idea de la mecánica es declarar caduca la idea clásica de que un objeto existe independientemente de que se le observe. Del mismo modo, se introduce en el concepto de la observación una cierta arbitrariedad, debida a la decisión de situar aquí o allá la demarcación teórica entre lo que es observado y lo que se usa para observar. El mayor obstáculo para la adaptación de nuestra intuición a las nuevas condiciones que marca esta naciente ciencia, radica en la persistencia de las formas antiguas de representación presentes en cada término de nuestro lenguaje. Por otro lado, el otro obstáculo fundamental está en el abandono de la idea determinista de los fenómenos físicos individuales, a la par que por la extrema matematización de la escuela de Copenhague que esconde todo concepto de realidad física. En este punto, Landé había comparado “el invento y aplicación” del cálculo de matrices para la mecánica cuántica con la invención del cálculo diferencial para la mecánica newtoniana. Con todo, opiniones como la de Einstein que se aferraban al determinismo, discuten con vehemencia a la propia Mecánica que nace y que es capaz de predecir con éxito el resultado de los experimentos. Einstein escribiría a Max Born: “No me satisface la idea de poseer una maquinaria que permita profetizar, pero a la que no somos capaces de dar un significado claro”.

3.2. La postura de Einstein.

A pesar de haber contribuido a su nacimiento, Einstein fue muy crítico con la mecánica cuántica. El principio de complementariedad de Bohr le parecía sólo una cortina de humo sobre la nueva mecánica que ocultaba las dificultades conceptuales que encerraba. Para él, la teoría habría de avanzar un paso más en una abstracción mayor y no limitarse a lo que para él no pasaba de ser un recetario de cálculo.
Ante todo, lo que no le satisfacía era el contexto filosófico en que se insertaba la mecánica cuántica. En la interpretación de esta mecánica, las posturas filosófica y los problemas físicos estrictamente hablando están estrechamente implicados. Para los físicos de la escuela de Copenhague, la mecánica cuántica obliga a una filosofía del conocimiento que renuncie al determinismo, a la objetividad, incluso al principio de realidad. Para Einstein, si la teoría fracasa en caracterizar de manera precisa los elementos de la realidad, es que es incompleta. Este es el núcleo del debate de Einstein y los físicos partidarios de la realidad física, y por otra, los partidarios de la escuela de Copenhague a favor de una filosofía de la observación. Lejos de ser una estéril polémica contribuyó a limar los cantos de la teoría y hacer explícitas ciertas propiedades que no se habían percibido claramente, entre ellas –y tal vez la más importante por ser un resumen de las propiedades de los sistemas cuánticos en lo que tienen de irreductibles a las representaciones clásicas- está el famoso argumento EPR (Einstein, Podolski y Rosen) del que se hablará luego.
El devenir del tiempo y la posterior evolución del problema de la localidad en física con el teorema de Bell y los experimentos de correlación cuántica a distancia, han permitido situar mejor el carácter específico de la teoría cuántica separándolo del conjunto de especulaciones filosóficas que lo rodeaba. Porque lo que fundamentalmente dejaba insatisfecho a Einstein de la nueva mecánica, más allá de las interpretaciones filosóficas, era el carácter únicamente probabilístico de sus predicciones. Ponía en duda que la función de onda representativa de un sistema físico caracterizara un sistema individual, ya que aquélla no era más que el resultado de un tratamiento estadístico, de cálculo de probabilidades. Acepta que exista una correlación a distancia con los conjuntos de partículas emitidas por una misma fuente, ya que esta no-localidad es –para Einstein- tan sólo aparente, de tipo estadístico, y sin relación con los sistemas cuánticos individuales.
Independientemente de los resultados y avances posteriores, está claro que Einstein había puesto el dedo en la llaga de la cuestión interpretativa de la mecánica cuántica, sin haberse dejado impresionar ni por la mecánica clásica, de la que sacó sus deficiencias, ni por los éxitos de la mecánica cuántica que él mismo había ayudado a nacer.

4. RELATIVIDAD y MECÁNICA CUÁNTICA: un matrimonio delicado.

Hasta 1927, no hay una sola formulación de la mecánica cuántica que sea relativista. Todos los físicos, y en particular de Broglie, la intentaron, pero ninguno logró la delicada asociación de la relatividad y la teoría de los quanta. Pero alrededor de los años 30, entran en escena P. Jordan y sobre todo P. Dirac, lo cual hará cambiar la idea que hasta entonces se tenía de la materia.
En efecto. Ya Bohr en 1913 se percató de que para poder explicar la estructura fina de los espectros del átomo sería necesario hacer intervenir a la relatividad. De hecho esto es lo que hizo A. Sommerfeld con una precisión asombrosa, a pesar de que ni Schrödinger ni Heisenberg habían tenido presente la relatividad en sus respectivas formulaciones de la mecánica cuántica.
Para llegar a una mecánica cuántica relativista era necesario, primero, hallar una generalización relativista de la ecuación de Schrödinger para las partículas libres y segundo, proponer una nueva descripción de las interacciones entre dichas partículas. Ya se sabía que las teorías NO cuánticas, para describir de un modo
relativista las interacciones entre partículas, debían recurrir al concepto de campo, dado que según la relatividad NO se pueden producir en él acciones instantáneas a distancia. ¿Sufriría ese concepto clásico de campo la misma revisión que el concepto clásico de posición de una partícula? ¿Habría que empezar a hablar de “cuantificación de los campos”? En esta línea comienzan los trabajos de P Jordan y algo más tarde, y sobre todo, P. Dirac, quien influenciado por un trabajo de Heisenberg, creyó que tendría que existir una profunda analogía formal entre la nueva mecánica cuántica y la mecánica clásica. Esto es, las ecuaciones debían ser las mismas, excepto que las posiciones y velocidades de los objetos clásicos ya no serían números ordinarios, sino que se habrían convertido en “entidades simbólicas, q, cuyo producto no fuera conmutativo”. De este modo, Dirac logró en dos años una nueva formulación de la mecánica cuántica que resultó ser la más elegante, la más general y dotada de una interpretación física más precisa. Con las nuevas armas matemáticas por él desarrolladas, acometió el problema de explicación de los espectros de los átomos y el efecto de los campos magnéticos sobre ellos volviendo al problema de una ecuación de onda relativista para el electrón. Sin embargo, la ecuación fundamental de la dinámica relativista de Einstein
E2 = (p × c)2 + (m×c2 )2
que relaciona la energía E de una partícula con la masa y su momento lineal p, NO podía integrarse en el formalismo cuántico de Dirac. Buscó otra ecuación para E con tal éxito que de ella dedujeron las posiciones
exactas de los niveles del átomo de hidrógeno, así como el espín del electrón. A partir de entonces, la bella
ecuación de ondas de Dirac fue inmediatamente considerada como la “verdadera” generalización relativista de la ecuación de Schrödinger. Con ella era posible construir una teoría cuántica totalmente relativista de la interacción entre radiación y partículas cargadas. Según los trabajos de Jordan, Heisenberg y Pauli en esta línea, las partículas de materia (electrones, protones) debían ser los quanta del campo de Dirac, solución de la ecuación de onda de Dirac, del mismo modo que los fotones eran los quanta del campo electromagnético, soluciones de las ecuaciones de Maxwell.
Guiados por la analogía materia-radiación, se dio a las ondas de materia cuantificadas una expresión formal lo suficientemente general para poder describir las partículas elementales entonces conocidas (electrones y protones). Esta idea permitía describir un conjunto de n partículas cargadas como los constituyentes de un átomo, en el espacio físico de 3 dimensiones, mientras que antes había que usar un espacio físico de 3n dimensiones mucho más abstracto. Por esta razón, Heisenberg y Pauli, embarcados desde 1927 en la elaboración de toda una electrodinámica cuántica, describen la materia cargada y la radiación mediante un conjunto de ondas cuantificadas en interacción. Esta tarea se vio envuelta en una tremenda pesadez y complejidad matemática que hizo dirigir las miras hacia terrenos más pedagógicos y elegantes de electrodinámica como las desarrolladas por Enrico Fermi, que satisfacía los requerimientos relativistas. Sin embargo, pronto aparecieron los problemas. En primer lugar, la ecuación de Dirac, como toda ecuación relativista, admite soluciones matemáticas que corresponden a estados de energía negativa del electrón. Dirac salva este inconveniente admitiendo que tales niveles de energía negativa ya están ocupados, pues de otro modo se manifestarían. Admite incluso que puedan existir “agujeros” o mares en esos espacios y que tales se mostrarían como electrones de carga positiva. Había predicho la existencia del positrón.
El otro inconveniente surgió de la aparición “de los infinitos” en el desarrollo de esta electrodinámica cuántica. Buena parte de la causa era que cuando un electrón se mueve, emite un campo electromagnético
y a continuación vuelve a interactuar con su propio campo. En electrodinámica cuántica, que por hipótesis
sólo considera electrones puntuales, esta inevitable auto-interacción es indefinida y hace que toda la teoría
se vuelva absurda. Este inconveniente es salvado por un grupo de físicos entre 1936 y 1948, entre los que se encuentra R. Feynman, introduciendo el concepto de renormalización. Sin embargo, el problema de los
infinitos no dejó de hacer acto de presencia e inquietar a los físicos cuánticos, lo que mostraba que aún se
estaba lejos de alcanzar una síntesis rigurosa de los principios cuánticos y relativistas. Sin embargo, para la
mayoría de las aplicaciones prácticas se realizan cálculos aproximados en los que no aparecen esos infinitos, lo que hizo prosperar la teoría cuántica a pesar de su inconsistencia matemática.
El desarrollo de las investigaciones teóricas en este terreno se ha visto estimulado por la aparición de nuevas partículas como el neutrón, el positrón, y más recientemente el mesón y con ellos la aparición de las interacciones débil y fuerte. La teoría cuántica relativista, al interpretar las partículas como excitaciones de campos, permite entender las reacciones entre partículas como transferencias de excitación entre diversos campos fundamentales. La idea de una materia permanente constituida por partículas indestructibles e individualizadas había muerto para siempre.

5. LA DESIGUALDAD DE BELL.

El año de 1935 ve culminar el debate entre Einstein y Bohr. Ese mismo año, junto a dos jóvenes físicos, B. Podolsky y N. Rosen, Einstein desarrolla una argumentación para “atacar” la fundamentación de la Mecánica cuántica y que se conoce con el nombre de paradoja EPR. En ella, defiende su visión determinista
de un modo real que existe fuera del observador. Para los de Copenhague, “la búsqueda de lo real” carece
de sentido. Para ellos, la actitud mental más razonable consiste en considerar la mecánica cuántica como un conjunto de reglas de cálculo que permiten predecir los resultados de los experimentos, y además, con éxito. La visión de EPR se basa en tres hipótesis de partida que han de aceptarse por definición:
· Realismo: las regularidades observadas en los fenómenos tienen su origen en una realidad física cuya existencia es independiente del observador.
· Modo de razonar: la inducción es un método válido de razonamiento, que puede usarse para extraer conclusiones generales de una serie de observaciones finitas y limitadas.
· Separabilidad (o localidad): ninguna información puede propagarse más aprisa que la velocidad de la luz. Mas tarde, al conjunto de teorías de la Naturaleza emanadas de estas premisas se las denominó “teorías realistas locales” Einstein, como se ha dicho, no pretendía en modo alguno que la mecánica cuántica fuera errónea, sino solamente incompleta. Suponía que tenía que haber una explicación más perfecta de los fenómenos: es lo que más tarde se denominó “hipótesis de variables ocultas” y que por supuesto, desechaban los de Copenhague por considerarlas innecesarias.
En 1948 John Bell descubre el artículo EPR y desarrolla sus famosas desigualdades con la idea de arrojar algo de luz al ya antiguo debate. Desarrolla unos algoritmos que ponen en evidencia la NO coincidencia de
las predicciones de la mecánica cuántica con las de las teorías de las variables ocultas. Hasta entonces, podían hacerse predicciones de experimentos bajo uno u otro pensamiento, indistintamente, y en apariencia, ambas coincidían. Hasta que aparece el trabajo de Bell, proponiendo una serie de experimentos mentales (luego, años más tarde, se harían realidad) que dieron un respaldo a la interpretación de los daneses de
la Mecánica Cuántica.
Brevemente, la desigualdad se refiere a los pares de protones correlacionados cuyo espín se mide. Este viene definido por tres componentes A, B y C, cada uno de los cuales no puede tomar más que los valores
+ o -. Si las tres premisas de las teorías realistas locales se consideran verdaderas, por medio de un sencillo razonamiento Bell formula una relación entre los resultados de las mediciones. Dicha relación constituye la famosa desigualdad de Bell.[3]
A raíz del no cumplimiento de las predicciones por parte de las teorías locales en aras de la mecánica cuántica, hace resurgir el conflicto entre ambas. No es hasta 1969 cuando se inician los pasos para realizar
experiencias reales que zanjen el conflicto. Las primeras experiencias comienzan en 1970, y fueron necesarios tres años para la colocación del montaje de Alain Aspect que dirimiría la cuestión. Aspecto no
comenzaría sus experimentos hasta 1976.
La decena de experimentos llevados a cabo hasta ahora y que ponen a prueba la desigualdad de Bell, refuerzan la mecánica cuántica. En conjunto, no sólo violan las desigualdades de Bell, sino que lo hacen de
un modo previamente previsto por ella. Por tanto, la contribución de Bell de 1964 demuestra que las hipótesis del razonamiento EPR son contradictorias. Por tanto, si las teorías realistas locales son falsas, una
de las tres (o las tres) es falsa. Pero ¿cuál o cuáles? La mayoría de los físicos estaría tentado de conservar el
realismo y la libre inducción. Sin embargo, la violación de la desigualdad de Bell encontraría explicación tan sólo en el abandono de la hipótesis de separabilidad einsteniana. Esto es, una información podría propagarse más rápido que la luz. Por sí sólo, el experimento de Aspect, realizado en 1981 parece probar la hipótesis de separabilidad de Einstein. En él, los pares de fotones correlacionados sufren mediciones de polarización en las que una astucia técnica simula una rotación de cada uno de los dos polarizadores en un intervalo de un nanosegundo. Sabiendo que en el experimento, los polarizadores están a unos 12 m, la luz recorrería esa distancia en 40 nanosegundos, con lo que los fotones, si intercambian información lo harán a una velocidad por encima de la de la luz.
No hay que olvidar que los resultados de Aspect concuerdan con la mecánica cuántica. ¿Es necesario entonces abandonar el principio de propagación a velocidad finita para las señales? Este principio –hay que recordarlo- constituye una de las bases de la teoría de la relatividad. El concepto de señales supralumínicas conduce a paradojas extrañas de causalidad en las que los observadores situados junto a ciertas marcas constatan que tal o cual suceso es “causado” por otro que ¡todavía no se ha producido!

5.1. Los experimentos.

Las consideraciones de Bell eran de tipo teórico (experimentos mentales), sin embargo, el propio Bell demostró la existencia de una situación experimental particular del tipo EPR, realizable (apreciable) en el laboratorio, de modo que las predicciones de la mecánica cuántica están en contradicción con las de variables ocultas. Esto es, si los resultados del experimento concordaban con las predicciones de la mecánica cuántica, deberían violar las desigualdades de Bell. En caso contrario, las ideas de variables ocultas se verían reforzadas. Un equipo de físicos de la universidad de Berkeley y otro de Harvard ponen
en marcha los primeros experimentos con resultados, paradójicamente, distintos. El equipo de Berkeley
obtiene resultados que están de acuerdo con la mecánica cuántica y por tanto violan la desigualdad de
Bell, mientras que el de Harvard obtiene sólo un resultado ligeramente de acuerdo con las desigualdades y
claramente en desacuerdo con las predicciones de la mecánica cuántica.
A lo largo de los años se siguen realizando experimentos con resultados coincidentes y/o diferentes con la mecánica cuántica, hasta que en la universidad de Texas se decide emplear en el experimento fotones de mayor energía que los usados hasta el momento obteniendo con ellos un resultado de acuerdo con las predicciones de la mecánica cuántica, aunque con un proceso interpretativo algo complejo, que por cierto había sido el denominador común en todos los experimentos realizados hasta entonces. Alain Aspect monta tres experimentos que se alejan del barullo interpretativo y son más directos en ese terreno, sin razonamientos indirectos. El resultado de los experimentos de Aspect violan de forma clara las desigualdades de Bell y por tanto refuerza enormemente a la mecánica cuántica. Con todo, sigue habiendo físicos que no admiten los resultados de esos experimentos ya que el rendimiento de los equipos que usó Aspect no eran del 100 %, sólo del 20 %, con lo que el debate parece seguir abierto.

6. UN PRIMER RESUMEN.

Ante todo lo dicho hasta ahora, parece más o menos evidente que la mecánica cuántica parece más sencilla en el laboratorio, donde se efectúan complicados cálculos, que en un curso de física, en donde necesariamente han de explicarse sus fundamentos. Así es. En mecánica clásica, la descripción del estado
físico de un cuerpo material comprende su posición en el espacio, su velocidad, su velocidad de rotación,
etc., magnitudes que nos parecen medibles y correctas. En mecánica cuántica, en cambio, todo esto se
sustituye por un ente matemático complejo, el “vector de estado” designado por Y. Las relaciones matemáticas entre Y y lo que se puede medir en el sistema, son complicadas. Un tema de discusión es qué
categoría conceptual conferir a Y. Inicialmente, Schrödinger pensaba que Y daba una descripción directa
de la realidad. En otro extremo, se podía considerar a Y como una descripción, no del sistema en sí, sino
tan sólo de los datos de que disponemos acerca del mismo. Sería análoga a una distribución de probabilidad en mecánica estadística. En cualquier caso, ninguna de las acepciones se ha venido mostrando completamente satisfactoria. Para los físicos acogidos a la interpretación de Copenhague Y se encuentra en cierto modo en un lugar intermedio entre los dos extremos anteriores.
Por otro lado, la evolución de Y es motivo de debate. Unos postulados argumentan una evolución determinista y causal (ecuación de Schrödinger, continua, válida para la evolución libre del sistema) y otros postulados argumentan una evolución indeterminista (cuando se hace una medición, Y evoluciona de modo básicamente imprevisible) y no causal. De este modo, el “vector de estado” es verdaderamente un objeto matemático cuya interpretación no tiene un equivalente, ni siquiera aproximado en la física clásica.
Tampoco hay un verdadero consenso en la interpretación del formalismo de la mecánica cuántica. Unos físicos adoptan un punto de vista “positivista”, en el que no tiene sentido el propio concepto de realidad física independiente. Por lo tanto, la física no puede tener como fin describir dicha realidad, al menos con las percepciones de que disponemos, con lo que toda vinculación entre Y y la realidad es vana. Otros físicos, como Einstein, prefieren adoptar una postura realista, otros prefieren una postura intermedia, etc. Dado que esta variedad de posturas no tienen consecuencias concretas sobre la investigación, ésta no parece resentirse apenas del efecto de esas divergencias.

6.1. El realismo, la localidad y sus consecuencias.

De los intentos más famosos por demostrar que la mecánica cuántica es una teoría NO completa (que no falsa) el que se resume en la famosa “paradoja” EPR es el más extendido y estudiado. Los puntos principales de ese argumento son los 3 expuestos en unas páginas atrás y para aclarar la cuestión, la aportación de J. Bell fue decisiva. Mediante un razonamiento sencillo se demuestra que si en física se acepta la “localidad” las hipótesis EPR conducen a conflictos con la mecánica cuántica. El principio de localidad dice que la evolución de las magnitudes físicas reunidas en un punto del espacio-tiempo depende sólo de dichas magnitudes en ese mismo punto (no de la acción a distancia). Tal y como están las cosas, probablemente sea el abandono del tercer punto de EPR lo que menos le cueste a la física. Desde este punto de vista, entonces, dos objetos que en el pasado hayan interactuado y desarrollado correlaciones han de ser considerados como un todo indisociable, y no tiene sentido hablar de propiedades físicas del uno o del otra de forma separada. Además, de este modo, se evita recurrir a influencias hipotéticas que se propagan más rápido que la luz. Sin embargo, hay que comprender que esta actitud implica que el sistema global de los dos objetos puede reaccionar como un todo, e instantáneamente en todo el espacio cuando se efectúa una medición en uno de sus extremos. Este concepto de objeto físico extendido, que reacciona en bloque sin retraso a una perturbación, es a priori chocante con la relatividad. En este sentido, se puede decir que efectivamente se acepta la idea de una cierta no-localidad. Entonces, lo que habría que rechazar sería el realismo separable, el realismo local.
Otro modo de presentar las cosas es decir que el fenómeno aleatorio de realizar una medición, no es localizable en una pequeña región del espacio, sino que se produce al mismo tiempo en regiones alejadas entre sí. Habitualmente, las correlaciones observadas en física entre sucesos aleatorios simplemente son consecuencia de una causa común en el pasado que fluctúa (fluctuaba) al azar. En el caso que nos ocupa, las correlaciones entre resultados de mediciones son muy diferentes, esencialmente de tipo cuántico, y apenas hallan equivalente en el resto de la física. De este modo, se renuncia a un principio general de “propagación de las influencias de forma progresiva”. Contrariamente a lo pensable, no siempre se pueden considerar despreciables las influencias mutuas de dos dispositivos alejados entre sí.
Otros físicos prefieren conservar el concepto de realismo inseparable, pero abandonando la localidad y sin entrar en contradicción con la relatividad, con lo que de este modo se puede restablecer el determinismo. Aceptan entonces la idea de restringir ligeramente el alcance de la relatividad, que sigue siendo válida en general, pero que admite excepciones a favor de ciertos elementos de realidad muy particulares (los de EPR). En la medida en que dichos elementos escapan a todo control humano, este punto de vista no entraña necesariamente un contradicción flagrante con la relatividad. En opinión de muchos, este quizás sea el punto de vista más económico que conduciría a construir teorías de “parámetros suplementarios” no locales. Pero todavía hay que construirlas y demostrar que son tan universales y eficaces como la mecánica cuántica.
Hay otras interpretaciones “audaces” como las de Evertt “de los universos paralelos” en donde Y evoluciona según la ecuación de Schrödinger, y donde el proceso de medida no existe realmente, sino que todos los resultados posibles se producen realmente y al final “la función Y colapsa en uno determinado” que es el que se nos muestra. Esta interpretación acoge al conocido “problema” del gato de Schrödinger como campo de acción. Al parecer ofrece numerosas dificultades conceptuales. En cualquier caso, tras medio siglo de reflexión, no se ha conseguido aún una interpretación clara y simple del formalismo abstracto de la mecánica cuántica y ningún punto de vista concreto ha arrastrado a una mayoría significativa, lo cual es habitual en la historia de la física. Cabe preguntarse, tal vez, por qué seguir haciendo funcionar la máquina en lugar de intentar comprender mejor los principios básicos.

NOTAS

1 Tomado del libro “El mundo cuántico” de S. Deligeorges en Alianza.
2 DIFRACCIÓN DE LA LUZ: Si se dirige un rayo de luz sobre una apertura grande, las ondas luminosas siguen una trayectoria rectilínea y proyectan sobre la pared una forma igual a la de la apertura. Por contra, si el tamaño de la apertura es muy pequeño (hecho con una hoja de afeitar) su anchura es tan pequeña como la longitud de onda de la luz incidente. El haz luminoso se difracta y la mancha sobre la pared no se corresponde con la forma de la apertura y sus contornos no son claros.
3 n (A+ B-) n (A+ C-) + n (B- C+)

No hay comentarios: