martes, 1 de marzo de 2022

Niels Bohr - Marisa Pons y Lourdes Domínguez

Niels Bohr y el nacimiento de la Mecánica Cuántica.







La 5ª conferencia Solvay sobre “Electrones y Fotones”, que tuvo lugar en Bruselas en octubre de 1927, es probablemente la conferencia de Física más famosa de la historia. En ella participaron 29 científicos, de los que 17 ganarían el Premio Nobel en algún momento de su vida. Algunos lo habían recibido ya, como Marie Curie (2), Albert Einstein, Erwin Schrödinger, … y Niels Bohr, que había obtenido su Premio Nobel en 1922 por “los trabajos sobre los átomos y su radiación” de los que hablaremos más tarde. El nombre de dicha conferencia se debe al mecenazgo del industrial y químico belga Ernest Solvay, que dedicó parte de su fortuna a difundir el desarrollo de la física y de la química. Estas conferencias no han perdido el prestigio con el que arrancaron, y se siguen celebrando cada tres años.


Fig.1 Fotografía tomada en el 5º Congreso Solvay sobre teoría cuántica celebrado en 1927. De la fila de atrás hacia el frente, de izquierda a derecha: Auguste Piccard, Émile Henriot, Paul Ehrenfest, Édouard Herzen, Théophile de Donder, Erwin Schrödinger, Jules-Émile Verschaffelt, Wolfgang Pauli, Werner Heisenberg, Ralph Howard Fowler, Léon Brillouin, Peter Debye, Martin Knudsen, William Lawrence Bragg, Hendrik Anthony Kramers, Paul Dirac, Arthur Compton, Louis de Broglie, Max Born, Niels Bohr, Irving Langmuir, Max Planck, Marie Skłodowska Curie, Hendrik Lorentz, Albert Einstein, Paul Langevin, Charles-Eugène Guye, Charles Thomson Rees Wilson, Owen Willans Richardson.



Cuando se celebró la 5ª edición, habían pasado 27 años desde la presentación del cuanto de energía por parte de Max Planck, años de ebullición en los que se fraguaron los fundamentos de la Mecánica Cuántica. En la primera conferencia Solvay, celebrada en 1911 en Bruselas, se había debatido el descubrimiento de los cuantos, base de toda la teoría que se elaboraría a lo largo de esos años.

A finales del siglo XIX y principios del XX se tenía la creencia colectiva de que en Física todo era conocido y entendido. La Mecánica Clásica (MC) de Newton estaba más que probada y aceptada, las leyes de Maxwell del Electromagnetismo cerraban la comprensión de los campos eléctrico y magnético, … ¿O no?

Ciertos experimentos que se estaban llevando a cabo refutaban dicha creencia, puesto que no podían comprenderse los resultados obtenidos en el laboratorio con las teorías con que se contaba en aquel momento. Quizá de entre estos experimentos, el más relevante sea el que analiza el espectro de energía de la radiación térmica de un cuerpo negro, un espectro no explicable con el electromagnetismo conocido.

La radiación de cuerpo negro es la radiación emitida por un cuerpo que está en equilibrio termodinámico con su entorno. El cuerpo negro absorbe toda la radiación que incide sobre él. Esta energía produce oscilaciones en las partículas cargadas que causan emisión de radiación electromagnética.

Podemos pensar, como propuso Kirchhoff, en una caja con un pequeño agujero para simular un cuerpo negro, como perfecto absorbente. La radiación que entre por el pequeño orificio, rebotará, será absorbida y reemitida por las paredes, pero difícilmente saldrá de la caja. Si pensamos en la caja como un horno a una cierta temperatura, la radiación emitida a través del agujero puede ser considerada como un emisor perfecto, del que obtendríamos el espectro mostrado en la Fig.2.


Fig. 2 Energía emitida por un cuerpo negro en función de la longitud de onda λ, para diferentes temperaturas.

Aunque no se trate exactamente de un cuerpo negro, sabemos que el color de la luz emitida, por ejemplo, por una barra de hierro a medida que la calentamos, cambia con su temperatura, empezando con el color habitual a temperatura ambiente, siguiendo con color rojo, azul, hasta blanco (todos los colores). Es decir, sabemos por experiencia que la frecuencia emitida depende de la temperatura.

Lo que la Física Clásica no podía explicar era la forma de la función obtenida, con máximos en diferentes frecuencias (longitudes de onda) de luz según la temperatura del cuerpo, decayendo de forma asimétrica para frecuencias superiores e inferiores. Además, y esto es muy importante, los perfiles dependían solo de la temperatura, no del material emisor. Según la Mecánica Clásica, todas las frecuencias de vibración deberían tener la misma energía (principio de equipartición de la energía), de forma que, al no tener la frecuencia un límite superior, no habría límite en la energía emitida por las cargas oscilantes, y la energía emitida a frecuencias altas se prolongaría hasta el infinito. Sin embargo, el espectro de radiación mostraba una figura del tipo que aparece en la Fig.2, con la energía emitida tendiendo a cero para frecuencias altas y bajas.

La propuesta que resolvía el problema fue presentada por Planck en lo que él mismo describió como un “acto de desesperación”. Para poder explicar la radiación de un cuerpo negro debía asumir la cuantización de la energía, algo a lo que actualmente estamos acostumbrados pero que rompía completamente con la concepción del mundo en aquel momento.

 

Planck y la cuantización de la Energía. Inicio de la Mecánica Cuántica.

El 14 de diciembre de 1900 Max Planck presentó la ley de distribución de la radiación del cuerpo negro en la German Physical Society en Berlín, lo que supuso la presentación en sociedad del concepto de cuanto de energía. Este momento ha pasado a ser considerado el del inicio de la Mecánica Cuántica. Con más de cien años de distancia en el tiempo, podría parecer un momento estelar, glorioso, pero lo cierto es que no fue así. La propuesta de Planck recibió muy poca atención, principalmente porque la radiación de cuerpo negro no era un tema central de interés en ese momento, y durante cinco años permaneció más bien a la sombra, esperando que se tomara en serio su solución del problema: el espectro de energía en función de la frecuencia y de la temperatura para el emisor y receptor máximo, el cuerpo más negro que el negro, no seguía las leyes que la física clásica esperaba.

Previamente a la propuesta de Planck, la ley de Stefan (1879) obtenida experimentalmente, había relacionado la potencia emitida por unidad de superficie, es decir la intensidad emitida por un cuerpo negro, con la temperatura, P proporcional a T4. Posteriormente Boltzman derivó esta relación de forma teórica, aplicando termodinámica clásica y las ecuaciones de Maxwell a una caja con radiación electromagnética.

El siguiente descubrimiento importante fue la ley de Wien, llamada ley del desplazamiento, que relacionaba la frecuencia de la radiación máxima, de mayor intensidad, con la temperatura, fmax proporcional a T . A medida que aumentamos la temperatura, la frecuencia a la que la intensidad es máxima se desplaza hacia frecuencias más altas. Wien obtuvo esta ley siguiendo el razonamiento teórico utilizado por Boltzman para demostrar la ley de Stefan. La ley de Wien describía exactamente lo que ocurre con la barra de hierro a medida que vamos aumentando su temperatura, algo conocido a través de la experiencia. Esta ley fue catalogada por Rayleigh como una conjetura, pero funcionaba porque respondía muy bien a los resultados experimentales de la radiación del cuerpo negro.

El reto de Planck era buscar el fundamento físico de la ley de Wien, y resolver el problema que se presentaba para frecuencias altas, para las que parecía no ser válido el principio de equipartición de energía. Este principio establece que, para un sistema en equilibrio térmico, cada modo debía tener la misma energía kBT, siendo kB la constante de Boltzman y T la temperatura, lo cual se cumplía para bajas frecuencias, pero fallaba para frecuencias elevadas. Rayleigh utilizó este principio para repartir la energía entre las diferentes frecuencias radiadas presentes en la cavidad. Esta ley predecía una energía infinita en la región ultravioleta del espectro, pero no se correspondía con la realidad, la energía para los modos de altas frecuencias decrece de forma exponencial, tal como vemos en la Fig.2. Es decir, algo crucial estaba fallando en la descripción de la emisión. Este desacuerdo se conoce como catástrofe ultravioleta.

Entre el 19 de octubre de 1900 y el 14 de diciembre del mismo año Planck vivió “el más extenuante trabajo de mi vida”, que lo llevó a cambiar el rumbo de su pensamiento y a obtener el primer análisis teórico válido. Fue a buscar la explicación en el modelo de la interacción de la radiación con los dipolos oscilantes, el modelo más simple. Igualando la emisión y la absorción de un oscilador en equilibrio, y dejando de lado el principio de equipartición de la energía, eligió la aproximación termodinámica de la relación entre la energía y la entropía del oscilador (en lugar de la que hay entre energía y temperatura).

El punto más importante de su análisis se encontraba en que podía reproducir los datos experimentales si consideraba que los dipolos no emitían radiación de forma continua, como predice la Física Clásica, sino que las partículas solo pudieran emitir y absorber energía en “sacos” o “trozos” llamados “cuantos” de cantidad hf, para un oscilador de frecuencia f.

Con esta consideración, que cambiaba completamente lo conocido hasta entonces, Planck calculó la densidad de energía radiada en función de la frecuencia y la temperatura

que mostraba un acuerdo perfecto con los resultados experimentales. Era el avance más importante de la Física en mucho tiempo, pero, como sucede con las vanguardias en el conocimiento, muy pocas personas prestaron atención a la propuesta radical de absorción y emisión de radiación en cuantos de energía.

Einstein asumió que la fórmula de Planck era correcta ya que reproducía los resultados experimentales, pero se dio cuenta de que el análisis realizado para llegar a ella tenía algunos puntos controvertidos. Einstein partió de la ley de Wien para encontrar su fórmula para la distribución de la energía radiada. Partió de un horno, como Planck, pero a diferencia del planteamiento de éste, lo llenó de partículas. A medida que sube la temperatura todas las partículas cargadas, las de las paredes y las del interior, van cambiando las frecuencias emitidas. Llegados al equilibrio térmico, las paredes y el interior se encuentran a la misma temperatura T. A través de la 1ª ley de la Termodinámica, la de la conservación de la energía, podemos relacionar la entropía con la energía, la temperatura y el volumen. Llegó a una fórmula igual a la de la entropía de un gas compuesto de átomos, es decir, la radiación de un cuerpo negro se comportaba como si estuviera compuesta de “sacos” de energía en forma de partículas. Einstein había descubierto el cuanto de luz sin necesidad de usar la fórmula de Planck. Planck había cuantizado la emisión y absorción mientras que Einstein cuantizó la propia radiación electromagnética.

Hacia 1905 la teoría propuesta por Planck empezó a alcanzar la magnitud que llegaría a tener. La idea fue tan revolucionaria que en palabras de Einstein “fue como si se abriera la tierra, sin fundamentos firmes sobre los que construir”. En este proceso se encontró con un desacuerdo experimental en la ley de distribución de Wien que creaba problemas a su modelo: para longitudes de onda muy grandes la energía era proporcional a T. Por ello Planck preparó la discusión de una nueva distribución que ahora se llama la ley de distribución de Planck. Él era reacio a admitir la probabilidad en la realidad física, más aún a renunciar al principio de equipartición de la energía. Sin embargo, admitió la relación entre entropía y probabilidad, y creó el concepto que iba a cambiar profundamente, en su raíz, la estructura de la física teórica. Iba a determinar de forma clara la relación entre la energía de un oscilador de frecuencia f y la entropía S. La energía, en vez de poder adquirir una secuencia continua de valores, hasta su límite tendente a cero, a lo que no había renunciado el propio Boltzmann, era proporcional a la frecuencia. Pero precisamente que la entropía, así como la energía, dependiera de la frecuencia del oscilador le llevó a ajustar la energía, E = hf donde h era una constante universal. Experimentalmente obtuvo que h = 6.626 x 10-34 J.s. Este era el cuanto de acción, la constante universal que resumía el absoluto que le había espoleado unos años antes.

 

De Planck a Bohr.

Los últimos años del siglo XIX y primeros del XX fueron años en los que la Física sufrió una auténtica revolución: en 1895 Wilhelm Roentgen descubrió los rayos X. Un año después, Becquerel la radiactividad. En 1897 J. J. Thomson anunció la existencia del electrón y demostró que su tamaño era unas mil veces menor que el átomo de hidrógeno. En 1903, Pierre y Marie Curie recibieron el Premio Nobel por descubrir el radio, en 1909 H. A. Lorentz publicó su modelo electrónico de conductividad a través de los materiales.

El cambio de paradigma, de la Física Clásica a conceptos que terminarían por dar forma a la Mecánica Cuántica, se sucedía con rapidez. En 1900 Max Planck descubrió el cuanto de acción y en 1905 Einstein extendió ese descubrimiento y publicó la teoría de la relatividad especial y el efecto fotoeléctrico, inexplicable desde la perspectiva clásica.

Bohr tenía 15 años cuando en 1900 Planck presentó su idea de cuanto de energía. Nacido en Copenhague, Bohr vivió en el seno de una familia acomodada, en un ambiente con ricas relaciones intelectuales. En 1903 ingresó en la Universidad de Copenhague para estudiar Física y ya en 1907, antes de terminar su master, recibió la Medalla de Oro de la Real Academia Danesa por un trabajo sobre la tensión superficial del agua. En 1911 se doctoró por la misma universidad (la única de Dinamarca) y escogió Cambridge como destino para continuar su formación, con la esperanza de colaborar con Sir J.J. Thomson que había sido galardonado con el Premio Nobel en 1907 por el descubrimiento del electrón. En cuanto llegó a Cambridge entregó un ejemplar de su Tesis a Thomson, pero nunca consiguió que éste se interesara por su trabajo. El mismo Bohr reconocía que sus dificultades de expresarse en inglés podrían haber causado esta falta de acercamiento entre ambos.


Fig.3 Niels Bohr (ilustración cedida por Guillermo Roa).

En esos años, uno de los debates más importantes que estaban teniendo lugar era sobre la existencia de átomos como constituyentes de la materia, y el de la propia estructura del átomo. En 1903 Thomson había presentado su modelo “plum cake” en el que los átomos estarían formados por una bola sin masa de carga positiva, y las cargas negativas (los electrones ya se habían descubierto) estarían incrustadas en esta bola formando anillos concéntricos. La masa estaría determinada por los electrones, de forma que se necesitaban muchos electrones por átomo para justificar la masa de los elementos.

Los experimentos de Rutherford realizados bombardeando láminas muy finas de oro con partículas alfa, demostraron que ese modelo era erróneo ya que, según los resultados, la mayor parte de las partículas atravesaban las láminas sin desviarse, es decir, en la mayor parte de las láminas no había nada. Otras partículas se desviaban ligeramente y algunas de forma significativa. A partir de estos experimentos de scattering, Rutherford supo que el modelo de Thomson era erróneo y que los electrones no podían ser los responsables de que las partículas alfa sufrieran desviaciones. Las desviaciones dependían de lo cerca que las partículas alfa pasaran del núcleo atómico.

En 1911 Rutherford presentó su modelo atómico, en el que se introducía la idea del núcleo ocupando una parte muy pequeña del átomo (unas 105 veces más pequeño que el átomo) y los electrones situados alrededor del núcleo. El núcleo concentraba prácticamente toda la masa del átomo, estando el espacio ocupado por el átomo mayoritariamente vacío. Usando ese modelo atómico fue capaz de reproducir con precisión los resultados obtenidos en los experimentos descritos anteriormente.

Este modelo presentaba varios problemas fundamentales: si los electrones estuvieran quietos, serían atraídos por el núcleo, y si por el contrario estuvieran en movimiento alrededor del núcleo como planetas, según la teoría de Maxwell del electromagnetismo ya conocida, emitirían radiación constantemente, perdiendo energía, describiendo órbitas cada vez más pequeñas y cayendo definitivamente al núcleo.

Desencantado con la inexistente relación con Thomson, en 1912 Bohr se trasladó a la Universidad de Manchester, donde Rutherford, al que había conocido en una visita anterior, dirigía el departamento de Física. Allí empezó a interesarse por la estructura del átomo y por intentar descifrar qué distingue a un elemento de la tabla periódica de otro. Se dio cuenta de que el concepto importante era la carga nuclear (número de protones) y no el peso atómico (número de protones + neutrones). De hecho, fue el primero en hablar de número atómico.

Bohr comprendió que el modelo de Rutherford tenía inconvenientes insalvables. Se dio cuenta de que era necesario relacionar este modelo con el cuanto de acción para poder explicar la estabilidad de la materia y las propiedades químicas de los elementos que constituyen el sistema periódico. Además, para entonces se sabía que la materia y la radiación se relacionan mediante intercambio de paquetes de energía. Se sabía que los átomos de cada materia emitían luz (energía) de unos determinados colores y no de otros. Cada elemento tenía su huella dactilar de forma que analizando su espectro de emisión se distinguía del resto. Por increíble e incomprensible que pareciera la propuesta de Planck, allí estaba la explicación de cómo interactuaban materia y radiación.

 

El modelo atómico de Bohr.

En 1912, Bohr escribió a su hermano explicándole sus descubrimientos, pidiéndole que no hablara de ello con nadie puesto que todavía no los había publicado. Tardaría todavía un año en publicar los 3 artículos en los que exponía su modelo atómico “On the constitution of atoms and molecules” en los que introducía la idea revolucionaria del cuanto para explicarlo. Fue la primera teoría coherente sobre la constitución del átomo. El modelo de Bohr se resume habitualmente en tres postulados:

* En el primero, basándose en el modelo de Rutherford, describe el átomo con el núcleo en el centro y los electrones orbitando a su alrededor, debido a la atracción electrostática, análogo al sistema solar. Prácticamente toda la masa del átomo se encuentra en el núcleo. El problema de este sistema es el hecho de que las partículas cargadas emiten radiación cuando sufren alguna aceleración (centrípeta en este caso) de forma que el átomo no sería estable.

* En el segundo postulado, Bohr resolvió el problema de la estabilidad de las órbitas utilizando un concepto nuevo: las órbitas estacionarias o estados estacionarios. En estas órbitas los electrones no emiten radiación a pesar de estar constantemente acelerados, en contradicción con el electromagnetismo clásico. Las órbitas estacionarias están determinadas por el momento angular, L. El momento angular y su principio de conservación es una de las magnitudes fundamentales en Física. Un objeto en movimiento tiene momento lineal, producto de su masa por su velocidad, y tiene momento angular con respecto a cualquier punto del espacio. En este caso, hablamos de momento angular de los electrones con respecto al núcleo. En el modelo de Bohr, los electrones ocupan órbitas en las que el momento angular es igual a un número entero de veces la constante de Planck L=nh/2p.

* Finalmente, describe el salto entre órbitas de los electrones. Los átomos emiten y absorben energía no de forma continua, sino que lo hacen cuando los electrones saltan de una órbita estacionaria a otra emitiendo (si van de más a menos energía) o absorbiendo (de menos a más) energía E = hf, siendo f la frecuencia de la radiación intercambiada. Los átomos tendrían, en principio, a sus electrones en órbitas estacionarias. Si son perturbados, por ejemplo, con colisiones o con luz, los electrones pueden saltar de una órbita estacionaria a otra, se producen lo que llamamos “saltos cuánticos”.

El modelo de Bohr introdujo la idea de discontinuidad e indeterminación, conceptos alejados de la Física Clásica. Los electrones no podían ocupar cualquier punto alrededor del núcleo. Al cambiar de órbita, entre una y otra, se encontraban en un espacio indeterminado. Además, no se podía determinar el momento en que se iban a producir estos saltos.

El modelo fue mejorado y superado por teorías posteriores, introduciendo el concepto de spin, por ejemplo, y el principio de exclusión de Pauli, pero en el momento de su publicación fue realmente revolucionario y dio buenos resultados en la descripción de elementos básicos. La imagen del átomo como un pequeño sistema solar ha sido sustituida por un átomo con electrones imposibles de visualizar. Sin embargo, la cuantización del momento angular y la descripción de los saltos entre órbitas han sobrevivido. El de Bohr fue el primer intento coherente para dar una explicación a lo observado en los experimentos y reproduce con precisión los resultados obtenidos con el átomo de hidrógeno, aunque presenta problemas cuando se intenta aplicar a átomos con más electrones.

 

La interpretación de Copenhague: complementariedad, medida y colapso de la función de onda.

En 1917 se creó el Instituto de Física Teórica asociado a la Universidad de Copenhague. Del trabajo realizado en los años posteriores a su creación, relacionado con la interpretación de la Mecánica Cuántica, surgió la que hoy conocemos como interpretación de Copenhague. Puede considerarse como la interpretación estándar de la Mecánica Cuántica, y se denomina así debido a la contribución especialmente importante de Bohr, en colaboración principalmente con Heisenberg, y Max Born.

Heisenberg presentó su formulación matricial de la Mecánica Cuántica en Berlín en 1926, frente a físicos tan importantes como Einstein y Planck. En esta visita tuvo ocasión de discutir con Einstein sobre su teoría y los problemas sobre la posibilidad de observar las trayectorias de los electrones. En esa conversación, Heisenberg le expresó sus dudas sobre su futuro, ya que tenía diferentes ofertas de trabajo, y Einstein le recomendó que fuera a trabajar a Copenhague como asistente de Bohr.

Una vez en Copenhague, Heisenberg se integró completamente en la vida del Instituto de Física y pasaba mucho tiempo con Bohr, discutiendo esencialmente sobre la interpretación de la Mecánica Cuántica. Después de la visita de Schrödinger a Copenhague, ese mismo año, Bohr y Heisenberg se centraron por completo en lo que llegó a ser su máxima preocupación: la interpretación física del formalismo matemático de la mecánica cuántica. Su mayor desasosiego provenía de la interpretación de la dualidad onda-corpúsculo. Tal como Einstein escribió a Ehrenfest, “¡por un lado las ondas, por otro los cuantos! la realidad de ambos es firme como una roca”.

En física clásica un objeto puede ser una onda o una partícula, pero no ambas cosas. Heisenberg utilizó partículas y Schrödinger, ondas, para describir sus versiones de la Mecánica Cuántica. Tal como dijo Heisenberg, nadie podía responder a la pregunta de qué era un electrón, si una partícula o una onda. Bohr y Heisenberg intentaron responder a esa pregunta desde diferentes perspectivas. En realidad, Bohr y Heisenberg no coincidían totalmente en la interpretación del formalismo matemático de la Mecánica Cuántica y, de hecho, ellos no usaron el término “interpretación de Copenhague” hasta mucho más adelante.

La defensa por parte de Bohr del modelo atómico en el que el átomo está representado por estados estacionarios, descritos adecuadamente por las funciones de onda de Schrödinger, establecía una barrera con la visión de Heisenberg y su interpretación de los átomos como partículas. Heisenberg estaba completamente convencido con la versión partícula, los saltos cuánticos y la discontinuidad. No quería dar opción a la versión ondulatoria del formalismo de Schrödinger. Bohr, sin embargo, estaba abierto a analizar los dos aspectos. Mientras Heisenberg basaba su razonamiento en las matemáticas, Bohr se inclinaba a tatar de entender la física que había detrás de las matemáticas. Creía que, de alguna forma, ambas descripciones debían estar presentes para la correcta interpretación.

 

Complementariedad.

En septiembre de 1927, justo un mes antes de la famosa 5ª conferencia de Solvay, los físicos más eminentes del momento se reunieron en Como (Italia), ciudad en la que había nacido y muerto Volta, para conmemorar el centenario de su muerte. Allí formuló Bohr por vez primera su interpretación de la física cuántica como parte de un sistema más amplio y general que denominó «filosofía de la complementariedad». En su presentación abordó el dilema de la dualidad onda-corpúsculo desde un punto de vista filosófico.

El principio de complementariedad está fuertemente ligado al principio de incertidumbre de Heisenberg. Su objetivo principal es la explicación de fenómenos aparentemente contradictorios, como la dualidad onda-corpúsculo, bajo la mirada de la mecánica cuántica. Según Bohr, en correspondencia con Heisenberg, el principio de incertidumbre era fruto del principio de complementariedad, más profundo. Esta interpretación fue aceptada por la mayoría de científicos de la época salvo algunos influyentes colegas, como Einstein, Schrödinger y Dirac. De ahí nació una de las polémicas intelectuales más importantes que haya mantenido la humanidad y que tuvo como contendientes principales a Einstein de un lado y a Bohr del otro.

Estaban en desacuerdo en cuestiones tan importantes como la causalidad, el significado de realidad física, la localidad y el carácter completo o incompleto de las descripciones cuánticas. Después de casi un siglo, el debate Einstein-Bohr sigue siendo vital para conocer la interpretación y la filosofía de la física cuántica. Las conversaciones entre ambos sobre este tema fueron publicadas en un artículo en 1949 "Las discusiones con Einstein sobre Problemas epistemológicos en Física Atómica" en lo que se considera la explicación más completa por parte de Bohr sobre la complementariedad. Bohr nunca llegó a convencer a Einstein sobre esta interpretación de la Mecánica Cuántica.

Según el principio de complementariedad, dos magnitudes complementarias no pueden medirse simultáneamente con precisión absoluta, de forma que cuanto más precisa sea la medida en una magnitud, más imprecisa será la medida en la magnitud complementaria. Siguiendo con la dualidad onda-corpúsculo, una de las discusiones más importantes entre Bohr y Einstein trataba sobre la naturaleza de la luz. En el libro “La evolución de la Física” Einstein y Leopold Infeld escribían: “¿qué es la luz? ¿Una lluvia de fotones? Parece que no puede formarse una descripción consistente de la luz escogiendo solo uno de los dos lenguajes. Parece que a veces debemos usar una teoría y otras veces la otra. Estamos frente a un nuevo problema. Tenemos dos visiones de la realidad contradictorias, por separado no explican el fenómeno de la luz, pero juntas sí lo explican”.

Heisenberg se centró en la trayectoria de electrones en una cámara, preguntándose si podíamos saber la posición y la velocidad de un electrón simultáneamente. El resultado es conocido: la Mecánica Cuántica pone restricciones a lo que podemos medir y conocer. Mediante su principio de incertidumbre descubrió que la Mecánica Cuántica prohíbe la determinación exacta de la posición y el momento de una partícula. Es posible medir de forma exacta dónde se encuentra el electrón o su velocidad, pero no ambas cosas simultáneamente. Esto significa que en las medidas de magnitudes atómicas tenemos un límite, y ese límite es precisamente el cuanto de acción, h: ΔxΔp≥h/2p y ΔEΔt≥h/2p, es decir no se pueden medir dos magnitudes complementarias con infinita precisión. En el caso del experimento de la doble rendija, esto implica que no podemos diseñar ningún equipo que nos permita saber por qué rendija pasan las partículas sin destruir la interferencia.

El cuanto de acción es un límite que impone la propia naturaleza. Publicado en 1927, Bohr se dio cuenta de que el principio de incertidumbre no era sino la extensión del principio de complementariedad a magnitudes conjugadas como posición – momento, y energía – tiempo. No se trata de un error en la medida que pueda ser subsanado mediante instrumentos más precisos, sino un límite fundamental no superable. Además, las ecuaciones de Planck E=hf y de de Broglie p=h/λ, incluían propiedades asociadas con partículas (E,p) que se relacionan con magnitudes ondulatorias (f,λ) mostrando la naturaleza dual en la descripción de la luz y de partículas subatómicas.

 

Colapso función de onda. El problema de la medida.

El problema de la medida es un aspecto decisivo en cuanto a la consistencia de la Mecánica Cuántica. La definición del estado de un sistema exige la eliminación de toda perturbación externa. El hecho de observar, o de medir, es una perturbación externa, por lo que es imposible definir el sistema de manera inequívoca. Según la Física Clásica, si conocemos el estado inicial de un sistema (posición y momento) y las fuerzas que actúan, podemos saber el estado posterior. La observación del sistema no altera su comportamiento, y si lo altera, es posible saber cómo, de forma que siempre es posible conocer el estado del sistema en instantes posteriores. Podemos decir que la descripción de un sistema físico, según la Física Clásica, es objetiva. En el caso de la Mecánica Cuántica, es imposible predecir el resultado de una medida. Solo podemos predecir la probabilidad de encontrar este resultado. Esta es una diferencia crucial entre la Física Clásica y la Mecánica Cuántica. No es un problema técnico, no podemos ir más allá de la probabilidad de obtener un resultado.

La discusión sobre la medida está relacionada con las dos formas en que un estado evoluciona en el tiempo: de forma determinista, según la ecuación de Schrödinger si no se efectúa ninguna medida, y de forma indeterminista, en lo que se conoce como “colapso de la función de onda” que ocurre cuando se efectúa la medida. Las partículas se encuentran en una superposición de estados hasta que se realiza una medida de alguna propiedad de la partícula. En cuanto se realiza la medida, la función de onda colapsa y se encontrará en uno de los estados estacionarios del sistema. Heisenberg describió el colapso como acausal, incierto e indeterminado, dependiente de la elección del experimentalista sobre qué medir.

Toda la información de un sistema se encuentra en la función de onda que evoluciona según la ecuación de Schrödinger. Max Born propuso una interpretación de la función de onda en la que el módulo cuadrado de esta función representaba la probabilidad de obtener una medida concreta, por ejemplo, encontrar la partícula en una posición determinada. Se llamó interpretación estadística puesto que implica que los resultados de los experimentos son puramente información estadística. “La teoría nos da probabilidades, los experimentos, estadísticas.” Los experimentos realizados muchas veces nos dan evidencia estadística de las probabilidades predichas por la teoría. No podemos describir nada de las trayectorias de partículas individuales o de la posición de las partículas previamente a hacer la medida. De hecho, una partícula puede estar en dos lugares a la vez, como en el caso del experimento de la doble rendija, pasando por las dos a la vez.

Esta interpretación plantea muchos interrogantes: ¿este colapso ocurre solo cuando observamos el sistema? ¿existen los objetos, aunque no los estemos observando? Einstein creía en la existencia de una realidad objetiva, en contra de la opinión de Bohr y Heisenberg. La Física Clásica asume que el mundo es independiente de la observación. En Mecánica Cuántica, defendía Heisenberg, el resultado de un experimento depende de lo que escojamos medir. Es decir, los fotones y los electrones pueden parecer ondas o partículas dependiendo de lo que queramos medir, no “son” ni una cosa ni otra.

Estas dos distintas descripciones de cualquier estado (la de Schrödinger o la del colapso) parecen implicar una contradicción en la Mecánica Cuántica. En palabras de Heisenberg: “La interpretación de Copenhague empieza con una paradoja. Todos los experimentos, sean de la vida diaria o de la física atómica, tienen que ser descritos con conceptos de la física clásica. Estos representan el lenguaje mediante el que describimos la configuración de nuestros experimentos y determinamos los resultados. No podemos reemplazarlos con otros conceptos. De todos modos, la aplicabilidad de estos conceptos es limitada debido a las relaciones de incertidumbre”.

Para Bohr, la complementariedad podía explicar la paradoja de la naturaleza onda-corpúsculo de la luz y las partículas subatómicas. Son propiedades complementarias del mismo fenómeno, necesarias para la correcta descripción de la realidad cuántica. La limitación a esta descripción se encuentra en el hecho que el observador no puede medir/observar las dos propiedades a la vez, no hay experimentos que muestren a la vez el carácter corpuscular y ondulatorio simultáneamente. De alguna forma argumentaba la compatibilidad entre la descripción ondulatoria de la Mecánica Cuántica de Schrödinger con la idea de estados estacionarios discretos de los átomos (que corresponden a armónicos en la propagación ondulatoria), es decir, la formulación ondulatoria de las partículas resolvía los problemas de la estructura atómica y la interacción radiación-materia. Se podría añadir que en el modelo atómico de Bohr se encuentra la dualidad onda-partícula, al seleccionar los estados estacionarios los armónicos de la función de onda.

Todas las contribuciones de Bohr y otros iniciadores de la Mecánica Cuántica nos muestran que la explicación del mundo subatómico es muy distinta de lo que nos ofrece la Física Clásica. No sabemos por qué el mundo es como es, pero sí sabemos aplicar los principios de la Mecánica Cuántica y dar explicación a lo que observamos. Estamos frente a una de las grandes figuras de la Física de todos los tiempos. Sus aportaciones siguen vigentes en su mayor parte, y son fundamentales para explicar el nacimiento de la Mecánica Cuántica.

 

 

Bibliografía:

(1) “Quantum: Einstein, Bohr and the great debate about the nature of reality”, Manjit Kumar, Icon Books Ltd (2009).

(2) “Quantum dialogue: the making of a revolution”, Mara Beller, University of Chicago Press (1999).

(3) “Niels Bohr, la teoría atómica y la descripción de la naturaleza”, Niels Bohr, Alianza Editorial (1988).

(4) “How physics confronts reality: Einstein was correct but Bohr won the game”, Roger G. Newton, Singapore: World Scientific (2009).

(5) “Einstein, Bohr and the quantum dilemma: from quantum theory to quantum information”. Andrew Whitaker. Cambridge University Press (2006).

  

Marisa Pons y Lourdes Domínguez.

Doctoras en Física.

Departamento de Física Aplicada.
Universidad del País Vasco / Euskal Herriko Unibertsitatea.


No hay comentarios:

Publicar un comentario