martes, 1 de marzo de 2022

La Paradoja EPR - Esperanza López Manzanares

De la paradoja EPR a las tecnologías cuánticas.








Siento una enorme fascinación por el mundo cuántico. Sus aspectos difíciles de asimilar, incluso paradójicos, me atrajeron desde el primer momento y es a ellos a los que voy a dedicar este texto. Repasaré los comienzos de la teoría cuántica para mostrar la necesidad de un nuevo paradigma. Describiré cómo, en una aventura tanto teórica como experimental que llega hasta nuestros días, se ha demostrado que la Naturaleza escoge los extraños principios de la mecánica cuántica frente a otros más acordes con nuestra intuición. Y finalmente, cómo esto ha desencadenado una revolución tecnológica que promete moldear el futuro.

Esta historia comienza a finales del siglo XIX, cuando varios experimentos mostraron los límites de la comprensión de la Naturaleza que en ese momento se tenía, y cuyo conjunto de leyes se conoce como física clásica. El más emblemático de ellos fue la medición de la radiación emitida por un cuerpo negro. Es decir, un cuerpo que absorbe toda la radiación que le llega, se calienta, y emite de acuerdo a su temperatura. La teoría clásica predice una emisión creciente a altas frecuencias, que implica la radiación instantánea de toda su energía. Este resultado, no solo equivocado sino absurdo, era una clara indicación de que algo muy profundo debía ser modificado.

La teoría de Maxwell describe la radiación como una onda electromagnética, y como las ondas en un estanque, su amplitud puede tomar cualquier valor. A mayor amplitud, mayor energía asociada a la oscilación. El primer ataque al paradigma clásico se debe a Max Planck. Planck descubrió empíricamente que la curva de radiación de un cuerpo negro se reproducía de forma exacta si solo se permitía a la amplitud tomar valores discretos, múltiplos de la frecuencia de oscilación. Estos cuantos de energía dieron nombre a la teoría que emergería del camino iniciado por Planck, la mecánica cuántica, es decir, la mecánica que gobierna los cuantos. Planck creía que su hipótesis revolucionaria no tendría verdadero significado hasta que no se entendiera su origen. Lo buscó en las propiedades de vibración de los átomos que componen el cuerpo negro, es decir, en el proceso de emisión.

La siguiente contribución fundamental es obra de Albert Einstein. De hecho, aunque varios de sus trabajos hubieran merecido ser reconocidos con el premio Nobel, solo obtuvo este galardón por la explicación del efecto fotoeléctrico. Este efecto describe la emisión de electrones cuando un haz de luz incide sobre un metal, y al igual que la radiación del cuerpo negro, sus propiedades no encajaban con las predicciones de la física clásica. En concreto, la emisión solo se producía con luz de frecuencia suficientemente alta, independientemente de su intensidad. Einstein se dio cuenta de que la solución estaba en los cuantos de energía propuestos por Planck. Bastaba con asumir que son una característica de la radiación en sí misma, teniendo por tanto entidad propia y portándose a todos los efectos como partículas elementales. Los cuantos de luz recibirían posteriormente el nombre de fotones.

La propuesta de Einstein fue tildada de radical por sus colegas, incluido Planck, y tardo varios años en ser aceptada. Dado que la radiación, fenómeno descrito a nivel clásico como una onda, se puede entender como un conjunto de fotones, es natural plantearse si la materia a nivel microscópico   presentará en correspondencia aspectos ondulatorios. Louis De Broglie dedicó su tesis doctoral a esta cuestión, concluyendo que toda partícula lleva asociada una onda. Su hipótesis fue confirmada poco después mediante experimentos de difracción de electrones. Se estableció así un nuevo elemento del sorprendente mundo cuántico: la dualidad onda-corpúsculo, o que un mismo fenómeno cuántico puede manifestarse como onda y como partícula.

Estos descubrimientos dieron lugar a nuevas preguntas. ¿Cómo explicar los aspectos ondulatorios de la radiación en términos de fotones? ¿Cuál es el significado de la onda asociada a una partícula? Las respuestas se condensan en dos principios básicos. El primero de ellos se conoce como principio de superposición: si un sistema puede estar en dos estados distintos, puede encontrarse también en una superposición de ambos. Este postulado es necesario para reconciliar la naturaleza ondulatoria y corpuscular de la luz. Aunque el terreno de la mecánica cuántica es el mundo microscópico, utilizaré una imagen de la vida cotidiana para ilustrar este principio fundamental. No, no será un gato; utilizaré una taza cuyo contenido puede estar caliente o frío. Si perteneciera al mundo cuántico, la taza con su contenido podría estar a la vez caliente y fría.

El segundo postulado se refiere al acto de medir y asegura que no será ambiguo, que se obtendrá un resultado concreto de entre todos los posibles. En consecuencia, cuando toque mi taza cuántica la sentiré con claridad caliente o fría. Si preparo muchas tazas en el mismo estado superposición, unas veces obtendré frío y otras calor. Soy yo al tocarla quien obliga a la taza a escoger entre las dos temperaturas, modificando su estado de caliente y frío a caliente o frío. Es decir, medir destruye la superposición. Describir el estado de la taza consiste en saber con qué probabilidad obtendré un resultado u otro. En la teoría cuántica, la incertidumbre sobre el resultado de la medida no es producto de un conocimiento incompleto, sino que tiene un carácter fundamental.

Los aspectos ondulatorios de la materia resultan tener su origen en la capacidad de superponer estados con características que, a nivel clásico, son mutuamente excluyentes. Una de ellas, quizá la más básica, es la posición que ocupa una partícula en el espacio. La onda que De Broglie concibió asociada a toda partícula representa la incertidumbre en su posición. No describe por tanto la oscilación de una magnitud física, como los campos eléctrico y magnético en el caso de la luz. La amplitud de esta onda, cuya naturaleza es antes matemática que física, determina la probabilidad de encontrar la partícula aquí y no allá.

A Einstein le parecía profundamente insatisfactorio que la naturaleza última de la realidad fuera probabilística. No estaba solo en esta opinión. Colegas tan notables como Erwin Schroedinger, científico fundamental en el desarrollo de la mecánica cuántica, y el propio De Broglie, también la compartían. Es importante entender que la mecánica cuántica utiliza los mismos conceptos que la física clásica para describir la realidad: posición, velocidad, momento angular, etc. Por tanto, implica asumir que el conocimiento más fundamental de cantidades que a nivel clásico podemos describir con total exactitud, incluye un elemento de azar.

La ciencia está impulsada por el deseo de comprender como funciona la Naturaleza y el convencimiento de que adquirir este conocimiento es posible. La mecánica cuántica no representa un contraejemplo a estas altas expectativas, pero es innegable que no encaja en ellas de la manera que a priori desearíamos. Aceptar la interpretación probabilística significa que, aunque hayamos sido capaces de encontrar sus leyes, la naturaleza funciona de una manera radicalmente ajena a nuestra intuición. La única vía para evitar esta conclusión es que la mecánica cuántica, al igual que la física clásica, no sea más que una aproximación a la realidad. De esta forma su carácter probabilístico podría ser fruto de algún elemento que todavía no hemos descubierto. La teoría cuántica completada con este nuevo ingrediente restablecería un entendimiento de la naturaleza basado en el determinismo. Este era el punto de vista preconizado por Einstein.

Para ilustrar sus críticas, Einstein se servía a menudo de situaciones experimentales imaginadas. En sus famosos debates con Niels Bohr, uno de los principales defensores de la interpretación probabilística, Einstein proponía una situación que cuestionaba esta interpretación y Bohr utilizaba todo su ingenio en refutarla. Estos experimentos mentales fueron una gran herramienta para profundizar en las implicaciones de la mecánica cuántica. El más conocido es quizá el del gato vivo y muerto como consecuencia de una superposición cuántica a nivel microscópico, ideado por Schroedinger con la misma intención crítica que Einstein. El más importante fue sin embargo formulado por Einstein, junto a Boris Podolski y Nathan Rosen, en un artículo que apareció en el año 1935 con título ¨¿Puede la descripción cuántica de la realidad física ser completa?¨.

Einstein y sus colegas eran conscientes de que todas las predicciones de la mecánica cuántica habían resultado correctas y que la teoría no sufría de ninguna inconsistencia lógica. Tenían por tanto que hilar muy fino para mostrar que su fundamento probabilístico la hacía incompleta. Dedicaron la primera parte de su trabajo a discutir las premisas que debe satisfacer una teoría completa de la realidad. Sin duda esta discusión contiene un prejuicio sobre cómo debe ser tal teoría, pero éste se intenta mantener en un mínimo irrenunciable. No se rechaza la presencia de principios probabilísticos, pero se asume una asimetría entre las cantidades que pueden ser predichas con certeza y aquellas que no. Denominaron elementos de realidad a cantidades cuyo valor se puede determinar sin realizar una medición, cantidades que están bien definidas sin necesidad de que exista un observador.  Su premisa fundamental es que los elementos de realidad deben tener una representación explícita dentro de una teoría física completa.

Es de enorme importancia para el progreso científico pasar de la intuición y los argumentos cualitativos, a conceptos bien definidos a nivel lógico. Esto es lo que consiguieron Einstein, Podolski y Rosen al transformar las críticas al fundamento probabilístico de la mecánica cuántica en el concepto preciso de elemento de realidad. Su trabajo, al que me referiré de hora en adelante por las iniciales de sus autores (EPR), inició una historia apasionante que concluye con la rigurosa demostración experimental de que la Naturaleza no satisface el criterio EPR de realismo. Sin embargo, esto no disminuye en nada el valor de su trabajo. Bien al contrario, demuestra que equivocarse siguiendo un razonamiento profundo, honesto y creativo puede ser una contribución inestimable al progreso.

Una vez definido el criterio a exigir a una teoría completa de la realidad, el segundo paso fue encontrar una situación que lo pudiera comprometer. Aquí está la segunda gran contribución EPR. Fueron capaces de identificar el fenómeno que mejor representa la ruptura entre el mundo clásico y el cuántico. Se da cuando se aplica el principio de superposición a sistemas con varias componentes y no se había reparado en sus drásticas implicaciones hasta entonces. Tanto es así que ni siquiera se le había dado un nombre propio. Fue Schroedinger quien lo denominó entrelazamiento cuántico en un comentario al trabajo de Einstein, Podolski y Rosen, aparecido el mismo año 1935.

Continuando con el ejemplo anterior, imaginad que en vez de una taza que puede estar caliente o fría, tenemos dos. Este sistema tiene cuatro estados básicos: la primera taza puede estar caliente y la segunda también, o la primera caliente y la segunda fría, o al revés, o ambas pueden estar frías. Según la mecánica cuántica, las tazas pueden encontrarse además en una superposición cualquiera de estos cuatro estados. Esto lleva a la existencia de estados en los que no se puede referir a una parte sin hacer alusión al todo. Esta extraña característica es la que describe el entrelazamiento cuántico. Consideremos por ejemplo que superponemos los estados con ambas tazas calientes y ambas frías. Es claro que el estado de una de ellas está ligado al de la otra, y por ello no podemos describirlas individualmente. El entrelazamiento cuántico introduce una correlación en la incertidumbre sobre el estado de cada una de las partes de un sistema.

La absoluta novedad que introduce el entrelazamiento se aprecia mejor al combinarlo con el postulado de la medida en mecánica cuántica. El acto de medir destruye la superposición cuántica y fuerza al sistema a escoger entre una de las posibilidades incluidas en el estado previo a la medida. Cuando un sistema de varias componentes se encuentra en un estado entrelazado, medir en una de sus partes tiene consecuencias sobre el sistema completo. Antes de tocar una de nuestras tazas entrelazadas en un estado que superpone ambas calientes y ambas frías, no puedo saber qué resultado obtendré. Pero como sus temperaturas están correlacionadas, en el instante en que fuerzo a escoger entre caliente o frío a la primera, la segunda, sobre la que no he actuado, se ve obligada a seguir la misma elección. Y esto ocurrirá aunque mi amiga, que tiene la segunda taza, se la haya llevado a otra habitación, al jardín, o incluso a una galaxia muy muy lejana. Con certeza, si yo he encontrado mi taza caliente y ella toca la suya inmediatamente después, la encontrará también caliente.

Uno de los resultados experimentales más influyentes de finales del siglo XIX fue la medición de la velocidad de propagación de la luz. Sorprendentemente la velocidad resultó ser la misma con independencia del estado de movimiento del observador. Según la física clásica, las velocidades de observador y sistema se deberían sumar y dar lugar a cambios apreciables, que sin embargo no se encontraron. La búsqueda de una explicación llevó a Einstein a formular la teoría de la relatividad especial, cuyo punto central es la existencia de una velocidad máxima de propagación, que coincide precisamente con la velocidad de la luz. Esto implica una concepción totalmente nueva del espacio y el tiempo, y junto con la mecánica cuántica, es el segundo pilar de la física moderna.

La existencia de una velocidad máxima de propagación limita la posible conexión causal entre dos eventos. Si para que una señal emitida desde el primero llegue al segundo, ésta necesita propagarse a mayor velocidad que la luz, es imposible que exista una relación causa-efecto entre ellos. Este es el principio de localidad, el segundo requisito que Einstein, Podolski y Rosen exigieron a una teoría completa de la realidad.

Una consecuencia directa del principio de localidad es la ausencia de acciones inmediatas a distancia. O equivalentemente, la imposibilidad de transmitir información de forma instantánea entre dos observadores distantes. Como hemos visto, la combinación de entrelazamiento cuántico y medida parece cuestionar está conclusión. Sin embargo, la mecánica cuántica logra evadir el conflicto de manera sutil, que ilustraré de nuevo con las tazas. Mi amiga y yo sabemos que nuestras tazas se encuentran en el estado que superpone con igual probabilidad ambas calientes y ambas frías. Si todos los días preparamos las tazas en este mismo estado, cuando ella toque la suya obtendrá la mitad de las veces caliente y la otra mitad fría. Esto ocurrirá independientemente de que yo también haya tocado la mía, y por tanto mi amiga no podrá saber si yo he actuado o no. Es decir, aunque yo conozca el estado de su taza sin actuar sobre ella, no habrá transmisión de información entre nosotras. Einstein era consciente de que no había una contradicción en esta situación, pero le producía un profundo disgusto que manifestó denominando al entrelazamiento como “fantasmagórica acción a distancia”.

Hasta ahora solo hemos considerado una propiedad observable de las tazas, su temperatura. ¿Existen otras características que podamos medir? Ciertamente sí. Podemos preguntarnos también sobre su color. ¿Es posible encontrar un estado en que la temperatura y el color de la taza estén ambos definidos con certeza? En el mundo clásico la respuesta es por supuesto afirmativa. En el cuántico solo es posible construir estados sin incertidumbre en varias de sus propiedades, cuando éstas satisfacen una cierta relación matemática de compatibilidad entre ellas. No voy a entrar a describir esta relación, pero si mencionaré que es el contenido del conocido principio de incertidumbre de Heisenberg.

Con el sencillo ejemplo de taza he ilustrado el sistema cuántico más simple, aquel cuyo estado general se puede describir como una superposición de solo dos posibilidades. Cualquier propiedad en este sistema tiene solo dos resultados posibles. Respecto a la temperatura, en nuestra analogía, hemos escogido caliente y frío. Respecto al color, podrían ser por ejemplo azul y amarillo. En un sistema de dos estados, la relación matemática de compatibilidad entre propiedades distintas nunca se satisface. Por lo tanto, si la taza está en el estado que con certeza resulta caliente al tocarlo, tendrá una incertidumbre en su color. Es decir, el estado caliente corresponde a una superposición entre los estados de color azul y amarillo. De la misma forma un estado donde el color es con seguridad amarillo, implica una indeterminación en la temperatura.

Recordemos la definición de elemento de realidad EPR, una cantidad cuyo valor podemos predecir con certeza sin necesidad de realizar una observación. En el estado caliente de la taza, la temperatura es un elemento de realidad ya que no hay incertidumbre en su resultado. Sin embargo, es claro que en este estado el color no es un elemento de realidad. Y viceversa, intercambiando las propiedades de temperatura y color. Es decir, la mecánica cuántica no puede describir como elementos de realidad dos propiedades que no satisfagan la relación de compatibilidad. Es en este punto donde Einstein, Podolski y Rosen encontraron una paradoja.

En su argumento utilizaron un estado entrelazado de dos componentes, tazas para nosotros. Hemos descrito el estado entrelazado en el que ambas están calientes y ambas frías. El razonamiento EPR se basa en un estado distinto, que superpone la primera taza caliente y la segunda fría, con la situación opuesta en la que la primera está fría y la segunda caliente. Este estado tiene la propiedad especial de hacer compatibles la temperatura total y el color global. Su temperatura total es con certeza cero, si definimos cero como el punto intermedio entre calor y frío. Respecto al color global, este estado resulta ser perfectamente verde. Es decir, una superposición con igual probabilidad entre azul y amarillo para la primera y segunda taza, con amarillo y azul.

Si yo toco mi taza y la encuentro caliente, sé con absoluta seguridad que la taza de mi amiga en ese mismo instante estará fría. Y lo sabré sin necesidad de actuar sobre su taza. Según la definición EPR de elemento de realidad, la temperatura de la taza de mi amiga es un elemento de realidad. Si miro mi taza y la veo amarilla, sé con certeza que la suya será azul. Por lo tanto, también el color de su taza es un elemento de realidad. De la misma forma, podría ser mi amiga la que hiciera estas consideraciones, y concluiría que la temperatura y el color de mi taza son elementos de realidad. Es decir, no solo la temperatura total cero y el color global verde son elementos de realidad en el estado especial que estamos considerando. Las propiedades individuales de cada taza también lo son.

Esta situación muestra la incompatibilidad entre el criterio de realismo EPR y la mecánica cuántica. De acuerdo con el primero, una teoría física completa ha de ser capaz de incluir todas las cantidades que podemos predecir sin necesidad de medir. Por otra parte, hemos explicado cómo en un sistema cuántico con dos estados básicos no es posible describir más de una propiedad con certeza. Y sin embargo hemos encontrado un estado en el que varias propiedades de cada taza satisfacen la definición de elemento de realidad. Esto llevó a Einstein, Podolski y Rosen a concluir que la descripción de la Naturaleza provista por la mecánica cuántica es incompleta. Es importante entender correctamente esta afirmación. No implica que la mecánica cuántica sea incorrecta. Lo que se argumenta es que sus elementos probabilísticos son debidos al desconocimiento de alguna información relevante que en una teoría física completa sí tendría cabida.

La conclusión anterior tiene grandes implicaciones. Antes de aceptarla, cabe preguntarse si no es posible modificar la definición de realismo buscando su compatibilidad con la mecánica cuántica. Podríamos por ejemplo exigir que dos propiedades solo se consideren elementos de realidad si es posible predecirlas simultáneamente. La temperatura y el color de las tazas individuales en el estado de temperatura total cero y color global verde no satisfacen este criterio más restrictivo. Si toco mi taza, también sabré inmediatamente cuál es la temperatura de la de mi amiga. Una vez que las tazas han escogido entre caliente y frío o viceversa, la superposición inicial se destruye y el estado deja de estar entrelazado. Este nuevo estado provocado por mi acción no tiene color global verde. Aunque mire mi taza y obtenga azul, no sabré con certeza el color de la taza que no veo.

Llegamos así a otra situación sorprendente. Si toco mi taza, la temperatura de la de mi amiga será un elemento de realidad, pero no su color. Si miro mi taza, será el color y no la temperatura de la segunda taza lo que puedo predecir con certeza. Es decir, la propiedad de la segunda taza que verifica el criterio de elemento de realidad, y por lo tanto debería tener una existencia independiente de que alguien la observe o no, resulta depender de la acción que yo haya ejecutado sobre la mía.  Claramente esta situación implica una tensión tanto con el principio de realismo, como con el de localidad.

Desde la misma intuición que lleva a exigir el criterio de realismo a una teoría física completa, resulta difícil argumentar contra la exigencia añadida de simultaneidad. El que esta modificación lleve a una situación todavía más paradójica pone de manifiesto la profundidad del cambio conceptual que supone la mecánica cuántica. El éxito de Einstein, Podolski y Rosen fue exponer esto de forma clara y concisa, y por ello el impacto de su contribución no ha hecho más que aumentar con el paso del tiempo.

En la última frase de su trabajo, se expresa la convicción de que una teoría acorde a los principios de localidad y realismo sea posible. Esta teoría completaría la descripción cuántica con unas variables adicionales, que se conocen con el descriptivo nombre de variables ocultas. Ocultas no solo porque no las conocemos, sino porque, aunque tal teoría existiera, en principio no sería posible preparar un estado con unos valores predefinidos para ellas. De lo contrario entraríamos en conflicto con la mecánica cuántica. Por ejemplo, podríamos preparar un estado de nuestra singular taza que no tuviera incertidumbre ni en la temperatura y ni en el color. Y no hay ninguna evidencia experimental de que en el mundo microscópico esto sea posible. Las teorías de variables ocultas asumen que estas nuevas variables tendrán un valor bien definido en cada estado que preparemos, a pesar de que no podamos fijarlos con nuestros dispositivos experimentales. La descripción cuántica surgiría al promediar sobre estas nuevas variables.

En realidad, las discusiones sobre la completitud de la mecánica cuántica y las teorías de variables ocultas no comenzaron con el trabajo EPR. El primer intento de una teoría de variables ocultas se atribuye a De Broglie en 1927. La dualidad onda-corpúsculo que él había propuesto asocia una onda a toda partícula. De Broglie creía que esta onda debía tener realidad física en vez de solo matemática, como promueve la interpretación estándar de la mecánica cuántica, sirviendo como primer modelo de variables ocultas. En un desarrollo opuesto y anterior también a la paradoja EPR, el gran matemático John von Neumann publicó un libro sobre los principios matemáticos de la mecánica cuántica en el que presentaba una prueba de la imposibilidad de las variables ocultas. Poco después Grete Hermann, matemática discípula de Emily Noether, descubrió una falacia en su argumentación. Por desgracia su contribución pasó mayormente inadvertida, y la prueba de von Neumann tuvo una influencia notable. Hubo que esperar largos años hasta que John Bell, otro de los protagonistas de nuestra historia, redescubriera su fallo.

A mediados del siglo pasado David Bohm, importante físico y original pensador, retomó la búsqueda de una teoría de variables ocultas. Formuló una propuesta que hace contacto con la construcción previa de De Broglie. Contrariamente a los criterios EPR, las variables ocultas que contempla tienen un carácter no local. El trabajo de Bohm, junto con las dudas sobre la prueba de von Neumann, llevó a Bell a buscar una respuesta definitiva sobre la viabilidad de las variables ocultas locales.

En 1964, casi tres décadas después de la contribución EPR, Bell demostró que la mecánica cuántica no admite una teoría de variables ocultas satisfaciendo los principios de realismo y localidad. Utilizó en su prueba un sistema análogo al de nuestras tazas y un estado equivalente al que hace compatibles las propiedades de color global y temperatura total. En este estado especial resulta haber más propiedades compatibles. Por ejemplo, el tipo de contenido de la taza. Supongamos que sus dos estados básicos son café y té. En términos del contenido se cumple el mismo esquema verificado por las propiedades anteriores. Es decir, el estado de temperatura total cero y color global verde también se puede describir como una superposición entre café en la primera taza y té en la segunda, y viceversa, té en la primera y café en la segunda.

Si fuera posible completar la mecánica cuántica en el sentido que EPR plantearon, cada taza tendría secretamente unos valores bien definidos de temperatura, color y contenido. Estas propiedades individuales serían las variables ocultas de nuestro ejemplo, las cuales determinan el resultado que obtendremos al medir. Respecto a ellas, el estado especial tendría ocho configuraciones subyacentes: calor-amarillo-café para la primera y fría-azul-té para la segunda, calor-amarillo-té para la primera y fría-azul-café para la segunda, etc. Recordemos que cuando mi amiga y yo preparamos nuestras tazas, no podemos controlar qué configuración se producirá. Pero, si las variables ocultas existen, sabemos con certeza que, dados N pares de tazas, habrá un número de ellos bien definido que corresponde a cada configuración, aunque desconozcamos su valor. Sorprendentemente, esto es suficiente para deducir relaciones entre las probabilidades de los diferentes resultados. No es necesario ningún elemento adicional proveniente del mundo cuántico. Estas relaciones toman la forma de unas famosas desigualdades, que llevan el nombre de su autor. Las desigualdades de Bell establecen lo siguiente:

P(p1,r1; p2,r2) ≤ P(p1,r1; p3,r3) + P(p3,r3; p2,r2) ,

donde P(p1,r1; p2,r2) es la probabilidad de que yo obtenga el resultado r1 al medir la propiedad p1, e independientemente pero al mismo tiempo, mi amiga obtenga r2 para la propiedad p2. Por ejemplo, p1 y p2 pueden ser temperatura y contenido, y r1 y r2 los resultados frío y café.

Puesto que las desigualdades de Bell se derivan exclusivamente de los principios de realismo y localidad, el siguiente paso está claro. Calculemos las probabilidades P(p1,r1; p2,r2) siguiendo los postulados de la mecánica cuántica. Dependiendo de las relaciones matemáticas entre las propiedades que escojamos medir, y para las que la imagen de las tazas es finalmente demasiado limitada, se obtiene una violación de las desigualdades de Bell. Esto implica el importantísimo resultado de que las correlaciones cuánticas son más fuertes de lo que una teoría de variables ocultas locales puede representar. Se excluye así definitivamente la posibilidad de completar la mecánica cuántica como Einstein, Podolski y Rosen deseaban.

¿Cuál es la relevancia práctica de esta conclusión? Hemos insistido en que, aunque existiera una teoría de variables ocultas, no podríamos manipular libremente los valores de sus variables. Por tanto, la respuesta parece ser que tiene escasa relevancia. Esto sin embargo no es así. Una teoría de variables ocultas acorde a los criterios EPR implicaría que la mecánica cuántica no supone el cambio radical que aparenta. Sería solamente la manifestación estadística de una teoría más fundamental que satisface los mismos principios de realismo y localidad que rigen la física clásica. El que no sea así significa que el entrelazamiento cuántico es un fenómeno absolutamente nuevo.

¿Podría el mundo cuántico ser compatible con otros principios ocultos? El resultado de Bell no excluye esta posibilidad. Un ejemplo es la mencionada teoría de Bohm, basada en variables ocultas no locales. Existen otras propuestas, pero todas ellas tienen en común que sustituyen el fundamento probabilista de la mecánica cuántica por unas construcciones que difícilmente se pueden considerar más satisfactorias, más simples o más naturales. Por ello, dejaremos en este punto la discusión sobre la completitud de la mecánica cuántica, y conduciremos nuestra historia a cuestiones más aplicadas que teóricas.

A raíz del trabajo de Bell, resultó de evidente importancia la realización de test experimentales de sus desigualdades. Aunque EPR y Bell analizaron el mismo fenómeno físico, utilizaron distintas realizaciones en su argumentación. Los primeros razonaron sobre dos partículas con sus posiciones y velocidades entrelazadas, mientras que Bell consideró el entrelazamiento entre dos copias del sistema cuántico más simple, con solo dos estados básicos, y por tanto mucho más sencillo de implementar. Esto, junto con el enorme progreso de la física experimental, hizo posible que a comienzos de los años 70 aparecieran los primeros test de las desigualdades.

Es interesante describir a grandes rasgos estos experimentos. En sustitución de nuestras tazas imaginarias, se utilizaron fotones, los cuantos de luz descubiertos por Planck y Einstein. A nivel clásico, la radiación electromagnética es una onda que oscila en el plano perpendicular a su dirección de propagación. Esto implica que, fijada su frecuencia, tiene dos estados de oscilación independientes, que se denominan polarizaciones. Escogido un eje en el plano perpendicular al de propagación, las dos polarizaciones corresponden a una oscilación alineada con dicho eje o perpendicular a él. Los fotones heredan esta propiedad y respecto a ella proporcionan la realización de un sistema cuántico con dos estados básicos. En los mencionados experimentos, una fuente emite pares de fotones entrelazados que se propagan en direcciones opuestas. Cada fotón es recibido por un observador diferente, a los que es tradicional llamar Alice y Bob. Para terminar, éstos hacen pasar su fotón por un polarizador, un instrumento capaz de distinguir entre las polarizaciones paralela y perpendicular respecto a un eje dado, cuya orientación es escogida independientemente por Alice y Bob.

En 1969, John Clauser, Michael Horne, Abner Shimony y Richard Holt derivaron una forma alternativa del resultado de Bell, conocida como desigualdades CHSH por las iniciales de sus autores. En ellas no es necesario que Alice y Bob escojan entre las mismas tres propiedades, en la práctica, orientaciones del polarizador. Este requisito de la formulación original era difícil de implementar de manera exacta. Fueron por tanto las desigualdades de Bell en su forma CHSH las que se sometieron a prueba.

Ya en los primeros experimentos se encontró una clara violación de las predicciones basadas en los principios de localidad y realismo. A pesar de ello y debido a limitaciones tecnológicas, los resultados quedaban lejos de los valores ideales dictados por la mecánica cuántica. No fue hasta 1982 cuando un experimento mostró claro acuerdo con las predicciones cuánticas. Este experimento, liderado por Alain Aspect, marcó un hito en la capacidad de controlar y manipular el mundo cuántico.

Dadas sus implicaciones fundamentales, era necesario asegurar que ningún resquicio experimental pudiera poner en cuestión la violación de las desigualdades de Bell. Me refiero a circunstancias que, aunque improbables o complejas, estrictamente no se puedan excluir. Por ejemplo, si alguna información sobre la medición de Alice llegara a Bob antes de que él complete la suya, podría influir en ella. Correlaciones entre ambas mediciones consistentes con el principio de localidad podrían así pasar erróneamente por correlaciones cuánticas. Esta circunstancia se excluye separando suficientemente las localizaciones de Alice y Bob. Esto supuso un importante reto tecnológico ya que el entrelazamiento cuántico es una propiedad muy frágil, que se ve afectada fuertemente por cualquier interacción del sistema de interés con el ambiente que lo rodea. El primer experimento que cerraba el resquicio asociado con localidad se realizó en 1998, con una separación entre Alice y Bob de 400 metros.


Fig.1 Esquema de la configuración del experimento liderado por Alain Aspect. Los ejes de los dos polarizadores están orientados en direcciones distintas, denotadas como a y b. La novedad de este experimento fue utilizar polarizadores que no bloquean la componente perpendicular a su orientación. El contador de coincidencias es necesario para asegurar que los fotones detectados provienen del mismo par entrelazado.


Otro importante resquicio de los test de Bell se encontraba en la baja eficiencia de los detectores a los que llegaban los fotones tras atravesar el polarizador. En una extraña coincidencia, podría darse que los fotones detectados violaran las desigualdades, pero éstas se restauraran sobre el conjunto completo de fotones. Claramente esta posibilidad se elimina con una mejora de los detectores. Esto se consiguió por primera vez en 2001, con un experimento que sustituía los fotones por iones atrapados en campos electromagnéticos. Hubo que esperar hasta el 2013 para que el problema asociado a la detección se cerrara también con un test de Bell basado en fotones.

En la derivación de las desigualdades de Bell, es esencial que la elección de la orientación de los polarizadores de Alice y Bob sea independiente y aleatoria. No es suficiente con garantizar que Alice no influya en Bob o viceversa. Podría darse que el propio sistema bajo estudio, y más en concreto, sus potenciales variables ocultas, tuvieran algún efecto sobre las elecciones. O dicho de otra manera, es necesario asegurar que el mecanismo de elección aleatoria no se vea influido de alguna manera por la misma física que queremos poner a prueba. Dos interesantes experimentos atacaron este sutil resquicio. En uno de ellos se reclutaron 100.000 voluntarios distribuidos por todo el globo, a los que se pidió participar en un videojuego que incentivaba la toma de decisiones aleatorias. Los resultados del videojuego se utilizaron a tiempo real para generar elecciones en 13 experimentos distintos de las desigualdades de Bell, que se realizaron a lo largo del 30 de Noviembre del 2016. El segundo se llevó a cabo en colaboración con el observatorio astrofísico de las Islas Canarias dos años más tarde. Sus telescopios detectaron luz proveniente de dos cuásares distantes, y utilizaron la distribución aleatoria del color de la luz recibida para fijar la orientación de los polarizadores. De esta forma, situaron el mecanismo de elección varios billones de años atrás.

Se completa así la prueba rigurosa de que el entrelazamiento cuántico es un fenómeno totalmente ajeno al mundo clásico. Esto no representa sin embargo el final de nuestra historia. Más bien al contrario, es el hito fundamental que abre la puerta a una nueva era tecnológica. Me refiero a la era de las tecnologías cuánticas, cuyo recurso principal es precisamente el entrelazamiento. Como es un recurso frágil, su control y manipulación requiere un dominio técnico sin precedentes, del que los test de Bell fueron pioneros. Esta tecnología promete tener un enorme impacto en nuestra sociedad a medio y largo plazo. La mecánica cuántica ha cambiado la forma de entender la Naturaleza. Ahora puede cambiar también nuestro día a día, y por ello hablamos de una segunda revolución cuántica.

Me gustaría terminar mencionando los principales campos de aplicación de las tecnologías cuánticas, y dar una breve impresión sobre su estado de desarrollo. Uno de estos campos es la construcción de aparatos de medida extremadamente precisos. Según la teoría de la gravitación de Einstein, el tiempo transcurre a un ritmo ligeramente distinto dependiendo del lugar en el que nos encontremos. Utilizando un reloj cuántico, en Septiembre de 2021 se pudo medir este efecto en átomos separados por un solo milímetro de altura. Otro importantísimo terreno de aplicación son las comunicaciones, con la promesa de garantizar transmisiones totalmente seguras. Las comunicaciones cuánticas requieren mantener el entrelazamiento sobre grandes distancias. Actualmente el récord para fotones está en más de 1.000 kilómetros. Y finalmente, la estrella de las tecnologías cuánticas es probablemente la computación. El objetivo es construir un ordenador con software basado en la lógica cuántica, capaz de resolver problemas totalmente fuera del alcance de cualquier ordenador clásico, presente o futuro. Se conoce como supremacía cuántica al reto más modesto de completar algún cálculo para el que un ordenador clásico necesitaría un tiempo incomparablemente mayor. Este reto, aunque más modesto igualmente impresionante, fue conseguido por Google en 2019 con un procesador cuántico de 53 cubits, análogos cuánticos de los bits clásicos, implementados en términos de circuitos superconductores.

El mundo se encuentra actualmente inmerso en una frenética carrera por el desarrollo de las tecnologías cuánticas. Nadie puede permitirse quedar al margen. Lograrlo es una cuestión de importancia no solo económica, sino estratégica. Porque el futuro es cuántico y ya está aquí.



Esperanza López Manzanares.

Doctora en Ciencias Físicas.

Investigadora Científica del CSIC, Instituto de Física Teórica - CSIC.



Fig.2 Imagen añadida por los coordinadores el 05/10/2022.


No hay comentarios:

Publicar un comentario