CIENCIA Cuantica - Al Khalili Jim 205p
CIENCIA Cuantica - Al Khalili Jim 205p
CIENCIA Cuantica - Al Khalili Jim 205p
Agradecimientos
Introducción
1. Truco de magia con la naturaleza
2. Orígenes
Cómo empezó todo
Radiación del cuerpo negro
Einstein
Partículas de luz
La naturaleza dual de la luz
Bohr: físico, filósofo, futbolista13
La llegada de un príncipe francés
3. La probabilidad y el azar
¿Cree usted en el destino?
El resultado de una partida de billar
Imprevisibilidad cuántica
Chupinazos
La ecuación más importante de la física
¿Qué pasa cuando no estamos mirando?
El principio de incertidumbre de Heisenberg
4. Conexiones misteriosas
Superposición
Explicación del truco de las dos rendijas
Carácter no local
Entrelazamiento
El experimento EPR
5. Mirar y ser mirado
Lo que ves es lo que obtienes
El microscopio de rayos gamma de Heisenberg
«Y entonces pasa algo más»
El gato de Schrödinger
No me diga el resultado
Dos estadios del problema de la medición
Decoherencia
¿Resuelve la decoherencia el problema de la medición?
6. El gran debate
Formalismo frente a interpretación
La interpretación de Copenhague
La interpretación De Broglie-Bohm
La interpretación de la pluralidad de mundos
¿Qué más hay en el mercado?
¿En qué punto nos encontramos?
7. El mundo subatómico
Rayos misteriosos por todas partes
Dentro del átomo
Dentro del núcleo
Creación de partículas de la nada
Fuerzas nucleares
Cuarks
8. En busca de la teoría definitiva
La teoría cuántica de la luz
Teorías gauge y simetrías
Una fuerza multicolor
Teoría de la Gran Unificación
¿Qué hay de la gravitación?
La lección de Planck
Teoría de cuerdas
La lección de Einstein
9. La cuántica en acción
La era del microchip
Una idea ingeniosa en busca de un uso
Imanes del tamaño de una casa
Electricidad de movimiento perpetuo
Energía procedente de los núcleos
La mecánica cuántica en la medicina
10. Hacia el nuevo milenio
Experimentos ingeniosos
Seguir el rastro de un átomo
Observación de la decoherencia en plena acción
Entrelazamiento que bate récords
Criptografía cuántica
La ley de Moore
Cubits
Entonces ¿qué podría hacer una computadora cuántica?
Cómo confeccionar una computadora cuántica
Teletransporte cuántico
Bibliografía adicional
Jim Al-Khalili
Cuántica
Guía de perplejos
Índice
Agradecimientos
Introducción
1.Truco de magia con la naturaleza.
Esferas de fulereno y el experimento de la doble rendija, por Markus Arndt y Anton
Zeilinge
2.Orígenes
3.La probabilidad y el azar.
Desintegración radiactiva, por Ron Johnson
4.Conexiones misteriosas.
Caología cuántica, por Michael Berry
5.Mirar y ser mirado
6.El gran debate.
La realidad cuántica según De Broglie y Bohm, por Chris Dewdney
7.El mundo subatómico.
Componentes esenciales, por Frank Close
8.En busca de la teoría definitiva.
Pongamos el acento en lo negativo, por Paul Davies
9.La cuántica en acción.
Condensados de Bose-Einstein, por Ed Hinds. Mecánica cuántica y biología, por
Johnjoe McFadden
10.Hacia el nuevo milenio.
Computación cuántica, por Andrew Steane
Bibliografía adicional
Créditos
Agradecimientos
Diversos amigos y compañeros me han ayudado enormemente para la redacción de
este libro. En primer lugar y ante todo debo dar las gracias a mi esposa, Julie, y mis
hijos, David y Kate, por su apoyo y comprensión durante las numerosas tardes y fines de
semana de los dos últimos años que tuve que encerrarme a solas con mi ordenador.
También me siento muy en deuda con las siguientes personas por suministrarme
ensayos, o por leer y comentar parte o la totalidad del manuscrito, por brindarme su
consejo y sugerencias, así como por la corrección de numerosos errores. Son, por orden
alfabético: Jeremy Alam, Julie Al-Khalili, Nazar Al-Khalili, Reya Al-Khalili, David Angel,
Marcus Arndt, Michael Berry, Frank Close, Paul Davies, Jason Deacon, Chris Dewdney,
Gregers Hansen, Deen Harman, Ed Hinds, Ron Johnson, Greg Knowles, Johnjoe
MacFadden, Ray Mackintosh, Abdel-Aziz Matani, Gareth Mitchell, Andrew Steane, Paul
Stevenson, Ian Thompson, Patrick Walsh, Richard Wilson y Anton Zeilinger. Como es
natural, los errores que puedan haber quedado son únicamente responsabilidad mía.
Por último, quisiera manifestar un agradecimiento especial a mi editor de Weidenfeld &
Nicolson, Nic Cheetham, por toda su ayuda.
Dedico este libro a mi padre, a quien, entre otras muchas cosas, le debo que me
hablara por primera vez de una extraña teoría llamada mecánica cuántica.
Introducción
Durante la adolescencia fui un ávido lector de una revista llamada The Unexplained [«Lo
inexplicado»] que estaba repleta de supuestos avistamientos de ovnis, historias del
Triángulo de las Bermudas, y otros fenómenos paranormales semejantes. Recuerdo el
estremecimiento de entusiasmo que me recorría cuando abría cada número para
corroborar que el mundo estaba lleno de sucesos extraños y fabulosos que nadie entendía.
Lo mejor de todo eran las fascinantes fotografías que parecían tomadas con cámara
barata y mano temblorosa en plena noche y en medio de una densa niebla. En teoría
probaban la existencia de platillos volantes, apariciones espectrales y monstruos del lago
Ness. Recuerdo sobre todo la mórbida imagen de los restos carbonizados de un pie
separado del cuerpo de una anciana, aún dentro de su cálida pantufla y próximo a un
cúmulo de cenizas en una sala de estar; fue lo único que quedó de un episodio de
«combustión humana espontánea».
No tengo ni idea de si aquella revista sigue publicándose hoy en día (lo cierto es que
hace mucho que no la veo), pero no ha cesado la fascinación del público por toda clase
de fenómenos paranormales que la ciencia no parece haber logrado etiquetar, clasificar
y empaquetar. Da la impresión de que mucha gente se siente cómoda sabiendo que
aún quedan rincones de nuestro universo que resisten el avance inexorable de la
ciencia, donde lo mágico, lo misterioso y lo ajeno a este mundo aún perduran y
prosperan.
Es una pena; me parece frustrante que todos los logros de la ciencia para explicar y
racionalizar la multitud de fenómenos que acaecen en el universo se consideren a veces
como algo de lo más cotidiano o carente de prodigio. Un físico que hizo hincapié en
esto mismo fue Richard Feynman, quien recibió el premio Nobel en 1965 por sus
aportaciones para desentrañar la naturaleza de la luz. Feynman escribió:
Los poetas dicen que la ciencia resta belleza a las estrellas, simples globos de átomos de gas. Nada es «simple».
También yo contemplo las estrellas una noche desierta y las siento. Pero ¿veo menos o veo más? [...] ¿Cuál es el
patrón estructural, o el significado, o el porqué? No se estropea el misterio por saber algo más sobre él. Porque la
verdad es mucho más fabulosa de lo que cualquier artista del pasado la imaginó. ¿Por qué no hablan de ella los
poetas actuales?
En estos días en que la ciencia se ha popularizado tanto que el público puede acceder a
ella mediante libros, revistas, documentales de televisión e internet, creo que se está
produciendo un cambio de actitud. Pero aún queda una región de la ciencia que no se
puede racionalizar en su totalidad usando el lenguaje cotidiano, o explicar recurriendo a
conceptos simples, fáciles de asimilar, o a cortes de entrevistas. No me refiero a ninguna
idea especulativa a medio hacer basada en argumentos seudocientíficos, como la
percepción extrasensorial o, peor aún, la astrología. Al contrario, el tema en cuestión cae
dentro de la corriente principal de la ciencia. De hecho, es una materia de estudio tan
omnipresente, tan esencial para comprender la naturaleza, que sirve de base a gran parte
de todas las ciencias físicas. Se describe mediante una teoría cuyo descubrimiento supuso,
sin lugar a dudas, el avance científico individual más importante del siglo XX. Por alguna
curiosa coincidencia, también es el tema de este libro.
La mecánica cuántica es extraordinaria por dos razones que parecen contradictorias.
Por un lado, es tan esencial para comprender el funcionamiento del mundo, que ocupa
el mismísimo núcleo de la mayoría de los avances tecnológicos logrados durante el
último medio siglo. Por otro lado, ¡nadie parece saber exactamente qué significa!
Cuando tratamos con el mundo cuántico realmente nos adentramos en un territorio
extraordinario. Un ámbito donde parece haber libertad para elegir cualquiera de entre
cierto número de explicaciones para lo observado, cada una de ellas tan
asombrosamente rara a su modo, que hasta las historias de abducciones alienígenas
suenan perfectamente razonables.
Si la gente supiera lo frustrante pero asombrosa que es la extraordinaria naturaleza
del mundo cuántico, si supiera que la sólida realidad que conocemos descansa sobre la
frágil base de una realidad insondable y fantasmagórica subyacente, entonces ya no
necesitaría las historias sobre el Triángulo de las Bermudas o sobre manifestaciones
poltergeist; los fenómenos cuánticos son mucho más extraños. Y mientras casi todos los
incidentes paranormales registrados se explican nada más que con una pizca de sentido
común, la teoría cuántica se ha probado, espoleado y demostrado de todas las formas
imaginables durante casi cien años. Es una pena que ninguna de las predicciones de la
mecánica cuántica haya figurado, hasta donde yo sé, en algún número de The
Unexplained.
Debo aclarar desde el principio que la teoría de la mecánica cuántica no es lo raro o
ilógico. Al contrario, la teoría es una construcción matemática con una precisión y una
lógica preciosas que brinda una descripción magnífica de la naturaleza. De hecho, sin la
mecánica cuántica no entenderíamos los fundamentos de la química moderna, ni de la
electrónica, ni de la ciencia de materiales. Sin la mecánica cuántica no habríamos
inventado el chip de silicio ni el láser; no habría televisores, computadoras, hornos de
microondas, reproductores de CD y DVD, teléfonos móviles, y muchas otras cosas que
damos por hechas en nuestra era tecnológica.
La mecánica cuántica predice y explica con exactitud asombrosa el comportamiento
de los verdaderos elementos esenciales de la materia (no ya los átomos, sino las
partículas que forman los átomos). Nos ha brindado un conocimiento muy preciso y casi
completo de cómo interaccionan entre sí las partículas subatómicas, y de qué manera se
enlazan para conformar el mundo que observamos a nuestro alrededor, y del cual, por
supuesto, formamos parte.
Por tanto, parece que estamos ante una pequeña contradicción. ¿Cómo puede una
teoría científica ser tan buena explicando tantos «cómos» y «porqués», y sin embargo
ser tan oscura?
La mayoría de los físicos que usan las reglas y las fórmulas matemáticas de la
mecánica cuántica de manera cotidiana dirán que no tienen ningún problema con ella.
Después de todo, saben que funciona. Nos ha ayudado a entender la inmensa variedad
de fenómenos de la naturaleza, su estructura y formulación matemática es precisa y
bien conocida y, a pesar de los numerosos intentos de muchos que han dudado de ella,
ha superado con brillantez todas las pruebas experimentales imaginables a las que la
han sometido. De hecho, no es nada infrecuente que los físicos se irriten con los colegas
que aún se sienten incapaces de asimilar la naturaleza extraña y contraria a la intuición
del mundo subatómico que nos impone la teoría. Al fin y al cabo, ¿qué derecho
tenemos a esperar que la naturaleza se comporte a la escala increíblemente diminuta de
los átomos de una manera que nos resulte familiar a partir de nuestras experiencias
cotidianas a la escala de humanos, coches, árboles y edificios? No es que la teoría de la
mecánica cuántica sea una descripción rara de la naturaleza, sino que la naturaleza de
por sí se comporta de un modo sorprendente y al margen de lo intuitivo. Y si la
mecánica cuántica nos brinda las herramientas teóricas para comprender todo lo que
observamos, entonces no tenemos derecho a culpar a la naturaleza (o a la teoría) de
nuestra estrechez de miras intelectual.
Muchos físicos, en una actitud que yo considero más bien acientífica, se impacientan
con quienes persiguen una interpretación más intuitiva de la mecánica cuántica. Dirán:
«¿Por qué no te limitas a callarte y usar las herramientas cuánticas para emitir
predicciones sobre resultados de experimentos? Es una pérdida de tiempo inútil
empeñarse en esclarecer por completo algo que no se puede verificar de forma
experimental».
De hecho, la interpretación estándar de la mecánica cuántica (la que se suele enseñar
a todos los estudiantes de física) lleva incorporada una serie de reglas y condiciones
estrictas de acatamiento obligado respecto al tipo de información que es posible extraer
de la naturaleza, dada una configuración experimental concreta. Sé que esto sonará
innecesariamente enrevesado para aparecer tan pronto en el libro, pero debe entender
usted desde el principio que la mecánica cuántica no se parece a ningún otro empeño
intelectual humano, ni anterior ni posterior a ella.
Como la mayoría de los físicos, he dedicado muchos años a reflexionar sobre la
mecánica cuántica, tanto desde el punto de vista del profesional investigador en activo,
como desde la perspectiva de quien tiene interés por su significado más profundo, el
campo que se conoce como los fundamentos de la mecánica cuántica. Tal vez los
aproximadamente veinte años que llevo bregando con la mecánica cuántica no hayan
bastado aún para que la «asimile». Pero creo que he oído a bastantes participantes del
debate (y créame que aún continúa a pesar de las optimistas y, en ciertos aspectos,
falsas afirmaciones en contra por parte de quienes defienden una interpretación
determinada) como para, cuando menos, apartarme de la polémica. La mayoría de lo
que trato en este libro no es, espero, controvertido, y cuando abordo cuestiones de
plena actualidad, procuro adoptar una postura neutral y objetiva. Yo no defiendo
ninguna interpretación en particular de la mecánica cuántica, pero sí que tengo ideas
muy claras sobre la materia. Usted, por supuesto, es libre de discrepar de ellas, pero
estoy seguro de que lo convenceré, a menos que pertenezca usted a la brigada «calcula
y calla», en cuyo caso no debería estar leyendo este libro ¡sino haciendo algo más útil
en su lugar!
Lo único que diré por ahora es que mi variante preferida se llama interpretación
«calla mientras calculas». De esta manera tengo entera libertad para preocuparme por la
mecánica cuántica cuando no estoy ocupado usándola.
Pero este libro no trata tan solo sobre el significado de la mecánica cuántica.
También ahonda en sus logros, tanto a la hora de explicar numerosos fenómenos, como
en lo referido a sus muchas aplicaciones prácticas pasadas, presentes y futuras en la
vida cotidiana. De ahí que el viaje nos lleve desde la filosofía, la física subatómica y las
teorías de muchas dimensiones hasta el mundo de alta tecnología de los láseres y
microchips y el extraordinario horizonte de la magia cuántica del mañana.
Aunque espero que todo esto suene fascinante, es natural que los novatos absolutos
en la materia se pregunten en primer lugar de qué va todo este embrollo. Hay muchas
maneras de poner de relieve la extraña naturaleza de la mecánica cuántica, algunas de
ellas proceden de ejemplos cotidianos con los que estamos familiarizados y que damos
por hecho, mientras que otras recurren a «experimentos mentales»: situaciones ideales
que pueden tenerse en cuenta sin necesidad de reproducirlas realmente en un
laboratorio. De hecho, nada explica el misterio de la mecánica cuántica con tanta
firmeza y belleza como el experimento de la doble rendija. Así que empezaré por ahí.
1. Truco de magia con la naturaleza
Antes de introducir demasiada ciencia desde ya en el libro, describiré un experimento
sencillo. Sospecho que le sonará un poco a magia, y es posible de hecho, que no llegue a
creerse una sola palabra; eso depende de usted. Como cualquier mago que se precie, en
esta fase no desvelaré exactamente cómo y por qué funciona. Sin embargo, a diferencia de
lo que sucede con los trucos de magia, poco a poco, a medida que se desarrolle la historia,
usted empezará a notar por su cuenta que aquí no hay juegos de manos, ni espejos
ocultos, ni compartimentos secretos. De hecho, debería llegar a la conclusión de que no
existe ninguna explicación racional para que las cosas puedan ser tal como yo las
describo.
Dado que solo puedo usar adjetivos como «raro», «extraño» y «misterioso» en contadas
ocasiones, no perderé más tiempo con esta fanfarria y entraré en materia. Lo que
describiré es un experimento real y usted deberá creer que lo que se ve no es mera
especulación teórica. El experimento es fácil de hacer con el dispositivo adecuado y se
ha efectuado muchas veces de muchas formas distintas. También es importante señalar
que deberé describir el experimento, no desde la ventaja de quien entiende la física
cuántica, sino desde el punto de vista del lector que aún no sabe qué esperar o cómo
asimilar los insólitos resultados. Daré por supuesto que usted intentará racionalizar los
resultados de manera lógica a medida que avancemos de acuerdo con lo que tal vez
usted considere de sentido común, lo cual difiere bastante del modo en que explicaría
las cosas un experto en física cuántica. Eso vendrá después.
En primer lugar debo decir que el truco, si es que puedo llamarlo truco a estas
alturas, podría realizarse simplemente arrojando luz sobre una pantalla especial; y, de
hecho, así es como se describe en numerosos textos. Sin embargo, resulta que la
naturaleza de la luz es muy extraña de por sí, lo que resta teatralidad al resultado. En el
colegio aprendimos que la luz se comporta como una onda; puede estar formada por
distintas longitudes de onda (que arrojan los distintos colores del espectro visibles en
un arco iris). Exhibe todas las propiedades propias de las ondas, como la interferencia
(cuando dos ondas se mezclan), la difracción (las ondas se abren y se desparraman
cuando se las obliga a pasar por un hueco estrecho), y la refracción (la desviación que
experimenta una onda al atravesar distintos medios transparentes). Estos fenómenos
guardan relación con la manera en que se comportan las ondas cuando se topan con
una barrera o cuando se cruzan entre sí. Si digo que la luz es extraña es porque no todo
se reduce a ese comportamiento de onda. De hecho, Einstein fue galardonado con el
Premio Nobel por demostrar que la luz exhibe en ocasiones un comportamiento muy
distinto al de las ondas, pero ahondaremos más en ello en el próximo capítulo. Para el
truco de las dos rendijas podemos admitir que la luz es una onda, lo cual no arruinará lo
realmente bueno de él.
Primero se lanza un haz de luz sobre una pantalla provista de dos rendijas estrechas
que permitan que parte de luz pase hasta una segunda pantalla donde se verá un
patrón de interferencia. Este patrón consiste en una serie de bandas claras y oscuras
debidas a la manera en que cada onda individual de luz se propaga desde las dos
rendijas, se superpone y se funde con otras antes de alcanzar la pantalla del fondo. Allí
donde confluyen dos crestas (o valles) de onda, se unen y dan lugar a una cresta (o
valle) mayor que se corresponde con luz más intensa y, por tanto, con una banda clara
en la pantalla. Pero allí donde la cresta de una onda coincide con el valle de otra, ambas
ondas se anulan y dan como resultado una zona oscura. En medio de estos dos
extremos queda algo de luz que genera una mezcla gradual de ambos patrones en la
pantalla. Por tanto, el hecho de que aparezca el patrón de interferencia se debe tan solo
a que la luz se comporta como una onda que atraviesa simultáneamente amabas
rendijas. Hasta aquí, ningún problema, espero.
Ahora efectuaremos un experimento similar con arena. Esta vez, la segunda pantalla
se colocará debajo de la que porta las rendijas, y la gravedad hará el resto. A medida
que la arena se precipita sobre la primera pantalla, se van formando dos montículos
diferenciados sobre la otra pantalla justo debajo de cada rendija. No hay nada raro aquí,
puesto que cada grano de arena tiene que pasar a través de una u otra rendija; como en
este caso no se trata de ondas, no se produce ninguna interferencia. Ambos montículos
de arena tendrán la misma altura, si ambas rendijas son del mismo tamaño y la arena se
vierte desde una posición elevada y centrada sobre ellas.
La luz que alumbra a través de dos rendijas estrechas formará un patrón de franjas sobre la pantalla debido a la
interferencia entre las ondas de luz que salen de las rendijas. Esto solo ocurrirá, por supuesto, si la fuente de luz es
«monocromática» (produce luz de una sola longitud de onda).
Ahora llega la parte interesante: repetir el truco con átomos. Un instrumento especial
(que llamaremos pistola atómica, a falta de un nombre mejor) lanza un haz de átomos
contra una pantalla provista de dos rendijas adecuadas . Y, por otro lado, la segunda
1
pantalla está tratada con un revestimiento que crea una manchita clara cada vez que un
átomo choca contra ella.
Como es natural, los granos de arena no se comportan como ondas, y forman dos montículos debajo de las rendijas.
Desde luego no es necesario decir que los átomos son entidades increíblemente
minúsculas y que, por tanto, está claro que deberían comportarse de forma similar a la
arena, y no como ondas en propagación, capaces de abarcar ambas rendijas al mismo
tiempo.
En primer lugar practicamos el experimento con una sola rendija abierta. No es de
extrañar que obtengamos sobre la pantalla del fondo un estarcido de manchas claras
situadas justo detrás de la rendija abierta. La ligera dispersión de este estarcido de
manchas podría extrañarnos si ya sabemos algo sobre el comportamiento de las ondas,
puesto que eso es lo que le ocurre a una onda cuando atraviesa una rendija estrecha
(difracción). Sin embargo, podemos convencernos con rapidez de que aún no hay
motivo para preocuparse demasiado, puesto que algunos de los átomos pudieron
desviarse al rozar los bordes de la rendija, en lugar de atravesarla limpiamente, y eso
explicaría la difusión.
A continuación abrimos la segunda rendija y esperamos a que se formen las manchas
sobre la pantalla. Si le pido ahora que prediga la distribución que tendrán las manchas
claras que se formen, naturalmente dirá usted que se parecerán a los dos montones de
arena. Es decir, que detrás de cada rendija se formará una concentración de manchas
que dará lugar a dos acumulaciones claras bien diferenciadas, más claras por el centro y
que se desvanecen progresivamente hacia los bodes a medida que los «impactos» de
átomos se vuelven más escasos. El punto central situado entre ambas manchas claras
será oscuro, porque se corresponderá con una zona de la pantalla igualmente difícil de
alcanzar para los átomos que hayan conseguido pasar a través de cualquiera de las dos
rendijas.
Pues bien, sorpresa, sorpresa: los átomos no se comportan de ese modo. Lo que
veremos será un patrón de interferencia de franjas claras y oscuras como el que
obtuvimos con la luz. Lo crea o no, la parte más clara de la pantalla ocupará la zona
central ¡donde no esperábamos que lograra incidir ningún átomo!
Podríamos intentar explicar cómo se formó el patrón del siguiente modo. Aunque un
átomo sea una partícula minúscula bien localizada (al fin y al cabo, cada átomo impacta
contra la pantalla en un único punto) da la impresión de que la corriente de átomos
consipiró de alguna manera para comportarse de un modo parecido a una onda.
Chocan contra la primera pantalla y los que consiguen cruzarla a través de las rendijas
«interfieren» en la trayectoria de los demás, mediante fuerzas atómicas, de un modo
que emula con exactitud el patrón que se produce cuando se juntan los valles y las
crestas de dos ondas. Puede que los átomos choquen entre sí de una forma coordinada
especial que haga que se guíen los unos a los otros hasta la pantalla. No cabe ninguna
duda, cabría razonar, de que los átomos no son como ondas que se propagan (como las
ondas lumínicas, o las olas en el agua, o las ondas de sonido); pero tal vez tampoco
debamos esperar que se comporten igual que los granos de arena.
Ahora repetiremos el experimento con átomos. Al tapar una de las rendijas, los átomos solo pasan a través de la que
queda abierta. La distribución de puntos indica dónde han aterrizado los átomos. Aunque esta pequeña difusión se
debe en realidad a una propiedad de las ondas llamada difracción, aún podría aducirse que los átomos se comportan
como partículas y que el resultado obtenido no difiere del exhibido por los montículos de arena.
Ahora debería empezar a dudar usted de la veracidad de lo que estoy diciendo. Una
cosa es que por arte de magia los átomos se transformen de partículas diminutas en
ondas en propagación cada vez que se encuentran con dos rutas posibles por las que
atravesar la primera pantalla. Puede que se produzca algún proceso físico que todavía
no ha explicado nadie. Y otra cosa completamente distinta es insinuar que el átomo se
da cuenta de alguna manera de que hay un detector oculto tras una de las rendijas
dispuesto a atraparlo en el momento en que adopte el estado de onda en propagación.
Es como si supiera de antemano que estamos al acecho para tenderle una emboscada y
¡tuviera la picardía de mantener su naturaleza de partícula!
Pero lo cierto es que ni siquiera así hemos añadido nada nuevo al experimento inicial.
Supuestamente, el detector tiene de alguna manera la capacidad de convertir un átomo
con forma de onda en propagación en una partícula localizada tal como hace la pantalla
del fondo cada vez que recibe un átomo.
El detector se puede colocar de un modo menos invasivo, de tal modo que logre captar
una «señal» cuando un átomo atraviese esa rendija en su trayectoria hacia la pantalla. Si no
detecta ningún átomo pero aparece un impacto en la pantalla del fondo, entonces el átomo
pasó por la otra rendija . Por supuesto, estoy simplificando mucho; más adelante veremos
2
que el detector no puede captar una señal sin ser muy invasivo.
Por tanto, tal vez piense usted que al fin tenemos la prueba de que cada átomo pasa
en realidad a través de una sola de las rendijas, tal como tenemos todo el derecho a
esperar, y no simultáneamente por las dos, como una onda en propagación. Pero antes
de que nos invada la complacencia, echemos una ojeada a la pantalla. Cuando una
cantidad suficiente de átomos induce una señal en el detector al pasar a través de la
rendija supervisada y, por tanto, nos hemos convencido de que la mitad pasó por una
rendija y la otra mitad cruzó por la otra, nos encontraremos con que ¡el patrón de
interferencia ha de- saparecido! En su lugar no habrá más que dos manchas claras
debidas a la concentración de un montón de átomos detrás de cada rendija. Los átomos
se están comportando ahora como partículas, igual que los granos de arena. Es como si
cada átomo se comportara como una onda cuando se encuentra ante una rendija, a
menos que lo estemos espiando, en cuyo caso permanece como minúscula partícula
inocente. De locos, ¿no?
Desde luego puede que sea usted una persona muy exigente y que ni siquiera ahora
considere todo esto demasiado sorprendente. Tal vez la mera presencia de un gran
detector en el camino de los átomos altere de algún modo su extraño y frágil
comportamiento. Pero parece que el problema no es ese, porque al apagar el detector
(y, por tanto, cuando no tenemos ni idea de qué rendija atravesó el átomo) vuelve a
aparecer el patrón de interferencia. Solo cuando se está observando el átomo, se
mantiene como partícula en todo momento. Es evidente que el acto de observar el
átomo es determinante.
Izquierda arriba: Al colocar un detector para saber por qué rendija pasa cada átomo, el patrón de interferencia
desaparece. Es como si los átomos no quisieran que los pillaran en el momento en que toman ambos caminos a la
vez, y solo pasaran por una rendija u otra. En la pantalla adyacente a las rendijas se forman dos bandas como
resultado del comportamiento de partícula, algo parecido a lo que ocurre con la arena.
Izquierda abajo: Al apagar el detector ya no tenemos ninguna información sobre qué ruta sigue cada átomo. Ahora
que su secreto está bien guardado, los átomos vuelven a adoptar su misterioso comportamiento de ondas y ¡aparece
de nuevo el patrón de interferencia!
Por si todo esto no bastara, queda una última posibilidad en este truco. Aunque
admitamos que los átomos son cositas astutas, ¡quizá no lo sean lo suficiente! ¿Qué tal
si dejamos que pasen por las rendijas uno a uno, por supuesto, haciendo lo que quiera
que hagan los átomos para crear el patrón de interferencia en la pantalla del fondo?
Pero esta vez nos aseguraremos de pillarlos in fraganti. Los experimentos denominados
de «opción retardada» permiten instalar un detector y activarlo tan solo después de que
el átomo haya atravesado las rendijas. Podemos asegurarnos de ello controlando la
energía de los átomos lanzados y calculando cuánto tardará cualquier átomo en
alcanzar la primera pantalla.
Esta clase de experimento de opción retardada se ha realizado, de hecho, usando
fotones en lugar de átomos, pero el razonamiento sigue siendo el mismo. La electrónica
moderna de alta velocidad permite acercar el detector lo bastante a una de las rendijas
como para que capte si el átomo ha pasado por ella, pero no se debe activar hasta que
el átomo, que se comporta como una onda en propagación, haya salido por las dos
rendijas, pero hay que encenderlo antes de que el átomo llegue al detector. Seguro que
entonces será demasiado tarde para que el átomo decida comportarse de repente como
una partícula localizada que solo ha pasado a través de una de las rendijas.
Aparentemente, no. En estos experimentos se comprueba, sin embargo, que el patrón
de interferencia desaparece.
¿Qué está pasando? Parece magia, y sospecho que probablemente usted no me crea.
Bueno, los físicos han dedicado muchos años a encontrar una explicación lógica para lo
observado. Aquí es donde debo tener cuidado para matizar a qué me refiero con
«explicación lógica». Uso esta expresión en el sentido laxo que tiene en la vida
cotidiana, cuando significa una explicación que se sitúa con comodidad dentro de los
límites de lo que consideraríamos racional, razonable y sensato, y que no contradice o
entra en conflicto con el comportamiento de otros fenómenos que experimentamos de
manera más directa.
De hecho, la mecánica cuántica nos brinda una explicación perfectamente lógica del
truco de las dos rendijas. Pero solo sirve para explicar lo observado y no lo que ocurre
cuando no estamos mirando. Pero, como lo único que tenemos para avanzar es lo que
podemos ver y medir, tal vez no tenga sentido plantearse nada más. ¿Cómo se valora la
legitimidad o la verdad de la explicación de un fenómeno que no se puede comprobar
jamás, ni tan siquiera en principio? En cuanto lo intentamos, alteramos el resultado.
Quizá le esté pidiendo demasiado a la palabra «lógico». Al fin y al cabo, hay muchos
ejemplos de la vida cotidiana en los que podría considerarse el comportamiento de algo
como ilógico o irracional. Lo único que significa eso es que dicho comportamiento fue,
en cierto modo, inesperado. Con el tiempo deberíamos ser capaces, en principio, de
analizar el comportamiento en términos de causa y efecto; que ocurre esto y, por tanto,
ocurre lo otro como consecuencia, y así sucesivamente. No importa lo compleja que sea
la cadena de sucesos que conduzca a cierto comportamiento, ni tan siquiera que
seamos capaces de entender por completo cada paso. Lo que importa es que, en cierta
manera, lo observado se puede explicar. Puede que estén actuando nuevos procesos,
nuevas fuerzas o propiedades de la naturaleza que aún no se han comprendido o ni
siquiera descubierto. Lo único que importa es que podemos usar la lógica, por muy
enrevesada que sea, para explicar lo que posiblemente está sucediendo.
Los físicos se han visto obligados a admitir que, en el caso del truco de la doble
rendija, no existe ninguna salida racional. Podemos explicar lo que vemos, pero no su
porqué. Por muy extrañas que nos parezcan las predicciones de la mecánica cuántica,
debemos hacer hincapié en que lo raro no es la teoría (una invención humana), sino que
es la propia naturaleza la que insiste en esa extraña realidad a una escala microscópica.
Hace unos años leí que los estadounidenses habían elegido por votación el poema de
Robert Frost titulado «El camino que no tomé» como el más popular de todos los tiempos.
Frost, considerado desde hace mucho tiempo el poeta estadounidense más apreciado del
siglo XX, pasó la mayor parte de su vida en Nueva Inglaterra, donde escribió sobre todo
acerca de la vida rural en el campo de New Hampshire. Un precioso ejemplo lo constituye el
poema un tanto melancólico «El camino que no tomé». En él también se habla (aunque de
un modo poco intencionado por parte de Frost) sobre la mismísima esencia de lo que tiene
que ser el mundo cuántico:
En un bosque amarillo divergían dos senderos
pero era imposible elegirlos los dos
por ser yo solo uno, y de pie con esmero
contemplé la apariencia que mostraba el primero
hasta donde torcía en la vegetación.
Pero opté por el otro, parecía perfecto,
pues quizá a su favor el segundo ofrecía
hierba espesa y jugosa que pedía recorrerlo
aunque el uso anterior por otros viajeros
casi igual de gastadas mantuviera ambas vías,
y las dos se mostraran en aquella mañana
tapizadas de hojas no manchadas de negro.
¡Andaré la que hoy dejo en futura jornada!
Pero todo camino hacia otro traslada,
y dudaba yo entonces de un posible regreso.
Contaré todo esto con sonoro suspiro
al cabo de las eras, quién sabe en qué lugar:
en un bosque amarillo divergían dos caminos
de los cuales tomé el menos concurrido
y esa opción me marcó ya todo lo demás.
Aunque con frecuencia nos sobren los reproches sobre las elecciones que tomamos
en la vida, la mecánica cuántica nos revela una realidad muy distinta a un nivel
subatómico. En un primer contacto, el mundo cuántico quizá nos parezca increíble al
interpretarlo de acuerdo con las ideas preconcebidas de las experiencias cotidianas, eso
que llamamos el sentido común. Pero el hecho de que los objetos cuánticos se
comportan de manera extraña está fuera de toda duda. Un único átomo puede recorrer
las dos sendas del bosque amarillo de Frost... los átomos no tienen nada que
reprocharse; pueden tener todas las experiencias posibles simultáneamente. Lo cierto es
que siguen el consejo del gran jugador estadounidense de béisbol Yogi Berra, quien
dijo: «Si te encuentras con una encrucijada en el camino, tómala».
El esquiador cuántico. La verdadera rareza del comportamiento de las partículas cuánticas se
hace patente al compararlas con un esquiador que, obligado a rodear un árbol interpuesto en
su camino, opta por bordearlo por los dos lados al mismo tiempo. Está claro que en nuestro
mundo cotidiano de árboles y esquiadores esto se interpretaría como alguna clase de tomadura
de pelo. Pero en el mundo cuántico eso es lo que sucede en realidad.
Lo que hemos visto en este capítulo no es más que un ejemplo de la manera en que
se manifiesta el fenómeno cuántico conocido como superposición. Podría haber descrito
cualquiera de los muchos «trucos» igual de inexplicables que se basan en la
superposición cuántica, junto con otros muchos rasgos fascinantes que son únicos de la
esfera cuántica. Espero que este capítulo no le haya quitado las ganas de seguir con el
apasionante viaje que tenemos por delante.
Esferas de fulereno y el experimento de la doble rendija
Markus Arndt y Anton Zeilinger, Departamento de Física de la Universidad de Viena
Solemos imaginar un cuerpo físico como un objeto localizado, mientras que la noción
de onda está íntimamente vinculada a algo extendido y deslocalizado. En contra de esta
concepción habitual, la física cuántica afirma que ambas nociones, aunque parezcan
contradictorias, se pueden aplicar a un único objeto en un único experimento.
En tiempos recientes hemos perfeccionado ese experimento con grandes moléculas
de carbono llamadas esferas de fulereno. Cada una de estas moléculas, conocidas como
C60 y C70, contiene 60 o 70 átomos de carbono cuya disposición forma las réplicas más
pequeñas que se conocen de un balón de fútbol, con un diámetro que no supera una
millonésima de milímetro. A pesar de su minúsculo tamaño, estas moléculas constituyen
los objetos más masivos que se han empleado jamás para demostrar hasta la fecha la
naturaleza ondulatoria de la materia.
un encendido debate. En el terreno experimental, estaban los fenómenos sin explicación del
efecto fotoeléctrico y de la radiación del cuerpo negro (los cuales describiré en breve), y
nadie sabía cómo interpretar el significado de los patrones de «líneas espectrales» en la luz
emitida por ciertos elementos. A todo ello hay que añadir el entusiasmo mundial que
despertó el descubrimiento de los misteriosos fenómenos de los rayos X (1895) y la
radiactividad (1896), por no hablar del electrón (1897). En términos generales, la física
estaba hecha un embrollo monumental.
El segundo mito es que a finales del siglo XIX Max Planck revolucionó la ciencia al
plantear que la energía llegaba en paquetes (llamados cuantos), un concepto que se vio
obligado a introducir para entender cómo irradian calor los objetos calientes, y que al
instante surgió y se puso en marcha la teoría cuántica. En realidad fue un proceso mucho
menos claro. De hecho, algunos historiadores de la ciencia niegan que Planck merezca el
más mínimo reconocimiento por «descubrir» la teoría cuántica . A diferencia de muchas
6
La constante de Planck
De acuerdo con la fórmula de Planck, la energía de los paquetes más pequeños de luz de
una frecuencia determinada (un solo cuanto) es igual a la frecuencia multiplicada por
cierta constante. Esto se conoce como la constante de Planck, o cuanto de acción de
Planck. Se representa mediante el símbolo h y, al igual que la velocidad de la luz c, es una
de las constantes universales de la naturaleza.
La relación entre energía y frecuencia es muy simple. Por ejemplo, la frecuencia de la
luz violeta, en un extremo del espectro visible, asciende al doble que la de la luz roja,
situada en el otro extremo, así que un cuanto de luz violeta tiene el doble de energía
que un cuanto de luz roja.
Hoy cualquier estudiante de física conoce la constante de Planck. En unidades de
kilogramos, metros y segundos, tiene el valor increíblemente exiguo de 6,63 × 10 -34, y a
pesar de ello es uno de los números más importantes en ciencia. Aunque es un número
muy bajo, lo crucial es que no vale cero, porque de lo contrario no habría ningún
comportamiento cuántico.
Muy a menudo la constante de Planck se combina con otra constante fundamental de
la naturaleza, el número pi (π). Este número, tal como se le enseña a cualquier escolar,
es la razón que mantiene la circunferencia de un círculo con su diámetro, y aparece sin
cesar en las ecuaciones físicas. De hecho, la cantidad h/2π aparece tan a menudo en la
mecánica cuántica, que se ha inventado un nuevo símbolo para describirla: la llamada h
barra (pronunciado «hache barra»).
Radiación del cuerpo negro
El calor del Sol, o la radiación térmica, que sentimos en la cara un día de verano ha
viajado por el vacío del espacio antes de llegar hasta nosotros. Lo que usted tal vez no
sepa es que esta radiación ha cubierto la distancia que separa el Sol de la Tierra en el
mismo tiempo (unos ocho minutos) que tardó en llegarnos la luz del Sol. La razón de
ello estriba en que tanto la radiación térmica como la radiación visible del Sol son
formas distintas de ondas electromagnéticas. Lo único que las diferencia es su longitud
de onda. Las oscilaciones correspondientes a la luz visible están más apretadas entre sí
(longitudes de onda más cortas y, por tanto, frecuencia más alta) que las de las ondas
que sentimos como calor. El Sol también emite luz ultravioleta de una longitud de onda
aún más corta y que queda fuera del espectro visible.
Pero el Sol no es el único que emite radiación electromagnética. Todos los objetos lo
hacen, y a lo largo de todo el rango de frecuencias del espectro. La distribución de
energía emitida en función de la frecuencia depende de la temperatura del cuerpo. Si un
sólido está lo bastante caliente, brillará con luz visible, pero a medida que se enfríe irá
perdiendo brillo conforme vaya dominando la radiación de una longitud de onda más
larga (situada fuera de la parte visible del espectro). Esto no significa que deje de emitir
luz visible, sino que la intensidad de esa luz será demasiado débil para que nosotros
podamos captarla. Por supuesto, toda la materia también absorbe y refleja la radiación
que incide sobre ella. El color de todo lo que vemos viene definido por las longitudes de
onda que cada objeto absorbe y refleja.
Los físicos de la segunda mitad del siglo XIX estaban muy interesados en saber de qué
manera emite radiación un tipo muy particular de objeto caliente conocido como «cuerpo
negro». Los cuerpos negros se llaman así porque absorben radiación con tanta perfección
que no reflejan nada de luz ni de calor. Por supuesto, un cuerpo negro tiene que liberarse
de alguna manera de toda la energía que absorbe (porque, en caso contrario, ¡alcanzaría
una temperatura infinita!). Por tanto, irradia su calor en todas las longitudes de onda
posibles. La longitud de onda en que la radiación es más intensa depende, por supuesto, de
la temperatura del cuerpo negro.
En casi todos los manuales de física encontraremos una gráfica que muestra varias curvas
(llamadas espectros) obtenidas al representar la intensidad de la radiación emitida por un
cuerpo negro frente a la longitud de onda de la radiación a diversas temperaturas. Todas
8
estas curvas comienzan con una intensidad baja para las longitudes de onda muy cortas,
ascienden hasta un máximo, y luego caen de nuevo a las longitudes de onda más largas. La
forma exacta de estas curvas era lo que despertaba el interés de físicos como Planck.
En la investigación científica ocurre con frecuencia que una vez que están disponibles
nuevos datos experimentales, corresponde a las teorías explicarlos. Y eso mismo fue lo
que sucedió con los espectros del cuerpo negro. En 1896, un colega de Planck, Wilhelm
Wien, desarrolló una fórmula que le permitió trazar una curva que encajaba a la
perfección con los precisos datos experimentales que él mismo había obtenido para el
extremo de la longitud de onda más corta, pero que no concordaba muy bien con las
longitudes de onda más largas.
Hacia la misma época, uno de los grandes físicos del siglo XIX, el inglés lord Rayleigh,
propuso una fórmula distinta basada en una deducción teórica más rigurosa que la
ecuación de Wien. Sin embargo, aquella teoría planteaba el problema opuesto: encajaba
perfectamente con los datos de la parte de la curva correspondiente a la longitud de onda
más larga, pero fallaba por completo en el otro extremo, en la radiación de longitudes de
onda más cortas que las de la luz visible. Este error de la teoría de Rayleigh se manifestaba
en una curva que predecía que la radiación térmica emitida por un cuerpo negro debía
aumentar de intensidad a medida que se acortara la longitud de onda, y dispararse hasta el
infinito en la región ultravioleta del espectro. Este problema acabaría conociéndose como
«catástrofe ultravioleta» .
9
puede tener determinados valores, puesto que no se permitirían todas las energías posibles.
Es decir, la energía llegaría en paquetes fijos, o «cuantos». Esto suponía una desviación
extrema de la teoría electromagnética de Maxwell, donde la energía se consideraba un
continuo.
Debemos mencionar dos cuestiones aquí. En primer lugar, Planck no se dio cuenta en
el primer momento de las implicaciones de su revolucionaria idea. La introducción de
los cuantos de energía fue, según sus propias palabras, «un supuesto puramente formal
al que en realidad no presté mucha atención más allá del hecho de que debía
conducirme, a toda costa, a un resultado satisfactorio». En segundo lugar, Planck no
consideraba que toda la energía se componía en última instancia de minúsculos
paquetes irreducibles. Eso tuvo que esperar aún cinco años más hasta la intervención
del genio de Einstein.
Entonces, para recapitular, la hipótesis de Planck se basaba en dos supuestos: el
primero era que la energía de los átomos (u osciladores) solo puede adoptar
determinados valores. Estos son meros múltiplos de la frecuencia de vibración de los
átomos. El segundo era que la emisión de radiación por parte de un cuerpo negro va
asociada a la energía de los átomos que caen desde un valor, o nivel, hasta otro inferior.
Cuando la energía desciende, el átomo emite un único cuanto de energía de radiación.
La manera más fácil de imaginarlo consiste en pensar en una pelota que se precipita
por un tramo de escaleras y, por tanto, pierde su energía «potencial» a saltos, en lugar
de hacerlo de manera continua, como cuando rueda por una pendiente lisa. La
diferencia es que los saltos cuánticos entre los distintos niveles de energía atómica se
producen de manera instantánea, mientras que la energía potencial de la pelota
atraviesa todos los niveles energéticos, puesto que tarda un tiempo breve pero finito en
bajar cada escalón.
La trascendencia del trabajo de Planck no se apreció de inmediato. En palabras del
historiador Helge Kragh:
Si en diciembre de 1900 ocurrió una revolución dentro de la física, nadie pareció darse cuenta. Planck no fue una
excepción, y la importancia que se le atribuye a su trabajo es en buena medida una reconstrucción histórica.
Suena bastante duro, pero seguramente sea así. Yo preferiría, sin embargo, ser más
generoso y expresarlo de un modo algo distinto. Planck es el verdadero padre fundador
de la cuántica; ¡lo que pasa es que en aquel momento no lo sabía! Hicieron falta otros
pensadores, más concienzudos y más originales, para que se valorara lo que de verdad
había iniciado. En cualquier caso, la aportación de Planck no fue más que un pequeño
primer paso. La contribución individual de físicos como Einstein, Bohr, De Broglie,
Schrödinger y Heisenberg fue mayor que la de Planck. Solo que Planck fue el primero.
Siempre he sentido cierta debilidad por Max Planck y su difícil vida. Como científico
ilustre, opuso resistencia a los nazis en la década de 1930, pero durante la Segunda
Guerra Mundial sufrió una gran tragedia personal. Había decidido quedarse en
Alemania, donde se opuso abiertamente a muchas de las políticas de los nazis, en
particular a la persecución de judíos. Tres de sus hijos habían fallecido ya a edades
tempranas, y los dos que le quedaban no sobrevivieron a la guerra. Uno murió
combatiendo y el otro fue ejecutado por participar en un atentado fallido contra Hitler.
El propio Planck padeció enormes miserias cuando bombardeos aliados destruyeron su
casa en 1944. Falleció en 1947 a los 89 años.
Einstein
Si Einstein no hubiera descubierto la teoría de la relatividad, sin duda se habría convertido
igualmente en alguien famoso, debido en parte a su relevancia en el desarrollo de la teoría
cuántica. Pero como sobresale por encima de cualquier otro físico, excepto de Isaac
Newton, parece injusto para todos los demás que se le atribuyan a él las dos grandes
revoluciones científicas del siglo XX (la relatividad y la teoría cuántica).
En 1905, cuando contaba tan solo 26 años y trabajaba como empleado en la Oficina
de Patentes de Suiza, Einstein publicó cinco artículos teóricos en revistas especializadas
de física. Tres de aquellos artículos fueron tan trascendentes que cualquiera de ellos le
habría asegurado un lugar en la historia.
El más conocido, y de hecho el más importante, fue el último de los cinco, que dedicó a
la relatividad especial; en él demostró que otro principio fundamental de la física
newtoniana, la idea de que el espacio y el tiempo son absolutos, era una ilusión. Para ello
partió de dos postulados simples. El primero era que las leyes de la naturaleza se mantienen
idénticas con independencia de lo rápido que nos movamos, así que nadie puede afirmar
encontrarse realmente en reposo y todo movimiento es relativo. El segundo era que la
velocidad de la luz a través del espacio vacío es una constante fundamental de la naturaleza
que, según las mediciones, siempre tiene el mismo valor con independencia de la velocidad
a la que viaje el observador. A partir de estas dos ideas se llega a la conclusión de que tanto
el tiempo como el espacio son aspectos de un espacio-tiempo tetradimensional más
grandioso. Einstein también demostró que la velocidad de la luz es la máxima velocidad
posible dentro del universo. La relatividad espacial nos obliga a aceptar conceptos extraños,
como que el tiempo se frena cuando se viaja muy deprisa. Y también conduce a la ecuación
einsteiniana más conocida, la que relaciona la masa y la energía: E = mc .
2
Justo antes de este artículo, Einstein publicó otro con cálculos detallados para
describir el movimiento browniano. Este fenómeno lo detectó por primera vez el
botánico escocés Robert Brown en 1827, al observar mediante el microscopio que los
granos de polen suspendidos en agua muestran un movimiento errático. Einstein aportó
una demostración matemática de que eso se debe al constante movimiento aleatorio de
las moléculas de agua, en lo que fue la primera demostración real de la existencia de los
átomos. Los defensores de la idea de que la materia se compone en última instancia de
minúsculas unidades indivisibles eran muy conscientes de que el movimiento browniano
podía deberse al movimiento de átomos, pero fue Einstein quien lo confirmó.
Experimentos basados en este trabajo suyo fueron los que convencieron al fin a las
últimas voces que negaban la existencia de los átomos.
Sin embargo, de los tres principales artículos que publicó Einstein en 1905 el más
interesante para nuestra historia fue el primero, donde explicaba el origen de un
fenómeno conocido como «efecto fotoeléctrico». La fórmula de Planck prácticamente se
había ignorado durante cinco años, pero Einstein la resucitó y dio un empujón
importante a sus conclusiones.
Partículas de luz
El efecto fotoeléctrico fue otro fenómeno de la física del siglo XIX que no se consiguió
explicar en aquel momento. Se proyectaba luz sobre una placa de metal cargada de
electricidad y se arrancaban electrones de la superficie para examinar con atención cómo
ocurría. Eso permitió a los científicos detectar que la teoría imperante, que describía la luz
como una onda, conducía a una contradicción que implicaba dificultades mayores que el
problema de la radiación del cuerpo negro.
De hecho, este efecto exhibe tres rasgos misteriosos. En primer lugar, cabría pensar
que si la luz tiene la capacidad de arrancar partículas de materia, entonces su energía
dependerá del brillo, o intensidad, de la luz. Sin embargo, se descubrió que la capacidad
de la luz para arrancar electrones depende de su longitud de onda. Se trata de un
resultado bastante inesperado si contemplamos la luz como una onda, porque el
incremento de su intensidad y, por tanto, de su energía, implicaría un aumento del
tamaño de sus oscilaciones. Pensemos en las ondas de agua, u olas, que chocan contra
el litoral; tienen más energía cuanto más altas sean, no cuanto más deprisa rompan
contra la costa. En el efecto fotoeléctrico, la luz de alta intensidad no daba lugar a
electrones lanzados con más energía, ¡sino a más cantidad de ellos!
La segunda característica misteriosa, relacionada con la anterior, consistía en que, de
acuerdo con la teoría ondulatoria, el efecto fotoeléctrico debía producirse con luz de
cualquier frecuencia, siempre que fuera lo bastante intensa como para aportar al
electrón la energía necesaria para escapar. Sin embargo, lo observado fue que existe
una frecuencia límite por debajo de la cual no se emiten electrones, por muy brillante
que sea la luz.
La luz brillante, de mayor intensidad, resulta de una cantidad mayor de fotones que la luz tenue. Pero la energía
media de un solo fotón es la misma en ambos casos.
Por último, la teoría ondulatoria señala que al exponer electrones a la energía de una
onda de luz, estos necesitan un tiempo finito para absorber la energía suficiente para
desprenderse de la superficie, sobre todo si la luz es tenue. Sin embargo, no se
detectaba ningún desfase temporal. Los electrones se desprendían en cuanto se lanzaba
luz contra la superficie.
Einstein consiguió explicar este efecto al ampliar la idea de Planck de los paquetes de
energía lumínica. Recordemos que Planck no había llegado a defender que toda la radiación
está cuantizada. En lugar de eso, lo único que propuso fue que un cuerpo negro radiaba
energía en paquetes como consecuencia directa de las propiedades de la materia. Pero
seguía creyendo que, en general, la radiación electromagnética era continua. La propuesta
de Einstein fue que toda la luz se compone en última instancia de cuantos de energía , que 11
ahora se conocen como fotones. Esto sobrepasaba lo que Planck estaba dispuesto a
aceptar.
La naturaleza dual de la luz
Las aportaciones de Planck y Einstein a la revolución cuántica supusieron un primer paso. Al
volver la vista atrás con todo lo que se sabe hoy sobre la riqueza de la mecánica cuántica y
los fenómenos que es capaz de explicar, se ve que la idea de que la luz se compone de
partículas no es para tanto. Al fin y al cabo, el propio Isaac Newton ya creía que la luz estaba
formada por partículas, o «corpúsculos», tal como él las llamaba. Un contemporáneo de
Newton, el astrónomo neerlandés Christiaan Huygens, desarrolló una teoría rival
ondulatoria para la luz. Sin embargo, hubo que esperar hasta el comienzo del siglo XIX para
que un inglés llamado Thomas Young evidenciara más allá de toda duda que la luz debía
tratarse como una onda.
Young realizó el experimento de la doble rendija con luz (de hecho, también se conoce
12
como el experimento de las rendijas de Young) y, tal como vimos en el Capítulo 1, no existe
ningún misterio si se nos permite pensar que son ondas las que atraviesan ambas rendijas al
mismo tiempo. Sabemos de qué manera hacen eso las ondas, y que, de manera natural, dan
lugar al patrón de interferencia que se observa en la pantalla. No es de extrañar que las
observaciones de Young anularan durante cien años la idea de que la luz pudiera estar
formada por partículas. Los físicos del siglo XIX rindieron homenaje a Newton por sus
imponentes logros (y aún se lo considera con razón el mayor científico de todos los
tiempos), pero no por su idea de los corpúsculos de luz. No había manera de que la
descripción corpuscular pudiera dar lugar al patrón de interferencia.
Pero entonces, un siglo después de los experimentos de Young, Einstein demostró
que ¡la luz debe interpretarse como una corriente de partículas si queremos explicar el
efecto fotoeléctrico!
Entonces ¿qué es lo que sucede? Da la impresión de que no podemos considerar la
luz como un puro fenómeno ondulatorio, ni tampoco como algo formado por
partículas. Parece comportarse como una onda en determinadas circunstancias (rendijas
de Young) y como un conjunto de partículas localizadas en otras (efecto fotoeléctrico).
Todos los fenómenos que hemos considerado hasta ahora apuntan hacia la idea de que
este desdoblamiento de personalidad de la luz debe tomarse en serio, a pesar del
sentimiento natural de malestar que infunde en un primer momento. De hecho, la
llamada dualidad onda-corpúsculo de la luz está hoy en día fuera de toda duda.
El Premio Nobel de Einstein
Albert Einstein recibió el Premio Nobel de Física de 1921 por su explicación del efecto fotoeléctrico, considerado en la
época un descubrimiento mucho más significativo que sus trabajos más conocidos sobre teoría de la relatividad.
Según Einstein, cada electrón sale arrancado cuando lo golpea un solo fotón de luz, cuya energía depende de la
frecuencia. Él sostenía que normalmente no vemos la naturaleza corpuscular de la luz debido a la gran cantidad de
fotones implicados, del mismo modo que no vemos cada píxel individual de tinta en una imagen impresa. Así que,
examinemos brevemente cómo resuelve esta explicación los tres rasgos misteriosos del efecto fotoeléctrico.
El primero de ellos es fácil. El hecho de que la energía del electrón expulsado dependa de la frecuencia de la luz y
no de su intensidad es una consecuencia directa de la ecuación de Planck, que relaciona la energía de la luz con la
frecuencia.
La segunda característica aparece porque el umbral de producción de electrones solo se alcanza cuando la energía
del fotón es suficiente para liberar un electrón. El aumento de la intensidad de la luz solo da lugar a más fotones. Y
como los fotones son tan minúsculos y tan localizados en el espacio, hay una probabilidad minúscula de que algún
otro electrón pueda alcanzar suficiente energía para escapar al recibir el impacto de más de un fotón.
El efecto fotoeléctrico implica la expulsión de electrones de una superficie metálica arrojando luz sobre ella. Sin
embargo, la concepción de que la luz consiste en ondas no explica lo observado. Lo que se ve solo se explica si se
considera que la luz se compone de partículas individuales (fotones).
Por último, el proceso es instantáneo porque los electrones no tienen que acumular energía a partir de una onda
que se propaga por el espacio, sino que cada fotón suelta toda su energía contra un electrón durante una única
colisión. Si esta energía rebasa el umbral necesario, el electrón escapará.
Pero, espere un minuto, ¿podría haber dos clases de luz: luz ondulatoria y luz
grumosa? ¿Puede la luz cambiar de estado dependiendo de cómo la usemos o la
detectemos? Los físicos encuentran bastante desconcertante el concepto de fotón.
Recuerde que cada fotón individual (una partícula) se asocia a una frecuencia y a una
longitud de onda determinadas (propiedades ondulatorias).
Por tanto, ¿qué significa decir que una partícula tiene cierta longitud de onda? Las
ondas en propagación tienen longitud de onda; pero las partículas ¡no se propagan en
absoluto, vaya!
Bohr: físico, filósofo, futbolista 13
El siguiente paso en la revolución cuántica lo dio un joven físico danés llamado Niels
Bohr, quien llegó a Inglaterra en 1911 desde Copenhague provisto de un flamante título
de doctor y las obras completas de Charles Dickens (que usaba para aprender inglés).
Obviamente, Bohr aún no era un físico famoso por entonces, pero aquella le pareció una
carrera más segura que la del fútbol, donde también destacó como aficionado
entusiasta, aunque no alcanzó el nivel de su hermano menor, Harold, quien jugó de
defensa en el equipo olímpico danés que perdió la medalla de oro en 1908 frente a
Gran Bretaña. Harold se convertiría más tarde en un matemático muy respetado.
La vida de Niels Bohr y de este autor que escribe solo se solaparon durante dos
meses, así que, por desgracia, nunca llegué a coincidir con él. Y, de haberlo hecho,
nuestra conversación no habría sido muy productiva. Pero he colaborado durante varios
años con alguien que lo conoció muy bien. Jens Bang es un físico teórico que ejerció
como el último colaborador científico de Bohr, de modo que tiene muchas historias que
contar sobre esta gran figura, y un hondo conocimiento de sus consideraciones
filosóficas. De hecho, el Bohr filósofo es casi tan célebre como el Bohr científico.
Emprendió sus pesquisas cuánticas cuando se marchó a trabajar a Mánchester con el
neozelandés Ernest Rutherford en 1912. El propio Rutherford era en aquel momento
uno de los científicos más eminentes del mundo y había sido galardonado en 1908 con
el Premio Nobel de Química, a pesar de ser físico. Bohr llegó hacia la época en que
Rutherford presentaba su modelo del átomo. Acababa de descubrir que los átomos
están formados por un minúsculo y denso núcleo en el centro, rodeado por electrones
aún más pequeños.
Bohr comenzó intentando comprender la estructura del modelo atómico de
Rutherford. De ahí que se embarcara en un proyecto y un esfuerzo de medio siglo para
captar la esencia de los fenómenos cuánticos, y hoy en día se lo considera con justicia el
verdadero padre de la física cuántica. Puede que Planck y Einstein echaran la cosa a
rodar, pero Bohr la desarrolló mucho más.
Su primer logro consistió en resolver dos problemas relacionados con la estructura
de los átomos: el origen de las líneas espectrales y la explicación de la estabilidad
atómica.
El modelo de átomo de Rutherford apuntaba a que los electrones existen fuera del
núcleo a una distancia miles de veces mayor que el tamaño del propio núcleo. Este
esquema plantea al instante la cuestión de la estabilidad de los átomos. En primer lugar,
los físicos estaban seguros de que los electrones no podían estar en reposo dentro de
los átomos, puesto que la fuerza eléctrica de atracción ejercida por el núcleo con carga
positiva debía succionar los electrones hacia él. De modo que la respuesta simple sería
considerar un modelo planetario en el que los electrones orbitaran de manera continua
alrededor del núcleo, de igual manera que la Tierra debe mantenerse en órbita
alrededor del Sol para no precipitarse contra él debido a su tirón gravitatorio.
Vista en retrospectiva, la idea de Bohr parece obvia, pero en aquel momento era
revolucionaria. Propuso que si toda la materia emite radiación en paquetes (el efecto
fotoeléctrico), entonces tal vez los átomos que componen la materia sencillamente no
puedan poseer energías intermedias a esos paquetes discretos.
Esta idea iba más allá del postulado de Planck, según el cual, la cuantización de la
radiación se debía tan solo a las oscilaciones de los átomos en los cuerpos negros
calientes, más que a un rasgo común a todos los átomos debido a su estructura interna.
Bohr postuló que las propias energías del electrón dentro de los átomos están
cuantizadas. Es decir, los electrones no son libres de seguir la órbita que quieran, tal
como admitirían las leyes del movimiento de Newton, sino que siguen determinadas
órbitas «discretas», como vías de tren concéntricas. Un electrón solo puede caer a la
órbita inmediatamente inferior si se desprende de un cuanto de energía
electromagnética (un fotón). Del mismo modo, solo podría saltar a la siguiente órbita
absorbiendo un fotón. La estabilidad de los átomos la explicó más tarde de un modo
más completo un joven genio alemán llamado Wolfgang Pauli, quien desveló que cada
órbita electrónica solo podría alojar una cantidad concreta de electrones. De ahí que los
electrones solo puedan saltar a una órbita inferior si queda espacio para ellos. Más
adelante veremos que los electrones no se pueden concebir como pequeñas partículas
que se mueven en círculo alrededor del núcleo, sino como ondas en propagación,
donde cada «onda de electrón» envuelve todo el núcleo.
El modelo de Bohr del átomo de hidrógeno consistía en un electrón en una órbita fija alrededor del núcleo atómico.
Si el electrón absorbiera un fotón de la frecuencia adecuada (diagrama central) cobraría suficiente energía para saltar
a una órbita superior (más exterior). Entonces se dice que el átomo se encuentra en un estado excitado. Esta situación
suele ser inestable, y el átomo no tarda en dejar de estar excitado (diagrama inferior). El electrón escupe un fotón con
una energía idéntica a la del primero y, al hacerlo, pierde energía y regresa a su «estado fundamental».
hidrógeno de Bohr puso fin a la primera fase de la revolución cuántica, conocida hoy como
la vieja teoría cuántica.
La llegada de un príncipe francés
Ahora daremos un salto hacia delante, hasta comienzos de la década de 1920 para
encontrarnos con un joven príncipe francés llamado Louis de Broglie , quien preparaba por
15
entonces su tesis doctoral. De acuerdo, no era exactamente un príncipe (puesto que no era
el primogénito), pero sí era un noble procedente de una familia aristócrata, y sus ancestros
habían servido a los reyes de Francia que se remontaban hasta aquel célebre Luis (Luis XIV).
De Broglie presentó su tesis en 1924, en la que hacía una atrevida propuesta: si la luz,
que nos resulta más fácil considerar como onda, puede comportarse a veces, de
acuerdo con Planck y con Einstein, como una corriente de partículas, sería todo un
detalle y un rasgo de simetría en la naturaleza que las partículas en movimiento también
pudieran comportarse a veces como ondas.
Esto tal vez suene un tanto extraño de entrada, pero pensémoslo del siguiente modo. En
la década de 1920 los físicos estaban muy habituados a la idea de Einstein de que la materia
y la energía fueran intercambiables mediante su ecuación E = mc . De acuerdo con ella, la
2
materia se puede considerar algo así como energía congelada, y ambas se pueden
transformar la una en la otra. Por tanto, como la luz, o más bien la radiación
electromagnética, que no es más que una forma de energía, puede tener una doble
personalidad, ¿por qué no iba a ocurrir lo mismo con la materia?
De Broglie planteó que todo objeto material podía asociarse con una «onda de
materia» cuya longitud de onda dependería de su masa. Cuanto más masiva fuera una
partícula, más corta sería la longitud de la onda asociada a ella. Nótese que uso el
término «asociada» aquí, lo que implica que De Broglie aún consideraba los objetos
materiales como «paquetes» sólidos y que la onda es algo así como un añadido.
Mientras que en el caso de la luz ya hemos visto que se trata de la misma «cosa» que a
veces se comporta como una onda, y otras, como un conjunto de partículas.
De Broglie se inspiró en el trabajo del físico estadounidense Arthur Compton, quien
había aportado indicios más sólidos de que la naturaleza de la luz consiste en un
conjunto de partículas. En 1923, un año antes de la propuesta de De Broglie, Compton
había realizado un experimento que confirmó de manera impresionante la existencia de
los fotones. Compton había lanzado rayos X (básicamente luz de alta frecuencia) contra
un bloque de grafito, y descubrió que los rayos X rebotaban con una frecuencia algo
más baja que la que portaban en su origen. No era eso lo que predecía la vieja teoría
ondulatoria, según la cual la frecuencia de la luz debía mantenerse invariable. Pero si los
rayos X fueran fotones de alta energía que chocan contra electrones individuales en el
grafito, entonces cierta fracción de su energía se perdería y daría como resultado, de
acuerdo con la fórmula de Planck, una caída de la frecuencia.
De Broglie no pudo evitar pensar que ahí había una simetría evidente. ¿Por qué los
fotones tienen características tanto de ondas como de partículas, y los electrones no? Al
fin y al cabo, el «esparcimiento de Compton», como se le conoce al proceso en la
actualidad, induce a pensar en bolas sólidas en colisión. Así que si un fotón se puede
considerar en el mismo plano que un electrón, entonces tal vez también sea cierto lo
contrario. La confirmación experimental de la naturaleza ondulatoria de los electrones
tendría que esperar hasta 1927, cuando se demostró por primera vez que haces de
electrones daban lugar a fenómenos de interferencia (la primera confirmación
experimental del truco de las dos rendijas con partículas de materia).
Y mientras tanto, ¿qué tenía De Broglie en mente? Suele reinar una gran confusión en
torno a la cuestión de la naturaleza ondulatoria de la materia. De hecho, De Broglie no
planteó que un electrón sea de por sí una onda en propagación (aunque hubo otros
que lo sugirieron muy poco después), sino que era una partícula sólida localizada
transportada por lo que se conoce como un paquete de ondas, que es un fragmento
aislado de una onda, como un pulso, que se puede construir mediante la superposición
de muchas ondas distintas de diferentes longitudes de onda y amplitudes, de tal modo
que se interfieren y cancelan entre sí en todos sitios salvo en la minúscula región
localizada donde resulta estar la partícula.
De Broglie desarrolló una fórmula que relacionaba la cantidad de movimiento de la
partícula, ya fuera un fotón o un electrón, con la longitud de su onda asociada: cuanta
más cantidad de movimiento (o «brío») tenga, más corta será su longitud de onda. Por
eso nunca conseguimos detectar comportamientos ondulatorios asociados a los objetos
cotidianos, como las personas, los balones de fútbol, o incluso los granos de arena, ya
que esos objetos, que son muchos órdenes de magnitud más masivos que los
electrones, tienen longitudes de onda muchos órdenes de magnitud más cortas que las
longitudes de la escala subatómica, y por tanto no pueden detectarse. Pero ¿pueden
medirse las ondas de materia asociadas a los electrones, incluso a átomos completos? O
mejor aún, si existen ¿sirven para explicar el truco de las dos rendijas? ¿Será la onda
asociada al átomo lo que atraviesa ambas rendijas, mientras que el átomo en sí solo
atraviesa una de ellas?
Por aquella época, el revolucionario planteamiento de Louis de Broglie fue
demasiado impactante para que lo aceptaran sus contemporáneos. De hecho,
estuvieron a punto de no concederle el doctorado, y fue la intervención de Einstein en el
último minuto (quien tuvo acceso a una versión preliminar de la tesis) lo que convenció
al tribunal.
Poco después de que su obra se conociera, los acontecimientos empezaron a
precipitarse. Físicos de toda Europa comenzaron a encajar las distintas piezas de una
nueva estructura matemática y a debatir sobre el significado de todo ello. No solo había
piezas que encajaban en su sitio con rapidez, sino que también se lograron hallazgos y
conocimientos simultáneos e independientes por parte de distintas personas cuya
conexión no se estableció hasta más adelante.
Así que concluyo aquí este capítulo histórico para centrarme a continuación en lo
que nos dice la mecánica cuántica sobre el comportamiento de la naturaleza, más que
en la manera en que los físicos lograron sus descubrimientos. La mecánica cuántica se
puede explicar de diversas formas, y seguir de qué modo desarrollaron sus ideas los
padres fundadores de la materia probablemente no sea la mejor de ellas. Por ejemplo,
se han popularizado muchas versiones de la mecánica cuántica que están obsoletas
porque contemplan temas como la «dualidad onda-corpúsculo» como uno de los
conceptos fundamentales sobre los que se asienta toda la teoría. Esto puede dar lugar a
cierto embrollo y confusión, y será difícil evitarlo, pero con cuidado lo intentaré.
3. De termo que significa «calor», y dinámica, que significa «movimiento». Este campo de la ciencia guarda relación
con la manera en que el calor y otras formas de energía se transfieren de un cuerpo a otro.
4. En esencia, el término macroscópico se refiere a todo lo que vemos a nuestro alrededor lo bastante grande como
para que se comporte de una manera razonable «no cuántica», mientras que el término microscópico alude sin más a
aquello que tiene un tamaño (a un nivel atómico o inferior) lo bastante pequeño como para que las leyes cuánticas
determinen su comportamiento.
5. El estudio de cómo deducir propiedades macroscópicas de la materia a partir de la física microscópica.
6. Dos buenas fuentes para indagar en esta controversia son las obras La teoría del cuerpo negro y la discontinuidad
cuántica, 1894-1912, del filósofo Thomas Kuhn (Madrid, Alianza, 1980; trad. castellana de Miguel Paredes Larrucea), y
Generaciones cuánticas: una historia de la física en el siglo XX, del historiador de la ciencia Helge Kragh (Madrid, Akal,
2007; trad. castellana de D. Duque Campayo, A. Granados Sanandrés y M. Sangüesa Lazcano).
7. A Planck le costó más adelante aceptar las predicciones de la teoría cuántica, y dedicó muchos años a intentar
encontrar una manera de sortear sus conclusiones.
8. A veces la gráfica la representa frente a la frecuencia en lugar de hacerlo frente a la longitud de onda. Pero como
esas dos propiedades de las ondas son equivalentes (las longitudes de onda cortas implican alta frecuencia, y las
longitudes de onda largas implican baja frecuencia), ambos tipos de gráficas aportan la misma información.
9. La expresión «catástrofe ultravioleta» no se usó hasta 1911.
10. Es algo parecido a la diferencia entre las notas musicales emitidas con una guitarra y con un violín. Las guitarras
tienen trastes (puentes metálicos) en el mástil. Cuando el dedo pisa una cuerda contra el mástil justo debajo de un
traste, suena una nota que resulta de la vibración de la cuerda entre el traste y el puente situado en el extremo
opuesto. Las diferentes longitudes que adoptan las cuerdas en vibración al presionarlas contra dos trastes sucesivos
causan una diferencia sonora de medio tono. De modo que, al igual que el piano, la guitarra no puede (sin cierta
destreza) emitir un sonido intermedio entre dos semitonos. El violín, en cambio, no tiene trastes, así que sus cuerdas
pueden tener la frecuencia, o tono, que queramos dependiendo del punto exacto en que coloquemos los dedos
sobre el mástil.
11. Podemos imaginarlos como concentraciones de energía localizadas en el espacio. Sin embargo, pasó algún
tiempo hasta que se aceptó de verdad la idea de que la luz consiste en «partículas».
12. Por supuesto, en el Capítulo 1 califiqué el experimento de «truco» solo para añadir un toque de teatralidad.
13. Y fundador de la física cuántica; perdón, a estas alturas se puede hacer hasta un juego de palabras, ¿o es más bien
una aliteración?
14. Habrá que esperar hasta el Capítulo 7 para ver una representación mejor de los átomos. Pero, por supuesto, «el
aspecto» de los átomos no es lo que son en realidad, tal como también veremos más adelante.
15. Pronunciado «debrói».
3. La probabilidad y el azar
¿Cree usted en el destino?
Esta pregunta tiene un significado bastante claro para la mayoría de nosotros: que ciertos
sucesos tenían que ser así, o que dos personas estaban destinadas a encontrarse. Pero
¿podría encerrar algo de verdad esa idea?
Tal vez le guste a usted leer el horóscopo con la idea inocente y bastante inverosímil de
que la posición de las estrellas y los planetas influye de algún modo en cómo nos irá en
la semana que tenemos por delante. Por supuesto, aunque muchos no nos tomamos en
serio los horóscopos, la idea de que el futuro sea predecible de alguna manera es muy
interesante. De hecho, hasta el advenimiento de la revolución cuántica, los científicos
estaban convencidos de que era posible, en principio, lo que insinuaba que, aunque no
pudiéramos predecirlos, todos los acontecimientos futuros estaban predeterminados y
destinados a suceder de todas formas.
Isaac Newton creía que todas y cada una de las partículas del universo debían
obedecer unas leyes simples del movimiento sometidas a fuerzas bien definidas. Esta
visión mecanicista, que aún comparten científicos y filósofos de manera generalizada
más de dos siglos después, defiende que da igual lo complejo que sea el
funcionamiento de la naturaleza, porque todo debería poder reducirse en última
instancia a interacciones entre los elementos esenciales que conforman la materia. Un
fenómeno natural, como un mar tempestuoso, o la meteorología, tal vez parezca
aleatorio e impredecible, pero esa impresión no es más que una consecuencia de su
complejidad y de la inmensa cantidad de átomos que intervienen.
Sin embargo, si pudiéramos en principio conocer con exactitud la posición y el
estado del movimiento de cada partícula en un sistema determinado, sin importar
cuántas participan en él, deberíamos entonces poder predecir, mediante las leyes de
Newton, la interacción y el movimiento de dichas partículas y, por tanto, el estado en el
que se encontrará el sistema en cada instante preciso del futuro. En otras palabras, el
conocimiento exacto del presente debería permitirnos predecir el futuro. Esto dio lugar
a la idea newtoniana de que el universo es como un «mecanismo de relojería», es decir,
que, en principio, no encierra ninguna sorpresa, puesto que todo lo que pueda ocurrir
alguna vez no es más que el resultado de interacciones fundamentales entre sus partes.
Esto se conoce como determinismo, porque el futuro se puede determinar en su
totalidad si se tiene un conocimiento completo del presente.
Por supuesto, en la práctica esa determinación resulta imposible, salvo con los
sistemas más simples. Sabemos muy bien que los meteorólogos no son capaces de
predecir qué tiempo hará mañana con una seguridad plena. Ni siquiera podemos saber
si al lanzar una moneda al aire saldrá «cara» o «cruz», o dónde se detendrá la bola de
una ruleta. Otro campo de estudio de la física actual es la teoría del caos, la cual
establece que habría que conocer las condiciones iniciales de un sistema con una
precisión infinita para poder determinar su evolución futura. La teoría del caos complica
las cuestiones prácticas que rodean al determinismo.
Y en efecto, ejemplos mecanicistas simples, como los recién mencionados, se vuelven
insignificantes cuando nos planteamos cómo podríamos tratar la inmensa complejidad
del cerebro humano para comprender la noción del libre albedrío. Pero el principio
siempre es el mismo: como los humanos también estamos hechos de átomos, las leyes
de Newton deberían valer también para nuestro cerebro. Así que, siempre que
adoptamos lo que percibimos como una decisión libre sobre algo, en realidad se trata
de procesos mecánicos e interacciones atómicas dentro de la materia gris sometidos a
leyes deterministas, al igual que todo lo demás.
Aunque parezca una concepción bastante deprimente, no debería incomodarnos
demasiado porque la idea de tener suficiente información para predecir el futuro es
demasiado increíble para considerarla. Pero la cuestión que nos ocupa es hipotética: si
tuviéramos una computadora lo bastante potente y con una memoria lo
suficientemente grande como para guardar la información sobre la posición y la
velocidad de cada partícula del universo, entonces se supone que podríamos calcular
cómo evolucionará el cosmos.
Uno de los cambios más profundos que trajo la revolución cuántica para el
pensamiento humano fue la noción de indeterminismo, es decir, la desaparición del
determinismo, junto con el concepto del universo como mecanismo de relojería. Así que
lamento comunicarle que el «destino» como idea científica se demostró falso hace tres
cuartos de siglo.
El resultado de una partida de billar
Pensemos en cómo haría una computadora potente para desarrollar un modelo del
resultado de una tirada de billar al golpear la bola blanca contra las bolas del conjunto.
Cada bola de la mesa saldrá lanzada en alguna dirección y la mayoría de ellas recibirá
más de un impacto, puesto que muchas rebotarán en la banda. Por supuesto, el
ordenador necesitaría conocer con precisión la intensidad del primer empujón que
recibirá la bola blanca y el ángulo con el que chocará contra la primera bola del
conjunto. Pero ¿bastará con eso? Cuando todas las bolas se hayan detenido al fin
(puede que algunas incluso hayan entrado en las troneras), ¿cuánto se habrá acercado a
la realidad la predicción de la distribución emitida por la computadora? Aunque el
resultado es perfectamente predecible cuando en la colisión se ven implicadas tan solo
dos bolas, es imposible tener en cuenta cómo acabará la compleja distribución múltiple
de muchas bolas. Con que una sola bola se desplace con un ángulo ligeramente
distinto, bastará para que otra bola, que en un principio la habría evitado, rebote contra
ella y ambas trayectorias sufran una desviación extrema. De pronto, el resultado final
cambia por completo.
Entonces, parece que no solo hay que introducir en la computadora las condiciones
iniciales de la bola blanca, sino también la disposición precisa de todas las demás bolas
sobre la mesa: si se están tocando o no, qué distancias exactas median entre ellas y las
bandas, etcétera. Pero ni siquiera eso bastará. Una mota diminuta de polvo en alguna
de las bolas será suficiente para alterar su trayectoria en una fracción de milímetro o
para frenarla en una cantidad minúscula. Una vez más, esto dará lugar de manera
inevitable a un efecto en cadena que alterará el resultado final. Esto se conoce como
«efecto mariposa» en teoría del caos, y alude a que el batir de alas de una mariposa que
provoca un cambio insignificante en la presión del aire puede inducir de manera
gradual un cambio enorme en lo que habría sucedido si la mariposa se hubiera
quedado quieta, como por ejemplo, provocar algo después una tormenta en el otro
lado del planeta que de otro modo no se habría producido.
Por tanto, necesitaríamos darle al ordenador información precisa sobre el estado
exacto de la superficie de la mesa. Puede que esté más desgastada por unos lugares
que por otros. Incluso la temperatura y la humedad del aire ejercerán un efecto
minúsculo.
Aun así, podemos pensar que no es tarea imposible. En principio se puede hacer. Por
supuesto, si no hay fricción entre las bolas y la mesa, estas seguirán chocando y
dispersándose durante mucho más tiempo, y por tanto habría que conocer las posiciones
iniciales de las bolas con una precisión aún mayor para determinar dónde acabarán cuando
al fin se detengan .
16
«¿Y qué?», pensará usted. Al fin y al cabo, como nunca seremos capaces de conocerlo
todo sobre un sistema particular, estamos obligados a apañarnos asignando
probabilidades a los distintos resultados. Cuanto más sepamos, más seguros estaremos
de lo que sucederá.
A veces es algo más que la mera ignorancia lo que nos impide emitir predicciones
fiables, pero también la incapacidad de controlar las condiciones de partida. Cuando
lanzamos una moneda al aire simplemente es demasiado pedir que repitamos la misma
acción para lograr el mismo resultado. Si lanzo una moneda al aire y sale «cara», será
demasiado difícil volver a lanzarla de una manera idéntica, de forma que dé la misma
cantidad de giros y vuelva a salir «cara».
Esto no es más que otra manera de decir que no disponemos de información
completa sobre el sistema. En el ejemplo de la mesa de billar, y teniendo un
conocimiento completo, jamás podría repetir la misma tirada golpeando la bola blanca
exactamente igual, para conseguir un resultado final idéntico, de tal modo que todas las
bolas acaben en la mismísima posición que la primera vez. Sin embargo, esa capacidad
de repetición constituye la esencia del mundo de Newton. Este comportamiento
determinista es característico de lo que se conoce como mecánica newtoniana, o
mecánica clásica. En la mecánica cuántica, las cosas son muy diferentes.
Imprevisibilidad cuántica
Descendiendo al terreno cuántico, nos encontramos ante una clase muy grave de
imprevisibilidad que no podemos achacar a nuestro desconocimiento de los detalles del
sistema que estamos estudiando, ni a una incapacidad práctica para establecer las
condiciones de partida, sino que resulta ser un rasgo fundamental de la propia
naturaleza a este nivel. No hay manera de predecir con seguridad qué sucederá a
continuación en el mundo cuántico, no porque nuestras teorías no sean lo bastante
buenas o porque carezcamos de suficiente información, sino porque la naturaleza en sí
opera de una manera muy «indeterminable».
A menudo resulta que lo único que podemos hacer en el reino de los átomos es
calcular probabilidades para distintos resultados. Sin embargo, esas probabilidades no
se asignan de la misma manera en que podríamos asignar probabilidades al
lanzamiento de una moneda o de un dado al aire. Las probabilidades cuánticas están
integradas en la teoría en sí, y nunca, ni tan siquiera en principio, podemos hacer nada
mejor.
La desintegración radiactiva de los núcleos atómicos ofrece un buen ejemplo de ello;
es decir, situaciones de partida idénticas conducen a resultados distintos. Imaginemos
un millón de núcleos atómicos radiactivos idénticos que son inestables y que, tarde o
temprano, se habrán de «desintegrar» espontáneamente con la emisión de una
partícula que les haga adoptar una forma más estable. Aunque la mecánica cuántica
permite calcular eso que llamamos vida media (el tiempo tras el cual se habrá
desintegrado la mitad de los núcleos), no puede decirnos cuándo se desintegrará un
núcleo concreto. La vida media solo tiene significado cuando se aplica a una cantidad
estadísticamente elevada de núcleos idénticos. Podemos calcular la probabilidad de que
un núcleo se haya desintegrado después de un tiempo específico, pero el hecho de que
no podamos hacer nada más que eso no se debe a nuestra ignorancia.
Una manera de salir del dilema consistiría sencillamente en decir que no todo se
reduce a la mecánica cuántica, y que la imprevisibilidad de la desintegración radiactiva
se debe en realidad a nuestra ignorancia. Nos falta un conocimiento más profundo de la
naturaleza que nos permita predecir con exactitud cuándo se de- sintegrará un núcleo
dado, del mismo modo que un conocimiento completo de todas las fuerzas implicadas
en el lanzamiento de una moneda nos permitiría predecir su resultado. Si esto fuera
cierto, necesitaríamos ir más allá de la mecánica cuántica para encontrar la respuesta. En
el Capítulo 6 veremos que Albert Einstein era de esta opinión; no aceptaba lo que
parecía insinuar la mecánica cuántica: que nuestro mundo es, a su nivel más esencial,
intrínsecamente impredecible. De hecho, una de las citas más conocidas de Einstein es
esa en la que afirmaba no creer que «Dios juega a los dados», en el sentido de que no
podía aceptar que la naturaleza sea probabilística. Sin embargo, Einstein estaba
equivocado.
Veamos ahora más de cerca el origen de la imprevisibilidad y del indeterminismo
cuánticos.
Chupinazos
Gracias sobre todo a Isaac Newton entendemos y predecimos cómo se mueven e
interaccionan los objetos cotidianos influidos por distintas fuerzas. Recuerdo un artículo
aparecido en una revista de física unos años atrás donde se analizaba desde un punto
de vista matemático la trayectoria curva de un balón de fútbol. El futbolista brasileño
Roberto Carlos, quien aparecía en la portada de aquel número de la revista, es famoso
por sus espectaculares tiros directos a puerta con los que consigue que el balón bordee
la barrera defensiva de un modo mucho más impresionante que la mayoría de los
futbolistas. La clave (no es que piense que Roberto Carlos ha estudiado alguna vez las
ecuaciones en detalle) estaba en la precisión con que sus chupinazos hacen girar el
balón y en la interacción de este con el aire mientras permanece suspendido. De manera
análoga, a lo largo de los años se ha dedicado mucho ingenio al diseño de las bolas de
golf para controlar sus trayectorias al golpearlas de una forma determinada. Por
supuesto, existen numerosos ejemplos más. La cuestión es que en todos los casos en los
que se trata el movimiento de los objetos macroscópicos, las ecuaciones del
movimiento se pueden resolver si se introducen los datos necesarios. Si conocemos la
masa y la forma de un cuerpo, la naturaleza exacta de las fuerzas que actúan sobre él, y
la posición y velocidad del objeto en el momento presente, entonces la resolución de
las ecuaciones del movimiento permitirá calcular su posición y velocidad en cualquier
instante del futuro. Esta era la clave de la discusión anterior sobre el determinismo
newtoniano.
Las ecuaciones del movimiento de Newton son en realidad tan precisas y fiables que
permiten predecir el movimiento orbital de los planetas y de sus satélites hasta un
futuro lejano. La NASA usó esas ecuaciones para trazar la trayectoria de los cohetes que
envió a la Luna y trajo de vuelta. En todos los ejemplos recién mencionados, si se
especifica el estado actual de un sistema físico y las fuerzas que actúan sobre él, en
principio, se pueden determinar con precisión todos los estados futuros del sistema.
Entonces, ¿por qué no aplicamos la misma ecuación para describir la manera en que
se mueve una partícula microscópica, como un electrón? Si el electrón pulula ahora
mismo por aquí y le aplicamos cierta fuerza, por ejemplo, sometiéndolo a un campo
eléctrico, entonces deberíamos ser capaces de precisar con exactitud en qué lugares se
encontrará dentro de cinco segundos.
Pues no es así. Resulta que las ecuaciones que rigen el comportamiento de los
objetos cotidianos, desde granos de arena hasta balones de fútbol y planetas, no tienen
ninguna utilidad en el mundo cuántico.
Anatomía de una ecuación
Cuando hablamos de «resolver» una ecuación para una partícula clásica (por ejemplo, cualquiera que no esté sujeta al
comportamiento cuántico) nos referimos a extraer del álgebra un valor para la posición y la velocidad exactas de la
partícula en algún instante determinado del futuro. Pero la ecuación de Schrödinger es diferente. Su solución, digamos
para el movimiento de un electrón dentro de un átomo, no se limita a una serie de números que describen dónde estará
el electrón en cualquier momento dado (que es lo que se obtendría al aplicar las ecuaciones de Newton para seguir el
movimiento de la Luna alrededor de la Tierra).
La ecuación de Schrödinger es mucho más rica. Se trata de una cantidad matemática que se conoce como
«función de onda», y que se simboliza mediante la letra griega Y (psi). Si busca usted el origen de toda la rareza
cuántica, lo ha encontrado: todo está encerrado en la función de onda.
En el álgebra elemental siempre hay una cantidad desconocida llamada «x» (imagine que x es la posición de la
partícula: «x señala el punto» que necesitamos resolver). En el álgebra más avanzada, el valor de x puede depender
del valor de una segunda incógnita, por ejemplo, t, que suele representar el «tiempo». Así, por ejemplo, si t = 1
entonces podría ser que x = 4,5, y si t = 2, entonces x = 7,3, y así sucesivamente. Por supuesto, son valores que acabo
de inventar, pero eso es lo que sucede cuando resolvemos la ecuación del movimiento para una partícula clásica. Solo
que, como la partícula existirá en un espacio tridimensional, harían falta tres números para definir su posición: x, y, z.
La cuestión es que x, y, z no son más que símbolos que representan ciertos números; no son «cosas» reales.
La función de onda en la ecuación de Schrödinger se parece un poco a esto. Es la cantidad desconocida que se
puede resolver en cada instante temporal para describir el estado de una partícula cuántica. Con estado me refiero
aquí a todo lo que se puede saber acerca de una partícula.
En física siempre se usan símbolos matemáticos para describir alguna cantidad o propiedad del sistema que se
está estudiando. Usamos la letra «V» para representar el voltaje, «P» para la presión, etcétera. Lo que cambia en la
mecánica cuántica es que, a diferencia de la presión y del voltaje, no existe nada parecido a una cinta métrica con una
graduación que permita medir la función de onda. Aunque el concepto de presión es un tanto abstracto en tanto que
es una cantidad que describe el movimiento colectivo de las moléculas de un gas, al menos se puede percibir
físicamente. No ocurre así con la función de onda.
Schrödinger merece al menos una ojeada rápida (véase el recuadro de la página 87) aunque
solo sea por motivos estéticos .
17
El principio de incertidumbre de Heisenberg dice que no se puede conocer al mismo tiempo la posición exacta y la
cantidad de movimiento de una partícula cuántica. Esta característica de la naturaleza de «o un aspecto o el otro, pero
no ambos a la vez» condujo a Niels Bohr a su principio de complementariedad, el cual establece que ambos aspectos
aparentemente en conflicto son necesarios para la descripción completa de una partícula cuántica. El contorno de
este jarrón también se puede ver como dos perfiles humanos enfrentados. Sin embargo, es difícil ver ambos aspectos
de la imagen al mismo tiempo; si vemos dos caras, no hay jarrón; si es un jarrón, no hay ninguna cara.
localizada, y por tanto una incertidumbre pequeña en relación con su posición, siempre
tendrá una gran incertidumbre en cuanto a su cantidad de movimiento (o velocidad). De
manera análoga, un electrón cuya velocidad sea bien conocida (mediante una función de
onda de cantidad de movimiento localizada) tendrá necesariamente una función de onda
de posición extendida que dará lugar a una gran incertidumbre en cuanto a sus paraderos.
Esta es la esencia del principio de incertidumbre de Heisenberg. En su forma
matemática dice que nunca se puede conocer al mismo tiempo la ubicación y la
velocidad precisas de un electrón (o de cualquier otra entidad cuántica). Esto no es
resultado, como se lee en muchos libros, de un experimento en el que se propina al
electrón un empujón aleatorio inevitable durante el acto de localizar su posición, y que,
por tanto, altera su velocidad y dirección, sino que es consecuencia de la naturaleza de
las funciones de onda que describen la posible ubicación y el posible estado de
movimiento del electrón incluso antes de que miremos.
El hecho de si el electrón tiene o no en realidad una posición y una velocidad
definidas en un instante determinado antes de que lo estemos mirando se sigue
debatiendo en la actualidad en la comunidad física. Lo cierto del asunto es que la
relación de incertidumbre es una consecuencia de la relación existente entre los dos
tipos de funciones de onda, y como las funciones de onda nos dicen todo lo que se
puede llegar a saber sobre el electrón, eso quiere decir que no podemos decir nada más
sobre él. El principio de incertidumbre impone un límite sobre lo que se puede predecir
acerca de un estado cuántico, y en consecuencia, sobre lo que podemos saber sobre él
cuando estamos mirando.
Halos nucleares
En la física existen numerosos fenómenos que no deberían ser posibles de acuerdo con la mecánica clásica, y que nos
obligan a apelar al principio de incertidumbre de Heisenberg para explicarlos. Uno de ellos se encuentra en mi campo de
investigación de la física nuclear. Tal como explicaré en el Capítulo 7, el núcleo atómico es uno de los sistemas físicos
más complejos. Aún estamos desvelando sus secretos casi un siglo después de su descubrimiento. También es un lugar
donde la mecánica cuántica funciona de un modo supremo.
Más adelante observaremos más de cerca el interior de los núcleos atómicos para ver de qué manera se mantienen
estrechamente unidas las partículas que los componen, protones y neutrones, mediante la fuerza nuclear fuerte. Esta
fuerza actúa como pegamento dentro de un rango muy reducido, de modo que sus efectos desaparecen por
completo fuera de la superficie del núcleo.
Los núcleos de los elementos más ligeros suelen tener casi la misma cantidad de protones con carga positiva que
de neutrones eléctricamente neutros. Los núcleos que portan más cantidad, sea de protones o de neutrones, que el
promedio para su masa, tienden a ser inestables y a transformarse con rapidez en una forma más estable mediante la
conversión de algunos de los protones o neutrones sobrantes en la partícula que está en desventaja numérica, para
así recuperar el equilibrio.
A mediados de la década de 1980, un grupo de investigación japonés realizó experimentos en el laboratorio
Lawrence-Berkeley de California que llevaron al descubrimiento de una nueva propiedad de los núcleos del elemento
litio muy ricos en neutrones. Las formas estables del litio cuentan con núcleos atómicos formados por tres o cuatro
neutrones unidos a tres protones. El experimento de Berkeley reveló que el núcleo de litio-11 (tres protones más
ocho neutrones) parecía tener un tamaño mucho mayor del esperado; mucho más grande que el que cabría esperar
por los neutrones adicionales. Al lanzar un haz de esos núcleos en el interior de un acelerador y hacerlos chocar
contra una laminilla de carbono, midieron cuántos lograban llegar al otro lado. Cuanto más grandes fueran los
núcleos de litio-11, más probabilidad habría de que chocaran con los núcleos de carbono y se fragmentaran. Aunque
se esperaba que bastantes de ellos pasaran intactos a través de la lámina, los detectores situados al otro lado
captaron muchos menos. Como analogía un tanto burda, sería como pasar arena por un tamiz. Cuanto más grandes
sean los granos, menos consiguen llegar al otro lado.
La descripción cuántica de un átomo es la de una nube de probabilidad de electrones alrededor del minúsculo
núcleo. Sin embargo, esto es lo que podemos decir «antes de mirar». Si pudiéramos obtener una instantánea del
átomo (derecha superior) veríamos electrones individuales en posiciones específicas. El halo de neutrones también se
parece a esto. No es más que una nube de probabilidad de neutrones (izquierda inferior). El hecho de que se extienda
más allá del resto del núcleo significa que, si hubiera alguna manera de hacerle una fotografía al núcleo (derecha
inferior), lo más probable es que nos encontráramos con los neutrones del «halo» a cierta distancia de todos los
demás neutrones y protones que residen mucho más apretados en el corazón del núcleo.
Los teóricos no tardaron en darse cuenta de que estaban tratando con núcleos diferentes a cualquier otro
observado en la naturaleza. Los dos neutrones más al exterior del litio-11 mantienen una unión muy débil con el resto
del núcleo, el llamado «corazón» o core, y pasan la mayor parte del tiempo bastante alejados del mismo. De hecho,
permanecen suspendidos bastante más allá del ámbito de acción de la fuerza nuclear que los mantiene en su lugar,
formando lo que se ha dado en llamar un «halo de neutrones». Por supuesto, el volumen del halo sigue siendo
muchísimo más pequeño que el que ocupan los electrones de un átomo de litio.
El halo de neutrones es un fenómeno puramente cuántico y no debería existir según la mecánica clásica . Sin 20
embargo, he usado el mismo lenguaje para describir esos neutrones de halo que el que empleó Bohr en su vieja
teoría cuántica de electrones en órbita. Ahora sabemos que esto no es correcto en realidad. Así que permítame ser un
poco más cuidadoso.
El principio de incertidumbre se puede usar para explicar de una manera menos directa el gran tamaño de los
núcleos con halo. Otro tipo de experimento empleado para estudiarlos consiste en descomponerlos a propósito
mediante una reacción nuclear y medir de qué manera se separan las piezas. Se ha descubierto que los fragmentos
escindidos permanecían bastante cercanos entre sí al salir despedidos y que se iban separando muy despacio.
En mecánica cuántica decimos que la cantidad de movimiento interna de los fragmentos tiene una dispersión muy
pequeña, cercana a cero, es decir, que la función de onda de cantidad de movimiento está muy localizada. Como las
piezas (es decir, los dos neutrones y el corazón del núcleo) se mantienen ligadas de un modo tan débil, no hace falta
mucho para descomponer esos núcleos. De modo que la función de onda de la cantidad de movimiento que describe
su movimiento relativo después de descomponer el núcleo no tiene una forma muy distinta de la que describiría el
núcleo si estuviera intacto.
El principio de incertidumbre nos dice que esta función de onda de la cantidad de movimiento se corresponde con
una función de onda de posición muy extendida y, como consecuencia, con una distribución de probabilidad
extendida. Por tanto, el halo de neutrones no consiste en realidad en dos neutrones «esparcidos», sino que es más
bien un gran volumen de espacio alrededor del corazón donde los neutrones tienen gran probabilidad de ser
localizados. Es una nube de probabilidad de neutrones.
estribaba en que no servía para explicar cómo interaccionan dos electrones dentro de los átomos usando la idea de
las órbitas de Bohr. Sus ecuaciones funcionaban bien para el átomo de hidrógeno, que contenía un solo electrón,
pero no conseguían describir la estructura atómica del siguiente elemento, el helio, que consta de dos electrones.
Uno de aquellos chavales jóvenes, Wolfgang Pauli, describió la desesperada situación en una carta que envió a un
colega en mayo de 1925:
En este momento, la física vuelve a estar muy embrollada; en cualquier caso, es demasiado complicada para
mí, y desearía ser un cómico de cine o algo así y no haber oído hablar jamás sobre física.
El primer gran logro llegó de Werner Heisenberg, un joven alemán que a pesar de su brillantez casi suspendió ante
el tribunal de su tesis doctoral en 1923. Mientras se recuperaba de un ataque de alergia al polen en la isla alemana de
Heligoland durante el verano de 1925, logró un gran avance en la formulación de una teoría matemática nueva. Al
mismo tiempo, Max Born y el joven ayudante que tenía en Gotinga, Pascual Jordan, presentaron un artículo en el que
proponían que «las verdaderas leyes de la naturaleza deberían implicar tan solo cantidades que se puedan observar».
En cuanto Heisenberg regresó a Gotinga y oyó hablar de aquel trabajo, lo adoptó en su nueva teoría y argumentó
que la vieja teoría Bohr-Sommerfeld no podía ser correcta, puesto que en el fondo se basaba en conceptos que jamás
se podrían observar, es decir, las órbitas de los electrones. Su teoría defendía que solo tienen relevancia física las
cantidades que se pueden medir de forma directa, como las energías de los electrones.
En septiembre de 1925, Heisenberg, Born y Jordan habían desarrollado una nueva teoría de «mecánica» cuántica.
En esencia, su idea se basaba en una serie de relaciones matemáticas bastante extrañas en las que, básicamente, el
producto de dos cantidades, digamos A por B, no era igual que B por A. Esto es absurdo, por supuesto, con números
ordinarios: es evidente que 3 por 4 es igual que 4 por 3. Pero las cantidades de su teoría seguían una regla diferente
para la multiplicación, que ya era bien conocida entre los matemáticos, la que rige las cantidades denominadas
matrices. Esta nueva teoría no tardó en conocerse como mecánica matricial y fue atribuida a Heisenberg, pero en
realidad no deberían subestimarse las aportaciones de Born y de Jordan. El voluminoso artículo de los tres titulado
«On Quantum Mechanics II» se publicó en febrero de 1926.
22
Otros físicos jóvenes, como Pauli y Dirac, ayudaron a resolver muchos de los problemas de la nueva teoría y
realizaron sus propias contribuciones, y fueron galardonados con el Premio Nobel. Heisenberg recibiría el Nobel de
1932.
Al mismo tiempo, en enero de 1926, el austriaco Erwin Schrödinger publicó su primer artículo perfilando una
formulación alternativa. Su teoría atómica partía de la idea de De Broglie sobre las ondas de materia y llegaba a unos
resultados idénticos a los de Heisenberg. Su versión se conoció como mecánica ondulatoria. Sin embargo, a
diferencia de De Broglie, Schrödinger suprimió la idea de que las partículas de materia, como los electrones en el
interior de los átomos, tuvieran ondas asociadas, y defendía que solo las ondas eran reales.
La mecánica ondulatoria de Schrödinger y su ecuación, ahora archiconocida, supusieron un triunfo instantáneo. La
mayoría de los físicos consideraron más sencillo tratar con su planteamiento que con el formalismo matricial de
Heisenberg.
Suele creerse que Dirac fue la primera persona que reveló que las teorías de Schrödinger y de Heisenberg eran
equivalentes (como decir lo mismo en dos idiomas distintos). Pero lo cierto es que fue Pauli el primero en
demostrarlo (en una carta que nunca llegó a publicarse y que no apareció impresa hasta muchos años después de su
fallecimiento).
En la primavera de 1927, Heisenberg publicó su famoso principio de incertidumbre, al que llegó en gran parte
gracias a los debates que mantuvo con Bohr y Pauli. Lo que no se ha reconocido es que el principio de incertidumbre
se basaba de un modo decisivo en la mecánica ondulatoria. Y eso a pesar de que Heisenberg y la mayoría de las
grandes figuras de la época, fueron especialmente críticos con la teoría de Schrödinger.
En la actualidad se puede decir que el enfoque de Schrödinger se enseña a los estudiantes de física, mientras que
quienes ejercen como físicos teóricos suelen usar una combinación de la mecánica matricial y la ondulatoria.
Schrödinger compartió el Premio Nobel de Física de 1933 con Paul Dirac.
Desintegración radiactiva
Ron Johnson, profesor emérito de Física, Universidad de Surrey
Tal vez el logro más espectacular de los muchos conseguidos por la mecánica cuántica sea su explicación del
fenómeno de la radiactividad. El esquema newtoniano de un mundo formado por partículas con posiciones y velocidades
definidas en todo momento arroja una predicción concreta pero tremendamente errada para el tiempo de vida de un
núcleo que experimenta el proceso de desintegración alfa. No importa cuántas veces se combinen los protones y
neutrones del núcleo para dar lugar a una configuración de partícula alfa formada por 2 protones y 2 neutrones, porque,
según Newton, ¡la partícula alfa nunca se emite!
La situación de una partícula alfa en el interior de un núcleo radiactivo se puede comparar con una bola que rueda
por el fondo de un cuenco. Una bola que rodara a la misma velocidad sobre la mesa que hay fuera del cuenco,
tendría la misma energía, pero la mecánica de Newton prohibiría por completo que una bola situada dentro del
cuenco apareciera de repente sobre la mesa que hay fuera de él. Para lograr esta transición habría que proporcionar
momentáneamente una energía adicional a la bola que le permitiera subir por la pared del cuenco hasta caer por el
borde. Sin embargo, eso no sería necesario con una bola del tamaño de una partícula alfa inmersa dentro de un
cuenco del tamaño de un núcleo atómico.
Un núcleo radiactivo típico ronda unos 0,000 000 000 000 015 metros (15 femtómetros) de ancho, y una partícula
alfa es unas 4 veces más pequeña. Son unas dimensiones tan diminutas comparadas con las de la bola y el cuenco
que no es raro que la concepción de Newton no se pueda aplicar aquí. La manera de considerar esa partícula alfa en
mecánica cuántica no consiste en plantearse dónde está y a qué velocidad se mueve. Por supuesto, podemos
formular esas preguntas, y las mediciones adecuadas darán las respuestas. Pero se obtiene una imagen más completa
al preguntarse qué aspecto tiene la función de onda. Para responder eso hay que recurrir a la ecuación de
Schrödinger (véase el cuadro de la página 87), del mismo modo que en el caso de la bola y el cuenco hay que recurrir
a la ecuación de Newton. Cuando se explora una región nueva del universo no nos sorprende que los físicos tengan
que usar herramientas diferentes.
La ecuación de Schrödinger predice que, en el caso de un cuenco de tamaño nuclear, la función de onda de la
partícula alfa puede tener un valor considerable a distancias muy apartadas del núcleo. Esto se debe a que las
funciones de onda tienen propiedades ondulatorias y, por tanto, no están sujetas a las mismas reglas que las
partículas. El valor de la función de onda en una región del espacio revela la probabilidad de encontrar la partícula
alfa en ese lugar. Por tanto, si la ecuación de Schrödinger predice que la función de onda de la partícula alfa tiene un
valor no despreciable a distancias muy alejadas del núcleo, entonces el núcleo tiene una posibilidad de
«desintegrarse». La ecuación de Schrödinger predice que esto solo sucederá si la energía es la adecuada. Según la
ecuación de Einstein E = mc , la energía adecuada para que ocurra se da cuando el núcleo tiene la masa correcta.
2
vacía . Observará las olas que se desplazan hacia fuera por la superficie del agua en forma
24
de ondulaciones simples hasta alcanzar el extremo opuesto de la piscina. Esto difiere mucho
del aspecto del agua cuando la piscina está llena de gente nadando y chapoteando. La
turbulencia de la superficie del agua se debe ahora al efecto combinado de muchas
perturbaciones y se obtiene mediante la suma de todas ellas. Este proceso de suma de
distintas ondas se conoce como superposición. El patrón de interferencia que vimos en el
experimento de la doble rendija con luz es una consecuencia directa de la superposición de
las ondas de luz que salen de las dos rendijas. Lo que queremos saber es si se da un
proceso similar cuando lanzamos átomos a través de las rendijas.
Entonces, ¿qué sucede cuando cada átomo llega a la pantalla que porta las dos
rendijas? Tal vez se propaguen gradualmente en forma de nube esparcida que a
continuación fluye por ambas rendijas a la vez. Pero esto no explica la interferencia. Para
eso necesitamos una estructura ondulatoria. Recuerde que lo único que tenemos a
nuestra disposición (para describir el estado del átomo cuando no lo estamos mirando)
es la función de onda, la cual se calcula resolviendo la ecuación de Schrödinger. Resulta
que esta ecuación tiene la misma propiedad matemática que todas las demás
ecuaciones de onda, en tanto que sus distintas soluciones se pueden sumar entre sí
para dar lugar a otras soluciones nuevas. De igual modo que se puede tener una
superposición de ondas de agua o de luz, también se puede tener una superposición de
funciones de onda.
Superposición de ondas: si se tiran dos piedras a un estanque de forma que caigan próximas entre sí, las ondas se
propagan hasta encontrarse y crean una superposición con una figura muy diferente a la de las dos series de ondas
concéntricas, debido a la interferencia.
Y aquí es donde nos topamos con nuestra siguiente dificultad conceptual. Consideremos
una función de onda que describe un electrón con una energía determinada. Si se frena el
electrón de forma que reduzca la energía inicial a la mitad, entonces, por supuesto,
25
Pero, aguarde un minuto, ¿qué hay del patrón de interferencia en el truco de la doble
rendija? ¡Eso era muy real, y se formaba incluso al lanzar átomos de uno en uno a través
de las rendijas! De hecho, esta idea de la superposición de funciones de onda resulta ser
la forma en que podemos explicarlo.
Explicación del truco de las dos rendijas
Usted ya sabe suficiente mecánica cuántica como para poder seguir lo que sucede en el
experimento de la doble rendija. Quizá no le guste, pero en ese caso, tal como dije con
anterioridad, se trata de una reacción muy natural y, de hecho, revela el desarrollo de
una madurez para asimilar la inevitable naturaleza antiintuitiva de este asunto. No es
necesario que se sienta cómodo con las conclusiones de la mecánica cuántica.
Cada átomo lanzado contra las rendijas se describe mediante una función de onda
que evoluciona con el tiempo. Esta función de onda es probabilística por naturaleza y
solo nos revela la posición probable del átomo. Es importante subrayar aquí que,
aunque no podamos considerar que el minúsculo átomo se ha convertido de repente en
una función de onda extendida, la función de onda representa el único medio que
tenemos para seguir el recorrido del átomo desde el momento en que es lanzado hasta
el momento en que impacta contra un punto específico de la pantalla.
Al toparse con las rendijas, la función de onda (extendida) se escinde en dos, de
forma que cada fragmento atraviesa una de las rendijas. Nótese que lo que estoy
describiendo aquí es la manera en que cambia una entidad matemática, y que
resolviendo la ecuación de Schrödinger puedo decir qué aspecto presenta la función de
onda en un instante determinado. Nunca sé qué está pasando en realidad, ni tan
siquiera estoy seguro de que esté pasando algo en verdad, puesto que tendría que
mirar para comprobarlo, pero en cuanto mirara, alteraría el resultado.
A medida que atraviesa ambas rendijas, la función de onda del átomo pasa a consistir
en la superposición de dos partes, cada una de las cuales tiene la máxima amplitud en
su rendija correspondiente. Ahora bien, si el estado del átomo se describiera mediante
una sola de estas partes de la función de onda, entonces cabría afirmar categóricamente
que atravesó esa rendija. Pero lo cierto es que la superposición de las dos partes
significa que hay la misma probabilidad de que pasara a través de cualquiera de las dos.
Al otro lado de las rendijas, cada fragmento de la función de onda vuelve a
extenderse, y ambas series de ondas se superponen de tal modo que su efecto
combinado al llegar a la pantalla crea el característico patrón de bandas que se ve
cuando hay interferencia entre dos ondas reales. Solo que ahora no estamos ante una
onda real que se precipita contra la pantalla, sino ante una serie de números que arrojan
la probabilidad de que una única partícula llegue a un lugar concreto.
Antes de que la partícula impacte contra la pantalla, la función de onda es lo único
que tenemos para describir la realidad. La función de onda no es el átomo en sí, sino tan
solo la descripción de cómo se comporta cuando no lo miramos. Y nos brinda toda la
información que podríamos esperar conseguir sobre el estado del átomo si miráramos.
Así que, teniendo en cuenta que solo estamos tratando con el aspecto de la función de
onda en cualquier punto, y siguiendo las reglas sobre cómo se usa para predecir la
probabilidad de que el átomo esté ahí y tenga ciertas propiedades, podemos
entregarnos a la tarea con bastante tranquilidad. Casi todos los físicos trabajan de este
modo. Esto se debe a que han perdido la esperanza de ser capaces de calcular qué está
ocurriendo en realidad aplicando conceptos anclados en la mecánica newtoniana.
Izquierda: Cómo pensar en el truco de las dos rendijas con átomos. La función de onda del átomo está localizada en
el espacio en cuanto sale de la pistola, pero se extiende a medida que viaja hacia las rendijas. De hecho, las curvas de
nivel representan la distribución de probabilidad, no la función de onda en sí, que es una cantidad más difícil de
visualizar incluso desde una perspectiva matemática. Las curvas de nivel se interpretan aquí igual que en un mapa del
relieve de un terreno montañoso, donde las curvas interiores indican la probabilidad más alta de encontrar el átomo.
A medida que la función de onda llega a las rendijas, empieza a derramarse por ambas a la vez. Al otro lado, los dos
fragmentos de la función de onda forman una superposición con una distribución de probabilidad de un aspecto muy
diferente (debido a la interferencia entre los dos fragmentos). Cuando la función de onda alcanza la pantalla se da
una distribución tal que el átomo tiene una probabilidad elevada de alcanzar ciertos lugares y ninguna probabilidad
de llegar a otros. Aunque el átomo solo se manifestará en un único lugar, si se hiciera el experimento de manera
estadística con muchos átomos, cada uno de ellos con una distribución de probabilidad similar, los puntos de
impacto formarían el patrón representado. Es importante señalar que esta figura tan solo representa la evolución a lo
largo del tiempo de una cantidad matemática, y no el átomo físico. La mayoría de los físicos insisten en que es
bastante erróneo pensar que la función de onda y el átomo se desplazan como entidades físicas independientes. De
ahí que aún nos hallemos ante el problema de qué hace el átomo al toparse con las dos rendijas. En el Capítulo 6
comentaremos diversas maneras de tratar esta cuestión.
átomo se ve en la tesitura de tener que elegir entre dos caminos distintos, o brazos, cada
uno de los cuales sigue una ruta muy diferente e independiente a través del aparato. La
mecánica cuántica nos dice que, hasta que miremos, la función de onda del átomo se
hallará en una superposición de dos «fragmentos» que discurren a lo largo de ambas rutas
al mismo tiempo. En principio, las dos rutas pueden estar muy separadas entre sí, incluso en
distintos extremos de la Galaxia, pero tenemos que seguir pensando que la función de onda
recorre ambas rutas. Si al final los dos caminos vuelven a unirse, veremos una interferencia
cuya forma demuestra que el átomo tuvo que viajar por ambas rutas a la vez.
Interferómetros de partículas
Los interferómetros son dispositivos que evidencian que una sola partícula puede recorrer dos rutas a la vez y que,
cuando estas vuelven a juntarse, surge un patrón de interferencia o algún otro tipo de señal que demuestra que algo
tiene que haber viajado por ambos caminos.
Los interferómetros se pueden usar con fotones, electrones o neutrones, y la forma en que la onda
correspondiente a alguna de esas partículas se «divide en dos» una vez que entra en el dispositivo depende del tipo
de partícula de que se trate . Por ejemplo, los fotones se introducen en divisores de haces ópticos que se comportan
27
como superficies semiespejadas. Cuando un fotón incide contra una de estas superficies dispuesta con una
inclinación de 45 grados respecto de la trayectoria, tiene un 50% de probabilidades de atravesar en línea recta la
superficie y continuar en la dirección que llevaba en un principio, y otro 50% de probabilidades de salir reflejado hacia
una trayectoria situada en ángulo recto con respecto a la dirección de procedencia, que sería lo que ocurriría si se
topara con dos rendijas en una pantalla y siguiera ambas rutas al mismo tiempo. La instalación de espejos adicionales
a cada lado permite hacer que ambos caminos diverjan entre sí y que más tarde vuelvan a juntarse.
Como la intensidad del haz se puede reducir para asegurar que en cada instante determinado solo haya un fotón
dentro del interferómetro, cada fotón individual se encontrará en una superposición de estados que lo hará recorrer
los dos caminos separados al mismo tiempo, igual que las dos sendas del poema de Robert Frost. Estos dos ramales
del interferómetro pueden distar entre sí lo que se quiera (en la práctica pueden estar separados por varios metros).
Esto dificulta especialmente la concepción del fotón como una mera onda. Su función de onda parece consistir ahora
realmente en dos trozos independientes.
Tal vez nos sintamos obligados a admitir que el fotón ha tenido que recorrer un camino o el otro, y no ambos a la
vez. ¡Pero no es así! Los dos ramales del interferómetro confluyen más tarde y se vuelven a juntar, y la señal que
emerge del interferómetro es el resultado de dos ondas en interferencia. Igual que en el truco de las dos rendijas, la
interferencia se debe a que el fotón ha tenido que seguir dos caminos de distinta longitud. Lo que se ve solo se
puede explicar si el fotón ¡recorre ambas rutas a la vez y acaba interfiriendo consigo mismo cuando emerge!
Por supuesto, si colocamos un detector a lo largo de uno de los ramales para ver si el fotón sigue esa ruta,
entonces lo veremos en la mitad de las ocasiones, y el efecto de interferencia desaparecerá porque ahora cada fotón
habrá recorrido bien un camino o el otro.
Otra manera de decir esto mismo es que el patrón de interferencia se produce cuando las dos rutas son
indistinguibles. Pero si introducimos un detector en uno de los brazos que haga rotar en 90 grados la polarización de
la onda del fotón en ese ramal, entonces los dos caminos producirán fotones que ahora ya son distinguibles y el
patrón de interferencia desaparece. Esto se debe a que ahora, cuando emerja cada fotón, tendremos información
sobre qué ruta ha seguido. La versión de «opción retardada» del experimento consiste en tener el rotador de
polarización apagado y activarlo solo después de que el fotón se haya dividido en sus dos componentes (al pasar por
el divisor de haz o una superficie semiespejada). Si las dos rutas del fotón están polarizadas en vertical en un primer
momento, entonces el dispositivo rotará la componente del ramal superior para conferirle una polarización
horizontal. Por tanto, si detectamos que un fotón emerge del aparato polarizado en vertical, sabremos que ha tenido
que viajar por el brazo inferior. Si, por el contrario, aparece polarizado en horizontal, entonces tendrá que haber
pasado por el rotador de polarización del brazo superior. ¿Significa esto que en todos los casos los fotones solo
recorren o bien un camino o bien el otro? Y, de ser así, ¿cómo adivinan los fotones que el rotador se iba a accionar
después de que se dividieran en dos dentro del interferómetro? Porque resulta que si se deja el dispositivo rotador
apagado todo el tiempo, ¡aparece el patrón de interferencia!
En 1982, los físicos Marlan Scully y Kai Drühl propusieron una ampliación aún más insólita de esta idea. Plantearon
que incluso con un marcador de la ruta seguida, como el rotador de polarización, colocado en su sitio y en marcha, se
puede borrar a posteriori la información sobre la ruta tomada por el fotón justo antes de su emergencia. Sugirieron
colocar un «borrador cuántico» después de que ambos caminos vuelvan a confluir (digamos mediante una segunda
superficie semiespejada). Puede que a usted se le ocurra, con razón, que en cuanto los dos caminos se vuelven
distinguibles debido a la diferencia de orientación de su polarización, ya no se dará ninguna interferencia. Pero parece
que al eliminar todos los signos (rotando la polarización otros 45 grados, de manera que ya no se pueda decir qué
ruta siguió el fotón), el borrador es capaz de restablecer el patrón de interferencia. Esto parece increíble: no solo da la
impresión de que el fotón sabe si el rotador está activo o no en un ramal, sino también que más adelante a lo largo
del recorrido un borrador cuántico elimina la información de qué camino tomó.
Al final, Yoon-Ho Kim y sus colaboradores realizaron un experimento unos años atrás que confirmó la idea original
de Scully y Drühl. ¡El borrador cuántico restablecía realmente el patrón de interferencia!
Los interferómetros evidencian que las partículas cuánticas pueden estar realmente
en superposiciones de estado de dos lugares a la vez. Por supuesto, aunque no lo he
dicho aquí, las partículas cuánticas pueden estar en superposiciones de otros estados,
como girando en dos direcciones a la vez o teniendo dos o más energías o velocidades
distintas al mismo tiempo. Y aunque sería tranquilizador decir que lo que en realidad
está en superposición es la función de onda y no la partícula física que describe, algo
tiene que viajar a lo largo de ambos ramales del interferómetro. Los físicos suelen usar
un lenguaje contradictorio o descuidado para describir esta situación diciendo que hay
dos haces dentro del interferómetro que interfieren entre sí. Pero ¿qué significa eso
cuando describimos una sola partícula? La verdad es que no se puede explicar como es
debido en términos no matemáticos.
Lo que sí sabemos es que el átomo siempre está descrito por una única función de
onda extendida por ambos ramales, y no por dos independientes. Aquí es donde
fracasamos si intentamos imaginar las funciones de onda como ondas clásicas. Si una
onda sonora se escindiera y viajara por dos rutas diferentes que volvieran a confluir al
final, también deberíamos notar un efecto de interferencia (alterando ligeramente la
frecuencia de una de ellas oiríamos «batidos» debidos al desfase con el que acaban las
dos ondas). Sin embargo, en este caso la onda de sonido se escinde realmente en dos
fragmentos. Si los dos ramales que conducen las ondas sonoras acaban en lugares
separados, entonces los dos observadores oirán algo. Recordemos que en el caso del
átomo solo uno de ellos llegará a ver un átomo individual, si les diera por buscarlo.
Formalmente decimos que el átomo solo tiene una función de onda con dos trozos que
describen cómo viaja por cada ramal, con independencia de lo apartados que estén
entre sí. La función de onda se extiende por todo el espacio y vale cero en todas partes
salvo en el interior de ambos ramales. El todo de la función de onda extendida se
colapsa luego, cuando miramos, en una sola partícula real, bien dentro de un ramal o
bien dentro del otro.
Carácter no local
Todos hemos oído alguna vez historias infundadas, pero enigmáticas, de gemelos
idénticos que son capaces de percibir el estado emocional del otro aunque se
encuentren a gran distancia. La idea es que en cierto modo estos gemelos están unidos
a algún nivel síquico que la ciencia aún no ha desvelado. Afirmaciones análogas
explicarían cómo nota un perro que su amo está llegando a casa, o cómo se supone que
funcionan los muñecos de vudú en la magia negra. Debo subrayar que no menciono
estos ejemplos como fenómenos con alguna conexión con la mecánica cuántica, ni creo
que se den en realidad. Los menciono tan solo como ejemplos absurdos de un
fenómeno llamado «no localidad». Lo interesante es que se ha demostrado fuera de
toda duda el carácter no local del mundo cuántico, mediante un efecto que se conoce
como «entrelazamiento».
Imaginemos un par de dados. ¿Qué probabilidad hay de que al lanzarlos salga un doble?
Las matemáticas para calcularlo son muy claras. Para cualquier resultado concreto que salga
con uno de los dados, habrá una posibilidad entre seis de que con el otro se obtenga el
mismo resultado. Por tanto la probabilidad de sacar dos dobles seguidos ascenderá a una
entre treinta y seis (puesto que 1/6 × 1/6 = 1/36). Desde luego, esto no significa que al
lanzar un par de dados treinta y seis veces haya justo una ocasión en que dos lanzamientos
sucesivos salgan dobles, lo único que significa es que «en promedio» esa es la
probabilidad . De ahí se desprende, mediante la multiplicación de fracciones, que la
28
probabilidad de sacar un doble con los dados diez veces seguidas viene a ser de ¡una entre
sesenta millones! Esto quiere decir que si cada habitante de Gran Bretaña lanzara dos dados
al aire durante diez veces seguidas, solo uno de ellos sacaría dobles en todas las tiradas.
Pero ¿y si yo le proporcionara a usted un par de dados que siempre arrojaran el
mismo resultado? Primero quizá un seis doble, después un dos doble, y así
sucesivamente. El número que salga será aleatorio, pero ambos dados estarán
sincronizados. Lo dejaría muy sorprendido, así que usted intentaría explicar de forma
racional cómo funciona el truco. Puede que estén trucados con algún ingenioso
instrumento interno para controlar cómo deben caer y que ambos dados estén
preprogramados para caer con la misma secuencia de números. Esto podría
comprobarse con facilidad lanzando uno solo de los dados mientras mantenemos el
otro sujeto, de tal modo que pierdan la sincronización, así que el truco ya no debería
funcionar.
Si a pesar de esto siguen arrojando el mismo resultado, entonces la única explicación
posible sería que vuelven a sincronizarse antes de cada lanzamiento mediante el
intercambio de alguna señal a distancia. Sin embargo, una señal así estará sujeta a una
condición previa: si los dados están muy alejados entre sí (por decir algo, uno en la
Tierra y el otro en Plutón), ambos tienen que lanzarse de acuerdo con algún plan
temporal establecido de antemano, puesto que no hay suficiente tiempo para que una
señal viaje entre ellos.
Por supuesto, la operación simple de lanzarlos una vez y comprobar que arrojan el
mismo resultado podría deberse a la suerte. Pero la repetición del proceso una y otra
vez tanto en la Tierra como en Plutón, por ejemplo una vez cada minuto, y seguir
comprobando que siempre caen igual implicaría algún tipo de conexión instantánea.
Como es natural, podríamos asegurarnos de que no se hubiera producido ninguna
señalización previa entre ambos para sincronizarse, de la misma manera que nos
aseguramos de que no estaban preprogramados de un modo idéntico. Basta con lanzar
el dado situado en la Tierra una cantidad arbitraria de veces en el minuto
inmediatamente anterior al comienzo del experimento.
La luz tarda varias horas en viajar entre Plutón y la Tierra, de modo que es imposible
que los dados se comuniquen entre sí mediante alguna señal física conocida antes de
cada lanzamiento. Si aun así continúan arrojando el mismo resultado, entonces
tendremos que aceptar que se está transmitiendo alguna señal más veloz que la luz,
algo que no admite ninguna ley conocida de la física.
En la teoría especial de la relatividad, Einstein demostró que ningún objeto o señal puede
viajar más rápido que la velocidad de la luz. Así que podemos imaginar su incredulidad
cuando se dijo que las partículas cuánticas son capaces de comunicarse entre sí de esta
manera .
29
El interferómetro de Mach-Zehnder se compone de una fuente de fotones que los lanza de uno en uno, dos
superficies semiespejadas para dividir y combinar el haz, dos espejos completamente espejados y dos detectores de
fotones.
Arriba: Si se bloquea alguno de los dos espejos reflectores, solo queda una ruta viable (que el fotón tomará la mitad
del tiempo) y la segunda superficie semiespejada garantiza que haya idéntica posibilidad de que el fotón llegue a
cualquiera de los detectores.
Abajo: Si ambos espejos tienen la capacidad de reflejar, ambas rutas se pueden ajustar de manera que la interferencia
entre ellas en la segunda superficie semiespejada sea tal que el fotón solo llegue al detector superior.
Pero hasta para esto ha sido ingenioso el banco suizo, porque en el instante en que un diamante auténtico
absorba un solo fotón de luz azul, quedará destruido. Parece que los dueños de las piedras prefieren que nadie posea
las piedras a que caigan en las manos equivocadas. Por supuesto, solo el banco sabe dónde se encuentran los
diamantes verdaderos, así que no necesita someterlos a la prueba de la luz azul.
Tal vez parezca que no hay manera posible de que el ladrón triunfe. Las piedras que reflejen la luz azul de la
linterna especial que adquirió en la tienda de accesorios para ladrones de joyas serán falsas y podrá rechazarlas, pero
si elige un diamante auténtico no podrá estar seguro de ello sin destruirlo. Y sabe que solo tiene aproximadamente
una probabilidad entre diez de atinar.
Pues bien, aquí es donde se podría usar un test cuántico no destructivo. Lo único que necesita el ladrón de joyas es
un tipo de aparato llamado interferómetro de Mach-Zehnder (véase el diagrama). Antes de nada describiré los
principios de este instrumento.
tendría que haber una cantidad máxima de correlación entre las dos partículas. Es decir, como las partículas no
pueden conocer de antemano qué medición se hará sobre cada una de ellas, esto limita su capacidad para trazar un
plan conspiratorio entre ellas. Así que, aunque haya variables ocultas que definan de antemano las propiedades de
ambas partículas, existe un límite para la sincronización entre los resultados de las mediciones efectuadas sobre ellas.
Pero, por otro lado, si fueran correctos tanto la mecánica cuántica como el concepto de función de onda única que
describe el estado entrelazado del par, entonces habría una cantidad mayor de correlación, o de cooperación, que ese
máximo, lo que violaría la desigualdad de Bell.
No entraré en los detalles de qué tipo de prueba experimental se necesita para comprobar la desigualdad de Bell,
no porque sea demasiado técnica, sino porque el análisis de los datos resultantes y la extracción a partir de ellos de
las sorprendentes implicaciones que supone, precisan de algo más que unas cuantas páginas. Sin embargo, es
bastante sencilla y aparece descrita con claridad y en detalle en otros lugares.
En 1982, un equipo de físicos de París dirigidos por Alain Aspect, consiguió al fin ejecutar el experimento EPR y
comprobar el teorema de Bell. Usaron dos fotones emitidos desde un átomo de calcio que estaban correlacionados
en lo que respecta a su polarización (en ángulo recto entre ellos). Sus resultados convencieron a la mayoría de la
comunidad física de que se viola la desigualdad de Bell y, por tanto, de que la mecánica cuántica con toda su rareza
es la forma en que realmente se comporta la naturaleza. Si Einstein siguiera vivo no dudaría en admitir al fin su
derrota. La mecánica cuántica es en realidad no local o, tal como prefería decir Einstein, implica «acción
fantasmagórica a distancia».
Por supuesto, muchos físicos preferirán no hablar de esa deslocalización. Dirán que solo es necesaria si insistimos
en buscar un mecanismo físico para explicar los resultados experimentales. Lo único que se puede afirmar, insistirán,
es que la medición de cada partícula revela algún aspecto de la naturaleza de dicha partícula que no se conocía antes.
No solo es imposible inferir a partir de la medición qué propiedades tenía la misma antes de ser medida, sino que ni
siquiera tendría valores definidos para esas propiedades; más bien se encontraba en una superposición de todas las
posibilidades a la espera de que una medición la obligara a configurar su mente y, en consecuencia, a través del
entrelazamiento, ¡la mente de su compañera distante! Sin embargo, a pesar de estas pragmáticas garantías, la
deslocalización no desaparece, solo que muchos prefieren relegarla a las matemáticas abstractas negando la
existencia de una conexión física instantánea entre las partículas. Esta idea la expresa mejor el físico N. David Mermin,
de Cornell:
Creo que es justo afirmar que a la mayoría de los físicos no les causa inquietud [la confirmación
experimental de la violación de la desigualdad de Bell]. Puede que una minoría sostenga que eso se debe a
que la mayoría simplemente se niega a plantearse el problema, pero en vista del persistente fracaso para
que emerja una nueva física a partir de este enigma durante el medio siglo transcurrido desde que Einstein,
Podolski y Rosen lo inventaran, es difícil criticar su estrategia. El misterio [del experimento EPR] es que nos
presenta una serie de correlaciones para las que sencillamente no existe ninguna explicación. Es probable
que la mayoría niegue incluso esto, defendiendo que la teoría cuántica sí que ofrece una explicación. La
explicación, sin embargo, no es más que una receta sobre cómo computar cuáles son las correlaciones. Este
algoritmo computacional es tan bello y tan poderoso que puede, en sí mismo, adquirir el persuasivo carácter
de una explicación completa.
Caología cuántica
Michael Berry, profesor investigador de la Real Sociedad Británica, Universidad de Bristol
El mundo cuántico se revela muy distinto del mundo de la física clásica que reemplazó. Los niveles de energía
cuántica, las funciones de onda y las probabilidades parecen incompatibles con partículas newtonianas que se desplazan
siguiendo órbitas bien definidas. Sin embargo, ambas teorías tienen que estar íntimamente relacionadas. Hasta la Luna
se puede considerar una partícula cuántica, así que tiene que haber circunstancias (objetos más o menos grandes y
pesados) para los que las predicciones cuánticas y clásicas concuerden. Pero el «límite clásico» es sutil, y gran parte de la
investigación actual aspira a desentrañarlo.
Las dificultades que plantea el límite clásico resultan extremas cuando las órbitas newtonianas son caóticas. El caos
es una inestabilidad persistente, y el movimiento es tan delicado, que aunque esté determinado de manera estricta,
es imposible predecirlo en la práctica. Con el caos no hay ninguna regularidad, ninguna repetición precisa. La
meteorología es un ejemplo con el que estamos familiarizados. Otro lo constituye la rotación errática de uno de los
satélites del planeta Saturno: Hiperión, una roca con forma de patata y un tamaño similar a la ciudad de Nueva York.
El caos es problemático porque la manera en que se desarrolla una onda cuántica a lo largo del tiempo está
determinada por los niveles de energía asociados. Una consecuencia matemática de la existencia de niveles de
energía es que el transcurso del tiempo cuántico solo contiene movimientos periódicos con frecuencias definidas, lo
opuesto al caos. Por tanto, no hay ningún caos en la mecánica cuántica, sino solo regularidad. Entonces ¿cómo puede
haber caos en el mundo?
Existen dos respuestas. Una es que a medida que nos acercamos al límite clásico (a medida que los objetos se
vuelven más grandes y pesados), el tiempo que tarda el caos en desaparecer debido a la mecánica cuántica se alarga
cada vez más, y sería infinito en el mismísimo límite. Sin embargo, esta explicación no funciona porque el «tiempo de
eliminación del caos» suele ser sorprendentemente breve, de tan solo unas pocas décadas incluso para Hiperión, un
periodo muy corto a escala astronómica.
La verdadera razón de que impere el caos es que los sistemas cuánticos grandes resultan difíciles de aislar del
entorno. Hasta el «golpeteo de fotones» procedentes del Sol (cuya reemisión brinda la luz con la que vemos
Hiperión) destruye la delicada interferencia que subyace a la regularidad cuántica. Este efecto por el que sistemas
cuánticos de gran tamaño son tremendamente sensibles a influencias externas descontroladas, se denomina
«decoherencia». En el límite clásico, la propia supresión cuántica del caos se elimina por decoherencia, lo que permite
la reaparición del caos como característica habitual del mundo a gran escala.
Sistemas cuánticos menores se pueden aislar en la práctica, como átomos en campos magnéticos fuertes,
moléculas en vibración intensa, o electrones confinados en «puntos cuánticos» con fronteras asimétricas. Por tanto, la
decoherencia es irrelevante y no hay ningún caos cuántico, por más que los sistemas clásicos correspondientes sean
caóticos. Con todo, esos sistemas cuánticos reflejan el caos clásico de varias maneras cuyo estudio sistemático
constituye la caología cuántica.
Los niveles de energía de estados altamente excitados forman una serie de números que se pueden estudiar desde
un punto de vista estadístico. Estas estadísticas (por ejemplo, la probabilidad que determina la separación entre
niveles contiguos) son diferentes cuando hay caos y regularidad. De manera similar, los patrones de las ondas
cuánticas que describen los estados son distintos. Un hallazgo sorprendente y casi misterioso es que la disposición de
los niveles de energía en la caología cuántica está relacionada con uno de los problemas más insondables de las
matemáticas, relacionado con patrones en los números primos.
23. Bueno, en honor a las matemáticas, debería decir en realidad que la superposición es una propiedad de todas las
ondas que son solución de ecuaciones lineales. Si este enunciado no le aclara nada, ignórelo. ¡Solo pretendía
defenderme de colegas pedantes!
24. Es decir, sin otros bañistas, no vacía de agua.
25. Espero que no le importe que al poner ejemplos de objetos cuánticos recurra indistintamente a átomos y
electrones; sería más simple si me quedara tan solo con uno de ellos, pero entonces daría la impresión de que la
rareza cuántica es exclusiva de ese único objeto.
26. En la práctica es más fácil usar partículas subatómicas o fotones de luz (véase el recuadro de la página 124), pero
los átomos servirán para nuestra exposición.
27 1. Hoy en día, se realizan experimentos en física que utilizan interferómetros de átomos y hasta de moléculas.
28. De igual manera, al hacer dos lanzamientos de una moneda al aire no hay garantía de que salga una vez cara y
una vez cruz por el mero hecho de que hay un 50% de probabilidades de que salga cada uno de esos resultados.
29. Esto no tiene nada que ver con la célebre cita de Einstein de que «Dios no juega a los dados». Recordemos que
esa afirmación guardaba relación con la posibilidad de que el mundo cuántico estuviera regido por el azar y la
incertidumbre. El hecho de que yo haya empleado un par de dados en mi exposición es mera coincidencia.
30. Por supuesto, se trataría de un experimento muy largo, puesto que tendríamos que esperar varios años a que el
átomo recorriera el gigantesco dispositivo en el que las dos partes de su función de onda se encuentren de verdad a
años-luz de distancia.
31. Recordemos lo que se dijo en el Capítulo 2 sobre la fórmula de De Broglie que relaciona la cantidad de
movimiento de una partícula con su longitud de onda.
32 1. Para consultar una exposición detallada pero no técnica del teorema de Bell, recomiendo la obra de Dan Styer
titulada The Strange World of Quantum Mechanics (Cambridge University Press, 2000). De hecho, Bell también
desarrolló un segundo teorema (conocido en aquellos días como teorema Bell-Kochen-Specker) que resulta aún más
difícil de explicar sin matemáticas formales. Los lectores valientes encontrarán más información sobre él en un artículo
de revisión de David Mermin (Reviews of Modern Physics, vol. 65, 1993, p. 803).
5. Mirar y ser mirado
Los fundamentos de la mecánica cuántica que he esbozado hasta aquí tal vez le hayan
parecido incomprensibles, incluso disparatados en ocasiones, pero el hecho es que, desde
una perspectiva matemática y lógica, las reglas cuánticas son inequívocas y precisas. Y
aunque muchos de los propios físicos cuánticos no se sienten cómodos trasladando las
extrañas propiedades abstractas de la función de onda al mundo real, la estructura
matemática y el formalismo de la mecánica cuántica han resultado demasiado exitosos y
son demasiado exactos como para que generar muchas dudas sobre su capacidad para
revelar verdades esenciales. Pero queda un último enigma que los físicos cuánticos han
sido incapaces de explicar de manera satisfactoria. Muchos aducirán que se trata del
aspecto más importante y, sin embargo, el más desconcertante de todos, que es: ¿por qué
no podemos ver nunca en acción la función de onda, ni la realidad física que describe,
cuando miramos? O dicho de otra manera, ¿por qué desaparece el patrón de interferencia
cuando intentamos comprobar por qué rendija pasa el átomo? Estas cuestiones no se han
respondido mediante la mecánica cuántica, y forman lo que se conoce como el problema
de la medición cuántica.
Por todas partes vemos los efectos y el influjo de la función de onda con su naturaleza
probabilística, la deslocalización, y la capacidad de formar superposiciones y estados
entrelazados. De hecho, necesitamos estas propiedades para explicar la solidez de toda
la materia, cómo brilla el Sol, incluso cómo se crearon los átomos que conforman
nuestro cuerpo. Pero el problema básico persiste: ¿cómo se explica la forma en que una
función de onda extensa se transforma de repente en una partícula localizada en cuanto
intentamos observarla?
Los físicos cuánticos denominan a este misterioso proceso «el colapso de la función
de onda». De hecho, yo mismo usé esa expresión en el capítulo anterior. Sin embargo,
un descubrimiento bastante reciente ha convencido a muchos físicos de que esa
terminología es innecesaria, pero nadie está seguro aún de si se ha resuelto o no el
problema de la medición.
Empezaré hablando en primer lugar de a qué me refiero con «mirar» algo.
Lo que ves es lo que obtienes
En el mundo cotidiano de los objetos macroscópicos, damos por hecho que el aspecto
de un objeto coincide exactamente con cómo «es» en realidad. Por supuesto, estoy
admitiendo que puedo confiar en mi vista, que no estoy bajo los efectos de sustancias
alucinógenas y que la iluminación es suficiente. De hecho, para ver algo, es necesario
que el objeto en sí emita luz o, lo que es más probable, que se refleje en él y yo la capte
a través de los ojos. A continuación el cerebro interpretará la imagen que se forme en la
retina.
Pero ¿le ha pasado alguna vez que la mera iluminación de algo lo haya distorsionado
y alterado siquiera ligeramente, bien porque le haya provocado un leve calentamiento o
un pequeño desplazamiento de su posición original? Como es natural, cuando observo
una mesa o un coche, o incluso una célula viva al microscopio, la incidencia de los
fotones de luz no ejercerá en ellos ningún efecto medible. Pero cuando tratamos con
objetos cuánticos, que tienen un tamaño equivalente a los fotones, la cosa cambia.
Recordemos la física que aprendimos en el colegio y la tercera ley de Newton: toda
acción tiene una reacción igual y opuesta. Para «ver» un electrón habría que hacer
rebotar en él un fotón. Pero en el momento en que captemos el fotón, el electrón ya no
estará en el lugar donde se encontraría si no hubiera recibido el impacto del fotón.
Esta perturbación inevitable de una partícula cuántica cuando se mira suele usarse
para explicar el problema de la medición cuántica, e incluso como base del principio de
incertidumbre de Heisenberg. No solo se trata de una simplificación excesiva, sino
también bastante errónea que crea una imagen de bolas clásicas rebotando unas contra
otras. Aunque esta imagen fue crucial para demostrar la naturaleza corpuscular de la luz,
tal como vimos en el Capítulo 2 cuando hablé del efecto fotoeléctrico y de los
experimentos de esparcimiento de Compton con fotones de rayos X y electrones, no
dice nada sobre la verdadera naturaleza cuántica de los fotones ni de los electrones.
Con todo, la alteración de un objeto al medir alguna de sus propiedades es fácil de
entender. He aquí otro ejemplo sencillo. Medimos la temperatura del agua de una
bañera usando un termómetro. En un primer momento se producirá una pequeña
transferencia de calor al termómetro hasta que alcance la misma temperatura que el
agua, pero no es probable que esta pérdida minúscula de calor que experimenta el agua
afecte a su temperatura (al fin y al cabo, habrá una pérdida de calor mucho mayor hacia
el aire circundante que la que se invierta en calentar el termómetro). Pero si se mide la
temperatura del agua en un pequeño tubo de ensayo sumergiendo en ella un
termómetro se intercambiará una cantidad de calor considerable a menos que el
termómetro ya se encuentre a la misma temperatura del agua. Por tanto, el termómetro
no arrojará una medición precisa de la temperatura que tenía el agua antes de sumergir
en ella el termómetro.
Por tanto, para conocer algo sobre un sistema es necesario medirlo, pero al hacerlo a
menudo es inevitable alterarlo, y por tanto no se llega a conocer su verdadera
naturaleza. Este problema se puede sortear por lo común en el mundo macroscópico,
pero no en el reino de los objetos cuánticos.
El microscopio de rayos gamma de Heisenberg
En el esparcimiento de Compton se lanza luz de rayos X sobre un blanco sólido (en el
experimento original se usó una lámina de grafito) y se analizan los rayos X que salen
reflejados. Así se descubrió que la frecuencia de rayos X cae ligeramente después de la
reflexión. Arthur Compton interpretó correctamente (usando la relación de Planck entre
frecuencia y energía) que se trataba de partículas que rebotaban unas contra otras; los
electrones del blanco salen despedidos por el impacto y se llevan consigo parte de la
energía de los fotones incidentes de rayos X.
Esta situación es la opuesta a la del experimento de las dos rendijas con átomos. En
aquel caso, un átomo comienza siendo una partícula, se comporta como una onda al
atravesar las rendijas, y por último acaba en forma de partícula sobre la pantalla. En el
esparcimiento de Compton, el fotón empieza en forma de onda (con cierta frecuencia),
se comporta como una partícula al chocar con el electrón, y al final se vuelve a detectar
en forma de onda al medir su frecuencia. En ambos experimentos se usa la noción de la
dualidad onda-corpúsculo de los átomos y de la luz.
Pero el mero hecho de hablar sobre la dualidad onda-corpúsculo no nos ayuda a
comprender cómo ocurren los procesos. De hecho, la expresión en sí supone una vuelta
a los primeros días de la teoría cuántica y es una vergüenza que aún se use al enseñar la
materia en la actualidad.
El motivo por el que he vuelto a describir el esparcimiento de Compton estriba en
que se parece bastante a un experimento mental ideado por Werner Heisenberg a
mediados de la década de 1920. Con él consiguió inferir su famosa fórmula del principio
de incertidumbre al subrayar cómo el acto de observar una partícula cuántica la aparta
de su ruta original. Por desgracia para alguien con la genialidad de Heisenberg, estaba
equivocado a este respecto. Niels Bohr se lo dijo con toda claridad en aquellos días,
incluso lo dejó deshecho en lágrimas en cierta ocasión (estos tipos se tomaban muy en
serio su trabajo). Pero a día de hoy, el ejemplo de Heisenberg sigue sembrando
confusión y resulta inútil.
El hecho de ver un fotón comportarse como una onda o como una partícula depende de la clase de experimento
efectuado. En el experimento de la doble rendija (arriba), el fotón empieza siendo una partícula localizada, se
comporta como una onda cuando atraviesa ambas rendijas y pasa al otro lado, y al final vuelve a detectarse como
una partícula localizada. En el esparcimiento de Compton (abajo) empieza siendo una onda con una longitud de onda
determinada, se comporta como una partícula que choca contra un electrón, y por último se detecta de nuevo como
una onda con una longitud de onda ligeramente más larga debido a la pérdida de cantidad de movimiento durante la
colisión.
Pues bien, ahora que he aclarado la idea equivocada de que el único problema que
existe al medir algo se puede explicar usando la mecánica clásica, podemos reflexionar
un poco más sobre el problema real, el cual resulta ser mucho más fundamental que el
concepto de la dualidad onda-corpúsculo y no nos obliga a recurrir al principio de
incertidumbre.
«Y entonces pasa algo más»
Cuando hablé del concepto del destino y de la predicción del futuro en el Capítulo 3,
acabé diciendo que la mecánica cuántica nos rescata de la deprimente idea newtoniana
de un universo determinista, una especie de mecanismo de relojería donde todo lo que
ocurrirá en el futuro está trazado y, en principio, se puede determinar de antemano. En
lugar de poder predecir el futuro con certeza resolviendo las ecuaciones del movimiento
de Newton, solo nos ha quedado la capacidad de predecir las probabilidades de
obtener diferentes resultados.
Esta es la esencia del indeterminismo cuántico. Pero ¿es la ecuación de Schrödinger,
la que se emplea en el mundo cuántico en lugar de las ecuaciones de Newton, el
verdadero origen de ese indeterminismo? La respuesta es, aunque tal vez resulte un
tanto sorprendente, que no. De hecho, la ecuación de Schrödinger es perfectamente
determinista: dada la función de onda en un instante temporal determinado puedo
calcularla con exactitud para cualquier momento del futuro resolviendo la ecuación. La
noción de probabilidad solo interviene cuando dejamos a un lado el lápiz y el papel,
apagamos la computadora, y realizamos predicciones sobre los resultados de una
medición real usando lo que sabemos sobre la función de onda en el instante en que se
realiza la medición.
A pesar de toda su utilidad y capacidad matemática, el formalismo de la mecánica
cuántica no nos dice nada sobre cómo dar el paso desde la ecuación de Schrödinger
hasta lo que vemos cuando realizamos una medición específica del sistema cuántico
que estamos estudiando. Por esta razón, los padres fundadores de la mecánica cuántica
idearon una serie de «postulados»: reglas que son un añadido extra al formalismo
cuántico, que dan una receta sobre la manera de traducir la función de onda a
respuestas concretas, u «observables», propiedades tangibles que se pueden observar,
como la posición, o la cantidad de movimiento, o la energía de un electrón en un
momento dado.
Uno de esos postulados con el que ya nos hemos topado aquí establece que la
probabilidad de encontrar una partícula en un lugar determinado se obtiene al sumar
los cuadrados de los dos números que definen el valor de la función de onda en esa
posición. Esta regla no nos viene impuesta por las matemáticas, pero funciona. Los
demás postulados también guardan relación con el tipo de mediciones que se pueden
hacer y con lo que cabría esperar encontrar al efectuar un tipo particular de medición.
Nos brindan una serie de instrucciones ad hoc sobre cómo actuar cuando hay que
abandonar la ecuación «determinista» de Schrödinger y comparar sus predicciones con
las observaciones.
El concepto de medición en mecánica cuántica es bastante difuso e indefinido. Así que
los físicos adoptaron encantados la idea pragmática que lanzó Bohr, quien consideraba que
una medición implicaba un proceso misterioso denominado el «acto irreversible de
amplificación» que tiene lugar cuando un sistema cuántico interacciona con un instrumento
de medida. Un detalle crucial es que el instrumento de medida se puede describir aquí
mediante la física clásica y, por tanto, no es un objeto cuántico. Pero ¿cómo y por qué y
cuándo ocurre ese proceso de medición? Cualquier aparato de medida, ya sea la pantalla
del experimento de la doble rendija, un voltímetro, un contador Geiger , una máquina
34
caso de grabar en vídeo un partido del Leeds y sentarse más tarde a verlo sin conocer el
resultado, entonces, para él, el partido ni siquiera tendría aún un resultado. Pero si llevamos
la interpretación estándar de la mecánica cuántica a su conclusión lógica, entonces parece
decirnos que no todo depende de que él ignore el resultado final, esa información que
circula «por ahí» y que conocen millones de personas. Solo después de que él haya visto el
final del partido se colapsa para él la superposición de todos los resultados posibles en el
resultado único que él mide: el resultado que ve.
Esta sencilla ilusión óptica ilustra de manera aproximada cómo afecta a un sistema cuántico el acto de medir. Si
fijamos la vista en cualquiera de los círculos blancos notaremos que aparecen y desaparecen puntos negros en
algunos de los círculos de alrededor. Pero si dirigimos la vista hacia uno de esos puntos negros, vuelve a ser blanco
de inmediato. Nunca pillamos un punto negro en acción. Como es natural, el funcionamiento de esta ilusión no tiene
nada que ver con la mecánica cuántica, pero me parece una analogía bastante buena.
Sin embargo, hasta que me llame y me cuente el resultado, suponiendo que yo aún
no lo conozca, mi hermano estará, para mí, en una superposición en la que conoce
todos los resultados posibles. Al recibir la noticia a través de él, habré realizado una
medición efectiva de su estado cuántico y habré forzado el colapso de la superposición
de las distintas versiones alegres y decepcionadas de mi hermano en una sola.
Las palabras de Julie resuenan de nuevo en mis oídos mientras escribo esto. Pero
tenía que estar de acuerdo con ella en que todo esto no son más que «¡un montón de
sandeces!». Prefiero pensar que hay una realidad objetiva ahí fuera que existe con
independencia de si yo miro o no. Por poner un ejemplo más sólido: un núcleo de
uranio radiactivo enterrado en el suelo emitirá una partícula alfa que puede dejar un
rastro visible de defectos en la red cristalina de la roca. Da igual si miramos la roca hoy,
dentro de cien años o nunca. El rastro seguirá ahí. ¿Y si la roca está en Marte y ningún
observador consciente llega a encontrarla jamás? ¿Permanecerá en un estado de limbo
en el que tendrá y no tendrá marcas grabadas en su estructura? Está claro que en todo
momento se tienen que estar efectuando mediciones de alguna manera, y los
observadores conscientes, lleven o no batas blancas de laboratorio, no pueden influir en
ellas. La definición correcta es que se considera que se ha efectuado una medición
siempre que se registra un «suceso» o «fenómeno». Y podría tratarse de algo que
percibamos, si queremos hacerlo, más tarde.
El enunciado anterior tal vez suene tan obvio y razonable que habría que perdonar a
quien se pregunte cómo puede haber físicos cuánticos tan estúpidos como para
defender la idea contraria. Pero, una vez más, si hemos aprendido algo sobre la
mecánica cuántica es que buscar una explicación racional es un ejercicio fútil. Muchos
grandes pensadores se han planteado las cuestiones relacionadas con la medición
cuántica y la mayoría de las distintas conclusiones a las que han llegado no son tan
fáciles de refutar.
A lo largo de los años he mantenido numerosos debates con un compañero mío que
es físico teórico, Ray Mackintosh, con quien no siempre estoy de acuerdo, pero casi
siempre admito que sus observaciones son válidas. Las «discusiones» más interesantes
solemos tenerlas en bares de noche cuando ambos estamos fuera en congresos de
física nuclear en los que coincidimos. (Ese es el escenario habitual de la mayoría de las
conversaciones profundas de este tipo mantenidas entre los físicos teóricos que no
disfrutan del «placer» de los físicos experimentales de tener turnos de noche en el
laboratorio). Mackintosh objeta lo siguiente cuando alguien critica la idea de que nada
existe hasta que se mide (y su función de onda se colapsa). Por supuesto, el electrón o
el átomo o la Luna existen antes de medirlos. Todos los objetos, ya sean microscópicos
o macroscópicos, tienen muchas propiedades definidas (es decir, cantidades que no se
encuentran en superposiciones de más de un valor), como la masa o la carga eléctrica.
Estas cosas no entrañan ninguna incertidumbre. Así que el mero hecho de tener que
basarnos en la función de onda antes de efectuar una medición no implica que el objeto
que describe no sea real. Por supuesto, de algunas de sus propiedades, como en qué
lugar se encuentra o qué energía tiene con exactitud, no podemos decir que tengan
valores definidos, pero esa es precisamente la naturaleza de los objetos cuánticos. No
deberíamos menospreciar su existencia tan solo porque no podamos hacernos una idea
mental de cómo son en realidad.
Dos estadios del problema de la medición
Entonces ¿qué es una medición? ¿A qué nos referimos con una «observación»? ¿Y
dónde está esa transición mágica que va de la función de onda a la realidad? Una cosa
sí sabemos: una medición tiene que implicar primero una interacción de algún tipo
entre un aparato de medida, que aún no he especificado, y un sistema cuántico. Este
último podría encontrarse hasta ese mismo instante en una superposición de distintos
estados correspondientes a diferentes resultados posibles de la cantidad que se está
midiendo. Esta interacción conducirá inevitablemente a un estado entrelazado de un
sistema y el aparato externo de medida, lo que forzará a este último a una
superposición compuesta por estados, resultado de medir todos los distintos valores
posibles de dicha cantidad al mismo tiempo. ¿Y entonces qué?
Analicemos con un poco más de atención la disposición del interferómetro de
partículas del capítulo anterior. Recordemos que la función de onda de un solo átomo
se escindirá, al entrar en el dispositivo, en dos componentes, cada una de las cuales
viajará por uno de los ramales. Y mientras tengo que describir el átomo mediante una
función de onda, sé que está pasando algo extraño, puesto que veo una señal de
interferencia real al otro lado. También sé que si miro a través de una ventana abierta en
uno de los ramales del interferómetro para comprobar si algún átomo está viajando por
ese camino, entonces detectaré la mitad de los átomos. Pero entonces, por supuesto, el
patrón de interferencia desaparecerá.
Para simplificar las cosas asumiré que mi detección del átomo se produce al abrir un
pequeño vano en el ramal y ver un destello minúsculo cuando la luz se refleja en el
átomo que pasa. Entonces ¿qué sucederá si decido cerrar los ojos? En este caso no
sabré qué camino siguió el átomo; ¿significa esto que reaparece el patrón de
interferencia? Esto implicaría que mi acto físico de mover los párpados determina el
resultado del experimento. No parece un argumento muy convincente. Lo que se torna
evidente ahora es que la medición tiene que estar ocurriendo de alguna manera porque
he abierto el vano y he dejado que entre la luz e interaccione con los átomos. La
interferencia desaparece tenga o no los ojos abiertos. Por supuesto podría
argumentarse que la señal de interferencia al final constituye aún una posibilidad (una
de tres en realidad: o el átomo se detectó en el ramal, o no se detectó y entonces tuvo
que pasar por el otro brazo, o se detectó –mediante la luz que entró por el vano– y no
se detectó al mismo tiempo). La tercera de estas opciones equivale al estado del gato
de Schrödinger (es decir, la opción en la que estaba vivo y muerto al mismo tiempo) y
da lugar a la señal de interferencia en el interferómetro. Por supuesto, nunca veré esta
opción al abrir los ojos, y los defensores de la idea del observador consciente seguirán
afirmando que el acto de ver, o no ver, el átomo es lo que en última instancia elimina la
opción que genera la interferencia.
El problema se ve con más claridad si nos aseguramos de que el destello de luz
debido al paso de un átomo por delante del vano deje un registro permanente en un
instrumento colocado fuera del interferómetro. Este hará ahora la misma función que el
gato de Schrödinger dentro de la caja. ¿Es capaz ese instrumento de existir en una
superposición de registrar y no registrar un destello?
En un dispositivo con un interferómetro de átomos, la función de onda del átomo se ve obligada a entrar en una
superposición de viajar a lo largo de ambos ramales al mismo tiempo. Pero si abrimos un vano para comprar qué ruta
ha seguido, la obligamos a decidirse por una sola. Si vemos el átomo, entonces colapsamos al instante a cero la
componente de la función de onda que recorre el otro brazo. Y aunque no lo veamos, seguimos obligándolo a salir
del terreno cuántico para convertirse en una partícula definida que ahora viaja a través del otro ramal.
La forma en que el proceso de decoherencia elimina la rareza cuántica se puede ilustrar mediante una gráfica
tridimensional que se conoce como «distribución de Wigner». Los dos ejes horizontales indican la posición y la
cantidad de movimiento, así que cada punto de la superficie irregular se corresponde con una posición y una
cantidad de movimiento específicas de una partícula cuántica. Los dos abultamientos más amplios indican las dos
localizaciones posibles de la partícula si quisiéramos buscarla. Claramente hay el doble de probabilidades de
detectarla en la derecha que en la izquierda, puesto que el pico es el doble de alto. Las oscilaciones del centro se
corresponden con los términos de interferencia. Estos no son resultados posibles de la medición, sino que son los
estados intermedios equivalentes a la opción del gato vivo y muerto al mismo tiempo.
La interpretación de Copenhague no es un mero conjunto de ideas definidas de manera clara e inequívoca, sino
más bien un denominador común para toda una diversidad de puntos de vista relacionados.
La explicación de Copenhague: como nunca se puede saber qué sucede tras la cortina cuántica sin que afecte a los
resultados, plantear esta cuestión es una pérdida de tiempo y solo cabe hablar sobre lo que podemos ver.
Por lo común, las teorías físicas se presentan de una manera lo bastante precisa y coherente como para no sentir
la necesidad de mencionar a sus fundadores; uno se esfuerza más bien por conservar su espíritu e inspiración. Sin
embargo, en contra de esta sana costumbre, los libros más completos dedicados a la interpretación de
Copenhague son todos reimpresiones de artículos originales o comentarios eruditos que se convierten cada vez
más en comentarios de comentarios a medida que transcurre el tiempo. Dedican gran espacio a un debate
interminable sobre las dificultades de la interpretación, que a menudo incluye razonamientos donde la filosofía
de la ciencia cobra mayor importancia que la propia física.
Ante todo, y sobre todo, esta concepción establece que nunca se puede describir un
sistema cuántico con independencia de un aparato de medida. No tiene sentido
preguntarse por el estado del sistema a falta de un instrumento de medida, ya que solo
podemos averiguar algo sobre el sistema si lo ponemos en conjunción con el aparato
utilizado para observarlo.
En segundo lugar, el papel del observador es determinante. Como tenemos la
libertad de elegir qué medición efectuar (si medir la posición o la cantidad de
movimiento de una partícula, la dirección en la que está polarizado un fotón o en la que
gira un electrón), no se puede decir que la entidad cuántica tenga siquiera esas
propiedades bien definidas hasta el momento en que miramos. Tiene que permanecer
suspendida en una superposición hasta que decidamos qué queremos medir. De este
modo, ciertas propiedades del sistema cuántico solo están dotadas de realidad en el
instante de la medición. Antes de eso, ni siquiera se puede decir que existan en un
sentido definido clásico. ¡Solo los resultados de las mediciones son reales!
Otro postulado de la interpretación de Copenhague es que tiene que haber una
demarcación clara entre el sistema (cuántico) que se mide y el instrumento
macroscópico de medida (descrito por las leyes de la mecánica newtoniana, o clásica).
Así, aunque este último también consiste en última instancia en átomos, no debe
tratarse como si estuviera sujeto a las mismas reglas cuánticas. El acto de medir provoca
que el estado del sistema medido pase de repente de una combinación de propiedades
potenciales a un solo resultado real. El concepto del «colapso de la función de onda»
como consecuencia de la medición fue acuñado por primera vez por Heinsenberg en
1929.
No es de extrañar que una teoría tan poco intuitiva como la mecánica cuántica
requiera medidas desesperadas para dotarla de algún sentido. Tal vez sea esto lo único
que se puede decir sobre el asunto. Así que señalaré mis objeciones a la concepción de
Copenhague para justificar por qué creo, junto con muchos otros físicos, que ha perdido
su vigencia.
No creo que la interpretación de Copenhague sea una verdadera interpretación. Es
un conjunto de reglas que debemos cumplir para usar el formalismo cuántico sin
necesidad de preocuparnos por su significado. Así que la interpretación de Copenhague
no solo no explica cómo pasa el átomo por ambas rendijas, sino que además afirma
categóricamente que plantearse esa cuestión carece de sentido y que nuestros
comentarios deberían limitarse al patrón de interferencia que aparece en la pantalla (la
medición). La interpretación de Copenhague logra desterrar contradicciones lógicas e
incoherencias al permitir plantear tan solo aquellas cuestiones relacionadas con los
resultados de las mediciones.
Muchos de los fundadores de la interpretación de Copenhague, como Bohr,
Heisenberg, y Wolfgang Pauli, manifestaron cierto desprecio por una serie de intentos
posteriores para elaborar una representación física del mundo cuántico. Lo consideraron
una tentativa fútil para regresar a una manera de pensar anticuada (newtoniana) que
había sido reemplazada para siempre. De hecho, en épocas más tardías de su vida, Bohr
hasta se negó a considerar interpretaciones alternativas con la supuesta esperanza de
que simplemente se desvanecieran. De igual modo, Heisenberg se mostró despectivo
con esos proyectos porque
solo se limitan a repetir la interpretación de Copenhague en un lenguaje distinto, [y] desde un punto de vista
estrictamente positivista hasta podría decirse que no nos hallamos aquí ante contrapropuestas a la interpretación
de Copenhague, sino ante su repetición exacta en un lenguaje diferente 39.
La interpretación de Copenhague llegó antes a la cumbre, y para la mayoría de los científicos en activo parece no
haber ningún motivo para desalojarla de ahí.
una interpretación basada en una realidad objetiva como la de Bohm. Las tentativas para
eliminar todas las interpretaciones de variables ocultas se conocen como «demostraciones
de imposibilidad». John Bell declaró que «lo que revelan las demostraciones de
imposibilidad es una falta de imaginación». Sin embargo, en tiempos más recientes, David
Mermin, uno de los físicos que ha contribuido en gran medida a promover las ideas de Bell,
devolvió el golpe respondiendo que «lo que revelan las demostraciones de posibilidad es
un exceso de imaginación».
La interpretación de la pluralidad de mundos
Varios años después del trabajo de Bohm, otro estadounidense, llamado Hugh Everett
III, propuso lo que él bautizó como la «interpretación del estado relativo» (que suena
bastante inofensivo, ¿no?). Desde entonces, este planteamiento se ha considerado tanto
la interpretación más estrafalaria y extravagante de la mecánica cuántica como la más
simple de todas, dependiendo del bando en el que nos situemos. De hecho, yo mismo
fluctúo entre ambos extremos, de forma que un día me pregunto cómo puede haber
alguien tan tonto como para hacerle caso, y al siguiente me planteo cómo puede haber
alguien que contemple otra alternativa.
La interpretación de Everett, como la De Broglie-Bohm, está libre del problema de la
medida que invade la versión de Copenhague. Y tampoco necesita la deslocalización
física de Bohm. Además, si bien la decoherencia encaja con bastante comodidad en las
dos primeras interpretaciones, da la impresión (al menos a mí) de que encuentra un
alojamiento más natural en la formulación de Everett o en sus variantes actuales. Hasta
aquí todo bien. Pero no olvidemos nunca que la rareza cuántica debe manifestarse de
un modo u otro. En este caso lo hace mediante el escandaloso requisito de que
tenemos que residir en uno entre una cantidad infinita ¡de universos paralelos!
¿Qué podría conducirnos a semejante conclusión? Es como si el único criterio seguro
para llegar a una interpretación válida de la mecánica cuántica fuera que tiene que
sonar extraño. Tal vez haya otra interpretación por ahí en la que toda la rareza se
desvanezca a partir de la noción de que la medición cuántica debería implicar una
señalización hacia atrás en el tiempo. ¡Oh, aguarde un momento, esa explicación ya se
ha descubierto! Se denomina «interpretación transaccional», y comentaré algo sobre
ella hacia el final del capítulo. Pero seguro que ve usted a dónde estoy llegando. Es
indudable que estas concepciones diferentes, aunque serias, de la manera en que se
comporta la naturaleza a escala microscópica hacen que las teorías seudocientíficas de
la New Age, como los poderes místicos de los cristales y las pirámides, parezcan
palidecer un poco a su lado.
La explicación de la pluralidad de mundos: todas las realidades posibles coexisten. El átomo pasa a través de una
rendija distinta en cada universo, y ambos universos se superponen tan solo al nivel del átomo individual. En cada
universo, el átomo siente la presencia de su yo paralelo que ha pasado a través de la otra rendija. La superposición, y
por tanto interferencia, es el resultado de la superposición de universos.
Una de las primeras propuestas fue la interpretación estadística (interesante por ser
la que respaldaba Einstein), que admite que la mecánica cuántica solo se pronuncia
sobre conjuntos completos de mediciones (de sistemas cuánticos idénticos), en lugar de
hacerlo sobre una medición individual, de ahí la reverencia a la estadística global. Como
ahora se pueden realizar experimentos con sistemas individuales, incluso con átomos
individuales, la supervivencia de esta interpretación precisa una aclaración más amplia
por parte del pequeño grupo de expertos que la defiende.
Dos incorporaciones nuevas a la lista son la interpretación transaccional y la de las
historias coherentes. La primera de ellas, formulada por John Cramer, se parece al
planteamiento De Broglie-Bohm en que es explícitamente no local. De hecho, la
deslocalización es más acusada incluso en este caso: lo que se necesitan no son
conexiones instantáneas por el espacio, ¡sino conexiones a través del tiempo! El acto de
abrir la caja de Schrödinger envía una señal al pasado para comunicar al núcleo
radiactivo si se tiene que desintegrar o no.
El enfoque de las historias coherentes, debida sobre todo al físico de partículas y
premio Nobel Murray Gell-Mann y su colaborador James Hartle, aún no ha arraigado de
verdad, pero está reuniendo un grupo creciente de seguidores. Combina las funciones
de onda y las probabilidades de un modo coherente que no requiere actos de medición.
Fue propuesta por primera vez en 1984 por Robert Griffiths, y desarrollada unos años
después por Roland Omnès. Según esta concepción, una «historia» se define como una
secuencia de acontecimientos cuánticos en instantes sucesivos. La ventaja de esta
propuesta es que permite asignar probabilidades a distintos acontecimientos (como
cuándo se desintegrará un átomo radiactivo), incluso aunque se den fuera, en el espacio
interestelar, lejos de cualquier instrumento de medida.
También debo mencionar que existen varias interpretaciones basadas en la teoría de la
reducción dinámica . Estos planteamientos exigen algo adicional que provoque de vez en
42
Discrepo. Al menos en este punto creo que Einstein tenía razón. Einstein creía que la
función de las teorías físicas consiste en «acercarse lo máximo posible a la verdad de la
realidad física». Así que, con un verdadero espíritu de Expediente X, prefiero pensar que
«la verdad está ahí fuera». No sé si llegaremos a ella algún día o no, pero estoy seguro
de que no será una búsqueda vana. El mero hecho de que el formalismo de la mecánica
cuántica nos permita el lujo de contar con varias interpretaciones entre las que (aún) no
somos capaces de decidirnos, no implica que no haya una interpretación correcta.
Por supuesto, es posible que no lleguemos a descubrirla nunca, pero es demasiado
arrogante por nuestra parte afirmar que, como nosotros no somos capaces de elegir
una, la naturaleza tampoco lo sea.
37. Max Jammer, The Philosophy of Quantum Mechanics (Wiley & Sons, Nueva York, 1974), p. 87.
38. Roland Omnès, The Interpretation of Quantum Mechanics (Princeton University Press, 1994), p. 81.
39. Werner Heisenberg, Physics and Philosophy (Nueva York, Harper and Row, 1958), p. 129.
40. James T. Cushing, Quantum Mechanics: Historical Contingency and the Copenhagen Hegemony (University of
Chicago Press, 1994).
41. En realidad, Grete Hermann demostró solo tres años más tarde el error de Von Neumann, pero la concepción de
Copenhague estaba tan arraigada que su demostración parece haberse silenciado por completo.
42. La más conocida proviene de tres físicos italianos: Ghirardi, Rimini y Weber, quienes la propusieron en 1986, y por
eso se conoce como la formulación GRW. Roger Penrose planteó otra que defiende que la gravitación puede
desempeñar la función de colapsar la función de onda.
7. El mundo subatómico
Llegados a este punto, tal vez tenga usted la impresión de que los físicos cuánticos se
pasan el tiempo debatiendo sobre la naturaleza de la realidad y discutiendo sobre
cuestiones tan profundas y relevantes como la definición de los términos«suceso» y
«fenómeno», y qué significa medir algo, o ideando maneras cada vez más imaginativas de
describir qué acontece o no acontece en el mundo microscópico cuando no estamos
mirando. Nada más lejos de la realidad. La mayoría de los físicos no podría prestar menos
atención a las cuestiones relacionadas con la interpretación de la mecánica cuántica, y
hacen bien. Están demasiado ocupados en usar la teoría para desentrañar la estructura y
las propiedades del mundo subatómico.
De hecho, sin esta actitud de «calcula y calla», no habríamos conseguido a lo largo del
último medio siglo los inmensos avances en ciencia y tecnología que comentaremos en
el Capítulo 9.
Ahora que he agotado el debate sobre cómo podríamos desentrañar el misterio del
truco de las dos rendijas, pasemos a considerar cómo contribuyó la mecánica cuántica al
nacimiento de nuevos campos de investigación científica en busca de los elementos
esenciales que conforman la materia, y cómo esos elementos esenciales interaccionan y se
combinan para crear la hermosa complejidad del mundo que nos rodea. A lo largo del
último siglo, los físicos accedieron a entidades cada vez más profundas y cada vez más
pequeñas, observando en primer lugar las entrañas del átomo, después dentro de su
núcleo, y más tarde en el interior de las partículas que conforman el núcleo. La búsqueda de
los elementos constitutivos últimos de la materia es comparable a pelar una cebolla. A
medida que se retira cada una de sus capas aparece una estructura más fundamental
debajo de ellas. Este capítulo consiste, pues, en la historia del desarrollo de la física atómica,
nuclear y de partículas, y cómo la mecánica cuántica ha sido la luz de guía durante toda esta
odisea de descubrimiento. Por supuesto, es imposible que logre hacer justicia a la historia
de estas disciplinas en un solo capítulo, así que nos limitaremos a realizar un recorrido
rápido con breves altos en el camino para acercarnos a algunos de los hitos y
personalidades que han tenido más peso en la física del siglo XX.
Pero lo más importante es que todavía hay que completar la lista de la rareza
cuántica. Aún tenemos por delante varias perlas, como el efecto túnel, el espín y el
principio de exclusión de Pauli.
Rayos misteriosos por todas partes
En el Capítulo 2 describí cómo los años transcurridos entre 1895 y 1897 marcaron el
nacimiento de lo que se denomina la física moderna. Visto en retrospectiva desde el
momento actual, tal vez sería más adecuado bautizar aquellos primeros años apasionantes
como el «periodo de los rayos misteriosos», ya que fueron apareciendo por todas partes. El
intervalo previo a la llegada del nuevo siglo conoció el descubrimiento de los rayos X, la
radiactividad y el electrón, cada uno de los cuales supuso toda una sorpresa para la
comunidad científica . En la década siguiente reportarían el premio Nobel a sus
43
descubridores: Wilhelm Röntgen, Henri Becquerel y Joseph (J. J.) Thomson, respectivamente.
Recordemos que en el Capítulo 2 perfilamos el nacimiento y desarrollo de la teoría cuántica
siguiendo la idea revolucionaria de Planck en el paso del siglo XIX al XX. Sin embargo, por
entonces su obra distaba mucho de ser el campo de investigación más emocionante e
interesante de la física. Fue más bien el descubrimiento de los rayos X lo que acaparaba la
atención de la comunidad científica. Aquellos eran rayos invisibles capaces de atravesar
materia sólida y de crear una imagen sobre película fotográfica situada al otro lado. Esta
propiedad asombrosa fue un bombazo instantáneo en el público general de todo el mundo,
y muchos vieron de inmediato su extraordinaria utilidad en los campos de la medicina y la
industria.
Poco después de este descubrimiento, Henri Becquerel, que también estaba
interesado en el origen de los rayos X, estudió un compuesto de uranio que emitía un
fulgor fluorescente y daba lugar a resultados similares a los observados por Röntgen en
su experimento con rayos X. Becquerel descubrió que la radiación del uranio también
atravesaba la materia sólida, como los sobres de papel negro que empleaba para
proteger sus películas fotográficas de la luz solar, y que dejaba sus huellas en la película
sin revelar. Lo primero que pensó fue que el uranio también emite rayos X como parte
de la fluorescencia debida a la exposición a la luz solar. Pero no tardó en comprobar
que lo que fuera aquella emisión no tenía nada que ver ni con la luz solar ni con los
rayos X. Dos años después, Marie Curie, que por entonces también estaba trabajando
con su esposo en los rayos misteriosos, acuñó el término «radiactividad».
Entretanto, uno de los gigantes de la física experimental, el inglés J. J. Thomson,
descubrió la naturaleza de otra clase de rayos. Hacía años que se sabía que una placa de
metal con carga eléctrica dentro de un tubo de vacío emitía lo que se conocía como un
rayo catódico. Pero nadie sabía de qué estaba hecho. Thomson reveló que consistía en
partículas con carga negativa mucho más pequeñas que los átomos.
Con un planteamiento que recuerda a la idea de Planck de la cuantización de la
energía, solo que una década antes, el irlandés George Stoney había planteado que la
electricidad tal vez no fuera continua, sino que se manifiesta en pequeños paquetes
indivisibles que él denominó «electrones». Poco después del descubrimiento de
Thomson, Lorentz sugirió que debía de tratarse de los electrones de Stoney. A pesar de
sus objeciones iniciales a esa idea, fue Thomson quien recibió el Premio Nobel por el
descubrimiento del electrón, la primera partícula elemental. A menudo es así como se
acreditan los descubrimientos en la ciencia. Thomson no descubrió los rayos catódicos,
ni tan siquiera les dio nombre. Pero recibió el Premio Nobel por el experimento que
demostraba qué son. Aquel hallazgo marcó el nacimiento de la física subatómica.
Dentro del átomo
Entonces ¿en qué punto se encontraban las cosas a comienzos del siglo pasado?
Thomson había planteado que los electrones eran parte de la estructura interna de los
átomos. Pero como tenían carga negativa y los átomos son neutros, aquello implicaba
que los átomos también debían contener una carga positiva para cancelar la carga de
los electrones. Así que Thomson presentó la primera propuesta de modelo atómico,
donde los electrones mantenían una distribución uniforme en el seno de una esfera de
«materia» atómica con carga positiva. El tamaño de la esfera se podía calcular de
manera fiable a partir de cantidades que se conocían en aquella época. Al mismo
tiempo, Becquerel y los Curie estaban convencidos de que la radiactividad también se
emitía desde el interior de determinadas clases de átomos. Así que, mientras aún había
físicos y químicos que ni siquiera creían en la existencia de los átomos, otros ya estaban
vislumbrando lo que había dentro de ellos.
Ernest Rutherford, nacido en Nueva Zelanda, estaba destinado a convertirse en una de
las figuras más influyentes de la ciencia del siglo XX. Había acudido a Cambridge para
trabajar con Thomson y enseguida quedó fascinado por el novedoso tema de la
radiactividad. Descubrió que había tres tipos de radiactividad. Uno, que él llamó rayos beta,
resultó ser nada más que los electrones de Thomson. Otra clase, llamada rayos alfa,
consistía en partículas mucho más pesadas y de carga positiva que, según demostraría
Rutherford más tarde, eran iones de helio (átomos de helio desprovistos de sus electrones).
Asimismo demostró que un tercer tipo de radiactividad, con carga eléctrica neutra,
descubierto en 1900 por Paul Villard, no era más que otra forma de rayos
electromagnéticos, como los rayos X , que él llamó «rayos gamma». En la actualidad, como
44
es natural, consideramos los tipos alfa y beta como partículas, no como rayos.
Durante la primera década del siglo, Rutherford fue capaz de revelar que la corteza
de la Tierra tenía que tener miles de millones de años de edad, cuando midió la
cantidad de helio atrapada en el interior de muestras de roca, donde cantidades
minúsculas de mineral de uranio habían estado emitiendo lentamente partículas alfa
desde que se formaron las piedras. Cada partícula alfa habría quedado atrapada en la
roca y habría adquirido con rapidez un par de electrones para convertirse en un átomo
de helio. Esta demostración, sencilla pero irrefutable y planteada hace cien años, de que
nuestro planeta tenía que tener más de mil millones de años es algo que los defensores
del creacionismo no han sido capaces de rebatir con ninguna credibilidad.
Unos pocos años después, Rutherford se convertiría en el primer científico que logró
el sueño alquimista de la transmutación, al realizar un experimento con el que
transformó un elemento en otro. No fue ninguna sorpresa, puesto que, junto con
Frederick Soddy, ya había identificado la desintegración radiactiva como una forma
natural de transmutación.
Con el hallazgo de las partículas alfa, Rutherford no tardó en darse cuenta de que
constituían una herramienta para estudiar la estructura atómica. En 1911, dos de sus
colaboradores, Hans Geiger y Ernest Marsden, efectuaron una serie de meticulosos
experimentos consistentes en lanzar un rayo de partículas alfa desde una fuente
radiactiva contra una lámina de oro muy fina. Las partículas esparcidas se detectaban
como destellos diminutos de luz al chocar contra una pantalla fotosensible. A pesar de
que la lámina tenía varios miles de átomos de grosor, se comprobó que la mayoría de
las partículas alfa la atravesaban en línea recta sin apenas desviarse: claramente los
átomos tenían que consistir en su mayoría en espacio vacío. Pero lo que resultó mucho
más increíble fue el hecho de que aproximadamente una de cada ocho mil partículas
alfa rebotaban de nuevo hacia atrás. Esto es imposible si concebimos los átomos en los
términos del modelo de pudin de pasas de Thomson.
De acuerdo con la teoría de Rutherford, cuanto más se aproxima la partícula alfa a una colisión frontal con el
minúsculo núcleo atómico, mayor es el ángulo de desviación. Los resultados experimentales de Geiger y Marsden
confirmaron de un modo espléndido esta concepción.
modo magnífico cómo se clasifican todos los elementos de acuerdo con sus propiedades
químicas y cómo se ordenan dentro de la tabla periódica.
Vistas de las nubes de probabilidad del electrón en corte transversal.
Izquierda: El único electrón que conforma un átomo de hidrógeno se encuentra en su estado de mínima energía y es
más probable que se halle cerca del centro del átomo.
Centro: Si el electrón del hidrógeno se encuentra excitado en su siguiente nivel energético, su nube cambia de
repente. Ahora hay una probabilidad pequeña de localizarlo en el centro, pero es más probable que se halle dentro
de una envoltura esférica algo apartada del centro. Entre el centro y la envoltura hay una probabilidad cero de
encontrar el electrón.
Derecha: Átomo de carbono formado por seis electrones. Cuatro de ellos no tienen momento angular orbital y
poseen unas distribuciones de probabilidad simétricas. Los otros dos tienen una pequeña cantidad de momento
angular, lo que significa que la distribución de probabilidad de cada nube se encuentra en cualquiera de tres
orientaciones posibles; aquí solo se muestra una.
Pero la mecánica cuántica predice mucho más que la mera configuración electrónica
dentro de los átomos. También permite predecir la transición de electrones entre
distintos niveles de energía. Esto se produce, por ejemplo, cuando los átomos
interaccionan con la luz. Los electrones pueden absorber fotones siempre que las
energías de los fotones se correspondan con los huecos energéticos entre los diferentes
niveles. Si esto sucede, el fotón deja de existir, puesto que queda absorbido en su
totalidad como energía pura para «excitar» el electrón hasta situarlo en un nivel de
energía superior. El electrón no siempre se siente cómodo con esta energía adicional y
no tarda en emitir un fotón de la energía justa que le permita descender de nuevo a su
nivel energético original. La mecánica cuántica predice la frecuencia y la intensidad de
esta luz que reemiten los electrones excitados del átomo.
Cada tipo de átomo posee un esquema único de niveles energéticos permitidos a sus
electrones, y los patrones de luz que emiten los átomos cuando sus electrones
descienden a niveles energéticos inferiores se denominan «espectros de líneas». Esto es
lo que permite saber en astronomía qué elementos existen en las estrellas y galaxias
distantes analizando tan solo la naturaleza de la luz observada. Hoy en día la
espectroscopia tiene numerosas aplicaciones prácticas.
Dentro del núcleo
Unos años después de su descubrimiento del núcleo atómico, Rutherford realizó un
experimento en el que bombardeó átomos de nitrógeno con partículas alfa. Descubrió
que aquel proceso arrancaba núcleos de hidrógeno de los núcleos de nitrógeno que
portaban la unidad más pequeña de carga eléctrica positiva, igual y opuesta a la del
electrón.
El espín cuántico
Casi todos los libros no técnicos sobre mecánica cuántica eligen explicar el origen de la rareza cuántica mediante el
concepto de «espín». Yo he procurado evitarlo hasta ahora a pesar de ser, probablemente, la más cuántica de todas las
propiedades cuánticas, porque dista mucho de cualquier cosa que podamos conceptualizar con un lenguaje cotidiano.
En 1896, el neerlandés Pieter Zeeman descubrió que al situar los átomos dentro de un campo magnético y
excitarlos, las líneas espectrales (las estrechas bandas luminosas que crean un patrón sobre una pantalla debido a la
luz que emiten) se separan en varias componentes. En determinados casos, esta escisión se podía explicar en
términos de una teoría clásica (no cuántica) que desarrolló Lorentz, pero en general el efecto no se entendía y acabó
conociéndose como el «efecto Zeeman anómalo». Hubo que esperar hasta 1925, cuando Sam Goudsmit y George
Uhlenbeck se plantearon que quizá aquel efecto podía guardar relación con una nueva propiedad del electrón que el
campo magnético ponía de manifiesto. Usando conceptos basados en la vieja teoría cuántica relacionada con las
órbitas de los electrones de Bohr, propusieron que, aparte de tener un movimiento orbital alrededor del núcleo, el
electrón también gira sobre su eje (igual que la Tierra rota sobre sí misma al tiempo que orbita alrededor del Sol).
Pero este «espín cuántico» (del inglés spin, «giro») no se parece a nada que podamos visualizar basándonos en la
experiencia cotidiana que tenemos con objetos giratorios, como las pelotas de tenis o de béisbol.
El truco del cinturón: Si se considera como un truco de magia, este resulta muy poco impresionante, pero sirve muy
bien para ejemplificar la naturaleza del espín cuántico. Las partículas de la categoría de los «fermiones», como los
electrones, se caracterizan por tener un espín semientero. Esto significa que al rotar un electrón 360° completos, no lo
devolvemos a su estado original. Para ello habrá que rotarlo 360° más. Vi el siguiente ejemplo explicado en una
conferencia de Roger Penrose*: Fije el extremo de un cinturón debajo de un libro pesado situado al borde de una
mesa. La idea consiste en retorcer el cinturón y después eliminar la torcedura haciendo un nudo con el extremo que
está libre. Tal vez crea que un giro completo se puede anular mediante un solo nudo. Pero no es así. Sin embargo, si
damos al cinturón dos giros de 360 grados, entonces un nudo con el extremo libre anulará la torcedura por completo.
No hay que tomarse esta analogía al pie de la letra, pero sirve para ilustrar cómo es posible que un electrón tenga
que dar también dos vueltas enteras para completar un «ciclo».
* La idea apareció por primera vez en un libro de texto clásico que se titulaba Gravitation, de Misner, Thorne y
Wheeler (WH Freeman & Co., 1973).
El problema era que, al igual que el momento angular orbital de los electrones, este momento angular de espín
también tenía que estar cuantizado. En primer lugar, todos los electrones giran exactamente al mismo ritmo, y nunca
pueden frenarse o acelerarse. Su dirección de giro es aún más misteriosa, porque consiste en una superposición de
distintas direcciones a la vez, hasta que miramos. Al hacerlo tenemos que especificar en qué eje (básicamente en qué
dirección) están girando, en cuyo caso siempre los encontramos girando o bien en sentido horario, o bien en sentido
antihorario, alrededor de ese eje. Sin embargo, antes de que miremos se hallarán en una superposición en la que
giran ¡en ambas direcciones a la vez!
Por último, lo que consideramos una rotación de 360° del electrón no lo devolverá a su estado cuántico original;
¡deberá hacer dos rotaciones completas para lograrlo! La razón de que esto suene raro estriba en que no podemos
evitar pensar en un electrón como si fuera una pelota diminuta con un giro debido al movimiento de sus partes
internas alrededor de su centro. El espín cuántico es mucho más abstracto que eso y no se puede imaginar en
absoluto.
Decimos que todas las partículas elementales que conforman la materia (como electrones, protones y neutrones, y
sus cuarks constitutivos) tienen un espín semientero (medido en múltiplos del valor de la constante de Planck) y
pertenecen a una clase de partículas que se conocen como «fermiones». Los fotones pertenecen a esa otra clase de
partículas llamadas «bosones» y que tienen la propiedad de poseer un espín igual a un número entero de constantes
de Planck. Resulta que hay una diferencia fundamental y crucial entre fermiones y bosones, tal como se explica en el
recuadro dedicado al principio de exclusión.
Al hacer pasar una corriente eléctrica a través de gas hidrógeno encerrado en un tubo de descarga, el gas se calienta
e irradia luz. Esta se descompone entonces en los colores que la conforman mediante un prisma. Pero a diferencia de
la luz del Sol, que muestra un espectro suave de arcoíris donde los colores se difuminan unos en otros, ahora vemos
una serie de bandas de color bien diferenciadas (llamadas «líneas espectrales»): rojo, azul y muchas en la región del
violeta que se acercan cada vez más hasta perderse más allá de la región visible.
Llamó protones a estos núcleos de hidrógeno y rescató una vieja idea de un químico
inglés. William Prout había defendido en 1815 que los átomos de todos los elementos
son múltiplos del más ligero de todos, el hidrógeno. Rutherford propuso que tal vez
aquello no distara mucho de la verdad al fin y al cabo. Quizá fueran más bien los
núcleos atómicos los que tuvieran esa propiedad; los núcleos pertenecientes a
diferentes elementos no eran más que múltiplos de los núcleos de hidrógeno: protones
aislados. Por tanto, los núcleos de helio contendrían dos protones, los de litio, tres, y así
sucesivamente a medida que se avanza por la tabla periódica.
Pero la historia no podía acabar ahí. Como los protones portan la misma cantidad de
carga eléctrica que los electrones, debía haber tantos protones en el núcleo como
electrones fuera de él (para garantizar que los átomos tuvieran una carga eléctrica
neutra). Pero los núcleos parecían ser mucho más pesados que la suma de los protones
que contenían. Si no supiera usted la respuesta a este enigma, ¿cuál propondría?
Durante la década de 1920 los científicos plantearon lo que consideraban un truco
ingenioso. Tal vez los núcleos estuvieran formados por protones y electrones, bien
diferenciados de los electrones en órbita, por supuesto. El número total de protones
sería el necesario para reunir la masa adecuada (puesto que los electrones son tan
ligeros que podemos olvidarnos de su aporte), pero habría los electrones justos para
cancelar la carga positiva del exceso de protones.
Por desgracia esta idea resultó ser errónea. Pero, una vez más, la mecánica cuántica
consiguió apuntar en la dirección correcta. El principio de incertidumbre de Heisenberg
nos dice que retener un electrón dentro de los minúsculos confines de un núcleo
implicaría conocer su posición con una precisión elevada. Esto equivale a que tenga una
cantidad de movimiento demasiado errática como para que la fuerza de atracción de los
protones lo mantenga ahí durante mucho tiempo. Los electrones sencillamente no
podrían estar encerrados dentro de núcleos.
Principio de exclusión de Pauli
Uno de los grandes químicos de todos los tiempos, Dimitri Mendeléiev, siberiano y el más joven de una familia con entre
catorce y diecisiete hijos (los registros no están claros), ideó la archiconocida tabla periódica de los elementos a finales
de la década de 1860. En ella consiguió agrupar en familias todos los elementos con unas propiedades similares. Sin
embargo, el origen de esas agrupaciones fue un misterio durante más de medio siglo, hasta la llegada del prodigio
austriaco Wolfgang Pauli con su principio de exclusión.
Pauli explicó que la razón de que los elementos cuenten con distintas propiedades químicas se debe a la manera
en que sus electrones ocupan distintas órbitas cuánticas o capas. Cada electrón se describe mediante los números
cuánticos asignados a su función de onda. Estos definen los valores de su energía cuantizada, de su momento angular
orbital y de su espín. Pauli señaló que en el mismo átomo no hay dos electrones con los mismos números cuánticos.
Una vez que se «ocupa» un estado cuántico particular, el resto de electrones se ve obligado a buscar algún otro lugar
donde «asentarse».
El principio de exclusión también explica por qué los electrones no se pueden apiñar dentro del núcleo y, por
tanto, cómo existe la materia en la forma en que lo hace.
De este modo se explica un problema que había detectado Bohr. Es evidente que si todos los electrones de un
átomo descendieran hasta la energía más baja, entonces todos los elementos tendrían idénticas propiedades
químicas. Las propiedades de un elemento no están regidas por el número total de electrones que hay en sus
átomos, sino por cómo se disponen los más exteriores. Los electrones llenan sucesivas «envolturas», de manera que
cada envoltura contiene una cantidad de electrones de acuerdo con ciertas reglas relacionadas con los números
cuánticos. Cuando una envoltura está completa, el siguiente electrón tiene que ocupar el siguiente nivel de energía.
Así, son los electrones más exteriores (los «de valencia») los que indican cómo se unen los átomos para crear la
variedad aparentemente infinita de compuestos químicos que hay en la naturaleza, y además explican muchas de sus
propiedades físicas, como por qué ciertos materiales conducen el calor y la electricidad mejor que otros.
Las partículas que reciben el nombre colectivo de fermiones, como electrones, protones y neutrones, obedecen al
principio de exclusión de Pauli. La otra clase de partículas, los bosones, no lo hacen. Los fotones, por ejemplo, no
tienen ningún problema para ocupar el mismo estado cuántico, y de hecho lo prefieren así. Una analogía habitual
consiste en comparar el comportamiento ordenado de los fermiones con el público asistente a un concierto de
música clásica, sentado en filas regulares, mientras que los bosones se asemejan más bien a la multitud que acude a
oír un concierto de música pop, donde toda la gente se concentra lo más cerca posible del escenario.
las responsables tanto directas como indirectas de casi todos los fenómenos naturales.
Todos los materiales se mantienen unidos a través de las fuerzas electromagnéticas entre
átomos. A una escala mayor, es la fuerza gravitatoria la que mantiene unido el universo.
Pero en el interior del núcleo de los átomos nos encontramos con una nueva clase de
fuerza. En el año 1935, el físico japonés Hideki Yukawa, presentó una idea para explicar este
aglutinante nuclear que le valió el premio Nobel. Para ello se basó en una idea que más
tarde se convertiría en uno de los ingredientes cruciales en el campo de la física de
partículas: la de una partícula de intercambio. Para explicar su significado tendré que
recurrir a dos conceptos con los que ya estamos familiarizados: el principio de
incertidumbre de Heisenberg y la ecuación E = mc de Einstein.
2
A un nivel cuántico, ni siquiera el espacio vacío lo está realmente, sino que bulle de actividad; por todas partes saltan
constantemente a la existencia y la no existencia partículas virtuales. En la creación de pares, una partícula y su
equivalente de antimateria se crean a partir de energía pura, por ejemplo, de un fotón. En el proceso inverso, llamado
aniquilación de pares, la partícula y antipartícula chocan entre sí y se destruyen mutuamente, lo que las hace
desaparecer para siempre con un destello de luz.
Ahora viene la fase II: la ecuación de Einstein nos dice que la masa y la energía son
intercambiables, así que la energía que se toma prestada se puede usar para crear una
partícula de una determinada masa. Yukawa afirmaba que esa partícula, ahora llamada
«pion», se creaba dentro de los núcleos atómicos. Según él, esta partícula era la
responsable de la fuerza de atracción que mantiene unidos protones y neutrones,
conocidos con el nombre genérico de «nucleones». Los cálculos de Yukawa predecían
que cada pion se crea mediante un nucleón, el cual toma energía prestada de su
entorno para ello. El pion salta entonces hasta un nucleón cercano, donde vuelve a
desvanecerse. Durante su breve existencia, permitida por el principio de incertidumbre,
se interpreta como un intercambio entre los dos nucleones que da lugar a una fuerza de
atracción que los mantiene unidos. Ese pion suele denominarse partícula virtual, en
oposición a real, porque solo puede tener una existencia fugaz.
De manera similar, podemos interpretar la fuerza electromagnética que hay entre
partículas con carga eléctrica como el intercambio de un fotón virtual, que se diferencia
de uno real en que este conserva su energía todo el tiempo que quiere, mientras no sea
absorbido por un átomo, por supuesto.
Las partículas virtuales que se pueden crear a partir de energía pura se conocen
como «bosones»; también se denominan «partículas portadoras de fuerza», en el
sentido de que cuando se intercambian entre otras dos partículas, el proceso da lugar a
una fuerza entre ellas. Los bosones obedecen reglas cuánticas distintas a las de las
partículas de materia propiamente dicha, conocidas por el nombre genérico de
«fermiones», como los electrones, protones y neutrones, que son las que forman los
átomos y, por tanto, toda la materia que vemos a nuestro alrededor. Pero gracias al
trabajo de uno de los físicos teóricos más sobresalientes de todos los tiempos, un inglés
tímido llamado Paul Dirac, sabemos que hasta los fermiones se pueden crear de la nada
(véase el recuadro sobre antimateria).
Fuerzas nucleares
Es justo afirmar que el estudio de los núcleos atómicos ha sido, y sigue siendo, uno de
los temas más desafiantes de la actividad humana. La razón estriba en la compleja
naturaleza de las fuerzas que actúan entre los componentes nucleares, los protones y
neutrones. De las cuatro fuerzas conocidas de la naturaleza, tres tienen relevancia
dentro del núcleo. Ya nos hemos topado con la fuerza electromagnética, que actúa para
separar protones (ya que cargas iguales se repelen), y la denominada «fuerza nuclear
fuerte», que mantiene unidos todos los nucleones (protones y neutrones). Pero también
existe otra fuerza nuclear que se conoce como fuerza débil sin más, y que es
responsable de la desintegración beta, la cual retomaremos en unos instantes.
La interacción entre la fuerza electromagnética de repulsión y la fuerza nuclear fuerte de
atracción proporciona la estabilidad de los núcleos atómicos. Debido a que la intensidad de
estas dos fuerzas varía con la distancia, su efecto combinado conspira para crear una
barrera energética en la superficie nuclear llamada «barrera de Coulomb». Esta consiste
básicamente en un campo de fuerza que actúa para contener los protones dentro de un
volumen determinado . 50
De forma análoga, un partícula con carga positiva procedente del exterior que choca
contra el núcleo puede entrar en él si porta la energía suficiente para abrirse camino a
través de la barrera de Coulomb. Pero existe otra manera más interesante de que una
partícula así supere la barrera, aun cuando no cuente con la energía suficiente. Aquí es
donde nos encontramos con otro concepto cuántico que no solo explica la
desintegración de la partícula alfa en la radiactividad, sino que además es el motivo por
el que brilla el Sol y de que usted esté aquí hoy.
Antimateria
Junto con Heisenberg, Pauli, y muchos otros, Paul Dirac fue otro de los jóvenes genios que asentó la mecánica cuántica
sobre una base matemática firme. De hecho, un sondeo reciente situó a Dirac en el segundo puesto entre los físicos
ingleses más eminentes, inmediatamente después de Isaac Newton.
Conviene señalar que Dirac fue uno de los grandes nombres que asistió a la famosa conferencia de Solvay en 1927
sin ningún interés por discutir sobre las distintas interpretaciones de la mecánica cuántica. ¡La belleza estética de las
ecuaciones matemáticas le parecía más atractiva que su significado!
En 1927, Dirac esclareció que las dos formulaciones distintas de la teoría, debidas a Heisenberg y Schrödinger, eran
equivalentes desde un punto de vista matemático. Después fue el primero en combinar la mecánica cuántica con la
teoría especial de la relatividad de Einstein mediante el desarrollo de una ecuación alternativa a la de Schrödinger que
describía el comportamiento de los electrones que se mueven con velocidades cercanas a la de la luz. Sin embargo, la
ecuación de Dirac contenía una extraña predicción: que también tenía que existir una partícula especular a un
electrón, o su antipartícula. Tendría una masa idéntica a la del electrón, pero carga eléctrica opuesta. Esa partícula se
llamó «positrón», y se descubrió de manera experimental varios años después. Al positrón también se le ha
denominado el «compañero de antimateria del electrón».
Ahora sabemos que todas las partículas elementales poseen su compañera de antimateria asociada. Cuando dos
de ellas entran en contacto, se aniquilan por completo entre sí con un estallido de energía, porque se cancelan todas
sus propiedades salvo la masa, que se convierte en energía pura. La cantidad de energía creada obedece la ecuación
einsteiniana E = mc .
2
Este proceso también puede darse a la inversa, de forma que energía pura se convierta en materia: un fotón, que al
fin y al cabo es un paquete de energía lumínica, se puede transformar en un electrón y un positrón mediante un
proceso que se conoce como «creación de pares».
Pero lo más interesante es que los pares partícula/antipartícula saltan constantemente a la existencia y la no
existencia por doquier tomando prestada del entorno la energía que necesitan para su creación, de acuerdo con la
relación de incertidumbre energía/tiempo, y existen durante un espacio muy corto de tiempo antes de aniquilarse de
nuevo y devolver la energía que tomaron prestada, como si no hubieran existido jamás.
En 1933, Wolfgang Pauli se dio cuenta de que este proceso tenía que conllevar la
creación de otra partícula, por entonces todavía sin detectar, que permitiera explicar por
qué las partículas beta emitidas no emergían con la energía correcta para equilibrar las
cuentas. Esta nueva partícula, tan esquiva, no se confirmó de forma experimental hasta
1956, y recibió el nombre de «neutrino» . 52
Tanto la desintegración beta como la alfa son maneras en que los núcleos se pueden
transformar de una especie en otra. Constituyen, junto con los procesos de fisión y
fusión (donde los núcleos se escinden en mitades o se unen, respectivamente), algunos
de los procesos que explican cómo se formaron por primera vez los diferentes
elementos que vemos a nuestro alrededor en la actualidad, incluidos los que conforman
los átomos de nuestro cuerpo. El carbono, oxígeno y nitrógeno, junto con el resto de
elementos que constituyen los compuestos químicos necesarios para la vida, se habrían
sintetizado en el interior de estrellas miles de millones de años atrás. Esos astros ya no
existen, pues explotaron como supernovas; durante el proceso lanzaron al espacio gran
parte de su contenido, el cual contribuyó a la formación de nuestro Sistema Solar. De
aquí la frecuente y muy cierta afirmación de que estamos hechos «de polvo de
estrellas».
El efecto túnel cuántico
El efecto túnel cuántico (o simplemente efecto túnel), también llamado «penetración de barrera», es otro de los
fenómenos extraños que solo se dan en el mundo cuántico. Consideremos el siguiente ejemplo. Para que una bola suba
rodando por una pendiente y descienda por el otro lado, hay que propinarle la energía necesaria de partida. Mientras
sube por la pendiente se va frenando y, a menos que cuente con la fuerza suficiente para llegar arriba, se detendrá y
volverá a caer por donde subió. Pero si la bola tuviera un comportamiento mecánico cuántico siempre habría cierta
probabilidad de que desapareciera de manera espontánea a un lado de la pendiente y reapareciera al otro lado. Esto
sucedería aunque no contara con la energía suficiente para llegar a la cima y sobrepasarla por el camino razonable.
La forma habitual de explicar cómo se produce el efecto túnel consiste en apelar a la relación de incertidumbre de
Heisenberg entre energía y tiempo: si la barrera energética que tiene que rebasar una partícula no es demasiado
elevada o amplia, podrá tomar prestada suficiente energía del entorno para que se produzca el efecto túnel. Esto será
viable siempre que devuelva la energía prestada dentro de un espacio de tiempo que viene determinado por la
relación de incertidumbre.
En la vida cotidiana, si una bola asciende por una pendiente sin suficiente energía para llegar a la cima, de manera
natural volverá a caer rodando por donde subió. El efecto túnel sería como si la bola de pronto desapareciera en
medio del trayecto de subida y reapareciera al otro lado de la pendiente. Aunque nunca presenciaremos esa magia en
el macromundo, el proceso ocurre de manera rutinaria en el mundo cuántico. Por supuesto, en este caso, la
pendiente es una pendiente energética y se puede concebir como una especie de campo de fuerza que la partícula
cuántica no debería ser capaz de vencer.
Pero sería más exacto pensar que la función de onda de la partícula existe como una superposición que la sitúa a
ambos lados de la barrera a la vez. Y es la función de onda la que está rebasando la barrera. Solo cuando miramos
hacemos que «se colapse la función de onda» y localizamos la partícula a un lado o al otro.
El efecto túnel cuántico desempeña un papel importante en muchos procesos. A la hora de explicar cómo se
produce la radiación alfa, se convirtió en la primera aplicación fructífera de la mecánica cuántica a problemas
nucleares. Asimismo sirve de base a numerosos aparatos electrónicos modernos, como el diodo de efecto túnel.
Un ejemplo cotidiano de efecto túnel se produce en el cableado doméstico de aluminio. Sobre la superficie del
cableado eléctrico expuesto se acumulará una capa fina de óxido de aluminio, lo que creará una capa aislante entre
dos cables enrollados juntos para hacer conexión. De acuerdo con la física clásica, esto debería interrumpir el flujo de
la corriente. Pero la capa suele ser lo bastante fina como para que los electrones pasen con facilidad a través de ella
por efecto túnel, y se mantenga el flujo de corriente.
Muchos elementos más pesados solo se forman cuando una estrella masiva estalla de
forma violenta como supernova. Cuanta más temperatura y más extremas sean las
condiciones en el interior de una estrella, más completo llegará a ser el proceso de síntesis y
más pesados serán los elementos que se formen. El interior de una estrella solo alcanza la
temperatura y la densidad suficientes para crear los elementos más pesados durante esos
intensos instantes finales de la vida del astro . 53
dos razones. La primera es que los protones y neutrones obedecen a reglas cuánticas
similares a las que siguen los electrones en órbita, y que determinan de qué manera se
pueden distribuir dentro de los núcleos. Igual que los electrones deben describirse
mediante funciones de onda cuyas formas están determinadas por las etiquetas de los
números cuánticos que portan, también sería más correcto considerar los nucleones como
entidades extensas que se distribuyen dentro del núcleo de acuerdo con sus números
cuánticos.
Al menos con los electrones nos podemos permitir el lujo de imaginarlos como
minúsculas esferas en órbita, aun cuando no sea correcto. Dentro del núcleo apenas hay
espacio, y los nucleones se encuentran apretados, de forma que la única imagen que
podemos evocar es la de una bolsa llena de canicas agolpadas en lucha por un sitio.
En la práctica, la imagen que tengamos de un nucleón dependerá de cómo
intentemos estudiarlo. Si nos interesa describir cómo interaccionan protones o
neutrones de alta energía inmersos en un núcleo con el resto de nucleones,
descubrimos que tratarlos como diminutas partículas localizadas permite una precisión
razonable. Pero un neutrón externo situado en un núcleo con halo (véase el recuadro de
la página 99) tiene una función de onda que se desparrama por un volumen amplio
alrededor de todo el núcleo.
La segunda razón de la complejidad de los núcleos radica en la naturaleza de la fuerza
nuclear fuerte, que resulta tener un origen aún más fundamental de lo que había anticipado
Yukawa con su esquema de intercambio de piones. En la segunda mitad del siglo XX, los
físicos empezaron a preguntarse si ocurriría algo aún más profundo en el interior de los
nucleones.
Cuarks
Hacia mediados de la década de 1930 se conocía la existencia de un puñado de
partículas elementales. Además de los protones, neutrones y electrones, que conforman
los átomos de la materia normal, y de los fotones de la radiación electromagnética, los
físicos también habían descubierto los positrones y neutrinos. Luego, poco después de
que Yukawa presentara su teoría del pion, se detectó una nueva partícula en los rayos
cósmicos que en un primer momento se relacionó erróneamente con el pion de
Yukawa. En realidad recordaba a un electrón pesado e inestable, y hoy en día se lo
conoce como «muon». Los muones se forman en las capas altas de la atmósfera de la
Tierra cuando los protones con mucha energía procedentes del espacio exterior chocan
con las moléculas del aire, y solo existen durante una fracción de segundo. Los piones
se descubrieron más tarde en experimentos realizados unos años después.
Pronto se construyeron aceleradores de partículas (o trituradores de átomos, como
se llamaron al principio) para ahondar más en la estructura del mundo cuántico. La idea
era sencilla: en lugar de usar la luz para mirar dentro de estructuras subatómicas, se
seguía la estrategia de Rutherford con las partículas alfa. Pero para estudiar escalas de
una longitud más reducida había que emplear partículas más energéticas. En esencia, se
usaban las propiedades ondulatorias de partículas materiales, en lugar de ondas de luz.
Cuanto mayor fuera la energía del haz de partículas, más corta sería su longitud de onda
de De Broglie y menores las escalas de longitud que resolvería. Además, cuanta más
energía pudiera liberarse desde un volumen minúsculo, a partir de colisiones cada vez
más violentas entre partículas, mayor probabilidad había de que a partir de esa energía
se formaran partículas más exóticas.
En la segunda mitad del siglo XX ya se habían detectado tantas partículas elementales
nuevas que los físicos empezaron a preguntarse si de verdad serían tan elementales. Igual
que habían descubierto que los átomos de las 92 clases distintas de elementos consistían
en tan solo tres partículas (protones, neutrones y electrones), también era posible que todas
esas partículas estuvieran formadas por unos pocos elementos constitutivos aún más
esenciales.
Al clasificar las partículas, se vio que una familia en particular parecía contener
demasiadas variedades. Los hadrones son las partículas sensibles a la fuerza nuclear
fuerte, y se clasifican en dos grupos. El primero, formado por los llamados bariones,
incluye el protón y el neutrón. Pero pronto se les sumó toda una cohorte de nuevas
partículas bariónicas, como las lambda, sigma, xi y omega. El segundo grupo, formado
por los mesones, contiene el pion junto con cierta cantidad de otras partículas más
masivas, como el mesón eta y el caón.
No se puede arrancar cuarks individuales del interior de una partícula como un nucleón. Aunque aportemos la
energía necesaria para vencer la unión entre cuarks, lo único que conseguiremos será aportar energía para crear un
nuevo par cuark/anticuark mediante el proceso de creación de pares (véase la figura de la página 239). El nuevo cuark
reemplazará al arrancado del interior del nucleón, mientras que el anticuark se unirá al cuark arrancado para dar lugar
a un mesón.
En un principio se pensó que solo había tres tipos de cuarks (llamados «sabores»).
Ahora sabemos que hay seis en total, cada uno de ellos con una masa diferente. Los
protones y neutrones se componen tan solo de dos tipos, de nombres muy poco
imaginativos: un protón contiene dos cuarks «arriba» y un cuark «abajo», mientras que
un neutrón contiene dos «abajo» y un «arriba».
Resulta que la unidad de carga que porta un protón o un electrón no es el paquete
mínimo de electricidad que existe. Tres de los cuarks son negativos y tienen un tercio de
la carga del electrón, y los otros tres son positivos y poseen dos tercios de la carga del
protón. De este modo, dos cuarks arriba, cada uno con una carga positiva igual a dos
tercios de la del electrón, y un cuark abajo con una carga negativa equivalente a un
tercio de la del electrón, se combinan para formar la carga del protón, mientras que dos
abajo y un arriba se cancelan entre sí en el interior de la partícula de carga neutra que
llamamos neutrón.
Los cuatro sabores restantes se conocen, sin motivo alguno, como extraño,
encantado, fondo y cima. Pero personalmente prefiero la descripción que dio Terry
Pratchett de los cuatro sabores de la magia en sus historias del Mundodisco: ¡arriba,
abajo, de lado y menta!
Además de la carga eléctrica, los cuarks también tienen que estar provistos de otra
característica que se conoce como carga de color. Esta es necesaria para explicar por
qué los cuarks solo se unen en grupos de tres para formar nucleones y todos los demás
bariones, pero en pares cuark/anticuark para formar el pion y sus parientes mesones.
Hablaré más sobre esto en el Capítulo 8.
En la actualidad se sabe que solo hay dos especies de partículas elementales de
materia: los cuarks y los leptones. Estos últimos dan nombre a todas las partículas que
no son sensibles a la fuerza nuclear fuerte (o sea, todas las que no portan carga de
color), en otras palabras, ¡todas las partículas elementales de materia que no son cuarks!
Los leptones incluyen al electrón y sus dos parientes más pesados llamados muon y las
partículas tau, así como tres tipos de neutrinos.
Al menos es agradable saber que la primera partícula elemental que se descubrió,
más de cien años atrás, sigue siendo elemental. ¡Viva el electrón!
Componentes esenciales
Frank Close, profesor de Física en la Universidad de Oxford
En las distintas etapas de la historia han ido variando los candidatos a elementos constitutivos esenciales. Hace un
siglo se creía que los elementos atómicos eran fundamentales; en la década de 1930 fueron los electrones, protones y
neutrones. Hoy, el electrón sigue apareciendo en nuestra lista, pero se sabe que los protones y neutrones están formados
por partículas aún más pequeñas llamadas cuarks. Una cuestión obvia si nos guiamos por la historia es si el electrón y
los cuarks serán de verdad fundamentales, o si estarán formados por piezas aún más pequeñas, a modo de muñecas
rusas. Sinceramente, ¡no lo sabemos! Lo único que podemos afirmar es que con los mejores experimentos que es posible
realizar hoy en día no hay ningún indicio de una estructura más profunda. Pero también hay signos de que hay algo
especial en esta capa de la «cebolla cósmica».
¿Qué nos conduce a esa conclusión? Existen dos técnicas experimentales; una consiste en el esparcimiento, la otra
es la espectroscopia.
Si una supuesta capa fundamental consiste en realidad en componentes más profundos, la mecánica cuántica
limita las maneras en que pueden disponerse dichos elementos. Una de esas configuraciones tendrá la cantidad
mínima de energía: esto recibe el nombre de «estado fundamental». Uno o más componentes pueden hallarse en un
estado superior de energía, lo que hará que el conjunto del sistema tenga una energía mayor. Un componente puede
emitir un fotón y perder energía en el proceso; y, a la inversa, la absorción de un fotón de la energía adecuada puede
hacer que el sistema ascienda del estado fundamental a un estado de energía más elevado. A partir del espectro de
energías de esos fotones, se puede deducir el patrón de niveles de energía del sistema (compuesto).
Los niveles de energía resultantes de una molécula (debido a la vibración de unos átomos respecto a otros), de un
átomo (debido a sus electrones), de un núcleo (debido a la vibración y al movimiento orbital de sus protones y
electrones) y hasta del propio protón o neutrón (debido al movimiento de los cuarks que los componen) se muestran
muy similares desde un punto de vista cualitativo, aunque cuantitativamente difieran.
Las unidades de energía a una escala cuántica son los electronvoltios: 1 eV = 1,6 × 10 julios. Para hacernos una
-19
idea de la escala, se suelen necesitar varios eV de energía para arrancar un electrón de un átomo. La escala energética
para excitaciones moleculares se mide en milielectronvoltios (representado como meV); los núcleos atómicos se
excitan a una escala de MeV (millones de electronvoltios), y los protones o neutrones a cientos de MeV. Esto revela
que la escala de distancias cada vez más pequeñas implica energías mayores a medida que avanzamos desde
moléculas relativamente grandes hasta los compactos protones. Este es el primer indicio de una estructura más
profunda. Luego, el esparcimiento directo a partir de esos componentes (como en los experimentos de Rutherford en
relación con el núcleo atómico, o el esparcimiento de alta energía de haces de electrones sobre los cuarks) revela sus
componentes internos.
Supongamos que hacemos una lista con las variedades de cuarks o el electrón, muon y el tauón (o partícula tau).
Los más ligeros tienen masas del orden del MeV. El tauón, cuark encantado y cuark fondo se sitúan en la escala del
GeV (miles de millones de eV), mientras que el cuark cima tiene cientos de GeV. ¿Podría ser esto un signo de un
espectro nuevo debido a «subcuarks» y «subleptones»?
Sin embargo, seguir la vieja rutina familiar no funciona. No hay ninguna señal de transiciones electromagnéticas (la
emisión o absorción de fotones) entre los leptones «pesados» y los «ligeros», por ejemplo, en contra de lo que
sucedería si fueran meras excitaciones unos de otros. Lo mismo ocurre con los cuarks, a pesar de que los indicios son
menos directos. En segundo lugar, todas estas partículas tienen la misma cantidad de espín (½ unidades de la
constante de Planck), y lo esperable sería una variedad de espines si subyaciera toda una espectrocopia de
excitaciones. Además, hay signos indirectos de que hay un máximo de tres «generaciones», mientras que un simple
espectro de excitación prodigaría toda una diversidad de estados.
Por último, su tamaño (si es que tienen alguno) es inferior a 10-18 m, y con unas dimensiones tan insignificantes,
lo esperable sería que todas las masas se situaran en una escala de muchos GeV, en lugar de MeV (como sucede en el
caso de los cuarks arriba y abajo, y el electrón).
O estas partículas son realmente fundamentales, o hay en acción dinámicas que trascienden la mecánica cuántica
convencional. Y cualquiera de las dos opciones es apasionante. Parece haber algo novedoso en la familia actual de las
partículas fundamentales que figuran en el modelo estándar.
Pero ¿hasta qué punto estamos seguros de que los electrones y los cuarks son los
elementos constitutivos más esenciales de la materia? Tal vez con el tiempo
descubramos que también ellos poseen una estructura interna. Tal vez haya algo aún
más básico y fundamental.
43. Vale, quizá el electrón no fuera del todo una sorpresa.
44. La confirmación de que los rayos X consistían en realidad en radiación electromagnética igual a la luz tuvo que
esperar hasta 1912.
45. Recordemos que un «cuanto» significa aquí el paquete o unidad más pequeña de una cantidad que consideramos
continua en el macromundo, como la energía.
46. La forma de la órbita de un electrón es, como siempre, algo que podemos calcular a partir de la función de onda,
es decir, la nube de probabilidad que muestra la distribución probable del electrón alrededor del átomo.
47. La cantidad de movimiento viene dada por el producto de la masa por la velocidad. Para una cantidad de
movimiento dada, si la masa es grande, entonces la velocidad ha de ser pequeña.
48. El magnetismo es otra forma de esta misma fuerza.
49. La Gran Explosión acaeció hace unos 400 000 000 000 000 000 (o 4 × 10 ) segundos, mientras que un protón
17
podría cruzar un núcleo atómico 10 000 000 000 000 000 000 000 (o 10 ) veces en un solo segundo, ya que en
22
cruzarlo una sola vez tarda la décima parte de un intervalo temporal llamado zeptosegundo (una milésima de una
milmillonésima de una milmillonésima de segundo). Debo señalar aquí que se trata de una palabra excelente y, sin
embargo, muy poco utilizada, y que todos deberíamos intentar usarla mucho más en el futuro en expresiones tales
como: «vuelvo en un zeptosegundo» o «se acabó en un zeptosegundo».
50. Los neutrones no perciben la fuerza electromagnética porque son neutros y, por tanto, indiferentes a esta barrera
energética. Sin embargo, permanecen en su sitio dentro del núcleo gracias a la fuerza nuclear fuerte.
51. Los núcleos de los elementos más ligeros suelen tener la misma cantidad de protones que de neutrones, mientras
que los núcleos más pesados tendrán más neutrones que protones.
52. Millones de neutrinos procedentes del espacio exterior atraviesan cada centímetro cuadrado de nuestra piel por
segundo y nos atraviesan el cuerpo en línea recta sin «tocarnos». Lo mismo sucede cuando viajan a través de
cualquier otro material, así que no es raro que resulten tan difíciles de detectar y de estudiar.
53. Para consultar una descripción interesante y lúcida de cómo se crean los elementos en el cosmos basta con
consultar Nucleus: A Trip Into the Heart of Matter, de Ray Mackintosh et al. (Canopus Publi- shing, 2011).
54. Pensemos que hay alrededor de cien elementos (que se diferencian en cuanto a su número de protones), la
mayoría de ellos con decenas de isótopos distintos (que se diferencian en cuanto a su número de neutrones).
8. En busca de la teoría definitiva
Para entender la estructura de nuestro universo en su nivel más profundo, los físicos
intentan responder todos los interrogantes y resolver todos los misterios. Nunca dejamos
de preguntar «¿por qué?»:
¿Por qué sucedió esto?
Debido a tal y tal efecto.
¿Qué causó ese efecto?
La interacción de este objeto con aquel otro.
¿Por qué interaccionaron?
Por la actuación de tal y tal fuerza.
¿Cuál es el origen de la fuerza?
Y así sucesivamente. Sin embargo, a diferencia de los niños, no nos quedamos
tranquilos con el fin de la conversación que impone un padre exasperado al responder:
«¡Porque así lo hizo Dios!». Desde luego, hay muchos científicos con creencias religiosas,
pero estas interfieren pocas veces en la aspiración de dar respuesta a las preguntas más
fundamentales de sus campos de investigación.
Aun así, los físicos teóricos se sienten empujados por algo más que el mero afán de
conocimiento a base de profundizar cada vez más en el complejo funcionamiento de la
naturaleza. También persiguen patrones y simetrías en la naturaleza que se manifiestan
en la simplicidad y la belleza de las ecuaciones matemáticas. Alguna de las mentes más
excelsas ha llegado incluso al extremo de rechazar una teoría porque las matemáticas
eran demasiado complejas ¡o feas!, aduciendo cosas como: tiene que haber algún error,
porque seguro que la naturaleza no puede ser tan torpe en realidad. Quien no sea
matemático o físico tal vez los considere motivos irracionales para desechar una teoría,
pero parecen funcionar. La búsqueda de las verdades últimas siempre es una búsqueda
de la belleza y la simplicidad. Parece que la multitud de fenómenos que observamos a
nuestro alrededor, ya sea en la Tierra o deducidos a partir de la luz de una estrella
distante, se explican en última instancia mediante una cantidad increíblemente reducida
de teorías fundamentales. Toda la mecánica clásica se explica con las leyes newtonianas
del movimiento y de las fuerzas, y las teorías de la relatividad de Einstein las
perfeccionaron; la electricidad y el magnetismo resultan ser dos manifestaciones de la
misma fuerza electromagnética; y, por supuesto, el comportamiento de todas las
partículas subatómicas se describe a través de la mecánica cuántica.
Por tanto, los físicos del siglo XX tuvieron que hacer algo más que limitarse a localizar y
clasificar todas las partículas fundamentales. Tenían que desentrañar cómo interaccionan
esas partículas entre sí y cuál es el origen de las fuerzas que actúan entre ellas. Y si hubiera
distintos tipos de fuerzas, ¿tendrían un origen común? En realidad, la mecánica cuántica de
la década de 1920 no fue más que el primer paso para recorrer esa senda. La historia de los
avances en física atómica, nuclear y de partículas que conté en el capítulo anterior está, por
tanto, incompleta. Porque, durante la búsqueda de la estructura de la materia para
descubrir sus elementos constitutivos fundamentales, los físicos también han perseguido la
simplicidad y la simetría en sus teorías. El Santo Grial de la física es el descubrimiento de la
teoría definitiva de todo, una teoría todopoderosa a partir de la cual se puedan inferir y
explicar todos los fenómenos naturales que tienen lugar en el universo . 55
no varía por el mero hecho de que un cuerpo se esté moviendo. Sin embargo, la relatividad
especial nos ha enseñado que a medida que el objeto se acerca a la velocidad de la luz su
masa empieza a crecer hasta que, al alcanzar la velocidad de la luz, se convertiría en infinita,
por eso nada que tenga masa en reposo puede viajar a la velocidad de la luz. Solo un año
después de que Schrödinger publicara su ecuación original, esta fue reformulada con estas
modificaciones de manera independiente por Oskar Klein y Walter Gordon, así como por el
propio Schrödinger. Pero la nueva ecuación planteaba un problema bastante grave: las
probabilidades cuánticas que predecía a partir de la función de onda podían ser ¡negativas!
¿Y qué podía significar en la Tierra decir que un electrón tiene una probabilidad de al menos
el 20% de encontrarse en algún sitio?
En 1928, Paul Dirac publicó un artículo titulado «The quantum theory of the electron»
[«La teoría cuántica del electrón»] en el que proponía una ecuación alternativa a la de
Schrödinger que no solo era «totalmente relativista», sino que además tenía en cuenta el
espín del electrón de una manera natural (algo importante en aquel momento para que la
teoría explicara los nuevos resultados experimentales). Fue esta ecuación la que condujo a
Dirac a la predicción teórica de las antipartículas y la idea de la creación de pares electrón-
57
positrón y su aniquilación.
Un año antes, en 1927, Dirac había publicado asimismo el primer artículo que
combinaba la mecánica cuántica con la teoría de la luz de Maxwell para ofrecer la
primera teoría cuántica del fotón. Lo que hizo fue «cuantizar» el campo
electromagnético.
Después calculó cómo combinar las dos teorías, una de las cuales describía el
electrón, y la otra, el fotón. El resultado fue una teoría de la electrodinámica cuántica.
Aquel fue el primer ejemplo de lo que se conoce como «teoría cuántica de campos», y
explicaba de qué manera emiten y absorben fotones los electrones, y que dos
electrones se repelen entre sí mediante el intercambio de un fotón.
La teoría cuántica de campos describe la manera en que interaccionan dos electrones teniendo en cuenta una serie
de procesos cada vez más complejos, aunque menos probables, que pueden tener lugar. El proceso «más básico» es
que intercambien un único fotón virtual (arriba). Pero otros procesos superiores que también deben contemplarse
implican que uno de los electrones emita un fotón que, mientras transita, crea un par electrón-positrón. Estos se
destruyen enseguida para volver a generar un fotón que es absorbido por el segundo electrón (centro). Incluso hay
una posibilidad pequeña (abajo) de que el par electrón-positrón creado por el fotón intercambiado pueda
intercambiarse un fotón virtual, que también crea otro par electrón-positrón, y así sucesivamente.
significaba que ciertos cálculos realizados usando la teoría arrojaban respuestas infinitas.
Ofreceré aquí una explicación poco precisa de por qué sucede esto. La idea básica de la
teoría cuántica de campos es que los campos eléctricos se pueden concebir como la
incesante aparición y desaparición de muchos fotones virtuales. Así que cuando un electrón
intercambia un solo fotón con otro electrón, solo se da el proceso más simple de todos los
que pueden ocurrir. Si nos ponemos a analizar distancias más reducidas, nos encontramos
con que cada vez suceden más cosas. Por ejemplo, mientras ese fotón virtual viaja entre los
electrones, se puede convertir de manera espontánea en un par virtual electrón-positrón
que se destruye enseguida para volver a ser el fotón original antes de llegar a su destino.
Pero durante la breve existencia del electrón y el positrón virtuales, estos serían capaces
también de intercambiar otro fotón virtual, el cual crearía su propio electrón y positrón, y así
sucesivamente. Cabría esperar que la posibilidad de esta actividad cada vez más completa
pudiera despreciarse en los cálculos, o al menos que se volviera cada vez menos relevante,
pero no es así. Da lugar a valores infinitos en los cálculos.
Este problema existe en realidad desde mucho antes que la mecánica cuántica. En el
siglo XIX los físicos se encontraban ante la siguiente situación. Una carga eléctrica generará
en su derredor un campo eléctrico, pero ¿cómo se calcula el efecto que ejerce ese campo
sobre la carga que lo generó en primera instancia? Este es un problema que solo afecta al
lugar donde se encuentra la carga, pero se obtiene una respuesta infinita. Esto se debe a
que habría que dividir una cantidad determinada entre la distancia que separa el punto que
nos interesa de la posición de la carga. Y, en este caso, la distancia es cero, y cualquier
número dividido entre cero da infinito.
Los problemas de infinitud que plagaban la teoría cuántica de campos se sortearon
finalmente cuando, en el año 1949, los tres físicos Richard Feynman, Julian Schwinger y
Shin’ichiro Tomonaga encontraron por separado una manera de refinar los infinitos
mediante un truco matemático llamado «renormalización». Lo que se obtuvo fue una
teoría que hasta ahora se considera la más exacta de toda la ciencia. Aún recibe el
nombre de «electrodinámica cuántica» (abreviada QED, de acuerdo con su
denominación en inglés), y es a esta disciplina a la que se refieren muchos físicos hoy en
día cuando usan ese término. Sin embargo, no debemos olvidar que Dirac fue el
primero en proponer la QED veinte años antes.
La concordancia de la QED con las mediciones experimentales asciende a una parte
entre cien millones. Pero no vaya usted a pensar que se trata tan solo de una
descripción impecable de la forma en que las partículas con carga eléctrica se perciben
unas a otras mediante el intercambio de fotones. Esta teoría sobre la naturaleza de la
interacción de la luz con la materia es la más fundamental y trascendente de toda la
ciencia. Todas las leyes y fenómenos de la mecánica, la electricidad y la química derivan
de ella en última instancia. Con las excepciones de la fuerza gravitatoria y de las fuerzas
que actúan en el interior de los núcleos atómicos, todos los demás procesos de la
naturaleza se explican en última instancia mediante la QED: cómo se unen los átomos
de hidrógeno y oxígeno para formar una molécula de agua, la naturaleza de la luz solar,
cómo aparece la imagen de esta página en la pantalla de mi computadora mientras
tecleo, y cómo las señales eléctricas de mi cerebro se convierten en reflejos mecánicos
que controlan el movimiento de mis dedos mientras pulso las letras sobre el teclado.
Vemos, pues, que la QED subyace a toda la química (y, por tanto, la biología), ya que
en esencia se reduce a la forma en que interaccionan los átomos a través de sus
electrones, y esto ocurre mediante la fuerza electromagnética, que no es más que el
intercambio de fotones.
A algunos físicos, incluido el propio Dirac, no les gusta la manera en que el truco de
la renormalización de la QED trata los infinitos. Viene a ser como barrer debajo de la
alfombra los restos incómodos desde un punto de vista matemático. Así que, aunque la
teoría resultante funcione de maravilla, los puristas, como Dirac, siempre creyeron que
ese truco no debería ser necesario, y esperaban algo más fundamental.
El principal objetivo de la investigación en física fundamental del último medio siglo
consistió en algo más grandioso. A pesar de sus éxitos, la QED es una teoría que tan
solo describe una de las cuatro fuerzas de la naturaleza. ¿Es posible describir las otras
tres fuerzas (la gravitación y las dos fuerzas nucleares) mediante una teoría cuántica de
campos, es decir, usando la noción del intercambio de partículas cuánticas? Mejor aún,
¿existe una sola teoría cuántica de campos capaz de ejecutar el trabajo completo?
Teorías gauge y simetrías
Cuando usamos el término «simétrico» en el lenguaje cotidiano solemos referirnos a
algo bastante específico: que un objeto o una figura muestran el mismo aspecto al
reflejarse en un espejo, o vistas desde diferentes ángulos. Pero en matemáticas la idea
de simetría tiene un significado mucho más poderoso, y ha ayudado a los físicos en su
aspiración de unificar las fuerzas en una teoría cuántica de campos.
Por ofrecer una definición más general, diremos que existe simetría cuando alguna
propiedad se mantiene idéntica al variar cualquier otra cantidad. De este modo, una
esfera sigue mostrando el mismo aspecto desde cualquier ángulo que se mire, y la
diferencia de edad entre dos personas se mantiene idéntica con el paso del tiempo.
Estas son dos formas de simetría. Los físicos hablan de una simetría «global» cuando
ciertas leyes de la física permanecen idénticas al aplicar en todas partes por igual un
cambio, o «transformación», particular. Ciertas teorías físicas exhiben una propiedad aún
más pura. Por ejemplo, las ecuaciones de Maxwell de la teoría clásica del
electromagnetismo permanecen iguales incluso cuando se aplican ciertas
transformaciones de forma «local» (es decir, distintas entre un lugar y otro). Esto guarda
relación con el hecho de que los campos eléctrico y magnético son en cierto modo
equivalentes entre sí.
Para comprobarlo, representemos la energía potencial eléctrica que percibe un
electrón como un paisaje montañoso donde los valles simbolizan la atracción, puesto
que el electrón caerá rodando en ellos, y las cumbres simbolizan la repulsión, puesto
que, si un electrón se sitúa sobre una de ellas, caerá rodando y se alejará. Si se cambiara
la forma del paisaje en un lugar determinado, por ejemplo, elevando un valle hasta
convertirlo en cumbre, entonces la simetría gauge exige que el electrón se comporte
igual que lo habría hecho antes de aplicar ese cambio, es decir, que ruede hacia la cima.
Pero para que el electrón haga eso se precisa una carga compensadora en la energía
magnética potencial. Se dice que la teoría del electromagnetismo es una teoría gauge
con simetría local.
Resulta que la QED tiene esta propiedad. De hecho, se ha descubierto que una teoría
cuántica de campos para cualquiera de las cuatro fuerzas de la naturaleza implicaría una
simetría gauge como esa. Esto infundió en los físicos la esperanza de que las fuerzas
pudieran mantener algún tipo de relación entre sí.
Sé que todo esto suena bastante técnico, pero lo comento por una razón. Lo
importante en este debate es la idea de «romper» una simetría. Una hoja de papel en
blanco es simétrica en relación con ciertas rotaciones; tiene el mismo aspecto por
ambos lados o al invertirla arriba y abajo. Pero en cuanto empecemos a escribir en ella,
esa simetría se pierde, o se rompe.
Durante la década de 1960, los físicos recurrieron a este tipo de razonamiento en
relación con la simetría para ampliar la QED e incluir en ella la fuerza nuclear débil (que
es responsable de la desintegración beta de los núcleos) y la fuerza electromagnética.
Se descubrió así que, en determinadas condiciones, la fuerza débil también se podía
interpretar como el intercambio de partículas virtuales como los fotones. Y si se rompían
ciertas simetrías especiales, entonces el viejo truco de la renormalización aún podría
usarse para dotar de sentido a la teoría cuántica de campos de la fuerza débil. A finales
de la década de 1960, Steven Weinberg, Abdus Salam y Sheldon Glashow habían
desarrollado una teoría de campos ampliada que unificaba las fuerzas electromagnética
y débil, y que se conoce como «teoría electrodébil».
Según explicaban, por encima de una temperatura aproximada de mil billones de
grados, que sería la que imperaba en los primeros instantes del universo, las fuerzas
electromagnética y débil se convertirían en una sola fuerza. Pero a medida que el
universo se enfrió y expandió, se rompió cierta simetría, y cristalizaron dos fuerzas muy
distintas. Hoy interpretamos que la fuerza débil se debe al intercambio de partículas
conocidas únicamente por las letras W y Z. Bueno, sería más riguroso decir que se
llaman «bosones portadores débiles», pero es más fácil llamarlos bosones W y Z.
Una fuerza multicolor
En cuanto se supo que la idea de la simetría gauge se aplica a las teorías cuánticas de
campos, se avanzó bastante rápido en la interpretación de la fuerza nuclear fuerte de
este modo. Por supuesto, Yukawa había allanado el camino muchos años antes al
proponer su teoría del pion, la partícula que podemos suponer que se intercambian los
nucleones dentro del núcleo. Pero cuando se descubrió que los propios nucleones están
formados por cuarks, se entendió que la fuerza de intercambio también tenía que actuar
a un nivel aún más profundo. La teoría de campo de la fuerza nuclear fuerte que se
desarrolló se conoce como «cromodinámica cuántica» o QCD (de acuerdo con sus
iniciales en inglés).
Permítame que antes de nada le pida que reflexione sobre el significado de la carga
eléctrica. Lo único que podemos decir a un nivel fundamental es que se trata de una
propiedad de ciertas partículas elementales de la que existen dos clases llamadas
positiva y negativa. Las partículas de tipos opuestos se atraen entre sí, y las partículas
con la misma carga se repelen. También podríamos haberlas llamado carga dulce y
carga salada. Una partícula con carga dulce será atraída por otra de carga salada.
Seguro que capta usted la idea. El carácter positivo o negativo de la carga eléctrica es
una convención inventada por nosotros.
De la misma manera, la fuerza nuclear fuerte precisaba una convención para nombrar
la propiedad de las partículas que notaran su influjo. Y se decidió que tuvieran carga de
«color». Para explicar el modelo de los cuarks, es decir, que cada nucleón tenía que
contener tres cuarks, tenía que haber tres tipos de esta carga de fuerza fuerte. La
analogía del color se eligió debido a la conexión con la manera en que se combinan los
distintos colores de la luz. De hecho, el nombre de esta teoría, cromo, deriva de la
palabra griega chroma, que significa «color». Los tres tipos de carga de color fueron,
pues, rojo, azul y verde. Un cuark rojo, uno azul y uno verde podrían combinarse para
formar algo sin color. La regla era que los cuarks no podrían existir por sí mismos
porque tenían color, y solo se permitían las combinaciones carentes de color. Esto se
parece a los argumentos esgrimidos mucho antes en relación con la naturaleza de los
átomos, que tenían que contener cantidades idénticas de carga positiva y negativa para
ser neutros. Aunque en su caso la naturaleza al menos permite que los átomos pierdan
o ganen electrones y, de este modo, existan como iones positivos o negativos.
Aunque los cuarks aislados no pueden existir, se está investigando bastante en la
actualidad para generar lo que se conoce como un «plasma cuark-gluon», hecho de
cuarks no confinados y partículas de intercambio llamadas gluones. Este plasma se
forma cuando dos núcleos pesados colisionan entre sí con energías muy elevadas.
Durante una fracción de segundo, las fronteras entre los protones y neutrones inmersos
en los dos núcleos se diluyen y solo queda una sopa de cuarks libres y gluones que
enseguida se «congelan» en varios hadrones. Se cree que justo después de la Gran
Explosión imperaron las condiciones de elevadísima temperatura y densidad necesarias
para crear este plasma.
Es importante señalar que los trucos de combinación cromática de cuarks dentro de
hadrones se pensaron antes de la aparición de la cromodinámica cuántica. Una gran
diferencia entre la QED y la QCD es que en la primera solo hay un tipo de portador de
fuerza: el fotón. En la QCD hay ocho clases distintas de partículas de intercambio de
fuerza cromática, los gluones, que responden de las distintas maneras en que pueden
interaccionar los cuarks de color. En el capítulo anterior comenté que Yukawa había
defendido que el pion era la partícula fundamental portadora de la fuerza fuerte al ser
intercambiado entre dos nucleones. A un nivel más profundo se ve que los gluones son
los verdaderos portadores de la fuerza fuerte.
Por tanto, igual que la teoría electrodébil describe partículas que interaccionan
mediante el intercambio de fotones portadores de fuerza o de bosones W y Z, la QCD
es la teoría cuántica de campos de cuarks que intercambian gluones.
Sin embargo, aún queda algo por hacer dentro de este ambicioso plan para unificar
las fuerzas. Mientras los físicos lograron unificar en una sola teoría las fuerzas
electromagnética y débil, aún no han sido capaces de fundir de manera adecuada la
teoría electrodébil con la QCD, a pesar de que ambas son teorías cuánticas de campos.
Digamos que hay un esquema para combinarlas, pero aún no se ha verificado de forma
experimental. Hasta entonces, el esquema que incorpora con poca firmeza tanto la
teoría electrodébil como la QCD se denomina en física de partículas «modelo estándar».
Funciona muy bien, pero nadie cree que sea la última palabra en esta materia.
Teoría de la Gran Unificación
Una manera de llegar al límite en el que las distintas fuerzas queden unificadas consiste
en analizar escalas de longitud cada vez más pequeñas. La QED explica que un electrón
siempre está rodeado por una nube de fotones virtuales y de pares virtuales electrón-
positrón que constantemente saltan a la existencia y desaparecen de ella. Toda esta
actividad suele enmascarar la carga eléctrica del electrón y acaba produciendo
únicamente la carga que observamos en realidad. Esta es otra manera de describir cómo
se enfrenta la renormalización a los infinitos. Aquí la infinidad la conforma la propia
carga del electrón, pero solo empieza a volverse grande cuando nos concentramos en la
nube circundante de partículas virtuales.
A medida que nos acercamos más y más a la fuente de la fuerza electromagnética nos
encontramos con que aumenta la intensidad de la fuerza. En el caso de las dos fuerzas
nucleares (que son mucho más poderosas que la electromagnética dentro del rango en el
que operan –el interior de los núcleos–) sucede lo contrario: cuanto más cortas son las
escalas de longitud, más se debilitan esas dos fuerzas. Cuando alcanzamos una escala de
distancia tan pequeña comparada con el tamaño de un protón como lo es el protón para
nosotros (10 milímetros), descubrimos que estas tres fuerzas convergen con la misma
-28
intensidad. Es ahí donde se pueden considerar una sola fuerza y donde se recupera cierta
simetría.
Una teoría que unificara estas tres fuerzas recibiría el nombre de Teoría de la Gran
Unificación (TGU, o GUT en inglés). Los físicos llevan tiempo intentando encontrar una
teoría así, en la que todo encaje, porque entonces podría reemplazar al modelo
estándar, que es menos satisfactorio y ofrece una alianza laxa entre la teoría electrodébil
y la QCD. Un problema especialmente molesto que se resolvió en la década de 1970
guardaba relación con la escala de longitud en la que coincide la intensidad de esas tres
fuerzas. En el instante preciso de nuestra ampliación en el que las fuerzas
electromagnética y débil confluyen, y empieza a actuar la fuerza electrodébil, la fuerza
fuerte aún es demasiado intensa y la simetría permanece rota. Para una verdadera
simetría, debe haber una confluencia simultánea de las tres.
Después se descubrió una clase nueva de simetría más potente incluso que la
necesaria para unificar las fuerzas electromagnética y débil. Se conoce como
«supersimetría» y es una manera matemática de resolver este problema. En esencia,
revela la simetría, o conexión, entre electrones, neutrinos, fotones y bosones W y Z, por
un lado (las partículas descritas mediante la teoría electrodébil), y los cuarks y gluones,
por otro (las partículas QCD). Su predicción fundamental es que cada una de las
partículas conocidas posee una compañera «supersimétrica» de carácter opuesto. Así, el
electrón llevaría asociado el selectrón (un bosón), y el fotón tendría el fotino (un
fermión). La supersimetría también predice que un protón podría desintegrarse en un
positrón más un pion. Si este proceso pudiera detectarse en la naturaleza, supondría un
indicio sólido en favor de la Teoría de la Gran Unificación. De momento aún no se ha
observado la desintegración del protón, pero sería algo tan poco frecuente que siempre
cabe la posibilidad de que lo hayamos pasado por alto. Sencillamente aún no sabemos
si la naturaleza también se comporta de un modo supersimétrico. Pero puede que la
supersimetría desempeñe un papel más fundamental, con un cometido que haga que la
Teoría de la Gran Unificación parezca muy limitada a su lado.
¿Qué hay de la gravitación?
¿No nos olvidamos de algo? Parece poco significativo, cuando no una impertinencia,
hablar de Teoría de la Gran Unificación si solo aspiran a abarcar tres de las cuatro
fuerzas de la naturaleza. Hasta ahora no he dicho nada sobre cómo encaja la fuerza de
la gravitación en todo ello. No es que la gente no lo haya intentado (Einstein pasó los
últimos treinta años de su vida buscando en vano una teoría de campos que unificara el
electromagnetismo con la gravitación).
En cierto sentido, no debemos sentir lástima por la fuerza gravitatoria. Después de
todo, está descrita por una teoría que algunos consideran más bella, más poderosa y
hasta más fundamental que cualquier teoría cuántica de campos: la relatividad general.
(Toques de trompetas, estremecimiento por toda la espalda, etcétera).
Una pequeña selección de los bariones. Estas partículas se componen de cuarks y perciben la fuerza nuclear fuerte
mediante el intercambio de gluones. Los hadrones se componen de tres cuarks de colores distintos que permanecen
unidos por gluones. Los mesones consisten en pares cuark-anticuark.
Con su teoría especial de la relatividad, Einstein evidenció que no existe eso del
espacio y el tiempo absolutos, puesto que dos observadores no podrían ponerse de
acuerdo exactamente al medir distancias e intervalos temporales. Solo la combinación
del espacio y el tiempo en un espacio-tiempo tetradimensional permite dar verdadero
sentido a las cosas. En 1915 Einstein completó su aportación más grandiosa a la ciencia.
La relatividad general fue una ampliación de su teoría especial para incluir la fuerza
gravitatoria. Sin embargo, la descripción de esta fuerza no podría apartarse más de la
imagen del intercambio de partículas que nos proporciona la teoría cuántica de campos
para describir las otras tres fuerzas. En lugar de eso, Einstein describió la gravitación en
términos de geometría pura. Todo lo que alberga el universo intenta acercar hacia sí
todo lo que hay a su alrededor. Pero en la relatividad general, la fuerza de atracción
gravitatoria se debe a la curvatura del propio espacio-tiempo. Cuanto mayor sea la
masa de un objeto, más se curva el espacio y el tiempo que lo circundan.
Todas las partículas elementales se pueden agrupar en dos categorías: las partículas de materia (fermiones) y las
partículas de fuerza (bosones).
problema es que esas dos teorías apenas tienen nada en común, aparte del hecho de que
ambas se aproximan a la física newtoniana cuando se aplican a la escala cotidiana. Se alejan
de este límite en los extremos de los objetos y distancias muy reducidos (mecánica cuántica)
y de los objetos y distancias muy grandes (relatividad general). Pero a partir de ahí abordan
estructuras matemáticas muy dispares, lo que las vuelve incompatibles.
Con todo, a finales del siglo XX lo que realmente se buscaba era la teoría definitiva, una
teoría de la gravitación cuántica.
La lección de Planck
La búsqueda de una teoría de la gravitación cuántica que unifique las cuatro fuerzas es
hoy un emocionante campo de investigación teórica. En lo que queda de capítulo
perfilaré algunas de las ideas básicas relacionadas con él.
Quienes trabajan en la materia se dividen en dos grandes grupos. Uno sostiene que
la mecánica cuántica contiene los conceptos más fundamentales, y que habría que
empezar por ella hasta incorporar la relatividad general. El otro grupo discrepa y
prefiere partir de la relatividad general, con sus nociones fundamentales de espacio y
tiempo, e intentar cuantizarla. Por supuesto hay otros físicos que creen que ninguna de
las dos tendencias sobrevivirá completamente intacta y que ambas precisarán una gran
intervención antes de poder injertarlas en la gravitación cuántica. Una minoría aún más
reducida de concienzudos pensadores defiende incluso que el camino correcto consiste
en desechar tanto la mecánica cuántica como la relatividad general, y empezar de cero.
Pero como cada una de estas teorías funciona tan bien en su dominio particular, es
difícil creer que ninguna de las dos incluya verdades fundamentales de la naturaleza.
Pero al menos hay una cuestión en la que todos los que trabajan en gravitación
cuántica están de acuerdo: debemos seguir la lección de Planck de hace cien años,
cuando echó a rodar la bola cuántica al plantear que la energía no puede subdividirse
infinitamente, sino que se compone de pedazos irreducibles, o cuantos de energía, igual
que la materia se compone en última instancia de elementos constitutivos
fundamentales. Los estudiosos de la gravitación cuántica saben ahora que el espacio y
el tiempo en sí también tienen que estar formados en última instancia por paquetes
irreducibles. Y, en honor al padre fundador de esta idea, la escala de longitud y de
tiempo en la que tiene que darse esta cuantización se conoce como la «escala de
Planck». Y es a esta escala, que se puede considerar una escala de distancias o una
escala de energías/temperaturas, donde todas las fuerzas están unificadas.
Entonces, ¿qué tamaño tiene la unidad más pequeña de espacio, un cuanto de volumen?
Veamos esto en perspectiva: hay más átomos en un solo vaso de agua que la cantidad de
vasos de agua necesarios para llenar todos los océanos y mares del mundo. Así que los
átomos son minúsculos. Después, podríamos meter un billón de núcleos atómicos en el
espacio de un solo átomo. De modo que los núcleos son mucho más pequeños aún. Pues
bien; tomemos una buena bocanada de aire; un núcleo atómico puede alojar tantos
volúmenes cuánticos como metros cúbicos hay en nuestra Galaxia (alrededor de 10 m ). Y
62 3
la Galaxia no es lo que se dice un lugar pequeño: mide ochenta mil años-luz de ancho y
contiene cien mil millones de estrellas. Duele la cabeza solo con pensarlo.
Esta noción de la unidad más pequeña de espacio significa que no tiene sentido
hablar de reducir ese volumen a la mitad.
Y ¿qué hay de la duración de una unidad cuántica de tiempo? Esta es tan breve que ni se
me ocurre una buena analogía con la que impresionar. Baste decir que hay muchos,
muchísimos más cuantos de tiempo en un solo segundo (10 de ellos) que la cantidad de
43
Teoría de cuerdas
La mayoría de quienes se dedican a la gravitación cuántica pertenecen al bando que
está intentando aprovechar la mecánica cuántica. Aducen que el empleo de ideas como
la teoría cuántica de campos y la supersimetría nos ha llevado tan lejos en el
conocimiento de tres de las cuatro fuerzas en términos mecánico-cuánticos, que sin
duda la gravitación también se podrá encajar. De hecho, están desarrollando una teoría
candidata, llamada «teoría de cuerdas», que persigue justo eso. Describe la fuerza
gravitatoria como el intercambio de una partícula llamada gravitón. Pero la teoría de
cuerdas, tal como indica su nombre, se diferencia bastante de las teorías cuánticas de
campo previas. Afirma que todas las partículas fundamentales son en realidad
minúsculas cuerdas en vibración. Las distintas frecuencias a las que vibran estas cuerdas
dan lugar a las diversas partículas elementales.
La primera versión de la teoría de cuerdas se basó en ideas desarrolladas en 1968 por
Gabriele Veneziano. Pero esta teoría adolecía de una serie de problemas tales como la
predicción de partículas más veloces que la luz, llamadas taquiones, que es algo que los
físicos ya no aceptan como posibilidad. Entonces, a mediados de la década de 1980, se
produjo la primera revolución de cuerdas. En un artículo histórico de John Schwarz y
Michael Green, se aplicaba la idea de la supersimetría a las cuerdas de Veneziano, y eso
resolvió los problemas. La nueva versión se conoció como «teoría de supercuerdas» y se
anunció como la definitiva teoría del todo.
Sin embargo, después del entusiasmo inicial, el avance en la investigación de la teoría
de supercuerdas se frenó por dos razones. En primer lugar, las matemáticas eran tan
complejas que nadie sabía siquiera qué significaban las ecuaciones. De hecho, ha
llegado a afirmarse que algunos de los métodos matemáticos necesarios para resolver
la ecuaciones como es debido ¡aún no se han inventado! El segundo problema era más
desalentador. A comienzos de la década de 1990, había cinco versiones distintas de la
teoría de cuerdas y nadie sabía cuál era la correcta. La materia se estancó un tanto y los
expertos empezaron a tener dificultades para convencer a los nuevos investigadores de
que se unieran a ellos para realizar sus tesis doctorales sobre la materia. Parecía haber
perdido su sex appeal.
Entonces, en 1995, se produjo la segunda revolución de cuerdas. Se propuso un
esquema nuevo, aún más amplio, que unificaba las distintas teorías de supercuerdas
bajo un paraguas único. Se conoce como «teoría M», donde la «M» significa
«membrana». La teoría M predice que las cuerdas no son las únicas entidades
fundamentales de nuestro universo, sino que también debería haber láminas
bidimensionales o membranas y hasta extrañas manchas tridimensionales. Pero de
momento nadie sabe ni siquiera qué aspecto tienen las ecuaciones de la teoría M, y
muchos prefieren decir que la M significa «misterio». Lo que sí se sabe es que la teoría
M predice que en realidad moramos en un espacio decadimensional (aparte de la
dimensión del tiempo, lo que lo convierte en un espaciotiempo endecadimensional). Sin
embargo, seis o siete dimensiones del espacio se encuentran tan enroscadas que son
más pequeñas que cualquier cosa a la que se pueda acceder con los aceleradores de
partículas actuales. Están atrapadas dentro de las cuerdas y membranas.
La lección de Einstein
Un grupo aún más reducido de investigadores que la comunidad de la teoría de cuerdas
está trabajando en la otra dirección. Parten de la relatividad general y la modifican con
la esperanza de conseguir una teoría cuántica del espaciotiempo. Algunos estudiosos
creen que han encontrado la manera de hacerlo. Su teoría recibe el nombre de
«gravitación cuántica de lazos» y en este campo se han logrado avances constantes a lo
largo de la última década o las dos décadas pasadas. La gravitación cuántica de lazos
también predice que el espacio y el tiempo se manifiestan en última instancia en
paquetes indivisibles a la escala de Planck. Pero hay una diferencia crucial entre este
planteamiento y la teoría de cuerdas. En esta última, el espacio y el tiempo se siguen
considerando como un trasfondo absoluto: un escenario sobre el que las cuerdas
practican su danza. Esta formulación contradice uno de los postulados de las teorías de
Einstein: que el espacio y el tiempo solo pueden definirse en realidad en términos de
relaciones entre distintos acontecimientos. Dicho llanamente, sería como afirmar que la
distancia entre dos puntos existe únicamente porque existen los puntos de por sí.
La gravitación cuántica de lazos parte de una concepción correcta del espacio y el
tiempo. Sus «lazos» no son, pues, entidades físicas como las supercuerdas. Sino que lo
único real es la relación entre los lazos. Por desgracia, lo que no puede hacer la
gravitación cuántica de lazos es predecir las propiedades de las cuatro fuerzas de una
forma unificada.
Tal vez haya que trabajar más para salvar la separación entre la mecánica cuántica y
la relatividad. O quizá la clave esté en la teoría M. No nos queda más remedio que
esperar a ver qué pasa.
Pongamos el acento en lo negativo
Paul Davies, profesor de Filosofía Natural, Universidad Macquarie de Sidney
Cuando Stephen Hawking anunció en 1974 que los agujeros negros no son negros, sino que irradian calor y se
evaporan poco a poco, la gente se quedó preguntándose de dónde salía esa energía calorífica. Si se supone que nada
puede escapar de un agujero negro, ¿cómo puede suministrar energía para alimentar la emisión de calor? La respuesta
se encontró con rapidez. El calor que irradia un agujero negro se debe, no a un flujo de energía que sale del agujero, sino
a un flujo de energía negativa que cae en él.
En términos sencillos, un estado de energía negativa es aquel con menos energía que otro con un campo
gravitatorio que vale cero. Pero ¿cómo puede haber menos masa, o energía, que en un espacio completamente
vacío? El secreto radica en la mecánica cuántica o, más exactamente, en la teoría cuántica de campos. De acuerdo con
esta teoría, el espacio que parece vacío no lo está en absoluto en realidad, sino que está repleto de todo tipo de
partículas virtuales que existen tan solo de manera fugaz. El estado llamado «vacío cuántico» no se puede desligar de
estas innumerables entidades fantasmagóricas, aunque no tengan ninguna energía medible, y por tanto ningún
empuje gravitatorio en general. De hecho, las partículas virtuales se manifiestan tan solo cuando algo altera el vacío
cuántico.
Un ejemplo sencillo de vacío cuántico alterado lo representa el conocido efecto Casimir, descubierto en 1948. Dos
espejos colocados uno frente al otro retienen una capa de vacío cuántico entre sí. Los espejos reflejan fotones de luz
reales, pero también reflejan fotones virtuales fantasmagóricos. Esto altera la cantidad de energía del vacío cuántico y,
al efectuar las sumas, se obtiene que la energía total del estado de vacío cuántico modificado entre los espejos es
inferior al del estado no modificado, ese en el que no hay espejos, es decir, el espacio vacío. Así que los espejos
paralelos reducen la energía por debajo de la que hay en el espacio vacío, lo que la vuelve negativa para la definición
que le da la mayoría de la gente. Esta energía negativa se manifiesta como una fuerza medible de atracción entre los
espejos.
En la década de 1970, Stephen Fulling y yo descubrimos, mientras usábamos la teoría cuántica de campos, que los
estados de energía negativa se pueden crear con un solo espejo si se mueve de una forma determinada. Es más,
nuestros cálculos revelaron que la energía negativa fluiría fuera del espejo a la velocidad de la luz, lo que abría la
posibilidad a un haz de energía negativa, en oposición a la energía negativa estática asociada al efecto Casimir. Poco
después se descubrió que la mezcla de rayos láser podía dar lugar a breves estallidos de energía negativa, a partir de
lo que se conoce como «estados comprimidos». Estos estados se han verificado recientemente en laboratorio.
Una vez asentada la posibilidad de flujos de energía negativa, Fulling y yo no tardamos en demostrar que la
radiación de los agujeros negros de Hawking se impulsaba de esta manera. A cierta distancia, la radiación calorífica
representa un flujo de energía positiva que sale del agujero negro. Sin embargo, sabíamos que no se puede trazar el
camino seguido por este flujo de energía hacia atrás, hasta el interior del agujero negro, porque eso violaría la regla
de que nada puede salir de estos objetos. Lo que descubrimos fue que hay un flujo continuo de energía negativa que
se precipita al interior del agujero desde la región circundante. Como resultado de la acumulación incesante de
energía negativa en el interior del agujero negro, su masa decrece. Nuestros cálculos confirmaron que el agujero
negro pierde masa-energía exactamente al mismo ritmo al que debe producirse la fuga de radiación calorífica. Los
agujeros negros, y de hecho todos los objetos esféricos, crean energía negativa de vacío cuántico en su entorno
porque la curvatura del espaciotiempo debida a su campo gravitatorio altera la actividad de las partículas virtuales.
Gracias a una de estas agradables coincidencias, la curvatura del espacio que se forma cuando explota una estrella y
da lugar a un agujero negro, resultó tener un efecto matemático idéntico en el vacío cuántico que un espejo
acelerado.
La posibilidad teórica de crear un flujo de energía negativa, en la práctica un haz de frío y oscuridad, en lugar de
calor y luz, arrojaba algunos escenarios singulares y sorprendentes. Supongamos que dirigimos un haz así hacia un
objeto caliente distinto de un agujero negro, como un horno con una abertura protegida por una cortinilla. Podría
parecer que el contenido del horno pierde energía y se enfría. Pero eso quebrantaría con claridad la conocida
segunda ley de la termodinámica, porque la pérdida de calor del horno supondría asimismo una pérdida de entropía , 59
y la segunda ley prohíbe que descienda la entropía de un sistema cerrado. (El haz en sí tiene entropía cero). La
segunda ley es el elemento fundamental de la termodinámica, y cualquier violación de esta abriría la puerta a una
máquina de movimiento perpetuo, la cual no se considera posible).
Pero otro escenario relacionado con la energía negativa y que también conduce a una paradoja es el de los
agujeros de gusano en el espacio, famosos gracias a Jodie Foster en la película Contact. Los agujeros de gusano son
túneles o tubos hipotéticos de espacio que unen puntos distantes a través de un atajo. Si existieran, se podrían usar
como máquinas del tiempo. Hay circunstancias en las que un astronauta que atraviese un agujero de gusano, llegue a
un lugar remoto y regrese a casa por el espacio normal, podría estar de vuelta ¡antes del momento en que partió! Por
tanto, la mera existencia de los agujeros de gusano nos amenaza con una paradoja. Los modelos matemáticos
desarrollados por Kip Thorne y sus colaboradores en Caltech desvelaron que los agujeros de gusano son posibles
desde un punto de vista teórico, pero solo pueden recorrerse si a su entrada se puede crear alguna suerte de estado
de energía negativa. Esto es necesario porque la gravitación amenaza con aplastar el agujero de gusano antes de que
nada consiga atravesarlo. Como la energía negativa tiene masa negativa, ejerce una fuerza gravitatoria negativa que
se opone al efecto aplastante y mantiene abierta la entrada. Por tanto, una vez más, la energía negativa no restrictiva
parece conducir a una paradoja no física.
Aunque las paradojas recién mencionadas incomodan a los físicos teóricos, nadie ha demostrado aún la
imposibilidad de que existan los flujos o baños continuados de energía negativa. Sigue sin esclarecerse si, por
ejemplo, hay suministros ilimitados de energía desaprovechados en el vacío cuántico.
55. Un llamamiento a la prudencia sobre el reduccionismo: la mayoría de los fenómenos naturales son complejos, y
muchas de sus propiedades se manifiestan únicamente a una escala macroscópica. Así, el estudio de una sola
molécula de H2O no arroja ninguna pista sobre la «humedad» del agua.
56. La diferencia estriba en que, en el espacio exterior, no pesamos nada, porque no impera ninguna fuerza de la
gravedad, pero nuestra masa permanece idéntica.
57. Planteadas por primera vez en una carta que Dirac escribió a Bohr en 1929.
58. No hay que confundir la combinación de la mecánica cuántica y la relatividad general con el logro que alcanzó
Dirac en 1928 al unir la mecánica cuántica con la relatividad especial. Aquello no fue más que un juego de niños
comparado con esto. Al fin y al cabo, la relatividad especial es una teoría libre de fuerzas.
59 1. La entropía es un valor bastante extraño y mide la cantidad de desorden de un sistema físico. Por ejemplo,
cuando barajamos un mazo de cartas se aumenta su entropía.
9. La cuántica en acción
A estas alturas espero haberlo convencido de lo fundamental que es la mecánica cuántica
para gran parte de la física y la química modernas. Por supuesto, es posible que sea usted
una persona lo bastante dura como para pensar que todo esto es muy fascinante, pero
apenas relevante para la vida cotidiana. Al fin y al cabo, el mundo de las experiencias y
los sentidos está muy apartado de toda esa rareza cuántica que habita en las
profundidades de la escala microscópica; es indudable que no puede afectarnos
directamente. Así que en este capítulo indagaremos en cómo se ha aprovechado parte de
la física cuántica que hemos estado analizando, para desarrollar a lo largo del último
medio siglo diversas tecnologías que hoy damos por sentadas.
Por ejemplo, cierta propiedad de las funciones de onda del electrón (el hecho de que
obedezcan el principio de exclusión de Pauli) explicó de qué manera se organizan los
electrones en «capas» de energía dentro de los átomos, lo que permitió desentrañar
cómo conducen la electricidad los metales. Esto, a su vez, llevó al estudio de materiales
superconductores y a la invención del transistor, a partir del cual se desarrollaron el
microchip, la computadora e internet.
Es más, los reproductores de CD y DVD se sirven de una propiedad equivalente de
los fotones que nos proporciona el láser, un dispositivo con toda clase de aplicaciones
industriales, médicas y de investigación, por no hablar del ocio y el entretenimiento.
El fenómeno del efecto túnel nos brindó la energía nuclear, y confiamos en que algún
día nos conduzca hasta una fuente más limpia de energía ilimitada: la fusión nuclear.
Otra extraña propiedad cuántica de ciertos materiales enfriados casi hasta el cero
absoluto nos dotó de superconductores, que algún día nos brindarán la solución
definitiva al problema de la conservación de la energía: cables sin ninguna resistencia
eléctrica.
Y ¿pensaba usted que la radiactividad es mala para la salud? ¿Y si le dijera que ha
revolucionado la medicina? ¿Y cómo cree que funcionan los detectores de humo?
La lista es muy larga, pero me centraré tan solo en algunos de los avances
tecnológicos más relevantes que se basan directamente en la mecánica cuántica.
La era del microchip
Hoy en día parece que todo, desde los coches hasta las lavadoras, desde las máquinas
de café hasta las tarjetas para felicitar los cumpleaños, incorpora un microchip en su
interior. Pero ¿se ha preguntado alguna vez cómo funciona un chip?
En el recuadro dedicado al principio de exclusión de Pauli del Capítulo 7, describí
cómo los electrones dentro de los átomos se disponen de tal modo que dos de ellos no
pueden ocupar el mismo estado cuántico. Es decir, no pueden estar descritos por la
misma función de onda, sino que deben diferir en algo: en energía, en momento
angular orbital o en la dirección de su espín. Esto se debe a que los electrones, junto
con los otros elementos constitutivos esenciales de la materia, los cuarks, pertenecen a
la clase de partículas elementales llamadas fermiones (los cuales deben su nombre al
gran físico italiano Enrico Fermi). Se dice que los fermiones obedecen el principio de
exclusión y que prefieren reservarse para ellos solos, cada uno el suyo, su estado
cuántico exclusivo. Las partículas portadoras de fuerza, como los fotones, pertenecen a
la clase llamada bosones, que son mucho más sociables y no tienen ningún problema
(de hecho lo prefieren) en tener funciones de onda idénticas y en ocupar el mismo
estado cuántico. El principio de exclusión no se aplica a los bosones.
Energías de electrones en sólidos. Cada espacio sombreado representa un solo átomo en la red cristalina. Muchos
electrones están muy apretados dentro de los átomos que los alojan, y ocupan órbitas cuánticas discretas, por lo que
no se mueven por la red. Sin embargo, los niveles energéticos más elevados que ocupan los electrones exteriores se
funden para formar «bandas de energía», cada una de ellas con un intervalo continuo de energías permitidas. En
medio de estas bandas hay huecos energéticos que los electrones tienen prohibido ocupar. En un metal conductor
(arriba) la banda más elevada (de valencia) solo está parcialmente llena de electrones, de modo que estos se mueven
con libertad por la red y, por tanto, conducen la electricidad. En un aislante (centro) la banda de valencia está
completamente llena, y las reglas cuánticas prohíben moverse a los electrones. Como el hueco hasta la siguiente
banda es demasiado grande para que lo salten, se quedan estancados. En un material semiconductor (abajo) la banda
de valencia también está llena, pero el hueco hasta la banda siguiente es muy pequeño y algunos electrones son
capaces de saltarlo y crear una banda conductora nueva.
Las reglas del la mecánica cuántica nos han permitido comprender la estructura de
los átomos. Los electrones más exteriores del átomo definen sus propiedades químicas,
que a su vez explican cómo se unen los átomos entre sí para formar distintos materiales.
Cuando los átomos se amontonan en un trozo de materia, los electrones más exteriores
se encuentran con que tienen un poco más de libertad. En lugar de ocupar un nivel
energético determinado, ahora pueden abarcar todo un amplio rango de energías
llamado banda de valencia. De hecho, dada la gran cantidad de átomos implicados, las
energías permitidas en esta banda mantienen un espaciamiento tan estrecho que cabe
considerar que los electrones pueden moverse por un intervalo de energías
prácticamente continuo.
En ciertos materiales, como los metales, esta banda de valencia solo está cubierta de
manera parcial, y el principio de Pauli no limita el movimiento de los electrones. Cuando
se aplica un voltaje a través de un metal, estos electrones de valencia se desplazan por
él libremente, y forman una corriente eléctrica. La banda de valencia recibe el nombre
de «banda de conducción» en el caso de estos materiales denominados conductores
eléctricos.
En cambio, sin un material se compone de átomos con una banda de valencia llena,
entonces todos los estados de la banda están ocupados y los electrones no tienen
ningún lugar al que ir. Los electrones en la banda de valencia ya no pueden
desparramarse con libertad y no se habla de banda de conducción.
Por lo común hay un hueco antes de que empiece la siguiente banda energética. Si
este hueco es demasiado amplio, entonces los electrones se limitan a quedarse donde
están, ya que son incapaces de saltarlo para liberarse. Y si no pueden llegar a esta
banda, serán incapaces de circular por el material cuando se aplique una diferencia de
potencial eléctrico. Estos materiales son aislantes.
Los materiales con estructuras atómicas intermedias entre la de los conductores y los
aislantes poseen una propiedad bastante interesante. Los átomos de una red cristalina de
silicio, por ejemplo, tienen una banda de valencia repleta de electrones, pero el hueco de
energía entre esta y la banda inmediatamente superior es salvable, de modo que algunos
de los electrones más energéticos pueden saltar a la banda superior, con lo que la
convierten en una banda de conducción. Estos materiales se denominan, por tanto,
«semiconductores». Una sutileza adicional es que si un electrón dentro de un
semiconductor se escapa de la banda de valencia y queda libre, dejará un hueco tras de sí
que podrá ocupar otro electrón de un átomo vecino. Este, a su vez, deja un hueco en la
banda exterior del átomo vecino. Por tanto, una corriente eléctrica que impulse los
electrones en una dirección también provocará que el hueco positivo se desplace en la 60
A diferencia de la luz normal de una linterna, formada por una mezcla de ondas electromagnéticas de muchas
longitudes de onda diversas desparramadas en todas direcciones, la luz láser es altamente ordenada. Todas las ondas
tienen la misma longitud de onda, que se corresponde con la frecuencia característica de los átomos emitidos. La luz
láser también tiene una alta intensidad debido al proceso de amplificación y no se desparrama al emitirla, lo que
permite lanzarla hasta distancias muy largas.
El láser por fibra óptica se convertirá pronto en el método habitual para transmitir
información por todo el mundo, y es ahí donde radica el futuro de internet. Casi hemos
llegado a la fase en que la televisión interactiva y el ordenador personal serán una y la
misma cosa. De hecho, ya es posible descargarse películas de internet y verlas en el
ordenador. Los cables de fibra que transmiten luz láser no tardarán en transportar miles de
millones de bits de información, el equivalente a las obras completas de William
Shakespeare, ¡en menos de un segundo! 62
Lo más extraordinario de todo tal vez sea que los láseres se pueden usar en la
actualidad para controlar átomos sueltos de maneras que están abriendo las puertas a
un nuevo campo de la tecnología cuántica del que hablaremos en el último capítulo.
Imanes del tamaño de una casa
Aunque me considero un manitas bastante competente en casa, suelo ganarme las
afables burlas de mis colegas experimentales por mi ineptitud en el laboratorio, al igual
que la mayoría del resto de físicos teóricos de todo el mundo. Y aunque es cierto que
me las arreglo para evitar por completo cualquier clase de trabajo experimental, hasta
hace poco no había reparado en lo ajeno que he permanecido a la tecnología utilizada
para obtener los resultados experimentales que intento desentrañar. Pero la clave de lo
que me dispongo a contar aquí no es esa, sino poner de relieve otra aplicación cuántica
de la que tal vez haya oído hablar usted.
Durante el año 1999 realicé una estancia de seis meses en la instalación del ciclotrón de
la Universidad del Estado de Míchigan (la MSU), donde trabajé interpretando datos nuevos
de sus experimentos más recientes sobre núcleos «exóticos» . El Laboratorio Nacional del
63
laboratorio. En efecto, al otro lado de la pared de mi despacho y separado por varios metros
de aislamiento de la radiactividad, había un imán tan grande que había que subir unas
escaleras adyacentes a él por la parte exterior para llegar arriba del todo. Desde entonces he
pasado algún tiempo en el Laboratorio TRIUMF de Vancouver, que alberga el imán de
ciclotrón más grande del mundo, aunque es menos potente que el de la MSU.
Lo interesante de todo esto es cómo funcionan esos imanes, porque hacen uso de
otro efecto puramente cuántico: la superconductividad.
Electricidad de movimiento perpetuo
Todos los conductores exhiben resistencia eléctrica porque los electrones conductores
chocan de manera constante contra los átomos vibrantes del metal. Esas vibraciones
aumentan a medida que el metal se calienta, lo que incrementa la resistencia. Sin duda,
al enfriar un metal se reducen las vibraciones atómicas y, por tanto, la resistencia
eléctrica. Pero en 1911 se descubrió un efecto muy sorprendente.
Al enfriar mercurio por debajo de 4,2 kelvins , su resistencia desciende de pronto a cero,
66
que los electrones de esos pares de Cooper andan por ahí unidos entre sí como gemelos
siameses. Al fin y al cabo, si forman un bosón seguramente serán como una «partícula»
nueva. Pero no debemos olvidar las lecciones cuánticas recién aprendidas. No es necesario
que esos dos electrones estén muy próximos entre sí. De hecho, la distancia entre cada
miembro de esos pares es ¡miles de veces mayor que la distancia media entre otros dos
electrones individuales cualesquiera de ese material! Decimos que el par de Cooper se
encuentra en un estado entrelazado descrito a través de una sola función de onda. Si se
comportan como un solo bosón es gracias a su conexión no local. Los dos electrones de un
par de Cooper mantienen una comunicación continua, como adolescentes situados en
distintos lugares del patio del recreo que chatean entre sí con teléfonos móviles (lo cual no
es ningún efecto cuántico, pero ¡resulta igual de extraño!).
Por último, no existe ninguna resistencia eléctrica porque, para que eso ocurra, uno
de los dos electrones tendría que chocar contra un átomo y salir despedido con la
intensidad suficiente para deshacer el par. Por tanto, cualquier esparcimiento de este
tipo debe ser lo bastante intenso como para lograrlo. A temperaturas muy bajas, la
fuerza de unión entre pares de Cooper basta para soportar el débil esparcimiento
inducido por los átomos. De ahí que los electrones del par simplemente no choquen
con los átomos y no haya resistencia eléctrica.
Una de las principales aplicaciones de la superconductividad es, como en el caso del
ciclotrón de la Universidad del Estado de Michigan, crear imanes muy potentes. (¡Esta
historia es un ejemplo de cómo se ha utilizado la rareza cuántica para construir una
máquina que permita seguir estudiando la rareza cuántica que reside en núcleos
atómicos exóticos!). Un electroimán convencional implica el paso de corriente por una
bobina de alambre para generar un campo magnético. Cuantas más vueltas tenga el
alambre, más intenso será el campo. Sin embargo, esto también conlleva una resistencia
mayor que debilita la corriente, y exige un voltaje mayor para compensarlo. El problema
desaparece si la bobina está formada por un material superconductor. En la práctica, los
electroimanes convencionales de gran tamaño portan un núcleo de hierro dentro de la
bobina eléctrica, porque sin él la cantidad de corriente necesaria convertiría el imán en
algo extremadamente caro. Pero con un núcleo de hierro, la intensidad del campo
magnético se satura en un valor máximo, y la única manera de conseguir más
«capacidad de desviación» consiste en tener un imán más grande (más hierro). Para que
un imán así realice el trabajo del imán superconductor de la MSU tendría que tener las
dimensiones ¡de un edificio de viviendas de tamaño medio!
Hoy en día, los imanes superconductores tienen gran variedad de aplicaciones. Por
ejemplo, se usan como separadores magnéticos en la industria de la minería y como
sistemas de navegación magnética en medicina, donde permiten que los cirujanos
guíen un catéter dentro del cuerpo, suministren fármacos o puedan realizar biopsias.
Igual que los fotones de un láser actúan en armonía para amplificar un efecto
cuántico hasta niveles macroscópicos, también los pares de Cooper de un
superconductor son capaces de cooperar como un conjunto de bosones. Se parece un
poco a los grandes bancos de peces que se desplazan como una sola entidad que
suelen verse en los documentales de televisión. Este comportamiento se puede
aprovechar en un dispositivo llamado SQUID (acrónimo de su nombre en inglés
Superconducting QUantum Interference Device, o «dispositivo superconductor de
interferencia cuántica»). Los SQUID portan componentes llamados «uniones de
Josephson», que se parecen a los diodos de efecto túnel. Pero en lugar de tener dos
bandas semiconductoras, la unión de Josephson está formada por dos
superconductores separados por una delgada capa aislante. Los pares de Cooper
pueden atravesar esta capa con facilidad, lo que vuelve el SQUID increíblemente
sensible a cambios minúsculos de campos magnéticos. Este dispositivo encuentra una
de sus aplicaciones en el ámbito de la medicina, donde permite estudiar la actividad del
cerebro mediante la monitorización de los campos magnéticos producidos por
pequeñas corrientes eléctricas asociadas a neuronas individuales.
Por último, una de las áreas de investigación física más activas durante los últimos quince
años la ha representado el campo de la superconductividad a alta temperatura. Está muy
bien contar con un material superconductor, pero hay que mantenerlo a temperaturas tan
bajas, a menudo recurriendo a helio líquido , que supone un inconveniente para darle más
68
usos prácticos. En 1986 se descubrieron ciertas cerámicas que son superconductoras hasta
temperaturas superiores a 100 K (¡aunque ese valor sigue estando 173 °C por debajo del
punto de congelación del agua!). La investigación actual en este campo se centra en tres
cuestiones: si hay materiales que actúen como superconductores a temperatura ambiente, si
alguno de esos materiales es un metal maleable, puesto que la cerámica es frágil y
quebradiza y no es adecuada para estirarla y darle forma de cables conductores de la
electricidad, y, por último, qué es lo que hace que estos materiales se comporten de ese
modo a temperaturas tan (relativamente) altas.
Si algún día conseguimos fabricar cables eléctricos a partir de superconductores a
temperatura ambiente, podría ayudarnos a tener un suministro eléctrico más barato. La
eficiencia energética de la electricidad actual es baja debido en parte a la energía que se
disipa en forma de calor en los cables de transmisión que recorren los países. Con
cables superconductores podría transmitirse la corriente con una eficacia hasta cinco
veces mayor, y eso permitiría una reducción drástica del empleo de combustibles fósiles
contaminantes.
Energía procedente de los núcleos
Como me he desviado al tema de las necesidades energéticas, este es un buen
momento para describir otra aplicación de la mecánica cuántica. La energía nuclear
produce en la actualidad la sexta parte de la electricidad mundial (y asciende casi a dos
tercios en Francia). La idea básica que subyace a la energía nuclear es la reacción de
fisión, donde núcleos pesados absorben neutrones, lo que los escinde en dos trozos y
libera energía. Durante ese proceso generan más neutrones, que son absorbidos por
núcleos vecinos que también se escinden, lo que mantiene una reacción en cadena. El
calor producido en esas reacciones se usa para convertir agua en vapor que propulsa
turbinas y genera electricidad.
Un método más limpio para extraer la energía inmersa en el interior de núcleos
atómicos consiste en recurrir al proceso inverso. En las reacciones de fusión, se fuerza la
unión de dos núcleos ligeros para crear un núcleo mayor y más estable. Esto va
acompañado de la liberación de una cantidad inmensa de energía que se puede
aprovechar. Esa energía de «fusión termonuclear» constituye la fuente del calor y la luz
procedentes del Sol, y es el motivo de que todas las estrellas brillen.
A partir de dos núcleos de hidrógeno (formados por un solo protón), una secuencia
de pasos acaba formando un núcleo de helio (dos protones y dos neutrones: una
partícula alfa). El problema es que los protones se repelen entre sí a menos que algo los
obligue a juntarse mucho (en realidad se produce un túnel a través de la barrera
energética entre ambos). Para que esto ocurra se requieren unas condiciones muy
extremas de altas temperaturas y densidad; en el interior del Sol no hay ningún
problema para encontrarlas, pero son bastante difíciles de mantener en un laboratorio
de la Tierra.
Un detalle interesante que debemos señalar aquí es que el primer paso del proceso
de fusión dentro del Sol precisa la intervención combinada de las cuatro fuerzas de la
naturaleza. La fuerza gravitatoria de atracción que se da entre toda la materia garantiza
que el hidrógeno se apriete lo bastante como para que dos protones tengan buenas
posibilidades de fusionarse, con lo que la fuerza nuclear fuerte de atracción vence a la
fuerza electromagnética de repulsión para forzarlos a unirse todavía más. Pero como
dos protones no se unen entre sí de manera permanente, mientras que un protón y un
neutrón sí, uno de los protones se ve forzado a experimentar una desintegración beta y
transformarse en un neutrón, y ahí es donde entra en juego la fuerza nuclear débil. Una
vez que ocurre esto, nos encontramos con la unión de un protón y un neutrón.
Un núcleo formado por un solo protón y un neutrón recibe el nombre de «deuterón»,
porque es un núcleo del isótopo pesado del hidrógeno, llamado deuterio. El deuterón
ha sido relevante en el desarrollo de la física nuclear. Es el núcleo compuesto más
simple (cualquier cosa más pequeña tendría un solo protón o neutrón) y por eso ofrece
un banco de pruebas para estudiar las propiedades de la fuerza nuclear que mantiene
unidos los nucleones dentro de los núcleos. Asimismo representa una sonda muy útil
que podemos hacer reaccionar con otros núcleos para estudiar sus propiedades. Yo
tuve la suerte de tener como director de tesis a Ron Johnson, uno de los mayores
expertos mundiales en la estructura y propiedades de reacción del deuterón, y conocido
por sus alumnos irremediablemente como «Deuterón Johnson».
Una vez que se forman deuterones en el Sol, pueden fusionarse con más protones
para formar núcleos de helio. Para ello es necesario que los deuterones y protones
atraviesen por efecto túnel sus barreras de Coulomb mutuas.
Muchos países están investigando en el campo de la fusión, la cual implica el estudio
del deuterio y el tritio (un isótopo aún más pesado del hidrógeno cuyos núcleos se
componen de un solo protón y dos neutrones). En la actualidad se acaba de superar el
umbral de «rentabilidad», en el que la cantidad de energía que se produce como
resultado del proceso de fusión es mayor que la energía suministrada para crear las
condiciones de partida necesarias para forzar la fusión de los núcleos. El siguiente paso
consiste en descubrir cómo mantener las condiciones de fusión durante más que ¡una
mera fracción de segundo!
No es solo que el combustible necesario para propulsar los reactores de fusión
(agua) existe en cantidades ilimitadas, sino también que la energía que produce la
fusión genera residuos mucho menos perjudiciales que la fisión nuclear. Esta es la razón
por la que la mayoría de los países ricos del planeta han invertido, y siguen invirtiendo,
tanto en este campo de estudio, a pesar de la lentitud con que se avanza.
La mecánica cuántica en la medicina
En la actualidad hay tantas aplicaciones de la mecánica cuántica en la medicina que no
puedo enumerarlas todas aquí, desde los rayos X hasta la cirugía láser. Así que me
limitaré a comentar brevemente tan solo dos. Una de ellas utiliza el espín cuántico de
los núcleos, mientras que la otra guarda relación con el empleo de antimateria para
cartografiar el cerebro.
Físicos estadounidenses desarrollaron los principios de la técnica de la resonancia
magnética nuclear hace medio siglo, y durante muchos años se han empleado como
herramienta espectroscópica en el campo de la química. La idea consiste en medir las
concentraciones de distintos átomos en materiales a partir de la radiación que emiten
sus núcleos atómicos a medida que su espín cuántico se invierte en un campo
magnético. Muchos núcleos rotan (de manera cuántica) debido al espín combinado de
los protones y neutrones que los conforman). El eje sobre el cual gira (dicho de manera
informal) un núcleo se alineará, como la aguja de una brújula, con las líneas de un
campo magnético generado desde el exterior. Dependiendo de la dirección del espín se
puede determinar si ese eje apunta en una dirección u otra a lo largo de las líneas de
campo magnético. Esas direcciones se denominan sencillamente «espín arriba» o «espín
abajo». Algunos de los núcleos se ven forzados entonces a invertir el eje del espín
debido a la aplicación de una señal de alta frecuencia procedente de un campo
magnético oscilante. Cuando recuperan la orientación original liberan un pequeño
estallido de energía específico de ese tipo de núcleo.
La mayoría de los materiales, como la materia orgánica que conforma nuestro
cuerpo, se componen de moléculas, que a su vez contienen distintas clases de átomos.
Usando una técnica llamada «construcción de proyección», las señales de resonancia
magnética nuclear procedentes del cambio continuo del espín de ciertos átomos se
pueden usar para crear imágenes del interior del cuerpo humano. Se trata de un
método bastante inocuo porque, a diferencia de la tomografía de rayos X, no hay que
introducir radiación ionizante perjudicial en el cuerpo. A pesar de ello, la máquina
utilizada para este fin se suele conocer como escáner de IRM (Imágenes por Resonacia
Magnética), por el temor que infunde en general el término nuclear dentro de la
expresión «resonancia magnética nuclear».
Funcionamiento de un escáner PET: Los átomos de un isótopo inestable se usan para detectar moléculas de glucosa
en el cerebro. Los núcleos de esos átomos experimentan una desintegración beta con la emisión de un positrón (el
equivalente en antimateria del electrón). Este choca enseguida con un electrón atómico y lo aniquila, lo que libera dos
fotones de rayos gamma en sentidos opuestos. Un escáner PET consiste en series de detectores de fotones que
captan los rayos gamma en cristales de centelleo. Un solo rayo gamma de alta energía excita muchos átomos en esos
cristales, pero enseguida vuelven a asentarse mediante la liberación de fotones de menos energía. Estos, a su vez,
desencadenan una cascada de electrones dentro de un tubo fotomultiplicador, que acaban produciendo un pulso
eléctrico. Estas señales se usan para crear un mapa del cerebro, capa a capa, dependiendo de dónde se encuentren
las mayores concentraciones de glucosa. Aunque tal vez suene bastante alarmante que se pueda ver el interior del
cerebro humano usando átomos radiactivos que escupen antimateria, los escáneres PET son en realidad mucho
menos perjudiciales que los rayos X.
La tomografía por emisión de positrones (o PET, por sus siglas en inglés: Positron
Emission Tomography) es una técnica fantástica bastante fácil de explicar. Un uso
específico del escáner PET, por ejemplo, consiste en tomar imágenes del cerebro
cuando un paciente ha sufrido un derrame cerebral o cuando un recién nacido ha
corrido el riesgo de sufrir falta de oxígeno durante el parto. Primero se inyecta en el
cuerpo del paciente glucosa con isótopos radiactivos inocuos de carbono o nitrógeno,
desde donde se transporta al cerebro. Entonces se podrán tomar imágenes de las
regiones con una actividad neuronal alta y baja midiendo la concentración de glucosa,
que es la fuente de energía del cerebro, en las distintas regiones.
Los isótopos radiactivos de la glucosa experimentan una desintegración beta y
emiten positrones. Estas partículas se topan casi de inmediato con electrones y tiene
lugar un proceso de aniquilación de pares en el que el electrón y el positrón
desaparecen en un destello de luz con la emisión de dos fotones energéticos en
sentidos opuestos. Detectores llamados fotomultiplicadores captan esos fotones y
permiten trazar hacia atrás su trayectoria para llegar al punto exacto del cerebro en el
que se produjo la aniquilación electrón/positrón. De este modo se localiza el núcleo
radiactivo desintegrado y, por tanto, la glucosa que lo portaba. La detección de gran
cantidad de estos pares de fotones durante cierto espacio de tiempo permite crear una
serie de imágenes que revelan los cambios en la concentración de glucosa.
Mecánica cuántica y mutaciones genéticas
Hace unos años, mi compañero microbiólogo Johnjoe Mac- Fadden y yo publicamos un artículo especulativo en la
revista estadounidense Biosystems en el que propusimos el origen cuántico de un tipo inusual de mutación genética,
conocida como mutación adaptativa, de la bacteria E. coli. Era especulativo por dos razones. En primer lugar, el proceso
de las mutaciones adaptativas despertaba, y todavía lo hace, cierta controversia. En segundo lugar, el mecanismo
cuántico que proponíamos requería cierta propiedad cuántica exclusiva de las células vivas, porque de otro modo
nuestra teoría no se sostenía.
Ahora se sabe que las propiedades de codificación genética con que cuentan las moléculas de ADN de todas las
células vivas se deben a la naturaleza de los enlaces de hidrógeno entre pares de bases. Desde que Francis Crick y
James Watson descubrieron la estructura de doble hélice del ADN, se ha sabido que ciertas mutaciones naturales
pueden ocurrir con el paso aleatorio de protones de un lugar del ADN a otro cercano por efecto túnel, donde forman
un enlace químico diferente. Esta clase de errores accidentales en la codificación del ADN se dará en uno de cada mil
millones de casos, pero cuando ocurre tenemos una mutación cuántica. Así que la mecánica cuántica tiene cierto
peso en la evolución, en realidad.
En las mutaciones adaptativas, no se ha encontrado ninguna explicación así de simple. Cuando se suministra
lactosa a una cepa de células de E. coli llamada lac–, que es deficiente en una enzima que les permite metabolizar la
lactosa, contamos con que la mayoría muera. Sin embargo, algunas mutarán de manera aleatoria a la cepa lac+,
capaz de alimentarse de lactosa y crecer y, por tanto, empezar a replicarse. En cambio lo que se encontró fue que en
presencia de lactosa mutan muchas más lac– de E. coli a lac+ que cuando no hay lactosa, aunque no puedan saber
que la lactosa está presente hasta después de mutar. Parece cosa de magia.
Aquí es donde la idea de la superposición cuántica podría ofrecer una explicación. Veamos, en cada célula la
mutación de lac– a lac+ puede deberse al traslado por el efecto de túnel de un solo protón entre dos lugares
adyacentes. Por supuesto, desde un punto de vista cuántico, la función de onda del protón es tal que tiene cierta
probabilidad de encontrarse en cualquiera de esos dos lugares: una superposición de efecto túnel y no efecto túnel.
Y, dado que esa coherencia cuántica puede durar dentro de la célula el tiempo suficiente, todo el ADN debería
evolucionar como una superposición de estados mutados y no mutados.
El problema, desde luego, es la decoherencia, la filtración de la rareza cuántica al entorno circundante. Esto debería
ocurrir a una escala temporal inferior a una milmillonésima de segundo, demasiado deprisa para que el interior de la
célula experimente los cambios necesarios para que ella (o una parte de su función de onda) mute a la cepa que tiene
en cuenta la lactosa del entorno y puede utilizarla. No obstante, nosotros queríamos que la superposición durara lo
bastante como para que la propia lactosa causara la decoherencia. Es decir, la lactosa realiza el trabajo de abrir la caja
que mantiene encerrado al gato de Schrödinger y colapsa el estado de la célula en uno u otro sentido. Esto se debe a
que, dada la cepa correcta de E. coli, las reacciones químicas se producen involucrando a la lactosa, lo que también
puede deparar la decoherencia. Si la decoherencia se produce más deprisa en presencia de lactosa que en ausencia
de ella, entonces podrían explicarse los sorprendentes resultados observados en los experimentos de mutación
adaptativa.
Esto podría suceder mediante un mecanismo sencillo por el cual la repetición de mediciones «arrastra» un sistema
cuántico de un estado a otro. Si la lactosa «mide» una célula que va a pasar al estado mutado lac+, que sería raro,
entonces la célula progresará, se alimentará y crecerá. Pero si la célula está en el estado lac–, entonces no pasa nada y
vuelve a situarse en una superposición de dos estados. Por tanto, cuanto más frecuente sea la medición, más regular
será la cosecha de mutaciones lac+.
Por desgracia, cuesta creer que la coherencia cuántica dure tanto en un entorno tan ajetreado y complejo como es
una célula viva. La única posibilidad sería que una célula se comportara de un modo muy distinto a un sistema
inanimado de un tamaño, complejidad y temperatura equivalentes. De hecho, Erwin Schrödinger ya propuso en su
famosa obra de 1944 titulada ¿Qué es la vida? que las células vivas mantienen una estructura y un orden
69
equivalentes a los de la materia normal cerca del cero absoluto, un régimen donde los efectos cuánticos persisten
durante mucho más tiempo. Pero como nadie sabe en realidad qué es lo que torna la vida en algo tan especial,
nuestra teoría sigue siendo una especulación.
Desde la publicación de nuestro artículo he dejado la idea algo de lado, pero el físico Paul Davies, uno de los
pocos que alabó nuestro planteamiento, también se muestra interesado en estas cuestiones. Como él señala, aún nos
falta entender bien la naturaleza de la decoherencia, por no hablar de las complejas propiedades cuánticas de las
células vivas, y aún queda mucho trabajo por hacer.
La punta de un STM lee la superficie de un material permitiendo que los electrones atraviesen el hueco por efecto
túnel, lo que produce una corriente eléctrica que proporciona una medida de los contornos de la superficie. Puede
usarse incluso para desplazar átomos por la superficie de una forma controlada.
El inconveniente principal del STM es que la muestra también tiene que ser muy buena conductora de la
electricidad, y que hay que prepararla de un modo específico. En 1989 se puso a la venta el primer microscopio
comercial de fuerza atómica (o AFM, Atomic Force Microscope). Aunque seguía usando una técnica de escaneo similar
con una punta afilada para examinar y cartografiar la superficie, estos microscopios eliminaban los electrones de
efecto túnel y usaban en su lugar un microrresorte muy sensible que empujaba la punta con mucha suavidad hacia la
superficie. La fuerza utilizada para mantener la aguja en su sitio a medida que avanza a saltos por la superficie es del
orden de las fuerzas interatómicas (alrededor de 10 newton), de ahí su nombre.
-9
Hoy en día el uso de la microscopia de sonda de barrido, que emplea microscopios tanto STM como AFM, no se
limita a la mera representación gráfica de superficies. En física y química se puede usar la sonda para desplazar
moléculas, y hasta átomos individuales, de forma controlada. En la actualidad se están desarrollando y aplicando
técnicas nuevas a campos que van desde la biología hasta los semiconductores, el almacenamiento de datos o el
análisis de estructuras atómicas en polímeros y cristales. En el futuro, las puntas de los STM podrán emplearse incluso
para confeccionar todo un conjunto de máquinas moleculares diminutas, el santo grial del emergente campo de la
nanotecnología.
escala de los átomos y las moléculas, y cae de lleno dentro del ámbito de la cuántica. Muchos físicos creen ahora que no
hay ninguna razón que impida crear robots moleculares, componentes de circuitos, piezas, palancas y engranajes así de
diminutos. Para que se haga una idea de las dimensiones de estas entidades, comparadas con una hormiga serían lo
que una hormiga frente a un estadio de fútbol. Los científicos ya han demostrado que son capaces de manipular átomos
y moléculas individuales de manera controlada, y muchos creen que no falta mucho para la creación de esos robots de
dimensiones nanométricas. Se afirma que la nanotecnología está lista para desencadenar una revolución industrial que
nos transformará la vida aún más que la microelectrónica del silicio en el siglo pasado.
Un posible avance del futuro sería que robots moleculares de ese tipo consiguieran replicarse (no mediante un
proceso biológico, sino mediante la simple creación de copias de sí mismos) por billones a partir del material que les
proporcionara el entorno. De este modo, verdaderos ejércitos de máquinas podrían utilizarse para llevar a cabo una
cantidad abrumadora de tareas, desde matar células cancerígenas (¡una a una!) hasta milagrosas proezas de
ingeniería, o incluso la creación de lo que se ha dado en llamar «materiales inteligentes» (en inglés, smart materials).
Aunque aún faltan décadas para alcanzar esta tecnología, ya se han dado los primeros pasos. A comienzos de la
década de 1990, expertos japoneses estuvieron estudiando hollín (producido en una descarga eléctrica entre dos
electrodos de carbono) a través de un microscopio electrónico de transmisión. Descubrieron diminutos tubos
moleculares de carbono que desde entonces han revelado tener unas propiedades increíbles. Esos nanotubos de
carbono no son más que láminas sueltas de grafito enrolladas (conocidas como «grafeno») de un átomo de grosor.
Dadas las propiedades de los enlaces de carbono, esos nanotubos podrían emplearse como la fibra de alta resistencia
definitiva cuyas aplicaciones podrían abarcar desde puntas para microscopios de sonda de barrido, hasta edificios a
prueba de terremotos. Coches fabricados con nanotubos de carbono recuperarían su forma original después de un
impacto.
Los nanotubos pueden funcionar asimismo como cables moleculares pensados para ser conductores fantásticos de
la electricidad (casi tan eficientes como los superconductores) o semiconductores para usarse en circuitos integrados.
Hasta podrían emplearse para cambiar de lugar átomos y moléculas sueltos con eficiencia.
No los pierda de vista.
Condensados de Bose-Einstein
Ed Hinds, profesor de Física en la Universidad de Sussex
Imagine un solo átomo atrapado en un cuenco sumamente pequeño. Una función de onda cuántica describe el
movimiento del átomo dentro de la trampa. La función de onda experimenta distinta cantidad de vibraciones en
distintos lugares, y el cuadrado de la amplitud de vibración determina la probabilidad de encontrar el átomo allí. Si
suponemos que el átomo no puede atravesar la pared del cuenco, entonces la función de onda tiene que valer cero ahí.
La figura muestra las tres posibilidades más simples: las funciones de onda con 1, 2 y 3 zonas de vibración máxima.
Cuanto menor es la distancia entre ceros de la función de onda, mayor es la energía del átomo, de modo que esas
tres posibilidades de onda se corresponden con las tres energías posibles más bajas de un átomo encerrado en el
cuenco. Los diversos estados energéticos se etiquetan mediante un índice n = 1, 2, 3, etc., que se conoce como
número cuántico. Si se introduce en el cuenco una nube de muchos átomos, cualquiera de ellos será zarandeado y
pasará su tiempo en una superposición de muchos estados cuánticos distintos. A mayor temperatura, mayor es el
rango de estados cuánticos muestreados. El estado fundamental rara vez se ocupa en condiciones normales, porque
hay muchos otros estados posibles.
Pero si el gas se torna lo bastante frío y la densidad de átomos es lo bastante elevada, puede suceder que el
estado fundamental empiece a estar ocupado por dos átomos a la vez. Si los átomos son de la clase adecuada
(bosones), el resultado es bastante espectacular. Las funciones de onda que describen los dos átomos se suman y
crean otra con el doble de la amplitud de vibración, lo que cuadruplica la probabilidad de encontrar un átomo ahí
(dicho de otro modo, hay más átomos atraídos hacia ese estado). Cuantos más átomos entran en el estado
fundamental, más crece la amplitud de la función de onda y más atractivo se vuelve ese estado para otros átomos
que andan zarandeados por el gas. Este es un efecto de interferencia debido a la suma constructiva de las ondas que
describen cada átomo. El resultado es una avalancha en la que casi todos los átomos coinciden en ocupar el estado
energético más bajo, mientras que un pequeño número de ellos se queda con el resto de la energía que hay en el
gas. Estos suelen ser tan energéticos que escapan del cuenco en su totalidad, y dejan casi cada uno de los átomos
restantes en el estado fundamental. Este proceso se denomina condensación de Bose-Einstein, y el conjunto de
átomos en el mismo estado cuántico es un condensado de Bose-Einstein o BEC (del inglés Bose-Einstein condensate) . 70
Un condensado de Bose-Einstein tiene propiedades extraordinarias debido al hecho de que todas las partículas se
comportan de forma idéntica. En el helio líquido, alrededor de un 10% de los átomos forman un BEC, pero esa parte
del líquido fluye sin ninguna viscosidad, lo que lo convierte en un superfluido. La luz de un láser es un BEC de fotones
(los fotones son bosones), lo que significa que los fotones del rayo láser tienen un comportamiento idéntico (de ahí
su pureza de color y la direccionalidad del rayo). La condensación Bose-Einstein de vapor atómico fue observada por
primera vez en 1995 dentro de nubes de rubidio por Eric Cornell y Carl Wieman en el JILA, y en nubes de sodio por
Wolfgang Ketterle en el MIT. Igual que un rayo láser, los átomos liberados desde un BEC de vapor atómico pueden
crear un rayo con una energía, una dirección y una fase de oscilación extremadamente bien definidas. Esta clase de
rayo se conoce como láser atómico.
pasar a través de agua o de un cristal). Esto provoca un ligero cambio en la función de onda
del fotón que va surgiendo de manera gradual conforme atraviesa el átomo miles de veces,
hasta que el efecto se vuelve medible.
Los físicos del Instituto Max Planck de Óptica Cuántica en Alemania han usado esta
técnica para seguir la trayectoria de un átomo cuando pulula por dentro de la cavidad.
Por supuesto, lo que sucede aquí equivale a una observación continua del átomo, de
modo se este se comporta como una partícula clásica en todo momento.
Observación de la decoherencia en plena acción
Varios experimentos en el campo de la óptica cuántica han acaparado los titulares
científicos de los últimos años. Durante tres cuartos de siglo, físicos teóricos y filósofos
han debatido sobre ideas tan fundamentales como dónde radica la frontera entre el
mundo cuántico y el clásico recurriendo a experimentos científicos y argumentos
basados en distintas concepciones sobre la interpretación de la mecánica cuántica.
Ahora, al fin, estas ideas se pueden poner a prueba en el laboratorio.
En el Capítulo 5 describí cómo ha resuelto la decoherencia una de las dos cuestiones
fundamentales relacionadas con el problema de la medición (es decir, por qué nunca
vemos gatos muertos y vivos al mismo tiempo). El fenómeno de la decoherencia revela,
como sería de esperar, que no existe una línea divisoria clara entre los mundos micro y
macro, sino que los efectos de interferencia de las superposiciones desaparecen cada
vez más rápido a medida que aumenta la complejidad de un sistema cuántico. De modo
que se destruyen a una velocidad extrema en cuanto un sistema cuántico entra en
contacto con su entorno macroscópico. El truco consiste, pues, en estudiar sistemas
«mesoscópicos», situados en algún lugar intermedio, con la esperanza de pillar la
decoherencia en plena acción.
Experimento de 1996 en Boulder, Colorado, que creó el primer estado «gato de Schrödinger» en un átomo, primero
atrapando un átomo dentro de un campo de fuerza, y después frenándolo mediante el enfriamiento con láser.
Después se usaron dos láseres más para «forzarlo» a una superposición de estar en dos sitios a la vez.
una secuencia de pulsos láser controlados que lo forzaron a una superposición de dos
estados cuánticos diferentes basados en la energía de los electrones externos del átomo.
De por sí, esto no es muy sorprendente. Los átomos se encuentran a menudo en
superposiciones. Lo ingenioso fue el hecho de que los láseres lograran situar los
distintos estados del átomo en un entrelazamiento cuántico con estados de su
movimiento, de forma que también se situó en una superposición de moverse en dos
direcciones al mismo tiempo. El átomo oscilaba de un lado a otro dentro de su trampa,
de forma que ambos estados se movían completamente fuera de fase. La máxima
separación entre ellos sería de casi mil veces el diámetro del átomo. Nótese que cuando
digo «ellos» estoy hablando de las dos partes de la función de onda de un solo átomo.
Ah, pero yo sé que las funciones de onda no están localizadas en el espacio, así que
esta clase de comportamiento no debería parecernos tan extraña. Aun así, cada parte en
oscilación de la función de onda tiene una extensión de tan solo la décima parte de la
separación máxima entre las dos partes. Por eso esta situación es diferente del
experimento habitual de la doble rendija. Al fin y al cabo, cuando un átomo atraviesa
dos rendijas también se encuentra en una superposición de estar en dos lugares a la
vez. Pero en ese caso las dos partes de la función de onda se extienden en cuando salen
de las rendijas y se superponen, de ahí la interferencia entre ellas. En el caso que nos
ocupa ahora, cada parte de la función de onda permanece localizada y no se extiende
por el espacio. Cuando las dos partes se encuentran separadas al máximo hay muy poca
superposición.
El experimento de París de 1996 que confirmó por primera vez que la decoherencia es un proceso físico real. El
estudio de los estados de dos átomos (el gato cuántico y el ratón cuántico) pasados a través de una cavidad que
contenía un campo magnético en una superposición, permitió medir la rapidez con que el campo entraba en
decoherencia.
Una vez que pudieron crearse estos estados mesoscópicos de gato de Schrödinger,
el siguiente paso consistió en usarlos para demostrar la naturaleza de la decoherencia.
El primer experimento que lo logró, en diciembre de 1996, fue obra de un equipo
encabezado por Serge Haroche, que trabajaba en la Escuela Normal Superior (ENS) de
París. En lugar de limitarse a situar un átomo en superposición, lograron entrelazar el
estado del átomo con un campo electromagnético consistente en tan solo unos pocos
fotones atrapados dentro de una cavidad. De este modo, el campo electromagnético
también se forzó a una superposición, la de oscilar con dos fases distintas a la vez.
Lo siguiente que hicieron fue medir cuánto tiempo podía mantenerse el campo
electromagnético en esta superposición cuántica. En cuanto un solo fotón escapara de la
cavidad y delatara el estado cuántico del campo al mundo exterior, se produciría una
interacción con su entorno. Para medir lo rápido que ocurría eso, enviaron un segundo
átomo, al que llamaron «ratón cuántico» , que de por sí quedaría entrelazado con el estado
73
cuántico del campo. Esto provocó una interferencia entre distintas partes de la función de
onda del segundo átomo, que pudieron medir. Al cambiar el intervalo temporal antes de
introducir el átomo ratón de Schrödinger lograron ver la decoherencia en plena acción. La
velocidad a la que se pierde la superposición del campo electromagnético depende
únicamente de lo «fuera de fase» que estén ambas componentes. Lo habitual es que este
tiempo de decoherencia se pueda prolongar hasta la décima parte de un milesegundo. Al
fin había una demostración impactante de que la decoherencia era real.
En tiempos más recientes ha habido gran interés por la perspectiva de lo que se
conoce como «ingeniería de entorno», que consiste básicamente en evitar la
decoherencia manteniendo las superposiciones cuánticas de átomos atrapados el
máximo tiempo posible. ¿Y cómo se hace eso? Pues, una vez más, usando láseres. Solo
que ahora se trata de un trabajo mucho más difícil que precisa el funcionamiento
combinado de muchos láseres. Así, si sumamos los láseres que atrapan el átomo, los
láseres que lo enfrían y los láseres que lo sitúan en una superposición, ¡estamos
hablando de mucho trabajo para la industria láser!
Entrelazamiento que bate récords
Pillar la decoherencia en plena acción y controlarla tiene aplicaciones importantes en los
campos emergentes de la criptografía cuántica, la computación cuántica y el
teletransporte cuántico, del que hablaré a su debido tiempo en este mismo capítulo.
Pero antes de hacerlo, vale la pena mencionar brevemente el avance reciente en el
aprovechamiento de otra de las propiedades fundamentales de la función de onda: el
entrelazamiento.
Cuando pase a hablar sobre la computación cuántica veremos que para hacer un uso real
de las superposiciones cuánticas necesitamos entrelazar juntos muchos estados cuánticos.
Durante la década de 1990, varios grupos lograron entrelazar juntos dos o tres átomos o
fotones, pero no fue fácil. Una interacción con el entorno por parte de cualquiera de las
partículas entrelazadas significaría una medición, y conllevaría el desmoronamiento de las
delicadas superposiciones, como un castillo de naipes. Más tarde, en marzo de 2000, el
grupo del NIST comunicó en las páginas de Nature la aplicación fructuosa de una técnica
74
nueva para entrelazar una cadena de cuatro átomos atrapados. Cada átomo se colocó en
una superposición y, entonces, los cuatro se entrelazaron entre sí. El método, decían, es
ampliable a un número mucho mayor de partículas.
En septiembre de 2001 se informó de otro gran logro por parte de un grupo de Aarhus
en Dinamarca que consiguió entrelazar los estados cuánticos de dos objetos macroscópicos:
muestras de gas cesio, ¡cada una de las cuales contenía billones de átomos! El estado se
mantuvo durante casi un milisegundo completo. Vale, no se ría, sé que un milisegundo no
es mucho, pero sigue siendo algo muy impresionante. Es decir, si cada muestra hubiera
estado en una superposición de dos estados de tal forma que en cada uno de ellos todos
los átomos estuvieran haciendo lo mismo (todos en un solo estado de energía o todos
girando en la misma dirección), entonces en cuanto uno solo de ellos se escapara, ya habría
delatado el estado de toda la muestra y habría colapsado la superposición. Esto implicaría
un tiempo de decoherencia inferior a un femtosegundo . Sin embargo, ellos consiguieron
75
mantener el estado entrelazado durante un espacio de tiempo ¡un billón de veces más
largo!
Para lograr esto no optaron por lo que se denomina un entrelazamiento máximo,
donde todos los átomos de cada muestra hacen lo mismo. En lugar de eso, situaron
ambas muestras en una superposición de dos estados, en cada uno de los cuales algo
más de la mitad de los átomos giraba en un sentido, mientras que el resto giraba en el
contrario.
De este modo, si un átomo escapaba y delataba el estado de su espín, no bastaría
para colapsar la función de onda de toda la muestra en uno u otro estado, puesto que
el espín de ese átomo habría pertenecido tan solo a uno de los dos estados del total.
Así pues, la pérdida de decoherencia en el estado de un solo átomo que pudiera
escaparse solo causa un daño muy leve en la superposición global. Es decir, la detección
del estado de un átomo no equivale a medir el estado de toda la muestra.
Criptografía cuántica
Las técnicas recién comentadas no son meras formas esmeradas de poner de relieve los
aspectos más extraños de la mecánica cuántica. También tienen una finalidad práctica:
contribuir a la consecución del sueño de construir algún día una computadora cuántica.
Pero ya se ha logrado una aplicación cuántica viable del entrelazamiento. Se llama
«criptografía cuántica».
Primero describiré en qué consiste la criptografía clásica. Si alguna vez le ha
preocupado la seguridad de introducir el número de su tarjeta de crédito para comprar
en internet, no lo haga (es decir, no se preocupe). Es extremadamente seguro, al menos
de momento. Con los años, los matemáticos han buscado formas de permitir que dos
partes intercambien información con una confidencialidad absoluta. La forma habitual
de hacerlo consiste en mandar un mensaje codificado y confiar en que un intruso no
será capaz de descifrarlo. Existen diversos trucos para garantizar la seguridad de los
mensajes encriptados, como el sistema de «clave pública». La forma más simple de esta
idea se basa en el siguiente ejemplo. Si quiero recibir un mensaje secreto de usted, le
enviaré una caja vacía, abierta e inexpugnable junto con un candado abierto, del que
solo yo tenga la llave. Usted colocará el mensaje dentro de la caja y la cerrará con el
candado, antes de volver a mandármela. El candado utilizado solo se puede abrir con mi
llave.
Sistemas como este dependen en la práctica de la idea de que ciertas operaciones
matemáticas son más fáciles de resolver en un sentido que en el contrario, como la
multiplicación y la factorización. Si le digo que x por y da 37 523, ¿cuánto tiempo le
llevará factorizar esa cifra y darme el valor de x e y? En cambio, si le planteara el
problema a la inversa, que 239 multiplicado por 157 da z, y le pidiera que hallara z,
estoy seguro de que me daría la respuesta mucho más rápido. El método más usado
para la encriptación con clave pública se basa en la dificultad que entraña factorizar
números muy grandes. Hasta las computadoras más potentes tardan mucho en hacerlo.
Así, por ejemplo, la factorización de un número formado por mil dígitos llevaría más
tiempo que la edad del universo ¡incluso con la computadora más potente del mundo!
Sin embargo, si alguna vez lográramos construir una computadora cuántica, tal vez
habría manera de factorizar números mucho más deprisa. En ese caso, la seguridad de
los sistemas de encriptación actuales con clave pública no tardaría nada en verse
amenazada. Incluso sin computadoras cuánticas, no podemos descartar avances
matemáticos que conduzcan al hallazgo de un algoritmo para factorizar números
grandes. Por suerte, existe otro tipo de criptografía totalmente infalible, y también se
basa en la mecánica cuántica.
La idea fundamental que subyace a la criptografía cuántica es que permite el
intercambio de la «clave» criptográfica entre dos partes distantes (conocidas en la
bibliografía especializada como Alice –en el lado A o emisor– y Bob –en el lado B o
receptor–) con una seguridad absoluta que está garantizada por las leyes de la física.
Esta clave es lo que permite al emisor codificar y al receptor decodificar el texto cifrado.
Así que sería más correcto que la criptografía cuántica se llamara distribución de claves
cuánticas.
Hasta el momento presente se han desarrollado dos técnicas. Ambas se basan en
que, de acuerdo con la mecánica cuántica, cualquier intento por parte de un intruso
para interceptar la clave implicará una medición de algún tipo, y esto inevitablemente
alterará el sistema y alertará al emisor y al receptor. La primera de esas técnicas se
denomina protocolo Bennett-Brassard, que debe su nombre a quienes la idearon en
1984, y se basa en que Alice y Bob midan e intercambien fotones. Algunas de sus
propiedades, como la polarización, se pueden convertir entonces en un sistema binario
de ceros y unos para conformar la clave. Sin entrar en más detalles técnicos, este
método se sirve de la superposición cuántica y el principio de incertidumbre.
A comienzos de la década de 1990, Artur Ekert descubrió un segundo protocolo
basado en las ideas de la deslocalización y el entrelazamiento. En este caso, Bob manda
a Alice uno de los fotones que conforman un par entrelazado, el cual ella mide de
alguna manera y vuelve a mandárselo a él. Al recibirlo, él realiza una medición del
estado combinado que le permitirá determinar qué tipo de medición efectuó Alice. Para
descifrar la clave Bob necesitará conocer una serie de las mediciones realizadas por
Alice. Cualquier intento por parte de un intruso de interceptar el fotón afectará a su
compañero y alertará a Bob.
La ley de Moore
No sé si aún lo conservo en algún lugar del desván, pero hace ahora veinte años que
compré mi primera computadora programable. Era una Sinclair ZX81 con una frecuencia de
76
procesador de 3 MHz y 1 kilobyte de memoria. Yo amplié la memoria insertando en la parte
trasera un cartucho de memoria RAM de 16 K, lo que al menos me permitía escribir códigos
de más de una pantalla antes de llenar la memoria. Pero el más mínimo codazo soltaba la
conexión física, complementada en mi caso con una capa generosa de pasta adhesiva, con
lo que perdía y destruía todo lo que hubiera tecleado. Sea como fuere, nunca pude usarla
para nada más que escribir programas cortos para efectuar cálculos relacionados con mis
informes de laboratorio mientras estaba en la universidad, los cuales me llevarían un poco
más de tiempo con una calculadora de bolsillo. En cambio, el equipo portátil con el que
trabajo hoy tiene un tamaño parecido a aquel otro ordenador personal, pero cuenta con
una velocidad de procesador de 1000 MHz (300 veces más rápido) y un espacio de disco de
15 gigabytes (un millón de veces más), y ya tiene más de un año, así que ha dejado de ser
tecnología punta.
En 1965, el cofundador de Intel, Gordon Moore, auguró que la potencia de las
computadoras se doblaría en el futuro cercano cada dieciocho meses. Su predicción,
ahora llamada «ley de Moore», se ha revelado muy atinada y todos sabemos que
debemos actualizar nuestros ordenadores personales con regularidad para seguir de
cerca un software cada vez más sofisticado. Pero ¿hasta cuándo podrán seguir así las
cosas? ¿Se sabe cuándo es probable que deje de funcionar la ley de Moore?
Pues resulta que tenemos una idea muy clara de cuándo sucederá eso si seguimos
con la tecnología actual. En el capítulo anterior comenté que los láseres se usan para
grabar los diminutos patrones de un circuito integrado sobre la superficie de un chip de
silicio. El aumento de la potencia de las computadoras depende de la miniaturización
continua de este proceso. Con los avances tecnológicos actuales deberíamos seguir
igual que hasta ahora durante unos veinte años más, a medida que se vaya acortando
más y más la longitud de onda de la luz láser utilizada. Sin embargo, también se ha
planteado que la ley de Moore tendrá un final abrupto en el plazo de cinco o diez años
debido a un problema insoslayable con el aumento de la miniaturización que se conoce
como «ruido térmico». Pero, aun así, acabaremos llegando a lo que se denomina
«barrera cero punto uno», que alude al momento en que la longitud de onda del rayo
láser sea tal que cada transistor del microchip mida tan solo 0,1 micras de ancho. Esto
significa que unos mil, grabados todos seguidos de forma contigua sobre el chip,
abarcarían el grosor de un solo cabello humano. Para entonces, la longitud de onda de
los láseres habrá descendido hasta la banda de la luz ultravioleta y tendremos que
encontrar una técnica diferente para crear imágenes de circuitos aún más diminutas
sobre la superficie de silicio, como rayos X o incluso rayos de electrones, de longitudes
de onda mucho más cortas. Otra posibilidad, como alternativa a la sucesiva
miniaturización de los chips, consistirá en sustituir el silicio por arseniuro de galio. Este
material semiconductor posee una estructura atómica que permitiría a los circuitos
alojados en su superficie conducir electricidad mucho más deprisa.
A la larga acabaremos topándonos con otra barrera llamada «criterio de Rayleigh»,
que establece que los rasgos mínimos que se pueden resolver sobre el chip no pueden
ser inferiores a la mitad de la longitud de onda del rayo. Una vez alcanzado ese estado
hay que empezar a tener en cuenta efectos cuánticos. Una posibilidad que se está
estudiando, por ejemplo, es aprovechar el entrelazamiento de fotones en el rayo láser
para superar ese límite, pero probablemente no mucho más allá.
Cuando lleguemos a unas dimensiones moleculares, allá por el año 2020 más o
menos, la era del chip semiconductor habrá llegado a su fin. Se está investigando en
otros campos y ya hay dos propuestas que se revelan prometedoras. La primera
consiste en usar computadoras biomoleculares, basadas en el hecho de que las
moléculas de ADN son capaces de almacenar una cantidad increíble de información, así
que tal vez puedan usarse algún día para confeccionar circuitos lógicos moleculares. La
otra posibilidad consiste en usar transistores cuánticos basados en las propiedades de
electrones sueltos atrapados artificialmente en «pozos cuánticos» no mucho más
grandes que un átomo. Una alteración ligera del voltaje a través de esos pozos permite
controlar el comportamiento de los electrones de un modo parecido al funcionamiento
de un transistor.
Todos los avances mencionados son algo más que pura especulación, y harán que la
potencia de la computación siga creciendo en el transcurso de nuestras vidas. Sin
embargo, existe un número creciente de físicos cuánticos dedicados a poner de verdad
a prueba la rareza cuántica y están convencidos de que en algún momento del presente
siglo conseguirán construir la máquina cuántica definitiva: una computadora cuántica.
Cubits
A comienzos de la década de 1980, hacia la misma época en que yo compré mi ZX81,
Richard Feynman especulaba con la posibilidad de que tuviera sentido resolver ciertos
problemas, como simular el comportamiento de un sistema cuántico, usando una
computadora que también se comporte de manera cuántica. Un ordenador así utilizaría
el concepto de superposición para crear tipos de algoritmos completamente nuevos. El
campo de investigación de las computadoras cuánticas despegó pronto: ya en 1985 el
físico de Oxford David Deutsch publicó un artículo pionero en el que manifestaba cómo
podría lograrse tal cosa en la práctica.
Lo que proponía Deutsch era un prototipo de «computadora cuántica universal»,
igual que Alan Turing había planteado la idea de una computadora clásica universal
medio siglo antes. La máquina de Deutsch operaría de acuerdo con principios cuánticos
para simular cualquier proceso físico. Requeriría una serie de sistemas cuánticos capaces
de existir de forma individual en una superposición de dos estados, como los átomos en
superposiciones de dos niveles de energía. Entonces estos sistemas cuánticos se
entrelazarían entre sí para crear puertas lógicas cuánticas capaces de realizar ciertas
operaciones.
La idea fundamental es la del «bit cuántico» o cubit. El elemento básico de una
computadora digital convencional lo conforma el «bit», un interruptor que puede
situarse en una de dos posiciones posibles: encendido y apagado. Estas se representan
mediante los símbolos binarios de 0 y 1. En cambio, si se usara un sistema cuántico,
como un átomo, este podría existir en ambos estados al mismo tiempo. Por tanto, un
cubit puede encontrarse encendido y apagado a la vez siempre y cuando se pueda
mantener aislado de su entorno.
Como es natural, un solo cubit no resulta muy útil. Pero si entrelazamos dos o más
cubits, empezamos a presenciar el poder de esta configuración. Pensemos en el
contenido de información de tres bits clásicos. Cada uno de ellos puede encontrarse en
la posición 0 o 1, y por tanto hay ocho combinaciones diferentes entre los tres (000, 001,
010, 100, 011, 101, 110, 111). Pero el entrelazamiento de solo tres cubits nos permiten
almacenar esas ocho combinaciones ¡al mismo tiempo!
Si añadimos un cuarto cubit, tendremos 16 combinaciones, y un quinto nos brindará 32,
y así sucesivamente. La cantidad de información almacenada crece de manera exponencial
(como 2 , donde N es el número de cubits). Imaginemos ahora que resolvemos operaciones
N
igual que lo haríamos con bits clásicos. Podríamos realizar 2 cálculos al mismo tiempo, lo
N
Clonación cuántica
Muchos de los emocionantes avances y prometedoras aplicaciones futuras de la mecánica cuántica, como la criptografía
y la computación cuánticas, se basan en el campo relativamente reciente de la teoría de la información cuántica. Una
materia que aún no se ha explorado por completo y que repercutirá en todas esas tecnologías es la clonación cuántica.
Aunque estamos al tanto de los avances en genética y la clonación de animales, y posiblemente algún día también
de seres humanos, es importante subrayar que, en esos casos, el clon no es idéntico al original, sino que más bien se
limita a contar con el mismo código genético. En mecánica cuántica, un clon es en todos los sentidos idéntico a la
partícula o el sistema cuántico del que se copió. En 1982 William Wooters y Wojciech Żurek presentaron una
demostración matemática de que es imposible la clonación perfecta de un sistema cuántico arbitrario. Por supuesto,
si ya sabemos de antemano cuál es el estado cuántico, podemos construir, en principio, un dispositivo de clonación
cuántica que producirá copias idénticas de sí mismo, pero ningún dispositivo de clonación de ese tipo se podrá
emplear de forma universal con todos los sistemas cuánticos.
Para clonar un objeto, antes tenemos que saberlo todo sobre él. Esto se hace mediante la medición. Una vez
recopilada toda la información necesaria, podemos usarla para construir un clon. Pero hasta ahora hemos visto que
medir un sistema cuántico no nos permite hacer eso (siempre se pierde algo con el acto de la medición). Esto se debe
a que estamos convirtiendo información cuántica en información clásica. Por ejemplo, un fotón que se encuentre en
una superposición arbitraria de distintos estados de espín o de polarización, exhibirá, al medirlo, uno u otro de esos
estados, pero nunca la superposición. Por tanto, no podemos conocer las amplitudes relativas de las distintas partes
de la superposición original ni de qué manera se combinaron (su fase). Esto no es nada bueno para la clonación.
Desde la demostración de Wooters y Żurek, los estudiosos se han dado cuenta de que, en teoría, se puede
construir lo que se denomina un clonador cuántico universal que, aunque jamás será perfecto, puede tener un índice
de éxito (o «fiabilidad») bien definido.
La clonación cuántica podría revelarse útil si alguna vez construimos una computadora cuántica. En lugar de
efectuar operaciones secuenciales en un cubit, el cubit se puede clonar primero varias veces para lograr un
procesamiento en paralelo mucho más eficiente con todos los clones funcionando al mismo tiempo. Pero es más
urgente desentrañar qué fiabilidad tendrá la criptografía cuántica si un intruso consigue crear siquiera clones
aproximados de fotones utilizados para la transmisión de mensajes.
Por último hablaré con brevedad tan solo sobre una de las demás ideas que existen
hoy para construir una computadora cuántica. Esta, aún en una fase muy preliminar, se
basa en las dos aplicaciones de la mecánica cuántica que comenté por extenso en el
capítulo anterior: el láser y el microchip. Podemos hacer que una nube de átomos
enfriada con láser hasta tan solo una milésima de un grado por encima del cero
absoluto, flote sobre un chip semiconductor mediante campos magnéticos producidos
por las minúsculas corrientes eléctricas que circulan por los circuitos integrados del chip.
La altura y la velocidad de los átomos se puede controlar al tiempo que son guiados a lo
largo de los contornos del campo magnético. De este modo tal vez sea posible
controlar con precisión el entrelazamiento de los estados cuánticos de los átomos.
Para todos los tipos posibles de computadora cuántica, el obstáculo de momento
consiste en aislar las delicadas superposiciones de su entorno. Cuantos más cubits estén
entrelazados, más deprisa se produce la decoherencia. Sin embargo, se están logrando
avances en diversos frentes. Por ejemplo, en el procesador de trampa iónica se puede
controlar la forma en que interaccionan los iones con su entorno si se escogen con
buen criterio las propiedades de ese entorno.
Computadora cuántica de siete cubits que sorprendió al mundo en 2001, creada por la Universidad de Stanford y el
Centro de Investigación Almaden de IBM en California. Esta molécula, conocida como complejo ferro-perfluoro-
butadienilo, y empleada en un sistema de RMN, fue la primera en llevar a la práctica el algoritmo de Shor para
factorizar un número, ¡aunque solo fuera el número 15!
Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.
Alternative Proxies: