En el capítulo 1 señalé
que el éxito de la matemática en las teorías físicas tiene dos aspectos: a uno
lo llamé «activo» y al otro «pasivo». El aspecto «activo» refleja el hecho de
que los científicos formulan las leyes de la naturaleza en términos matemáticos
aplicables más allá de toda duda; es decir, utilizan entidades, relaciones y
ecuaciones matemáticas que se desarrollaron pensando en su aplicación, con
frecuencia para el tema en cuestión. En esos casos, los investigadores tienden
a basarse en la percepción de similitud entre las propiedades de los conceptos
matemáticos y los fenómenos observados o los resultados experimentales. En
tales situaciones, puede que la eficacia de la matemática no sea tan
sorprendente, ya que se puede sostener que las teorías se ajustaron a medida de
las observaciones. Sin embargo, existe también una parte sorprendente del uso
«activo», la relacionada con la precisión,
que comentaré más adelante en este capítulo. La eficacia «pasiva» se refiere a
los casos de desarrollo de teorías matemáticas totalmente abstractas, sin
intención alguna de hallarles aplicación, que más adelante se transforman en
modelos predictivos de gran potencia. La teoría
de nudos representa un ejemplo espectacular de la interacción entre la
eficacia pasiva y la activa.
Nudos
Los nudos están hechos
del material del que están hechas las leyendas. Quizá recuerden la leyenda
griega del nudo gordiano. Un oráculo comunicó a los ciudadanos de Frigia que su
próximo rey sería el primer hombre que entrase en la capital montando un carro
de bueyes. Gordio, un pobre campesino incauto que entró en la ciudad
conduciendo un carro de bueyes, se convirtió de este modo en rey. Abrumado por
la gratitud, Gordio dedicó su carro a los dioses y lo ató con un complicado
nudo que resistió todos los intentos de deshacerlo. Una posterior profecía
pronosticaba que la persona que deshiciese el nudo se convertiría en rey de
Asia. El destino quiso que el hombre que finalmente deshiciera el nudo (en el
año 333 a.C.) fuese Alejandro Magno que, en efecto, más adelante se convertiría
en soberano de Asia. No obstante, la solución de Alejandro para el nudo
gordiano no fue lo que llamaríamos sutil, ni siquiera limpia; al parecer,
Alejandro ¡cortó el nudo en dos con su espada!
Pero no hace falta que
retrocedamos hasta la antigua Grecia para tropezamos con nudos. Un niño que se
ata los zapatos, una chica haciendo trenzas en su cabello, la abuela tejiendo
un jersey y un marinero amarrando un barco, todos ellos utilizan algún tipo de
nudo. Hay nudos con nombres pintorescos,[232] como «gaza de
pescador», «corbata inglesa», «zarpa de gato», «nudo de amor dormido»,
«abuelita» o «nudo del ahorcado». En concreto, los nudos marineros se han
considerado lo bastante importantes desde un punto de vista histórico como para
inspirar toda una colección de libros en la Inglaterra del siglo XVII. Resulta
que uno de estos libros lo escribió nada menos que el aventurero inglés John
Smith (1580-1631), que se hizo célebre por su relación romántica con la
princesa nativa americana Pocahontas.
La teoría matemática de
nudos nació en 1771, en un documento escrito por el matemático francés
Alexandre-Théophile Vandermonde (1735-1796).[233] Vendermonde fue el
primero en reconocer que los nudos se podían estudiar como parte de la materia
denominada «geometría de posición», que trata de relaciones que dependen
únicamente de la posición, y hace caso omiso de los tamaños y de los cálculos
cuantitativos. En términos de su papel en el desarrollo de la teoría de nudos,
el siguiente puesto le corresponde al «príncipe de las matemáticas» alemán,
Carl Friedrich Gauss. Las notas de Gauss contienen bocetos y descripciones
detalladas de nudos, así como exámenes analíticos de sus propiedades. Sin
embargo, a pesar de la importancia de la obra de Vandermonde, Gauss y otros
matemáticos del siglo XIX, el principal impulso de la moderna teoría de nudos
tuvo un origen inesperado: ¡un intento de explicar la estructura de la materia!
La idea se forjó en la mente del famoso físico inglés William Thomson (más
conocido actualmente por lord Kelvin; 1824-1907). Los trabajos de Thomson se
centraban en la formulación de una teoría de los átomos, los bloques de
construcción básicos de la materia.[234] Según su original
conjetura, los átomos eran en realidad tubos anudados de éter (esa misteriosa
sustancia que, según se suponía, impregnaba todo el espacio). En este modelo,
la variedad de elementos químicos se explicaba por la gran diversidad de nudos.
Si la especulación de
Thomson nos parece actualmente casi una chifladura es porque hemos tenido un
siglo de tiempo para acostumbrarnos al modelo correcto del átomo (en el que los
electrones orbitan alrededor del núcleo) y comprobarlo experimentalmente. Pero
estamos hablando de Inglaterra en la década de 1860, y a Thomson le había
impresionado profundamente la estabilidad de los anillos de humo complejos y su
capacidad de vibrar, dos propiedades que en aquella época se consideraban
esenciales en cualquier modelo del átomo. Para desarrollar el equivalente de
una «tabla periódica» de los elementos, Thomson debía clasificar los nudos (es decir, averiguar cuáles eran los distintos
tipos de nudo posibles), y esta necesidad de tabulación de nudos suscitó un
gran interés por la matemática de los nudos.
Como ya expliqué en el
capítulo 1, un nudo matemático tiene un aspecto similar al de un nudo en una
cuerda, pero los extremos de la cuerda están empalmados. En otras palabras, un
nudo matemático se representa mediante una curva cerrada sin cabos sueltos.
En la figura 54 se
pueden ver algunos ejemplos; los nudos tridimensionales se representan mediante
sus proyecciones (sombras) en el plano. La posición en el espacio de dos
ramales que se cruzan se indica en la figura mediante la interrupción de la
línea que representa el ramal inferior. El nudo más simple (llamado
precisamente nudo simple) es
únicamente una curva circular cerrada (como se muestra en la figura 54a). El
nudo de trébol (figura 54b) tiene
tres cruces de ramales, mientras que el nudo en 8 (figura 54c) tiene cuatro cruces. En la teoría de Thomson,
estos tres nudos podían, en principio, corresponder a modelos de tres átomos de
complejidad creciente, como los de hidrógeno, carbono y oxígeno,
respectivamente.
Pero seguía siendo
necesaria una clasificación completa de nudos, y la persona que emprendió esta
tarea fue un amigo de Thomson, el físico matemático escocés Peter Guthrie Tait
(1831-1901). Las preguntas que los matemáticos se hacen acerca de los nudos no
difieren mucho de las que uno mismo podría plantearse acerca de una cuerda
anudada o un ovillo enredado. ¿Está realmente anudado? Un nudo determinado ¿es
equivalente a otro? O, lo que es lo mismo: ¿se puede deformar un nudo hasta
adquirir la forma de otro sin romper
las hebras ni hacer pasar un ramal a través de otro como en los anillos mágicos
de un ilusionista? La importancia de esta pregunta se puede ver en la figura
55, en donde se muestra que, mediante determinadas manipulaciones, es posible
obtener dos representaciones muy distintas de lo que, en realidad, es el mismo
nudo. En última instancia, la teoría de nudos busca una forma de demostrar que ciertos nudos (como el
nudo de trébol o el del número 8, figuras 54b y 54c) son realmente distintos,
ignorando las diferencias «superficiales» de otros nudos, como los de la figura
55.
Tait inició su trabajo
de clasificación por el camino difícil.[235] Sin ningún principio
matemático riguroso para guiarle, recopiló listas de curvas con un cruce, dos
cruces, tres cruces, etc. En colaboración con el reverendo Thomas Pennington
Kirkman (1806-1895), que también era aficionado a las matemáticas, empezó a
pasar una criba por las curvas para eliminar duplicados de nudos equivalentes.
No se trataba de una tarea trivial. Hay que tener en cuenta que en cada cruce
hay dos formas de elegir qué ramal pasa por encima. Eso significa que, si una
curva contiene, por ejemplo, siete cruces, se deben tener en cuenta 2 × 2 × 2 ×
2 × 2 × 2 × 2 = 128 nudos. En otras palabras, la vida humana es demasiado breve
como para completar la clasificación de nudos con decenas de cruces de esta
forma intuitiva. Sin embargo, alguien supo apreciar el trabajo de Tait. El gran
James Clerk Maxwell, que formuló la teoría clásica de la electricidad y el
magnetismo, trató con respeto la teoría atómica de Thomson, sobre la que
expresó: «Satisface un número mayor de condiciones que cualquier teoría atómica
considerada hasta ahora». Consciente de la contribución de Tait, Maxwell
compuso el siguiente poema:
Clear your coil of kinkings
Into perfect plaiting,
Locking loops and lmkings
Interpenetrating[236]*
(* «Tu bobina sin
enredos, / una trenza perfecta / todos los bucles y enlaces /
interpenetrándose.»)
En 1877, Tait ya había
clasificado nudos alternos de hasta siete cruces. Los nudos alternos son
aquellos en los que los cruces se alternan por encima y por debajo, como la
trama de una alfombra. Tait hizo también algunos descubrimientos más prácticos,
principios básicos que luego se bautizaron como «conjeturas de Tait». Estas
conjeturas resultaron ser tan enjundiosas que resistieron todo intento de
demostración rigurosa hasta finales de la década de 1980. En 1885, Tait publicó
tablas de nudos de hasta diez cruces y decidió dejarlo en ese punto. De forma
independiente, el profesor de la Universidad de Nebraska Charles Newton Little
(1858-1923) publicó también en 1899 tablas de nudos no alternos con diez cruces
o menos.[237] Lord Kelvin siempre tuvo aprecio por Tait. En una
ceremonia celebrada en el Peterhouse College en Cambridge en la que se
presentaba un retrato de Tait, lord Kelvin señaló: «Recuerdo haber oído decir a
Tait en cierta ocasión que la ciencia es lo único por lo que vale la pena
vivir. Aunque lo dijo con sinceridad, el propio Tait demostró que no era así.
Tait era un gran lector. Podía recitar de corrido a Shakespeare, Dickens y
Thackeray. Su memoria era prodigiosa. Le bastaba con leer algo con comprensión
para recordarlo siempre».
Por desgracia, cuando
Tait y Litde completaron su heroica tarea de tabulación de nudos, la teoría de
Kelvin había quedado totalmente descartada como posible teoría atómica. De
todos modos, el interés por los nudos siguió vivo, aunque con una diferencia,
que el matemático Michael Atiyah ha expresado de este modo: «El estudio de los
nudos se convirtió en una rama esotérica de la matemática pura».
El área general de la
matemática en la que no se tienen en cuenta propiedades como el tamaño, la
homogeneidad y, en cierto sentido, ni siquiera la forma, se denomina topología. La topología (la geometría de
la lámina de goma) examina las propiedades que no varían cuando el espacio se
estira o se deforma (sin romperlo ni agujerearlo).[238] Por su
naturaleza, los nudos forman parte de la topología. Por cierto, los matemáticos
distinguen entre nudos, que son
bucles anudados individuales; enlaces,
que son conjuntos de bucles anudados individuales enredados entre sí; y trenzas, que son conjuntos de cuerdas
verticales unidas a barras horizontales en los extremos superior e inferior.
Si la dificultad de
clasificar nudos no le ha impresionado, piense en el siguiente dato revelador.
La tabla de Charles Little, publicada en 1899 tras un trabajo de seis años,
contenía 43 nudos no alternos de diez cruces. Esta tabla fue examinada por
muchos matemáticos y tenida por correcta durante setenta y cinco años. En 1974,
el abogado y matemático neoyorquino Kenneth Perko estaba experimentando con
cuerdas en el suelo de su salón.[239] Para su sorpresa, Perko
descubrió que dos de los nudos de la tabla de Little eran, en realidad, el
mismo nudo. Ahora sabemos que sólo hay 42 nudos no alternos distintos de diez
cruces.
Aunque el siglo XX fue
testigo de grandes avances en topología, los progresos en teoría de nudos eran
relativamente lentos. Entre los principales objetivos del estudio de los nudos
en matemáticas se encuentra la identificación de las propiedades que distinguen
unos nudos de otros. Estas propiedades se denominan invariantes de nudos, ya que representan cantidades que resultan en
el mismo valor para dos proyecciones distintas cualesquiera del mismo nudo. En
otras palabras, un invariante ideal es, literalmente, una «huella dactilar» del
nudo, es decir, una propiedad característica de éste que no cambia al
deformarlo. Quizá el invariante más simple que se puede concebir es el número mínimo
de cruces en un esquema del nudo. Por ejemplo, por mucho que se intente
desenredar el nudo de trébol (figura 54b), nunca se podrá reducir el número de
cruces por debajo de tres. Por desgracia, existen diversas razones que explican
por qué el número mínimo de cruces no es el invariante más útil.
En primer lugar, como
se muestra en la figura 55, no siempre es fácil determinar si un nudo se ha
dibujado con el número mínimo de cruces. En segundo lugar y aún más importante,
muchos nudos distintos tienen el mismo número de cruces. Por ejemplo, en la
figura 54 hay tres nudos distintos con seis cruces y al menos siete con siete
cruces. Así, el número mínimo de cruces no distingue la mayoría de los nudos
entre sí. Por último, el número mínimo de cruces, al ser un parámetro tan
simple, no ofrece demasiada información sobre las propiedades de los nudos en
general.
En 1926 tuvo lugar un
avance decisivo en la teoría de nudos.[240] En ese año, el
matemático norteamericano James Waddell Alexander (1888-1971) descubrió un
importante invariante al que se bautizó como polinomio de Alexander. Básicamente, el polinomio de Alexander es
una expresión algebraica que utiliza la disposición de cruces para etiquetar el
nudo. La novedad positiva era que, si dos nudos tenían distintos polinomios de
Alexander, los nudos eran definitivamente distintos. El punto negativo, en
cambio, era que dos que tuviesen el mismo polinomio podían ser nudos distintos.
Por consiguiente, aunque el polinomio de Alexander resultó ser muy útil, aún no
era la herramienta perfecta para distinguir nudos.
Los matemáticos
estuvieron cuatro décadas explorando la base conceptual del polinomio de
Alexander y profundizando en las propiedades de los nudos. Pero ¿por qué
dedicaron tanto empeño? Desde luego, no era por razones prácticas. El modelo
atómico de Thomson había caído en el olvido tiempo atrás, y ningún otro
problema de ciencias, economía, arquitectura u otra disciplina parecía tener necesidad
alguna de la teoría de nudos. Entonces, ¿por qué tantos matemáticos dedicaron
interminables horas a los nudos? ¡Por simple curiosidad! Para estas personas,
la idea de comprender los nudos y los principios subyacentes era, simplemente,
bella. El destello de comprensión que representó el polinomio de Alexander era
para los matemáticos tan irresistible como el desafío del Everest para George
Mallory, que, a la pregunta de por qué quería escalarlo, respondió con la
célebre frase «porque está ahí».
A finales de la década
de 1960, el prolífico matemático anglonorteamericano John Horton Conway[241]
descubrió un procedimiento para «desanudar» nudos de forma gradual, revelando
así la relación entre los nudos y sus polinomios de Alexander. En concreto,
Conway introdujo dos operaciones «quirúrgicas» que podían servir como base para
la definición de un invariante de nudo. Las operaciones de Conway, denominadas
«volteo» (flipping) y «suavizado» (smoothing) se describen esquemáticamente
en la figura 56.
En el volteo (figura
56a), el cruce se transforma pasando el ramal superior por debajo del inferior
(en la figura se indica también cómo se puede llevar a cabo esta transformación
con un nudo real en una cuerda). Observe que, por supuesto, el volteo cambia la
naturaleza del nudo. Por ejemplo, no es difícil asumir que el nudo de trébol de
la figura 54b se convierte en el nudo simple (figura 54a) tras un volteo. La
operación de suavizado de Conway elimina por completo el cruce (figura 56b)
volviendo a unir los ramales de la forma «incorrecta». A pesar de la obra de
Conway y de la nueva información que proporcionó, los matemáticos siguieron
convencidos durante casi dos décadas más de la imposibilidad de hallar otras
invariantes de nudo (del tipo del polinomio de Alexander). Pero en 1984 la
situación cambió de forma espectacular.
El matemático
neozelandés-americano Vaughan Jones no estaba estudiando nudos en absoluto,
sino que se hallaba explorando un mundo aún más abstracto, el de las entidades
matemáticas denominadas álgebras de Von
Neumann. De forma inesperada, Jones observó que una relación que aparecía
en las álgebras de Von Neumann se parecía sospechosamente a una relación de
teoría de nudos, y se puso en contacto con Joan Bennan, que trabajaba en teoría
de nudos en la Universidad de Columbia, para comentar sus posibles
aplicaciones. Un examen detenido de la relación reveló un nuevo invariante para
nudos, al que se denominó polinomio de
Jones.[242] Enseguida se reconoció que el polinomio de Jones era
un invariante más sensible que el polinomio de Alexander. Por ejemplo,
distingue entre un nudo y su imagen especular (por ejemplo, los nudos de trébol
a derechas y a izquierda de la figura 57), cuyos polinomios de Alexander son
idénticos.
Pero lo fundamental es
que el descubrimiento de Jones generó un entusiasmo sin precedentes entre las
personas que trabajaban en teoría de nudos. El anuncio de un nuevo invariante
generó tal oleada de actividad que, de pronto, el mundo de los nudos parecía el
parqué de la bolsa en un día en que la Reserva Federal baja inesperadamente los
tipos de interés.
El descubrimiento de
Jones fue mucho más allá del simple avance en la teoría de nudos. El polinomio
de Jones conectó de repente una apabullante variedad de áreas de la matemática
y la física, desde la mecánica estadística (que se utiliza, por ejemplo, para
estudiar el comportamiento de grandes cantidades de átomos o moléculas) a los
grupos cuánticos (una rama de la matemática que tiene que ver con la física del
mundo subatómico). Matemáticos de todo el mundo se pusieron febrilmente a la
búsqueda de invariantes aún más generales que abarcasen tanto el polinomio de
Alexander como el de Jones. Esta carrera tuvo como consecuencia el que quizá
sea el resultado más asombroso en la historia de la competencia científica.
Pocos meses después de que Jones diese a conocer su nuevo polinomio, cuatro
grupos, trabajando de forma independiente y a partir de tres estrategias
matemáticas distintas, anunciaron simultáneamente el descubrimiento de un
invariante aún más sensible. El nuevo polinomio recibió el nombre de polinomio
HOMFLY (o HOMFLYPT), por las iniciales de sus descubridores: Hoste, Ocneanu,
Millett, Freyd, Lickorish y Yetter. Por si fuera poco, aparte de estos cuatro
grupos cruzando la línea de meta, dos matemáticos polacos (Przytycki y Traczyk)
descubrieron de forma independiente exactamente el mismo polinomio, pero un
capricho de correos les impidió publicarlo a tiempo. En consecuencia, el
polinomio se denomina también HOMFLYPT, tras agregar las iniciales de los
descubridores polacos.
Desde entonces, aunque
se han descubierto otros invariantes, la clasificación completa de los nudos se
sigue resistiendo. La pregunta de qué nudo se tiene que girar y torcer para
producir otro nudo aún no tiene respuesta. El invariante más avanzado
descubierto hasta ahora se debe al matemático franco-ruso Maxim Kontsevich, que
recibió la prestigiosa medalla Fields en 1998 y el premio Crafoord en 2008 por
su obra. Casualmente, en 1998, Jim Hoste del Pitzer College de Claremont,
California, y Jeffrey Weeks de Canton, Nueva York, tabularon todos los bucles
anudados con 16 o menos cruces. De forma independiente, Morwen Thistlethwaite
de la Universidad de Tennessee en Knoxville produjo una tabulación idéntica.
Cada lista contiene exactamente ¡1.701.936 nudos distintos!
Sin embargo, la
verdadera sorpresa no fue tanto el avance en la teoría de nudos en sí, sino en
la reaparición espectacular e inesperada de la teoría en una amplia variedad de
ciencias.[243]
Los nudos de la vida
Como expliqué, la
teoría de nudos surgió de un modelo erróneo del átomo. Sin embargo, una vez
abandonado ese modelo, los matemáticos no se desanimaron. Por el contrario, se
embarcaron con entusiasmo en un camino largo y difícil con el objetivo de
comprender los nudos por sí mismos. Puede imaginar su satisfacción cuando la
teoría de nudos resultó ser clave para la comprensión de procesos fundamentales
en los que participaban las moléculas de la vida. ¿Hay acaso un ejemplo mejor
del rol «pasivo» de la matemática en la explicación de la naturaleza?
El ácido
desoxirribonucleico o ADN es el material genético de las células. El ADN consta
de dos larguísimas hebras entrelazadas y enredadas una sobre la otra millones
de veces para formar una doble hélice. A lo largo de estas espinas dorsales,
que se pueden imaginar como los listones laterales de una escalera, se alternan
los azúcares y los fósforos. Los «peldaños» de la escalera consisten en parejas
de bases conectadas por enlaces de hidrógeno de una forma determinada (la
adenina sólo enlaza con la timina y la citosina con la guanina, como se muestra
en la figura 58).
Cuando una celda se
divide, la primera fase es la replicación del ADN, de modo que cada celda hija
se quede con una copia. De forma similar, en el proceso de transcripción (en el
que la información genética del ADN se copia en el ARN), una sección de la
doble hélice del ADN se desenrosca y sólo una de las hebras del ADN actúa como
plantilla. Una vez finalizada la síntesis del ARN, el ADN vuelve a enroscarse
en la hélice. Ni el proceso de replicación ni el de transcripción son
sencillos; sin embargo, el ADN está enroscado de una forma tan compacta (para
reducir el espacio de almacenamiento de información) que, si no se desenredase,
los procesos de la vida no podrían tener lugar con fluidez. Además, para poder
efectuar el proceso de replicación, las moléculas de ADN hijas deben
desenredarse y el ADN padre debe en algún momento regresar a su configuración
inicial. Los agentes que se encargan de las tareas de desanudar y desenredar son
enzimas.[244] Las enzimas pueden pasar una hebra de ADN a través de
otra rompiéndolas temporalmente y conectando los extremos de forma distinta.
¿Le suena de algo el proceso? Se trata precisamente de las operaciones
«quirúrgicas» (representadas en la figura 56) que introdujo Conway para
desenmarañar los nudos matemáticos. En otras palabras, desde un punto de vista
topológico, el ADN es un nudo complejo que las enzimas deben desanudar para que
pueden tener lugar los procesos de replicación y transcripción. Utilizando la
teoría de nudos para calcular la dificultad de desanudar el ADN, los
investigadores pueden estudiar las propiedades de las enzimas que ejecutan ese
trabajo. Y lo que es mejor, mediante técnicas de visualización experimentales
como microscopía electrónica y electroforesis en gel, los científicos pueden
observar y cuantificar realmente los cambios en el anudado y enlazado del ADN
que las enzimas provocan (en la figura 59 se muestra una micrografía
electrónica de un nudo de ADN).
El desafío de los
matemáticos es deducir los mecanismos de funcionamiento de las enzimas a partir
de los cambios observados en la topología del ADN. Adicionalmente, los cambios
en el número de cruces del nudo de ADN ofrecen a los biólogos una medida de la velocidad de reacción de las enzimas, es
decir, el número de cruces por minuto sobre los que puede actuar una enzima en
una determinada concentración.
Pero la biología
molecular no es el único terreno en el que la teoría de nudos ha hallado
inesperadas aplicaciones. La teoría de cuerdas (el intento actual de formular
una teoría unificada que explique todas las fuerzas de la naturaleza) también
tiene que ver con los nudos.
¿El universo en una cuerda?
La gravedad es la
fuerza que opera a mayor escala. Mantiene unidas las estrellas de las galaxias
e influye en la expansión del universo. La relatividad general de Einstein es
una notable teoría sobre la gravedad. Pero, en lo más profundo del núcleo
atómico, otras fuerzas y una teoría distinta son las que gobiernan. La
interacción nuclear fuerte mantiene unidas unas partículas llamadas quarks para
formar los conocidos protones y neutrones, constituyentes básicos de la
materia. El comportamiento de las partículas y de las fuerzas en el mundo
subatómico viene dictado por las leyes de la mecánica cuántica. ¿Actúan según
las mismas reglas los quarks y las galaxias? Los físicos creen que debería ser
así, aunque aún no saben por qué.
Durante décadas, los
físicos han estado buscando una «teoría de todo», una descripción exhaustiva de
las leyes de la naturaleza. En particular, su meta es llenar el vacío entre lo
más grande y lo más pequeño con una teoría cuántica de la gravedad, una
reconciliación de la relatividad general con la mecánica cuántica. La teoría de
cuerdas parece ser actualmente la posibilidad mejor situada para una «Teoría de
todo».[245] Desarrollada en su origen como teoría para la fuerza
nuclear fuerte y posteriormente desechada, la teoría de cuerdas resucitó de la
oscuridad en 1974 de la mano de los físicos John Schwarz y Joel Scherk. La idea
básica de la teoría de cuerdas es bastante simple. La teoría propone que las
partículas subatómicas elementales, como los electrones y los quarks, no son
entidades puntuales sin estructura, sino que representan distintos modos de
vibración de una misma cuerda básica. Según esta idea, el cosmos está lleno de
minúsculos aros flexibles, similares a gomas elásticas. De igual modo que se
puede pulsar una cuerda de violín para producir distintas armonías, las
distintas vibraciones de estas cuerdas cerradas corresponden a distintas
partículas de materia. En otras palabras, el mundo es algo así como una
sinfonía.
Como las cuerdas son
bucles en forma de «o» que se mueven por el espacio, con el paso del tiempo
barren áreas en forma de cilindro (véase figura 60) denominadas worldsheets.
Si una cuerda emite
otras cuerdas, el cilindro se bifurca creando estructuras en forma de
tirachinas. Cuando muchas cuerdas interaccionan, forman una intrincada maraña
de cáscaras combinadas con aspecto de donut. Al estudiar este tipo de
estructuras topológicas complejas, Hiroshi Ooguri y Cumrun Vafa, que trabajaban
en teoría de cuerdas, descubrieron una sorprendente conexión entre el número de
«cáscaras donut», las propiedades geométricas intrínsecas de los nudos y el
polinomio de Jones.[246] Con anterioridad, Ed Witten (uno de los
nombres fundamentales en teoría de cuerdas) había creado una inesperada
relación entre el polinomio de Jones y la misma base de la teoría de cuerdas
(denominada teoría cuántica de campos).[247]
El modelo de Witten fue rediseñado más adelante desde una perspectiva puramente
matemática por el matemático Michael Atiyah.[248] De modo que la
teoría de cuerdas y la teoría de nudos viven en simbiosis perfecta. Por una
parte, la teoría de cuerdas ha sacado provecho de los resultados de la teoría
de nudos y, por otra, la teoría de cuerdas ha impulsado nuevos avances en
teoría de nudos.
Con un ámbito mucho más
amplio, la teoría de cuerdas busca explicaciones para los constituyentes más
básicos de la materia, de forma similar a lo que Thomson pretendía
originalmente con una teoría de los átomos. Thomson pensaba (erróneamente) que
los nudos le proporcionarían la respuesta. Por un giro inesperado, los expertos
en teoría de cuerdas han hallado que los nudos pueden realmente ofrecerles
algunas respuestas.
Como ya he mencionado,
incluso el aspecto «activo» de la eficacia de la matemática (cuando los
científicos generan la matemática que necesitan para describir los hechos
observables) presenta algunas desconcertantes sorpresas en lo que se refiere a
la precisión. Voy a describir brevemente un aspecto de la física en el que
tanto la parte activa como la pasiva han desempeñado su papel, pero que es
especialmente notable por la exactitud obtenida.
Una precisión de peso
Newton tomó las leyes
de la caída de cuerpos descubiertas por Galileo y otros experimentalistas
italianos, las combinó con las leyes del movimiento planetario que había
determinado Kepler y utilizó este esquema unificado para formular una ley
matemática universal de la gravitación. Durante el proceso, Newton tuvo que
formular una rama completamente nueva de la matemática (el cálculo) que le
permitiese captar de forma concisa y coherente todas las propiedades de sus
leyes de movimiento y de gravitación. La precisión con la que el propio Newton
pudo comprobar su ley de la gravedad, teniendo en cuenta los resultados
experimentales y las observaciones de su época, no era superior al 4 por 100.
Sin embargo, la ley demostró su exactitud más allá de cualquier expectativa
razonable.
En la década de 1950,
la precisión experimental era superior a una diezmilésima de un 1 por 100. Pero
eso no es todo. Algunas teorías especulativas recientes, cuya finalidad es
explicar la aparente aceleración de la expansión de nuestro universo, han
sugerido que la gravedad podría cambiar su comportamiento a escalas muy pequeñas.
Recuerde que la ley de Newton afirma que la atracción gravitatoria decrece como
el inverso del cuadrado de la distancia. Es decir, si se duplica la distancia
entre dos masas, la fuerza gravitatoria que cada masa percibe se hace cuatro
veces más débil. Los nuevos escenarios predecían desviaciones de este
comportamiento a distancias de menos de un milímetro. Eric Adelberger, Daniel
Kapner y su equipo de la Universidad de Washington en Seattle[249]
realizaron una serie de ingeniosos experimentos para comprobar esta predicción
de cambio en la dependencia de la separación. Sus resultados más recientes,
publicados en enero de 2007, muestran que la ley del cuadrado inverso ¡sigue
siendo válida a una distancia de 56 milésimas de milímetro! Así, una ley matemática
propuesta hace más de trescientos años basándose en observaciones insuficientes
no sólo ha resultado ser espectacularmente precisa, sino que ha demostrado su
validez en situaciones en las que ésta no se ha podido demostrar hasta época
muy reciente.
Pero Newton dejó sin
respuesta una pregunta fundamental: ¿cómo funciona realmente la gravedad? ¿Cómo
afecta la Tierra al movimiento de la Luna, situada a una distancia de casi
400.000 kilómetros? Newton era consciente de este defecto de su teoría, y lo
admitió abiertamente en los Principia:
Hasta aquí he expuesto
los fenómenos de los cielos y de nuestro mar por la fuerza de la gravedad, pero
todavía no he asignado causa a la gravedad. Efectivamente esta fuerza surge de
alguna causa que penetra hasta los centros del Sol y los planetas … y cuya
acción se extiende por todas partes hasta distancias inmensas, decreciendo
siempre como el cuadrado de las distancias … Pero no he podido todavía deducir
a partir de los fenómenos la razón de estas propiedades de la gravedad y yo no
imagino hipótesis.
La persona que decidió
aceptar el desafío planteado por la omisión de Newton fue Albert Einstein
(1879-1955). Concretamente en 1907, Einstein tenía buenas razones para
interesarse por la gravedad:[250] ¡su nueva teoría de la relatividad
especial parecía entrar en conflicto directo con la ley de gravitación de
Newton!
Newton creía que la
acción de la gravedad era instantánea. Suponía que la fuerza gravitatoria del
Sol sobre los planetas o la atracción de la Tierra sobre la manzana no tardaban
tiempo alguno. Por otra parte, la columna vertebral de la relatividad especial
de Einstein era la tesis de que ningún objeto, energía ni información podía
viajar a mayor velocidad que la luz. Entonces, ¿cómo podía hacerlo la gravedad?
Como indica el siguiente ejemplo, las consecuencias de esta contradicción
podrían ser fatídicas para conceptos tan fundamentales como nuestra percepción
de causa y efecto.
Imaginemos que, de algún
modo, el Sol desapareciese de repente. Libre de la fuerza que la mantiene en su
órbita, la Tierra (según Newton) empezaría a moverse inmediatamente en línea
recta (salvo pequeñas desviaciones provocadas por la gravedad de los otros
planetas). Sin embargo, el Sol tardaría ocho minutos en desaparecer de la vista
de los habitantes de la Tierra, el tiempo que tarda la luz en recorrer la
distancia que separa el Sol de la Tierra. En otras palabras, el cambio en el
movimiento de la Tierra precedería a la desaparición del Sol.
Para evitar este
conflicto y, al mismo tiempo, tratar de resolver la pregunta sin respuesta de
Newton, Einstein emprendió una búsqueda cuasiobsesiva de una nueva teoría de la
gravedad. Se trataba de una empresa formidable. Cualquier nueva teoría, no sólo
debía tener en cuenta y conservar los notables éxitos logrados por la teoría de
Newton, sino también explicar el funcionamiento de la gravedad de forma
compatible con la relatividad especial. Tras unas cuantas salidas en falso y
divagaciones sin rumbo, Einstein logró su objetivo en 1915. Su relatividad general sigue considerándose
una de las teorías más bellas de la historia.
La idea que constituye
el fundamento de la pionera estructura de Einstein es que la gravedad no es más
que deformaciones en el tejido del espacio y el tiempo. Según Einstein, de
igual modo que las pelotas de golf siguen las curvas y relieves del green, los planetas siguen trayectorias
curvadas en el espacio deformado que representa la gravedad del Sol. En otras
palabras, en ausencia de materia u otras formas de energía, el espacio-tiempo
(la estructura que unifica las tres dimensiones del espacio y la del tiempo)
sería plano. La materia y la energía deforman el espacio-tiempo del mismo modo
que una bola de bowling haría
combarse una cama elástica. Los planetas se limitan a seguir los caminos
directos en esta geometría curvada, que es una manifestación de la gravedad. Al
solucionar el problema del funcionamiento de la gravedad, Einstein proporcionó
también la estructura para responder a la pregunta de «con qué velocidad se
propaga», que se reducía a determinar la velocidad con que las deformaciones
del espacio-tiempo son capaces de viajar. Se trataba de algo similar a calcular
la velocidad de las ondas en un estanque. Einstein fue capaz de probar que, en
la relatividad general, la velocidad de la gravedad era precisamente la
velocidad de la luz, eliminando así la discrepancia entre la teoría de Newton y
la relatividad especial. Si el Sol desapareciese, el cambio en la órbita de la
Tierra tendría lugar ocho minutos más tarde, y coincidiría con la observación
de la desaparición.
El hecho de que
Einstein convirtiese el espacio-tiempo deformado de cuatro dimensiones en la
piedra angular de su nueva teoría del cosmos se tradujo en la imperiosa
necesidad de crear una teoría matemática para esas entidades geométricas.
Desesperado, recurrió a un antiguo compañero de clase, el matemático Marcel Grossmann
(1878-1936): «He adquirido un inmenso respeto por la matemática, cuyas partes
más sutiles consideraba antes nada más que productos suntuarios». Grossmann
señaló que la geometría no euclidiana de Riemann (descrita en el capítulo 6)
era precisamente la herramienta que Einstein estaba buscando: una geometría de
espacios curvados de cualquier número de dimensiones. Se trataba de una
demostración palpable de lo que he venido llamando la eficacia «pasiva» de la
matemática, y Einstein lo reconoció de inmediato: «Podemos de hecho
considerarla [la geometría] como la rama más antigua de la física», declaró, «y
sin ella me hubiese sido imposible formular la teoría de la relatividad».
La relatividad general
ha sido también comprobada hasta un extraordinario grado de precisión. Obtener
estas pruebas no es tarea fácil, ya que la curvatura del espacio-tiempo que
introducen objetos como el Sol se mide en partes por millón. Las primeras
pruebas estaban asociadas a observaciones dentro del propio sistema solar (como
minúsculos cambios en la órbita del planeta Mercurio en comparación con las
predicciones de la gravedad de Newton), pero en tiempos más recientes ha sido
posible acceder a procedimientos más exóticos. Una de las primeras
comprobaciones utiliza un objeto astronómico denominado pulsar doble.
Un pulsar es una
estrella extraordinariamente compacta, fuente de emisión de ondas de radio,
cuya masa es algo superior a la del Sol, pero cuyo radio es sólo de unos diez
kilómetros. La densidad de este tipo de estrellas (denominadas estrellas de neutrones) es tan alta que
un centímetro cúbico de su materia tiene una masa de ¡más de 60 millones de
toneladas! Muchas de estas estrellas de neutrones giran a gran velocidad al
tiempo que emiten ondas de radio desde sus polos magnéticos. Cuando el eje
magnético se halla a un cierto ángulo respecto del eje de rotación (como se
muestra en la figura 61), el haz de radio de uno de los polos puede cruzar
nuestra línea de visión una vez con cada rotación, como el destello de luz de
un faro.
En tales casos,
parecerá que la emisión de radio se emite en pulsos (de ahí el nombre
«pulsar»). A veces, dos pulsares giran alrededor de su centro de gravedad común
en una órbita reducida, creando así un sistema de pulsar doble. Estos pulsares
dobles constituyen excelentes laboratorios para la verificación de la
relatividad general debido a dos de sus propiedades:
Los radiopulsares son
espléndidos relojes; su ritmo de rotación es tan estable que, de hecho, superan
en precisión a los relojes atómicos.
Los pulsares son tan
compactos que sus campos gravitatorios son muy intensos y producen efectos
relativistas significativos. Debido a estas dos características, los astrónomos
pueden medir con gran precisión los cambios en el tiempo que la luz tarda en
recorrer la distancia entre los pulsares y la Tierra debido al movimiento
orbital de dos pulsares en su campo gravitatorio mutuo.
La comprobación más
reciente ha sido el resultado de mediciones temporales de gran precisión a lo
largo de un período de dos años y medio en el sistema de pulsar doble
denominado PSR J0737-3039A/B (esta denominación con aspecto de número
telefónico refleja las coordenadas celestes del sistema).[251] Los
dos pulsares de este sistema completan una revolución en sólo dos horas y
veintisiete minutos, y el sistema se halla a unos dos mil años luz de distancia
de la Tierra (un año luz es la distancia que la luz recorre en un año,
alrededor de nueve billones de kilómetros). Un equipo de astrónomos dirigido
por Michael Kramer, de la Universidad de Manchester, midió las correcciones
relativistas al movimiento newtoniano. Los resultados, publicados en octubre de
2006, se ceñían a los valores predichos por la relatividad general con un grado
de incertidumbre ¡del 0,05 por 100!
Vale la pena señalar
que tanto la relatividad especial como la general desempeñan un papel
importante en los Sistemas de Posicionamiento Global (GPS) que nos permiten
localizar nuestra posición en la superficie de la Tierra y nos indican el mejor
trayecto, ya sea en coche, en avión o a pie. El GPS determina la posición
actual del receptor mediante la medida del tiempo que tarda en llegar a él la
señal de diversos satélites y efectuando una triangulación a partir de las
posiciones conocidas de cada satélite. La relatividad especial predice que los
relojes atómicos que se encuentran en los satélites marchan algo más lentos
(unas millonésimas de segundo al día) que los que están en el suelo, debido a
su movimiento relativo. Al mismo tiempo, la relatividad general predice que los
relojes de los satélites marchan más rápido (unas decenas de millonésimas de
segundo al día) que los del suelo porque, a gran altura sobre la superficie de
la Tierra, la curvatura del espacio-tiempo debida a la masa de la Tierra es
menor. Si no se efectuasen las correcciones pertinentes de ambos efectos, los
errores de posicionamiento global podrían acumularse a un ritmo de más de ocho
kilómetros al día.
La teoría de la
gravedad no es más que uno de los numerosos ejemplos que ilustran la
«milagrosa» idoneidad y fantástica precisión de la formulación matemática de
las leyes de la naturaleza. En este caso, como en muchos otros, lo que las
ecuaciones nos proporcionan va mucho más allá de lo que era la intención
original. La exactitud de las teorías de Newton y Einstein ha demostrado
superar en gran medida la precisión de las observaciones a las que las teorías
intentaban originalmente dar explicación.
Quizá el mejor ejemplo
de la increíble precisión que es capaz de alcanzar una teoría matemática sea el
que proporciona la electrodinámica cuántica (QED, Quantum Electrodynamics), que es la teoría que describe los
fenómenos relacionados con las partículas con carga eléctrica y la luz. En
2006, un grupo de físicos de la Universidad de Harvard determinaron el momento
magnético del electrón (que mide la intensidad con la que el electrón
interacciona con un campo magnético) con una precisión de ocho partes por
billón.[252] Por sí mismo, este resultado es una asombrosa proeza
experimental. Pero si además se le suma el hecho de que los cálculos teóricos
más recientes basados en la QED alcanzan una precisión similar y que los dos
resultados coinciden, la exactitud ya es casi increíble. Esta es la reacción de
uno de los fundadores de la QED, Freeman Dyson, ante los repetidos éxitos de su
teoría: «Me fascina la precisión con la que la Naturaleza baila al son de la
melodía que garabateamos de forma tan despreocupada hace cincuenta y siete
años, y la forma en la que los experimentadores y los teóricos pueden medir y
calcular el ritmo de su danza hasta una parte por billón».
Pero las teorías
matemáticas no destacan sólo por su exactitud; otro de sus puntos fuertes es su
poder de predicción. Voy a mencionar un par de ejemplos simples para ilustrar
este poder, uno del siglo XIX y otro del siglo XX. El primero predijo un nuevo
fenómeno; el segundo, la existencia de nuevas partículas elementales.
James Clerk Maxwell,
que formuló la teoría clásica del electromagnetismo, probó en 1864 que su
teoría predecía que los campos
eléctricos o magnéticos variables debían generar ondas de propagación. Estas
ondas (las conocidas ondas electromagnéticas, como las ondas de radio) fueron
detectadas por primera vez por el físico alemán Heinrich Herz (1857-1894), en
una serie de experimentos llevados a cabo en los últimos años de la década de
1880.
A finales de la década
de 1960, los físicos Steven Weinberg, Sheldon Glashow y Abdus Salam
desarrollaron una teoría que trata de forma unificada la fuerza
electromagnética y la fuerza nuclear débil.[253] Esta teoría,
denominada actualmente teoría electrodébil,
predecía la existencia de tres partículas (denominadas bosones W+, W−
y Z) que nunca habían sido observadas. Las partículas se detectaron de forma
inequívoca en 1983, durante experimentos en acelerador (en los que se hacen
chocar partículas subatómicas entre sí a muy altas energías) dirigidos por los
físicos Cario Rubbia y Simón van der Meer.
El físico Eugene
Wigner, responsable de la frase «la eficacia inexplicable de la matemática»,
propuso llamar a estos logros inesperados de las teorías matemáticas «la ley
empírica de la epistemología» (la epistemología es la disciplina que investiga
el origen y los límites del conocimiento). Su razonamiento consistía en que, si
esta «ley» no fuese correcta, a los científicos les habría faltado el aliento y
la determinación tan necesarios para una exploración profunda de las leyes de
la naturaleza. Sin embargo, Wigner no ofrecía explicación alguna para esta «ley
empírica de la epistemología», sino que más bien la veía como un «regalo
extraordinario» por el que debemos estar agradecidos, aunque no comprendamos su
origen. Según Wigner, este «regalo» contiene la esencia de la cuestión sobre la
eficacia inexplicable de la matemática.
Creo que, a estas
alturas, ya hemos reunido suficientes pistas para intentar responder a nuestras
preguntas iniciales: ¿Por qué la matemática es tan eficaz y productiva para
explicar el mundo que nos rodea, e incluso es capaz de generar nuevos
conocimientos? En última instancia, la matemática ¿es descubierta o inventada?
Continua en
Continua en
¿Es Dios un Matemático? Mario Livio 2009 Capitulo IX: Acerca de la matemática, la mente humana y el universo.
[232] Un interesante libro
sobre la elaboración de nudos es Ashley 1944. <<
[233] Vandermonde 1771.
Véase Przytycki 1991 para un excelente repaso de la historia de la teoría de
nudos. Adams 1994 es una amena introducción a la teoría en sí. Una versión
divulgativa de la misma se puede hallar en Neuwirth 1979, en Peterson 1988 y en
Menasco y Rudolph 1995. <<
[234] Sossinsky 2002 y
Atiyah 1990 presentan excelentes descripciones. <<
[235] Tait 1898; Sossinsky
2002. O'Connor y Robertson 2003 incluye una breve y magnífica biografía de
Tait. <<
[236] Knott l911. <<
[237] Little 1899. <<
[238] Véase Messer y
Straffin 2006 para acceder a una introducción elemental, aunque algo técnica, a
la topología. <<
[239] Perko 1974. <<
[240] Alexander 1928.
<<
[241] Conway 1970. <<
[242] Jones 1985. <<
[243] Por ejemplo, el
matemático Louis Kauffman ha demostrado la relación entre el polinomio de Jones
y la física estadística. Un texto excelente, pero técnico, sobre las
aplicaciones en física es Kauffman 2001. <<
[244] Véase Summers 1995
para una excelente descripción sobre teoría de nudos y la acción de las
enzimas. Véase también Wasserman y Cozzarelli 1986. <<
[245] En Greene 1999,
Randall 2005, Krauss 2005 y Smolin 2006 se pueden hallar magníficas
explicaciones divulgativas sobre la teoría de cuerdas, sus éxitos y sus
problemas. Para un texto técnico de introducción, véase Zweibach 2004. <<
[246] Ooguri y Vafa 2000.
<<
[247] Witten 1989. <<
[248] Atiyah 1989; véase
Atiyah 1990 para una perspectiva más amplia. <<
[249] Kapner et al. 2007.
<<
[250] Hay muchas y buenas
explicaciones de las ideas de la relatividad especial y general. Mencionaré
algunas que me han gustado especialmente: Davies 2001, Deutsch 1997, Ferris
1997, Gott 2001, Greene 2004, Hawking y Penrose 1996, Kaku 2004, Penrose 2004,
Rees 1997 y Smolin 2001. Una reciente y soberbia descripción acerca de la
personalidad y las ideas de Einstein es Isaacson 2007. Otras magníficas
descripciones anteriores de Einstein y su mundo son Bodanis 2000, Lightman
1993, Overbye 2000 y Pais 1982. Hawking 2007 incluye una bonita colección de
documentos originales. <<
[251] Kramer et al 2006. <<
[252] Odom et al 2006. <<
[253] Weinberg 1993 contiene
una excelente descripción. <<
No hay comentarios:
Publicar un comentario