viernes, 3 de enero de 2014

¿Es Dios un Matemático? Mario Livio 2009 Capitulo VIII ¿Eficacia inexplicable?

En el capítulo 1 señalé que el éxito de la matemática en las teorías físicas tiene dos aspectos: a uno lo llamé «activo» y al otro «pasivo». El aspecto «activo» refleja el hecho de que los científicos formulan las leyes de la naturaleza en términos matemáticos aplicables más allá de toda duda; es decir, utilizan entidades, relaciones y ecuaciones matemáticas que se desarrollaron pensando en su aplicación, con frecuencia para el tema en cuestión. En esos casos, los investigadores tienden a basarse en la percepción de similitud entre las propiedades de los conceptos matemáticos y los fenómenos observados o los resultados experimentales. En tales situaciones, puede que la eficacia de la matemática no sea tan sorprendente, ya que se puede sostener que las teorías se ajustaron a medida de las observaciones. Sin embargo, existe también una parte sorprendente del uso «activo», la relacionada con la precisión, que comentaré más adelante en este capítulo. La eficacia «pasiva» se refiere a los casos de desarrollo de teorías matemáticas totalmente abstractas, sin intención alguna de hallarles aplicación, que más adelante se transforman en modelos predictivos de gran potencia. La teoría de nudos representa un ejemplo espectacular de la interacción entre la eficacia pasiva y la activa.

 Nudos

Los nudos están hechos del material del que están hechas las leyendas. Quizá recuerden la leyenda griega del nudo gordiano. Un oráculo comunicó a los ciudadanos de Frigia que su próximo rey sería el primer hombre que entrase en la capital montando un carro de bueyes. Gordio, un pobre campesino incauto que entró en la ciudad conduciendo un carro de bueyes, se convirtió de este modo en rey. Abrumado por la gratitud, Gordio dedicó su carro a los dioses y lo ató con un complicado nudo que resistió todos los intentos de deshacerlo. Una posterior profecía pronosticaba que la persona que deshiciese el nudo se convertiría en rey de Asia. El destino quiso que el hombre que finalmente deshiciera el nudo (en el año 333 a.C.) fuese Alejandro Magno que, en efecto, más adelante se convertiría en soberano de Asia. No obstante, la solución de Alejandro para el nudo gordiano no fue lo que llamaríamos sutil, ni siquiera limpia; al parecer, Alejandro ¡cortó el nudo en dos con su espada!
Pero no hace falta que retrocedamos hasta la antigua Grecia para tropezamos con nudos. Un niño que se ata los zapatos, una chica haciendo trenzas en su cabello, la abuela tejiendo un jersey y un marinero amarrando un barco, todos ellos utilizan algún tipo de nudo. Hay nudos con nombres pintorescos,[232] como «gaza de pescador», «corbata inglesa», «zarpa de gato», «nudo de amor dormido», «abuelita» o «nudo del ahorcado». En concreto, los nudos marineros se han considerado lo bastante importantes desde un punto de vista histórico como para inspirar toda una colección de libros en la Inglaterra del siglo XVII. Resulta que uno de estos libros lo escribió nada menos que el aventurero inglés John Smith (1580-1631), que se hizo célebre por su relación romántica con la princesa nativa americana Pocahontas.
La teoría matemática de nudos nació en 1771, en un documento escrito por el matemático francés Alexandre-Théophile Vandermonde (1735-1796).[233] Vendermonde fue el primero en reconocer que los nudos se podían estudiar como parte de la materia denominada «geometría de posición», que trata de relaciones que dependen únicamente de la posición, y hace caso omiso de los tamaños y de los cálculos cuantitativos. En términos de su papel en el desarrollo de la teoría de nudos, el siguiente puesto le corresponde al «príncipe de las matemáticas» alemán, Carl Friedrich Gauss. Las notas de Gauss contienen bocetos y descripciones detalladas de nudos, así como exámenes analíticos de sus propiedades. Sin embargo, a pesar de la importancia de la obra de Vandermonde, Gauss y otros matemáticos del siglo XIX, el principal impulso de la moderna teoría de nudos tuvo un origen inesperado: ¡un intento de explicar la estructura de la materia! La idea se forjó en la mente del famoso físico inglés William Thomson (más conocido actualmente por lord Kelvin; 1824-1907). Los trabajos de Thomson se centraban en la formulación de una teoría de los átomos, los bloques de construcción básicos de la materia.[234] Según su original conjetura, los átomos eran en realidad tubos anudados de éter (esa misteriosa sustancia que, según se suponía, impregnaba todo el espacio). En este modelo, la variedad de elementos químicos se explicaba por la gran diversidad de nudos.
Si la especulación de Thomson nos parece actualmente casi una chifladura es porque hemos tenido un siglo de tiempo para acostumbrarnos al modelo correcto del átomo (en el que los electrones orbitan alrededor del núcleo) y comprobarlo experimentalmente. Pero estamos hablando de Inglaterra en la década de 1860, y a Thomson le había impresionado profundamente la estabilidad de los anillos de humo complejos y su capacidad de vibrar, dos propiedades que en aquella época se consideraban esenciales en cualquier modelo del átomo. Para desarrollar el equivalente de una «tabla periódica» de los elementos, Thomson debía clasificar los nudos (es decir, averiguar cuáles eran los distintos tipos de nudo posibles), y esta necesidad de tabulación de nudos suscitó un gran interés por la matemática de los nudos.



Como ya expliqué en el capítulo 1, un nudo matemático tiene un aspecto similar al de un nudo en una cuerda, pero los extremos de la cuerda están empalmados. En otras palabras, un nudo matemático se representa mediante una curva cerrada sin cabos sueltos.
En la figura 54 se pueden ver algunos ejemplos; los nudos tridimensionales se representan mediante sus proyecciones (sombras) en el plano. La posición en el espacio de dos ramales que se cruzan se indica en la figura mediante la interrupción de la línea que representa el ramal inferior. El nudo más simple (llamado precisamente nudo simple) es únicamente una curva circular cerrada (como se muestra en la figura 54a). El nudo de trébol (figura 54b) tiene tres cruces de ramales, mientras que el nudo en 8 (figura 54c) tiene cuatro cruces. En la teoría de Thomson, estos tres nudos podían, en principio, corresponder a modelos de tres átomos de complejidad creciente, como los de hidrógeno, carbono y oxígeno, respectivamente.
Pero seguía siendo necesaria una clasificación completa de nudos, y la persona que emprendió esta tarea fue un amigo de Thomson, el físico matemático escocés Peter Guthrie Tait (1831-1901). Las preguntas que los matemáticos se hacen acerca de los nudos no difieren mucho de las que uno mismo podría plantearse acerca de una cuerda anudada o un ovillo enredado. ¿Está realmente anudado? Un nudo determinado ¿es equivalente a otro? O, lo que es lo mismo: ¿se puede deformar un nudo hasta adquirir la forma de otro sin romper las hebras ni hacer pasar un ramal a través de otro como en los anillos mágicos de un ilusionista? La importancia de esta pregunta se puede ver en la figura 55, en donde se muestra que, mediante determinadas manipulaciones, es posible obtener dos representaciones muy distintas de lo que, en realidad, es el mismo nudo. En última instancia, la teoría de nudos busca una forma de demostrar que ciertos nudos (como el nudo de trébol o el del número 8, figuras 54b y 54c) son realmente distintos, ignorando las diferencias «superficiales» de otros nudos, como los de la figura 55.
Tait inició su trabajo de clasificación por el camino difícil.[235] Sin ningún principio matemático riguroso para guiarle, recopiló listas de curvas con un cruce, dos cruces, tres cruces, etc. En colaboración con el reverendo Thomas Pennington Kirkman (1806-1895), que también era aficionado a las matemáticas, empezó a pasar una criba por las curvas para eliminar duplicados de nudos equivalentes. No se trataba de una tarea trivial. Hay que tener en cuenta que en cada cruce hay dos formas de elegir qué ramal pasa por encima. Eso significa que, si una curva contiene, por ejemplo, siete cruces, se deben tener en cuenta 2 × 2 × 2 × 2 × 2 × 2 × 2 = 128 nudos. En otras palabras, la vida humana es demasiado breve como para completar la clasificación de nudos con decenas de cruces de esta forma intuitiva. Sin embargo, alguien supo apreciar el trabajo de Tait. El gran James Clerk Maxwell, que formuló la teoría clásica de la electricidad y el magnetismo, trató con respeto la teoría atómica de Thomson, sobre la que expresó: «Satisface un número mayor de condiciones que cualquier teoría atómica considerada hasta ahora». Consciente de la contribución de Tait, Maxwell compuso el siguiente poema:
Clear your coil of kinkings
Into perfect plaiting,
Locking loops and lmkings
Interpenetrating[236]*
(* «Tu bobina sin enredos, / una trenza perfecta / todos los bucles y enlaces / interpenetrándose.»)
En 1877, Tait ya había clasificado nudos alternos de hasta siete cruces. Los nudos alternos son aquellos en los que los cruces se alternan por encima y por debajo, como la trama de una alfombra. Tait hizo también algunos descubrimientos más prácticos, principios básicos que luego se bautizaron como «conjeturas de Tait». Estas conjeturas resultaron ser tan enjundiosas que resistieron todo intento de demostración rigurosa hasta finales de la década de 1980. En 1885, Tait publicó tablas de nudos de hasta diez cruces y decidió dejarlo en ese punto. De forma independiente, el profesor de la Universidad de Nebraska Charles Newton Little (1858-1923) publicó también en 1899 tablas de nudos no alternos con diez cruces o menos.[237] Lord Kelvin siempre tuvo aprecio por Tait. En una ceremonia celebrada en el Peterhouse College en Cambridge en la que se presentaba un retrato de Tait, lord Kelvin señaló: «Recuerdo haber oído decir a Tait en cierta ocasión que la ciencia es lo único por lo que vale la pena vivir. Aunque lo dijo con sinceridad, el propio Tait demostró que no era así. Tait era un gran lector. Podía recitar de corrido a Shakespeare, Dickens y Thackeray. Su memoria era prodigiosa. Le bastaba con leer algo con comprensión para recordarlo siempre».
Por desgracia, cuando Tait y Litde completaron su heroica tarea de tabulación de nudos, la teoría de Kelvin había quedado totalmente descartada como posible teoría atómica. De todos modos, el interés por los nudos siguió vivo, aunque con una diferencia, que el matemático Michael Atiyah ha expresado de este modo: «El estudio de los nudos se convirtió en una rama esotérica de la matemática pura».
El área general de la matemática en la que no se tienen en cuenta propiedades como el tamaño, la homogeneidad y, en cierto sentido, ni siquiera la forma, se denomina topología. La topología (la geometría de la lámina de goma) examina las propiedades que no varían cuando el espacio se estira o se deforma (sin romperlo ni agujerearlo).[238] Por su naturaleza, los nudos forman parte de la topología. Por cierto, los matemáticos distinguen entre nudos, que son bucles anudados individuales; enlaces, que son conjuntos de bucles anudados individuales enredados entre sí; y trenzas, que son conjuntos de cuerdas verticales unidas a barras horizontales en los extremos superior e inferior.
Si la dificultad de clasificar nudos no le ha impresionado, piense en el siguiente dato revelador. La tabla de Charles Little, publicada en 1899 tras un trabajo de seis años, contenía 43 nudos no alternos de diez cruces. Esta tabla fue examinada por muchos matemáticos y tenida por correcta durante setenta y cinco años. En 1974, el abogado y matemático neoyorquino Kenneth Perko estaba experimentando con cuerdas en el suelo de su salón.[239] Para su sorpresa, Perko descubrió que dos de los nudos de la tabla de Little eran, en realidad, el mismo nudo. Ahora sabemos que sólo hay 42 nudos no alternos distintos de diez cruces.
Aunque el siglo XX fue testigo de grandes avances en topología, los progresos en teoría de nudos eran relativamente lentos. Entre los principales objetivos del estudio de los nudos en matemáticas se encuentra la identificación de las propiedades que distinguen unos nudos de otros. Estas propiedades se denominan invariantes de nudos, ya que representan cantidades que resultan en el mismo valor para dos proyecciones distintas cualesquiera del mismo nudo. En otras palabras, un invariante ideal es, literalmente, una «huella dactilar» del nudo, es decir, una propiedad característica de éste que no cambia al deformarlo. Quizá el invariante más simple que se puede concebir es el número mínimo de cruces en un esquema del nudo. Por ejemplo, por mucho que se intente desenredar el nudo de trébol (figura 54b), nunca se podrá reducir el número de cruces por debajo de tres. Por desgracia, existen diversas razones que explican por qué el número mínimo de cruces no es el invariante más útil.

En primer lugar, como se muestra en la figura 55, no siempre es fácil determinar si un nudo se ha dibujado con el número mínimo de cruces. En segundo lugar y aún más importante, muchos nudos distintos tienen el mismo número de cruces. Por ejemplo, en la figura 54 hay tres nudos distintos con seis cruces y al menos siete con siete cruces. Así, el número mínimo de cruces no distingue la mayoría de los nudos entre sí. Por último, el número mínimo de cruces, al ser un parámetro tan simple, no ofrece demasiada información sobre las propiedades de los nudos en general.
En 1926 tuvo lugar un avance decisivo en la teoría de nudos.[240] En ese año, el matemático norteamericano James Waddell Alexander (1888-1971) descubrió un importante invariante al que se bautizó como polinomio de Alexander. Básicamente, el polinomio de Alexander es una expresión algebraica que utiliza la disposición de cruces para etiquetar el nudo. La novedad positiva era que, si dos nudos tenían distintos polinomios de Alexander, los nudos eran definitivamente distintos. El punto negativo, en cambio, era que dos que tuviesen el mismo polinomio podían ser nudos distintos. Por consiguiente, aunque el polinomio de Alexander resultó ser muy útil, aún no era la herramienta perfecta para distinguir nudos.
Los matemáticos estuvieron cuatro décadas explorando la base conceptual del polinomio de Alexander y profundizando en las propiedades de los nudos. Pero ¿por qué dedicaron tanto empeño? Desde luego, no era por razones prácticas. El modelo atómico de Thomson había caído en el olvido tiempo atrás, y ningún otro problema de ciencias, economía, arquitectura u otra disciplina parecía tener necesidad alguna de la teoría de nudos. Entonces, ¿por qué tantos matemáticos dedicaron interminables horas a los nudos? ¡Por simple curiosidad! Para estas personas, la idea de comprender los nudos y los principios subyacentes era, simplemente, bella. El destello de comprensión que representó el polinomio de Alexander era para los matemáticos tan irresistible como el desafío del Everest para George Mallory, que, a la pregunta de por qué quería escalarlo, respondió con la célebre frase «porque está ahí».
A finales de la década de 1960, el prolífico matemático anglonorteamericano John Horton Conway[241] descubrió un procedimiento para «desanudar» nudos de forma gradual, revelando así la relación entre los nudos y sus polinomios de Alexander. En concreto, Conway introdujo dos operaciones «quirúrgicas» que podían servir como base para la definición de un invariante de nudo. Las operaciones de Conway, denominadas «volteo» (flipping) y «suavizado» (smoothing) se describen esquemáticamente en la figura 56.
En el volteo (figura 56a), el cruce se transforma pasando el ramal superior por debajo del inferior (en la figura se indica también cómo se puede llevar a cabo esta transformación con un nudo real en una cuerda). Observe que, por supuesto, el volteo cambia la naturaleza del nudo. Por ejemplo, no es difícil asumir que el nudo de trébol de la figura 54b se convierte en el nudo simple (figura 54a) tras un volteo. La operación de suavizado de Conway elimina por completo el cruce (figura 56b) volviendo a unir los ramales de la forma «incorrecta». A pesar de la obra de Conway y de la nueva información que proporcionó, los matemáticos siguieron convencidos durante casi dos décadas más de la imposibilidad de hallar otras invariantes de nudo (del tipo del polinomio de Alexander). Pero en 1984 la situación cambió de forma espectacular.
El matemático neozelandés-americano Vaughan Jones no estaba estudiando nudos en absoluto, sino que se hallaba explorando un mundo aún más abstracto, el de las entidades matemáticas denominadas álgebras de Von Neumann. De forma inesperada, Jones observó que una relación que aparecía en las álgebras de Von Neumann se parecía sospechosamente a una relación de teoría de nudos, y se puso en contacto con Joan Bennan, que trabajaba en teoría de nudos en la Universidad de Columbia, para comentar sus posibles aplicaciones. Un examen detenido de la relación reveló un nuevo invariante para nudos, al que se denominó polinomio de Jones.[242] Enseguida se reconoció que el polinomio de Jones era un invariante más sensible que el polinomio de Alexander. Por ejemplo, distingue entre un nudo y su imagen especular (por ejemplo, los nudos de trébol a derechas y a izquierda de la figura 57), cuyos polinomios de Alexander son idénticos.

Pero lo fundamental es que el descubrimiento de Jones generó un entusiasmo sin precedentes entre las personas que trabajaban en teoría de nudos. El anuncio de un nuevo invariante generó tal oleada de actividad que, de pronto, el mundo de los nudos parecía el parqué de la bolsa en un día en que la Reserva Federal baja inesperadamente los tipos de interés.
El descubrimiento de Jones fue mucho más allá del simple avance en la teoría de nudos. El polinomio de Jones conectó de repente una apabullante variedad de áreas de la matemática y la física, desde la mecánica estadística (que se utiliza, por ejemplo, para estudiar el comportamiento de grandes cantidades de átomos o moléculas) a los grupos cuánticos (una rama de la matemática que tiene que ver con la física del mundo subatómico). Matemáticos de todo el mundo se pusieron febrilmente a la búsqueda de invariantes aún más generales que abarcasen tanto el polinomio de Alexander como el de Jones. Esta carrera tuvo como consecuencia el que quizá sea el resultado más asombroso en la historia de la competencia científica. Pocos meses después de que Jones diese a conocer su nuevo polinomio, cuatro grupos, trabajando de forma independiente y a partir de tres estrategias matemáticas distintas, anunciaron simultáneamente el descubrimiento de un invariante aún más sensible. El nuevo polinomio recibió el nombre de polinomio HOMFLY (o HOMFLYPT), por las iniciales de sus descubridores: Hoste, Ocneanu, Millett, Freyd, Lickorish y Yetter. Por si fuera poco, aparte de estos cuatro grupos cruzando la línea de meta, dos matemáticos polacos (Przytycki y Traczyk) descubrieron de forma independiente exactamente el mismo polinomio, pero un capricho de correos les impidió publicarlo a tiempo. En consecuencia, el polinomio se denomina también HOMFLYPT, tras agregar las iniciales de los descubridores polacos.
Desde entonces, aunque se han descubierto otros invariantes, la clasificación completa de los nudos se sigue resistiendo. La pregunta de qué nudo se tiene que girar y torcer para producir otro nudo aún no tiene respuesta. El invariante más avanzado descubierto hasta ahora se debe al matemático franco-ruso Maxim Kontsevich, que recibió la prestigiosa medalla Fields en 1998 y el premio Crafoord en 2008 por su obra. Casualmente, en 1998, Jim Hoste del Pitzer College de Claremont, California, y Jeffrey Weeks de Canton, Nueva York, tabularon todos los bucles anudados con 16 o menos cruces. De forma independiente, Morwen Thistlethwaite de la Universidad de Tennessee en Knoxville produjo una tabulación idéntica. Cada lista contiene exactamente ¡1.701.936 nudos distintos!
Sin embargo, la verdadera sorpresa no fue tanto el avance en la teoría de nudos en sí, sino en la reaparición espectacular e inesperada de la teoría en una amplia variedad de ciencias.[243]

 Los nudos de la vida

Como expliqué, la teoría de nudos surgió de un modelo erróneo del átomo. Sin embargo, una vez abandonado ese modelo, los matemáticos no se desanimaron. Por el contrario, se embarcaron con entusiasmo en un camino largo y difícil con el objetivo de comprender los nudos por sí mismos. Puede imaginar su satisfacción cuando la teoría de nudos resultó ser clave para la comprensión de procesos fundamentales en los que participaban las moléculas de la vida. ¿Hay acaso un ejemplo mejor del rol «pasivo» de la matemática en la explicación de la naturaleza?
El ácido desoxirribonucleico o ADN es el material genético de las células. El ADN consta de dos larguísimas hebras entrelazadas y enredadas una sobre la otra millones de veces para formar una doble hélice. A lo largo de estas espinas dorsales, que se pueden imaginar como los listones laterales de una escalera, se alternan los azúcares y los fósforos. Los «peldaños» de la escalera consisten en parejas de bases conectadas por enlaces de hidrógeno de una forma determinada (la adenina sólo enlaza con la timina y la citosina con la guanina, como se muestra en la figura 58).
Cuando una celda se divide, la primera fase es la replicación del ADN, de modo que cada celda hija se quede con una copia. De forma similar, en el proceso de transcripción (en el que la información genética del ADN se copia en el ARN), una sección de la doble hélice del ADN se desenrosca y sólo una de las hebras del ADN actúa como plantilla. Una vez finalizada la síntesis del ARN, el ADN vuelve a enroscarse en la hélice. Ni el proceso de replicación ni el de transcripción son sencillos; sin embargo, el ADN está enroscado de una forma tan compacta (para reducir el espacio de almacenamiento de información) que, si no se desenredase, los procesos de la vida no podrían tener lugar con fluidez. Además, para poder efectuar el proceso de replicación, las moléculas de ADN hijas deben desenredarse y el ADN padre debe en algún momento regresar a su configuración inicial. Los agentes que se encargan de las tareas de desanudar y desenredar son enzimas.[244] Las enzimas pueden pasar una hebra de ADN a través de otra rompiéndolas temporalmente y conectando los extremos de forma distinta. ¿Le suena de algo el proceso? Se trata precisamente de las operaciones «quirúrgicas» (representadas en la figura 56) que introdujo Conway para desenmarañar los nudos matemáticos. En otras palabras, desde un punto de vista topológico, el ADN es un nudo complejo que las enzimas deben desanudar para que pueden tener lugar los procesos de replicación y transcripción. Utilizando la teoría de nudos para calcular la dificultad de desanudar el ADN, los investigadores pueden estudiar las propiedades de las enzimas que ejecutan ese trabajo. Y lo que es mejor, mediante técnicas de visualización experimentales como microscopía electrónica y electroforesis en gel, los científicos pueden observar y cuantificar realmente los cambios en el anudado y enlazado del ADN que las enzimas provocan (en la figura 59 se muestra una micrografía electrónica de un nudo de ADN).
El desafío de los matemáticos es deducir los mecanismos de funcionamiento de las enzimas a partir de los cambios observados en la topología del ADN. Adicionalmente, los cambios en el número de cruces del nudo de ADN ofrecen a los biólogos una medida de la velocidad de reacción de las enzimas, es decir, el número de cruces por minuto sobre los que puede actuar una enzima en una determinada concentración.
Pero la biología molecular no es el único terreno en el que la teoría de nudos ha hallado inesperadas aplicaciones. La teoría de cuerdas (el intento actual de formular una teoría unificada que explique todas las fuerzas de la naturaleza) también tiene que ver con los nudos.

 ¿El universo en una cuerda?

 

 

La gravedad es la fuerza que opera a mayor escala. Mantiene unidas las estrellas de las galaxias e influye en la expansión del universo. La relatividad general de Einstein es una notable teoría sobre la gravedad. Pero, en lo más profundo del núcleo atómico, otras fuerzas y una teoría distinta son las que gobiernan. La interacción nuclear fuerte mantiene unidas unas partículas llamadas quarks para formar los conocidos protones y neutrones, constituyentes básicos de la materia. El comportamiento de las partículas y de las fuerzas en el mundo subatómico viene dictado por las leyes de la mecánica cuántica. ¿Actúan según las mismas reglas los quarks y las galaxias? Los físicos creen que debería ser así, aunque aún no saben por qué.
Durante décadas, los físicos han estado buscando una «teoría de todo», una descripción exhaustiva de las leyes de la naturaleza. En particular, su meta es llenar el vacío entre lo más grande y lo más pequeño con una teoría cuántica de la gravedad, una reconciliación de la relatividad general con la mecánica cuántica. La teoría de cuerdas parece ser actualmente la posibilidad mejor situada para una «Teoría de todo».[245] Desarrollada en su origen como teoría para la fuerza nuclear fuerte y posteriormente desechada, la teoría de cuerdas resucitó de la oscuridad en 1974 de la mano de los físicos John Schwarz y Joel Scherk. La idea básica de la teoría de cuerdas es bastante simple. La teoría propone que las partículas subatómicas elementales, como los electrones y los quarks, no son entidades puntuales sin estructura, sino que representan distintos modos de vibración de una misma cuerda básica. Según esta idea, el cosmos está lleno de minúsculos aros flexibles, similares a gomas elásticas. De igual modo que se puede pulsar una cuerda de violín para producir distintas armonías, las distintas vibraciones de estas cuerdas cerradas corresponden a distintas partículas de materia. En otras palabras, el mundo es algo así como una sinfonía.

Como las cuerdas son bucles en forma de «o» que se mueven por el espacio, con el paso del tiempo barren áreas en forma de cilindro (véase figura 60) denominadas worldsheets.
Si una cuerda emite otras cuerdas, el cilindro se bifurca creando estructuras en forma de tirachinas. Cuando muchas cuerdas interaccionan, forman una intrincada maraña de cáscaras combinadas con aspecto de donut. Al estudiar este tipo de estructuras topológicas complejas, Hiroshi Ooguri y Cumrun Vafa, que trabajaban en teoría de cuerdas, descubrieron una sorprendente conexión entre el número de «cáscaras donut», las propiedades geométricas intrínsecas de los nudos y el polinomio de Jones.[246] Con anterioridad, Ed Witten (uno de los nombres fundamentales en teoría de cuerdas) había creado una inesperada relación entre el polinomio de Jones y la misma base de la teoría de cuerdas (denominada teoría cuántica de campos).[247] El modelo de Witten fue rediseñado más adelante desde una perspectiva puramente matemática por el matemático Michael Atiyah.[248] De modo que la teoría de cuerdas y la teoría de nudos viven en simbiosis perfecta. Por una parte, la teoría de cuerdas ha sacado provecho de los resultados de la teoría de nudos y, por otra, la teoría de cuerdas ha impulsado nuevos avances en teoría de nudos.
Con un ámbito mucho más amplio, la teoría de cuerdas busca explicaciones para los constituyentes más básicos de la materia, de forma similar a lo que Thomson pretendía originalmente con una teoría de los átomos. Thomson pensaba (erróneamente) que los nudos le proporcionarían la respuesta. Por un giro inesperado, los expertos en teoría de cuerdas han hallado que los nudos pueden realmente ofrecerles algunas respuestas.
Como ya he mencionado, incluso el aspecto «activo» de la eficacia de la matemática (cuando los científicos generan la matemática que necesitan para describir los hechos observables) presenta algunas desconcertantes sorpresas en lo que se refiere a la precisión. Voy a describir brevemente un aspecto de la física en el que tanto la parte activa como la pasiva han desempeñado su papel, pero que es especialmente notable por la exactitud obtenida.

 Una precisión de peso

 

 

Newton tomó las leyes de la caída de cuerpos descubiertas por Galileo y otros experimentalistas italianos, las combinó con las leyes del movimiento planetario que había determinado Kepler y utilizó este esquema unificado para formular una ley matemática universal de la gravitación. Durante el proceso, Newton tuvo que formular una rama completamente nueva de la matemática (el cálculo) que le permitiese captar de forma concisa y coherente todas las propiedades de sus leyes de movimiento y de gravitación. La precisión con la que el propio Newton pudo comprobar su ley de la gravedad, teniendo en cuenta los resultados experimentales y las observaciones de su época, no era superior al 4 por 100. Sin embargo, la ley demostró su exactitud más allá de cualquier expectativa razonable.
En la década de 1950, la precisión experimental era superior a una diezmilésima de un 1 por 100. Pero eso no es todo. Algunas teorías especulativas recientes, cuya finalidad es explicar la aparente aceleración de la expansión de nuestro universo, han sugerido que la gravedad podría cambiar su comportamiento a escalas muy pequeñas. Recuerde que la ley de Newton afirma que la atracción gravitatoria decrece como el inverso del cuadrado de la distancia. Es decir, si se duplica la distancia entre dos masas, la fuerza gravitatoria que cada masa percibe se hace cuatro veces más débil. Los nuevos escenarios predecían desviaciones de este comportamiento a distancias de menos de un milímetro. Eric Adelberger, Daniel Kapner y su equipo de la Universidad de Washington en Seattle[249] realizaron una serie de ingeniosos experimentos para comprobar esta predicción de cambio en la dependencia de la separación. Sus resultados más recientes, publicados en enero de 2007, muestran que la ley del cuadrado inverso ¡sigue siendo válida a una distancia de 56 milésimas de milímetro! Así, una ley matemática propuesta hace más de trescientos años basándose en observaciones insuficientes no sólo ha resultado ser espectacularmente precisa, sino que ha demostrado su validez en situaciones en las que ésta no se ha podido demostrar hasta época muy reciente.
Pero Newton dejó sin respuesta una pregunta fundamental: ¿cómo funciona realmente la gravedad? ¿Cómo afecta la Tierra al movimiento de la Luna, situada a una distancia de casi 400.000 kilómetros? Newton era consciente de este defecto de su teoría, y lo admitió abiertamente en los Principia:
Hasta aquí he expuesto los fenómenos de los cielos y de nuestro mar por la fuerza de la gravedad, pero todavía no he asignado causa a la gravedad. Efectivamente esta fuerza surge de alguna causa que penetra hasta los centros del Sol y los planetas … y cuya acción se extiende por todas partes hasta distancias inmensas, decreciendo siempre como el cuadrado de las distancias … Pero no he podido todavía deducir a partir de los fenómenos la razón de estas propiedades de la gravedad y yo no imagino hipótesis.
La persona que decidió aceptar el desafío planteado por la omisión de Newton fue Albert Einstein (1879-1955). Concretamente en 1907, Einstein tenía buenas razones para interesarse por la gravedad:[250] ¡su nueva teoría de la relatividad especial parecía entrar en conflicto directo con la ley de gravitación de Newton!
Newton creía que la acción de la gravedad era instantánea. Suponía que la fuerza gravitatoria del Sol sobre los planetas o la atracción de la Tierra sobre la manzana no tardaban tiempo alguno. Por otra parte, la columna vertebral de la relatividad especial de Einstein era la tesis de que ningún objeto, energía ni información podía viajar a mayor velocidad que la luz. Entonces, ¿cómo podía hacerlo la gravedad? Como indica el siguiente ejemplo, las consecuencias de esta contradicción podrían ser fatídicas para conceptos tan fundamentales como nuestra percepción de causa y efecto.
Imaginemos que, de algún modo, el Sol desapareciese de repente. Libre de la fuerza que la mantiene en su órbita, la Tierra (según Newton) empezaría a moverse inmediatamente en línea recta (salvo pequeñas desviaciones provocadas por la gravedad de los otros planetas). Sin embargo, el Sol tardaría ocho minutos en desaparecer de la vista de los habitantes de la Tierra, el tiempo que tarda la luz en recorrer la distancia que separa el Sol de la Tierra. En otras palabras, el cambio en el movimiento de la Tierra precedería a la desaparición del Sol.
Para evitar este conflicto y, al mismo tiempo, tratar de resolver la pregunta sin respuesta de Newton, Einstein emprendió una búsqueda cuasiobsesiva de una nueva teoría de la gravedad. Se trataba de una empresa formidable. Cualquier nueva teoría, no sólo debía tener en cuenta y conservar los notables éxitos logrados por la teoría de Newton, sino también explicar el funcionamiento de la gravedad de forma compatible con la relatividad especial. Tras unas cuantas salidas en falso y divagaciones sin rumbo, Einstein logró su objetivo en 1915. Su relatividad general sigue considerándose una de las teorías más bellas de la historia.
La idea que constituye el fundamento de la pionera estructura de Einstein es que la gravedad no es más que deformaciones en el tejido del espacio y el tiempo. Según Einstein, de igual modo que las pelotas de golf siguen las curvas y relieves del green, los planetas siguen trayectorias curvadas en el espacio deformado que representa la gravedad del Sol. En otras palabras, en ausencia de materia u otras formas de energía, el espacio-tiempo (la estructura que unifica las tres dimensiones del espacio y la del tiempo) sería plano. La materia y la energía deforman el espacio-tiempo del mismo modo que una bola de bowling haría combarse una cama elástica. Los planetas se limitan a seguir los caminos directos en esta geometría curvada, que es una manifestación de la gravedad. Al solucionar el problema del funcionamiento de la gravedad, Einstein proporcionó también la estructura para responder a la pregunta de «con qué velocidad se propaga», que se reducía a determinar la velocidad con que las deformaciones del espacio-tiempo son capaces de viajar. Se trataba de algo similar a calcular la velocidad de las ondas en un estanque. Einstein fue capaz de probar que, en la relatividad general, la velocidad de la gravedad era precisamente la velocidad de la luz, eliminando así la discrepancia entre la teoría de Newton y la relatividad especial. Si el Sol desapareciese, el cambio en la órbita de la Tierra tendría lugar ocho minutos más tarde, y coincidiría con la observación de la desaparición.
El hecho de que Einstein convirtiese el espacio-tiempo deformado de cuatro dimensiones en la piedra angular de su nueva teoría del cosmos se tradujo en la imperiosa necesidad de crear una teoría matemática para esas entidades geométricas. Desesperado, recurrió a un antiguo compañero de clase, el matemático Marcel Grossmann (1878-1936): «He adquirido un inmenso respeto por la matemática, cuyas partes más sutiles consideraba antes nada más que productos suntuarios». Grossmann señaló que la geometría no euclidiana de Riemann (descrita en el capítulo 6) era precisamente la herramienta que Einstein estaba buscando: una geometría de espacios curvados de cualquier número de dimensiones. Se trataba de una demostración palpable de lo que he venido llamando la eficacia «pasiva» de la matemática, y Einstein lo reconoció de inmediato: «Podemos de hecho considerarla [la geometría] como la rama más antigua de la física», declaró, «y sin ella me hubiese sido imposible formular la teoría de la relatividad».
La relatividad general ha sido también comprobada hasta un extraordinario grado de precisión. Obtener estas pruebas no es tarea fácil, ya que la curvatura del espacio-tiempo que introducen objetos como el Sol se mide en partes por millón. Las primeras pruebas estaban asociadas a observaciones dentro del propio sistema solar (como minúsculos cambios en la órbita del planeta Mercurio en comparación con las predicciones de la gravedad de Newton), pero en tiempos más recientes ha sido posible acceder a procedimientos más exóticos. Una de las primeras comprobaciones utiliza un objeto astronómico denominado pulsar doble.
Un pulsar es una estrella extraordinariamente compacta, fuente de emisión de ondas de radio, cuya masa es algo superior a la del Sol, pero cuyo radio es sólo de unos diez kilómetros. La densidad de este tipo de estrellas (denominadas estrellas de neutrones) es tan alta que un centímetro cúbico de su materia tiene una masa de ¡más de 60 millones de toneladas! Muchas de estas estrellas de neutrones giran a gran velocidad al tiempo que emiten ondas de radio desde sus polos magnéticos. Cuando el eje magnético se halla a un cierto ángulo respecto del eje de rotación (como se muestra en la figura 61), el haz de radio de uno de los polos puede cruzar nuestra línea de visión una vez con cada rotación, como el destello de luz de un faro.
En tales casos, parecerá que la emisión de radio se emite en pulsos (de ahí el nombre «pulsar»). A veces, dos pulsares giran alrededor de su centro de gravedad común en una órbita reducida, creando así un sistema de pulsar doble. Estos pulsares dobles constituyen excelentes laboratorios para la verificación de la relatividad general debido a dos de sus propiedades:
Los radiopulsares son espléndidos relojes; su ritmo de rotación es tan estable que, de hecho, superan en precisión a los relojes atómicos.
Los pulsares son tan compactos que sus campos gravitatorios son muy intensos y producen efectos relativistas significativos. Debido a estas dos características, los astrónomos pueden medir con gran precisión los cambios en el tiempo que la luz tarda en recorrer la distancia entre los pulsares y la Tierra debido al movimiento orbital de dos pulsares en su campo gravitatorio mutuo.
La comprobación más reciente ha sido el resultado de mediciones temporales de gran precisión a lo largo de un período de dos años y medio en el sistema de pulsar doble denominado PSR J0737-3039A/B (esta denominación con aspecto de número telefónico refleja las coordenadas celestes del sistema).[251] Los dos pulsares de este sistema completan una revolución en sólo dos horas y veintisiete minutos, y el sistema se halla a unos dos mil años luz de distancia de la Tierra (un año luz es la distancia que la luz recorre en un año, alrededor de nueve billones de kilómetros). Un equipo de astrónomos dirigido por Michael Kramer, de la Universidad de Manchester, midió las correcciones relativistas al movimiento newtoniano. Los resultados, publicados en octubre de 2006, se ceñían a los valores predichos por la relatividad general con un grado de incertidumbre ¡del 0,05 por 100!
Vale la pena señalar que tanto la relatividad especial como la general desempeñan un papel importante en los Sistemas de Posicionamiento Global (GPS) que nos permiten localizar nuestra posición en la superficie de la Tierra y nos indican el mejor trayecto, ya sea en coche, en avión o a pie. El GPS determina la posición actual del receptor mediante la medida del tiempo que tarda en llegar a él la señal de diversos satélites y efectuando una triangulación a partir de las posiciones conocidas de cada satélite. La relatividad especial predice que los relojes atómicos que se encuentran en los satélites marchan algo más lentos (unas millonésimas de segundo al día) que los que están en el suelo, debido a su movimiento relativo. Al mismo tiempo, la relatividad general predice que los relojes de los satélites marchan más rápido (unas decenas de millonésimas de segundo al día) que los del suelo porque, a gran altura sobre la superficie de la Tierra, la curvatura del espacio-tiempo debida a la masa de la Tierra es menor. Si no se efectuasen las correcciones pertinentes de ambos efectos, los errores de posicionamiento global podrían acumularse a un ritmo de más de ocho kilómetros al día.
La teoría de la gravedad no es más que uno de los numerosos ejemplos que ilustran la «milagrosa» idoneidad y fantástica precisión de la formulación matemática de las leyes de la naturaleza. En este caso, como en muchos otros, lo que las ecuaciones nos proporcionan va mucho más allá de lo que era la intención original. La exactitud de las teorías de Newton y Einstein ha demostrado superar en gran medida la precisión de las observaciones a las que las teorías intentaban originalmente dar explicación.
Quizá el mejor ejemplo de la increíble precisión que es capaz de alcanzar una teoría matemática sea el que proporciona la electrodinámica cuántica (QED, Quantum Electrodynamics), que es la teoría que describe los fenómenos relacionados con las partículas con carga eléctrica y la luz. En 2006, un grupo de físicos de la Universidad de Harvard determinaron el momento magnético del electrón (que mide la intensidad con la que el electrón interacciona con un campo magnético) con una precisión de ocho partes por billón.[252] Por sí mismo, este resultado es una asombrosa proeza experimental. Pero si además se le suma el hecho de que los cálculos teóricos más recientes basados en la QED alcanzan una precisión similar y que los dos resultados coinciden, la exactitud ya es casi increíble. Esta es la reacción de uno de los fundadores de la QED, Freeman Dyson, ante los repetidos éxitos de su teoría: «Me fascina la precisión con la que la Naturaleza baila al son de la melodía que garabateamos de forma tan despreocupada hace cincuenta y siete años, y la forma en la que los experimentadores y los teóricos pueden medir y calcular el ritmo de su danza hasta una parte por billón».
Pero las teorías matemáticas no destacan sólo por su exactitud; otro de sus puntos fuertes es su poder de predicción. Voy a mencionar un par de ejemplos simples para ilustrar este poder, uno del siglo XIX y otro del siglo XX. El primero predijo un nuevo fenómeno; el segundo, la existencia de nuevas partículas elementales.
James Clerk Maxwell, que formuló la teoría clásica del electromagnetismo, probó en 1864 que su teoría predecía que los campos eléctricos o magnéticos variables debían generar ondas de propagación. Estas ondas (las conocidas ondas electromagnéticas, como las ondas de radio) fueron detectadas por primera vez por el físico alemán Heinrich Herz (1857-1894), en una serie de experimentos llevados a cabo en los últimos años de la década de 1880.
A finales de la década de 1960, los físicos Steven Weinberg, Sheldon Glashow y Abdus Salam desarrollaron una teoría que trata de forma unificada la fuerza electromagnética y la fuerza nuclear débil.[253] Esta teoría, denominada actualmente teoría electrodébil, predecía la existencia de tres partículas (denominadas bosones W+, W y Z) que nunca habían sido observadas. Las partículas se detectaron de forma inequívoca en 1983, durante experimentos en acelerador (en los que se hacen chocar partículas subatómicas entre sí a muy altas energías) dirigidos por los físicos Cario Rubbia y Simón van der Meer.
El físico Eugene Wigner, responsable de la frase «la eficacia inexplicable de la matemática», propuso llamar a estos logros inesperados de las teorías matemáticas «la ley empírica de la epistemología» (la epistemología es la disciplina que investiga el origen y los límites del conocimiento). Su razonamiento consistía en que, si esta «ley» no fuese correcta, a los científicos les habría faltado el aliento y la determinación tan necesarios para una exploración profunda de las leyes de la naturaleza. Sin embargo, Wigner no ofrecía explicación alguna para esta «ley empírica de la epistemología», sino que más bien la veía como un «regalo extraordinario» por el que debemos estar agradecidos, aunque no comprendamos su origen. Según Wigner, este «regalo» contiene la esencia de la cuestión sobre la eficacia inexplicable de la matemática.
Creo que, a estas alturas, ya hemos reunido suficientes pistas para intentar responder a nuestras preguntas iniciales: ¿Por qué la matemática es tan eficaz y productiva para explicar el mundo que nos rodea, e incluso es capaz de generar nuevos conocimientos? En última instancia, la matemática ¿es descubierta o inventada?

Continua en

¿Es Dios un Matemático? Mario Livio 2009 Capitulo IX: Acerca de la matemática, la mente humana y el universo.

[232] Un interesante libro sobre la elaboración de nudos es Ashley 1944. <<
[233] Vandermonde 1771. Véase Przytycki 1991 para un excelente repaso de la historia de la teoría de nudos. Adams 1994 es una amena introducción a la teoría en sí. Una versión divulgativa de la misma se puede hallar en Neuwirth 1979, en Peterson 1988 y en Menasco y Rudolph 1995. <<
[234] Sossinsky 2002 y Atiyah 1990 presentan excelentes descripciones. <<
[235] Tait 1898; Sossinsky 2002. O'Connor y Robertson 2003 incluye una breve y magnífica biografía de Tait. <<
[236] Knott l911. <<
[237] Little 1899. <<
[238] Véase Messer y Straffin 2006 para acceder a una introducción elemental, aunque algo técnica, a la topología. <<
[239] Perko 1974. <<
[240] Alexander 1928. <<
[241] Conway 1970. <<
[242] Jones 1985. <<
[243] Por ejemplo, el matemático Louis Kauffman ha demostrado la relación entre el polinomio de Jones y la física estadística. Un texto excelente, pero técnico, sobre las aplicaciones en física es Kauffman 2001. <<
[244] Véase Summers 1995 para una excelente descripción sobre teoría de nudos y la acción de las enzimas. Véase también Wasserman y Cozzarelli 1986. <<
[245] En Greene 1999, Randall 2005, Krauss 2005 y Smolin 2006 se pueden hallar magníficas explicaciones divulgativas sobre la teoría de cuerdas, sus éxitos y sus problemas. Para un texto técnico de introducción, véase Zweibach 2004. <<
[246] Ooguri y Vafa 2000. <<
[247] Witten 1989. <<
[248] Atiyah 1989; véase Atiyah 1990 para una perspectiva más amplia. <<
[249] Kapner et al. 2007. <<
[250] Hay muchas y buenas explicaciones de las ideas de la relatividad especial y general. Mencionaré algunas que me han gustado especialmente: Davies 2001, Deutsch 1997, Ferris 1997, Gott 2001, Greene 2004, Hawking y Penrose 1996, Kaku 2004, Penrose 2004, Rees 1997 y Smolin 2001. Una reciente y soberbia descripción acerca de la personalidad y las ideas de Einstein es Isaacson 2007. Otras magníficas descripciones anteriores de Einstein y su mundo son Bodanis 2000, Lightman 1993, Overbye 2000 y Pais 1982. Hawking 2007 incluye una bonita colección de documentos originales. <<
[251] Kramer et al 2006. <<
[252] Odom et al 2006. <<
[253] Weinberg 1993 contiene una excelente descripción. <<

No hay comentarios: