jueves, 2 de enero de 2014

¿Es Dios un Matemático? Mario Livio 2009 Capitulo V Estadísticos y probabilistas: La ciencia de la incertidumbre (II)

Juegos de azar

Los inicios del estudio serio de la probabilidad fueron muy modestos:[160] se trataba de jugadores que intentaban ajustar sus apuestas a sus posibilidades de éxito. En particular, a mediados del siglo XVII, un noble francés —el caballero de Méré—, que era también un celebrado jugador, dirigió varias preguntas sobre juegos y apuestas al famoso matemático y filósofo francés Blaise Pascal (1623-1662). En 1654, Pascal mantuvo abundante correspondencia acerca de estas cuestiones con el otro gran matemático francés de la época: Pierre de Fermat (1601-1665). Se puede afirmar que la teoría de probabilidades nació en este intercambio epistolar.
Vamos a examinar uno de los fascinantes casos comentados por Pascal en una carta de fecha 29 de julio de 1654.[161] Imaginemos que dos nobles están enfrascados en un juego en el que lanzan un único dado. Cada jugador ha puesto sobre la mesa 32 monedas de oro. El primer jugador elige el número 1 y el segundo jugador, el 5. Cada vez que aparece el número que ha elegido uno de los jugadores, éste obtiene un punto. El ganador es el primero que consiga tres puntos. Supongamos, sin embargo, que, después de jugar durante un rato, el número 1 ha aparecido dos veces (de modo que el jugador que lo había elegido tiene dos puntos) mientras que el número 5 sólo ha aparecido una vez (de modo que su oponente tiene únicamente un punto). Si, por cualquier razón, el juego tuviera que interrumpirse en ese momento, ¿cómo deberían repartirse los dos jugadores las 64 monedas de la mesa? Pascal y Fermat hallaron la respuesta matemáticamente lógica. Si el jugador con dos puntos ganase la siguiente tirada, las 64 monedas serían suyas. Si la perdiese, ambos jugadores tendrían dos puntos, así que cada uno de ellos obtendría 32 monedas. Por tanto, si los jugadores se separan sin efectuar la siguiente tirada del dado, el primer jugador podría argumentar correctamente: «Poseo con seguridad 32 monedas, aunque perdiese la siguiente tirada; por lo que respecta a las otras 32, puede que las tenga o puede que no, las posibilidades son iguales. Vamos entonces a dividir estas 32 monedas a partes iguales, y me llevo también las 32 monedas que tengo seguras». En otras palabras, el primer jugador debería quedarse con 48 monedas y el segundo, con 16. Parece increíble que una nueva disciplina matemática de gran profundidad haya podido surgir de un tipo de discusión aparentemente trivial como éste, ¿verdad? Sin embargo, ésta es precisamente la razón de la «inexplicable» y misteriosa eficacia de la matemática.
La esencia de la teoría de probabilidades se puede deducir de los hechos simples siguientes.[162] Nadie puede predecir con certeza qué cara de una moneda no manipulada quedará hacia arriba cuando caiga al suelo. Aunque la moneda acabe de caer diez veces seguidas en cara, eso no mejora ni un ápice nuestra capacidad para predecir con certeza la siguiente tirada. Sin embargo, sí podemos predecir con certeza que, si se tira la moneda diez millones de veces, prácticamente la mitad de las tiradas serán caras y la otra mitad serán cruces. De hecho, a finales del siglo XIX, el estadístico Karl Pearson tuvo la paciencia de tirar una moneda 24.000 veces. Obtuvo cara en 12.012 de las tiradas. En cierto modo, esto es, en esencia, la teoría de la probabilidad. Esta disciplina nos proporciona información precisa acerca de los resultados recogidos en un gran número de experimentos;[163] no es capaz de predecir el resultado de un experimento específico. Si un experimento puede tener n resultados posibles, cada uno de ellos con la misma posibilidad de ocurrir, entonces la probabilidad de cada resultado es 1/n. Si se tira un dado no cargado, la probabilidad de obtener el número 4 es 1/6, porque el dado tiene seis caras, y cada una de ellas es un resultado igualmente posible. Supongamos que se tira el dado siete veces seguidas y se saca un 4 cada vez; ¿cuál es la probabilidad de sacar un 4 en la siguiente tirada? La respuesta de la teoría de probabilidades es de una claridad meridiana: la probabilidad seguirá siendo de 1/6; el dado no tiene memoria; las nociones de «buena racha» o de que la tirada siguiente compensará el desequilibrio de las anteriores no son más que mitos. Lo único que es cierto es que, si lanzásemos el dado un millón de veces, los resultados se compensarían y, en promedio, el 4 aparecería 1/6 parte de las veces.
Vamos a examinar una situación un poco más complicada. Supongamos que lanzamos tres monedas al mismo tiempo. ¿Cuál es la probabilidad de sacar dos cruces y una cara? Podemos hallar la respuesta con sólo enumerar todos los resultados posibles. Si indicamos las caras con «C» y las cruces con «X», tenemos ocho resultados posibles: XXX, XXC, XCX, XCC, CXX, CXC, CCX, CCC. De éstos, como se puede comprobar, tres son favorables al suceso «dos cruces y una cara». Así, la probabilidad de este evento es de 3/8. O, para generalizar, si de n resultados con la misma probabilidad, m son favorables al suceso que nos interesa, la probabilidad de que ese suceso ocurra es de m/n. Observe que eso se traduce en que el valor de la probabilidad está siempre entre cero y uno. Si el suceso que nos interesa es, en realidad, imposible, entonces m = 0 (ningún resultado es favorable) y la probabilidad sería cero. Si, por el contrario, el suceso es totalmente seguro, eso significa que los n casos son favorables (m = n) y que la probabilidad es simplemente n/n = 1. Los resultados de los tres lanzamientos de moneda demuestran además otro importante resultado de la teoría de probabilidades: si tenemos varios sucesos completamente independientes entre sí, la probabilidad de que todos ellos sucedan es el producto de las probabilidades individuales. Por ejemplo, la probabilidad de sacar tres caras es de 1/8, es decir, el producto de las tres probabilidades de sacar cara en cada una de las tres monedas: 1/2 × 1/2 × 1/2 = 1/8.
Uno puede pensar ahora: de acuerdo pero, aparte de en los casinos y en otros juegos de azar, ¿qué otros usos podemos dar a estos conceptos básicos de probabilidades? Aunque cueste de creer, estas leyes de la probabilidad de aspecto inocuo se hallan en la base de la genética moderna, la ciencia de la herencia de caracteres biológicos.

La persona que unió la probabilidad con la genética fue un monje de Moravia.[164] Gregor Mendel (1822-1884) nació en un pueblo cercano a la frontera entre Moravia y Silesia (actualmente Hyncice, en la República Checa). Tras entrar en la abadía agustiniana de Santo Tomás, en Brno, estudió zoología, botánica y física y química en la Universidad de Viena. A su regreso a Brno, Mendel inició un activo período de experimentación con plantas de guisantes, con el entusiasta apoyo del abad de su monasterio. Mendel centró sus investigaciones en los guisantes porque eran de cultivo fácil, y también porque poseían órganos reproductivos masculinos y femeninos. De este modo, las plantas de guisantes podían autopolinizarse o cruzarse con otras plantas. Mediante la polinización cruzada de plantas que sólo producían semillas verdes con otras que sólo las producían amarillas, Mendel obtuvo resultados muy desconcertantes a primera vista (figura 34).
La primera generación de descendientes sólo tenía semillas amarillas. ¡Sin embargo, de forma constante la generación siguiente tenía una proporción de 3 a 1 entre semillas amarillas y verdes! A partir de estos asombrosos resultados, Mendel pudo extraer tres conclusiones que se convirtieron en importantes hitos de la genética:
(i) La herencia de una característica implica la transmisión de determinados «factores» (actualmente los llamamos genes) de padres a hijos.
(ii) Cada hijo hereda uno de estos «factores» de cada padre (para un rasgo determinado).
(iii) Aunque una característica específica no se manifieste en un descendiente, se puede transmitir a la siguiente generación.
Pero ¿cómo se pueden explicar los resultados cuantitativos del experimento de Mendel? Mendel propuso que cada una de las plantas padre tenía dos alelos (variedades de un gen) idénticos, ya fuesen dos amarillos (A) o dos verdes (V) (como en la figura 35).

Al aparearse entre sí, cada descendiente heredaba dos alelos distintos, uno de cada padre [según la regla (ii) mencionada]. Es decir, la semilla de cada descendiente contenía un alelo amarillo y uno verde. Entonces, ¿por qué los guisantes de esta generación eran todos amarillos? Según la explicación de Mendel, el amarillo era el color dominante y enmascaraba la presencia del alelo verde en esta generación [según la regla (iii)]. Sin embargo [siguiendo con la regla (iii)], el amarillo dominante no impedía que el verde recesivo pasase a la siguiente generación. En la siguiente ronda de apareamiento, cada planta con un alelo amarillo y uno verde era polinizada con otra planta que contenía la misma combinación de alelos. Puesto que el descendiente contenía un alelo de cada padre, las semillas de la generación siguiente podían contener una de las combinaciones siguientes (figura 35): verde-verde, verde-amarillo, amarillo-verde o amarillo-amarillo. Todas las semillas con un alelo amarillo se convertían en guisantes amarillos, porque el amarillo es dominante. Así, como todas las combinaciones de alelos tienen la misma probabilidad, la proporción entre guisantes amarillos y verdes debe ser 3:1.
No es difícil darse cuenta de que todo el ejercicio de Mendel es, en esencia, idéntico a lanzar dos monedas. Asignar cara a verde y cruz a amarillo y preguntar qué fracción de los guisantes serán amarillos (sabiendo que el amarillo es dominante para determinar el color) es exactamente lo mismo que preguntar cuál es la probabilidad de obtener al menos una cruz al tirar dos monedas. Obviamente, es 3/4, ya que tres de los cuatro posibles resultados (cruz-cruz, cruz-cara, cara-cruz, cara-cara) contienen una cruz. Eso significa que la proporción entre el número de tiradas que contienen al menos una cruz y el número de tiradas que no la contienen debería ser (a la larga) 3:1, como en los experimentos de Mendel.
A pesar de que Mendel publicó su artículo «Experimentos sobre hibridación de plantas» en 1865[165] (también presentó los resultados en dos congresos científicos), su obra pasó en general inadvertida hasta su redescubrimiento, a principios del siglo XX. Aunque han surgido algunas dudas acerca de la exactitud de sus resultados,[166] se le sigue considerando la primera persona que estableció las bases matemáticas de la genética moderna. Tras los pasos de Mendel, el influyente estadístico británico Ronald Aylmer Fisher[167] (1890-1962) estableció el campo de la genética de poblaciones (la rama matemática que se centra en la modelización de las distribuciones de genes dentro de una población y el cálculo de la variación temporal de las frecuencias de genes). Los actuales genetistas pueden utilizar muestreos estadísticos combinados con estudios de ADN en el pronóstico de las características más probables de un descendiente no nacido. Pero ¿cuál es realmente la relación entre probabilidad y estadística?

 Hechos y pronósticos

 

 

Los científicos que intentan desentrañar la evolución del universo suelen atacar el problema desde ambos extremos. Están los que empiezan por las minúsculas fluctuaciones en el tejido cósmico del universo primordial, y los que estudian hasta el más nimio detalle en el estado actual del universo. Los primeros utilizan enormes simulaciones informáticas con el fin de hacer evolucionar el universo hacia adelante. Los segundos se embarcan en el detectivesco trabajo de tratar de deducir el pasado del universo a partir de una multitud de datos sobre su estado actual. La relación entre la teoría de probabilidades y la estadística es similar. En teoría de probabilidades, las variables y el estado inicial son conocidos, y el objetivo consiste en predecir el resultado final más probable. En estadística, el resultado es conocido, pero las causas pasadas no lo son.
Vamos a examinar un ejemplo sencillo para ver de qué modo ambos campos se complementan y, por así decirlo, se encuentran a medio camino. Podemos empezar por el hecho de que los estudios estadísticos muestran que las mediciones de una amplia variedad de magnitudes físicas, e incluso muchas características humanas, se distribuyen siguiendo la curva de frecuencias normal. Para ser más exactos, la normal no es una curva, sino una familia de curvas que se pueden describir mediante una misma función general y que quedan caracterizadas mediante dos únicas cantidades matemáticas. La primera de ellas —la media— es el valor central y eje de simetría de la distribución. El valor real de la media depende, claro está, del tipo de variable medida (por ejemplo, peso, altura o CI). Incluso para una misma variable, la media puede ser distinta en diferentes poblaciones. Por ejemplo, la media de la altura de los hombres en Suecia es probablemente distinta que la de Perú. La segunda cantidad que define la curva normal se denomina desviación estándar, y mide cómo están agrupados los datos alrededor de la media.

En la figura 36, la curva normal (a) es la que tiene la mayor desviación estándar, ya que los valores en ella están más dispersos.
Pero aquí viene lo interesante: si utilizamos el cálculo integral para calcular las áreas bajo la curva, se puede demostrar matemáticamente que, independientemente de los valores de la media o de la desviación estándar, el 68,2 por 100 de los datos se hallan entre los valores que abarca una desviación estándar a cada lado de la media (como se muestra en la figura 37).
En otras palabras, si el CI medio de una cierta población (grande) es 100, y la desviación estándar es 15, entonces el 68,2 por 100 de las personas de esa población tienen un CI entre 85 y 115. Aún hay más: para todas las curvas de frecuencia normal, el 95,4 por ciento de todos los casos se hallan a dos desviaciones estándar de la media, y el 99,8 por 100, a tres (figura 37). Esto implica que, en el ejemplo anterior, el 95,4 por 100 de la población tiene valores de CI entre 70 y 130, y el 99,8 por 100, entre 55 y 145.
Supongamos ahora que queremos predecir la probabilidad de que una persona de esa población elegida al azar tenga un valor de CI entre 85 y 100. La figura 37 nos indica que sería de 0,341 (o 34,1 por 100), ya que, según las leyes que la gobiernan, esa probabilidad consiste simplemente en el número de casos favorables dividido por el total de casos posibles. Pongamos que ahora nos interesa saber la probabilidad de que una persona elegida al azar en esa población tenga un valor de CI superior a 130. Basta una ojeada a la figura 37 para averiguar que esa probabilidad es sólo de alrededor de 0,022, o el 2,2 por 100. De forma parecida, a partir de las propiedades de la distribución normal y la herramienta del cálculo integral (para calcular áreas), se puede calcular la probabilidad de que el valor de CI se encuentre dentro de cualquier intervalo. En otras palabras, la teoría de probabilidades y su compañera y complemento, la estadística, se combinan para darnos la respuesta.
Como ya he indicado antes, la probabilidad y la estadística sólo son significativas al tratar con un gran número de sucesos, nunca con eventos individuales. Este aspecto fundamental, denominado Ley de los grandes números, se debe a Jakob Bernoulli, que lo formuló en forma de teorema en su obra Ars Conjectandi (cuya portada se muestra en la figura 38).[168]
En términos simples, el teorema afirma que, si la probabilidad de la aparición de un suceso es p, entonces p es la proporción más probable de apariciones del suceso en el número total de ensayos. Asimismo, a medida que el número de ensayos tiende a infinito, la proporción de éxitos se convierte en p con certeza. Así presentó Bernoulli la Ley de los grandes números en su Ars Conjectandi: «Aún está pendiente de investigación si, con el aumento del número de observaciones, seguimos aumentando la probabilidad de que la proporción registrada entre casos favorables y desfavorables se acerque a la verdadera proporción, de modo que esta probabilidad exceda finalmente cualquier grado de certeza que le exijamos». A continuación pasó a explicar el concepto mediante un ejemplo específico:
Tenemos un tarro que contiene 3.000 guijarros blancos y 2.000 negros, y queremos determinar de forma empírica la proporción —que desconocemos— entre unos y otros a base de extraer un guijarro tras otro y anotar con qué frecuencia extraemos un guijarro blanco y con cuál uno negro. (Me permito recordar que es un requisito importante de este proceso devolver el guijarro al tarro después de tomar nota del color y antes de extraer el siguiente, de modo que el número de guijarros en el tarro permanezca constante). La pregunta es, ¿es posible ampliar el número de ensayos para hacer que sea 10, 100, 1.000, etc., veces más probable (y, a la larga, más «moralmente cierto») que la proporción de guijarros blancos extraídos respecto de la de guijarros negros adquiera el mismo valor (3:2) que la proporción real de guijarros blancos y negros en la urna, que no que adquiera un valor distinto? Si la respuesta es no, admitiré entonces que probablemente seamos incapaces de averiguar el número de instancias de cada caso (esto es, el número de guijarros blancos y negros) mediante observación. En cambio, si es cierto que este método nos permite alcanzar una certeza moral* [*Jakob Bernoulli demuestra en el capítulo siguiente de Ars Conjectandi, que es así (N. del a.)]… entonces podemos determinar el número de ejemplos a posteriori casi con la misma precisión que si los conociésemos a priori.[169]
Bernoulli dedicó veinte años al perfeccionamiento de este teorema, que se ha convertido en uno de los pilares básicos de la estadística. Concluía afirmando su creencia en la existencia de leyes fundamentales, incluso en las situaciones que parecen estar gobernadas por el azar:
Si observásemos de forma continua todos los eventos desde este momento hasta la eternidad (convirtiendo de este modo la probabilidad en certeza), hallaríamos que todo lo que ocurre en el mundo lo hace por razones determinadas y de conformidad con leyes, y que de este modo nos vemos constreñidos, incluso en situaciones que parecen accidentales, a asumir una cierta necesidad y, por así decirlo, fatalidad. Porque todo cuanto sé es aquello en lo que Platón pensaba cuando, en la doctrina del ciclo universal, sostenía que, tras el paso de incontables centurias, todo regresaría a su estado original.
La conclusión de este relato científico de la incertidumbre es simple: la matemática se puede aplicar incluso en las áreas menos «científicas» de nuestras vidas, incluso en las que parecen estar dominadas por el puro azar. Así, al intentar explicar la «inexplicable eficacia» de la matemática, no podemos limitarnos solamente a las leyes de la física; en algún momento tendremos que intentar resolver el enigma de la omnipresencia de la matemática.
El increíble poder de la matemática no pasó desapercibido para el célebre dramaturgo y ensayista George Bernard Shaw (1856-1950). Shaw, cuya fama no se debía precisamente a su talento matemático, escribió una vez un ingenioso artículo sobre estadísticas y probabilidad titulado «The Vice of Gambling and the Virtue of Insurance».[170] En él, Shaw admite que, en su opinión, los seguros «se basan en hechos inexplicables y riesgos que sólo puede calcular un matemático profesional». Sin embargo, ofrece la siguiente astuta observación:
Imaginemos una conversación de negocios entre un ambicioso mercader que quiere comerciar con el exterior pero está aterrorizado de que su barco naufrague o de que se lo coman los salvajes, y un capitán que lo que quiere es un cargamento y pasajeros. El capitán responde al mercader que sus bienes estarán totalmente a salvo, igual que él mismo si decide acompañarle. Pero el mercader, que tienen la cabeza hinchada con las aventuras de Jonás, san Pablo, Ulises y Robinson Crusoe, no se atreve a correr el riesgo. Su conversación sería más o menos así:
Capitán: ¡Venid conmigo! Os apuesto tropecientas libras a que, si navegáis conmigo, estaréis sano y salvo en este mismo día dentro de un año.
Mercader: Pero, si acepto la apuesta, estaré apostando que voy a morir durante ese año.
Capitán: ¿Y por qué no, si vais a perder la apuesta, con toda seguridad?
Mercader: Pero, si me ahogo, vos también os ahogaréis; ¿qué será entonces de nuestra apuesta?
Capitán: Cierto. Entonces, encontraré a alguien en tierra que haga la apuesta con vuestra esposa y vuestra familia.
Mercader: Eso lo cambia todo, pero ¿qué hay de mi cargamento?
Capitán: ¡Bah! Podemos extender la apuesta al cargamento. O convertirla en dos apuestas: una por vuestra vida y la otra, por el cargamento. Ambos estarán a salvo, os lo aseguro. Nada sucederá, y podréis disfrutar de las maravillas de tierras lejanas.
Mercader: Pero, si yo y mi mercancía hacemos el viaje con seguridad, tendré que pagaros el valor de mi vida y de Jos bienes. Si no me ahogo, me arruinaré.
Capitán: Eso también es cierto. Pero yo no salgo tan beneficiado como pensáis. Si os ahogáis, yo me ahogaré primero, pues tengo la obligación de ser el último hombre que abandone el barco cuando se vaya a pique. Pero dejadme que ejerza mi persuasión. Os haré una apuesta diez a uno. ¿Es eso tentación suficiente?
Mercader: Bueno, en tal caso…
El capitán ha descubierto los seguros, igual que los orfebres descubrieron el negocio bancario.
Es notable que alguien como Shaw, que se lamentaba de que, durante su educación, «nadie mencionó una palabra sobre el significado o la utilidad de la matemática», escribiese este relato jocoso sobre la «historia» de la matemática de los seguros.
Con la excepción del texto de Shaw, hasta ahora hemos seguido el desarrollo de la matemática a través de los ojos de matemáticos profesionales. Para estas personas, y para muchos filósofos racionalistas como Spinoza, el platonismo era evidente. No había discusión posible: las verdades matemáticas existían en un mundo propio y la mente humana podía acceder a ellas sin necesidad de observaciones, simplemente a través de la facultad de la razón. Los primeros signos de una posible discrepancia entre la percepción de la geometría euclidiana como conjunto de verdades universales y otras ramas de la matemática fueron revelados por el filósofo irlandés George Berkeley (el obispo Berkeley) (1685-1753). En un panfleto titulado El analista, o un discurso dirigido a un matemático infiel[171] (que se supone que era Edmond Halley), Berkeley criticaba los mismos fundamentos del cálculo y el análisis presentados por Newton (en Principia) y Leibnitz. Específicamente, Berkeley demostraba que el concepto de «fluxiones» o tasas instantáneas de cambio de Newton adolecía de una definición poco rigurosa, lo que, según el punto de vista de Berkeley, bastaba para poner en duda toda la disciplina:
El método de fluxiones es la clave general de cuya ayuda se valen los matemáticos modernos para desentrañar los secretos de la Geometría y, en consecuencia, de la Naturaleza … Lo que me propongo es investigar, con la máxima imparcialidad, si este método es claro o confuso, sistemático o espurio, demostrativo o precario, coherente, y someto mis investigaciones a vuestro propio juicio y al de todo lector sincero.
No se puede negar que Berkeley tenía algo de razón, y el hecho es que no se formuló una teoría del análisis totalmente coherente hasta los años sesenta del siglo XX, pero la matemática estaba a punto de sufrir una crisis más drástica en el siglo XIX.
Continua en:

¿Es Dios un Matemático? Mario Livio 2009 Capitulo VI Geómetras: El shock del futuro.

[160] Entre las publicaciones de divulgación recientes acerca de la probabilidad, su historia y sus usos se encuentran Aczel 2004, Kaplan y Kaplan 2006, Connor 2006, Burger y Starbird 2005 y Tabak 2004. <<
[161] Todhunter 1865, Hald 1990. <<
[162] Kline 1967 contiene una descripción breve y sencilla de algunos de los principios fundamentales de la teoría de probabilidades. <<
[163] Rosenthal 2006 describe con gran exactitud la relevancia de la teoría de probabilidades en numerosas situaciones del mundo real. <<
[164] Para una excelente biografía véase Orel 1996. <<
[165] Se puede acceder a una traducción inglesa en la página web creada por R. B. Blumberg. <<
[166] Véase, por ejemplo, Fisher 1936. <<
[167] Tabak 2004 incluye una descripción breve de una parte de su obra. Fisher escribió un artículo no técnico y muy original acerca del diseño de experimentos, titulado «Mathematics of a Lady Tasting Tea»; véase Fisher 1956). <<
[168] Para una magnífica traducción inglesa, véase Bernoulli 1713. <<
[169] Reimpreso en Newman 1956. <<
[170] El artículo «The Vice of Gambling and the Virtue of Insurance» aparece en Newman 1956. <<
[171] El panfleto lo escribió George Berkeley en 1734. En Internet se puede encontrar una versión editada por David Wilkins. Véase Berkeley 1734. <<

No hay comentarios: