Archive for the ‘ Matemáticas ’ Category

Georg Cantor, los cardinales transfinitos y la hipótesis del continuo

 

 

El matemático alemán Georg Cantor, nacido en San Petersburgo en 1845, y fallecido en Halle en 1918, fue el artífice de la moderna concepción matemática de infinito, así como el creador junto con Dedekind y Fregue de la teoría de conjuntos, que se erige como el esqueleto en el que se apoyan las actuales teorías del análisis matemático. Sus trabajos sobre el infinito no fueron muy populares en la época en la que vivió, en parte quizás porque Cantor tuvo la desgracia de padecer el trastorno bipolar, también conocido como trastorno maníaco-depresivo, que lo forzó a tener que recluirse en el sanatorio universitario de Halle en numerosas ocasiones, sobre todo a comienzos del siglo XX, y este factor contribuyó a que muchos matemáticos como Leopold Kronecker o Karl Weirstrass –que paradójicamente fueron sus profesores cuando él era estudiante universitario- desdeñaran los trabajos de Cantor por considerarlos como un producto de su patología; pero hubo alguien que por su peso acreditado en las matemáticas de aquella época, que a la sazón formaba junto con David Hilbert la luminaria en la creatividad lógica del momento, más concretamente el matemático francés Henri Poincaré, salió en la defensa de los trabajos de Cantor, argumentando que no importaba si Cantor estaba lidiando con una enfermedad, sus trabajos eran de primera línea y además de una sutil belleza. Eso bastaba para tomarlo en serio. Y fue éso lo que en parte ayudó a poner a cada uno en su sitio, en una situación en la que curiosamente Georg Cantor no tenía sus preocupaciones centradas ni en las controversias de las que estaba siendo involuntariamente el causante, ni tampoco en las paradojas que surgían de sus trabajos, que les causaban gran molestia a otros matemáticos. En una ocasión se le preguntó al filósofo, premio Nóbel de literatura, y matemático, Bertrand Russell, quién consideraba la persona más influyente de la historia en Francia, y éste contestó que esa persona era Poincaré, ante lo cual su interlocutor se quedó sumamente extrañado, al ver que no figuraban en su contestación ni el escritor Honoré de Balzac, ni por ejemplo Napoleón, y sin embargo sí un ministro de entonces con dicho apellido, a lo que Russell contestó que a quien se refería no era al ministro Poincaré, sino a su primo Henri. Esto da una idea de hasta qué punto era influyente el mencionado matemático francés, por estar junto con Hilbert en la élite generalista de las matemáticas de principios de siglo, por sus contribuciones al análisis, a la naciente topología o geometría doblada, por sus estudios sobre el problema de los tres cuerpos –de los que accidentalmente ha surgido la moderna teoría del caos- y por muchas otras contribuciones firmadas con su nombre, entre las que podríamos poner de relieve el estudio del grupo de transformaciones de Lorentz, que por muy poco no lo convierten en codescubridor de la teoría de relatividad especial, por adelantársele Albert Einstein en su año milagroso de 1905. Por este motivo, a Cantor comenzó a tomársele en serio, y fue por ello que precisamente el primero de los problemas a resolver planteado por Hilbert en su famosa conferencia pronunciada durante el Congreso Internacional de Matemáticas, celebrado en la Sorbona (París) en 1900, fuese concretamente el problema de la hipótesis del continuo, no resuelto en su totalidad hasta el año 1963.

 

 

Para contextualizar la hipótesis del continuo, problema al que Cantor no encontró por aquel entonces solución, a pesar de intentarlo con todo su empeño, se debe hablar primero de los cardinales transfinitos y del concepto de infinito en acto, tal y como quedó registrado con las contribuciones del matemático alemán.

Pero antes de esto, debemos remontarnos a la Grecia clásica para ver lo escurridizo que ha sido siempre el concepto de infinitud, que no logró ser domado hasta los trabajos de Cantor. En aquellos tiempos de la Antigüedad surgió una controversia en torno a las concepciones de infinito en potencia e infinito en acto, que se mantuvo a lo largo de toda la historia hasta Cantor. El infinito en potencia consiste en considerar que efectivamente, por ejemplo, después de cada número natural existe otro número posterior, independientemente de que consideremos al primero de ellos todo lo grande que queramos. Así pues, potencialmente los números naturales no se acaban nunca, y cobra forma el hecho de que podemos pensar que el infinito existe, aunque escape a nuestra limitada forma de pensar basada en la observación de cosas u objetos finitos, y no podamos aprehenderlo. Pero hay otra forma de ver el infinito, y es la de considerarlo en acto, no como algo sólo posible, sino como algo con existencia real, hablándose entonces de infinito actual. Aristóteles consideraba que el infinito actual no era concebible, y que si debíamos pensar en el infinito era teniéndolo en cuenta como algo sólo en potencia. Precisamente, algunos pensadores contemporáneos de Aristóteles, uno de los cuales fue Zenón, basándose en lo engañosa que puede resultar la comprensión de un número indefinidamente grande se dieron cuenta de la gran cantidad de aporías, o contradicciones lógicas, que surgían si solamente se consideraba el infinito como algo en potencia y no en acto, de las cuales tal vez las más conocidas sean la famosa aporía de Aquiles y la Tortuga, o la aporía del espacio a recorrer de longitud unidad y de su cubrición con la serie geométrica de suma de distancias avanzadas, con un término general de razón ½. Por otra parte, la continuidad de esta incertidumbre en lo que a los conceptos se refiere, se mantuvo a lo largo de la historia y fue determinante en los primeros intentos de formular el cálculo; así ya los trabajos de los indivisibles de Cavalieri carecían de una total consistencia conceptual precisamente por lo escurridizo del infinito; y aún más, cuando Isaac Newton y Gottfried Leibniz descubrieron el cálculo de manera independiente, eran probablemente conscientes de manera plena de que la nueva forma de calcular, que tan fecunda ha sido para el desarrollo científico, no poseía el grado de rigor que todo buen matemático desea para sus creaciones, dado que era preciso recurrir a los elementos infinitesimales, a lo infinitamente pequeño y distinto de cero, que en realidad lleva implícita la creencia en el infinito en acto.

Así pues, ¿posee existencia real el infinito en acto, aunque lo observado por los humanos, los medios de medida, y nuestra forma de pensar, estén basados en lo finito?.

La respuesta a esta pregunta es afirmativa, y fue Cantor quien comprendió por primera vez en toda su perspectiva el infinito. Para esto, Cantor partió en primer lugar del conjunto de los números naturales. Como dado cualquier número natural, existe otro más grande, el conjunto de los números naturales es infinito, es decir, no se acaba nunca. Para estudiar el tamaño de un conjunto, fuese finito o infinito, Cantor definió los conceptos de numerabilidad (un conjunto es numerable si sus elementos se pueden poner en correspondencia uno a uno mediante una biyección con el conjunto de los números naturales) y cardinalidad (el cardinal de un conjunto es el número de sus elementos si el conjunto es finito, y si dos conjuntos son infinitos se puede decir que tienen la misma cardinalidad si podemos establecer una biyección entre sus elementos, esto es, una correspondencia biunívoca entre ambos, que es equivalente a decir que tienen el mismo tamaño). A partir de estos dos conceptos básicos se llega a la conclusión de que un conjunto es finito si no existe una biyección entre dicho conjunto y alguna de sus partes, y es infinito –tiene cardinalidad transfinita- si dicha biyección existe. Así, por ejemplo, podemos relacionar el 1 con el 10, el 2 con el 20, el 3 con el 30, y así sucesivamente, y vemos que los números naturales son infinitos y son biyectivos con uno de sus subconjuntos (el conjunto formado por las sucesivas decenas). Por otra parte, también podemos decir que el conjunto de los números enteros es numerable, dado que podemos poner en correspondencia el 1 con el 1, el 2 con el -1, el 3 con el 2, el 4 con el -2, el 5 con el 3, y así sucesivamente. Dado que el conjunto de los números racionales (las fracciones) también es infinito, y dado que entre dos números enteros existen infinitas fracciones, podría parecer que existen muchas más fracciones que enteros y que dichos conjuntos tienen distinta cardinalidad. Sin embargo, Cantor advirtió que esto no era así. Para ello, construyó una retícula discreta de puntos en dos dimensiones, de tal forma que la primera fila de puntos se corresponde con los números naturales, la segunda fila con las mitades (números con 2 en el denominador), la tercera fila con los tercios (números con 3 en el denominador), la cuarta con los cuartos (números con 4 en el denominador), y así sucesivamente, aumentando el numerador en cada fila de izquierda a derecha. En esta retícula infinita se encuentran todos los números racionales, y así por ejemplo la fracción 5/6 se halla en la sexta fila, quinta columna; y otro tanto para cualquiera otra fracción que nos imaginemos. Ahora, supongamos que siguiendo una serie de trayectorias diagonales en zig-zag recorremos esta retícula y estiramos dichas trayectorias según una alineación recta, quedando todos los números racionales colocados en esa fila resultado del desdoblamiento de todas esas trayectorias oblicuas. Entonces, es claro que podemos numerar cada una de las fracciones con un número natural, ya que a cada uno de esos puntos alineados podemos colocarle al lado un natural. Por lo tanto, aunque de entrada parecía todo lo contrario, el conjunto de los números naturales y el conjunto de los números racionales, que tienen ambos cardinalidad transfinita, son recíprocamente biyectivos (sus elementos están en relación uno a uno), y poseen la misma cardinalidad. Cantor denotó este número cardinal como aleph sub-cero (no incluyo aquí el símbolo, pero la letra aleph es la primera en el alfabeto hebreo, y es parecida a una x mayúscula). Pero Cantor no se detuvo aquí, ni muchísimo menos, sino que pasó a considerar el conjunto infinito de los números reales con infinitos decimales, y lo que primero se preguntó es si este conjunto posee el mismo cardinal que el conjunto de los números naturales (equivalentemente, que el conjunto de los racionales). Y para demostrar que ambos cardinales transfinitos son diferentes, siendo mayor el de los números con infinitos decimales, utilizó un interesante e ingenioso argumento, que desde entonces se ha llamado diagonalización de Cantor, y que también usó Alan M. Turing en su trabajo sobre los números computables y el problema de la decisión. En esencia el argumento consiste en lo siguiente: supongamos que tenemos una lista (infinita) con todos los números con infinitos decimales posibles, de tal forma que a la izquierda de cada número colocamos un número natural para indicar el puesto que ocupa el número decimal en la lista, esto es, suponiendo implícitamente que el conjunto de número decimales y el conjunto de números naturales poseen la misma cardinalidad. Hagamos ahora lo siguiente: al primer decimal del primer número de la lista lo cambiamos por otra cifra distinta, al segundo decimal del segundo número de la lista lo cambiamos también por otra cifra distinto, y repitamos este proceder para todos los números que hay en la lista (¡nunca jamás terminaríamos de hacer tal cosa, pero ello no significa que no podamos imaginarlo!). Si reflexionamos un rato, fácilmente nos daremos cuenta que el número decimal así construido con los sucesivos nuevos decimales que hemos usado, no está en la lista inicial de tamaño infinito numerable propuesta, por lo que se colige que necesariamente existen más números reales que naturales o racionales, y así hemos llegado a la conclusión de que existe otro número cardinal transfinito, que Cantor denotó por aleph sub-uno, y que se corresponde con la cardinalidad del conjunto de los números reales, que es estrictamente mayor que aleph sub-cero, o cardinal de los naturales. Y dado que no es difícil establecer una biyección entre un intervalo cualquiera de la recta real con el conjunto de los números reales, también se puede ver que la cardinalidad de cualquier intervalo es igual a la del conjunto del que forma parte de los números reales, e igual por tanto a aleph sub-uno (tienen el mismo tamaño). Parece algo extraño, desde luego, pero es verdadero, y Cantor tuvo que asombrarse bastante con sus novedosos razonamientos. Y aún más, si consideramos cualquier intervalo N-dimensional, formado por el producto cartesiano de N intervales 1-dimensionales, también es fácil ver, asombrosamente y en contra de lo que en principio dictaría la intuición, que es biyectivo con un intervalo 1-dimensional, y por tanto de cardinalidad transfinita igual a aleph sub-uno. Entonces tenemos de momento dos grados de infinito, el de los números naturales, y el mayor de los números reales, que implica que en la recta real existen más números irracionales que racionales (son en realidad muchos más) ya que ya se vio que los números fraccionarios son numerables, mientras que el conjunto de los reales, formado por los fraccionarios y los irracionales, no lo son. La pregunta que se formuló entonces Georg Cantor es si existen otros cardinales transfinitos o grados de infinitud mayores que los dos hallados. Y para contestar a esta pregunta, Cantor consideró, dado un conjunto cualquiera, el conjunto formado por todas las partes posibles de ese conjunto de partida, teniendo en cuenta las partes triviales igual al conjunto vacío y al conjunto total. Para un conjunto discreto, el cardinal o número de elementos del conjunto formado por las partes del de partida es igual, como fácilmente se comprueba, a 2 elevado al cardinal de dicho conjunto de partida. Así pues, el cardinal del conjunto de partes de un conjunto es estrictamente mayor al cardinal de dicho conjunto. Si ahora hacemos que el conjunto original tenga cardinalidad transfinita, hemos encontrado una manera práctica de hallar un conjunto transfinito de mayor tamaño, que es el conjunto formado por las partes del inicial. Por lo tanto, tenemos una sucesión infinita de cardinales transfinitos, que empieza con aleph sub-cero, seguido del cardinal del conjunto formado por las partes del conjunto de cardinal aleph sub-cero, que tiene cardinalidad aleph sub-uno, al que sigue el cardinal del conjunto formado por las partes del conjunto formado por las partes del conjunto de cardinalidad aleph sub-cero, que tiene cardinalidad aleph sub-dos, y así sucesivamente.

Pero entonces a Cantor se le planteó una duda “existencial”, que formalmente pasaría a ser conocida como hipótesis del continuo, y que lo tuvo infructuosamente ocupado el resto de su vida. Y esa duda consiste en saber si existe algún conjunto infinito cuyo cardinal sea estrictamente mayor que el cardinal de los números naturales aleph sub-cero y a la vez estrictamente menor que el cardinal mayor de los números reales con infinitos decimales aleph sub-uno. La hipótesis del continuo afirma que tal conjunto no existe, y requería de la búsqueda de un contraejemplo o de su demostración directa, para poder así afirmar su falsedad o veracidad respectivamente. Este problema fue enunciado por David Hilbert en su famosa conferencia de 1900 como uno de los problemas matemáticos abiertos a la espera de solución para las matemáticas modernas. Era el primero de su famosa lista de 23 problemas de gran dificultad que han tenido bien ocupadas a algunas de las mayores mentes matemáticas del siglo XX; y un puñado de los cuales aún no se han resuelto (la hipótesis de Riemann entre ellos, el santo Grial de la teoría de números; o la axiomatización de la física, tampoco aún no conclusa), habiéndose resuelto no obstante una gran cantidad de ellos (como por ejemplo el problema de la existencia de un procedimiento general para saber si una ecuación diofántica tiene soluciones enteras o no, resuelto en dos fases: primera mediante el enunciado de la hipótesis de Julia Robinson y sus colaboradores, y segunda mediante los trabajos del matemático ruso Yuri Matiyasévich; o el problema de la conjetura de Poincaré, la cual ya es un teorema desde la intervención del “medallista” Fields Grigori Perelman).

 

 

Y para resolver el primer problema de Hilbert, que tan absorto mantuvo sin éxito a Georg Cantor, hizo falta la intervención de dos astros de las matemáticas modernas; el primero de ellos, más conocido por su teorema de la incompletitud, el austríaco Kurt Gödel, quien en 1939 complementó el sistema axiomático de la teoría de conjuntos formado por los axiomas de Zermelo-Fraenkel, y el axioma de la elección, con la hipótesis del continuo como axioma independiente, para llegar a un sistema axiomático consistente; el segundo de ellos, el matemático norteamericano Paul J. Cohen, de ascendencia judía, que en 1963, complementó también el sistema axiomático Zermelo-Fraenkel, más axioma de elección, más negado de la hipótesis del continuo, para llegar también a un sistema consistente desde el punto de vista lógico. En consecuencia el problema de la hipótesis del continuo es indecidible. Es decir, se han construido dos mundos matemáticos diferentes, en uno de ellos existe un conjunto de cardinal transfinito comprendido entre aleph sub-cero y aleph sub-uno, y en el otro mundo no existe tal conjunto; y se dice entonces que el resultado depende de la hipótesis del continuo, que es un axioma independiente de la teoría de conjuntos que ha de considerarse o bien directamente o bien de forma negada como un axioma más, (algo al estilo del 5º postulado de Euclides de las paralelas y a su implicación en la existencia de geometrías no euclídeas perfectamente consistentes).

Y éste es el final de la historia, fue precisa primero la originalidad de Georg Cantor para desentrañar el tan escurridizo misterio del infinito en acto, y la tenacidad y el ingenio de Gödel y de Cohen para completar la panorámica en su totalidad. Una buena muestra de que las matemáticas son un terreno eternamente cambiante y perfeccionista, que no admite huecos vacíos en sus argumentaciones, tárdese lo que se tarde en cubrirlos. Hay un millón de dólares y una entrada para el Monte Olimpo de la Ciencia, esperando a quien resuelva el problema de la hipótesis Riemann, uno de los problemas de Hilbert aún abiertos. La distribución de los números primos es de enorme importancia, tanto teórica como prácticamente, no sólo por la motivación de saber por saber, sino además por sus implicaciones en la criptografía RSA, con la que se protegen nuestros números de tarjetas de débito/crédito en las transacciones comerciales por Internet. El matemático Bernhard Riemann dedujo una ecuación que relaciona la función compleja meromorfa zeta (conocida como función zeta de Riemann) con la cantidad de números primos menores que un número natural dado. Así pues, existe una conexión entre la función zeta de Riemann y la teoría de números, y un conocimiento del emplazamiento de los ceros y polos de zeta en el plano complejo arrojaría luz sobre la distribución de los números primos. La hipótesis de Riemann establece que todos los ceros no triviales de dicha función tienen parte real igual a 1/2. Por métodos computacionales no se han encontrado todavía contraejemplos a esta conjetura. Pero ésto no basta, puesto que se trata de saber con certeza si este comportamiento se produce para absolutamente todos los ceros no triviales, que son infinitos. La demostración o refutación de la hipótesis de Riemann es tal vez el problema matemático abierto en la actualidad de mayor relevancia. Personalmente no me gustaría morir viendo que ese problema se mantiene sin solución. Me gustaría que en alguno de los próximos años venideros de esta época en la que nos ha tocado vivir, en la que el Dios Dinero es el que marca los tiempos, los trabajos, el funcionamiento de la sociedad, y las preocupaciones diarias, con una crisis económica que se extiende como una telaraña por las naciones; y con asignación de escasos fondos para la investigación; hiciese acto de presencia de repente una persona de naturaleza extraordinaria, que al puro y clásico estilo romántico de esta ciencia democrática que es la matemática, resolviese este problema y nos sorprendiera a todos. Quién sabe. A lo mejor ese iluminado ya ha nacido y se halla ahora ocupado en sus cotidianos quehaceres, ajeno a la que será la contribución de su vida y del siglo a las matemáticas.

Las imágenes presentadas en esta entrada se corresponden, por este orden, con las fotografías de Georg Cantor, Kurt Gödel y Paul Cohen.

 

Anuncios

Modelos matemáticos en la demografía de las especies

 

 

Coincidiendo prácticamente con los comienzos del siglo XX se vio nacer una nueva disciplina científica, la biología matemática, ciencia en la cual se ha tratado y se trata de aúnar el conocimiento propio de ambas ramas, con el objeto de establecer modelos que expliquen lo más finamente posible la realidad de la vida. Tanto los físicos como los matemáticos vieron en la biología una serie abrumadora de fenómenos que eran tratables con el lenguaje abstracto de la matemática.

Mucho antes del siglo pasado, a finales del siglo XVIII, el conocido economista Thomas Malthus, que fue posteriormente una fuente de inspiración para el biólogo Charles Darwin, estudió el crecimiento demográfico de las poblaciones y advirtió que si la naturaleza no proveía de algún sistema de control de la población, la vida en nuestro planeta sucumbiría. Precisamente fue ahí donde entró Darwin más tarde identificando a la selección natural como el mecanismo regulador que en cierto modo limita las poblaciones vivas. El razonamiento de Malthus era en cierto modo sencillo pero totalmente lógico, aunque también con limitación de miras. Dada una especie animal que se alimenta de otra especie vegetal, pongamos por caso el ratón y el trigo, se verifica que la cantidad de trigo que se puede producir en cada temporada en un cierto terreno crece aritméticamente con el paso de las generaciones, dado que la superficie de terreno es siempre la misma. Esto es, en la primera generación se producirá por ejemplo x metros cúbicos de trigo. Tras la segunda generación habrá x + x = 2x metros cúbicos de trigo, y en general tras n generaciones habrá nx metros cúbicos de trigo, todo ésto abstrayéndonos de la presencia humana, esto es, suponiendo que no hay consumo del trigo por ningún otro ser que fueran los ratones. Sin embargo la población de ratones en ese escenario hipotético no crece aritméticamente sino exponencialmente, puesto que se puede suponer, simplificando las cosas, que un individuo típico aporta en la unidad de tiempo una cierta cantidad de ratones r a la población (número que puede ser fraccionario, y que representa el valor medio de lo aportado en la unidad de tiempo per cápita), cuyo valor se identificaría con la tasa de natalidad. Ésta ecuación diferencial tiene como solución una función exponencial del tiempo, en la que participa el parámetro r. Así pues, aunque la cantidad de trigo que se poseería en una generación sería grande, la población de ratones crecería mucho más rápido, con lo cual en un principio, si aislamos del resto del planeta estas dos especies, llegaría un momento en que se agotaría el alimento y ambas especies dejarían de existir.

Ahora bien, este tipo de crecimiento demográfico exponencial, que también se conoce como malthusiano, es en realidad una aproximación grotesca de la realidad, independientemente de que el mundo no está formado sólo por dos especies vivas. En realidad existe un límite al crecimiento demográfico de una especie, que viene dado por las limitaciones de espacio o nutrientes o por la presencia de otros predadores, y ese límite es conocido como capacidad de carga o de soporte de la especie. En términos matemáticos diríamos que el crecimiento malthusiano viene dado por una ecuación diferencial de la forma y’ = k.y, esto es la tasa de cambio de la especie es proporcional a la cantidad de miembros que tiene esa especie en ese momento, y cuya solución es una función exponencial del tiempo. Pero el crecimiento real, cuyo estudio fue acometido por Pierre Francois Verhulst, se modela según otra ecuación diferencial de la forma y’ = k.y.(C-y), donde la constante C es la capacidad de carga o valor límite de la población. Esta ecuación expresa que la tasa de cambio es no sólo proporcional a la cantidad de individuos, sino que es menor también cuanto más próxima sea esa cantidad de individuos a la capacidad de carga, porque cada vez hay menos espacio o nutrientes para ellos o porque otra especie predadora los limita numéricamente. La solución de esta ecuación diferencial es la denominada ecuación o ley logística, que se rige por la expresión y = Cy0 / (y0 + (C-y0)exp(-kt)), donde el valor y0 es la cantidad de individuos en el instante inicial.

Pero, como es lógico, no tiene sentido aislar dos especies apartándolas del resto del mundo, puesto que éste presenta relaciones recíprocas entre todas las especies, sean de una naturaleza o de otra.

Ya en el siglo XX entraron en escena dos matemáticos para mejorar los estudios de Malthus y de Verlhust, y éstos fueron Vito Volterra y Alfred Lotka, aportando dos modelos que explican mucho mejor las interacciones de pares de especies predador-presa o bien predador-predador competidor. Históricamente para ejemplificar estos modelos se utilizan en el caso del modelo predador-presa a la relación entre lobos y conejos. Si las poblaciones de lobos y conejos estuviesen aisladas los lobos no podrían alimentarse de los conejos, con lo cual la población de lobos decrecería según una ecuación x’ = -l.x, que es de tipo malthusiano. Por otra parte los conejos seguirían una tasa de crecimiento también malthusiana pero de signo contrario, esto es : y’ = c.y. En estas dos ecuaciones los valores l y c son respectivamente las tasas de muerte y de natalidad de lobos y conejos.

Sin embargo, si ambas especies, lobos y conejos, coexisten en un determinado biotopo, estas ecuaciones no serán válidas, porque ambas especies interactuarán entre sí, y de este modo, podemos decir que, debido al encuentro entre predadores y presas, a la anterior tasa de crecimiento de lobos habremos de sumar un término debido al hecho de que ciertos lobos cacen ciertos conejos, y que será mayor cuanto más lobos y conejos haya, puesto que en esa situación más fácil será que se encuentren entre sí, y además el signo de este término será positivo, dado que significará que los lobos aumentan su cantidad por el hecho de encontrarse con conejos que capturan, por lo que pueden seguir viviendo y reproduciéndose. Así pues, la tasa de crecimiento de los lobos quedará x’ = -l.x + r.x.y, siendo r un parámetro de la ecuación, como también lo era l, y que en este caso representa la facilidad con que los lobos cazan los conejos y su repercusión en la mayor reproducción consecuente. De esta forma, la especie predadora de este caso, la lobuna especie, en vez de extinguirse tendrá al menos posibilidad de tener cierto crecimiento. Por otra parte, para el caso de la tasa de crecimiento de los conejos, y por el mismo motivo que el que causó el anterior término r.x.y, habrá de restarse al crecimiento malthusiano original de los conejos un término que será proporcional a la facilidad de encontrarse lobos y conejos y que tendrá signo negativo, de modo que la segunda ecuación diferencial será de la forma y’ = c.y – s.x.y. Estas dos ecuaciones diferenciales, dependientes de los parámetros l, r, c y s, son dos ecuaciones diferenciales que están acopladas, y si resolvemos este sistema obtenemos una cantidad oscilante de lobos y conejos, de manera que si representamos en el plano XY, para el eje de abscisas la cantidad de conejos y para el eje de ordenadas la cantidad de lobos aparecerán las “curvas isoparamétricas” a las que tienden la evolución de predadores y de presas, y que en este caso tienen la forma de curvas cerradas con “radios” diferentes y que tienen su punto “central” en la situación de equilibrio ideal que correspondería a la no variación ni de la cantidad de presas ni de predadores. Al variar los parámetros obtenemos distintos ciclos cerrados en dicho plano conejos-lobos, y la evolución temporal de ambas especies sigue una de esas curvas. Los parámetros para cada modelización particular habrán de ser obtenidos por métodos empírico-estadísticos, pero en general se puede decir, de modo intuitivo, que el número de predadores aumentará si disponen de gran cantidad de presas, pero al irse consumiendo éstas el número de predadores disminuirá, con lo cual aquéllas aumentarán su número, aumentando de nuevo el de predadores. La solución es, pues, cíclica, salvo que estemos en una condición de equilibrio en el ecosistema para todas las generaciones, la cual es improbable. Es decir, existen curvas isoparamétricas para cada sistema de ecuaciones diferencial, en las que yacerían las series de valores temporales, también llamadas órbitas, de todas las variables involucradas. Y esto no sólo se aplica a las ecuaciones de Lotka-Volterra de predador-presa sino a cualquier modelo no lineal en el que intervengan ecuaciones diferenciales no lineales. Un ejemplo de esto es el modelo climático de Lorentz, desarrollado en el siglo XX. Para elaborar este modelo, Lorentz estableció, en su forma o versión simplificada, las tres ecuaciones diferenciales que fijan la tasa de cambio de cada de las tres variables de posición de una molécula en un fluido (por ejemplo una molécula de de agua en la atmósfera). Y se ayudó de algunos parámetros. La solución del sistema diferencial de tres ecuaciones de Lorentz da lugar a una órbita que tiende a un atractor, que se denomina “el atractor extraño de Lorentz” y que tiene forma de ochos acostados enlazados cada uno con el siguiente.

Pero Lotka y Volterra desarrollaron además otro par de ecuaciones diferenciales que dan lugar al modelo de competencia entre especies de un mismo biotopo. Este modelo se aplica a dos especies que compiten por un recurso o presa común, y en las que aparece crecimiento logístico, y ese crecimiento ha de ser forzosamente logístico porque los recursos por los que compiten ambas especies son limitados. Las ecuaciones diferenciales son gemelas para cada uno de los competidores y tienen la forma : x’ = k.x.((C-x-r.y)/C), siendo k la constante de crecimiento malthusiano, C la capacidad de carga para la expecie x y r un factor que establece la interacción con la especie competidora. Habría una ecuación diferencial análoga para la otra especie, con parámetros análogos pero con otro nombre, y de la resolución de ambas ecuaciones obtendríamos unas órbitas en el plano XY sobre las que yacerían las series temporales de ambas especies.

Todo lo que aquí se ha descrito para dos especies puede ser ampliado para un número mayor de especies y así se construirían modelos aplicables a ecosistemas simplificados con un número limitado de especies que darían lugar, en el espacio de tantas dimensiones como distintos tipos de seres interactuando, a distintas órbitas donde se situaría la evolución en el espacio de fase de las series temporales de todas las especies.

En cuanto a la resolución de los sistemas de ecuaciones diferenciales que modelan a la naturaleza, existen básicamente dos formas de acometerla de acuerdo con las herramientas de que nos provee la matemática. Una de ellas es la disciplina de resolución de ecuaciones diferenciales y la otra es el análisis numérico. La primera de las dos emplea métodos concretos de cálculo para transformar cada ecuación y/o para resolverlas analíticamente. La segunda herramienta son los métodos numéricos basados en diferencias finitas o en diferencias divididas y que aproximan las derivadas por diferencias escaladas entre valores próximos de cada variable, y mediante el cálculo por computadora se obtienen directamente las series temporales. Ejemplos de este tipo de cálculo serían los métodos de Runge-Kutta y de Euler.

En la imagen superior se representan las curvas isoparamétricas de la solución del modelo predador-presa y en la imagen inferior se representa el atractor extraño de Lorentz.

 

 

El cifrado César y la aritmética modular

 

 

 

Desde la antigüedad se cultivaron los métodos de cifrado y descifrado de mensajes, ya que era de vital importancia que algunas informaciones relevantes llegaran a manos de un destinatario del mismo bando, sobre todo en épocas de guerra, cuando el líder de las tropas necesitaba comunicarse mediante un mensajero con cada uno de los corresponsales de los diversos destacamentos. Así pues, era preciso un convenio para el cifrado y después para el descifrado. Los mensajes podían cifrarse por sustitución –sustituyendo cada letra original por otra letra o símbolo que le correspondía-, o bien por trasposición. El cifrado por trasposición consistía en alterar el orden de las letras del mensaje. Ya en la antigüedad clásica se usaba la escítala, que no era otra cosa que una vara de cierto diámetro convenido entre emisor y receptor. Se enrollaba una tira de papel alrededor de la escítala y se escribía el mensaje sobre líneas consecutivas en el papel enrollado. Cuando se desenrollaba dicho papel aparecía un galimatías de letras –las letras del mensaje-, en el cual el orden de las letras había sido totalmente violado. Pero cuando este papel era vuelto a enrollar en una vara de idéntico diámetro aparecía el mensaje perfectamente legible.

Por lo que se refiere a los métodos de sustitución, existe constancia de que uno de los primeros algoritmos de sustitución fue el cifrado de Polibio, aunque aproximadamente 50 años después, el propio Julio César hacía uso de uno bastante simple, que pasó a ser llamado cifrado César. Este cifrado consiste en establecer una clave común a emisor y receptor, que era un número, y dada una letra a cifrar se desplazaban en el alfabeto tantas posiciones como indicaba el número y se tomaba la letra de esa posición final como carácter cifrado. Para el descifrado podía usarse un rectángulo de cartón en el que estuviesen en orden las letras del alfabeto, por debajo de las cuales se podía deslizar una tira con dos alfabetos consecutivos, y así al mover la tira inferior una cantidad de caracteres igual al número clave, se ponían en correspondencia el alfabeto sin cifrar con el cifrado.

Entre el cifrado César y la aritmética modular –o “aritmética del reloj”- hay una correspondencia clara. La aritmética modular, que es una de las bases del actual sistema de encriptación Rivest-Shamir-Adellman (RSA) utilizado para cifrar y firmar digitalmente la información privada en las comunicaciones de Internet, se basa en atribuir la equivalencia entre un número menor que el tope numérico que consideremos al resultado de efectuar cualquier número entero de pasadas al ciclo que va desde 1 hasta el tope (que en un reloj sería el número 12) más los avances hacia el número considerado. Por ejemplo, podemos decir que las 4 horas equivalen a las 16 horas o a las 28 horas, si damos respectivamente 1 y 2 vueltas al reloj y contamos 4 unidades más. La arimética modular viene a darnos equivalencias basadas en un ciclo que se repite y que es rebasado en la última vuelta la misma cantidad de posiciones que las del carácter a cifrar. Escrito matemáticamente, de una forma rigurosa, se dice que 16 es congruente con 4 en módulo 12, o que 28 es también congruente con 4 en módulo 12. Esta misma forma de razonar la podemos emplear con medidas angulares, diciendo por ejemplo que 380 es congruente con 20 en módulo 360.

De esta manera el cifrado César se puede expresar mediante una fórmula matemática del siguiente modo. Si llamamos C(x) al ordinal de la letra cifrada y a x el ordinal de la letra sin cifrar, y si consideramos una aritmética modular módulo 27 (el número de letras del alfabeto), se puede escribir :

C(x) = (x + k) (módulo 27), donde k es la clave empleada.

Por ejemplo, si la clave es 3, el carácter de ordinal 4, que sería la letra E (se empieza a contar con 0 para el primer carácter) quedará cifrado mediante el carácter de ordinal 7, que sería la letra H. Pero la clave k puede ser todo lo grande que queramos. Así, por ejemplo, si k es igual a 58, el carácter de ordinal 4 (letra E) sería cifrado por el carácter de ordinal 4 + 58 (módulo 27), que es el ordinal 8 (letra I).

Para el desciframiento también podemos usar una fórmula, que sería de la forma O(c) = (c – k) (módulo 27). Ésta sería la fórmula inversa a la anterior, que nos permitiría conocer el ordinal del carácter original a partir del cifrado c.

En principio el cifrado César no sería difícil de romper, si nos basamos en análisis de frecuencia, pero podríamos complicarlo algo más si utilizamos el conocido como cifrado afín, que responde a la fórmula :

C(x) = (ax + b) (módulo 27), siendo a y b dos números menores que el número de caracteres del alfabeto. Para que un carácter fuese cifrable unívocamente mediante este esquema, sería preciso que el mcd(a, b) fuese 1, esto es, que a y b fuesen coprimos.

¿Por qué es más potente el cifrado afín que el cifrado César original?. Pues la razón estriba en que ahora hay dos claves para el cifrado, que son los números a y b, mientras que antes sólo había 1 número clave (k). El número de claves distintas para el cifrado afín será igual a la cantidad de 26 x 26 para un alfabeto de 27 letras, mientras que el número de claves para el cifrado César sería sólo de 26. Es decir, hay una notoria mejoría a favor del cifrador, puesto que existen más claves potenciales con las cuales practicaría un hipotético interceptor del mensaje hasta dar con el mensaje descifrado siguiendo la filosofía afin. Aún así, ninguna de las dos formas de encriptación es invulnerable, basta con emplear fuerza bruta para romperlas.

En la imagen superior se observa una representación de la forma de cifrado por trasposición mediante escítala. En la imagen inferior, un busto de Julio César.

 

  

El gran diseño, el libro polémico de Stephen Hawking y Leonard Mlodinow

 

 

Hace cosa de dos o tres meses salió al mercado el último libro de Stephen Hawking, con Leonard Mlodinow como coautor. Se trata del libro de divulgación científica “El gran diseño”, y vino acompañado de una gran polémica a escala mundial, aún cuando todavía estaba en las imprentas. Se crearon foros en Internet, los blogs recogían comentarios todos los días, los humanos de todo el mundo esgrimían su más elaborada argumentación para defender su postura personal, a veces había insultos y prepotencia, tanto los religiosos como los ateos se salían de sus casillas. Es natural, es el tema que siempre ha generado más polémica sobre la faz de la Tierra, desde que el mundo es mundo, ha habido guerras santas, abusos de la Iglesia, y también ahora empieza a haber abusos de los no religiosos, que en principio no tienen derecho a privar a nadie de su forma propia de pensar –siempre y cuando no sea de tipo coercitivo, en cuyo caso sí deben tomar medidas-, las ansias de poder han manipulado el libre albedrío y el libre pensamiento de los hombres durante la mayor parte de la historia, pero si los ateos como yo imitamos ahora la forma bárbara con la que la Iglesia se ha manejado como estamento político, en principio no estamos demostrando librepensamiento sino todo lo contrario, que es una dictadura, ni estamos comportándonos dando ejemplo de la buena conducta de la que dicho estamento no hizo gala.

La imparcialidad jamás ha existido. Por mucho que nos abstraigamos de nuestros propios sentimientos a la hora de hablar, siempre, absolutamente siempre, se deja entrever cuál es nuestra verdadera postura ante cualquier tema de discusión. Y esto en realidad es algo fenomenal, puesto que lo contrario indicaría que hemos dejado de ser hombres para convertirnos en máquinas de cálculo. La Naturaleza nos concede al nacer unas cualidades, que en parte son modelables después con nuestra interacción con ella, como prueba el hecho de la epigénesis recién confirmada por la Ciencia. Así pues, aunque en un principio podría parecer que todo nos viene impuesto por Dios (o el Universo para los panteístas como yo), sin embargo ésta no es la realidad, ya que los seres humanos hacemos uso –siempre que nos dejan, claro está, los demás humanos- de nuestro libre albedrío. En principio el futuro es una ilusión que podemos formar en nuestra mente, nosotros sólo notamos el fluir del tiempo por la sucesión de pensamientos que aparecen en nuestro cerebro y por los actos de ellos derivados, con su cronología y orden inherentes, pero las cosas inanimadas están quietas y las cosas móviles se mueven y nosotros no advertimos como se oxidan y deterioran sus moléculas y las nuestras, sólo viendo los cambios que se producen en un reloj o en algún objeto que nos sirva como tal, podemos darnos cuenta de que el tiempo fluye. La gente habla de objetivos y de futuro, de cómo nos irán las cosas y si tendremos suerte. Yo creo que el futuro y el pasado no existen, sino que sólo existe presente, si rememoramos cosas que nos han pasado en épocas anteriores, las seguimos rememorando en tiempo continuo, si nos imaginamos qué haremos dentro de exactamente veinte años también lo estaremos pensando ahora. Por lo tanto, creo muy firmemente en el libre albedrío. Los animales con cierta consciencia e inteligencia tomamos decisiones en nuestro presente. En el momento de tomarlas no sabemos si serán decisiones acertadas o no, a veces las decidimos tirando un dado y otras veces en base a nuestra intuición, sus resultados los conoceremos cuando haya pasado algún tiempo y veamos si la decisión nos reportó beneficios materiales o emocionales o no. La vida es un gran árbol, cuya raíz empieza en nuestro nacimiento y que se va bifurcando a medida que tomamos decisiones. Así pues, los hombres no sólo dependemos de fuerzas extrañas a nosotros, lo que se llamó y sigue llamando Providencia o Dios o Universo, también elegimos nuestro camino en la vida. La idea de Dios surgió como una explicación mística de lo desconocido, pero no una explicación lógica ante los ojos de nuestro limitado cerebro y forma de sentir. Decir que hay una causa primera de todo, que existe desde siempre y que es Dios, es en principio tan absurdo o tan lógico como decir que el Universo existe desde el principio de los tiempos. El Dios en el que creo, que se identifica con el devenir del Universo, es un dios más allá del bien y el mal. Estos dos conceptos, el bien y el mal, solamente residen detrás de nuestras frentes, como todo lo que somos como personas, fuera de nosotros no veo ningún ser que opere basándose en distintas gradaciones de lo que es malo o menos malo o bueno, somos nosotros los que atribuímos a diferentes sucesos el calificativo de bueno o positivo o de malo o negativo. Los Mandamientos de la Ley de Dios son en esencia unos consejos razonables dictaminados por el sentido común que podemos aplicar por imposición cuando todavía no hemos desarrollado nuestro propio código ético personal. Así, hay algo bueno en la religión, con independencia de que los creyentes suelen tener menos miedo a la muerte. Las criaturas vivas que pueblan la Tierra, las que carecen de inteligencia, son seres que no saben distinguir si una cosa es buena o mala, sólo se comportan mediante el empleo de instintos heredados que pervivieron gracias a la selección natural y que muy probablemente fueron adquiridos gracias al concurso del azar. Se me ocurre ahora un ejemplo de esto, por mi afición por la ornitología. El mirlo común (Turdus Merula) es un pájaro de la familia de los Túrdidos, con un canto muy aflautado y agradable, y que suele resonar en nuestros campos cuando para de llover, como si al haberse mojado le entraran las ganas de cantar. El mirlo construye nidos de tamaño proporcionado a sus propias dimensiones físicas, empleando barro para cohesionar las ramitas, a modo de cemento. Qué maravilloso misterio reside en el comportamiento de los pájaros. Las aves se cortejan y construyen un nido, y nunca o casi nunca se apartan de las costumbres propias de su especie, esas costumbres sirven incluso para identificarlas. En las épocas de migración, se reúnen en grandes bandadas, y siguen a un líder. La dinámica de las grandes bandadas sería digna de un interesante estudio matemático. Pero siguiendo con lo que comentaba, … ¿quién le dice al mirlo que debe usar barro para cohesionar el nido?¿Lo ha aprendido?. En realidad yo creo que en parte lo ha aprendido, que en parte lo ha heredado, y que en parte ha tenido suerte. Pienso que los ancestros de los mirlos en algún momento de su evolución biológica, por casualidad, dado que se alimentan de gusanos que suelen habitar el barro o la tierra mojada, arrastraron porque la Providencia así lo quiso una pequeña cantidad de tierra húmeda al nido que estaban construyendo, en el momento justo siguiente a su hora de la comida, y una vez en el nido en construcción, gracias al continuo pisoteo, apareció el milagro de que el nido tenía cohesión. Lo que sucedió después es que los mirlos –o ancestros de ellos- que hacían así sus nidos, obtenían ventaja, por ejemplo porque un nido fuerte no deja caer a sus inquilinos al suelo si éstos son pesados o revoltosos, y por tanto tienen mayores posibilidades de sobrevivir, y entonces entró de nuevo en acción la Providencia, que se encargó de seleccionar en cierto modo aquéllos especímenes que adquirieron tal costumbre dándoles mayores probabilidades de seguir perpetuando su especie. Hasta que la costumbre pasó a formar parte de la misma y quedó registrada de algún modo físico como distintas cadenas de nucleótidos formando genes en su biblioteca genética. Opino que la aparición de la inteligencia humana tuvo también mucho que ver con el azar y con la emergencia de buenas propiedades globales en sistemas complejos. La idea de la evolución de las especies por selección natural es la idea más poderosa, bella y a la vez simple que ha concebido una mente humana. Debió de sentirse muy orgulloso de ella Charles Darwin, uno de los genios indiscutibles de la humanidad, y debió de disfrutar muchísimo su concepción, lo tuvo que pasar verdaderamente en grande. No es para menos. Pero Darwin padeció en vida sentimientos encontrados por culpa de sus ideas, ya que su esposa Enma era una ferviente religiosa, y la concepción de una Naturaleza que se explica a sí misma mediante el concurso de sus leyes propias, sin la participación de ningún ente divino o sobrenatural, que supuso una Revolución Intelectual sin apenas precedentes, y que contradecía lo escrito en la Biblia, no era una idea al gusto de su mujer, como todavía no sigue siéndolo ahora para los seguidores del creacionismo y en general para muchos religiosos del mundo entero. En Estados Unidos no está permitido enseñar religión en los colegios. En su lugar se ha adoptado una solución de compromiso consistente en atribuir un diseño divino de naturaleza teleológica, esto es, orientada al fin, a todas las criaturas que pueblan el Mundo, que son como son porque Dios las diseñó así con un planteamiento “a objetivos”. Y esto es una mentira, a la luz de la Ciencia actual. Si queremos que la Verdad impere en el mundo no podemos consentir las falsedades, siempre y cuando esté claro cuál es la Verdad, existen opiniones científicas de expertos que concuerdan y que en principio pierden más que ganan por el hecho de contar falsedades, es para ellos mejor contar la Verdad. Detrás de la falsedad siempre hay un interés, normalmente para el beneficio de unos pocos. Así pues, el diseño inteligente, que en teoría genera órganos animales perfectos y perfectamente adaptados al empleo que se hace de ellos, cuya perfección no es tal (ojos que ven mal, oídos que no oyen ciertas bandas de frecuencia, …) es una mentira que no deberíamos asumir como cierta ni popularizar, y debería ser desterrada de la enseñanza, conservándola sólo a modo anecdótico.

Hasta ahora sólo me he limitado a introducir el tema de la pulsión continua entre Providencia y libre albedrío, según mi propia manera de pensar. Pero a continuación entraré ya de lleno en lo que realmente pretendía, que es hacer mi comentario y reflexión personal sobre el contenido del libro “El gran diseño”, que leí en estas Navidades. “El gran diseño” comienza con una remembranza sobre la mayor revolución que ha habido en el pensamiento humano, y que se desencadenó en una sociedad de artesanos y mercaderes de las islas occidentales de la actual Turquía, que en aquel momento pertenecían a Grecia, el archipiélago Jonio. Allí nació la idea del Cosmos, la grandiosa idea de que hay un orden en el Universo y que puede ser aprehendido por los hombres. Supuso el nacimiento de la Ciencia como tal. Prohombres como Tales de Mileto, Anaxágoras, Empédocles o Anaximandro pusieron en práctica esta concepción creando las primeras y rudimentarias formas de entender el mundo o teorías, y que en algunos casos estaban bien poco apartadas de la Verdad, como se supo mucho después. Algún tiempo más tarde apareció la teoría de epiciclos sobre deferentes del modelo geocéntrico de Ptolomeo. Tuvieron que pasar muchos siglos hasta que le surgiera una competidora, la teoría heliocéntrica de Copérnico, que ya había sido ideada por Aristarco de Samos en la época Jonia, pero que cayó en el olvido, como una gran cantidad del conocimiento albergado en la antigua Biblioteca de Alejandría. En el libro de Hawking se comentan en relación a este particular las diferentes doctrinas epistemológicas o de filosofía de la Ciencia que han sido tomadas en cuenta a lo largo de la historia. Así, Hawking y Mlodinow distinguen entre realismo o materialismo –cuando asumimos que existen en el Universo verdades indiscutibles que están ahí afuera esperando a que las descubramos-, idealismo –cuando mantenemos que nuestra posición de observadores pertenecientes al propio Universo condiciona que nuestra propia visión del mundo es genuina nuestra y que todo lo que pensamos sobre el exterior es en realidad producto de nuestra mente-, y una doctrina que es un poco una mezcolanza de las dos anteriores, que es el realismo dependiente del modelo –cuando pensamos que en principio pueden existir distintas formas o modelos de reflexión sobre los objetos y que en principio no tienen por qué ser unos verdaderos y los otros no, sino que por nuestra propia conveniencia nos puede interesar para según qué cosas el ver el mundo de cierta manera y según que otras de otra totalmente distinta-. En este punto los autores ponen como ejemplo la concepción propia del mundo exterior de un pez que habita en una pecera de cristal curvado. Para el pez los movimientos que nosotros vemos como líneas rectas serán líneas curvas. ¿Está el pez errado o lo estamos nosotros?¿Quién nos dice a nosotros que nuestros sentidos e instrumentos han de ser el patrón o vara de medida estándar?. Esto no es así. En principio ambas concepciones no tienen por qué no estar en pie de igualdad. Esta forma de pensar nos lleva a concluir que si tanto el modelo geocéntrico como el modelo heliocéntrico explicaran las retrogradaciones de los planetas errantes con igual grado de exactitud –cosa que podría suceder si sobre los epiciclos principales colocáramos otros epiciclos de menor tamaño y así sucesivamente, limando la incongruencia entre el modelo de Ptolomeo y las observaciones al máximo- en principio deberíamos asumir ambos modelos como válidos porque ambos explican la realidad de manera prácticamente exacta. El realismo dependiente del modelo se ha impuesto en la física actual. Así, podemos explicar la misma realidad de formas muy diferentes. El hecho de que la luz se comporte como una onda y también como un conjunto de partículas es un ejemplo. En el reino de las grandes masas y velocidades, a escalas macroscópicas, los especialistas utilizan la teoría de la relatividad general de Einstein. A escalas menores se usa la mecánica newtoniana como modelo, y de hecho funciona de maravilla a la hora de construir puentes o edificios, y a grandes velocidades y masas ésta no es tan exacta como la relatividad. A escala subatómica se utiliza la mecánica cuántica, que a pesar de ser muy poco intuitiva realiza predicciones asombrosas con un grado de precisión mayor que el de las otras teorías. Sin embargo ni las teorías de Einstein ni de Newton tienen nada correcto que decir cuando hablamos de partículas. Desde los años 50 del siglo pasado se evidenció un nacimiento de nuevas teorías, intentos de unificar las fuerzas de la naturaleza –fuerza gravitatoria, fuerza electromagnética, fuerza nuclear fuerte (responsable de la cohesión del núcleo atómico) y fuerza nuclear débil (responsable de la radiactividad)- en una sola teoría. Así, Richard Phillips Feynman, Tomonaga y Schwinger, recibieron conjuntamente el premio Nóbel de Física, por desarrollar de forma independiente unos de otros la primera de las teorías cuánticas de campos, más concretamente, la teoría de la electrodinámica cuántica, la cual explica mediante partículas de materia y mediante partículas de energía, y mediante sus interacciones recíprocas, los campos electromagnéticas. Después, años más tarde aparecieron otras diversas teorías cuánticas de campos, como la teoría electrodébil, que unifica el electromagnetismo con la fuerza de interacción débil, o la cromodinámica cuántica, una teoría cuántica de campos para la fuerza de interacción fuerte. Finalmente, a medida que pasó el tiempo, se fue afianzando la búsqueda de una teoría del Todo –ya Einstein la persiguió infructuosamente-, al que se le ha dado el nombre de Teoría M (quizás “M” de “Maestra”), y que todavía no se ha hallado. Actualmente, muchos científicos de todo el mundo opinan que la ansiada Teoría M se identifica con la Teoría de Cuerdas, una familia de distintos modelos del Universo que se aplican en distintos rangos de observación y que parte de la suposición de considerar las partículas no como puntos, sino como pequeñas cuerdas, cuyos distintos modos de vibración originan sus interacciones, ondas, o fuerzas que provocan. En realidad, existe una corriente de pensamiento muy popular en antagonismo con la Teoría de cuerdas, y que basa sus objeciones en los hechos poco afortunados de que hasta el momento no se ha contrastado empíricamente ninguna de las afirmaciones de tal teoría, así como en que existen variables en dicha teoría que se deben suponer con un valor concreto forzado para que sea coherente, o que el espacio está formado por 3 dimensiones extensas que se curvan en una cuarta, y muchas más –hasta 7 más- compactadas localmente a escala subatómica. Un conjunto de muchas peregrinas suposiciones. Pero existe la esperanza de que cada teoría de cuerdas particular, dentro de su gran familia, explique un rango del mundo observable.

Y entramos ya de lleno en el asunto principal del libro,… ¿es capaz el Universo de aparecer de la nada?¿Por qué hay algo en vez de nada?. Para responder a esta pregunta, Hawking y Mlodinow comienzan hablando del principio antrópico en cosmología. El principio antrópico viene a establecer que dado que es un hecho que estamos observando el Universo, también debe suceder que las leyes del mismo deben haber sido y de hecho son favorables a nuestra existencia, y esto nos da una vía para entender la historia del Universo de arriba hacia abajo, es decir, desde la actualidad hasta el Big Bang, en contra de la forma de abajo hacia arriba clásica. Para explicar su postura, los dos autores se auxilian del concepto de múltiples historias de partículas que aportó Richard Feynman a la física moderna, y que viene a dictaminar que dado un conjunto de partículas que co-evolucionan, si asociamos un número o fase a cada una de sus posibles historias temporales, aquellas historias que sean parecidas arrojarán números de fase muy similares y se sumarán sin apenas cancelaciones mutuas –entendiendo el número de fase como un número complejo de módulo unitario y de ángulo variable- dando lugar a un número complejo de gran módulo. Por lo tanto, aquellas historias que sean muy parecidas son las que arrojarán mayor probabilidad en la medida de su ocurrencia, pues dicho número complejo mide en realidad tal concepto, y de este modo la historia del universo puede ser entendida como aquel conjunto de historias de todas sus partículas que arrojan la mayor amplitud de probabilidad. Y llegados a este punto, los autores conciben el Big Bang como el resultado de una fluctuación cuántica que por “selección universal” sobrevivió y dio lugar a nuestro Universo actual, maximizándose de este modo la probabilidad de su historia. Algo así como cuando vemos burbujas en una botella de champán. Algunas se desintegran prácticamente de manera instantánea, pero existen otras que por sus condiciones físicas o leyes locales perviven y aumentan deshaciéndose un poco después.

Desconozco cómo ha empezado el Universo, yo no soy más que un aficionado a la Ciencia y un admirador de lo que ésta nos ha proporcionado, no creo que exista hoy en día ningún científico en realidad que conozca cómo empezó todo. Hay todavía muchas lagunas, algunas de las cuales a lo mejor resultan ser insalvables para nuestros medios de medida y para el intelecto humano. Aún así, reconozco que lo que proponen Hawking y Mlodinow –pues nadie puede quitarme mi derecho a opinar, aunque diga cosas que después no resulten ciertas- es una idea evocadora y bella, que no nos reduce a materia corriente del mismo modo que tampoco esto sucede cuando se reconoce que nuestros átomos fueron cocidos en los hornos estelares que después explotaron como supernovas. Si Darwin pudo abstraerse de la acción de divinidades para concebir y demostrar la realidad biológica sobre la faz de la Tierra, parece una extensión natural y completamente lógica el creer en un mundo autoexistente y evolucionante. Se trata de una gran idea. Pero podemos conciliar nuestra inquietud existencial con la ciencia. Podemos y debemos respetar a los que no piensan como nosotros. El respeto es la base de la convivencia, y la educación lo primero que se aprende en la escuela. Dios puede existir y puede estar en todas partes. Es un Dios que engendra las cosas más bellas y hermosas, como el gorjeo de un pájaro y la hermosura encarnada de una rosa, que escribe un libro infinito en cada brote resplandeciente de hierba, en cada árbol, en cada río, en nosotros mismos, somos los ojos de Dios, nos engendró para que se pudiese festejar a sí mismo, a veces son angustiosos sus designios, pero casi siempre esperanzadores, su único defecto es que no posee ética, pero para eso ya estamos sus hijos, los humanos. Esta grandiosa belleza que hay por todas partes, este orden matemático que subyace, son las manifestaciones de su poder infinito y de su eterno cariño. Porque Dios es Uno y Todo. Porque Dios es el Universo mismo.

 

El cifrado Vigenère y cómo lo rompió Charles Babbage

 

 

La forma más simple de cifrar un mensaje, esto es, de conseguir a partir del texto original otro texto encriptado con forma de galimatías según el cual quede expresado el texto inicial, ha sido, desde que existe la criptografía, el algoritmo de sustitución. Dicho algoritmo se basa en hacer corresponder a cada letra del texto llano otra letra o símbolo, de acuerdo con un convenio entre el emisor y el receptor del mensaje. Por lo tanto ambos deben poseer la tabla de equivalencias y aplicarla para cifrar y posteriormente descifrar el mensaje.

El problema del algoritmo de sustitución es que el mensaje encriptado es en cierto modo fácil de descifrar, aún no poseyendo la tabla de equivalencias. El método que se debe emplear para tal fin fue descrito por primera vez por un sabio nacido en Bagdad en el año 801, llamado Al-Kindi, y que se dedicaba a la astronomía, a la matemática y a la medicina, teniendo también intereses como lingüista. El método que este estudioso describió se conoce como análisis de frecuencias, y consiste en analizar un texto suficientemente grande en un determinado idioma y cuantificar en él la frecuencia de aparición de cada letra. Una vez obtenida esta estimación de lo probable que es la aparición de todas las letras, se puede aplicar este conocimiento para hacer suposiciones sobre los símbolos más frecuentes del texto cifrado, y una vez que éstos han sido asignados se siguen haciendo suposiciones sobre los restantes símbolos de dicho texto, teniendo en cuenta por ejemplo que lo más probable antes o después de una vocal es una consonante y otras apreciaciones en base al conocimiento de la lengua en la que fue redactado el mensaje llano, hasta llegar a un mensaje coherente semánticamente, que será el texto descifrado. El punto débil del algoritmo de sustitución simple que se ha descrito es que una determinada letra se sustituye siempre por el mismo símbolo, por lo que es evidente que las frecuencias de las letras originales, que son similares aproximadamente al del alfabeto de que proceden en el contexto de la lengua utilizada, coinciden con las frecuencias de los símbolos cifrados, y es éste el tendón de Aquiles que aprovecha el análisis de frecuencias.

En criptografía ha habido siempre una lucha sin cuartel entre cifradores y descifradores. Los primeros han intentado con el paso de los siglos perfeccionar los métodos de cifrado hasta aproximarse a un encriptado perfecto. Los segundos han hecho acopio de verdadero ingenio para lograr métodos eficientes a la hora de echar por tierra el trabajo de los primeros. Así pues, el caso de la simplicidad del algoritmo de sustitución y de lo sencillamente que se vino abajo no fue una excepción.

 

 

La solución criptográfica al uso del análisis de frecuencias por parte de los descifradores vino por cuenta de un genio del Renacimiento, el polifacético Leon Battista Alberti, más conocido en sus facetas de arquitecto, matemático y teórico de la perspectiva. Su aportación quedó en el olvido por no escribir ningún tratado sobre la misma, pero fue posteriormente desarrollada por dos académicos llamados Blaise de Vigenère y Johannes Trithemius. Esta aportación se conoce con el nombre de cifrado polialfabético y consiste en utilizar el mismo alfabeto de sustitución para letras cuyo ordinal en el mensaje difiere en la longitud de una palabra utilizada como clave y diferentes alfabetos de sustitución para letras que no cumplen esa propiedad, estando cada alfabeto de sustitución determinado por cada letra de la palabra clave. Así pues, la cifra Vigenère consiste en escribir el mensaje llano sin cifrar y colocar encima de cada letra, en orden sucesivo, las letras de la palabra clave, repitiendo dicha operación deslizando dicha palabra clave una y otra vez hasta cubrir todo el mensaje. A continuación para cada letra de la palabra clave se consulta su alfabeto de sustitución correspondiente y se codifica la letra original como el sustituto para ella hallado en el alfabeto de sustitución parejo a la letra clave empleada. De este modo se obtiene un galimatías ciertamente bastante más robusto que si se emplease sustitución simple.

Pero,…,¿es factible el romper este esquema de cifrado?. El cifrado Vigenère fue inexpugnable durante casi dos siglos, pero allá por el año 1854, uno de los pioneros del cálculo automático, sobre el que escribí un artículo en esta web, Charles Babbage, logró encontrar un método operativo para romper el cifrado Vigenère, aunque no publicó nunca sus resultados, siendo identificada su primicia mucho tiempo después al revisar sus notas.

¿Qué medio se le ocurrió a Babbage para esta tarea? Charles Babbage partió de que el número de letras de la palabra clave empleada determinaba el número de distintos alfabetos de sustitución usados. De esta manera, si por ejemplo dicha longitud era de cinco letras, ello significaba que cada carácter del mensaje original podía quedar cifrado de cinco maneras diferentes. Así pues, el primer paso a llevar a cabo era el determinar la longitud de la palabra clave. Suponiendo que se tenía un texto cifrado lo suficientemente largo, dicho primer paso se acometía aprovechando aquellas palabras que se cifraban de igual manera en el texto, me refiero por ejemplo a artículos o pronombres. Estas palabras aparecen cifradas con la misma equivalencia a lo largo del texto cuando los ordinales de sus letras constituyentes difieren en un múltiplo de la longitud de la palabra clave. De esta manera, viendo las palabras (cifradas) repetidas, determinando la diferencia entre los ordinales de sus letras en relación al inicio del texto y obteniendo los comunes divisores de dichas diferencias se podía obtener un conjunto de longitudes plausibles para la palabra clave. Se seguía el análisis usando la longitud más probable de entre las encontradas. El siguiente paso consistía en aplicar un análisis de frecuencias a aquellas letras del mensaje cifrado cuyo ordinal difiere en un múltiplo de dicha primera longitud supuesta. Como el cifrado polialfabético Vigenère con cinco letras en su palabra clave –por ejemplo- es equivalente a cinco cifrados monoalfabéticos (o cifrados simples de sustitución) que se van repitiendo en letras cuyo ordinal difiere en el mencionado múltiplo se tiene que para aplicar aquí el análisis de frecuencias basta con hacerlo cinco veces. Es algo similar a descifrar por análisis de frecuencias cinco mensajes que forman parte del total, y que son los formados por las letras con ordinales separados por la longitud de la clave. Evidentemente si con la primera longitud de clave bajo prueba no se obtenía nada coherente, se pasaba a la segunda más probable y se volvía a repetir el proceso hasta obtener con alguna de ellas el mensaje descifrado.

 

 

En realidad el cifrado polialfabético es un método robusto de criptografía, sobre todo si se usan claves muy largas. Casos particulares notables de este tipo de encriptación son el cifrado mediante la máquina Enigma, utilizado por el ejército nazi en la Segunda Guerra Mundial y el cifrado mediante libro de claves de único uso. Este segundo método que cito es el mecanismo perfecto de cifrado, ya que se basa en claves formadas por una secuencia aleatoria de letras de gran longitud, con lo que los mensajes pueden ser muy largos. Cada clave es de uso único y es conocida por emisor y receptor mediante un libro de claves. Aún así, el problema de la distribución de claves sigue vigente, ya que siempre es necesaria cierta logística para distribuir los libros entre los usuarios de este mecanismo, y por lo tanto en principio no es un método invulnerable. En la imagen superior de esta entrada aparece el sabio Al-Kindi. En la intermedia, Leon Battista Alberti, y en la inferior Blaise de Vigenère.

 

La ecuación de quinto grado, la teoría de grupos, y el genio de Niels Henrik Abel y de Évariste Galois

 

 

En pleno romanticismo, dos jóvenes matemáticos de vidas tremendamente atormentadas, y que fallecieron en trágicas circunstancias, revolucionaron la ciencia de los números, con implicaciones posteriores muy grandes, que cubren por ejemplo la quintaesencia de la naturaleza de las teorías físicas actuales o la concepción artística de la belleza. El hallazgo de estos dos genios indiscutibles que a adolescentes edades dieron tal muestra de poder creador son las leyes de la simetría, y constituyen una condición implícita en el universo, que aparece en el aparato físico-matemático construido en torno de la teoría de la relatividad general, así como de la teoría de cuerdas. Hallamos la simetría en las fuerzas básicas de la naturaleza, en el modelo estándar de partículas, en algunos teoremas -como el que demostró la matemática Emmy Noether en relación al hecho de la correspondencia de ciertos tipos de simetría con la conservación de algunas magnitudes físicas-, en las composiciones musicales de Mozart o de Bach, en los cuadros de infinidad de pintores, en problemas como el del cubo de Rubik, y en contextos donde nunca habríamos imaginado que las matemáticas tienen algo importante que decirnos.

¿Qué es la simetría?. Se entiende científicamente por simetría a la propiedad de que aplicando ciertas transformaciones sobre algún objeto geométrico, físico o matemático (cuando digo matemático me estoy refiriendo por ejemplo a una ecuación u otra entidad de la matemática) se obtiene otro de idénticas propiedades que el primero. Es decir, los objetos, sean de la índole que sean, que poseen simetría preservan sus características bajo ciertas transformaciones. Y por características se pueden entender muchas cosas, según sea lo que estemos analizando. Por ejemplo, los más comunes cristales de nieve, con forma de estrella de 6 puntas, poseen simetría geométrica según rotaciones en ángulos de 60º, 120º, 180º, 240º, 300º, 360º, y en general múltiplos de 60º. Tampoco varía su geometría ante la transformación de reflexión especular, y como es lógico, ante transformaciones resultantes de reflexión seguida de giro o viceversa. En este caso lo que se preserva es la forma del cristal de nieve ante transformaciones que lo giran y/o que obtienen su imagen reflejada. Otro ejemplo de simetría lo constituyen las leyes de Newton de la física clásica. Presentan simetría traslacional y rotacional, ya que dichas leyes no varían aunque variemos nuestra posición viajando en el universo, o aunque variemos nuestros ejes cartesianos de referencia y por lo tanto nuestra orientación. Otro tanto ocurre con las ecuaciones de campo de la teoría de la relatividad general, las cuales son simétricas según cada una de las variables dimensionales, según rotaciones en torno a diferentes ejes, y según traslaciones en el tiempo. Estos hechos precisamente son una fortuna para nosotros, puesto que permiten saber cómo se comporta el Universo conociendo nuestra vecindad más próxima.

 

 

Pero, ¿cuál fue el origen del estudio de los grupos de transformaciones que preservan propiedades y que dan lugar a la simetría?. Por increíble que parezca, el estudio de esta característica omnipresente en la Naturaleza y en el Universo, nació como punto y final de una de las mayores frustraciones de los matemáticos de toda la historia, tras al menos cien años de trabajos infructuosos llevados a cabo por verdaderas eminencias, y motivado por la búsqueda de la solución de la ecuación de quinto grado. Las ecuaciones de primer y segundo grado se llevan resolviendo desde hace muchísimo tiempo. No hay mayor misterio en esto, y de hecho se enseña a obtener sus soluciones en los primeros cursos de la enseñanza secundaria. Las soluciones de las ecuaciones generales de tercer y cuarto grado tuvieron que esperar al genio de Scipione Dal Ferro, Tartaglia, Cardano y Ludovico Ferrari, y por cierto, sus respectivos hallazgos se vieron envueltos en un poderoso halo de malsana competencia, de los más abyectos instintos y en general de una lucha auténticamente vil en la búsqueda de la prioridad o primicia. Sin embargo, después de estos notables logros, la cosa se estancó por décadas. A cada intento de encontrar solución a la ecuación general de quinto grado le sucedía el respectivo fracaso.

En general, es un hecho bien conocido que por el teorema fundamental del álgebra toda ecuación de grado N tiene exactamente N soluciones, que pueden ser en parte complejas y en parte reales, todas complejas, o todas reales. De acuerdo con esto, no tiene sentido imaginar si una ecuación tiene o no soluciones, de seguro que las tiene, la cuestión es obtenerlas mediante operaciones básicas como la suma, la resta, la multiplicación, la división y la extracción de raíces cuadradas. Cuando se obtiene una fórmula de este tipo que utiliza dichas operaciones y que relaciona mediante ellas a las soluciones con los coeficientes de la ecuación se dice que se ha hallado una solución por radicales. Era esta solución por radicales lo que buscaban los matemáticos, por la inercia metódica de las resoluciones de ecuaciones de menor grado, y sumidos en la mayor de las ignorancias en relación a cómo debía ser enfocado el problema.

Pero para desentrañar el tan ansiado misterio hizo falta la perspicacia, la inteligencia, la imaginación, el pensamiento lateral al máximo exponente, de dos genios como el noruego Niels Henrik Abel y el francés Évariste Galois, en una época convulsa por luchas intestinas en países como Francia, -donde los republicanos pretendían sacar del poder a la recién instaurada monarquía borbónica-, una época en la que la epidemia de cólera avanzaba por Europa y en la que se imponía en las letras y en los hombres el movimiento romántico.

A pesar de su juventud, y de sus orígenes humildes y traumáticos, hijo de un hombre dado a la bebida y de una mujer casquivana, Henrik Abel logró llamar la atención de su profesor de matemáticas a una temprana edad, y gracias a ello obtuvo una ayuda económica para viajar al extranjero y alimentarse de las verdaderas fuentes de sabiduría que había en las universidades europeas. Tras una ingeniosa argumentación, en la que se pasaba del problema original a uno equivalente, Abel demostró que no es posible obtener una solución a la ecuación general de quinto grado mediante radicales. Y aún más, muchos años más tarde, se descubrió en uno de sus trabajos extraviados, que son las funciones elípticas el verdadero instrumento que es necesario emplear si queremos solucionar dicha ecuación. Sin embargo, el destino quiso que el estipendio que recibía Abel se viera cercenado, y como no poseía un puesto docente en ninguna universidad, ya que su candidatura había sido declinada a favor de otro matemático de más edad y experiencia en la enseñanza, se vio sumido en la miseria, en la más ruin de las pobrezas. ¿Cómo le puede pasar esto a un genio?. En este caso sucedió por la incompetencia de la burocracia y del régimen educativo y gubernamental, y por la terrible enfermedad de Abel, que vio cómo su vida terminaba a la edad de 26 años, víctima de tuberculosis, y sumido en la más denigrante y humillante de las miserias.

 

 

Pero si hay una vida más desdichada aún que la de Abel, ésa es la de Évariste Galois. Hijo de un alcalde francés que se suicidó a causa de las falsas descalificaciones a las que se vio sometido y de una culta y capacitada mujer, que le inculcó ella misma las bases del conocimiento a temprana edad, y tras pasar por una escuela donde según se cuenta era frecuente ver los paseos de las ratas entre los estudiantes, Galois se presentó con un año de antelación al examen de ingreso en la Escuela Politécnica Francesa, la meca intelectual que dio tantos y tantos prohombres en las ciencias. Este primer intento se vio frustrado con un suspenso, y debido a ello Galois se vio forzado a entrar en la Escuela Normal, de menor fama y categoría que la primera. Este hecho, unido a que su innovador trabajo sobre las condiciones para resolver ecuaciones algebraicas (“Mémoire sur les conditions de resolubilité des équations par radicaux”) fue extraviado y olvidado, y no sólo una sino hasta en dos ocasiones, constituyó un verdadero trauma para Galois. Curiosamente lo mismo le había ocurrido al trabajo de Abel. ¿Cómo pueden extraviarse documentos de tal valor de forma involuntaria, hasta en dos ocasiones?. Desde mi humildísima opinión pudo ser algo deliberado por parte de alguien, tal vez por envidia o tal vez por indiferencia, no lo sé, con la circunstancia coadyuvante de la dificultad de su comprensión. El resultado fue la cimentación de un carácter fuertemente revolucionario que hallaba su viva expresión en sus ideales políticos en contra del Duque de Orleáns, que a la sazón era el gobernante en Francia y cuya elección se había basado en su mediación entre la monarquía y el republicanismo, estando los ideales del joven matemático a favor de la segunda opción. Galois intentó por segunda vez entrar en la Escuela Politécnica, sin embargo, según se cree, su hábito de hacer todos los cálculos mentalmente y escribir sólo la solución o poco más que ella, así como la ineptitud de los dos profesores que lo examinaron condujeron a que de nuevo no pasara el examen de entrada a la mencionada institución educativa. Esto sumió a Galois en una profunda desesperación, que llevada de la mano de su carácter impulsivo, apasionado y genuinamente romántico, desembocaron en el poco conveniente hecho de que en una comida a la que asistían personas vinculadas con las ideas republicanas alzó su navaja por delante de sí mismo invocando al nombre del Duque de Orleáns. Se cree que fue este uno de los hechos que desencadenaron su detención por las autoridades. Fue llevado a prisión, acompañado de otros muchos revolucionarios, y según se piensa en algún momento pudo sufrir ideaciones paranoides, acompañadas de un intento de suicidio. Pero este atormentado modo de vivir aún tuvo un colofón más trágico. Después de su salida de prisión, se instaló en una casa de salud, costumbre habitual entonces aplicada a los prisioneros recién liberados, donde se enamoró de una joven vinculada con los dueños. A causa de un desengaño amoroso con esta chica, en el que la fémina se sintió ofendida por Galois, y en plena vigencia del código del honor, se cree que lo que sucedió fue que uno de sus amigos de ideas republicanas salió en defensa de ella, y como consecuencia se preparó un duelo entre Galois y su amigo, mediante el estilo tradicional de pistolas y cuenta de pasos. La noche previa al duelo, y con motivo de su profunda convicción de que iba a morir, la actividad de Galois fue un continuo frenesí, escribió algunas cartas y redactó los bosquejos y algunos resultados importantes de lo que se conoce actualmente como teoría de grupos, que es la base matemática necesaria para saber si una ecuación de cierto grado tiene solución por radicales, y que sirve para estudiar todas las posibles simetrías de cualquier tipo de ente, geométrico, físico o matemático. Un disparo alcanzó el costado del matemático y murió algunas horas más tarde posiblemente de peritonitis. Se dice que sus últimas palabras, dirigidas a su querido hermano Alfred fueron: “no llores, necesito todo mi coraje para morir a la edad de 20 años”. ¿Puede haber una vida más trágica?.

Pero…¿en qué consiste la teoría de grupos, o para empezar, qué es un grupo?. Un grupo es un conjunto de elementos de idéntica naturaleza (que puede ser en principio de cualquier tipo), acompañado de una operación binaria interna (esto es, un elemento del grupo operado con otro da como resultado otro elemento del mismo grupo), que se suele llamar producto interno, y que verifican las propiedades de asociatividad (coincide el resultado de la operación entre dos elementos operado con un un tercero con la operación entre el primero y el resultado de la operación del segundo y del tercero), existencia de elemento neutro dentro del grupo (un elemento tal que cualquier otro elemento operado con él, independientemente del orden empleado, da como resultado el propio elemento), y existencia de elemento inverso (para todo elemento existe otro elemento del grupo tal que su producto da como resultado el elemento neutro). Esta es la base de toda una teoría que en la actualidad abarca una gran cantidad de definiciones, resultados, y teoremas, y que vertebra materias y objetos tan dispares como los que enumeré al principio de esta entrada.

Por otra parte, un subgrupo es un subconjunto que forma parte de un grupo y que tiene además la estructura (cumple las propiedades) de grupo. Se dice que un subgrupo es normal en relación a otro del que forma parte, cuando dado cualquier elemento a del subgrupo se verifica que, para todo elemento b del grupo mayor del que forma parte, el resultado del producto inverso(a) (operado con) b (operado con) a, pertenece a dicho subgrupo.

Así pues, ¿qué relación tiene la teoría de Galois con la resolubilidad de ecuaciones por radicales?. Pues haciendo acopio de un mayúsculo talento e imaginación, Galois logró ver que ciertas combinaciones de las soluciones de cualquier ecuación algebraica presentan simetría mediante su transformación por los elementos de un grupo parejo a cada ecuación, que hoy en día es conocido como grupo de Galois. El joven matemático fue capaz de darse cuenta que el mayor grupo de Galois que preservaba dichas combinaciones de operaciones básicas para una ecuación general de un determinado grado era el grupo de permutaciones de los elementos, denominado también grupo simétrico, y que posee un total de N! (factorial de N) elementos o transformaciones.

Y aún más, logró desarrollar esta idea innovadora y darse cuenta de que la condición necesaria y suficiente –esto es, equivalente- para que una ecuación general de grado N tenga solución por radicales es que su grupo de Galois esté formado por subgrupos normales contenidos en él al estilo de las muñecas rusas, con el matiz añadido de que los grupos cocientes de la serie sean abelianos. Dicho de una manera intuitiva, cada subgrupo normal interno al grupo de Galois de la ecuación resoluble (cada uno de ellos dentro de otro de orden o número de elementos superior) representa el conjunto de transformaciones que preservan por simetría ciertas combinaciones de soluciones de una ecuación de menor grado que la asociada al grupo “padre”, y de este modo es necesario y suficiente para resolver dicha ecuación bajo análisis por radicales que todos los subgrupos de dicho grupo de Galois, asociados a ecuaciones de menor grado, sean normales, así como que se cumpla la segunda condición ya enunciada más arriba. Es algo similar y equivalente a pensar que para resolver una ecuación por radicales es imprescindible saber resolver las ecuaciones de menor grado que aquélla también por radicales. Como consecuencia, dado que siguiendo la teoría de Galois, se advierte que la ecuación de quinto grado no tiene solución por radicales, también se deduce entonces que esto mismo sucede para las de sexto grado, séptimo grado, octavo grado, y en general todos los grados superiores o iguales a 5.

Para conseguir su logro, Évariste necesitó gestar una gran revolución en la matemática, que pasó literalmente desapercibida para sus contemporáneos, en parte involuntariamente por la complejidad y la novedad inherentes, y quizás también en parte de forma voluntaria a causa del imperio de los instintos más bajos del ser humano. Esta revolución supuso un antes y un después, literalmente Galois descubrió por sí mismo, una única persona, una nueva rama de las matemáticas, la teoría que tantas y tantas aplicaciones ha tenido y tendrá y que constituye una de las partes del verdadero núcleo del álgebra abstracta. Como las innovaciones en matemáticas son imperecederas y eternamente poseedoras de verdad, los logros de Galois sirvieron para encumbrarlo y otorgarle “cierto grado de inmortalidad “, al igual que a Abel, cuyo nombre designa uno de los premios más importantes en la disciplina matemática en la actualidad. Pero esa inmortalidad de muy poco le sirvió a estos desdichados, que no pudieron por sus circunstancias propias saborear las mieles del éxito ni siquiera vivir vidas dignas o más felices.

A modo de humilde y siempre insuficiente homenaje, copio a continuación una de las elegías de mi poemario “El rostro sagrado”, en concreto dedicada a Évariste Galois. La ilustración de la parte superior de esta entrada representa a Abel, la central representa un copo de nieve con sus simetrías rotacionales y especular –que en realidad conforman un grupo conocido como grupo diedral de orden 12- y en la inferior aparece Évariste Galois.

 

 

“Elegía a Évariste Galois”

 

 

Sobre tu tumba

siempre habrá flores,

pequeño gran Évariste,

porque tu genio prematuro

holló muy hondo en

la tierra de los hombres,

allí dejó su semilla,

y nos trajo el agasajo

de las más eternas rosas

y de la imperecedera verdad.

Ángel caído de los cielos,

a ti dedico esta elegía,

bienquerido retoño de Prometeo,

en ti veo a un Dios benévolo,

pues fueron tu corazón y tu sangre,

las vísceras que guían cada ave,

las que guiaron tu senda

en tu efímera existencia.

¿Acaso el sino impera

sobre el poder de los hombres?

¿Por qué acudiste al duelo,

pequeño Évariste,

y nos privaste de tu talento

y de tu pasión?.

¿No fue ésta tu asesina,

la mano ejecutora que de ti

nos dejó huérfanos?.

Jamás en los siglos

se encenderá tu luz

de nuevo, pero por siempre

serás recordado,

tus obras vivirán por ti,

pequeño gran Évariste,

héroe, ídolo con

los pies de arcilla,

pero sobre todo hombre.

 

© El rostro sagrado, SergeantAlaric, 2012.

 

La máquina de Sir Francis Galton, la distribución binomial, la vida y la estructura de una novela

 

Como estoy pensando en escribir una novela el año que viene, tarea para la que me estoy documentando, me encontré en la necesidad de la búsqueda de algún método viable para diseñar la estructura del libro. Bien sabido es que una novela no sólo se identifica con un conjunto de capítulos escritos con mayor o menor calidad literaria, sino que además consiste en un relato con un cierto andamiaje, con un principio, una cadena de sucesos cohesionados mediante un cierto orden lógico, y un densenlace final. Para escribir una novela es necesario tener bien claro ese andamiaje, y es deseable por tanto el hacer un diseño lo más detallado posible antes de ponerse uno a escribir. Si la estructura de la novela contiene suficientes giros argumentales imprevistos, un ritmo creciente, por ejemplo, con clímax final, y un desenlace lo más sorpresivo posible, es probable que se haya escrito un buen libro, o que al menos el fruto del trabajo sea vendible y leíble con interés. Considero que son estos elementos que he descrito fundamentales para escribir un best-seller.

 

 

Pues bien, me puse pues a pensar en algún método válido para tal tarea, y reflexionando, reflexionando, me acordé de un artilugio que inventó el científico inglés Sir Francis Galton, primo segundo de Charles Darwin, y cuya tarea investigadora cubrió un amplio espectro de intereses. El invento de Galton es una máquina de gran popularidad en los medios televisivos (creo que salía incluso en el antiguo concurso “El precio justo”, presentado primero por Joaquín Prats y luego a la muerte de éste por Carlos Lozano), y consiste en una caja vertical en cuya parte superior existen dos rampas con un agujero central pequeño, mientras que la parte media está compuesta por un conjunto de palitos convenientemente situados, y la parte inferior se trata de una serie de departamentos estancos colocados cada uno adyacentemente con los dos de los lados. Por encima de las dos rampas superiores del artilugio se coloca un grupo de canicas o monedas. Cuando es abierto el orificio central de las dos rampas, las canicas empiezan a caer por acción de la gravedad hacia abajo. En el momento en que una determinada canica se topa con uno de los palitos, el azar entra en juego y esa canica toma la decisión de tirar por uno de los dos lados o por el otro, siguiendo en su caída. En realidad creo que en el universo hay absoluto determinismo en casi todo (salvo en las acciones de los humanos por ejemplo, la afirmación se aplica pues al universo inerte), es decir, aún a pesar de mi inferioridad intelectual me atrevo a coincidir con Albert Einstein en que “Dios no juega a los dados”. Pero ese determinismo absoluto es tal si miramos todo desde la óptica de Dios. Si tuviésemos suficiente capacidad tecnológica para medir todas, absolutamente todas, las variables del universo, y si el universo no fuera no lineal, podríamos predecir su devenir de modo exacto, por eso digo que Dios sabe exactamente lo que va a pasar y no juega a las tragaperras con el mundo. Sin embargo, ante nuestra imposibilidad consabida de realizar tales medidas, entre otras cosas por el principio de incertidumbre de la mecánica cuántica, y ante el hecho de que el aparato matemático que poseemos no pueda modelar el universo de forma exacta, aquéllo que para Dios es predecible y determinista, para nosotros es observable como caos o azar. Por lo tanto, la canica sigue cayendo y eligiendo en cada palito un camino por el que seguir (desde nuestra perspectiva esta elección es completamente aleatoria y es azar). Si contamos el número de posibles trayectorias que llevan a la canica a cada receptáculo de la parte inferior, observaremos que existen más trayectorias válidas para llevar la canica hacia las cajas centrales, y menos trayectorias posibles para las cajas laterales, en número decreciente desde el centro hasta los extremos. En realidad este hecho no debe de extrañarnos. Cada elección individual que toma una bola en cada palito puede ser modelada mediante una variable aleatoria de tipo Bernouilli. Las variables aleatorias Bernouilli representan un rango discreto de sucesos incompatibles, en concreto dos. Así, una variable de este tipo puede tomar un valor, llamémosle “izquierda”, con probabilidad p, y otro valor, que por conveniencia llamaremos “derecha” con probabilidad complementaria q = 1 – p. En el caso de la bola, desde nuestra perspectiva es en principio igual de probable que caiga hacia la izquierda que hacia la derecha. Por tanto en este caso sería  p = q = 0,5. Como el número de caídas hacia derecha o izquierda que realiza la bola en su bajada es el que después se computa como número de desplazamientos a la derecha o a la izquierda desde el cajetín central, se tiene que para obtener la función de densidad de probabilidad discreta de las bolas en cada caja tendríamos que empezar por sumar tantas variables de tipo Bernouilli como niveles en forma de palito tenga el artilugio, y así obtendremos como resultado una variable aleatoria de tipo Binomial, cuyo parámetro N representa dicho número de niveles. Si quisiéramos experimentar esto, podríamos dejar caer una gran cantidad de bolas desde arriba, y observaríamos que si calculamos la fracción de bolas, frente al total de canicas caídas, que hay en cada cajetín, se va aproximando cada vez más a la probabilidad que predice la función de densidad discreta de una variable binomial. Aún más, si fuésemos aumentando cada vez más el tamaño de la máquina, introduciendo cada vez más número de niveles, mediante la inserción de nuevos palitos y de nuevos cajetines, en realidad nos estaríamos aproximando cada vez más a una función de distribución gaussiana o normal. Esto es así, dado que por el teorema central del límite se sabe que la suma de infinitas variables aleatorias, sean éstas de los tipos que sean, es una variable gaussiana.

 

 

Todo esto está muy bien, de acuerdo, pero … ¿qué aplicación puede tener para escribir mi novela?. Pues seguí reflexionando y me di cuenta que una novela no es otra cosa que un diagrama en árbol, en el que la acción parte desde una raíz y va llegando a distintos nudos, donde se ramifica por uno u otro lado, hasta llegar al final a una de las hojas del árbol, donde la acción concluye. Por lo tanto si yo quiero una novela con un final deslumbrante, sería más práctico pensar primero ese final antes que ninguna cosa y deshacer el camino desde la hoja hasta la raíz. Esto es así porque en el sentido normal del transcurso del tiempo, de pasado a presente y de presente a futuro, como dije antes, hay una continua ramificación de la acción, dado que los personajes van tomando sucesivas decisiones en su vida, y sería muy difícil de este modo, con tiempo natural, de llegar a un final que resulte interesante. Sin embargo, con tiempo invertido, la secuencia es lógica, no hay ramificaciones, sólo hay un único camino, o pocos caminos que nos llevan todos a la única raíz del árbol. Un ejemplo que podría ilustrar esto es el siguiente : ahora me encuentro en casa, puedo ir a la cocina a tomar un bocadillo o puedo salir afuera. Si salgo afuera, puedo ir al cine, puedo ir de compras o al parque. Si voy al cine puedo emocionarme con alguna película o ver cómo un espía reparte somantas de hostias a todo ser que se le cruza por delante; y también puedo llenar la barriga de palomitas y no seguir para nada la película, … De acuerdo con esto sería difícil obtener el final más emocionante que es el de las lágrimas en el cine. Sin embargo, si supongo que estoy emocionado en el cine, puedo deducir que es porque he visto en el mismo una película emocionante, y que me he dirigido allí porque estaba en casa aburrido y no tenía ganas de ninguna otra cosa. Lo mismo sucede con la máquina de Francis Galton: si invertimos la máquina observaremos que las bolas que están en los cajetines siguen distintos caminos pero al final, con total certeza, acaban de nuevo en el único agujero de arriba (siempre y cuando por debajo de las rampas haya otras invertidas con respecto a aquéllas). Se me ocurre que esto en cierto modo tiene que ver con la entropía o grado de desorden creciente con el paso del tiempo en el universo, pero esa ya es otra historia.

En realidad el método que he presentado, y que supongo usarán muchos escritores, debe ser perfeccionado, puesto que sería harto difícil montar la novela en un único bloque. Por ello me parece más lógico el dividir la acción en distintos bloques en los cuales tenga claro el final de cada uno, y mediante el truco del almendruco de la imaginación, conseguir empalmar en esos bloques el final de cada tramo previo con el principio inferido a partir del final del tramo inmediatamente siguiente, siendo cada tramo cada uno de los bloques que median entre giros argumentales. En otras palabras, que después de esta fase inicial de documentación, ya me veo a fin de año haciendo diagramas en árbol en hojas A3 o A2, poniendo todo mi empeño en construir una novela que sea medianamente digerible.