2018/03/28

La muerte del Universo


La entropía es un concepto sumamente interesante, y en cierta forma enigmático, ligado al grado de desorden de la materia y la energía de un sistema. El segundo principio de la termodinámica establece que en un sistema cerrado, tal como el propio Universo, sus parámetros característicos se desarrollarán de tal forma que tenderán a maximizarla, es decir, a llevar al sistema a un máximo desorden. Dado que la forma más degradada de energía es la energía térmica, en cualquier sistema cerrado, toda la energía tenderá a acabar de esa manera: en un estado de total equilibrio termodinámico y a una temperatura cercana al cero absoluto, que impedirán cualquier posibilidad de extracción de energía útil. Es la llamada “muerte térmica”, el estado de mayor desorden posible o de máxima entropía.
Nuestro Universo como sistema cerrado está sujeto a ese destino de forma irremediable. La entropía esta aumentando incesantemente en las estrellas tanto como en nuestro planeta. Esto significa que, con el tiempo, las estrellas agotarán su combustible nuclear y morirán, convirtiéndose en masas muertas de materia nuclear. El universo se oscurecerá a medida que las estrellas, una a una, dejen de centellear. Todas las estrellas se convertirán en agujeros negros, estrellas de neutrones o estrellas enanas frías, dependiendo de su masa.
Posteriormente, según las Teorías de Gran Unificación,toda la materia tal como la conocemos, nuestros cuerpos, la Tierra o el sistema solar se desintegrará en partículas más pequeñas tales como electrones y neutrinos.
Después de un periodo, prácticamente inimaginable en nuestra escala temporal, la temperatura del universo se acercará al cero absoluto, pero incluso en un universo desolado y frío, a temperaturas próximas al cero absoluto, existe una última fuente remanente de energía: los agujeros negros. Según Hawking, no son completamente negros, dejan escapar energía lentamente al exterior.Pero ¿y después, cuando los agujeros negros en evaporación hayan agotado la mayor parte de su energía?.
Para un universo según la física clásica la muerte es irremediable, pero para un universo mecanocuántico sujeto a escalas temporales tan formidables no se puede descartar ningún tipo de raro suceso cuántico-cósmico, capaz de trastocar el más triste de los destinos.
El Universo nació con el mínimo de entropía y el máximo orden. En cierta forma partía como un reloj con la máxima cuerda. Conforme avanzamos en el tiempo la cuerda se va acabando y va apareciendo más y más desorden hasta la muerte térmica. Como ejemplo nos valdría imaginar un enorme tubo lleno de monedas perfectamente ordenadas, una encima de otra. Así sería el nacimiento del Universo. Las dejamos caer sobre una gran mesa de forma que todavía tengamos bastantes montoncitos ordenados, por ejemplo, con la cara de las monedas hacia arriba, y la mayoría del resto de las monedas sueltas también con la cara conservando la misma orientación. Esa situación podría asemejarse al estado del Universo actual. Finalmente, si imaginamos el final, estarían todas las monedas sueltas sobre la mesa, sin formar ningún montón y con la orientación de la cara/cruz totalmente aleatoria: un completo desorden.
La probabilística mecánica cuántica no descarta que después de miles de millones, de millones… y millones de años, dando una “palmada a la mesa”, vuelvan a ordenarse nuevamente las monedas de forma “milagrosa”. Es lo que tiene la mecánica cuántica. Parafraseando a Humphrey Bogart, en Casablanca, podríamos decir que “siempre nos quedará la mecánica cuántica”.

Post de mi antigua columna "Ciencias y letras", en Libro de notas.

2018/03/16

La radiación de agujero negro o de Hawking


Por su propia definición los agujeros negros son objetos que se supone que no emiten nada, y durante mucho tiempo científicos de la talla de Stephen Hawking se resistieron a pensar que de ellos pudiera salir cualquier tipo de radiación. Sin embargo el hecho de que el propio Hawking descubriera que el área del horizonte de sucesos de un agujero negro aumentaba cada vez que caía materia, sugirió a un estudiante de investigación en Princeton, llamado Jacob Bekenstein, que dicha área era una medida de la entropía del agujero negro.

Esto impediría que los agujeros negros violaran la segunda ley de la termodinámica, el aumento de entropía o desorden, pero si se admitía que un agujero negro tiene entropía también debería tener una temperatura y y por tanto emitir cierta radiación. La cuestión de la entropía no era vana, pues un agujero negro del que no salga nada, ni presente al exterior ninguna manifestación cuando engulle materia con mucha entropía sugiere una forma demasiado fácil de disminuir la entropía de la materia exterior al mismo. Conforme arrojáramos al agujero materia con gran entropía haríamos disminuir la entropía exterior.

Los primeros cálculos que parecían demostrar que los agujeros negros eran capaces de emitir ciertas radiaciones los efectuaron dos físicos soviéticos, Yakov Zeldovich y Alexander Starobinski al principio de los años setenta. Pero su cálculo se refería a agujeros negros en rotación. Ellos convencieron a Hawking de que, según el principio de incertidumbre mecanocuántico, los agujeros negros en rotación deberían crear y emitir partículas. Hawking mediante un tratamiento matemático mejorado descubrió que no sólo debían emitir partículas los agujeros en rotación sino todos. Lo que le convenció de que la emisión era real fue que el espectro de las partículas emitidas era exactamente el que sería emitido por un cuerpo caliente (aquí, caliente es considerada la temperatura superior al cero absoluto ó 273,15 grados centígrados bajo cero).

Todos los cálculos posteriores que se han hecho confirman que un agujero negro debe emitir partículas y radiación como si fuera un cuerpo caliente con una temperatura que depende solo de la masa del agujero negro: Cuanto mayor es la masa, menor es la temperatura. El origen de esa emisión son las fluctuaciones cuánticas del vacío, pares de partículas que aparecen juntas en cierto instante, se separan y luego se juntan de nuevo y se aniquilan mútuamente. Estas partículas se denominan virtuales y por la conservación de la energía, una de las componentes de un par tendrá energía positiva y la otra negativa. Si la partícula con energía negativa cae en el agujero su compañera con energía positiva tiene la posibilidad de escapar del agujero como una partícula real. Para un observador exterior parecerá haber sido emitida desde el agujero negro.

Cuanto menor es la masa de un agujero negro, más alta es su temperatura, por tanto, a medida que el agujero negro pierde masa, su temperatura y el ritmo de emisión aumentan y con ello pierde masa con mayor rapidez. Se supone que cuando su masa se reduce lo suficiente el agujero negro desaparecerá en un tremendo estallido final de emisión que podría ser equivalente a la explosión de millones de bombas H.

Conforme más sabemos de estas exóticas criaturas estelares, más nos sorprenden. Hemos descubierto que emiten radiación (llamada de Hawking) y no son tan negros como nos los pintaban; que el área de su horizonte de sucesos nos mide toda su entropía y nos delata la magnitud del desorden exterior que ha devorado, y que mueren en medio de un estallido de energía brutal. Parecía que nos lo querían esconder todo, y, sin embargo, nos cuentan cosas que sin ellos nunca habríamos sabido sobre el propio nacimiento del Universo y de su final, pues sus propiedades llevan años alumbrando la dirección que debemos tomar para descubrir la futura teoría de la gravedad cuántica: la llave del pasado y del futuro del Universo.



Hasta siempre








Descanse en paz, el gran científico y mejor persona. Hasta siempre querido profesor Hawking.

2018/03/06

Un café, unas dimensiones extras, las fuerzas fundamentales y la vida


Un café:
Esta mañana, aunque estoy de vacaciones, o precisamente por eso, me he levantado pronto y mientras saboreaba un delicioso café en el bar de mi amigo Juanito, en el Centro Comercial las Américas de Torrent, me ha dado tiempo de "picotear" en dos textos que me han parecido muy interesantes. Curiosamente, versaban los dos sobre las cuatro fuerzas fundamentales, el uno hacía una reflexión sobre la precisión necesaria de sus intensidades para que se haya podido desarrollar la vida en este Universo y el otro sobre la necesidad, presumible, de la existencia de dimensiones extra para explicar lo que les sucede a estas fuerzas capaces de moverlo todo.

Unas dimensiones extras:
Los humanos vivimos en un mundo cuadrimensional, formado por tres dimensiones espaciales, más la temporal que añadió Einstein con su Teoría de la Relatividad. Todo lo que nos sucede se puede explicar en estas cuatro dimensiones, pero parece ser que no ocurre lo mismo cuando se intenta explicar lo que les sucede a las cuatro fuerzas fundamentales que mueven el Universo.

La existencia de dimensiones extra, que no vemos, permitirían la unificación de las fuerzas de la naturaleza, es decir, entender las cuatro fuerzas como una manifestación a diferentes escalas de una única fuerza.

La gravedad, la interacción más débil y paradójicamente la primera en ser formulada, juega un papel muy importante en la búsqueda de esas dimensiones extras. Parece ser que es precisamente esta fuerza la que podría propagarse por estas dimensiones y explicaría por qué es tan bébil: se dispersa en las dimensiones que no vemos en lugar de estar confinada, como sucede con las otras tres fuerzas, a nuestro mundo tridimensional.

Si formulamos la gravedad en un lenguaje cuántico, se habla del gravitón como la partícula portadora de la fuerza gravitatoria, al igual que el fotón lo es de la fuerza electromagnética. Este gravitón nunca se ha podido observar, tal vez porque precisamente se propaga por las dimensiones extras. En los experimentos del LHC, el gran colisionador de hadrones que se pondrá en marcha proximamente en el CERN, se producirán colisiones entre protones a energías muy elevadas. Si en estos choques se produce algún gravitón podremos verlo, no directamente, porque desaparecerá en las dimensiones extras, pero sí por el rastro que dejará en el detector: un chorro de partículas que no tendrían un balance de energía y momento en la dirección opuesta.

Este hallazco significaría el descubrimiento de la nueva física que, a diferencia de descubrimientos anteriores, no desmentiría el modelo actual, el modelo estándar de la física de partículas, sino que lo extendería simplificado a los principios fundamentales. El modelo estándar actual, a pesar de que ha sido capaz de describir la mayoría de los procesos conocidos y predecir otros nuevos, deja demasiados parámetros libres y preguntas por responder. El descubrimiento de nuevas dimensiones y la cuantización de la gravedad serían el primer paso hacia la unificación de todas las fuerzas.

Las fuerzas fundamentales y la vida:
En muchos casos, bastaría un pequeño cambio porcentual en el valor de una constante física, manteniéndose inalteradas las demás, para desarrollarse un Universo inhóspito para la vida.

Fuerza electromagnética.- Si la fuerza electromagnética hubiera sido ligeramente más intensa con respecto a las demás fuerzas fundamentales, todas las estrellas serían enanas rojas y no se habrían formado los planetas. Si la fuerza electromagnética hubiera sido ligeramente menos intensa, todas las estrellas serían muy calientes y, por tanto, de corta vida.

Fuerza nuclear fuerte.- Si la interacción nuclear fuerte hubiera sido ligeramente más intensa, todo el hidrógeno que hubiere en el Universo primitivo se habría convertido en helio; si hubiera sido ligeramente menos intensa, no se habría formado el helio, dejándonos un Universo de sólo hidrógeno.

Fuerza nuclear débil.- Si la fuerza nuclear débil hubiera sido ligeramente más débil, no se habrían desarrollado las supernovas y, por consiguiente, los elementos más pesados no se habrían creado.


Gravedad.- Si la intensidad de la gravedad fuera ligeramente mayor o ligeramente menor que su valor real la vida basada en la química del carbono no podría haber evolucionado. Para un valor ligeramente mayor, sólo podrían existir estrellas enanas rojas, que son demasiado frías para permitir que, en su zona aledaña, hubiera planetas aptos para sustentar la vida. Para un valor ligeramente menor, todas las estrellas serían gigantes azules y persistirían durante un intervalo temporal demasiado corto para que pudiera desarrollarse la vida.

Barry Collins y Stephen Hawking en 1973 llegaron a la conclusión de que debió darse una densidad de energía exactamente equilibrada entre valores que condujeran a un Universo en expansión indefinida (universo abierto) o a un Universo en colapso (universo cerrado), la así llamada densidad crítica. Ni Collins ni Hawking creían que una restricción tan específica fuera mera coincidencia. Pero, ¿cómo explicar ese ajuste fino?. Brandon Carter en 1974 publicó su idea del principio antrópico, que en su forma fuerte sugiere que la existencia del observador impone restricciones sobre las propias constantes físicas; la realidad material no puede existir, a menos que haya observadores para conocerla; el universo tiene que tener aquellas propiedades que permitan que la vida se desarrolle en él dentro de alguna etapa de su historia.

La tesis antrópica, en particular su versión fuerte, fue recibida con desdén por muchos físicos, que no le reconocían estatuto científico. Los cosmólogas se han percatado de que existen muchos contextos en que nuestro Universo podría ser sólo uno (de un conjunto de infinitos posibles) de los universos "paralelos" en los que las constantes físicas varían. Ese conjunto se denomina a veces multiverso.

Nueva edición de la entrada del mismo nombre. Un abrazo amigos.

2018/02/15

La información, el azar y el número Pi


La información se nos presenta como una entidad fundamental, no sólo a nivel de la estructura física de la materia (entropía) sino de la propia estructura de los números trascendentes, tales como Pi , y también del resto de los números irracionales, que constan de infinitos decimales dispuestos de forma aleatoria, como por ejemplo la raíz cuadrada de 2. El azar que encontramos en infinidad de procesos naturales, o en los números, es extraordinariamente difícil de simular de forma artificial, lleva asociado un nivel de información neutro (cero información añadida), que en cierta forma es una restricción poderosa y de gran calado.

El número Pi es, junto con el número e, uno de los números llamados trascendentes más famoso. Es la relación entre la longitud de la circunferencia y su diámetro, y aparece en infinidad de expresiones matemáticas o físicas. Desde la antiguedad, muchas veces por cuestiones prácticas, se ha tratado de calcular el mayor número de decimales para conseguir más precisión en las medidas (en la figura, Arquímedes de Siracusa - 250 a.C - lo calculó con la aproximación: entre 3+10/71 y 3+1/7). Casi a semejanza de los alquimistas que trataban de conseguir la piedra filosofal, los geómetras de todos los tiempos han tratado de hallar la cuadratura del círculo. Actualmente gracias a la potencia de cálculo de nuestros ordenadores se han conseguido millones de sus decimales. Teóricamente tiene infinitos decimales y deben estar situados de forma completamente aleatoria, de manera que al cabo de miles de millones de trillones de decimales que busquemos podremos encontrar cualquier combinación, que convenientemente codificada podría contener: El Quijote, Romeo y Julieta, la Biblia o este propio escrito.

Existen varias páginas que encuentran cualquier combinación de números entre las cifras de Pi, y nos dicen a partir de qué decimal se puede encontrar. Al reflexionar sobre ello, pensé que se podría codificar, de forma ventajosa, cualquier información sobre esta base y me puse manos a la obra. Busqué la posición de una codificación al azar, el número 11, y la encontré a partir del decimal 94. El número 111 a partir del decimal 153 y así hasta el 11111111 que se encuentra a partir de la posición 159 090 113, en la ristra de decimales del número Pi. Pronto me di cuenta de que no significaba ninguna simplificación pues para dar la posición dentro de Pi de un determinado código, se necesitarían, en general, un número de dígitos igual o superior a la propia codificación que se busca. Repetí la búsqueda para la codificación 121212 que se encuentra a partir de la posición 241 987 (seis dígitos para definir la búsqueda del código 121212) : 3,14 .......28979301308065657163 121212 07914290705421508889........ En base a esta suposición el Quijote se encontraría codificado, en los dígitos del número Pi, alrededor del decimal 4x101000000 (un 4 seguido de un millón de ceros), más o menos.

En cierta forma, podríamos decir que la información mínima ni se crea ni se destruye, simplemente se transforma. El azar no debe llevar implícitamente ninguna información que pueda después utilizarse y esto lo encontramos en infinidad de procesos naturales, o en los números. Supongo que debe ser así, pues no sería lógico que pudiésemos codificar El quijote, por dar un código como ejemplo, con otro código mucho menor, irrazonablemente menor. Si codificamos y comprimimos ese código, la forma de indicar su posición dentro de Pi deberá contener una información similar. Al menos eso es lo lógico, y en base a esa lógica de cero información añadida, o información neutra, deben estar distribuidos al azar los dígitos de Pi y de los innumerables números irracionales con infinitos dígitos.


Nueva edición del post de fecha 27/06/2011. Un saludo amigos.

2018/02/01

Parábolas y catástrofes

 No es posible encontrar una noción mas estética que la reciente
Teoría de las Catástrofes de René Thom, que se aplica tanto a la
geometría del ombligo parabólico como a la deriva de los continentes.
La Teoría de René Thom ha encantado todos mis átomos desde que la
conocí ....
Dalí, 1985.

La teoría topológica de las singularidades y bifurcaciones, conocida como Teoría de Catástrofes (TC), fue introducida por el matemático y filósofo francés René Thom para estudiar los saltos o cambios que se producen en los sistemas dinámicos. Estudia desde el punto de vista matemático lo que vulgarmente se conoce como la "gota que colma el vaso", esa mínima gota que provoca que el agua se derrame y se pase de un estado inestable a otro estable.


Intuitivamente, y de forma simplificada (topología “superelemental”), los puntos interiores de un conjunto continuo serían puntos regulares y los puntos que forman su frontera serían puntos catastróficos. Los puntos regulares están rodeados de puntos que tienen la misma apariencia cualitativa en los que no "ocurre nada", todo sigue igual (continuidad). En lospuntos de la frontera o catastróficos siempre"ocurre algo", pasa de haber una continuidad del sistema a encontrarnos con un cambio radical.__Esta distinción entre puntos regulares y catastróficos es preliminar no sólo para la teoría de las catástrofes, sino para cualquier disciplina que establezca descripciones sobre cualquier forma teórica__. René Thom demostró que para los sistemas en los que interviene una o dos variables y en los que influyen hasta cuatro parámetros (tiempo, temperatura, gradientes...), hay siete rupturas o catástrofes elementales (morfologías o formas), a las que se han dado nombres muy plásticos e intuitivos: pliegues, cúspides, colas de milano, mariposas y ombligos elíptico, hiperbólico y parabólico.


En palabras suyas:" La TC se esfuerza por describir las discontinuidades que pudieran presentarse en la evolución del sistema.. Intuitivamente, se admite que la evolución global de un sistema se presenta como una sucesión de evoluciones continuas, separadas por saltos bruscos de naturaleza cualitativamente diferente. Para cualquier tipo de evolución continua subsiste el marco del tipo diferencial clásico, pero los saltos hacen que se pase de un sistema diferencial a otro. Se salta de una evolución continua descrita por un sistema de ecuaciones diferenciales a otra evolución continua descrita por otro sistema y no se puede excluir que un número finito de sistemas no sea suficiente para describir la situación por completo." Realmente, aclara que más que una teoría, es una metodología, o acaso una especie de lenguaje, que permite organizar los datos de la experiencia en las condiciones más diversas.


René Thom ha sabido acercar las Matemáticas a las «morfologías», y ha estudiado con herramientas topológicas la aparición, la estabilidad y la desaparición de formas; ha encontrado el sentido de las cosas, en tanto en cuanto son formas o morfologías, a partir de ciertos invariantes que son las rupturas o singularidades. Así ha podido clasificar las maneras de proceder ante esas rupturas –las famosas «catástrofes» elementales– en sistemas dinámicos, tan variados que pueden ser físicos, linguísticos, biológicos o sociales.



A pesar del fracaso –según los cánones del positivismo– de la TC como teoría científica aplicada, Thom ha abierto las matemáticas a las formas o morfologías del mundo, con el fin de comprenderlo, de encontrar su sentido, y no sólo movidas por el interés de predecir sucesos, clásico ejercicio decimonónico de la ciencia. Y ha empezado a mostrar su poder para hacerlo al permitir acercarse a través de muchos de su conceptos fundamentales –estabilidad estructural, bifurcaciones, atractores...– a la comprensión de fenómenos naturales tan complejos y tan corrientes como «la forma de una nube, la caída de una hoja, la espuma de un vaso de cerveza».



-->Libro : "Parábolas y catástrofes", de René Thom. Una larga entrevista en la que consigue aclarar el sentido profundo de las analogías ("parábolas") que explican algunos de los más enigmáticos y fascinantes fenómenos discontínuos (o "catástrofes"). René Thom, en los años setenta, desafió en su propio terreno a físicos y biólogos, a economistas y lingüistas, proponiendo, con su teoría de catástrofes, una nueva manera de considerar todas las transformaciones que se producen de modo brusco, imprevisto, dramático.


-->Web : Matemáticas y ciencias morfológicas. Homenaje a René Thom.

Reedición de un antiguo post de 2007. Os añado una pequeña reflexión humorística sobre el tema. 

La estupidez y la teoría de catástrofes


Normalmente, lo que vivimos en un determinado momento es capaz de ser predicho con un margen razonable , lo que origina una cierta conciencia de continuidad (normalidad) . Esta continuidad suele ser rota por acontecimientos inesperados que, en muchas ocasiones por nuestra propia ignorancia, solemos meter en una especie de saco llamado azar. Un porcentaje de estos suele tener el origen en la estupidez humana.

La vida se compone de una parte racional, continua y ,por tanto, esperada y de otra parte discontinua que, en muchos casos, la enriquece. La estupidez puede ser muy destructiva (a priori casi siempre lo es) , pero la ruptura que introduce puede tener efectos enriquecedores y muy positivos. En este sentido puede entenderse su contribución no como “motor” sino como moduladora de los acontecimientos. El motor creo que siempre es la voluntad.

La rotura de la continuidad es estudiada por la llamada teoría de las catástrofes (entendiendo por catástrofe la simple ruptura de esa continuidad). En ese sentido la estupidez como la capacidad opuesta a la razón , y a la continuidad que ella representa, podría entenderse como catastrófica.

Catástrofes aparte, el mejor libro escrito nunca sobre la estupidez humana es, sin duda, el libro del profesor italiano Carlo M. cipolla:"Allegro ma non troppo". Incluye dos ensayos, "El papel de la pimienta en el desarrollo económico de la Edad Media" y "Las leyes fundamentales de la estupidez humana", cuya Primera ley Fundamental dice así: "Siempre e inevitablemente cada uno de nosotros subestima el número de indivíduos estúpidos que circulan por el mundo". Es un librito de 85 páginas editado por Mondadori (1999), ISBN:8439703058.

2017/12/28

El último experimento, científicos frente a la muerte



Hace unas semanas leí el libro " El arco iris de Feynman" de Leonard Mlodinow, el autor junto con Stephen Hawking de "Una brevísima historia del mundo". En el libro Mlodinow describe su relación con Feynman durante su primer año en el California Institute of Technology, el lugar de trabajo de aquel físico genial. Con su doctorado bajo el brazo, inseguro e intimidado en un centro tan distinguido y competitivo, Mlodinow encontró en Feynman algo más que un colega experimentado: descubrió un hombre sin prejucicios que atesoraba un maravilloso universo de experiencias e ideas, muchas de las cuales compartió con él precisamente durante los últimos meses de vida de aquel gran genio.

Feynman, aquejado por un tumor terminal se refería a la muerte como "el último experimento". Para una persona que vivía tan intensamente la ciencia toda su vida parecía ser un gran y complejo experimento y la muerte el final y la última etapa de ese experimento. Hace ya un par de años escribí sobre el mismo tema con relación al científico, poeta y ensayista en lengua catalana/valenciana, fallecido en 2005 , Dr. Alfred Giner-Sorolla. Sólo un verdadero investigador podría decir lo que decía él sobre la muerte, que es el último experimento.Un dramaturgo diría, con el mismo sentimiento, que es el fin del último acto.

Se retiró oficialmente en la década de 1990, y se instaló en su tierra valenciana, junto al mar que tanto quería. Pero un científico nunca deja de investigar. En el laboratorio que investigó en sus últimos años era el laboratorio de la vida. En él, ciertamente no podía aplicar el método científico y la mayoría de experimentos son irrepetibles, pero la ciencia también avanza por la observación y él era un gran observador de la realidad. En su libro de ensayo La sombra y los sueños (1993), escribía: "Una cierta curiosidad se mezcla con la angustia y la aprensión, el miedo de perecer. Para el filósofo y el científico constituye[...] una necesidad y un anhelo de explicación que sólo se puede dilucidar en el acto mismo. Es el último experimento que efectúa el hombre de ciencia que se ha pasado la vida haciendo muchos otros." Feynman, después de una intensa vida personal y profesional dominada por su pasión por la ciencia pensaba de la misma manera.

Randy Pausch fue un profesor de informática, de interacción hombre-máquina y de diseño en la Universidad Carnegie Mellon (CMU) en Pittsburgh, Pensilvania, Estados Unidos. En agosto del 2006, a Pausch se le diagnosticó un cáncer de páncreas.El 18 de septiembre de 2007 el profesor Pausch pronunció una conferencia titulada: "Alcanzar realmente tus sueños de la infancia". Se trata de una de las llamadas "últimas conferencias", en las que se propone al ponente que exponga su testamento intelectual. Para Pausch, se trataba, literalmente, de su última conferencia, puesto que los médicos habían confirmado que su cáncer era incurable.El coraje de Pausch y sus reflexiones han convertido el vídeo de la conferencia, disponible en YouTube, en un fenómeno de masas, pues ya ha sido visto por millones de personas.También disponible una versión completa con subtítulos en español y en forma de libro.


A Steve Jobs, co-fundador de Apple junto con Steve Wozniak, también se le diagnosticó un cáncer de páncreas, que se pensaba sería fatal, pero consiguió superarlo.Es conocido también su discurso en la ceremonia de graduación, de junio de 2005, de la Universidad de Stanford. Una pequeña parte del mismo:" A veces la vida te pega en la cabeza con un ladrillo. No pierdas la fé. Estoy convencido que lo único que me mantuvo en pie era el hecho que amo hacer lo que hago. Tienes que encontrar eso que amas; esto aplica en tu trabajo como en tus relaciones amorosas. Una gran parte de tu vida estará enfocada en tu trabajo y la única manera de sentirte realmente satisfecho es creer que lo que haces es un excelente trabajo. La única manera de lograr un excelente trabajo es amando lo que haces. Si no lo encuentras todavía sigue buscando. No te rindas. Como todas las cosas relacionadas con el corazón, sabrás exactamente cuando lo encuentres. Y, como en cualquier gran relación se va poniendo mejor y mejor a medida que el tiempo pasa. Así que sigue buscándolo hasta que lo encuentres, no te rindas. ..[..]."

Richard Feynman consiguió darle, también, una última lección a Leonard Mlodinow sobre cuál es la naturaleza de la ciencia, qué es la creatividad, el amor, la matemática, la felicidad, el arte, Dios, además de su visión sobre las últimas teorías físicas. Ya en el plano personal, mi padre e inspirador de este post me dio una última lección sobre la alegría de vivir y el buen humor, cuando ya parece que no puede quedar ni esperanza ni alegría ni buen humor. Lo que me recuerda las palabras de un gran sabio sobre la vida " Vívela como tu mejor representación en el gran teatro, nunca una farsa, sabiendo que el público es un ser poderoso y extremadamente benevolente".








Feliz 2018, amigos. Un fuerte abrazo!!!

2017/11/26

Números primos, números de una solapieza


Entre los números naturales 1, 2, 3 ,4 , 5, 6, 7, ,..., , n, existen unos números especiales que sólo son divisibles por la unidad y por ellos mismos. Estos números son llamados números primos y desde que se conocen han producido una extraña fascinación entre los matemáticos. Existen infinitos, Euclides realizó la primera demostración conocida de su infinitud alrededor del 300 a.C., pero su distribución, aparentemente aleatoria, sigue siendo una incógnita.

En cierta forma, estos números podríamos decir que son "de una pieza", y todos los demás números naturales se pueden construir a partir de ellos mediante un proceso llamado factorización. Los primeros números primos menores de cien son: 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89 y 97. Cada uno de ellos sólo se puede escribir como: 2 = 2, 3 = 3,..., 29 = 29,..., 67=67, ..., etc. Mientras que el resto de números naturales necesitan expresarse en función de los números primos: 4 = 2x2, 9 = 3x3, 6 = 3x2, 8 = 2x2x2, ...,30 = 2x3x5, etc.


Se conoce una importante expresión llamada teorema de los números primos que nos da la cantidad de números primos que existen hasta un determinado número. Aproximadamente, para números suficientemente grandes, la expresión es: cantidad de números primos = (número)/Logaritmo Neperiano(número). Aplicando la fórmula para (número)=1000, obtenemos 145 primos, cuando en realidad hay 168. Para 5000 nos acercamos un poquito más, la expresión nos da 587 y en realidad existen 669, y conforme probamos números mayores nos acercamos más, aunque las cifras convergen muy lentamente: para 1000 el 86,3%, para 5000 el 87,7% y para 50000 el 90%.

Lagunas con ausencia de números primos:

Entre 1 y 100 existen 25 números primos, como hemos visto, y en la lista observamos grupos de números compuestos, una especie de lagunas con ausencia de números primos: del 24 al 28 y del 90 al 96. Entre el 100 y el 200 hay 23 primos: 101, 103, 107, 109, 113, 127, 131, 137, 139, 149,151, 157, 163, 167, 173, 179, 181, 191,193, 197, 199. Y encontramos lagunas como la del 182 al 190. Nos podemos preguntar si existen lagunas más grandes entre números primos. A simple vista, parece que no vamos a encontrar ninguna de estas lagunas de forma clara con una suficiente cantidad de números, pero no es así. Podemos encontrar tantas como queramos y de la longitud que deseemos, para ello utilizaremos la siguiente expresión (pueden encontrarse muchas más): n!+2 , desde 2 hasta n. Vamos a ver algunos ejemplos: para n=3, 3!=3x2x1=6; 6+2=8 y 6+3=9. Hemos encontrado la primera laguna formada por el 8 y el 9. Seguimos con n=4: 4!=4x3x2x1=24; 24+2=26, 24+3=27 y 24+4=28. Hemos encontrado tres números compuestos seguidos, pero con esta expresión podemos encontrar cuantos queramos, por ejemplo 101 números seguidos (al menos): 102!+2, 102!+3, 102!+3, ..., 102!+101,102!+102.

¿De cuántas piezas están hechos los números?

Volviendo al título del post, se pueden ver los números compuestos como formados por piezas de números primos. Un número compuesto cualquiera, por ejemplo, el 6 es igual al producto de dos números primos 2x3, podemos considerarlo como formado por dos piezas, la pieza 2 y la pieza 3. En cambio los números primos, como el 7, están formados por sólo una pieza. En un símil musical el número primo podría considerarse como armónico principal y único, y el número compuesto como una composición de armónicos primos que formarían su espectro o descomposición factorial.

Analizando la factorización de un número como producto de números primos, podríamos imaginar que cualquier número está formado por tantas piezas como factores primos lo componen. Se observa como curiosidad que los números del orden de 100 estarían formados, como media, por un producto de 2,7 números primos, los del orden de 1000 por un producto de 2,96 números primos, los de 10000 por un producto de 3,16 números, los de 100000 por 3,3, los de 1000000 por 3,42 y los de 10000000 por 3,64. Observamos que la cantidad de "piezas" necesarias para formar cualquier número aumentan muy lentamente, y ese aumento, además, decrece. Es un tanto asombroso que mientras un número de 3 cifras necesita tres primos para factorizarse (está hecho de tres piezas), uno de 10 cifras sólo necesita cuatro (está hecho de cuatro piezas). Claro que al hablar de piezas estas son tan dispares como el 3 y el 2000003, ambos son números primos.

En un extraño (e imaginario) mundo cuántico formado por números enteros, sería fácil descubrir los números primos. Todos los números compuestos se verían como una borrosa superposición de armónicos primos mientras que los números primos aparecerían claros y estables con una sola configuración fácilmente distinguible. Algo de esto debe le debe ocurrir a Daniel Tammet, un joven autista inglés con una sorprendente capacidad para los números. Cuando piensa en ellos ve formas, colores y texturas que le permiten distinguirlos de una manera asombrosa. Al multiplicar dos números ve dos sombras; al instante aparece una tercera sombra que se corresponde con la respuesta a la pregunta. Cuando piensa en algún número sabe reconocerlo como primo o compuesto. Estuve viendo el reportaje sobre su vida, sus facultades como matemático y su prodigiosa memoria. Sus capacidades son asombrosas. En una semana logró aprender, desde cero, suficiente islandés (un idioma catalogado como muy difícil) para mantener perfectamente una entrevista en la televisión de Islandia.

A alguien le podría parecer que el estudio de los números primos no tiene ninguna utilidad, desde luego se equivoca (ojo, el algoritmo de encriptación RSA nos permite las transacciones fiables). Cualquier saber matemático, por muy absurdo que nos parezca está relacionado con infinidad de campos aparentemente inconexos. Cualquier avance en el conocimiento sobre los números primos, por ejemplo, podría ser decisivo para resolver algún problema del campo más increible que se nos ocurra, tanto matemático como físico. La realidad es conexa y conforme la vamos comprendiendo vemos que el conocimiento que tenemos de ella también lo es.


Una novela sobre investigación de números primos:

Sobre los números primos recuerdo haber leído una novela interesantísima titulada "El tío Petros y la conjetura de Goldbach". La trama discurre a través de las vicisitudes de un matemático obsesionado por comprobar la famosa conjetura de Goldbach sobre los números primos, uno de los problemas abiertos más antiguos en matemáticas. Su enunciado es el siguiente: Todo número par mayor que 2 puede escribirse como suma de dos números primos. Confieso que logró atraparme al igual que le ha pasado a infinidad de lectores. Es muy entretenida y recomendable.

... Mi agradecimiento a la página Descartes, del Ministerio de Educación, que me ha facilitado los cálculos de factorización de grandes números que he necesitado.
... Recomiendo visitar esta magnífica página sobre números primos (en inglés).

Nuestro amigo Tito Eliatron nos envía dos interesantísimos enlaces de su blog a una charla del matemático, Medalla Fields, Terry Tao: Primera parte de la charla, segunda parte. Gracias Tito.

Reedición de uno de mis post clasicos. Un abrazo amigos