INSITUTO DE MATEMATICAS CECILIO
FUE CREADO EL DIA 23 DE SETIEMBRE 2014
BIEVENIDO A ES TA SUPER NUEVA PAGINA 2014
física al dia
AHORA NOS ENTRAR A UNA ERA DE LA CUANTICA
POR ESO DEBE ESTUDIAR LA FISICA CUANTICA
EN EL SIGLO XXI ESTA ES NUESTRA PAGINA HECHO
POR CECILIO BUSTTINZA ÑAUPA PARA TODA LA REGION PUNO
CECILIO BUSTINZA ES CIENCIA Y MATEMATICAS
Stephen Hawking,
físico teórico británico, es mundialmente conocido por sus intentos de unificar
la Relatividad General con la Teoría Cuántica y por sus aportaciones
relacionadas con la Cosmología y los agujeros negros. Hawking está considerado
actualmente como uno de los físicos más importantes de la segunda mitad del
siglo XX y comienZos del XXI.
Stephen William Hawking nació el 8 de enero de 1942 en Oxford, Inglaterra. La
casa de sus padres estaba en el norte de Londres, pero durante la segunda
guerra mundial se consideraba que Oxford era un lugar más seguro para tener
niños. Cuando tenía ocho años, su familia se mudó a St Albans, un pueblo a unas
20 millas del norte de Londres.
A los once años Stephen fue a la Escuela de St Albans, y luego al Colegio Mayor
Universitario en Oxford, el antiguo colegio de su padre. Stephen quería hacer
Matemáticas, pese a que su padre habría preferido Medicina. Como Matemáticas no
podía estudiarse en el Colegio Universitario, él optó por Física en su lugar.
Después de tres años obtuvo el título de primera clase con honores en Ciencias
Naturales.
Stephen fue entonces a Cambrigde
para investigar en Cosmología. Tras obtener el Doctorado pasó a ser
Investigador, y más tarde Profesor en los Colegios Mayores de Gonville y Caius.
Después
de abandonar el Instituto de Astronomía en 1973, entró en el Departamento de
Matemáticas Aplicadas y Física Teórica, y desde 1979 ocupa el puesto de
Profesor Lucasiano de Matemáticas de Cambridge, ocupado años atrás por Isaac
Newton.
Stephen Hawking ha trabajado en las leyes básicas que gobiernan el Universo.
Junto con Roger Penrose mostró que la Teoría General de la Relatividad de
Einstein implica que el espacio y el tiempo han de tener un principio en el Big
Bang y un final dentro de agujeros negros. Semejantes resultados señalan la
necesidad de unificar la Relatividad General con la Teoría Cuántica, el otro
gran desarrollo científico de la primera mitad del siglo XX.
Una consecuencia de tal unificación era que los agujeros negros no eran
totalmente negros, sino que podían emitir radiación y eventualmente evaporarse
y desaparecer. Otra conjetura es que el Universo no tiene bordes o límites en
el tiempo imaginario. Esto implicaría que el modo en que el Universo empezó
queda completamente determinado por las leyes de la Ciencia.
Más tarde depuró este concepto considerando todas estas teorías como intentos
secundarios de describir una realidad, en la que conceptos como la singularidad
no tienen sentido y donde el espacio y el tiempo forman una superficie cerrada
sin fronteras. Ha escrito diversos libros de Física Y Astronomía, y también
libros de divulgación científica como "A hombros de gigantes",
"El Universo en una cáscara de nuez" y el famoso "Historia del
tiempo: del Big Bang a los agujeros negros" (1988) y otras obras que se
han convertido en best-sellers.
Hawking
ha hecho importantes aportaciones a la Ciencia en los campos de la Física y la
Astronomía (Cosmología y Agujeros Negros, mientras lucha contra la esclerosis
lateral amiotrófica, una enfermedad incurable del sistema nervioso. En 1989 le
fue concedido el Premio Príncipe de Asturias de la Concordia.
El Profesor Hawking tiene doce doctorados honoríficos, ha ganado el CBE en 1982
y fue designado Compañero de Honor en 1989. Ha obtenido numerosos premios,
galardones y medallas y es Miembro de Honor de la Royal Society y de la US
National Academy of Sciencies.
Stephen
Hawking combina la vida en familia y su investigación en Física teórica,
junto con un extenso programa de viajes y conferencias.
El 29 de abril de 1980, di mi conferencia
inaugural como profesor de matemáticas de la cátedra Lucasiana en Cambridge. El
título era: “¿Está a la vista el fin de la Física Teórica? y en ella describí
el progreso que ya habíamos experimentado en el entendimiento del universo
durante los últimos siglos, al mismo tiempo que me preguntaba cuales eran las
posibilidades de encontrar finalmente una teoría completa y unificada del todo
hacia finales de siglo. Bien, el final del siglo ya está casi aquí. Aunque
hemos recorrido un largo camino, particularmente durante los últimos 3 años, no
parece que vayamos a conseguirlo.
En mi
lectura de 1980 describí cómo habíamos dividido el problema de encontrar una
teoría del todo en un número de partes más manejables.
Primeramente
habíamos dividido la descripción del universo que nos rodea en dos partes. La
primera de ellas es un conjunto de leyes locales que nos dicen cómo evoluciona
cada región del universo en el tiempo si sabemos su estado inicial, y cómo es
afectada por otras regiones. La otra parte consta de un conjunto de lo que
denominamos condiciones límite. Estas, especifican lo que sucede en el borde
del espacio y el tiempo. Ellas determinan cómo empezó el universo, y quizás,
cómo va a terminar.
Mucha
gente, incluyendo probablemente a la mayoría de los físicos, sienten que las
tareas de la física teórica deberían estar confinadas a la primera parte, es
decir a formular leyes locales que describan cómo evoluciona el universo a
medida que el tiempo transcurre. Ellos considerarían la cuestión del cómo se
determinó el estado inicial como algo que va más allá del ámbito de la física,
perteneciendo al reino de la metafísica o la religión. Pero yo soy un desvergonzado
racionalista. En mi opinión las condiciones límite que determinan el estado
inicial del universo son una materia tan legítima y sujeta al escrutinio de los
científicos como lo son las leyes que gobiernan su evolución posterior.
A
principios de la década de los 60, las fuerzas que los físicos conocían se
clasificaron en cuatro categorías que parecerían estar separadas e
independizadas entre sí. La primera de las cuatro categorías era la de la
fuerza gravitatoria, la cual es portada por una partícula llamada gravitón.
La
gravedad es, con mucho, la más débil de las cuatro fuerzas. Sin embargo,
corrige su baja potencia mediante la posesión de dos importantes propiedades.
La primera es que es universal, es decir, afecta a cada partícula del universo
en la misma forma. Todos los cuerpos se atraen entre si. Ninguno deja de
sentirse afectado o repelido por la gravedad. La segunda propiedad importante
de la fuerza gravitatoria es que puede operar a través de largas distancias.
Juntas, estas dos propiedades significan que las fuerzas gravitatorias entre
las partículas de un cuerpo grande se suman entre si, y pueden dominar por
encima de las otras fuerzas.
La
segunda de las cuatro categorías en las que se dividen las fuerzas corresponde
a la fuerza electromagnética, la cual es portada por una partícula llamada
fotón. El electromagnetismo es un millón de billones de billones de billones de
billones más poderoso que la fuerza gravitatoria, y al igual que la gravedad,
puede actuar a través de grandes distancias. Sin embargo, al contrario que la
gravedad, no actúa en todas las partículas de la misma forma. Algunas
partículas son atraídas por ella, otras no son afectadas y otras son repelidas.
La
atracción y repulsión entre las partículas en dos cuerpos grandes anulará cada
una casi exactamente, al contrario que las fuerzas gravitatorias entre las
partículas, que sería atractiva con todas. Esto explica que nos caigamos hacia
el suelo, y no hacia el aparato de televisión. Por otro lado, en la escala de
las moléculas y los átomos, con solo un relativamente pequeño número de
partículas, las fuerzas electromagnéticas dominan completamente a las
gravitatorias. En la escala aún más pequeña de los núcleos atómicos, es decir
la trillonésima parte de un centímetro, la tercera y cuarta categorías: las
fuerzas nucleares débil y fuerte, dominan al resto de fuerzas.
La
gravedad y el electromagnetismo se describen en función de lo que llamamos
teorías de campos, en las que hay un conjunto de números en cada punto del
espacio y tiempo que determinan las fuerzas gravitatoria y electromagnética.
Cuando yo empecé a investigar en 1962, se creía generalmente que las fuerzas
nuclear débil y fuerte no podían ser descritas por una teoría de campo. Pero
los informes de la muerte de la teoría de campos demostraron ser una
exageración. Un nuevo tipo de teoría de campos fue presentada por Chen Ning
Yang y Robert Mills. En 1967, Abdus Salam y Steven Weinberg demostraron que una
teoría de este tipo no solo describiría las fuerzas nucleares débil y fuerte
sino que también podría unificarlas con la fuerza electromagnética. Recuerdo
que la mayoría de los físicos trataron con desprecio a esta teoría de campo.
Sin embargo, concordaba tan bien con los experimentos que en 1979 se le otorgó
el Premio Nóbel a Salam, Weinberg y Glashow, que habían propuesto teorías
unificadas similares. El comité del Nóbel realmente se arriesgó con su decisión
ya que la confirmación final de la teoría no llegaría hasta 1983, con el
descubrimiento de las partículas W y Z. (Siento la pronunciación de W y Z,
sobre todo para aquellos que son británicos y no usan un sintetizador de voz
americano).
El éxito
provocó la búsqueda de una sola teoría de “gran unificación” de Yang-Mills que
describiese a los tres tipos de fuerza. Las teorías de gran unificación no son
muy satisfactorias. En realidad, su nombre es básicamente una exageración. No
son realmente grandes ya que contienen al menos 40 números que no pueden
predecirse con antelación sino que tienen que ajustarse para que casen con los
experimentos. Se podría esperar que la teoría final del universo sea única y
que no contenga cantidades ajustables. ¿Cómo va a ser que estos valores sean
elegidos?
Pero la
objeción más poderosa a las grandes teorías de unificación era que no estaban
unificadas completamente. No incluían a la gravedad y no existía ninguna forma
aparente de ampliarlas de modo que lo hicieran. Pudiera ser que no existiera
una única teoría fundamental. En lugar de eso, podría haber una colección de
teorías aparentemente diferentes, cada una de las cuales funcionaría bien en
ciertas situaciones. Las teorías diferentes concordarían entre si en aquellas
regiones de validez en la que se superpusieran. Por ello, podrían ser
contempladas como aspectos diferentes de la misma teoría. Pero tal vez no
existiese una única formulación de la teoría que pudiese aplicarse en todas las
situaciones.
Podemos
comparar la física teórica al hecho de cartografiar la Tierra. Se puede
representar exactamente una pequeña región de la superficie de la tierra, en
forma de mapa, en una hoja de papel. Pero si se intenta hacer un mapa de una
región más grande se obtendrían distorsiones debido a la curvatura de la
Tierra. No es posible representar cada punto de la superficie de la Tierra en
un único mapa. En lugar de ello, usamos una colección de mapas que concuerdan
en aquellas regiones donde se superponen.
Como
dije, incluso si encontramos una teoría unificada completa, tanto con una única
formulación, como con una serie de teorías superpuestas, solo habremos
solucionado la mitad del problema. La teoría unificada nos dirá como evoluciona
el universo en el tiempo dado un estado inicial. Pero la teoría no especificará
en si misma las condiciones límites en el borde del espacio y el tiempo que
determinan el estado inicial. Esta cuestión es fundamental para la cosmología.
Podemos observar el estado presente del universo, y podemos usar las leyes de
la física para calcular cómo pudo ser en épocas anteriores. Pero todo lo que
esto nos dice es que el universo es ahora como es, porque entonces era como
era. No podemos entender por qué el universo tiene el aspecto que tiene a no
ser que la cosmología se convierta en una ciencia, en el sentido de que pueda
hacer predicciones. Y para hacer esto necesitamos una teoría de las condiciones
límite del universo.
Ha habido
varias sugerencias para las condiciones iniciales del universo, tales como la
hipótesis del túnel y el así llamado escenario pre-big bang. Pero en mi
opinión, la más elegante, con mucho, es la que Jim Hartle y yo llamamos la
propuesta de la ausencia de límites. Esta puede enunciarse como: la condición
de límite del universo es que no tiene límite. En otras palabras, el espacio y
el tiempo imaginario unidos se curvan hacia atrás sobre si mismos de modo que forman
una superficie cerrada como la superficie de la Tierra, pero con más
dimensiones. La superficie de la Tierra tampoco tiene límites. No existen
informes fiables de que alguien haya caído en el abismo del fin del mundo.
La
condición de no-límite y las otras teorías son simplemente proposiciones para
las condiciones de límite del universo. Para probarlas tenemos que calcular qué
predicciones pueden extraerse de ellas y compararlas con las nuevas
observaciones que están empezando a hacerse. De momento, las observaciones no
son lo bastante buenas como para distinguir entre estas diferentes clases de
mapa. Pero en los próximos años, se acometerán nuevas observaciones que podrán
salvar esta cuestión. La cosmología vive un período excitante. Apuesto mi
dinero por la condición de no-límite. Se trata de una explicación tan elegante
que estoy seguro que Dios la habría elegido.
El
progreso efectuado con los intentos de unificar la gravedad con el resto de
fuerzas ha sido enteramente teórico. Esto ha llevado a alguna gente como al
físico John Horgan a afirmar que la física esta muerta porque se ha convertido
simplemente en un juego matemático, no relacionado con la experimentación. Pero
yo no estoy de acuerdo. Aunque no podamos producir partículas de la energía de
Planck – la energía a la cual la gravedad se unificaría con las otras fuerzas –
existen predicciones que pueden ser verificadas a niveles más bajos de energía.
El Super Colisionador Superconductor que estaba siendo construido en Texas
podría haber alcanzado esas energías pero fue cancelado cuando los Estados
Unidos iniciaron una fase de recesión económica. De modo que tendremos que
esperar a que se concluya el Gran Colisionador de Hadrones que está siendo
construido en Ginebra.
Asumiendo
que los experimentos de Ginebra confirmen la teoría actual, ¿cuáles son las
perspectivas de completar una teoría unificada? En 1980 dije que pensaba que
había una oportunidad del 50% de encontrar una teoría completa de unificación
durante los siguientes 20 años. Esa es aún mi estimación, pero los próximos 20
años empiezan ahora. Volveré dentro de otros 20 años para decirles si lo hemos
conseguido.
Esta conferencia versa sobre si
podemos predecir el futuro o bien éste es arbitrario y aleatorio. En la
antigüedad, el mundo debía de haber parecido bastante arbitrario. Desastres
como las inundaciones o las enfermedades debían de haber parecido producirse
sin aviso o razón aparente. La gente primitiva atribuía esos fenómenos
naturales a un panteón de dioses y diosas que se comportaban de una forma
caprichosa e impulsiva. No había forma de predecir lo que harían, y la única
esperanza era ganarse su favor mediante regalos o conductas. Mucha gente
todavía suscribe parcialmente esta creencia, y tratan de firmar un pacto con la
fortuna. Se ofrecen para hacer ciertas cosas a cambio de un sobresaliente en
una asignatura, o de aprobar el examen de conducir.
Sin
embargo, la gente se debió de dar cuenta gradualmente de ciertas regularidades
en el comportamiento de la naturaleza. Estas regularidades eran más obvias en
el movimiento de los cuerpos celestes a través del firmamento. Por eso la
Astronomía fue la primera ciencia en desarrollarse. Fue puesta sobre una firme
base matemática por Newton hace más de 300 años, y todavía usamos su teoría de
la gravedad para predecir el movimiento de casi todos los cuerpos celestes.
Siguiendo el ejemplo de la Astronomía, se encontró que otros fenómenos
naturales también obedecían leyes científicas definidas. Esto llevó a la idea
del determinismo científico, que parece haber sido expresada públicamente por
primera vez por el científico francés Laplace. Me pareció que me gustaría citar
literalmente las palabras de Laplace. y le pedí a un amigo que me las buscara.
Por supuesto que están en francés, aunque no esperaba que la audiencia tuviera
ningún problema con esto.
El
problema es que Laplace, como Prewst [N. del T.: Hawking probablemente se
refiere a Proust], escribía frases de una longitud y complejidad
exageradas. Por eso he decidido parafrasear la cita. En efecto, lo que él dijo
era que, si en un instante determinado conociéramos las posiciones y
velocidades de todas las partículas en el Universo, podríamos calcular su
comportamiento en cualquier otro momento del pasado o del futuro. Hay una
historia probablemente apócrifa según la cual Napoleón le preguntó a Laplace
sobre el lugar de Dios en este sistema, a lo que él replicó "Caballero, yo
no he necesitado esa hipótesis". No creo que Laplace estuviera reclamando
que Dios no existe. Es simplemente que El no interviene para romper las leyes
de la Ciencia. Esa debe ser la postura de todo científico. Una ley científica no
lo es si solo se cumple cuando algún ser sobrenatural lo permite y no
interviene.
La idea
de que el estado del universo en un instante dado determina el estado en
cualquier otro momento ha sido uno de los dogmas centrales de la ciencia desde
los tiempos de Laplace. Eso implica que podemos predecir el futuro, al menos en
principio. Sin embargo, en la práctica nuestra capacidad para predecir el
futuro está severamente limitada por la complejidad de las ecuaciones, y por el
hecho de que a menudo exhiben una propiedad denominada caos. Como sabrán bien
todos los que han visto Parque Jurásico, esto significa que una pequeña
perturbación en un lugar puede producir un gran cambio en otro. Una mariposa
que bate sus alas puede hacer que llueva en Central Park, Nueva York. El
problema es que eso no se puede repetir. La siguiente vez que una mariposa bata
sus alas, una multitud de otras cosas serán diferentes, lo que también tendrá
influencia sobre la meteorología. Por eso las predicciones meteorológicas son
tan poco fiables.
A pesar
de estas dificultades prácticas, el determinismo científico permaneció como
dogma durante el siglo 19. Sin embargo, en el siglo 20 ha habido dos
desarrollos que muestran que la visión de Laplace sobre una predicción completa
del futuro no puede ser llevada a cabo. El primero de esos desarrollos es lo
que se denomina mecánica cuántica. Fue propuesta por primera vez en 1900, por
el físico alemán Max Planck, como hipótesis ad hoc para resolver una paradoja
destacada. De acuerdo con las ideas clásicas del siglo 19, que se remontan a
los tiempos de Laplace, un cuerpo caliente, como una pieza de metal al rojo,
debería emitir radiación. Perdería energía en forma de ondas de radio,
infrarrojos, luz visible, ultravioleta, rayos x, y rayos gamma, todos a la
misma tasa. Esto no sólo significaría que todos moriríamos de cáncer de piel,
sino que además todo en el universo estaría a la misma temperatura, lo que
claramente no es así.
Sin
embargo, Planck mostró que se puede evitar este desastre si se abandonara la
idea de que la cantidad de radiación puede tener cualquier valor, y se dijera
en su lugar que la radiación llega únicamente en paquetes o cuantos de un
cierto tamaño. Es un poco como decir que en el supermercado no se puede comprar
azúcar a granel, sino sólo en bolsas de un kilo. La energía en los paquetes o
cuantos es mayor para los rayos x y ultravioleta, que para la luz infrarroja o
visible. Esto significa que a menos que un cuerpo esté muy caliente, como el
Sol, no tendrá suficiente energía para producir ni siquiera un único cuanto de
rayos x o ultravioleta. Por eso no nos quemamos por insolación con una taza de
café.
Para
Planck los cuantos no eran más que un truco matemático que no tenía una
realidad física, lo que quiera que eso signifique. Sin embargo, los físicos
empezaron a encontrar otro comportamiento, que sólo podía ser explicado en
términos de cantidades con valores discretos o cuantizados, más que variables
continuas. Por ejemplo, se encontró que las partículas elementales se comportaban
más bien como pequeñas peonzas girando sobre un eje. Pero la cantidad de giro
no podía tener cualquier valor. Tenía que ser algún múltiplo de una unidad
básica. Debido a que esa unidad es muy pequeña, uno no se da cuenta de que una
peonza normal decelera mediante una rápida secuencia de pequeños pasos, más que
mediante un proceso continuo. Pero para peonzas tan pequeñas como los átomos,
la naturaleza discreta del giro es muy importante.
Pasó
algún tiempo antes de que la gente se diera cuenta de las implicaciones que
tenía este comportamiento cuántico para el determinismo. No sería hasta 1926,
cuando Werner Heisenberg, otro físico alemán, indicó que no podrías medir
exactamente la posición y la velocidad de una partícula a la vez. Para ver
dónde está una partícula hay que iluminarla. Pero de acuerdo con el trabajo de
Planck, uno no puede usar una cantidad de luz arbitrariamente pequeña. Uno
tiene que usar al menos un cuanto. Esto perturbará la partícula, y cambiará su
velocidad de una forma que no puede ser predicha. Para medir la posición de la
partícula con exactitud, deberás usar luz de una longitud de onda muy corta,
como la ultravioleta, rayos x o rayos gamma. Pero nuevamente, por el trabajo de
Planck, los cuantos de esas formas de luz tienen energías más altas que las de
la luz visible. Por eso perturbarán aún más la velocidad de la partícula. Es un
callejón sin salida: cuanto más exactamente quieres medir la posición de la
partícula, con menos exactitud puedes conocer la velocidad, y viceversa. Esto queda
resumido en el Principio de Incertidumbre formulado por Heisenberg; la
incertidumbre en la posición de una partícula, multiplicada por la
incertidumbre en su velocidad, es siempre mayor que una cantidad llamada la
constante de Planck, dividida por la masa de la partícula.
La visión
de Laplace del determinismo científico implicaba conocer las posiciones y
velocidades de las partículas en el universo en un instante dado del tiempo.
Por lo tanto, fue seriamente socavado por el Principio de Incertidumbre de Heisenberg.
¿Cómo puede uno predecir el futuro, cuando uno no puede medir exactamente las
posiciones ni las velocidades de las partículas en el instante actual? No
importa lo potente que sea el ordenador de que dispongas, si lo alimentas con
datos deplorables, obtendrás predicciones deplorables.
Einstein
estaba muy descontento por esta aparente aleatoriedad en la naturaleza. Su
opinión se resumía en su famosa frase 'Dios no juega a los dados'. Parecía que
había presentido que la incertidumbre era sólo provisional, y que existía una
realidad subyacente en la que las partículas tendrían posiciones y velocidades
bien definidas y se comportarían de acuerdo con leyes deterministas, en
consonancia con Laplace. Esta realidad podría ser conocida por Dios, pero la naturaleza
cuántica de la luz nos impediría verla, excepto tenuemente a través de un
cristal.
La visión
de Einstein era lo que ahora se llamaría una teoría de variable oculta. Las
teorías de variable oculta podrían parecer ser la forma más obvia de incorporar
el Principio de Incertidumbre en la física. Forman la base de la imagen mental
del universo, sostenida por muchos científicos, y prácticamente por todos los
filósofos de la ciencia. Pero esas teorías de variable oculta están
equivocadas. El físico británico John Bell, que murió recientemente, ideó una
comprobación experimental que distinguiría teorías de variable oculta. Cuando
el experimento se llevaba a cabo cuidadosamente, los resultados eran
inconsistentes con las variables ocultas. Por lo tanto parece que incluso Dios
está limitado por el Principio de Incertidumbre y no puede conocer la posición
y la velocidad de una partícula al mismo tiempo. O sea que Dios juega a los
dados con el universo. Toda la evidencia lo señala como un jugador empedernido,
que tira los dados siempre que tiene ocasión.
Otros
científicos estaban mucho más dispuestos que Einstein a modificar la visión
clásica del determinismo del siglo 19. Una nueva teoría, denominada la mecánica
cuántica, fue propuesta por Heisenberg, el austríaco Erwin Schroedinger, y el
físico británico Paul Dirac. Dirac fue mi penúltimo predecesor en la cátedra
Lucasiana de Cambridge. Aunque la mecánica cuántica ha estado entre nosotros
durante cerca de 70 años, todavía no es generalmente entendida o apreciada,
incluso por aquellos que la usan para hacer cálculos. Sin embargo, debería
preocuparnos a todos, puesto que es una imagen completamente diferente del
universo físico y de la misma realidad.
En la
mecánica cuántica, las partículas no tienen posiciones ni velocidades bien
definidas. En su lugar, son representadas por lo que se llama una función de
onda. Esta es un número en cada punto del espacio. El tamaño de la función de
onda indica la probabilidad de que la partícula sea encontrada en esa posición.
La tasa con la que la función de onda cambia de punto a punto, proporciona la
velocidad de la partícula. Uno puede tener una función de onda con un gran pico
en una región muy pequeña. Esto significará que la incertidumbre en la posición
es muy pequeña. Pero la función de onda variará muy rápidamente cerca del pico,
hacia arriba en un lado, hacia abajo en el otro. Por lo tanto la incertidumbre
en la velocidad será grande. De la misma manera, uno puede tener funciones de
onda en las que la incertidumbre en la velocidad es pequeña, pero la
incertidumbre en la posición es grande.
La
función de onda contiene todo lo que uno puede saber de la partícula, tanto su
posición como su velocidad. Si sabes la función de onda en un momento dado,
entonces sus valores en otros momentos son determinados por lo que se llama la
ecuación de Schroedinger. Por lo tanto uno tiene aún un cierto determinismo,
pero no del tipo que Laplace imaginaba. En lugar de ser capaces de predecir las
posiciones y las velocidades de las partículas, todo lo que podemos predecir es
la función de onda. Esto significa que podemos predecir sólo la mitad de lo que
podríamos de acuerdo con la visión clásica del siglo 19.
Aunque la
mecánica cuántica lleva a la incertidumbre cuando tratamos de predecir la posición
y la velocidad a un mismo tiempo, todavía nos permite predecir con certidumbre
una combinación de posición y velocidad. Sin embargo, incluso este grado de
certidumbre parece estar amenazado por desarrollos más recientes. El problema
surge porque la gravedad puede torcer el espacio-tiempo tanto que puede haber
regiones que no observamos.
Curiosamente,
el mismo Laplace escribió un artículo en 1799 sobre cómo algunas estrellas
pueden tener un campo gravitatorio tan fuerte que la luz no podría escapar, siendo
por tanto arrastrada de vuelta a la estrella. Incluso calculó que una estrella
de la misma densidad que el Sol, pero doscientas cincuenta veces más pequeña,
tendría esta propiedad. Pero aunque Laplace podría no haberse dado cuenta, la
misma idea había sido propuesta 16 años antes por un hombre de Cambridge, John
Mitchell, en un artículo en Phylosophical Transactions of the Royal Society.
Tanto Mitchel como Laplace concebían a la luz como formada por partículas, más
bien como bolas de cañón, que podían ser deceleradas por la gravedad, y hechas
caer de vuelta a la estrella. Pero un famoso experimento llevado a cabo por dos
americanos, Michelson y Morley, en 1887, mostraron que la luz siempre viajaba a
una velocidad de ciento ochenta y seis mil millas por segundo, no importa de
dónde viniera. Cómo podía entonces la gravedad decelerarla, y hacerla caer de
nuevo.
De
acuerdo con las ideas sobre el espacio y el tiempo vigentes en aquel momento
esto era imposible. Sin embargo, en 1915 Einstein presentó al mundo su
revolucionaria Teoría General de la Relatividad en la cual espacio y tiempo
dejaban de ser entidades separadas e independientes. Por el contrario, eran
meramente diferentes direcciones de una única noción llamada espacio-tiempo.
Esta noción espacio-tiempo no era uniforme sino deformada y curvada debido a su
energía inherente. Para que se entienda mejor, imagínese que colocamos un peso
(que hará las veces de estrella) sobre una lámina de goma. El peso (estrella)
formará una depresión en la goma curvándose la zona alrededor del mismo en
contraposición a la planicie anterior. Si hacemos rodar canicas sobre la lámina
de goma, sus rastros serán espirales más que líneas rectas.
En 1919,
una expedición británica en el Oeste de África observaba la luz de estrellas
lejanas que cruzaba cerca del sol durante un eclipse. Descubrieron que las
imágenes de las estrellas variaban ligeramente de sus posiciones habituales;
esto revelaba que las trayectorias de la luz de las estrellas habían sido
curvadas por el influjo del espacio-tiempo que rodea al sol. La Relatividad
General había sido confirmada.
Imagínese
ahora que colocamos pesos sobre la lámina de goma cada vez más cuantiosos y de
manera más intensiva. Hundirán la plancha cada vez más. Con el tiempo,
alcanzado el peso y la masa crítica se hará un agujero en la lámina por el que
podrán caer las partículas pero del que no podrá salir nada.
Según la
Teoría General de la Relatividad lo que sucede con el espacio-tiempo es
bastante similar. Cuanto más ingente y más densa sea una estrella, tanto más se
curvará y distorsionará el espacio-tiempo alrededor de la misma. Si una
estrella inmensa que ha consumido ya su energía nuclear se enfría encogiéndose
por debajo de su masa crítica, formará literalmente un agujero sin fondo en el
espacio-tiempo por el que no puede pasar la luz. El físico americano John
Wheeler llamó a estos objetos “agujeros negros” siendo el primero en destacar
su importancia y los enigmas que encierran. El término se hizo popular
rápidamente. Para los americanos sugería algo oscuro y misterioso mientras que
para los británicos existía además la amplia difusión del Agujero Negro de
Calcuta. Sin embargo los franceses, muy franceses ellos, percibieron algo
indecente en el vocablo. Durante años se resistieron a utilizar el término,
demasiado negro, arguyendo que era obsceno; pero era parecido a intentar luchar
contra préstamos lingüísticos como “le weekend” y otras mezcolanzas del
“franglés”. Al final tuvieron que claudicar. ¿Quién puede resistirse a una
expresión así de conquistadora?
Ahora
tenemos evidencias de la existencia de agujeros negros en diferentes tipos de
entidades, desde sistemas de estrellas binarios al centro de las galaxias. Por
lo tanto, la existencia de agujeros negros está ampliamente aceptada hoy en
día. Con todo y al margen de su potencial para la ciencia ficción, ¿cuál sería
su relevancia para el determinismo? La respuesta reside en una pegatina de
parachoques que tenía en la puerta de mi despacho: “los agujeros negros son
invisibles”.
No sólo
ocurre que las partículas y los astronautas desafortunados que caen en un
agujero negro no vuelven nunca, sino que la información que estos portan se
pierde para siempre, al menos en nuestra demarcación del universo. Puede lanzar
al agujero negro aparatos de televisión, sortijas de diamantes e incluso a sus
peores enemigos y todo lo que recordará el agujero negro será su masa total y
su estado de rotación. John Wheeler llamó a esto “un agujero negro no tiene
pelo”. Esto confirma las sospechas de los franceses.
Mientras
hubo el convencimiento de que los agujeros negros existirían siempre, esta
pérdida de información pareció no importar demasiado. Se podía pensar que la
información seguía existiendo dentro de los agujeros negros. Simplemente es que
no podemos saber lo que hay desde fuera de ellos pero la situación cambió
cuando descubrí que los agujeros negros no son del todo negros. La Mecánica
Cuántica hace que estos emitan partículas y radiaciones a un ritmo constante.
Estos
hallazgos me asombraron no sólo a mí si no al resto del mundo pero con la
perspectiva del tiempo esto habría resultado obvio. Lo que se entiende
comúnmente como “el vacío” no está realmente vacío ya que está formado por
pares de partículas y antipartículas. Estas permanecen juntas en cierto momento
del espacio-tiempo, en otro se separan para después volver a unirse y
finalmente aniquilarse la una a las otra. Estas partículas y antipartículas
existen porque un campo, tal como los campos que transportan la luz y la
gravedad no puede valer exactamente cero. Esto denotaría que el valor del campo
tendría tanto una posición exacta (en cero) como una velocidad o ritmo de
cambio exacto (también cero). Esto violaría el Principio de Incertidumbre
porque una partícula no puede tener al tiempo una posición y una velocidad
constantes. Por lo tanto, todos los campos deben tener lo que se denomina
fluctuaciones del vacío. Debido al comportamiento cuántico de la naturaleza se
puede interpretar estas fluctuaciones del vacío como partículas y antipartículas
como he descrito anteriormente.
Estos
pares de partículas se dan en conjunción con todas las variedades de partículas
elementarias. Se denominan partículas virtuales porque se producen incluso en
el vacío y no pueden ser mostradas directamente por los detectores de
partículas. Sin embargo, los efectos indirectos de las partículas virtuales o
fluctuaciones del vacío han sido estudiados en diferentes experimentos, siendo
confirmada su existencia.
Si hay un
agujero negro cerca, uno de los componentes de un par de partículas y
antipartículas podría deslizarse en dicho agujero dejando al otro componente
sin compañero. La partícula abandonada puede caerse también en el agujero o
bien desplazarse a larga distancia del mismo donde se convertirá en una
verdadera partícula que podrá ser apreciada por un detector de partículas. A
alguien muy alejado del agujero negro le parecerá que la partícula ha sido
emitida por el mismo agujero.
Esta
explicación de cómo los agujeros negros no son tan negros clarifica que la
emisión dependerá de la magnitud del agujero negro y del ritmo al que esté
rotando. Sin embargo, como un agujero negro no tiene pelo, citando a Wheeler,
la radiación será por otra parte independiente de lo que se deslizó por el
agujero. No importa lo que arroje a un agujero negro: aparatos de televisión,
sortijas de diamantes o a sus peores enemigos. Lo que de allí sale es siempre
lo mismo.
Pero ¿qué
tiene esto que ver con el determinismo que es sobre lo que se supone que versa
esta conferencia? Lo que esto demuestra es que hay muchos estados iniciales
(incluyendo aparatos de televisión, sortijas de diamantes e incluso gente) que
evolucionan hacia el mismo estado final, al menos fuera del agujero negro. Sin
embargo, en la visión de Laplace sobre el determinismo había una
correspondencia exacta entre los estados iniciales y los finales. Si usted
supiera el estado del universo en algún momento del pasado podría predecirlo en
el futuro. De manera similar, si lo supiera en el futuro, podría deducir lo que
habría sido en el pasado. Con el advenimiento de la Teoría del Cuanto en los
años 20 del siglo pasado se redujo a la mitad lo que uno podía predecir pero
aún dejó una correspondencia directa entre los estados del universo en
diferentes momentos. Si uno supiera la función de onda en un momento dado,
podría calcularla en cualquier otro.
Sin
embargo, la situación es bastante diferente con los agujeros negros. Uno se
encontrará con el mismo estado fuera del agujero, independientemente de lo que
haya lanzado dentro, a condición de que tenga la misma masa. Por lo tanto, no
hay una correspondencia exacta entre el estado inicial y el estado final ya
fuera del agujero negro. Habrá una correspondencia exacta entre el estado
inicial y el final ambos fuera o ambos dentro del agujero negro. Sin embargo,
lo importante es que la emisión de partículas y la radiación alrededor del
agujero provocan una reducción en la masa del mismo y se empequeñece.
Finalmente,
parece que el agujero negro llega a la masa cero y desaparece del todo. Pero,
¿qué ocurre con todos los objetos que fueron lanzados al agujero y con toda la
gente que o bien saltó o fue empujada? No pueden volver a salir porque no
existe la suficiente masa o energía sobrante en el agujero negro para enviarlos
fuera de nuevo. Puede que pasen a otro universo pero eso nos da lo mismo a los
que somos lo suficientemente prudentes como para no saltar dentro de un agujero
negro. Incluso la información de lo que cayó dentro del agujero no podría salir
de nuevo cuando el agujero desaparezca por último. La información no se
distribuye gratuitamente como bien sabrán aquellos de ustedes que paguen
facturas telefónicas. La información necesita energía para transportarse, y no
habrá suficiente energía de sobra cuando el agujero negro desaparezca.
Lo que
todo esto significa es que la información se perderá de nuestra demarcación del
universo cuando se formen los agujeros negros para después desvanecerse. Esta
pérdida de información implica que podemos predecir incluso menos de lo
pensamos, partiendo de la base de la teoría cuántica. En esta teoría puede no
ser factible predecir con certidumbre la posición y la velocidad de una
partícula al mismo tiempo. Hay sin embargo una combinación de posición y
velocidad que sí puede ser predicha. En el caso de un agujero negro, esta
predicción específica concierne a los dos miembros de un par de
partículas-antipartículas pero únicamente podemos detectar la partícula
expulsada. No hay modo alguno, incluso en un principio, de poner de manifiesto
la partícula que se precipita al agujero. Por lo tanto, por lo que sabemos,
podría estar en cualquier estado. Esto significa que no podemos hacer ninguna
predicción concreta acerca de la partícula que expulsa el agujero.
Podemos calcular
la probabilidad de que la partícula tenga esta o aquella posición o velocidad
pero no podemos predecir con precisión una combinación de la posición y
velocidad de sólo una partícula porque su velocidad y posición van a depender
de la otra partícula, la cual no está bajo nuestra observación. Así que
Einstein estaba sin lugar a dudas equivocado cuando dijo, “Dios no juega a los
dados”. No sólo Dios juega definitivamente a los dados sino que además a veces
los lanza a donde no podemos verlos.
Muchos científicos
son como Einstein en el sentido de que tienen un lazo emocional muy fuerte con
el determinismo pero al contrario que Einstein han aceptado la reducción en
nuestra capacidad para predecir que nos había traído consigo la teoría
cuántica. Pero ya era mucho. A estos no les gustó la consiguiente reducción que
los agujeros negros parecían implicar. Pensar que el universo es determinista,
como creía Laplace, es simplemente inocente. Presiento que estos científicos no
se han aprendido la lección de la historia. El universo no se comporta de
acuerdo a nuestras preconcebidas ideas. Continúa sorprendiéndonos.
Podría
pensarse que no importa demasiado si el determinismo hizo aguas cerca de los
agujeros negros. Estamos casi seguros de estar al menos a unos pocos años luz
de agujero negro de cualquier tamaño pero según el Principio de Incertidumbre,
cada región del espacio debería estar llena de diminutos agujeros negros
virtuales que aparecerían y desaparecerían una y otra vez. Uno pensaría que las
partículas y la información podrían precipitarse en estos agujeros negros y
perderse. Sin embargo, como estos agujeros negros virtuales son tan pequeños
(cien billones de billones más pequeños que el núcleo de un átomo) el ritmo al
cual se perdería la información sería muy bajo. Esto es por lo que las leyes de
la ciencia parecen deterministas, observándolas con detenimiento. Sin embargo,
en condiciones extremas, tales como las del universo temprano o las de la
colisión de partículas de alta energía, podría haber una significativa pérdida
de información. Esto conduce a la imprevisibilidad en la evolución del
universo.
En
resumen, de lo que he estado hablando es de si el universo evoluciona de manera
arbitraria o de si es determinista. La visión clásica propuesta por Laplace
estaba fundada en la idea de que el movimiento futuro de las partículas estaba
determinado por completo, si su sabían sus posiciones y velocidades en un
momento dado. Esta hipótesis tuvo que ser modificada cuando Heisenberg presentó
su Principio de Incertidumbre el cual postulaba que no se podía saber al mismo
tiempo y con precisión la posición y la velocidad. Sin embargo, sí que era
posible predecir una combinación de posición y velocidad pero incluso esta
limitada certidumbre desapareció cuando se tuvieron en cuenta los efectos de
los agujeros negros: la pérdida de partículas e información dentro de los
agujeros negros dio a entender que las partículas que salían eran fortuitas.
Se pueden
calcular las probabilidades pero no hacer ninguna predicción en firme. Así, el
futuro del universo no está del todo determinado por las leyes de la ciencia,
ni su presente, en contra de lo que creía Laplace. Dios todavía se guarda
algunos ases en la manga.
Es todo
lo que tengo que decir por el momento. Gracias por escucharme
21
de julio, 2004
¿Pueden
escucharme?
Quiero
informar que creo haber solucionado un gran problema en la física teórica que
ha estado rondando desde que descubrí que los agujeros negros radian
termalmente, hace treinta años. La pregunta es ¿Se pierde la información en la
evaporación de un agujero negro? Si es así la evolución no es unitaria y los
estados cuánticos puros, se descomponen en estados mixtos.
Le estoy
agradecido a mi estudiante graduado Christophe Galfard por su ayuda en la
preparación de esta conferencia.
La
información de la paradoja sobre los agujeros negros, comenzó en 1967, cuando
Werner Israel mostró que la métrica de Schwarzschild, era la única solución
estática del vacío con agujeros negros. Esto fue generalizado entonces por el
teorema de no pelo, la única solución de las ecuaciones de Einstein Maxwell son
las métricas de Kerr Newman. El teorema de no pelo implicaba que toda la
información acerca del cuerpo en colapso, se perdía desde la región exterior,
aparte de tres cantidades conservadas, la masa, el momento angular y la carga
eléctrica.
Esta
pérdida de información no era un problema en la teoría clásica. Un agujero
negro clásico duraría eternamente y la información podía pensarse que quedaba
conservada dentro de él, pero no muy asequible. Sin embargo, la situación
cambió cuando descubrí que los efectos cuánticos ocasionarían que un agujero
negro radiase a un ritmo persistente. Al menos en la aproximación que estaba yo
utilizando, la radiación del agujero negro sería totalmente térmica y no
llevaría información. Así que, qué es lo que sucedería con toda la información
encerrada en el interior de un agujero negro, que se evaporaba y desaparecía
completamente.
Parecía
ser que la única manera como la información podía salir, sería si la radiación
no fuese exactamente térmica, pero que tuviera correlaciones sutiles. Nadie ha
encontrado un mecanismo para producir correlaciones, pero la mayoría de los
físicos creen que alguna debe de existir. Si la información se perdiese en los
agujeros negros, los estados puros del cuanto se descompondrían en estados
mezclados y la gravedad del cuanto no sería unitaria.
Yo lancé
primero la pregunta sobre pérdida de información en el 75 y el argumento
continuo por años, sin ninguna resolución por ningún lado. Finalmente, se
reclamó que el asunto había sido resuelto en favor de la conservación de la
información por ADS, CFT. ADS, CFT, es una dualidad conjeturada entre la
súper-gravedad del espacio anti de Sitter y una Teoría de Campo Conforme en las
fronteras del espacio anti de Sitter en el infinito. Ya que la Teoría del Campo
Conforme es manifiestamente unitaria, el argumento es que la súper-gravedad
debe conservar la información. Cualquier información que cae en un agujero
negro en el espacio anti de Sitter, debe de volver a salir. Pero aún no estaba
claro como podía salir del agujero la información.
Esta es
la pregunta a la que voy a referirme.
La
formación y evaporación de un agujero negro puede pensarse como un proceso de
interacción. Uno envía partículas y radiación desde el infinito y mide que es
lo que sale hacia el infinito. Todas las mediciones se realizan al infinito,
donde los campos son débiles y uno nunca sondea la región fuerte del campo en
el medio. De manera que uno nunca puede estar seguro que se forma un agujero
negro, no importa que tan cierto pueda esto ser en la teoría clásica. Mostraré
que esta posibilidad, permite que se conserve la información y que sea
regresada al infinito.
Adopto el
acercamiento Euclidiano, la única manera sensata de manejar la gravedad
cuántica no perturbativa. Así, la evolución temporal de un estado inicial está
dada por una integra de caminos sobre todas las métricas positivas que van
entre dos superficies, que están separadas una distancia T en el infinito.
Entonces uno hace una rotación de Wick del intervalo de tiempo, T, al
Lorentziano.
La
integral de caminos es tomada sobre métricas para todas las topologías posibles
que caben en medio de las superficies. Existe la topología trivial, la
superficie inicial por el intervalo de tiempo. Después están las topologías no
triviales que son todas las demás topologías posibles. La topología trivial
puede ser foliada por una familia de superficies de tiempo constante. La
integral de caminos de todas las mediciones con la topología trivial, puede
tratarse canónicamente con secciones temporales. En otras palabras, la
evolución temporal (incluyendo la gravedad) será generada por un Hamiltoniano.
Esto dará un mapa unitario desde la superficie inicial a la final.
Las
topologías no triviales, no pueden ser foliadas por una familia de superficies
de tiempo constante. Existirá un punto fijo en cualquier campo vectorial de
evolución temporal en una topología no trivial. Un punto fijo en el régimen
Euclidiano, se corresponde a un horizonte en el Lorentziano. Un pequeño cambio
en el estado de la superficie inicial, se propagaría como una onda lineal,
sobre el fondo de cada métrica en la integral de caminos. Si el fondo contenía
un horizonte, la onda caería a través de él y decaería exponencialmente en un
tiempo posterior, fuera del horizonte. Por ejemplo, las funciones de
correlación decaen exponencialmente en las métricas con agujeros negros. Esto
significa que la integral de caminos sobre todas las métricas topológicamente
no triviales, será independiente del estado de la superficie inicial. No se
sumará a la amplitud para ir desde el estado inicial hasta el final, que
proviene de la integral de caminos sobre todas las métricas topológicamente
triviales.
De manera
que el mapa desde los estados iniciales a los finales, dado por la integral de
caminos sobre todas las métricas, será unitario. Uno podría dudar el uso de
este argumento, del concepto de un estado cuántico para el campo gravitacional,
sobre una superficie spacelike inicial o final. Esto sería un funcional de las
geometrías de superficies spacelike, lo cual no es algo que pueda medirse en
campos débiles cerca del infinito. Uno puede medir los campos débiles
gravitatorios, en un tubo timelike alrededor del sistema, pero las tapas de
encima y de debajo, van a través del interior del sistema, donde los campos
pueden ser fuertes.
Una forma
de deshacerse de las dificultades de las tapas, sería unir la superficie final
de regreso con la superficie inicial, e integrar todas las geometrías
espaciales de la unión. Si esta fuese una identificación bajo un intervalo de
tiempo Lorentziano, T, en el infinito, introduciría curvas timelike cerradas.
Pero si el intervalo al infinito es la distancia Euclidiana, beta, la integral
de caminos proporciona la función de partición para la gravedad a la
temperatura, uno sobre beta.
La
función de partición de un sistema, es la traza sobre todos los estados,
pesados con e a la menos beta H. Entonces se puede integrar beta a lo largo de
un contorno paralelo al eje imaginario, con el factor, e a la beta E0. Esto
proyecta los estados con energía, E0. En un colapso gravitatorio y evaporación,
uno está interesado en los estados de energía precisa, en vez de los estados de
temperatura precisa.
Existe un
problema de infrarrojo con esta idea para un espacio plano asintótico. La
integral de caminos Euclidiana con período beta, es la función de partición
para espacio a temperatura, uno sobre beta. La función de partición es infinita,
porque el volumen del espacio es infinito. Este problema de infrarrojo puede
resolverse por una pequeña constante cosmológica negativa. No afectará la
evaporación de un agujero negro pequeño, pero cambiará el infinito a espacio
anti de Sitter y hará finita la función de partición térmica.
La
frontera en el infinito entonces es un toroide, S1, por S2. La topología
trivial, periódicamente identificada como espacio anti de Sitter, llena el
toroide, pero también lo hacen las topologías no-triviales, la más conocida de
ellas siendo la Schwarzschild anti de Sitter. Mientras que la temperatura sea
pequeña comparada con la temperatura de Hawking-Page, la integral de caminos
sobre todas las métricas topológicamente triviales, representa radiación auto
gravitante en el espacio asintótico de anti de Sitter. La integral de caminos
sobre todas las métricas de la topología ADS de Schwarzschild representa un
agujero negro y radiación térmica en el anti de Sitter asintótico.
La
frontera en el infinito tiene topología S1 por S2. La topología más simple que
cabe dentro de estas fronteras, es la topología trivial, S1 por D3, el
tres-disco. La siguiente topología más simple y la primera topología no
trivial, es S1 por D2. Esta es la topología de la métrica de Schwarzschild anti
de Sitter. Existen otras topologías posibles que caben dentro de las fronteras,
pero estas dos son los casos importantes, métricas topológicamente triviales y
el agujero negro. El agujero negro es eterno. No puede convertirse en
topológicamente trivial más adelante.
En vista
de esto, uno puede comprender porqué la información se conserva en las métricas
topológicamente triviales, pero exponencialmente decae en métricas
topológicamente no triviales. Un estado final de espacio vacío sin un agujero
negro, sería topológicamente trivial y estaría foliado por superficies de
tiempo constante. Estas formarían un tres-ciclo módulo frontera en el infinito.
Cualquier simetría global conduciría a cargas globales conservadas en esos tres
ciclos. Esto evitaría que las funciones de correlación decayesen
exponencialmente en las métricas topológicamente triviales. En efecto, uno
puede considerar la evolución Hamiltoniana unitaria, de una métrica
topológicamente trivial como la conservación de la información a través de un
tres-ciclo.
Por otra
parte, una topología trivial, como un agujero negro, no tendrá un tres-ciclo
final. Por lo tanto no conservará ninguna cantidad, que prevendría que las
funciones de correlación decaigan exponencialmente. Así uno es conducido al maravilloso
resultado, que las amplitudes de tiempo posterior de la integral de caminos
sobre una métrica topológicamente no trivial, son independientes del estado
inicial. Esto fue notado por Maldacena en el caso de anti de Sitter3 asintótico
e interpretado como el hecho de implicar que la información se pierde en la
métrica BTZ de agujeros negros. Maldacena fue capaz de demostrar que las
métricas topológicamente triviales tienen funciones de correlación que no
decaen y tienen amplitudes del orden correcto para ser compatibles con una
evolución unitaria. Sin embargo Maldacena no se dio cuenta de que desde un
tratamiento canónico se sigue que la evolución de una métrica topológicamente
trivial será unitaria.
Así que
al final, todos tenían razón, de alguna manera. La información se pierde en
métricas topológicamente no triviales, como el agujero negro eterno. Por otro
lado, la información se conserva en las métricas topológicamente triviales. La
confusión y paradoja vino porque la gente pensó de manera clásica, en términos
de una sola topología para el espacio-tiempo. Era o R4 o un agujero negro. Pero
la suma sobre historias de Feynman, permite que sea ambas a la vez. Uno no
puede afirmar qué topología contribuyó a la observación más de lo que uno puede
decir qué ranura atravesó el electrón en el experimento de las dos ranuras.
Todo lo que la observación en el infinito puede determinar, es que existe un
mapa desde los estados iniciales, hasta el final y que esa información no se
pierde.
Mi
trabajo con Hartle, mostró que la radiación podría ser pensada como un escape
del interior de un agujero negro. Por lo tanto era razonable suponer que podría
llevar información hacia fuera del agujero negro. Esto explica como puede
formarse un agujero negro y después ofrecer la información acerca de lo que hay
adentro, mientras se mantiene topológicamente trivial. No existe un universo
bebé ramificándose, como alguna vez pensé. La información permanece firmemente
en nuestro universo. Lo siento por desilusionar a los seguidores de la
ciencia-ficción, pero si la información se conserva, no existe la posibilidad
de utilizar a los agujeros negros para viajar a otros universos. Si usted cae
dentro de un agujero negro, su masa energía regresará a nuestro universo, pero
de una manera dañada, que contiene la información acerca de lo que era, pero en
un estado irreconocible.
Existe un
problema en describir que es lo que pasa, por que estrictamente hablando, lo
único observable en la gravedad cuántica, son los valores del campo en el
infinito. Uno no puede definir el campo en un punto del medio, porque existe
una incertidumbre cuántica en relación con el lugar donde se hace la medición.
Sin embargo, en los casos en que existen un gran número, N, de campos de
materia ligeros, acoplados a la gravedad, uno puede despreciar las
fluctuaciones gravitatorias, porque sólo son una entre N lazos cuánticos. Uno
puede entonces realizar la integral de caminos sobre todos los campos de
materia, en una métrica dada, para obtener una acción efectiva que será un
funcional de la métrica.
Uno puede
agregar la clásica acción de Einstein Hilbert de la métrica, a esta acción
efectiva cuántica de los campos de materia. Si uno integrase esta acción
combinada sobre todas las otras métricas uno obtendría la teoría cuántica
completa. Sin embargo, la aproximación semiclásica, es la de representar la
integral sobre las métricas, por su punto de inflexión. Esto obedecería las
ecuaciones de Einstein, donde la fuente es el valor de expectación del tensor
de energía-momento, de los campos de materia en su estado de vacío.
La única
manera de calcular la acción efectiva de los campos de materia, solía ser la
teoría perturbativa. Esto no es factible que funcione en el caso del colapso
gravitatorio. Sin embargo, ahora afortunadamente tenemos un método
no-perturbativo en ADS CFT. La conjetura de Maldacena dice que la acción
efectiva de un CFT en una métrica de fondo es igual a la acción efectiva de la
súper-gravedad del espacio anti de Sitter con esa métrica de fondo en el
infinito. En el gran límite N, la acción efectiva de súper-gravedad es
solamente la acción clásica. De ahí que el cálculo de la acción efectiva
cuántica de los campos de materia, es equivalente a resolver las ecuaciones de
Einstein clásicas.
La acción
de un espacio anti de Sitter, con una frontera al infinito, sería infinita así
que hay que regularizar. Uno introduce restas que dependen solo de la métrica
de la frontera.
- El primer contrapunto es
proporcional al volumen de la frontera.
- El segundo contrapunto es
proporcional a la acción Einstein Hilbert de la frontera.
- Existe un tercer
contrapunto, pero no está definido covariantemente.
Ahora uno
agrega la acción Einstein Hilbert de la frontera y se busca un punto de
inflexión de la acción total. Esto involucrará resolver las ecuaciones Einstein
acopladas de cuatro y cinco dimensiones. Probablemente tenga que hacerse
numéricamente.
En esta
conferencia, he argumentado que la gravedad cuántica es unitaria y la
información es mantenida en la formación y evaporación de agujeros negros.
Considero que la evolución está dada por una integral de caminos Euclidiana
sobre las métricas de todas las topologías. La integral sobre métricas
topológicamente triviales puede hacerse dividiendo el intervalo de tiempo en
delgadas secciones y utilizando una interpolación linear a la métrica de cada
sección. La integral sobre cada sección, será unitaria y así toda la integral
de caminos será unitaria.
Por otro
lado, la integral de caminos sobre métricas topológicamente no triviales,
perderá información y será asintóticamente independiente de sus condiciones
iniciales. Por lo tanto la integral de caminos será unitaria y la mecánica
cuántica estará a salvo.
Es
grandioso resolver un problema que me ha estado preocupando por casi treinta
años, aunque la respuesta es menos apasionante que la alternativa que sugerí.
Este resultado no es todo negativo, pues indica que un agujero negro se
evapora, mientras permanece topológicamente trivial. Sin embargo, la gran
solución N es probable que sea un agujero negro que se contrae hasta cero. Esto
es lo que sugerí en 1975.
En 1997,
Kip Thorne y yo, le apostamos a John Preskill, que la información se perdía en
los agujeros negros. El perdedor o perdedores de la apuesta tienen que darle al
ganador o ganadores una enciclopedia de su elección, de la cual pueda obtenerse
información con toda facilidad. Ahora estoy listo para conceder la apuesta,
pero Kip Thorne no está convencido del todo. Yo le daré a John Preskill la
enciclopedia que pidió. John es un “all American”, así que naturalmente quiere
una enciclopedia sobre béisbol. Tuve muchas dificultades en conseguir una por
aquí, así que le ofrecí una enciclopedia sobre críquet, como una alternativa,
pero John no se dejó convencer de la superioridad del críquet. Afortunadamente
mi asistente, Andrew Dunn, convenció a los editores de Sportclassic Books, a
enviar por avión una copia de Total Baseball, The Ultimate Baseball
Encyclopedia a Dublín. Le daré a John la enciclopedia ahora. Si Kip acepta
reconocer la apuesta más tarde, puede devolvérmela.
En ciencia
ficción, la curvatura del espacio y del tiempo son eventos comunes. Se les
utiliza para viajes rápidos alrededor de la galaxia, o para viajes en el
tiempo. Pero a menudo, la ciencia ficción de hoy es la ciencia empírica del
mañana. De modo que ¿cuáles son las posibilidades de curvar el espacio y el
tiempo?.
La idea
de que el espacio y el tiempo pueden sufrir torsiones o curvarse, es bastante
reciente. Durante más de dos mil años, los axiomas de la geometría Euclídea
fueron considerados verdades evidentes. Como todos aquellos que se han visto
forzados a estudiar geometría Euclídea en el colegio recuerdan, una de las
consecuencias de estos axiomas es, que los ángulos de un triángulo, sumados en
conjunto, dan como resultado 180 grados.
Sin
embargo, durante el último siglo, la gente comenzó a darse cuenta de que
existían otras formas posibles de geometría, en la que los ángulos de un
triángulo, no necesariamente suman 180 grados. Considere, por ejemplo, la
superficie de la Tierra. Lo más cercano a una línea recta en la superficie de
la Tierra es lo que llamamos, un gran círculo. Estos son los caminos más cortos
entre dos puntos, por eso las compañías aéreas los emplean como rutas de vuelo.
Considere ahora el triángulo en la superficie de la Tierra compuesto por el
ecuador, la línea de 0 grados de longitud que atraviesa Londres, y la linea de
90 grados longitud este que atraviesa Bangladesh. Las dos líneas de longitud
cortan el ecuador formando un ángulo de 90 grados. Las dos líneas de longitud
se encuentran también en el polo norte formando otro ángulo de 90 grados. Por
ello, tenemos un triángulo con tres ángulos rectos. Los ángulos de este
triángulo sumados en conjunto dan como resultado 270 grados. Esto supera a los
180 grados de un triángulo sobre una superficie plana. Si dibujamos un
triángulo con una superficie en forma de silla de montar, descubriremos que la
suma de sus ángulos da un resultado menor a 180 grados.
La
superficie de la Tierra, es lo que conocemos como espacio bidimensional. Lo
cual significa que puedes moverte a través de la superficie de la Tierra en dos
direcciones, las cuales forman un ángulo recto entre si: puedes moverte
norte-sur, o este-oeste. Pero por supuesto, hay una tercera dirección que forma
ángulos rectos con las otras dos, y esa dirección es arriba-abajo. Lo que es
tanto como decir que la superficie de la Tierra existe en un espacio
tridimensional. El espacio tridimensional es plano. Lo cual significa que
obedece a la geometría Euclídea. La suma de los ángulos de un triángulo es de
180 grados. Sin embargo, podríamos imaginar una raza de criaturas
bidimensionales que pudiesen moverse sobre la superficie de la Tierra, pero que
no pudiesen experimentar la tercera dirección, es decir arriba-abajo. Ellos no
conocerían el espacio plano tridimensional sobre el que se apoya la superficie
de la Tierra. Para ellos, el espacio sería curvo, y la geometría no sería
Euclídea.
Sería muy
difícil diseñar un ser viviente que pudiese existir en solo dos dimensiones.
La comida
que la criatura no podría digerir, debería escupirla por el mismo sitio por el
que entró. Si hubiese un pasaje que atravesase al animal a lo largo, tal y como
nosotros tenemos, el pobre animal acabaría deshecho en dos partes.
De modo
que tres dimensiones, parecen ser las mínimas exigibles para la vida. Pero así
como se puede pensar en seres de dos dimensiones viviendo sobre la superficie
de la Tierra, también cabria imaginar que el espacio tridimensional en el que
vivimos, era la superficie de una esfera, en otra dimensión que nosotros no
vemos. Si la esfera fuese muy grande, el espacio parecería ser casi plano, y la
geometría Euclídea sería una estupenda aproximación sobre distancias pequeñas.
Pero nos daríamos cuenta de que la geometría Euclídea no funcionaría para
grandes distancias.
Como
ilustración de esto, imaginemos un equipo de pintores, dando capas de pintura
sobre la superficie de una enorme bola. A medida que el grosor de las capas de
pintura se incrementa, el área de la superficie crece. Si la bola estuviese en
un espacio plano tridimensional, se podría seguir añadiendo pintura
indefinidamente, y la bola se haría más y más grande. Sin embargo, se el
espacio tridimensional fuera realmente la superficie de una esfera en otra
dimensión, su volumen sería enorme pero finito. A medida que se añaden más
capas de pintura, la bola llegaría eventualmente a llenar la mitad de la
superficie del espacio. Después de eso, los pintores descubrirían que están
atrapados en un región cuyo tamaño siempre decrece, y casi la totalidad del
espacio, estaría ocupado por la bola, y sus capas de pintura. De modo que
descubrirían que viven en un espacio curvado, y no plano.
Este
ejemplo demuestra que no se puede deducir la geometría del mundo partiendo de
sus primeros principios, tal y como los antiguos griegos pensaban. En lugar de
eso, hay que medir el espacio en el que vivimos, y descubrir su geometría
experimentalmente. Sin embargo, aunque en 1854 el alemán George Friedrich
Riemann, desarrolló un modo para describir espacios curvos, permaneció como una
parte incompleta de las matemáticas durante 60 años. Podía describir espacios
curvos que existiesen en el abstracto, pero no había razones por las que creer
que el espacio físico en el que vivimos pudiese ser curvo. Esa idea llegó solo
en 1915, cuando Einstein presentó la Teoría General de la Relatividad.
La
Relatividad General fue una revolución intelectual fundamental que ha
transformado la forma en que pensamos sobre el universo. Es una teoría no solo
sobre la curvatura del espacio, sino también sobre la curvatura del tiempo. En
1905, Einstein había comprendido que el espacio y el tiempo están íntimamente
conectados el uno con el otro. Se puede describir la localización de un evento
con cuatro números. Tres de ellos describen la posición del mismo. Podrían ser,
por ejemplo, millas al norte y al este de Oxford, y altura sobre el nivel del
mar. En una escala mayor, podrían representar la latitud y la longitud
galácticas, y la distancia desde el centro de la galaxia. El cuarto número, es
el tiempo del evento. Así, uno puede pensar sobre el espacio y el tiempo en
forma conjunta, como una entidad tetradimensional llamada espacio-tiempo. Cada
punto del espacio tiempo está determinado por cuatro números que especifican su
posición en el espacio y en el tiempo. Combinar de esta forma el espacio y el
tiempo resultaría bastante trivial, si uno pudiera descombinarlos de una manera
única, es decir, si hubiera una única forma de definir el tiempo y la posición
de cada evento.
Sin
embargo, en un importantísimo artículo escrito en 1905, cuando era un empleado
de la Oficina Suiza de Patentes, Einstein demostró que el tiempo y la posición
en los cuales uno piensa que ocurrió un evento, dependían de cómo uno se estaba
moviendo. Esto significaba que el espacio y el tiempo estaban indisolublemente
ligados el uno con el otro. Los tiempos que diferentes observadores le
asignarían a los eventos estarían de acuerdo si los observadores no se estaban
moviendo en relación de unos con los otros. Pero diferirían en forma creciente
de acuerdo a cuanto mayor fueran sus velocidades relativas. Así que uno puede
preguntarse cuán rápido debe moverse para que el tiempo de un observador
pudiera marchar hacia atrás con relación al tiempo de otro observador. La
respuesta se da en la siguiente jocosa quintilla:
Había una jovencita en Granada
Que más rápido que la luz viajaba,
Un día inició su partida
De una forma relativa
Y regresó en la previa alborada.
Así que
todo lo que necesitamos para viajar en el tiempo es una astronave que vaya más
rápido que la luz. Desafortunadamente, en el mismo artículo Einstein demostró
que la energía necesaria para acelerar a una astronave crecía cada vez más y
más, a medida que se acercaba a la velocidad de la luz. Así que se necesitaría
una cantidad infinita de energía para acelerar más allá de la velocidad de la
luz.
El
artículo de Einstein de 1905 parecía eliminar la posibilidad de viajar hacia el
pasado. También indicaba que el viaje espacial hacia otras estrellas sería un
asunto lento y tedioso. Si uno no podía viajar más rápido que la luz, el viaje
de ida y vuelta hasta la estrella más cercana tomaría por lo menos ocho años, y
hasta el centro de la galaxia un mínimo de ochenta mil años. Si la nave viajara
muy cerca de la velocidad de la luz, podría parecerle a la tripulación abordo
de la misma que el viaje al centro galáctico hubiera durado solamente unos
pocos años. Pero eso no sería de mucho consuelo, si cuando volvieran a casa
todos los que hubieran conocido hubieran estado muertos y olvidados hace miles
de años. Eso no era muy bueno para los “westerns” espaciales, así que los
escritores de ciencia-ficción tuvieron que buscar en otros lados para soslayar
esta dificultad.
En un
artículo de 1915, Einstein mostró que los efectos de la gravedad podrían ser
descritos, suponiendo que el espacio-tiempo era curvado o distorsionado por la
materia y la energía que contenía. Podemos observar realmente esta curvatura
producida por la masa del Sol, en la ligera curvatura sufrida por la luz o las
ondas de radio que pasan cerca del Sol. Esto ocasiona que la posición aparente
de la estrella o de la fuente de radio-ondas se traslade ligeramente, cuando el
Sol se encuentra entre la Tierra y el objeto observado. El cambio de posición
es muy pequeño, de alrededor de una milésima de grado, equivalente a un
desplazamiento de una pulgada a la distancia de una milla. No obstante, puede
ser medido con mucha precisión, y concuerda con las predicciones de la
Relatividad General. Tenemos evidencia experimental de que el espacio y el
tiempo están curvados. La combadura en nuestro vecindario espacial es muy
pequeña, porque todos los campos gravitacionales en el sistema solar son
débiles. Sin embargo, sabemos que pueden ocurrir campos muy fuertes, por
ejemplo durante el Big Bang, o en los agujeros negros.
Así, el
espacio y el tiempo pueden ser lo suficientemente curvados como para satisfacer
las demandas de la ciencia-ficción, en cosas tales como impulsos
hiper-espaciales, agujeros de gusano, o viajes en el tiempo. A primera vista,
todo esto parece ser posible. Por ejemplo, en 1948, Kurt Goedel halló una
solución a las ecuaciones de campo de la Relatividad General que representa un
universo en el que toda la materia está rotando. En este universo, sería
posible partir hacia el espacio en una astronave y regresar antes del despegue.
Goedel estaba en el Instituto de Estudios Avanzados en Princeton, donde
Einstein pasó también sus últimos años. Era más conocido por probar que no se
podía probar nada como verdadero, aún en un asunto aparentemente tan simple
como la aritmética. Pero lo que probó acerca de que la Relatividad General
permitía el viaje en el tiempo realmente conmovió a Einstein, quien había
pensado que eso era imposible.
Ahora
sabemos que la solución de Goedel no puede representar al universo en el cual
vivimos, ya que el suyo no está en expansión. También contiene un valor
bastante alto para una cantidad llamada constante cosmológica, el cual
generalmente se cree que es de cero. Sin embargo, desde entonces se han
encontrado otras aparentemente más razonables soluciones que permiten el viaje
en el tiempo. Una que es particularmente interesante contiene dos cuerdas
cósmicas, moviéndose una con respecto a la otra a una velocidad muy cercana,
aunque ligeramente más pequeña, a la de la luz. Las cuerdas cósmicas son una
destacada idea de la física teórica, a la cual los escritores de
ciencia-ficción aparentemente no han comprendido. Como lo sugiere su nombre,
son como cuerdas, en el sentido de que tienen longitud, pero una muy pequeña
sección transversal. En realidad, son más como bandas elásticas, porque se
encuentran bajo una enorme tensión, algo así como cien mil cuatrillones de
toneladas. Una cuerda cósmica unida al sol lo aceleraría de cero a sesenta en
un trigésimo de segundo.
La teoría
de las cuerdas cósmicas puede sonar como algo descabellado, pura
ciencia-ficción. Pero existen buenas razones científicas como para creer que se
pueden haber formado en el universo muy temprano, muy poco después del Big
Bang. Ya que se encuentran bajo tan enorme tensión, uno podría suponer que
acelerarían hasta casi la velocidad de la luz. Lo que el universo de Goedel y
el raudo espacio-tiempo de las cuerdas cósmicas tienen en común, es que ambos
comienzan tan distorsionados y curvados que el viaje hacia el pasado fue
siempre posible. Dios puede haber creado un universo tan combado, pero no
tenemos ninguna razón para pensar que lo haya hecho.
Toda la
evidencia apunta a que el universo comenzó con un Big Bang, sin el tipo de
curvatura necesario para permitir el viaje hacia el pasado. Ya que no podemos
cambiar la forma en que comenzó el universo, la cuestión de si el viaje en el
tiempo es posible, es la de si podemos hacer que el espacio-tiempo se curve
tanto como para que podamos viajar al pasado. Creo que esto es un importante
tema de investigación, pero uno tiene que tener cuidado de no ser etiquetado
como excéntrico. Si uno solicitara una subvención para investigar sobre el
viaje en el tiempo, sería descartado inmediatamente. Ninguna agencia gubernamental
podría permitirse ser vista dilapidando el dinero público en algo tan
descabellado como el viaje en el tiempo. En cambio, uno debería utilizar
términos técnicos, como curvas cerradas tempo-similares, que son un código para
el viaje en el tiempo. Aunque esta conferencia trata parcialmente sobre el
viaje temporal, sentí que debía darle un título científicamente más respetable,
como el de “El Espacio y el Tiempo se curvan”. Aún así, es una cuestión muy
seria. Ya que la Relatividad General permite el viaje temporal, ¿lo permite en
nuestro universo?. Y en caso de que no, ¿por qué no?.
Cercanamente
emparentada con el viaje en el tiempo, se encuentra la habilidad de moverse
rápidamente de una posición en el espacio hacia otra. Como dije antes, Einstein
demostró que sería necesaria una cantidad infinita de energía para acelerar una
astronave más allá de la velocidad de la luz. Así que la única manera de llegar
desde un extremo de la galaxia al otro en un tiempo razonable, parecería ser la
de que pudiéramos curvar tanto al espacio-tiempo que pudiéramos crear un
pequeño tubo o agujero de gusano. Esto podría conectar los dos lados de la
galaxia, y actuar como un atajo, para llegar del uno al otro y volver mientras
los amigos de uno todavía están vivos. Tales agujeros de gusano han sido
seriamente sugeridos como para estar dentro de las posibilidades de una
civilización futura. Pero si uno puede viajar de un extremo al otro de la
galaxia en una o dos semanas, también podría volver a través de otro agujero y
arribar antes de haber partido. Incluso se podría viajar hacia atrás en el
tiempo a través de un solo agujero de gusano, si los dos extremos del mismo
estuvieran en movimiento relativo uno con respecto al otro.
Se puede
demostrar que para crear un agujero de gusano, es necesario curvar el
espacio-tiempo en la forma opuesta a la que lo hace la materia normal. La
materia ordinaria curva el espacio-tiempo alrededor de sí mismo, tal como la
superficie de la Tierra.
Sin
embargo, para crear un agujero de gusano es necesario curvar el espacio-tiempo
en la dirección opuesta, como la superficie de una silla de montar. Lo mismo es
verdad sobre cualquier otra forma de curvar el espacio-tiempo que pueda hacer
posible el viaje en el tiempo, si el universo no comenzó tan curvado como para
permitirlo. Lo que uno requeriría sería materia con masa negativa, y una
densidad de energía negativa, para lograr la curvatura espacio-temporal
necesaria.
La
energía es como el dinero. Si se tiene un balance bancario positivo, uno puede
distribuirlo de varias maneras. Pero de acuerdo con las leyes clásicas en las
que se creía hasta hace muy poco tiempo, no estaba permitido tener un
descubierto energético. Así, estas leyes clásicas descartaban la posibilidad de
curvar el espacio-tiempo en la forma requerida para permitir el viaje en el
tiempo. Sin embargo, estas leyes clásicas fueron desplazadas por la Teoría
Cuántica, que es la otra gran revolución en nuestra imagen del universo, además
de la Relatividad General. La Teoría Cuántica es más relajada, y permite los
números rojos en una o dos cuentas. ¡Si tan sólo los bancos fueran tan
complacientes!. En otras palabras, la Teoría Cuántica permite que la densidad
energética sea negativa en algunos lugares, siempre y cuando sea positiva en
otros
La razón
por la cual la Teoría Cuántica permite que la densidad energética sea negativa,
es que está basada en el Principio de Incertidumbre.
Esto
quiere decir que ciertas cantidades, como la posición y la velocidad de una
partícula, no pueden tener un valor bien definido. Cuanto más precisamente sea
definida la posición de una partícula, más grande es la incertidumbre en la
velocidad y viceversa. El principio de incertidumbre también se aplica a los
campos, como por ejemplo el campo electromagnético o el campo gravitacional.
Esto implica que estos campos no pueden anularse exactamente, incluso en lo que
pensamos que es espacio vacío. Si fuera exactamente nulo, ambos valores
tendrían una posición bien definida en cero, y una velocidad también bien
definida, que sería también cero. Esto sería una violación del principio de
incertidumbre. Sin embargo, los campos deberían tener una cantidad mínima de
fluctuaciones. Uno podría interpretar estas fluctuaciones, que son llamadas
fluctuaciones en el vacío, como parejas de partículas y antipartículas que
repentinamente aparecen juntas, se separan y posteriormente vuelven a juntarse
y aniquilarse mutuamente. Estas parejas de partículas y antipartículas se dice
que son virtuales, porque no pueden ser medidas directamente con un detector de
partículas. De cualquier modo, se pueden observar sus efectos indirectamente.
Una
manera de realizarlo es utilizando el llamado efecto Casimir. Se tienen dos
discos de metal, separados por una pequeña distancia. Los discos actúan como
espejos para las partículas y antipartículas virtuales. Esto quiere decir que
las regiones entre los discos es algo así como el tubo de un órgano, y solo
admitiría ondas de luz de ciertas frecuencias resonantes. El resultado es que
hay ligeramente menos fluctuaciones en el vacío o partículas virtuales entre
los discos que fuera de ellos, donde las fluctuaciones en el vacío pueden tener
cualquier longitud de onda. La reducción del número de partículas virtuales
entre los discos implica que no colisionarán con ellos tan a menudo, y por lo
tanto no ofrecerán tanta presión en los discos como las partículas virtuales de
fuera. Consecuentemente hay una pequeña fuerza empujando los discos el uno
contra el otro. Esta fuerza ha sido medida experimentalmente. Así, las partículas
virtuales de hecho existen, y producen efectos reales.
Ya que
hay menos partículas virtuales, o fluctuaciones en el vacío, entre los discos,
estos tienen una densidad energética menor que en la región externa. Pero la
densidad energética del espacio vacío lejos de los discos debe ser cero. De
otra manera curvaría el espacio-tiempo y el universo no sería casi plano. Por
tanto la densidad energética de la región entre los discos debe ser negativa.
También
se tiene evidencia de la curvatura de la luz, de que el espacio-tiempo es curvo
y la confirmación por parte del efecto Casimiro, de que se puede curvar en
sentido negativo. Entonces parece posible, tal como se avanza en la ciencia y
tecnología, que quizás sea posible construir un agujero de gusano, o curvar el
espacio y el tiempo de alguna otra manera, tal que se nos permita viajar a
nuestro pasado. Si este fuera el caso, provocaría una multitud de preguntas y
problemas. Una de ellas es el motivo por el cual, si en algún momento futuro
aprendemos a viajar en el tiempo, no ha vuelto ya alguien del futuro para
decirnos como se hace.
Incluso
si hubiera razones lógicas para mantenernos en la ignorancia, siendo como es la
naturaleza humana, es difícil de creer que nadie se asomaría, y nos diría a
nosotros ignorantes paisanos, el secreto del viaje en el tiempo. Por supuesto,
alguna gente puede afirmar que ya hemos sido visitados desde el futuro. Podrían
decir que los platillos volantes vienen del futuro, y que los gobiernos están
involucrados en una gigantesca trama para encubrirlos, y guardarse para ellos
mismos todo el conocimiento científico que traen esos visitantes. Todo lo que
puedo decir es que si los gobiernos estuvieran escondiendo algo, están haciendo
un trabajo un poco tonto extrayendo información útil de los alienígenas.
Soy un
poco escéptico con las teorías conspiratorias, creer la teoría de que lo han
arruinado todo es más probable. Los informes de avistamientos de platillos
volantes no pueden haber sido todos causados por extraterrestres, porque son
mutuamente contradictorios. Pero una vez que admites que algunos son errores, o
alucinaciones, ¿no es más probable que lo sean todos o que se nos esté
visitando por gente del futuro o del otro lado de la galaxia?. Si realmente quieren
colonizar la Tierra, o avisarnos de algún peligro están siendo un poco
ineficaces. Una vía posible para reconciliar el viaje en el tiempo con el hecho
de que no parece que hayamos tenido ninguna visita del futuro, podría ser que
dijéramos que solo puede ocurrir en el futuro. Bajo este punto de vista se
podría decir que el espacio-tiempo en nuestro pasado era fijo, porque lo hemos
observado, y parece que no está lo suficientemente curvado como para permitir
el viaje al pasado. Pero ya que si sólo se podrá curvar el espacio-tiempo en el
futuro, no seremos capaces de viajar atrás al tiempo presente o un tiempo
anterior.
Esto
explicaría por qué no hemos sido invadidos por turistas del futuro.
Aún así
esto dejaría un montón de paradojas. Supongamos que te fuera posible despegar
en un cohete espacial y volver antes del despegue. ¿Que te impediría reventar
el cohete en su plataforma de lanzamiento, o por otro lado prevenir que partas
la primera vez?. Hay otras versiones de esta paradoja, por ejemplo ir al pasado,
y matar a tus padres antes de que nacieras, pero son esencialmente
equivalentes. Parece haber dos resoluciones posibles.
Una es la
que debo llamar la aproximación de las historias consistentes. Dice que uno
debe encontrar una solución consistente en las ecuaciones de la física, incluso
si el espacio-tiempo esta tan curvado como para hacer posible el viaje al
pasado. Según esta perspectiva, no podrías hacer que el cohete hubiera viajado
al pasado a menos de que ya hubieras venido y hubieras fallado al reventar la
plataforma de despegue. Eso es un escenario consistente, pero implicaría que
estamos completamente determinados: no podríamos cambiar nuestra opinión.
Demasiado para el libre albedrío. La otra posibilidad es lo que llamo la
aproximación de las historias alternativas. Ha sido defendida por el físico
David Deutsch, y parece que era lo que tenía en mente Stephen Spielberg cuando
rodó Regreso al Futuro (Back to the Future).
Según
este punto de vista, en una historia alternativa, no habría ninguna vuelta del
futuro antes de que el cohete despegara, y por lo tanto no habría posibilidad
de reventarlo. Pero cuando el viajero vuelve del futuro, entra en una historia
alternativa distinta. En este caso, la raza humana hace un tremendo esfuerzo
para construir una nave espacial, pero justo cuando va a ser lanzada, una nave
similar aparece desde otro punto de la galaxia y la destruye.
David
Deutsch apoya la aproximación de historias alternativas desde el concepto de
"suma de historias" introducido por el físico Richard Feinman, que
murió hace unos pocos años. La idea es que según la Teoría Cuántica, el
universo no tiene una única historia.
En vez de
eso, el universo tiene cada una de las historias posibles, cada una con su
propia probabilidad. Debe haber una posible historia en la que exista una paz
duradera en el Medio Oriente, aunque quizás la probabilidad sea baja. En
algunas historias, el espacio-tiempo estará tan curvado que objetos como los
cohetes serán capaces de viajar a su pasado. Pero cada historia es completa y
auto contenida, describiendo no solo el espacio-tiempo curvado, sino también
los objetos en ella. Por lo tanto un cohete no puede transferirse a otra
historia alternativa cuando vuelve de nuevo. Es todavía la misma historia, que
tiene que ser auto consistente. Por lo tanto, a pesar de lo que afirma Deutsch,
creo que la idea de la "suma de historias" apoya la hipótesis de las
historias consistentes, más que la idea de historias alternativas.
Parece
por consiguiente, que estamos encerrados en el escenario de las historias
consistentes. De cualquier manera, esta necesidad no implica que existan
problemas con el determinismo o libre albedrío si las posibilidades de que el
espacio-tiempo esté tan curvado que el viaje en el tiempo sea posible sobre una
región macroscópica son muy pequeñas. Esto es lo que llamo la Conjetura de la
Protección Cronológica: las leyes de la física conspiran para prevenir el viaje
en el tiempo a una escala macroscópica.
Parece
que lo que ocurre es que cuando el espacio-tiempo se curva casi lo suficiente
para permitir el viaje al pasado, las partículas virtuales, y su energía, se
incrementan mucho. Esto quiere decir que la probabilidad de esas historias es
muy baja. Por lo tanto parece haber una Agencia de Protección Cronológica trabajando,
haciendo el mundo seguro para los historiadores. Pero este tema de la curvatura
del espacio y el tiempo está aún en su infancia. Según la teoría de cuerdas,
que es nuestra mayor esperanza para unificar la Relatividad General y la Teoría
Cuántica en la Teoría del Todo, el espacio-tiempo debería tener diez
dimensiones, no solo las cuatro que experimentamos. La idea es que seis de esas
diez dimensiones están enrolladas en un espacio tan pequeño que no nos damos
cuenta de ellas. Por otro lado las cuatro que quedan son bastante planas, y son
lo que llamamos espacio-tiempo. Si este escenario es correcto, quizás sería
posible mezclar las cuatro direcciones planas con las otras direcciones que
están altamente curvadas. A que podría conducir esto, no lo sabemos aún. Pero
abre un abanico de posibilidades interesantes.
La
conclusión de este discurso es que el viaje rápido en el espacio, o el viaje
atrás en el tiempo no tiene reglas, según nuestra compresión actual. Ambos
causarían muchos problemas lógicos, por lo que esperemos que existe una Ley de
Protección Cronológica que impida a la gente ir atrás y que maten a nuestros
padres. Pero los fans de la ciencia ficción no pierden su entusiasmo. Hay
esperanza en la teoría de cuerdas.
Y como no
hemos roto aún la barrera del viaje en el tiempo, me he quedado sin tiempo.
Muchas gracias por su atención.
En esta
charla, me gustaría discutir sobre si el tiempo en si mismo tuvo un principio,
y sobre si tendrá un final. Todas las evidencias parecen indicar que el
universo no ha existido desde siempre, sino que tuvo un principio,
aproximadamente hace 15.000 millones de años.
Este es
probablemente el descubrimiento más notable de la cosmología moderna. Aún no
está completamente demostrado. Todavía no sabemos con certeza si el universo
tendrá un final. Cuando yo daba una charla en Japón, me pidieron que no
mencionase el posible re-colapso del universo, porque podría afectar al mercado
de valores. Sin embargo, puedo re-asegurar a cualquiera que se sienta nervioso
por sus acciones, que es un poco pronto para vender: incluso si el universo
esta destinado a finalizar, no sucederá antes de al menos 20.000 millones de
años. Para ese tiempo, tal vez el acuerdo de comercio GATT haya alcanzado sus
objetivos.
N. del
T.: GATT =
General Agreement on Tariffs and Trade (Acuerdo General sobre Aranceles y
Comercio) firmado en 1947, persigue la igualdad comercial entre países.
La escala
de tiempo del universo en muy grande comparada con la vida humana. Por ello no
fue ninguna sorpresa que hasta hace poco, se pensase que el universo era
esencialmente estático, e invariable a lo largo del tiempo. Por otro lado, ha
debido ser obvio que la sociedad evoluciona cultural y tecnológicamente. Esto
indica que la fase presente de la historia de la humanidad no puede haber
empezado antes de unos pocos miles de años. De otro modo estaríamos más
avanzados de lo que lo estamos. Por ello es natural que creamos que la especie
humana, y quizás el universo completo, comenzaron justamente en un pasado
reciente. Sin embargo, mucha gente estaba descontenta con la idea de que el
universo tuviera un principio, ya que esto parecía implicar la existencia de un
ser sobrenatural que lo creó. Ellos preferían creer que el universo y la
especie humana han existido desde siempre. Su explicación sobre el progreso
humano se basaba en la existencia de inundaciones periódicas, u otro desastre
natural, que devolvía repetidamente a los humanos a un estado primitivo.
Este
argumento acerca de si el universo tuvo o no un principio, persistió durante el
siglo XIX y XX. Se basó principalmente en tesis teológicas y filosóficas, con
muy pocas consideraciones sobre evidencias observables. Esto pudo haber sido
razonable, dada la notoria falta de fiabilidad de las observaciones
cosmológicas, hasta hace bien poco. El cosmólogo sir Arthur Eddington dijo una
vez, “No se preocupe si su teoría no casa bien con las observaciones, ya que
probablemente éstas son erróneas. Pero si su teoría esta en desacuerdo con la
segunda ley de la Termodinámica, entonces está usted metido en problemas".
De hecho, la teoría de que el Universo ha existido desde siempre entra en
serias dificultades con la segunda ley de la Termodinámica.
La
segunda ley establece que el desorden siempre se incrementa a medida que
transcurre el tiempo. Al igual que con el argumento del progreso humano, esto
indica que debió haber existido un comienzo. De otro modo, el Universo se
hallaría hoy en día en un estado de desorden completo, y todo estaría a la
misma temperatura. En un universo infinito y eterno, cualquier rastro visible
acabaría en la superficie de las estrellas. Esto significaría que el cielo
nocturno sería tan brillante como la superficie del Sol. El único modo de
evitar este problema sería si, por alguna razón, las estrellas no brillasen
durante cierto tiempo.
En un
universo que fuese esencialmente estático, no habría ninguna razón dinámica por
la que las estrellas debiesen súbitamente encenderse, en un momento dado.
Cualquiera de estos “períodos de luces encendidas” tendría que venir impuesto
por una intervención desde el exterior del universo. La situación, sin embargo,
fue diferente, cuando se comprobó que el universo no era estático, sino que se
expandía. Las galaxias se están apartando constantemente unas respecto a las
otras. Esto significa que en el pasado estaban más juntas. Se puede representar
gráficamente la distancia entre dos galaxias en función del tiempo. Si no
hubiese aceleración causada por la gravedad, el gráfico sería una línea recta.
Descendería hacia el punto de separación cero, aproximadamente hace 20.000
millones de años. Se podría esperar que la gravedad causase una aceleración de
unas galaxias contra las otras. Esto implicaría que el gráfico de la separación
se doblaría hacia abajo, a un nivel inferior al de la línea recta. Por lo que
el momento de separación cero, sería inferior a 20.000 millones de años.
En ese
momento, el Big Bang, toda la materia del universo, se encontraría en la
superficie de si misma. La densidad habría sido infinita. Sería lo que a menudo
es nombrado como singularidad. En una singularidad, todas las leyes de la
física se rompen. Esto significa que el estado del universo, tras el Big Bang,
no dependía de ninguna cosa que hubiese pasado con anterioridad, ya durante el
Big Bang las leyes determinísticas que gobiernan el universo se incumplían. El
universo evolucionó a partir del Big Bang, de manera completamente
independientemente a como lo hacía antes de este suceso. Hasta la cantidad de
materia del universo puede ser distinta a la existente antes del Big Bang, ya
que en ese momento la Ley de Conservación de Materia, no se cumplía.
Ya que no
contamos con consecuencias observables anteriores al Big Bang, se podrían
extraer a partir de la teoría, y decir que el tiempo comenzó con el Big Bang.
Los sucesos anteriores al Big Bang, simplemente no están definidos, ya que no
hay modo alguno de medir lo que en ellos sucedió. Este tipo de comienzo del
universo, y del tiempo en si, difiere mucho de los anteriormente considerados.
En estos el universo se veía bajo la imposición y acción de un agente externo.
No hay ninguna razón dinámica que impida extrapolar el movimiento de los
cuerpos en el sistema solar al pasado, hasta más allá de los 4.004 años antes
del nacimiento de Cristo, la fecha de la creación del universo según el libro
del Génesis. Por tanto, si el universo comenzase en esa fecha, se requeriría la
intervención directa de Dios. Sin embargo, el Big Bang es un comienzo que viene
requerido por las leyes de la dinámica que gobiernan el universo. Es, por ello,
algo intrínseco al universo, y no viene impuesto desde el exterior.
Pese a
que las leyes de la Ciencia parecían predecir que el Universo tuvo un comienzo,
también parecían predecir que no pueden determinar cómo comenzó. Esto era
obviamente muy insatisfactorio. Por lo tanto hubo una serie de intentos de dar
un rodeo a la conclusión de que hubo una singularidad de densidad infinita en
el pasado. Una propuesta fue modificar la ley de la gravitación, de tal manera
que se volviera repulsiva. Esto podía llevar a que la gráfica de la separación
entre dos galaxias sea una curva que se aproxima a cero, pero que no pasa de
hecho por él, en ningún tiempo finito del pasado. En lugar de eso, la idea era
que según las galaxias se separaban, se creaban nuevas galaxias en medio a
partir de la materia que se suponía que era creada continuamente. Esta era la
teoría del “Estado Estable” (Steady State), propuesta por Bondi, Gold, y Hoyle.
La teoría
del “Estado Estable”, era lo que Karl Popper llamaría una buena teoría
científica: hacia predicciones definidas, que se podían comprobar mediante una
observación, y era posible falsificarlas. Desafortunadamente para la teoría,
fueron falsificadas. El primer problema apareció con las observaciones de
Cambridge sobre el numero de fuentes de ondas de radio de diferentes potencias.
En media, uno esperaría que las fuentes más débiles fueran a su vez las más
distantes. Además uno esperaría también que fueran más numerosas que las
fuentes brillantes, que tienden a estar cerca nuestra. Sin embargo, la gráfica
del número de fuentes de ondas de radio con respecto a su fuerza crecía de
manera mucho más accidentada en las fuentes de baja potencia de lo que predecía
la teoría del “Estado Estable”.
Hubo
intentos de explicar las cifras de esta gráfica, recurriendo a que algunas de
las fuentes más débiles de ondas de radio estaban en nuestra propia galaxia, y
por lo tanto no nos decían nada sobre cosmología. Este argumento no aguantó las
observaciones posteriores. Pero el golpe definitivo que envió a la teoría del
“Estado Estable” a la tumba ocurrió con el descubrimiento de la radiación de
microondas de fondo, en 1965. Esta radiación es la misma en todas las
direcciones. Ésta tiene el espectro de radiación en un equilibrio termal de 2
coma 7 grados sobre el Cero Absoluto. No hay ninguna manera de explicar esta
radiación en la teoría del “Estado Estable”.
Otro
intento de evitar un comienzo del tiempo, fue la sugerencia de que quizás todas
las galaxias no se encontraban en un único punto en el pasado. Aunque en media
las galaxias se alejan unas de otras con una tasa constante, también tienen
pequeñas velocidades adicionales, relativas a la expansión uniforme. Estas
llamadas “velocidades peculiares” (peculiar velocities) de las galaxias podían
direccionarse lateralmente a la expansión principal. Se argumentó que si se
dibujaba la posición de las galaxias atrás en el tiempo, las “velocidades
peculiares” laterales habrían provocado que las galaxias no se encontraran
todas juntas.
En lugar
de eso, debería haber una fase previa de contracción del universo en la cual
las galaxias se moverían unas hacia las otras. Las velocidades laterales
provocarían que las galaxias no chocaran, pero que se precipitaran a pasar unas
al lado de otras y que entonces comenzaran a separarse. Esto no habría
provocado ninguna singularidad de densidad infinita, ni ninguna rotura de las
leyes de la física. Por lo tanto no habría necesidad de que el universo tuviera
un comienzo, y que el tiempo en si mismo tuviera un principio. De hecho, uno
debería suponer que el universo habría oscilado, a pesar de que no se podría
solucionar el problema de la Segunda Ley de la Termodinámica: se esperaría que
el universo se iría desordenando cada vez más con cada oscilación. Es por
consiguiente difícil ver como el universo podría haber estado oscilando durante
un tiempo infinito.
Esta
posibilidad de que las galaxias se hubieran esquivado las unas a las otras fue
sostenida por dos rusos. Argumentaban que no habría singularidades en una
solución en el campo de las ecuaciones de la relatividad general que fuera
totalmente general, en el sentido de que no tuviera ninguna simetría exacta. De
cualquier manera su argumento se probó que era erróneo utilizando unas serie de
teoremas de Roger Penrose y míos. Estos demostraban que la relatividad general
predecía singularidades, siempre que estuviera presente al menos una cantidad
de masa determinada en una región. Los primeros teoremas estaban diseñados para
demostrar que el tiempo llega a un final, dentro de un agujero negro, formado
por el colapso de una estrella. No obstante, la expansión del universo es como
darle la vuelta en el tiempo al colapso de una estrella. Por consiguiente
quiero mostrarles que la evidencia de las observaciones indica que el universo
tiene suficiente materia como para que sea como el colapso de una estrella,
pero al revés, y que por tanto contenga una singularidad.
Para
discutir las observaciones en cosmología estamos mirando atrás en el tiempo,
porque la luz debió partir de los objetos lejanos hace mucho tiempo para llegar
a nosotros en el presente. Esto significa que los eventos que observamos se
encuentran en lo que se llama nuestro “cono de luz pasada”. El vértice del cono
se encuentra en nuestra posición, en el tiempo presente. Conforme uno se
desplaza hacia atrás en el diagrama temporal, el cono de luz se expande a
distancias cada vez mayores, y su área se incrementa. En cambio, si hay
suficiente materia en nuestro “cono de luz pasada”, ésta curvaría los rayos de
luz unos contra otros. Esto significaría que tal como uno se dirige hacia atrás
en el pasado, el área de nuestro “cono de luz pasada” alcanzaría un máximo para
posteriormente comenzar a disminuir.
Este
enfoque de nuestro “cono de luz pasada”, provocado por el efecto gravitatorio
de la materia en el universo es la señal de que el universo es dentro de su
horizonte, como un agujero negro invertido en el tiempo. Si se puede determinar
que existe suficiente materia en el universo para enfocar nuestro “cono de luz
pasada”, entonces se pueden aplicar los teoremas de las singularidades para
demostrar que el tiempo debió tener un comienzo.
¿Cómo
podemos decir a partir de las observaciones, si hay suficiente materia en
nuestro cono de luz pasado, para poder enfocarlo? Podemos observar un cierto
número de galaxias, pero no podemos medir directamente cuánta materia
contienen. Ni estamos seguro de que cualquier línea de visión que parta de nosotros
pase a través de una galaxia. Así que daré un argumento diferente, para mostrar
que el universo contiene suficiente materia para enfocar nuestro cono de luz
pasado. El argumento se basa en el espectro de la radiación de fondo de
microondas. Este es característico de una radiación que ha estado en equilibrio
térmico, con materia a igual temperatura. Para alcanzar tal equilibrio, es
necesario que la radiación sea dispersada muchas veces por la materia. Por
ejemplo, la luz que recibimos del Sol tiene un espectro térmico característico.
Este no es debido a las reacciones nucleares que tienen lugar en el centro del
Sol, que también producen radiación con espectro térmico. Más bien, se debe a
que la radiación ha sido dispersada, por la materia del Sol, muchas veces en su
camino desde el centro.
En el
caso del universo, el hecho de que el fondo de microondas tenga exactamente ese
espectro térmico indica que debe de haber sido dispersada en muchas ocasiones.
El universo debe por consiguiente contener suficiente materia para hacerlo
opaco en cualquier dirección en que nosotros miremos, puesto que el fondo de
microondas es el mismo en cualquier dirección en que miremos. Más aún, esta
opacidad debe ocurrir a una gran distancia de nosotros, dado que podemos ver galaxias
y quásares a grandes distancias. Por tanto ha de haber mucha materia a gran
distancia de nosotros. La mayor opacidad sobre una amplia banda de ondas, para
una densidad dada, proviene del hidrógeno ionizado. Se sigue por tanto que si
hay suficiente materia para hacer el universo opaco, debe ser suficiente
también para enfocar nuestro cono de luz pasado. Podemos aplicar el teorema de
Penrose y mío, para mostrar que el tiempo ha de tener un comienzo.
El
enfoque de nuestro cono de luz pasado implica que el tiempo debe de tener un
inicio, siempre que la Teoría General de la Relatividad sea correcta. Pero
tenemos que plantear la cuestión de si la Teoría General de la Relatividad es
correcta. Ciertamente concuerda con todas la pruebas observacionales que se han
llevado a cabo. Sin embargo éstas prueban la Relatividad General sólo sobre
distancias suficientemente grandes. Sabemos que la Relatividad General no es
correcta para distancias muy cortas, porque se trata de una teoría clásica. Es
decir, no tiene en cuenta el Principio de la Indeterminación de la Mecánica
Cuántica, que dice que un objeto no puede tener a la vez una posición bien
definida y una velocidad bien definida: cuanto más precisión se tenga al medir
la posición, menos precisión se tendrá al medir la velocidad, y viceversa. Por
lo tanto, para comprender el estado de muy alta densidad, cuando el universo
era muy pequeño, se necesita una teoría cuántica de la gravedad, que combine la
Relatividad General con el Principio de Incertidumbre.
Mucha
gente esperaba que los efectos cuánticos pudieran de alguna manera corregir la
singularidad de la densidad infinita, y permitir que el universo rebotara,
continuando atrás hacia una fase contractiva previa. Esto podría ser algo mejor
que la idea anterior de galaxias perdiéndose entre sí, pero el rebote ocurriría
a una densidad mucho más elevada. Sin embargo, pienso que no es esto lo que
ocurre: los efectos cuánticos no eliminan la singularidad, y permiten que el
tiempo continúe hacia atrás indefinidamente. Pero parece que los efectos
cuánticos pueden eliminar la cuestión más objetable, la de las singularidades
en la clásica Relatividad General.
Esto es
que la teoría clásica no nos permite calcular lo que podría ocurrir en una
singularidad, puesto que las Leyes de la Física se rompen allí. Esto podría
significar que la ciencia no es capaz de predecir cómo el universo puede
haberse iniciado. En vez de eso, debemos recurrir a un agente externo al
universo. Este puede ser el motivo por el que numerosos líderes religiosos se
apresuraron en aceptar el Big Bang y los teoremas de las singularidades.
Parece
que la Teoría Cuántica, por otro lado, permite predecir cómo el universo puede
empezar. La Teoría Cuántica introduce una nueva idea, el tiempo imaginario. El
tiempo imaginario puede sonar a ciencia ficción, y nos recuerda al Doctor Who.
Pero a pesar de ello, se trata de un genuino concepto científico. Podemos
representarlo del siguiente modo. Pensemos en el tiempo ordinario, real, como
una línea horizontal. A la izquierda tenemos el pasado, a la derecha el futuro.
Pero existe otra clase de tiempo en la dirección vertical. Se le llama tiempo
imaginario porque no es la clase de tiempo que normalmente experimentamos. Pero
en cierto sentido es tan real como el que llamamos tiempo real.
Las tres
direcciones del espacio y la dirección adicional del tiempo imaginario forman
lo que se denomina espacio-tiempo euclidiano. No creo que haya nadie capaz de
dibujar una curva espacial de cuatro dimensiones. Pero no es demasiado difícil
imaginar una superficie de dos dimensiones, como una silla de montar o la
superficie de un balón de fútbol.
De hecho,
James Hartle de la Universidad de Santa Barbara, California, y yo hemos
propuesto que el espacio y el tiempo imaginario en su conjunto, son sin duda
finitos en extensión, pero sin límites. Son como la superficie de la Tierra,
pero con dos dimensiones más. La superficie terrestre es finita en extensión,
pero no tiene límites ni fronteras. Yo he dado la vuelta al mundo, y no me he
caído por el borde.
Si el
espacio y el tiempo imaginario son de hecho como la superficie de la Tierra, no
podría haber ninguna singularidad en la dirección del tiempo imaginario, ya que
entonces las leyes de la física se romperían. Y no habría ninguna frontera al
espacio- tiempo, tal como no hay fronteras para la superficie de la Tierra.
Esta ausencia de fronteras indica que las leyes de la física determinarían el
estado del universo de manera unívoca, en el tiempo imaginario. Pero si se
conoce el estado del universo en el tiempo imaginario, se puede calcular el
estado del universo en el tiempo real. Se esperaría por tanto algún tipo de
singularidad del Big Bang en el tiempo real. Por lo tanto el tiempo real
tendría un comienzo. Pero no se tendría que apelar a algo que esté fuera del
universo para determinar como comenzó el universo. Al contrario, la manera en
la cual el universo comenzó con el Big Bang estaría determinada por el estado
del universo en el tiempo imaginario. Y por tanto, el universo sería un sistema
completamente auto contenido. No estaría determinado por nada fuera del
universo físico, que nosotros observamos.
La
condición de no frontera es el enunciado que mantienen las leyes de la física
en todas partes. Claramente es algo que a uno le gustaría creer, pero es solo
una hipótesis. Se debe probar, comparando con el estado del universo que
predeciría, con las observaciones de como es de hecho el universo. Si las
observaciones discreparan con las predicciones de la hipótesis de no frontera,
tendríamos que concluir que la hipótesis era falsa. Tendría que haber algo
fuera del universo que diera cuerda al mecanismo de relojería, y que pusiera el
universo a funcionar. Por supuesto, incluso si las observaciones concuerdan con
las predicciones, eso no prueba que la proposición de no frontera sea correcta.
Pero la confianza depositada en ella se incrementaría, en concreto porque no
parece haber otra propuesta natural para el estado cuántico del universo.
La
propuesta de no frontera predice que el universo debería empezar en un punto
único, como si fuera el Polo Norte de la Tierra. Pero ese punto no tiene por
que ser una singularidad, como el Big Bang. Al contrario, podría ser un punto
ordinario del espacio y del tiempo, tal como el Polo Norte es un punto
ordinario en la Tierra, o al menos tal y como me han contado. Yo no lo he visto
en persona.
De
acuerdo con la proposición de no frontera, el universo se habría expandido de
manera suave desde un punto inicial. Conforme se expandía, habría tomado
prestada energía del campo gravitatorio para crear materia. Tal como cualquier
economista habrá predicho, el resultado de dichos prestamos, fue la inflación.
El universo se expandía y cogía prestada energía incluso a una tasa creciente.
Afortunadamente, la deuda de energía gravitacional no tendría que ser devuelta
hasta el final del universo.
Eventualmente,
el periodo de inflación podría haber acabado, y el universo se habría establecido
en un estado de crecimiento o expansión más moderado. Aún así, la inflación
habría dejado su marca en el universo. El universo podría haber sido suave casi
por completo, pero con pequeñísimas irregularidades. Estas irregularidades son
tan pequeñas, solo una parte de cada cien mil, que han sido buscadas durante
años en vano. Pero en 1992, el satélite de Exploración del Fondo Cósmico
(Cosmic Background Explorer), COBE, encontró dichas irregularidades en la
radiación de fondo de microondas. Fue un momento histórico. Vimos hacia atrás
el comienzo del universo. La forma de las fluctuaciones en el fondo de
microondas concordaban estrechamente con las predicciones de la proposición de
no frontera. Estas pequeñísimas irregularidades en el universo habrían causado
que algunas regiones se hubieran expandido menos rápido que otras.
Eventualmente,
habrían cesado su expansión, y se habrían colapsado en ellas mismas, para
formar estrellas y galaxias. Por tanto, la proposición de no frontera puede
explicar la rica y variada estructura del mundo en el que vivimos. ¿Que es lo
que predice la proposición de no frontera para el futuro?. Ya que requiere que
el universo sea finito tanto en el espacio, como en el tiempo imaginario,
implica que el universo se re-colapsará eventualmente. A pesar de todo, no se
re-colapsará en mucho tiempo, mucho más tiempo que los 15 miles de millones de
años que se ha estado expandiendo. Por tanto aún tienen tiempo de vender sus
bonos del tesoro antes de que el final del universo esté cerca. En que vas a
invertir entonces, no se.
Originariamente,
pensaba que el colapso sería el reverso del tiempo de la expansión. Esto habría
significado que la flecha del tiempo habría apuntado en el sentido contrario en
la fase de contracción. La gente se habría hecho más joven conforme el universo
se hubiera hecho más pequeño. Eventualmente la gente habría desaparecido en la
matriz materna.
Sin
embargo ahora me doy cuenta de que estaba equivocado, tal y como estas
soluciones demuestran. El colapso no es el reverso del tiempo de la expansión.
La expansión comenzará con una fase de inflación, pero el colapso no acabará en
general con una fase anti-inflación. Lo que es más, las pequeñas discordancias
de la densidad uniforme continuarán creciendo en la fase de contracción. El
universo se volverá más y más grumoso e irregular conforme se haga más pequeño,
y el desorden se incrementará. Esto significa que aquella flecha del tiempo no
se invertirá. La gente continuará haciéndose vieja, incluso después de que el
universo haya comenzado a contraerse. Por lo tanto no es bueno esperar hasta
que el universo se re-colapse para volver a la juventud. Estarías un poco en el
pasado, de cualquier manera, para entonces.
La
conclusión de esta conferencia es que el universo no ha existido desde siempre.
Lo que es más, el universo, y el tiempo en sí mismo, tuvieron un comienzo en el
Big Bang, hace más o menos 15 mil millones de años. El comienzo del tiempo real
podría haber sido una singularidad, en la cual las leyes de la física podrían haberse
roto, si el universo satisficiera la condición de no frontera. Esto quiere
decir que en la dirección del tiempo imaginario, el espacio-tiempo es finito en
extensión, pero no tiene ninguna frontera o borde. Las predicciones de la
proposición de no frontera parecen concordar con las observaciones. La
hipótesis de no frontera también predice que el universo se colapsará otra vez
de manera eventual. Sin embargo, la fase de contracción no tendrá una flecha
del tiempo opuesta a la fase de expansión. Por lo tanto continuaremos
haciéndonos viejos, y no volveremos a nuestra juventud. Y porque el tiempo no
va a volver hacia atrás, creo que mejor paro ya.
En esta
charla, quisiera especular un poco sobre el desarrollo de la vida en el
universo, y en particular, sobre el desarrollo de la vida inteligente. Haré
esto para incluir a la raza humana, aunque buena parte de su comportamiento a
lo largo de la historia, ha sido bastante estúpido, y no precisamente calculado
para ayudar a la supervivencia de las especies. Dos preguntas que discutiré
son, '¿Cuál es la probabilidad de que la vida exista en otras partes del
universo?' y, ' ¿Cómo podrá desarrollarse la vida en el futuro?'
Es cuestión
de experiencia común, saber que las cosas tienden al desorden y al caos a
medida que pasa el tiempo. Esta observación puede elevarse al estado de ley, la
así llamada Segunda Ley de la Termodinámica. Esta dice que la cantidad total de
desorden, o entropía, en el universo, aumenta siempre con el tiempo. Sin
embargo, la ley se refiere solamente a la cantidad total de desorden. El orden
en un cuerpo puede aumentar, a condición de que la cantidad de desorden a sus
alrededor aumente en una cantidad mayor. Esto es lo que sucede con un ser vivo.
Podríamos
definir a la vida como: sistema ordenado que puede sostenerse contra la
tendencia al desorden, y que puede reproducirse. Es decir, que puede formar
sistemas ordenados similares, pero independientes. Para hacer estas cosas, el
sistema debe poder convertir energía partiendo de una forma ordenada, (por
ejemplo: alimento, luz del sol, o energía eléctrica), en energía desordenada,
(en forma de calor). De esta manera, el sistema puede satisfacer el requisito
de que la cantidad total de desorden aumente, mientras que, al mismo tiempo,
aumenta el orden en sí mismo y en su descendencia. Un ser vivo tiene
generalmente dos elementos: un sistema de instrucciones que le dicen al sistema
cómo sostenerse y reproducirse, y un mecanismo para realizar estas
instrucciones.
En
biología, estas dos piezas se llaman genes y metabolismo. Pero merece la pena
acentuar que no es necesario una naturaleza biológica en ellos. Por ejemplo, un
virus de ordenador es un programa que hará copias de sí mismo en la memoria de
un ordenador, y se transferirá a otros ordenadores. Así, cabe en la definición
de sistema vivo que yo he dado. Al igual que un virus biológico, ambos son
formas algo degeneradas, porque solo contiene instrucciones o genes, y no
tienen ningún metabolismo propio. En su lugar, reprograman el metabolismo del
ordenador huésped o de la célula. Algunas personas se han cuestionado si
deberíamos contar a los virus entre los seres vivos, ya que son parásitos, y no
pueden existir independientemente de sus anfitriones. Pero entonces la mayor
parte de las formas de vida, nosotros mismos incluidos, son parásitos, ya que
se alimentan y dependen para su supervivencia de otras formas de vida. Creo que
los virus de ordenador deberían considerarse también como vida. Quizás esto
dijera algo sobre la naturaleza humana, ya que la única forma de vida que hemos
creado hasta ahora, es puramente destructiva. Dicho de otro modo, creamos vida
a nuestra imagen y semejanza. Volveré sobre las formas electrónicas de vida más
adelante.
Lo qué
normalmente conocemos como ' vida ' se basa en cadenas de átomos de carbono,
enlazados con algunos otros átomos, tales como nitrógeno o fósforo. Podríamos
especular que se puede obtener vida a partir de otra base química, por ejemplo
el silicio, pero el carbono parece el caso más favorable, porque tiene la
química más rica. Que los átomos de carbono existan al fin, con las
características que tienen, requiere un fino ajuste de las constantes físicas,
tales como la escala QCD (Nota del traductor: escala cromo-dinámica
cuántica), la carga eléctrica, e incluso la dimensión espacio-tiempo.
Si estas constantes tuvieran valores perceptiblemente distintos, o bien el
núcleo del átomo de carbono se volvería inestable, o bien los electrones se
colapsarían sobre el núcleo. A primera vista, parece notable que el universo
esté ajustado tan finamente. Esta es quizá una evidencia, de que el universo
fue diseñado especialmente para producir la raza humana. Sin embargo, hay que
tener cuidado sobre tales discusiones, debido a lo que se conoce como el
Principio Antrópico. Este se basa en la verdad, de por si evidente, de que si
el universo no hubiera sido adecuado para la vida, nosotros no estaríamos ahora
preguntándonos por qué está ajustado tan finamente. Se puede aplicar el
Principio Antrópico, en sus versiones fuerte, o débil.
Para el
principio Antrópico fuerte, suponemos que hay muchos y diversos universos, cada
uno con distintos valores en sus constantes físicas. En un número pequeño de
ellos, estos valores permitirán la existencia de objetos tales como los átomos
del carbono, que pueden actuar como los ladrillos para la construcción de
sistemas vivos. Puesto que debemos vivir en uno de estos universos, no debemos
sorprendernos de que las constantes físicas estén tan finamente ajustadas. Si
no fuera así, no estaríamos aquí. La forma fuerte del Principio Antrópico no es
muy satisfactoria. ¿Qué sentido operativo podemos dar a la existencia de esos
otros universos? Y si están separados y al margen de nuestro propio universo,
cómo puede afectarnos lo que suceda en ellos. En su lugar, adoptaré el que se
conoce como Principio Antrópico débil. Es decir, tomaré los valores de las
constantes físicas, según nos vienen dados. Pero veré qué conclusiones pueden
extraerse, del hecho de que la vida exista en este planeta, en esta etapa de la
historia del universo.
No había
carbono, cuando el universo comenzó con el Big Bang, hace aproximadamente 15
mil millones de años. Era tan caliente, que toda la materia habría estado en
forma de partículas, llamadas protones y neutrones. En un principio habría
protones y neutrones en cantidades iguales. Sin embargo, como el universo se
expandió, este se habría enfriado. Aproximadamente un minuto después del Big
Bang, la temperatura habría caído a alrededor de mil millones de grados,
equivalente a cientos de veces la temperatura del Sol. A esta temperatura, los
neutrones comenzaron a descomponerse en más protones.
Si solo
hubiera sucedido esto, toda la materia en el universo habría terminado siendo
como el elemento más simple, el hidrógeno, cuyo núcleo consiste en un solo
protón. Sin embargo, algunos de los neutrones chocaron con los protones, y se
fusionaron para formar el siguiente elemento más simple, el helio, cuyo núcleo
consiste en dos protones y dos neutrones. Pero en el joven universo no se
habría formado ningún elemento más pesado, como el carbono o el oxígeno. Es
difícil imaginarse construir un sistema vivo, partiendo del hidrógeno y del
helio, y de todos modos el universo primigenio seguía siendo demasiado caliente
como para que los átomos se combinasen formando moléculas.
El
universo habría continuado expandiéndose, y enfriándose. Pero algunas regiones
habrían tenido densidades algo más altas que otras. La atracción gravitacional
de la materia adicional en esas regiones, retrasaría su expansión, y
eventualmente la pararía. En su lugar, esas regiones se colapsarían para formar
galaxias y estrellas, hecho que empezó aproximadamente dos mil millones de años
después del Big Bang. Algunas de aquellas estrellas tempranas habrían sido más
masivas y calientes que nuestro Sol y habrían quemado el hidrógeno y helio
original, transformándolo en elementos más pesados, tales como carbono,
oxígeno, y hierro. Esto habría podido tomar solamente algunos cientos de
millones de años. Después de eso, algunas de las estrellas habrían estallado
como supernovas, y habrían dispersado los elementos pesados hacia el interior
del espacio, formando la materia prima para próximas generaciones de estrellas.
Otras
estrellas están demasiado lejos, como para que podamos ver directamente, si
tienen planetas girando alrededor de ellas. Pero ciertas estrellas, llamadas
pulsars, emiten pulsos regulares de ondas de radio. Observamos una leve
variación en el índice de emisión de algunos pulsars, y esto se interpreta como
un indicador de que están siendo perturbados, por la presencia de planetas del
tamaño de la Tierra girando alrededor de ellas. Los planetas que giran
alrededor de pulsars tienen pocas probabilidades de albergar vida, porque
cualquier ser vivo habría muerto, en la explosión de la supernova que condujo a
la estrella a convertirse en un pulsar. Pero, el hecho de que se haya observado
que varios pulsars tienen planetas sugiere que una fracción razonable de las
cientos de miles de millones de estrellas de nuestra galaxia pueden también
tener planetas. Las condiciones planetarias necesarias para nuestra forma de
vida pudieron por lo tanto, haber existido a partir de cuatro mil millones de
años después del Big Bang.
Nuestro
Sistema Solar se formó aproximadamente hace cuatro mil quinientos millones de
años, cerca de diez mil millones de años después del Big Bang, a partir de gas
contaminado con los restos de estrellas anteriores. La Tierra se formó en gran
parte a partir de los elementos más pesados, incluyendo el carbono y el
oxígeno. De algún modo, algunos de esos átomos llegaron a ordenarse en forma de
moléculas de ADN. Este tiene la famosa forma de doble hélice, descubierta por
Crick y Watson en un cuartucho situado en el Nuevo Museo, en Cambridge.
Enlazando las dos cadenas en la hélice, hay pares de ácidos nucleicos.
Hay
cuatro tipos de ácidos nucleicos: adenina, citosina, guanina, y tiamina. Me
temo que mi sintetizador del voz no es muy bueno, pronunciando sus nombres.
Obviamente, no fue diseñado para biólogos moleculares. Una adenina en una
cadena se empareja siempre con una tiamina en la otra cadena, y una guanina con
un citosina. Así la secuencia de ácidos nucleicos en una cadena define una secuencia
única y complementaria, en la otra cadena. Ambas cadenas pueden entonces
separarse y cada una actúa como una plantilla para construir otras cadenas. De
este modo las moléculas de ADN pueden reproducir la información genética,
cifrada en sus secuencias de ácidos nucleicos. Algunas secciones de la
secuencia se pueden también utilizar para elaborar proteínas y otros productos
químicos, que pueden transportar las instrucciones codificadas en secuencia, y
montar la materia prima para que el propio ADN se reproduzca.
No
sabemos cómo aparecieron las primeras moléculas de ADN. La probabilidad de que
una molécula de ADN se forme por fluctuaciones al azar es muy pequeña. Algunas
personas, por lo tanto, han sugerido que la vida llegó a la Tierra desde alguna
otra parte, y que hay semillas de vida flotando por los alrededores de la
galaxia. Sin embargo, parece inverosímil que el ADN pudiera sobrevivir durante
mucho tiempo a la radiación en el espacio. E incluso si pudiera, esto realmente
no ayudaría a explicar el origen de la vida, porque el tiempo que necesitó el
universo para lograr la formación del carbono es sólo un poco mas del doble que
la edad de la Tierra.
La
posibilidad de formación de algo parecido al ADN, que pudiera reproducirse, es
extremadamente inverosímil. Sin embargo, en un universo con un número muy
grande, o infinito, de estrellas, cabría esperar que esto ocurriera en algunos
sistemas estelares, pero estarían tremendamente separados unos de otros. El
hecho de que la vida llegara a suceder en la Tierra, no es sin embargo algo que
nos sorprenda o inverosímil. Es solo una aplicación del Principio Antrópico
Débil: si en su lugar, la vida hubiera aparecido en otro planeta, estaríamos
preguntándonos por qué había ocurrido allí.
Si la
aparición de vida en un planeta dado era muy inverosímil, se podía haber
esperado que el proceso se alargase en el tiempo. Más exactamente, se podía
haber esperado de la vida que apareciese justo a tiempo para la evolución
subsiguiente de seres inteligentes, como nosotros antes del apagón, es decir
antes del fin del proceso vital del Sol. Este es de cerca de diez mil millones
de años, tras lo cual el Sol se expandirá y engullirá a la Tierra. Una forma
inteligente de vida, podría haber dominado el viaje espacial, y podría por
tanto ser capaz de escaparse a otra estrella. Pero de otro modo, la vida en la
Tierra estaría condenada.
Hay
evidencia fósil, de que existían ciertas formas de vida en la Tierra, hace
aproximadamente tres mil quinientos millones de años. Esto pudo haber sido
apenas 500 millones de años después de que la Tierra llegase a estabilizarse y
a enfriarse lo bastante como para que la vida apareciera. Pero la vida habría
podido tardar siete mil millones de años en desarrollarse, y todavía le
sobraría tiempo para el desarrollo de seres que como nosotros, podrían
preguntarse sobre el origen de la vida. Si la probabilidad del desarrollo de
vida en un planeta dado, es muy pequeña, por qué sucedió en la Tierra, en tan
solo 1/14 del tiempo total disponible.
La temprana
aparición de vida en la Tierra sugiere que hay buenas opciones para la
generación espontánea de vida, en condiciones convenientes. Quizás existieran
ciertas formas más simple de organización, las cuales llegaron a construir el
ADN. Una vez que apareció el ADN, este habría tenido tanto éxito, que puede ser
que hubiera substituido totalmente las formas anteriores. No sabemos cuáles
habrían sido estas formas anteriores. Una posibilidad es el ARN. Este es como
el ADN, pero algo más simple, y sin la estructura de doble hélice. Las cortas
longitudes del ARN, podían reproducirse como el ADN, y pudieron eventualmente
transformarse en ADN. No se pueden crear ácidos nucleicos en el laboratorio a
partir de material no-vivo, ni siquiera ARN. Pero transcurridos 500 millones de
años, y contando con los océanos que cubrían la mayor parte de la Tierra, pudo
haber una probabilidad razonable de que el ARN, se formase por casualidad.
Mientras
el ADN se reprodujo, habrían sucedido errores al azar. Muchos de estos errores
habrían sido dañinos, y habrían muerto. Otros habrían sido neutrales. Lo cual
significa que no habrían afectado la función de los genes. Tales errores
contribuirían a una deriva genética gradual, lo cual parece ocurrir en todas
las poblaciones. Y otros errores habrían sido favorables para la supervivencia
de la especie. Estos habrían sido escogidos por la selección natural
Darwiniana. El proceso de la evolución biológica fue muy lento al principio.
Llevó dos mil quinientos millones de años, desarrollar animales multicelulares
a partir de las células más tempranas, y otros mil millones de años más el
desarrollo, a través de peces y reptiles, de los mamíferos. Pero entonces la
evolución pareció pegar un acelerón. En solo unos cientos de millones de años,
los primeros mamíferos evolucionaron hasta nosotros. La razón es, que los peces
ya contienen una gran parte de los órganos importantes de los humanos, y los
mamíferos, prácticamente todos. Es decir, todo lo que se requería para el
desarrollo humano a partir de los primeros mamíferos, como los lemurs, era un
poco de afinación y ajuste.
Pero con
la raza humana, la evolución alcanzó un nivel crítico, comparable en
importancia con el desarrollo del ADN. Este hito fue el desarrollo del
lenguaje, y particularmente el del lenguaje escrito. Ello significó que existía
otro tipo de información que se podía pasar de generación en generación, además
de la genética a través del ADN. No ha habido cambios perceptibles en al ADN
humano, causados por la evolución biológica, en los diez mil años de historia
registrada. Pero la cantidad de conocimiento manejado de generación en
generación ha crecido enormemente.
El ADN en
los seres humanos contiene cerca de tres mil millones de ácidos nucleicos. Sin
embargo, mucha de la información cifrada en esta secuencia, es redundante, o
está inactiva. Por tanto la cantidad total de información útil en nuestros
genes, es probablemente algo que ocupa unos cientos de millones de bits. Un bit
de información es la respuesta a una pregunta de rango: si ó no. Por el
contrario, una novela impresa en papel puede contener dos millones de bits de
información. Así que un ser humano es el equivalente a 50 novelas románticas de
Mills & Boon (Nota del traductor: Arlequín Mills & Boon es la
empresa lider mundial en edición de novelas rosa) .Una biblioteca
nacional importante puede contener cerca de cinco millones de libros, lo cual
equivale a cerca de diez billones de bits. Por lo que la cantidad de
información recogida en los libros, es cientos de miles de veces superior a la
contenida en el ADN.
Aún más
importante, es el hecho de que la información en los libros, puede cambiarse y
actualizarse, mucho más rápidamente. Hemos tardado varios millones de años en
desarrollarnos a partir de los monos. Durante ese tiempo, la información útil
en nuestra ADN, ha cambiado probablemente en solo algunos millones de bits. De
modo que el índice de evolución biológica en los seres humanos, es
aproximadamente de un bit por año. Por contra, se publican cerca de 50.000
nuevos libros en lengua inglesa cada año, conteniendo del orden de cientos de
miles de millones de bits de información. Por supuesto, la gran mayoría de esta
información es basura, y de ninguna utilidad para cualquier forma de vida.
Pero, incluso así, el ratio en el cual se puede agregar información útil es de
millones, si no miles de millones, más alto que el del ADN.
Esto ha
significado que hemos entrado en una nueva fase de la evolución. Al principio,
la evolución procedió por obra de la selección natural, a través de mutaciones
al azar. Esta fase Darwiniana, duró cerca de tres mil quinientos millones de
años, y nos produjo a nosotros, seres que desarrollaron el lenguaje para
intercambiar información. Pero en los últimos diez mil años, más o menos, hemos
atravesado lo que podemos llamar, una fase de transmisión externa. Durante
esta, el registro interno de información, manejado por las generaciones que
tuvieron éxito reproductivo, no ha cambiado perceptiblemente al ADN. Pero el
registro externo, mediante libros y otras formas duraderas de almacenaje, ha
crecido enormemente. Algunas personas utilizarían el término, evolución, sólo
para el material genético internamente transmitido, y se opondría a que dicho
término fuese aplicado a la información manejada externamente. Pero creo que
esto es también un problema de estrechez de miras.
Somos más
que simplemente nuestros genes. Podemos no ser más fuertes, o intrínsecamente
más inteligentes, que nuestros antepasados los hombre de las cavernas. Pero lo
que nos distingue de ellos, es el conocimiento que hemos acumulado durante los
últimos diez mil años, y particularmente, durante los últimos trescientos.
Pienso que es legítimo tomar una visión de conjunto, e incluir la información
transmitida externamente, tanto como al ADN, en la evolución de la raza humana.
La escala
de tiempo para la evolución de la información, durante el período de
transmisión externo, es la de la tasa de acumulación. Esta fase solía ser de
centenares, o aún de millares de años. Pero ahora este escala de tiempo se ha
reducido a cerca de 50 años, o menos. Por otro lado, los cerebros con los
cuales procesamos esa información se han desarrollado solamente en la escala de
tiempo Darwiniana, de cientos de miles de años. Esto está comenzando a causar
problemas. En el siglo XVIII, se decía que había un hombre que había leído cada
uno de los libros escritos. Pero hoy en día, si usted leyera un libro al día,
le llevaría cerca de 15.000 años leer todos los libros de una biblioteca
nacional. Y para cuando acabase, muchos más libros habrían sido escritos.
Esto ha
significado que nadie puede ser maestro en más que una pequeña esquina del
conocimiento humano. La gente tiene que especializarse, en campos más y más
reducidos. Esto es probable que sea una limitación importante en el futuro. No
podemos continuar ciertamente, durante mucho tiempo, con el índice de
crecimiento exponencial de conocimiento que hemos tenido en los últimos
trescientos años. Una limitación y un peligro aún mayor para las generaciones
futuras, es que todavía conservamos los instintos, y en particular, los
impulsos agresivos, que teníamos en los días del hombre de las cavernas.
Las
agresiones, tales como la subyugación o el asesinato de otros hombres para
tomar sus mujeres y su alimento, ha representado una ventaja definitiva para la
supervivencia, hasta el presente. Pero ahora podría destruir a la raza humana
entera, y a gran parte del resto de seres vivos de la Tierra. Una guerra
nuclear, sigue representando el peligro más inmediato, pero existen otros,
tales como el lanzamiento de virus rediseñados por ingeniería genética. O que
el efecto invernadero llegue a tornarse inestable.
No queda
tiempo, para esperar a que la evolución Darwiniana, nos haga más inteligentes,
y mejore nuestra naturaleza. Pero ahora estamos entrando en una nueva fase, que
podría ser llamada, evolución de auto-diseño, en la cual podremos cambiar y
mejorar nuestra ADN. Existe un proyecto en marcha hoy en día para trazar la
secuencia entera del ADN humano. (Nota del traductor: La charla es anterior
a 1993, y el proyecto Genoma Humano empezó en 1990 y acabó en el 2000)
Costará algunos miles de millones de dólares, pero eso es pecata minuta, para
un proyecto de esta importancia. Una vez que hayamos leído el libro de la vida,
comenzaremos a escribir las correcciones. Al principio, estos cambios estarán
confinados a la reparación de defectos genéticos, como la fibrosis quística, y
la distrofia muscular. Estas son controladas por genes sencillos, así que son
bastante fáciles de identificar, y de corregir. Otras cualidades, tales como la
inteligencia, son probablemente controladas por una gran cantidad de genes.
Será mucho más difícil encontrarlos, y descubrir las relaciones entre ellos.
Sin embargo, estoy seguro de que durante el próximo siglo, la gente descubrirá
cómo modificar tanto la inteligencia, como los instintos agresivos.
Se
aprobarán leyes contrarias a la ingeniería genética en seres humanos. Pero
algunas personas no podrán resistirse a la tentación, de mejorar ciertas
características humanas, tales como el tamaño de la memoria, la resistencia a
las enfermedades, y el alargamiento de la vida. Una vez que aparezcan
semejantes super-seres humanos, va a haber problemas políticos importantes, con
el resto de seres humanos no mejorados, que no podrán competir. Probablemente,
estos últimos morirán, o perderán importancia. En su lugar, habrá una raza de
seres auto-diseñados, que irán mejorándose en un porcentaje cada vez mayor.
Si esta
raza consigue reajustarse, hasta reducir o eliminar el riesgo de
autodestrucción, probablemente se expandirá, y colonizará otros planetas y
estrellas. Sin embargo, los viajes espaciales a través de grandes distancias,
serán difíciles para las formas de vida con base química, como el ADN. El curso
de vida natural para tales seres es muy breve, comparado con el tiempo del
viaje. Según la teoría de la relatividad, nada puede viajar más rápidamente que
luz. Por lo que el viaje de ida y vuelta a la estrella más cercana tomaría por
lo menos 8 años, y al centro de la galaxia, alrededor de cien mil años.
En la
ciencia ficción, se superan estas dificultades, mediante deformaciones del
espacio, o viajando a través de otras dimensiones. Pero no creo que esto sea
posible jamás, no importa lo inteligentes que se vuelvan. En la teoría de la
relatividad, si algo puede viajar más rápidamente que luz, también puede viajar
hacia atrás en el tiempo. Esto nos conduciría a problemas con la gente que
vuelve desde el futuro, para cambiar el pasado. Cabría esperar además, haber
visto a una gran cantidad de turistas llegando desde el futuro, curiosos por
observar nuestras costumbres pintorescas y pasadas de moda.
Puede que
sea posible utilizar la ingeniería genética, para hacer que la vida basada en
ADN sobreviva indefinidamente, o por lo menos durante cien mil años. Pero hay
una forma más sencilla, y que ya casi está dentro de nuestras posibilidades,
que sería la de enviar máquinas. Estas se podrían diseñar para que durasen el
tiempo suficiente para soportar el recorrido interestelar. Cuando llegasen a
una nueva estrella, podrían aterrizar en un planeta conveniente, y extraer
material de las minas para producir más máquinas, las cuales podrían ser
enviadas hacia otras estrellas. Estas máquinas serían una nueva forma de vida,
basada en componentes mecánicos y electrónicos, en lugar de macromoléculas.
Podrían eventualmente sustituir a la vida basada en ADN, tal y como el ADN pudo
haber sustituido a otras formas anteriores de vida.
Esta vida
mecánica podría también ser auto-diseñada. Por ello, parece que el período de
transmisión externa de la evolución, habría sido solo un corto interludio,
entre la fase Darwiniana, y la fase (biológica o mecánica) de auto-diseño. Esto
se muestra en el diagrama siguiente, que no es a escala, porque no hay forma
alguna de representar un período de diez mil años en una escala de miles de
millones de años.
Cuánto
tiempo durará la fase de auto-diseño, es algo discutible. Puede ser inestable,
y la vida podría destruirse a si misma, o llegar a un callejón sin salida. Si
no lo hace, debería poder sobrevivir a la muerte del Sol, aproximadamente
dentro de 5 mil millones de años, moviéndose a planetas situados alrededor de
otras estrellas. La mayoría de las estrellas se habrán quemado dentro de otros
15 mil millones de años, más o menos, y el universo se acercará a un estado de
completo desorden, según la Segunda Ley de la Termodinámica. Pero Freeman Dyson
ha demostrado que, a pesar de esto, la vida podría adaptarse a la fuente
siempre decreciente de energía ordenada, y por lo tanto podría, en principio,
continuar su existencia para siempre.
¿Qué
oportunidades tenemos de encontrar alguna forma de vida alienígena , mientras
exploramos la galaxia?. Si la discusión sobre la escala de tiempo para la
aparición de vida en la Tierra es correcta, debe haber muchas otras estrellas,
cuyos planetas alberguen vida. Algunos de estos sistemas estelares podrían
haberse formado cinco mil millones de años antes que la Tierra. Luego, ¿por qué
la galaxia no está bullendo de formas de vida auto-diseñadas, mecánicas o
biológicas? ¿Por qué la Tierra no ha sido visitada, o incluso colonizada?. No
tendré en cuenta las sugerencias de que los OVNIS transportan a seres del
espacio exterior. Creo que cualquier visita alienígena, sería mucho más obvia,
y probablemente también, mucho más desagradable.
¿Cuál es
la explicación del por qué no nos han visitado? Una posibilidad es que la
discusión, sobre la aparición de vida en la Tierra, es incorrecta. Tal vez la
probabilidad de que la vida aparezca espontáneamente es tan baja, que la Tierra
es el único planeta en la galaxia, o en el universo observable, en el cual
sucedió. Otra posibilidad es que exista una probabilidad razonable para que se
formen sistemas de auto reproducción, como las células, pero que la mayoría de
estas formas de vida no desarrollaron la inteligencia. Solemos creer en la vida
inteligente, como una consecuencia inevitable de la evolución. Pero el
Principio Antrópico debería advertirnos para que fuéramos cuidadosos con tales
argumentos. Es más probable que la evolución sea un proceso al azar, donde la
inteligencia es simplemente uno más entre una gran cantidad de resultados
posibles.
No está
claro que la inteligencia tenga un valor de supervivencia a largo plazo. Las
bacterias, y otros organismos unicelulares, seguirán viviendo, aún cuando el
resto de la vida en la Tierra fuese barrida por nuestras acciones. Hay por
tanto apoyos para la visión de que la inteligencia, es un desarrollo poco
probable de la vida en la Tierra, desde la cronología de la evolución. Tomó un
tiempo muy largo, dos mil quinientos millones de años, llegar a partir de las
células hasta los seres multicelulares, los cuales son precursores necesarios
para la inteligencia. Esta es una buena fracción del tiempo total disponible,
antes de que el sol se destruya. Lo cual daría consistencia a la hipótesis, de
que la probabilidad para que la vida inteligente se desarrolle, es baja. En ese
caso, cabe esperar que encontremos muchas otras formas de vida en la galaxia,
pero es poco probable encontrar vida inteligente.
Otro
modo, mediante el cual la vida podría fracasar en su intento de desarrollarse
hasta un escenario de inteligencia, sería la de que un asteroide o cometa
colisionase con el planeta. Acabamos de observar la colisión de un cometa, el
Schumacher-Levi, con Júpiter. Esto produjo una serie de bolas de fuego enormes.
Se cree que la colisión de un cuerpo algo más pequeño, con la Tierra, hace cerca
de 70 millones de años, fue responsable de la extinción de los dinosaurios.
Algunos pequeños mamíferos tempranos sobrevivieron, pero cualquier cosa tan
grande como un humano habría sido aniquilada casi con toda certeza. Es difícil
decir cuan a menudo ocurren tales colisiones, pero una conjetura razonable
sobre este promedio, puede ser cada veinte millones de años. Si esta cifra es
correcta, significaría que la vida inteligente en la tierra ha aparecido,
únicamente gracias al hecho afortunado de que no ha habido colisiones
importantes en los últimos 70 millones de años. Otros planetas en la galaxia,
en los cuales la vida hubiera aparecido, pudieron no haber tenido un período
libre de colisiones lo suficientemente largo como para desarrollar seres
inteligentes.
Una
tercera posibilidad es que durante la fase de transmisión externa haya una
probabilidad razonable para que la vida se forme, y se desarrollen los seres
inteligentes. Pero en ese punto, el sistema llega a ser inestable, y la vida
inteligente se destruye. Esta sería una conclusión muy pesimista. Y en verdad
deseo mucho que no sea así. Prefiero una cuarta posibilidad: la de que hay
otras formas de vida inteligente ahí fuera, pero que se nos han pasado por
alto.
Existía
un proyecto llamado SETI, la búsqueda de inteligencia extra-terrestre. Este
implicaba la exploración de radiofrecuencias, para ver si podríamos captar
señales emitidas por civilizaciones extraterrestres. Creo que merecía la pena
apoyar este proyecto, aunque fue cancelado debido a una carencia de fondos.
Pero deberíamos ser cuidadosos y no contestar, hasta que nos hayamos
desarrollado un poquito más. Descubrir una civilización más avanzada, en
nuestra actual etapa, puede ser un poco como cuando los habitantes originales
de América se encontraron con Colón. Creo que estaban mejor antes de ello.
Eso es
todo lo que tengo que decir. Gracias por escuchar.
En 1999, Stephen Hawking visitó
Granada para dar una conferencia sobre la Ciencia en el futuro. Tuve el
priviligegio de asistir, y verdaderamente no me defraudó.
El Dr.
Rafael Rodrigo dejó la presentación personal de Stephen Hawking al doctor
Víctor Aldaya, quien no se quiso extender demasiado, y sólo resaltó los
aspectos más destacados de su peculiar carrera científica: el descubrimiento
teórico, junto con Roger Penrose, de una singularidad en el principio de los
tiempos (posteriormente denominada "Big Bang") y sus estudios de
agujeros negros mediante gravedad cuántica. A continuación, dejó la palabra al
profesor Stephen Hawking.
Para
comenzar su conferencia, mostró una imagen de uno de los episodios de
"Star Trek", en la que aparece él mismo jugando a las cartas con
Newton, Einstein y uno de los protagonistas. Con este toque irónico (que
mantuvo a lo largo de toda su conferencia) quiso llamar la atención sobre la
visión que siempre se ha tenido del futuro, desde las novelas de H.G. Wells a
la saga de "La Guerra de las Galaxias" o la serie "Star
Trek". El punto común de todas ellas es el hecho de encontrarnos ante una
sociedad estacionaria, esto es, una sociedad en la que los problemas sociales
están en muchos casos solventados, y la ciencia es un cuerpo totalmente
cerrado, del que sólo se pueden extraer innovaciones tecnológicas. Pero desde
que el hombre apareció sobre la faz de la Tierra, no se ha tenido dicha
sociedad estática, sino una sociedad en continuo avance y revolución, aunque en
ocasiones ocurrieran retrocesos culturales como en la Edad Media.
Actualmente,
la población de la Tierra sigue un crecimiento exponencial del 1.9%. Esto
significa que la población se duplica en 40 años escasos. Podríamos poner como
medidas del desarrollo científico el consumo de electricidad o el número de
artículos científicos publicados. Ambos también se duplican en 40 años. Sin
embargo, no se han alcanzado las visiones utópicas que se tenían sobre el año
2001 al principio o a mitad del siglo pasado. Por ejemplo, en la película
"2001: Una Odisea en el Espacio", el hombre ya poseía colonias en la
Luna y viajaba a Júpiter. No ocurrirá esto en los próximos años, sea quien sea
el que gobierne.
Pero el
crecimiento exponencial no puede continuar de esta forma. En caso contrario,
para el 2600 todos los seres humanos estaríamos apiñados hombro con hombro en
la superficie terrestre, la que brillaría con luz propia por motivo de la
electricidad consumida. Esta visión del futuro, nada halagüeña, no parece muy
real. ¿Qué sucederá entonces?.
Una
posibilidad que podemos plantear es la completa destrucción de nuestra
civilización como consecuencia de una guerra nuclear. Podría ser lo que en
realidad les sucede a las jóvenes civilizaciones que surgen en cualquier
planeta, y por eso aún no hemos topado con alienígenas. Si los gobiernos del
planeta están acallando que realmente estamos en contacto con otros seres
extraterrestres, desde luego lo están haciendo mucho mejor que en el resto de
las cosas. Volverá al tema de los extraterrestres más adelante.
En
realidad, nos guste o no, se tiene ahora mismo un peligro real de
autodestrucción global. Podemos usar las primeras escenas de la película
"Terminator" para visualizar lo que nos podría ocurrir. Se volvería a
un estado de barbarie. Sin embargo, él es optimista, y no cree que ocurra un Armageddon
en el futuro.
Si consideramos los pensamientos de un erudito del año 1000, casi con
total seguridad no hubiera previsto la enorme explosión tecnológica y
científica que ha sucedido en los últimos doscientos años, y sobre todo en el
último siglo. De esta forma, nos indica Hawking que no podemos extrapolar los
avances actuales para intentar predecir el futuro. Probablemente, sucederá lo
inesperado.
Desde
que Galileo Galilei, hace ya más de 400 años, comenzara el método científico,
nuestros conocimientos de las leyes básicas del Universo han crecido de forma
espectacular. Galileo fue una de las primeras personas que puso en duda las
ideas de Aristóteles, quien defendía que se debía usar la razón pura para
conocer el Universo. Con Galileo nació la experimentación científica, esto es,
la observación, que ahora es completamente necesaria para la realización de
teorías científicas. Sin embargo, en Física Teórica, cada vez es necesaria una
mayor abstracción matemática, que se refleja en ecuaciones más y más
complicadas. La observación tiene un límite. No podemos observar el inicio del
Universo, por lo que sólo podremos entenderlo mediante estas abstracciones
matemáticas que surgen en el desarrollo de las teorías físicas.
Para
finales del siglo XIX, se tenía una visión casi cerrada de la Física gracias a
la teoría de la Gravedad de Newton y a la teoría del Electromagnetismo de
Faraday y Maxwell. Constituía el bloque de la Mecánica Clásica, en donde las
variaciones en las variables físicas (posición, velocidad, energía) eran
continuas y bien definidas. Todo tenía "sentido común". Pero no nos
confundamos, puesto que fue el sentido común lo que le sugirió a Aristóteles
que, como los planetas estaban en los cielos, y éstos eran perfectos, el
movimiento que debían realizar debía ser el más perfecto posible. Y la órbita
más perfecta es una circunferencia, considerándose así hasta que Kepler
demostró que realmente el movimiento planetario es elíptico.
De igual forma, a principios del siglo XX existían algunos aspectos como
la radiación de cuerpo negro o los espectros atómicos que no se satisfacían
mediante las leyes clásicas. Así, Planck introdujo el concepto de
"cuanto": la naturaleza está cuantizada, no es lisa como mantiene la
Mecánica Clásica, sino rugosa. Es el inicio de la Mecánica Cuántica. Hawking
espera que los hijos de nuestros hijos la vean con sentido común. Según la
Mecánica Cuántica, todas las cosas son posibles, existiendo una probabilidad
para cada caso. Por ejemplo, en el periódico "Ideal" de Granada
podría aparecer el titular siguiente "Granada win 'la Liga' ", pero
es algo altamente improbable...
Sin
embargo, estas probabilidades tan bajas en el mundo macroscópico se traducen en
probabilidades más o menos altas en el mundo microscópico. En este sentido, el
físico teórico (y músico de jazz) Richard Feynman introdujo en la teoría
conceptos muy útiles a la hora de entender la naturaleza a muy pequeña escala.
Por ejemplo, aunque clásicamente una partícula vaya del punto A al punto B, en
Mecánica Cuántica esto no tiene por qué suceder: todos los caminos son
posibles, incluidas las posibilidades en las que la partícula viaja más rápido
que la luz o hacia atrás en el tiempo. Precisamente, es la suma de todos estos
caminos lo que tiene interés físico. De esta forma, se postuló que el espacio
vacío en realidad está lleno de partículas que se mueven en lazos cerrados.
Estas partículas reciben el nombre de "virtuales" porque no se pueden
medir directamente, aunque sus efectos indirectos sí se conocen, y han sido ya
medidos en múltiples ocasiones. Por ejemplo, en lo que se conoce como
"Efecto Casimir", algo que se tiene en cuenta a la hora de hacer los
cálculos teóricos y que se ha encontrado en todos los sucesos que ocurren en los
aceleradores de partículas.
Pero
existe un problema bastante importante. Como el espacio y tiempo tienen
infinitos puntos, existen infinitos lazos cerrados de partículas virtuales, lo
que provoca que las ecuaciones físicas diverjan: el espacio-tiempo tendría una
energía infinita. Obviamente, esto no puede ser. Es el mayor problema que se
encuentra al intentar unir la teoría de la Mecánica Cuántica con la Teoría
General de la Relatividad de Einstein. Ésta es la otra gran teoría
fisicomatemática del siglo XX, en la que el espacio y tiempo se encuentran
entrelazados y fuertemente unidos. Si en realidad existiesen estos infinitos
lazos cerrados de partículas virtuales, tendrían infinita energía, y reducirían
el Universo a un único punto.
Es
en este ámbito donde surge el concepto de "supersimetría". En el año
1971, los físicos teóricos postularon que debían existir, además de las cuatro
dimensiones ya conocidas, otras adicionales. Para el estudio de estas
dimensiones es necesario el uso de las "variables de Grassmann", que
cumplen la propiedad siguiente:
x · y = - y · x
De
esta forma, se sugirió que cada partícula debía tener su compañera
"supersimétrica", cumpliéndose entre ambas la relación anterior. La
contribución en la energía de estas partículas supersimétricas también es
infinita, pero de signo contrario a la contribución de las partículas
"normales", de tal modo que, al hacer la suma de energías, los
infinitos se anulan, y el resultado es un número finito. Como ejemplo
aclaratorio de este razonamiento, el profesor Hawking propuso un cálculo
práctico. Si consideramos los ingresos que obtiene el gobierno norteamericano a
partir de los impuestos, la suma debe ser enorme. Pero también los gastos que
tiene este gobierno son exageradamente grandes. Sin embargo, la resta de los
gastos a los impuestos proporciona un número finito, que es la cantidad de
dinero que se pierde en los políticos...
Precisamente,
los estudios teóricos actuales buscan con ahínco una forma en la que estos
infinitos se anulen completamente. Sólo en este caso se tendrá una visión
unificada de la Teoría de la Relatividad General de Einstein con la Mecánica
Cuántica. ¿Cuáles son las perspectivas en el futuro?. Según el profesor Hawking
son muy buenas, pero él es muy optimista. En 1980 dijo que lo íbamos a
conseguir antes de fin de siglo pero ahora, veintiún años después y aunque se
hayan realizado grandes avances, estamos igual de lejos de conseguirlo.
¿Qué
limite real tenemos en la medida del microcosmos?. Con las leyes clásicas, se
obtenían unas medidas límite de 0.01 mm. La Física Atómica alcanzó unos valores
en torno a los 0.000 001 mm (o escrito en forma exponencial, 10-6 mm). Los
valores actuales mínimos obtenidos con Física Nuclear y de Partículas
Elementales son de 10-12 mm (0.000 000 000 001 mm). La teoría impone un límite
aún más pequeño, que se conoce como la longitud de Planck. Dicha longitud es la
siguiente:
0.000 000 000 000 000 000 000 000 000 000 000 001
636 mm
esto es,
simplificando con la notación exponencial, 10-36 mm. Para poder
obtener medidas de esta precisión, necesitaríamos construir aceleradores
mayores que el propio Sistema Solar. Si pensamos que en los Estados Unidos se
canceló a mitad del programa la construcción del acelerador de partículas
gigante SCC, construir un acelerador mayor que el propio Sistema Solar es más
difícil. De todas formas, confía que en el futuro los gobiernos de cualquier
país del planeta tengan una mejor disposición con la Ciencia.
Afortunadamente,
existe una forma más sencilla y modesta de obtener estas medidas: usando la
supersimetría. Hawking confía que el acelerador de partículas del CERN en
Ginebra confirme definitivamente en los próximos años la teoría de la
supersimetría. No obstante, el límite teórico de la longitud de Planck sigue
estando ahí: no podemos mirar por debajo de este valor. Sin embargo, sí podemos
estudiar el Big Bang, tanto teóricamente como a través de las consecuencias
observacionales que se extraigan del estudio de la radiación cósmica del fondo
de microondas. Hawking sigue siendo optimista, y cree al 50% que en los
próximos 20 años la teoría física sí podrá alcanzar el ansiado estado
estacionario del que hablaba al comenzar su conferencia.
De todas formas, pese a que se consolidara el
cuerpo físico y matemático de esta elegante teoría unificatoria, los avances
tecnológicos que se puedan extraer de ella seguirían surgiendo continuamente.
Sabemos que algunas leyes deben cumplirse seguro. Por ejemplo, los cuerpos
macroscópicos no podrán moverse más rápido que la luz ni viajar atrás en el
tiempo. Por lo tanto, muchas de las imágenes que vemos en películas y series de
ciencia ficción, como la teletransportación de personas en Star Trek, no serán
posibles, así como los viajes rápidos a otras estrellas. Lo importante a
considerar a partir de este punto es la complejidad, que aumenta continuamente.
MATEMATICAS DE CECILIO Y CONOZCA
LA CIENCIA DE LA MATEMATICAS