Você está na página 1de 166

Fundamentos de Transpsicofísica (IV)

Transferencia de Taquiones por Retro-Impregnación:


Bases mecano-cuánticas y relativistas para una
Teoría Psicofísica de la Precognición

Índice

Introducción , conceptos fundamentales

II

Hipótesis Schreiber de la Retro-Impregnación Psicofísica

III

Un poco de Historia de la Física: El largo camino hasta los


Taquiones

III.1

Las “Soluciones Imposibles de Maxwell”

III.2

La Revolución de Paul Dirac: Una Ecuación “Mágica”

III.3

La Paradoja de la Aniquilación Inversa

III.4
Fundamentos y Principios Básicos de la QFT

III.5

Feynman, o el “Retorno del Futuro”

III.6

Teorías de Supercuerdas: La esforzada pero fascinante


senda hacia una Teoría del Todo

III.7

A la caza de una furtiva “Oscuridad”

III.8

Energía Oscura vs. Gravitación: La Gran Pugna entre


Opuestos que dicta el Destino de nuestro Universo

III.8.1

Concepto y naturaleza de la Energía Oscura

III.8.2

Problemas Fundamentales de la Nueva “Cosmología


Cuántica”: Amanecer de una Nueva Física más allá del
Modelo Estándar

III.8.2.1

Periodo Inflacionario

III.8.2.2

Bariogénesis

IV

Consideraciones Generales y Conclusiones inferidas del


estado actual de desarrollo teórico y confirmación empírica
en Cosmología Cuántica
V

Modelo Feynman/Schreiber del “Dipolo-Verso Especular”, o


“Modelo Cosmológico-Cuántico Bimétrico Gemelar”

VI

Teorema Schreiber de la Precognición por Resonancia

VII

Corolarios del Teorema Schreiber de la Precognición por


Resonancia: Leyes Psicofísicas de la Precognición

VIII

Bibliografía y Referencias

Introducción, conceptos fundamentales

Dentro del mundo de la experiencia e investigación “paranormal”,


existe un fenómeno más fascinante aún, si cabe, que el de la
Impregnación Psíquica y sus manifestaciones derivadas. Un
fenómeno tan antiguo como la Humanidad misma, y cuyo enigma e
implicaciones resultan tan inmensos como múltiples y profundos,
tanto desde el punto de vista psicológico subjetivo como filosófico y
científico. Dicho fenómeno no es otro que la “Precognición”,
también conocida por “Premonición”.

Definición de “Precognición-Premonición”

Se entiende por ella la supuesta percepción por parte de un


receptor “sensitivo” de información sobre hechos o eventos
futuros cuya verificación posterior puede comprobarse de
manera objetiva.
Opera a través de impresiones “extrasensoriales” procesadas en el
cerebro mediante imágenes, sonidos, “visiones” o cualquier otro
canal o combinación virtual entre los mismos. En realidad, su
descripción empírica es semejante al conjunto de fenómenos
asociados a la captación de las energías de impregnación
psicofísica que hemos estudiado en los tres ensayos anteriores,
pero en este caso – excepto en muy raras ocasiones – el contenido,
calidad y densidad de información transmitida suele ser mucho más
simple e inferior y nunca implica interacción aparentemente
“inteligente” o “consciente” para con el sujeto perceptor. Además,
la frecuencia o proporción de “receptores sensitivos” a tan
misteriosas “retro-corrientes” de datos, en principio procedentes
del porvenir, es aún más baja que la de “dotados psíquicos” para la
reacción positiva a la acumulación en un recinto finito de descargas
energéticas biofotónicas o psicotrónicas traumáticas acontecidas en
el pasado, tal y como las analizadas en los trabajos precedentes.
Asimismo, la interacción parece ser bastante más impredecible y
espontánea que esta última, a la par que igualmente menos
controlable, reproducible y, como ya dijimos, más elemental y
“breve”.

También se producen eventualmente ciertas “precogniciones muy


complejas y prolongadas”, pero son tan escasas que, de hecho, se
consideran un fenómeno diferente e independiente, recibiendo el
peculiar nombre de “profecías”.

Pero las “profecías”, debido a su mismo grado de interactividad


supuestamente “consciente” o elaborada, siempre van
“codificadas” – por así decir – de modo altamente simbólico,
arquetípico y habitualmente intrincado... Son como mensajes
“encriptados” en una especie de “lenguaje” psicoperceptivo
personal propio de difícil interpretación y todavía más dudosa por
no decir imposible verificación objetiva. Puesto que, por si fuera
poco, no poseen casi nunca una referencia cronológica concreta
demostrable. Esto hace que resulte por completo imposible separar
la vaga posibilidad de una componente auténtica de “predicción del
futuro” de las obvias y poderosas influencias auto-sugestivas y
condicionantes vinculadas a la propia subjetividad, ideología,
creencias morales y religiosas, tendencias emocionales y pulsiones
subconscientes del sujeto que posee tan discutible “don”. Así,
desde la óptica psicológica o psiquiátrica, se antoja apenas factible
diferenciar a un “profeta” de un esquizoide-paranoide, y una
pretendida “visión genuina” de un delirio psicótico. Sobre todo
porque el perfil de personalidad de la mayoría de los “profetas” es
sospechosamente convergente con el de los esquizo-paranoides y
psicópatas profundos, hecho demostrado por la Psiquiatría hasta la
saciedad, por más que duela a los “ministros de las Fes” que viven
de la falseada administración de esta clase de “éxtasis
visionarios”... En términos de la teoría Jungiana, es de la misma
forma en extremo confuso discriminar lo que podrían ser retazos
auténticos de informaciones procedentes del porvenir y meras
construcciones onírico-alegóricas elaboradas a partir de
determinados materiales persistentes de alta carga “psico-
emocional y mitológica” firmemente emplazados en el
“Inconsciente Colectivo”, a su vez – como defendemos este autor y
otros científicos y pensadores – asentados sobre la plataforma de
nuestra memoria celular-genética como especie.

La misma Parapsicología “clásica” encuadra, cautelosa, ambos


fenómenos en apartados muy diversos... Y hace muy bien.

Dejemos de lado, por consiguiente, el problemático “don profético”


en manos de los místicos, “iluminados” y fanáticos que, por
desgracia, suelen explotarlo para amenazar, atemorizar, condenar,
estigmatizar y – hasta fechas lamentablemente recientes en
nuestra Civilización y, desafortunadamente, aún hoy por hoy en
ciertas latitudes, demos gracias que cada vez menos extensas –,
también para perseguir y exterminar a todos aquellos entre sus
semejantes que no encajan en su molde ético-religioso “perfecto”...

La Profecía no es una facultad “parapsicológica” abordable en


términos científicos o analíticos racionales. Mantengámosla fuera
de la Ciencia Transpsicofísica por evidentes medidas de higiene y
rigor intelectual.

Nos centraremos – por ende – en la “Premonición”...

¿Hay algún proceso psicofísico capaz de explicarla?

Mi respuesta es afirmativa.

Pasemos a desarrollar esta tesis.

II

Hipótesis Schreiber de la Retro-Impregnación Psicofísica


La idea original esencial que da origen a este ensayo puede
resumirse de modo muy sencillo:

“La Precognición no es más que la Percepción por parte de


un sensitivo de una Impregnación Psicofísica acontecida en
una “línea de coordenada temporal futura” de probabilidad
no-nula, por medio de la captación de “Retro-Psicones”
portadores de energía-información que se “desplazan”
hacia atrás en el Tiempo”.

Expresado de otro modo, el fenómeno de la Premonición no sería


otra cosa que una Transferencia DIR por Impregnación de una Red
Psicofísica virtualmente emplazada en una “línea de tiempo o de
sucesos” de probabilidad más o menos superior a cero, emplazada
en un “futuro posible” respecto al “instante presente” de la
interacción psicoperceptiva del observador. Utilizamos el concepto
“línea de tiempo o de sucesos” en el mismo sentido en que
comúnmente se hace en el contexto de la Teoría de la Relatividad
de Einstein, y “probabilidad no-nula” en el usual para definir un
estado “permitido” entre otros alternativamente posibles para la
evolución espacio-temporal de un sistema a partir de un instante
actual o “presente”, “t=0”, en el seno de la Mecánica Cuántica.

Ahora bien, ¿cuáles podrían ser esas “misteriosas y esquivas”


ondas-partículas o “Retro-Psicones” portadores de energía-
información capaces de transferir en sentido inverso en el Tiempo?

Obviamente, no puede tratarse de ningún tipo de haces de


radiación electromagnética “usual”, esto es, “biofotones”
secundarios derivados de transiciones electrónicas relacionadas con
la descarga repetitiva de hechos-trauma desencadenantes como en
el Modelo DIR “corriente”, pues la física relativista demuestra
rotundamente que ningún corpúsculo ni señal alguna pueden
moverse más rápido que la luz... Y, por ello, cualquier onda-
partícula sub-lumínica ha de desplazarse a través de la
“coordenada temporal” en sentido pasadogfuturo. En caso
contrario, su “masa inerte o en reposo” se tornaría imaginaria y los
procesos espontáneos harían disminuir el desorden o entropía del
Universo, o sea, se violarían todos los Principios Fundamentales de
la Física conocida.

Pero – aunque parezca extraño – las matemáticas de la Teoría de


Campos Electromagnética, y de la Electrodinámica Relativista
combinada con la Mecánica Cuántica, predicen la posibilidad de que
existan un tipo de ondas-corpúsculos que sí poseerían tan exóticas
y en apariencia paradójicas propiedades...

Nos referimos a los “Taquiones”.

Para comprender o ponernos al día respecto a lo que significan


tales partículas hipotéticas hemos de tender la vista atrás y
empezar desde el principio.

III

Un poco de Historia de la Física: El largo camino hasta los


Taquiones

III.1

Las “Soluciones Imposibles de Maxwell”

La resolución de las célebres y elegantes Ecuaciones del genial


físico teórico escocés James Clerk Maxwell, que sintetizan e
integran todas las Leyes del Campo Electromagnético, reveló una
“incómoda” y desconcertante sorpresa: La solución para la
propagación de la radiación luminosa en el vacío u otro medio
uniforme presentaba carácter doble; Una onda “retardada”, cuya
función representa el movimiento “convencional” de la oscilación
electromagnética mutuamente inducida de un punto a otro del
espacio a velocidad constante (en el vacío igual a c), y otra
“adelantada”, en la cual ¡la señal avanza desde el futuro hasta
alcanzarnos en el instante presente!

Como era de esperar, varias generaciones de físicos e ingenieros


han ignorado las Soluciones Adelantadas o “Imposibles” de
Maxwell, durante más de cien años, considerando que carecen de
sentido físico, es decir, tomándolas como un mero “capricho
matemático”. Después de todo, las Soluciones Retardadas bastan y
sobran para describir la transmisión de ondas de radio, TV,
microondas y todo lo demás, y constituyen uno de los cimientos del
casi prodigioso desarrollo posterior de la tecnología de las
telecomunicaciones.

Uno de los cimientos... Ahí está la clave, pues el otro puntal es la


Mecánica Cuántica... Indudablemente, si la Teoría de Campos de
Maxwell es el “Padre” de la Electrónica contemporánea y sus
científicos “milagros”, la Teoría Cuántica aglutinada por la famosa
“interpretación de Copenhage” elaborada por el brillante plantel de
privilegiados cerebros reunidos en torno a Niels Bohr, con el objeto
de levantar el nuevo paradigma capaz de asimilar los
sorprendentes resultados empíricos del comportamiento y
estructura de la materia y su interacción con la luz a escala atómica
y subatómica, y sus profundas y en gran medida “alucinantes”
implicaciones conceptuales, constituyen su “Madre”. Y ambos,
Padre y Madre, se fusionan o fecundan con perfecta armonía, dando
lugar al “Hijo/a”: Los Principios de Incertidumbre de Heisenberg y
de Dualidad Onda-Corpúsculo de De Broglie. Auténticas piedras
angulares de la Física de Partículas Elementales sobre la que se
yergue su actual e imponente edificio, y que han cambiado por
completo nuestra forma de comprender conceptos tan sustanciales
como el de “medida” – cual interacción
operador(observador)/observable – , “realidad” e incluso
“causalidad”.

III.2

La Revolución de Paul Dirac: Una Ecuación “Mágica”

Pero el vigoroso y asombroso desarrollo de la nueva Ciencia


Cuántica todavía reservaba otra “bomba oculta”, potencialmente
capaz de dinamitar las ya débiles ruinas que quedaban de nuestra
idea clásica newtoniana de un Tiempo lineal, fijo e inmutable... La
Teoría de la Relatividad Especial de Albert Einstein ya había
demostrado que no era fijo ni inmutable, puesto que su “flujo”
desde el pasado hacia el futuro podía ser retardado por efecto de
una alta velocidad, transcurriendo mucho más lentamente en el
sistema de referencia ligado a un móvil cuanto más rápido se
desplazase éste – o más cerca de la máxima velocidad absoluta
límite permitida, la de la luz o radiaciones electromagnéticas en el
vacío, c (aproximadamente, unos 300000 km/s), respecto a otro
sistema inercial estimado como “fijo” (o sea, que se mueva a
velocidad despreciable frente a c) – . Asimismo, su ulterior Teoría
General de la Relatividad o Teoría Relativista del Campo
Gravitatorio, al definir el espacio-tiempo como un espacio métrico
de coordenadas tetradimensionales (tres dimensiones espaciales
más el tiempo), cuya “curvatura” queda determinada por la
presencia de la propia masa-energía como fuente de la interacción
gravitatoria, transforma a ésta en la causa primera de la “dilatación
del tiempo”: En el entorno de un intenso campo de gravedad
masivo, cualquier reloj “avanzará más despacio” que otro idéntico
situado en el espacio libre o próximo a un cuerpo de masa
despreciable frente a la primera,

Todas estas predicciones de la Teoría de Einstein han sido


escrupulosamente probadas experimentalmente, tanto a escala
macro (refinadas determinaciones astronómicas y
radioastronómicas) como micro (aceleradores de partículas).

Sin embargo, en el esquema Relativista del Universo, donde se


trabaja a nivel macroscópico y los intercambios de masa-energía
siguen siendo continuos, el Tiempo conserva su carácter
unidireccional, desde el Pasado(Presente) hacia el Futuro,
inapelable e ineluctablemente. La “Triple Flecha del Tiempo” (como
Principio de Causalidad, sucesión de eventos y en el sentido del
continuo aumento de entropía o desorden del Universo) – como
gustan de definirla Stephen Hawking y otros grandes físicos teóricos
– puede “volar” más rápida o más pausadamente (esto último a
costa de enormes consumos de energía potencial en forma de
energía cinética o de atracción gravitacional), pero siempre lo hará
en el único sentido en que habitual y por cierto confusa y
subjetivamente lo percibimos en nuestra mente, y con bastante
mayor precisión objetiva a través de nuestros “relojes”, desde el
más simple de arena o de sol hasta los más sofisticados, que
utilizan patrones de tránsitos electrónicos cuánticos inferiores al
nanosegundo, pasando por esas preciosas maravillas del arte y el
diseño mecánicos que fabrican en Suiza y otros lugares de similar
exquisitez.

Ahora bien, fue cuando por vez primera los científicos intentaron
combinar los dos grandes marcos o fronteras del conocimiento de la
Nueva Física emergida durante el primer tercio del Siglo XX – la
Teoría Relativista y la Mecánica Cuántica – cuando brotó,
inesperada y bruscamente, una posibilidad más radicalmente
novedosa y revolucionaria todavía: La de que, quizás, el Tiempo
pudiese fluir en ambos sentidos..., y, por ende, en ocasiones,
ciertas partículas u ondas-corpúsculos singulares “viajar” desde el
Futuro hasta el Presente.

Todo empezó a partir del impresionante y meticuloso trabajo del


genial físico-matemático británico Paul Adrien Dirac. Éste incorporó
los efectos relativistas a la Ecuación de Estado de Erwin
Schrödinger, que describe la evolución en el tiempo de cualquier
partícula o sistema cuántico, resolviéndola para los fermiones
(partículas subatómicas de spín – momento cuantizado de rotación
sobre sí mismos – fraccionario, por ejemplo el del electrón, igual a
+-1/2, donde el signo (+) ó (-) señalan los posibles sentidos de giro.
Además, todos ellos han de cumplir el Principio de Exclusión de
Pauli (no pueden ocupar un micro-estado permitido idéntico a otro
dado en el mismo sistema), hecho del que se infieren, nada menos,
que “fruslerías” del orden de la propiedad de “impenetrabilidad” de
la materia como substancia extensa (cada fermión no puede ocupar
jamás el mismo volumen de probabilidad máxima de presencia
espacial al mismo tiempo que otro distinto), y la estabilidad de los
orbitales atómicos que hace factible la complejidad química del
mundo material. Naturalmente, arrancó su análisis para el caso del
electrón (e-), el fermión mejor conocido y responsable de la
interacción de campo electromagnético, junto a su “partícula-onda
o “bosón de gauge” de intercambio a distancia”, el fotón. (Los
bosones, portadores/transmisores de las interacciones de campos
en la moderna Teoría Cuántica de Campos y Partículas Estándar
construida en gran parte a partir de las ideas de Dirac, se definen
por poseer spines enteros y no cumplir el Principio de Exclusión).
Teniendo en cuenta que la estructura en niveles electrónicos
cuantizados sucesivamente más energéticos y alejados del núcleo
que conforma la corteza del átomo en particular y las fuerzas de
campo electromagnético en general son las que controlan todos los
procesos químicos y biológicos del Universo, su elección inicial –
como la de todos los físicos cuánticos antes que él – estuvo más
que justificada. Posteriormente, la generalizó para todos los
fermiones, como protones y neutrones, que junto al electrón,
componen la inmensa mayoría de la materia ordinaria.
Actualmente, sabemos que estos dos últimos no son auténticas
partículas elementales, pues se hallan formados por diversas
combinaciones de quarks, pero tanto ellos como las
verdaderamente simples (leptones), como el e-, son todos
fermiones. Las partículas compuestas más pesadas que
comprenden un número par de fermiones son bosones (como los
mesones, encargados del intercambio de fuerzas de campo nuclear
fuerte entre protones y neutrones) y si este número resulta impar,
conservan el carácter fermiónico (bariones). Los mismos núcleos de
los isótopos atómicos, si poseen un Nº Másico (nº de protones +
neutrones) par se comportan como “bosones pesados”, por
ejemplo, el C-12 (6 protones + 6 neutrones) y el H-2 ó deuterio (1
protón + 1 neutrón). Por el contrario, el C-13 (6 protones + 7
neutrones) y el H-1 (1 protón “desnudo”) actúan como bariones o
“fermiones pesados”.

La Ecuación de Dirac justifica por tanto todas las propiedades


determinadas por los números cuánticos (energía/volumen de
distribución estacionario, momento angular orbital, momento
magnético orbital y espín), del electrón o cualquier otro estado
fermiónico cuantizado permitido, pero además incorporando los
efectos relativistas asociados a su dinámica o interacción de
campo.

Otra consecuencia directa de la formulación de Dirac es que, por


cada fermión elemental propio existente, ha de existir una
“antipartícula” específica, de idéntica masa, espín y carga eléctrica
de signo opuesto. Incluso si el fermión es neutro, como el neutrón,
su antipartícula no es idéntica a él, como se explicará más tarde.
Éstas serían los componentes de lo que pronto pasó a denominarse
“antimateria”. Tan “extravagante” conclusión procede de un hecho
tan fascinante como perturbador: Las soluciones de la Ecuación de
Dirac mostraban estados cuánticos de energía negativa. Así, un
electrón siempre podría radiar energía para “caer” en un estado
permitido de energía negativa, por el Principio de Mínima Energía.
Y, lo que es aún peor, podría irradiar una “infinita” cantidad de
energía al existir disponibles una igualmente colosal e
indefinidamente grande cantidad de “estados de energía negativa”
“vacíos” o disponibles. Con objeto de salvar esta “aberración” que
iba contra toda evidencia física, Dirac postuló al principio que un
“Mar de Electrones de Energía Negativa” llenaba el “tejido espacio-
tiempo” del Universo..., ocupando los niveles negativos de energía,
de manera que, por el Principio de Exclusión de Pauli, ningún otro
electrón de estado superior energético podía caer en ellos. A esto
se llamó “El Mar de Dirac”. Si bien, debido a la incertidumbre
cuántica esencial, ocasionalmente, alguno de esos electrones
podían ser “excitados”, o “elevados” sobre el Mar, pasando a ser
una partícula “ordinaria” de energía positiva. Cada vez que tal
proceso ocurría, el e- “ascendente” dejaba tras de sí un “hueco” en
el Mar, que se comportaría como un electrón de energía negativa
pero carga opuesta (+). Originalmente, supuso que este “electrón
inverso” sería un protón, tal y como expone en su artículo “Una
teoría de electrones y protones”, publicado en 1930. Dirac era
consciente de que este modelo conducía a que el Universo en su
conjunto había de tener una carga eléctrica negativa “infinita”, pero
trató de argumentar – no demasiado convincentemente, por cierto –
que dicho estado sería percibido por nosotros como “observadores
internos” de modo natural como el “estado de carga cero”. Por otro
lado, al imaginar cada “hueco” como un protón, se planteaba el
agudo problema de un fuerte desajuste de masas, ya que este
último posee una masa en reposo 1831 veces más elevada que la
del liviano electrón. Dirac intentó sortear el terrible obstáculo
acoplando la variación de masa a las supuestas interacciones
electromagnéticas de las partículas “comunes” cargadas con ese
Mar, de nuevo sin demasiado acierto. Casi de inmediato, el
matemático alemán Hermann Weyl demostró con todo rigor que la
Teoría de Huecos había de ser completamente simétrica entre las
partículas intercambiadas en masa y carga, derrumbando el
improvisado “parche” de su autor. La Ecuación de Dirac también
predecía lo que hoy en día conocemos como la famosa
“aniquilación materia-antimateria”, al determinar que la colisión en
estados cuánticos apropiados de un electrón con lo que él llamaba
“protón-hueco” conduciría a la destrucción de sus masas,
transformadas en pura energía, en forma de dos fotones de emisión
secundaria. Pero Robert Oppenheimer e Igor Tamm probaron
matemáticamente que este mecanismo supondría a la larga que la
materia ordinaria del Universo desapareciera con aterradora y
absurda velocidad. Finalmente, un año más tarde, Paul Dirac cedió
ante el peso de los razonamientos de unos y otros, modificando su
teoría: Para ello, postuló la existencia de una nueva partícula
elemental: El positrón (p+). Dicha partícula poseería idéntica masa
y espín e igual carga neta que el electrón, pero de signo opuesto,
esto es, (+). Meses después, ya en 1932, el físico norteamericano
Carl D. Anderson realizó un experimento decisivo en el cual probó
que las colisiones de los rayos cósmicos producían positrones en
una cámara de niebla – dispositivo detector donde las partículas
cargadas de altas energías que se mueven a través de él marcan
sus trayectorias por su efecto de ionización del gas, de manera que
la relación masa/carga de las mismas puede medirse registrando
las curvas de sus trayectorias al ser desviadas por un intenso
campo magnético – . Este importante y oportuno descubrimiento
empírico eliminó las dos últimas objeciones a la Teoría de Huecos,
pero no la primera, pues seguía sin justificarse que el Universo
tendiese a acumular una carga negativa virtualmente “infinita”.

III.3

La Paradoja de la Aniquilación Inversa


Pero las dificultades no cesaban: Como ya dijimos, la Ecuación de
Dirac establece que, en condiciones apropiadas, un par
electrón/positrón al colisionar entre sí, se aniquilarán mutuamente,
convirtiendo toda su masa en energía pura según la archiconocida
equivalencia einsteniana E = m c2, emitiendo tal energía como una
pareja de fotones de rayos gamma de alta frecuencia, según la
reacción:

e(-) + p(+) g 2 γ

La aniquilación de un par e(-)/p(+) para generar un único fotón γ


es, en contraste, imposible, porque implica una violación del
Principio Fundamental de Conservación Simultánea de la Energía y
la Cantidad de Movimiento (Momento Lineal, producto de su masa
por su velocidad, p = m v). En teoría, la reacción inversa sería
inverificable también por la misma razón. ¡Mas, increiblemente,
la Aniquilación Inversa sí se observa en la Naturaleza! : Se
puede crear un par e(-)/p(+) a partir de una energía fotónica de
rayos gamma de al menos el valor equivalente de sus masas, unos
1.022 MeV. Esto ocurre con todos los pares partícula/antipartícula,
como se ha demostrado en los experimentos realizados a lo largo
de las décadas posteriores en los aceleradores de partículas, una
vez que en 1955 Emilio Segré y Owen Chamberlain descubrieran en
el laboratorio el antiprotón y el antineutrón. En fechas recientes, se
han llegado a producir por este método “anti-átomos” completos de
antimateria, constituidos por antiprotones, antineutrones nucleares
y antielectrones corticales, recolectados mediante sofisticadas
“trampas” electromagnéticas, cuyas propiedades físicas no-
electromagenéticas y químicas son idénticas a los comunes
formados por materia, y las primeras totalmente simétricas en
términos de polaridades.

Tanto estos hechos como el dilema de la carga negativa universal


han sido ya resueltos a plena satisfacción por una nueva
formulación teórica que, basada en la plena validez confirmada de
la Ecuación de Paul Dirac, la fundamenta y consolida
definitivamente utilizando conceptos mucho más sólidos que la
primitiva Teoría de Huecos/Mar de Dirac, ahora por entero obsoleta.
Esta es la Teoría Cuántica de Campos Normalizada (QFT), base de
la actual Electrodinámica Cuántica (QED) y su generalización en la
Teoría Estándar o de Simetrías-Gauge vigente en la moderna Física
de Partículas.

III.4
Fundamentos y Principios Básicos de la QFT

Los estados cuánticos de una partícula y su correspondiente


antipartícula pueden intercambiarse aplicando operadores de
Simetría de Carga C, Paridad P y Simetría Temporal T.

Simbolizando por [p, s, n> el estado cuántico de una partícula n,


con momento lineal p siendo J su valor de espín y s su componente
en la dirección x del movimiento, los Principios de Conservación
exigen que se cumpla:

CPT [p, s, n> = (-1)J – s [p, – s, nc>

Donde nc representa el “estado conjugado de carga” de n, o dicho


de otro modo, la antipartícula.

Entonces, puede demostrarse que han de verificarse las relaciones:

T[p, s, n> α [– p, – s, n>

(Si invertimos el signo o dirección del tiempo – o describimos el


proceso “invertido”, desde el estado final al inicial – sin alterar la
carga ni la paridad, el sentido del momento lineal cambia, así como
el del espín, pero la partícula original conserva su naturaleza)

CP[p, s, n> α [– p, s, nc>

(Si invertimos la carga y la paridad manteniendo el curso habitual


del tiempo el momento lineal cambia de signo, el espín se mantiene
constante y la partícula se transforma en su antipartícula)

C[p, s, n> α [p, s, nc>

(Si pasamos a la carga opuesta, fijando el sentido de evolución


temporal y la paridad, el momento lineal es invariante, al igual que
el espín, pero la partícula se convierte en su antipartícula asociada)

En ellas, α indica sencillamente que se admiten posibles términos


de fase en el miembro derecho de las igualdades.

Expresado en palabras no lógico-matemáticas, esto significa que


toda pareja de partícula/antipartícula deben exhibir esta relación
entre sus propiedades elementales:

1) Idénticas masas, m

2) Idénticos estados de espín, J

3) Cargas eléctricas opuestas, q y – q

Aplicando ahora estas Reglas Fundamentales de Conservación


a la Solución-Función de Onda para el electrón o cualquier otro
fermión, obtenida al integrar la Ecuación de Dirac, se puede
cuantizar el campo del par electrón/positrón o equivalente,
imponiendo la separación de los operadores de creación y
aniquilación, en la forma:

ψ (x,t) = Σ k uk(x) ak exp[– i E(k) t]

Aquí k denota generalizadamente los números cuánticos p y s de


las fórmulas precedentes, y el signo de la energía E(k) asociada a
tales niveles cuantizados y del coeficiente ak define el operador de
aniquilación. Como es patente, uk(x) es la función-amplitud o
solución espacial para el estado permitido k en el eje de
propagación x y t el tiempo.

La energía interna del sistema H vendrá dada, por tanto, según:

H = ∑k E(k) a+k ak + c

Observamos entonces que el valor de H no precisa resultar


positivo, como consecuencia de que los signos de los estados o
niveles energéticos E(k) pueden ser tanto (+) como (-) y la
combinación o producto de los operadores de creación a+k y
aniquilación ak sólo adoptan los posibles valores 1 ó 0, por
definición. Por su lado, c es una simple constante de integración.

Por ello, ha de introducirse, lógicamente, el campo-vector de onda o


solución de la análoga antipartícula, con sus propios operadores de
creación y aniquilación, de acuerdo con las Reglas de Selección
antes establecidas. Para ello, dichos elementos han de estar
conjugados, es decir, satisfacer las relaciones:
bk'= a+k

b+k'= ak

Donde k' poseerá los mismos números cuánticos p y s pero signo


de la energía opuesto.

Así, la función-solución para la onda-antipartícula obedecerá a:

ψ '(x,t) = Σ k' uk' (x) b+k' exp[– i E(k') t]

Y su energía:

H' = ∑k' |E(k')| b+k' bk' + c'

Si bien, puesto que sabemos que los estados k' son idénticos a los
de la partícula, solo que los mismos valores de energía presentan
signo negativo, si denominamos por claridad k=k(+), k'=k(-) y
obviamente uk=uk' y el valor absoluto |E(k')|= |E(k-)| = E(k),
podemos escribir las funciones de campo cuantizado y energía
interna totales para un par fermión/antifermión como sigue:

FUNCIÓN DE CAMPO CUÁNTICO DE UN PAR


FERMIÓN/ANTIFERMIÓN

Ψ (x,t) = Σ k(+) uk(x) ak exp[– i E(k) t] + Σ k(-) uk(-)(x) b+k(-) exp[– i


E(k-) t]

Cuyo primer sumatorio describe los estados de energía positiva y el


segundo los de energía negativa.

ENERGÍA INTERNA TOTAL DEL PAR FERMIÓN/ANTIFERMIÓN

H = ∑k(+) E(k) a+k ak + ∑k(-)|E(k-)| b+k(-)bk(-) + E0

La nueva constante global de integración, E0, conlleva un


interesante significado físico: Se trata de un parámetro
“virtualmente infinito” (en la práctica, enorme e indefinido) y
negativo, simbolizando la energía del vacío. El “Estado Vacío” [0>
se define como aquel que no contiene ninguna partícula ni
antipartícula. Por consiguiente, es elemental que: ak ([0>) = 0 y bk
([0>) = 0, para todo nivel cuántico, independientemente de su
signo energético. De este modo, H ([0>) = E0 , se concluye que la
energía del vacío es igual exactamente a la constante antes
señalada. Y, ya que todas las energías de los demás estados
permitidos se miden respecto a la del vacío, H será siempre mayor
que cero. De esta manera se obtiene la normalización final del
campo.

Esta aproximación – matemáticamente conocida como “Método de


Perturbaciones Hartree-Fok”, muy útil en Mecánica Cuántica – se
debe al soviético Vladimir Fok y sus colegas norteamericanos
Wendell H. Furry y Robert Oppenheimer, todos ellos insignes físicos
atómicos y nucleares de mediados del siglo pasado (el último fue el
célebre y controvertido director del Proyecto Manhattan en el
Laboratorio Nacional de Los Álamos, que culminó con la puesta a
punto de la primera bomba de fisión).

Si se aplica para cuantizar un campo puramente escalar (sin


componente imaginaria), es fácil demostrar que solo existe un
operador de aniquilación, porque la partícula es indistinguible de su
antipartícula: Este tipo de campos describen por ende los bosones
neutros.

Esta Teoría de Perturbaciones es el fundamento de la actual Teoría


Cuántica de Campos Renormalizada (QFT), que a su vez sustenta el
vigente Modelo Estándar en Física de Partículas, y cuenta en su
haber un amplísimo y riguroso refrendo experimental.

Como puede comprenderse, elimina todas las paradojas,


dificultades y resultados aparentemente absurdos derivados de la
interpretación de las Soluciones de la Ecuación de Dirac según su
primigenia Teoría de Huecos, incluyendo la fantasmagórica y poco
digerible carga negativa “infinita” del Universo.

También explica la razón de que sea perfectamente posible generar


un par partícula/antipartícula a partir de un solo fotón γ de energía
pura, el “enigmático” y casi “sobrenatural” proceso expuesto unas
líneas más arriba: En efecto, la QFT lo permite como un estado
cuántico intermedio “perturbado” alimentado por la “energía virtual
del vacío”. La supuesta violación del Principio de Conservación de la
Energía que tan justificado horror provocó a los científicos al
manifestarse la viabilidad del mecanismo en los experimentos con
aceleradores de partículas de altas energías se soslaya porque
estos estados de transición implican necesariamente tiempos tan
desmesuradamente cortos que la “transgresión” ligada al cambio
energético queda dentro de los límites del Principio de
Incertidumbre de Heisenberg. Esto abre las puertas para la creación
desde “el vacío”, considerado por la Física Cuántica más bien como
una “nada-energizada” de “pares virtuales” de materia-antimateria
o su aniquilación-colapso en un solo fotón de alta frecuencia,
reacciones donde una sola partícula puede “fluctuar” en un
estado transicional (perturbación) de dos partículas (la
“original” y su antipartícula), y volver a su estado inicial.
Asimismo, conduce a transiciones de “mezcla” o combinación entre
partículas neutras, a través de un proceso complejo de
renormalización/reajuste de la masa-energía del sistema, esencial
en la comprensión de los fenómenos en virtud de los cuales los
quarks de diversos tipos se “ensamblan” para formar neutrones.

Todo ello posee poderosas y hondas consecuencias en Física de


Partículas y Cosmología, pero lo dejaremos estar por apartarse en
exceso del objetivo de este estudio, añadiendo sin más que
constituye una de las principales fronteras del avance de
vanguardia en la Nueva Física, centrada en los ensayos con
aceleradores de alta energía.

Acabamos de explicar que – desde el punto de vista de la Teoría


Cuántica de Campos – una partícula, bajo determinadas
condiciones, puede describirse como un estado oscilante entre su
“forma-materia” y “forma-antimateria”, por así decir. Esto equivale
a establecer que, en realidad, los fermiones pueden existir como
“pares virtuales”, capaces de colapsar en el “estado materia” o el
“estado antimateria” en función de su situación energética-
ondulatoria. Puesto que ésto contradice el Principio de
Conservación de la Energía, únicamente es admisible si el lapso
temporal de “vida” de estos estados de tránsito son
extraordinariamente pequeños. Pero recordemos que, según la
Teoría de la Relatividad – y ha sido demostrado en las experiencias
con aceleradores de partículas hasta la saciedad – la duración de un
proceso dinámico, medida en el sistema no-inercial “acelerado” a
elevadas velocidades próximas a las de la luz en el vacío c respecto
al “sistema inercial cuasi-fijo”, se alarga enormemente, y tanto más
cuanto más se aproxime dicha velocidad relativa v al valor de c.

La conjugación de ambos hechos no tardó en empujar a una nueva


Dimensión Conceptual Revolucionaria a unas de las mentes
científicas más brillantes del siglo XX, comparable quizás tan sólo
en el campo de la física teórica a la de Einstein, Bohr y el propio
Paul Dirac...

Hablamos del genio estadounidense Richard Phillips Feynman, autor


de una brillante, originalísima y audaz interpretación de las
conclusiones del análisis de la QFT sobre las Soluciones de la
Ecuación de Dirac que acabamos de intentar repasar. Una reflexión
que le llevó a conectarlas con el remoto y peliagudo “asunto
olvidado” de las “ondas adelantadas” de Maxwell...

Pero esta vez, lo que se conmovía no era la hasta hacía muy poco
“pétrea” linealidad inmutable del tiempo absoluto, ni la
exclusividad de la materia como “sustancia extensa universal”, ni
tan siquiera la fascinante e inusitada posibilidad real de “jugar al
escondite” con el “macizo” y sólido Principio de Conservación de la
Energía..., inflexibles rectores todos ellos de la Física Clásica y la
percepción macroscópica y de “baja celeridad” propia de nuestros
propios cerebros y sentidos ordinarios...

No, en esta ocasión, fue algo mucho más radical e inesperado...


Algo casi... estremecedor.

Pues ahora, el mismísimo Principio de Causalidad, y con él, la


Inexpugnable Triple Flecha del Tiempo, empezó a tambalearse...

III.5

Feynman, o el “Retorno del Futuro”

A principios de la década de los 60 del siglo pasado, un creativo y


excéntrico físico norteamericano nacido en Nueva York alrededor de
cuarenta años antes, en el seno de una familia de cultos judíos
liberales no-practicantes – (inmejorable fermento genético-
ambiental) – quien había participado recién doctorado en al
Proyecto Manhattan de la mano de su maestro Robert
Oppenheimer, y que en su madurez contribuiría como pocos a
sentar los cimientos de especialidades tan vanguardistas como la
computación cuántica y la nanotecnología, entró a formar parte del
selectísimo satff de cerebros privilegiados de Princeton. Allí trabajó
junto al reputado John Wheeler en el campo del análisis y
desarrollo de la entonces incipiente Teoría Cuántica de Campos
derivada de la Mecánica Cuántico-Relativista inaugurada por Paul
Dirac. Obsesionado desde niño con el tema de los viajes hacia atrás
en el tiempo, al sumergirse en el minucioso estudio matemático de
las Soluciones de la famosa Ecuación Dirac y el problema de las
antipartículas, pronto se dio cuenta de que, considerando las
energías negativas de la mitad del campo del electrón, se violaba el
Principio de Causalidad (el Efecto siempre ha de suceder tras su
Causa, nunca precederla), a menos de admitir que las partículas
descritas en tales estados viajaran más rápidas que la luz. Pero si
las partículas pudieran moverse más rápido que la luz, entonces,
desde el punto de vista de un observador inercial, parecería como si
estuvieran retrocediendo atrás en el tiempo y con carga opuesta.
En términos menos técnicos: Si se invertía la dirección (signo) del
tiempo y el de la carga del electrón, la ecuación no variaba en
absoluto. Esto significa automáticamente que un positrón
avanzando “normalmente” hacia adelante en el tiempo
equivale por completo a un electrón en idéntico estado de
momento, espín y valor absoluto de energía retrocediendo
en el tiempo, y viceversa. Igual ocurriría con todo fermión y,
aplicando la generalización/normalización por la Teoría de
Perturbaciones previamente resumida, con cualquier otro
par materia/antimateria.

Feynman llamó a estas partículas en general “taquiones”, del


prefijo griego correspondiente que significa “veloz”.

Desde el punto de vista de las ecuaciones de la Relatividad especial


de Einstein derivadas de la Transformación de Lorentz, una
hipotética partícula de estas características poseería masa/inercia
imaginaria, energía negativa y “longitud negativa” creciente en
valor absoluto en la dirección de su desplazamiento cuanto más
elevada fuese su velocidad frente a c. Y, por supuesto, desde un
sistema inercial de observación externo, viajarían atrás en el
tiempo. Además, cuanto más energía o trabajo motriz se les
comunicase (esto es, mayor “energía cinética negativa”
adquiriesen), más lentamente se desplazarían, frenando más y más
hasta rozar sin llegar a tocar “asintóticamente” la velocidad de la
luz en el vacío. Por el contrario, si perdiesen tal energía ( por
ejemplo, al ser absorbidas parcialmente o interactuar con la
materia ordinaria), acelerarían, incrementando sin límite su
velocidad relativa sobre c hasta poder tornarse virtualmente
“infinita”. Esto implicaría que la electrodinámica de los taquiones
obedecería leyes de causalidad y transferencia de energía
(termodinámicas) “simétricas” respecto a los corpúsculos
elementales que forman nuestro mundo cotidiano: La Triple Flecha
del Tiempo se encontraría invertida por completo para ellos, pues al
absorber un trabajo útil externo aumentarían su nivel de desorden o
entropía y viceversa, por lo cual, para cualquier sistema
“taquiónico”, un proceso espontáneo supondría una pérdida de
entropía total entre éste y su entorno.

Feynman y otros físicos teóricos relacionaron después el concepto


de taquión con la enigmática e irresuelta “paradoja” de la “Solución
Exótica” de las Ecuaciones de Maxwell, la famosa “onda
adelantada” que aparecía en toda transmisión electromagnética:
Según el Principio de Dualidad Onda-Partícula de De Broglie,
cualquier taquión en movimiento debería llevar asociada una
longitud de onda de fase o portadora, de modo que las vibraciones
electromagnéticas viajeras “adelantadas”, propagándose desde el
futuro al presente o instante actual de su medida, no serían más
que el aspecto ondulatorio de los fotones emitidos como
consecuencia de cualquier tránsito cuántico entre niveles
taquiónicos en el seno de la “materia superlumínica”.

El insigne e imaginativo científico planteó que los taquiones han de


existir en una especie de “Antiverso” o “Universo Simétrico” donde
las Leyes Fundamentales de la Mecánica Cuántica y la Relatividad
se hallan igualmente vigentes, pero de forma “opuesta” en todos
los sentidos que atañen a la Causalidad (los efectos suceden antes
que sus causas) y la Transferencia o intercambio de energía: Un
Universo donde cada partícula elemental es equivalente a
cualquiera de las constituyentes del que conforma nuestras “líneas
de tiempo” habituales pasadogfuturo, con idénticas masas
absolutas relativas, pero todas ellas imaginarias, energías negativas
y que pueden moverse a cualquier velocidad por encima de la de la
luz en el vacío, pero jamás por debajo de ésta. Lógicamente, en tal
caso, cualquier par de masas interaccionarían curvando la métrica
de su espacio-tiempo “local” de referencia en forma distensiva o
expansiva, no contractiva, es decir, que el campo de gravedad sería
siempre repulsivo. En cuanto a las interacciones electromagnéticas,
ya que cada partícula cargada “taquiónica” poseería exactamente
la misma carga eléctrica que su “homóloga” en nuestro marco
espacio-temporal, pero cambiada de signo e idéntico espín, los
campos de fuerza correspondientes serían indistinguibles y
naturalmente bipolares, solo que asimismo “simétricos”, ya que,
por ejemplo, en dicho “Antiverso” la materia ordinaria se hallaría
constituída por “anti-átomos” con núcleos ensamblados a base de
antiprotones positivos y antineutrones, y orbitales corticales
positrónicos. Análogamente, en el “Mundo Taquiónico Paralelo” la
“materia” tal y como nosotros la entendemos sería algo
extremadamente “raro” y “exótico”, que tan sólo aparecería en
fenómenos equivalentes a los de la aniquilación y creación (anti-
aniquilación) de pares conjugados de antipartículas/partículas a
partir de la energía “positiva e infinita” del vacío, violando la
Conservación de Energía virtualmente, pero de forma permisible al
operar tan sólo en intervalos de “tiempo inverso” tan fugaces que
caerían por debajo de los límites del Principio de Incertidumbre.

Feynman y sus seguidores denominaron “tardiones” a todas las


partículas dotadas de masa componentes de nuestro Universo
infralumínico, o “Universo Tardiónico”, para distinguirlo del virtual
“Universo Taquiónico” superlumínico. Los fotones, otras partículas
de intercambio de los campos a distancia, como los teóricos
“gravitones” que la QFT predice para la interacción gravitatoria, al
carecer de masa, sólo podrían desplazarse a la velocidad de la luz,
y fueron bautizados por ello como “luxones”.

De este modo, la “Pared o Barrera Luxónica” sería la que


separaría de manera “doblemente asintótica convergente”
los continuos espacio-temporales de ambos componentes
del “Par Universo/Antiverso”, por así decir. Esta barrera (en
realidad una diferencia de potencial infinita entre ambas
energía de vacío de signos opuestos) sería casi siempre
infranqueable... Excepto por procesos como los de la
aniquilación y anti-aniquilación cuántica, capaces de
sortearla forzando los límites del Principio de Conservación
de la Energía, aunque a costa de verse restringidos a una
duración minúscula, tanto más pequeña cuanto mayor
cambio energético conlleven, según exige el Principio de
Incertidumbre.

Esta última interpretación, avalada más adelante por la formulación


teórica y su estricta confirmación experimental del conocido “Efecto
Túnel”, resultó por aquellos años muy “extraña”, “fantasiosa” y
criticada por los sabios más ortodoxos, pero como suele ocurrir, los
progresos sucesivos del conocimiento demostraron que la osadía
intelectual de Feynman y otros estaba más que justificada: El
“Efecto Túnel”, a partir del cual un sistema cuántico puede “saltar”
pozos infinitos de potencial, ha sido corroborado de modo innegable
en el laboratorio y observado en la Naturaleza: Baste añadir para
ilustrarlo que, tal y como demostraron matemáticamente al
respecto Roger Penrose y Stephen Hawking una década o década y
media después y fue igualmente corroborado por la
radioastronomía, los agujeros negros no son “negros” en realidad,
pues emiten pares de partículas que, al aniquilarse, generan
radiaciones de altas energías. Esto a la escala infinitamente grande
de la Cosmología. Y, a nivel de lo extraordinariamente diminuto, el
fenómeno es tan sólido y relativamente frecuente que ha permitido
desarrollar una técnica eficiente para “escudriñar” la estructura y
los cambios de la materia hasta sus escalas más reducidas, la
microscopía de efecto túnel.

En los años posteriores, Feynman perfeccionó y refinó su modelo


teórico, reformulando la Teoría de las Perturbaciones en un potente
y original método gráfico que permite explicar de forma bastante
simple e intuitiva el hecho de que cada antipartícula conserve la
misma masa y momento de espín y carga opuesta a su
correspondiente partícula, representando los “choques-
interferencias” de aniquilación y antianiquilación a modo de
diagramas de ondas/partículas conjugadas avanzando y
retrocediendo “sincrónica y simétricamente” en el tiempo durante
“periodos virtuales casi nulos”, dentro de los márgenes del Principio
de Indeterminación.

Publicó su trabajo como una nueva y revolucionaria “Teoría


Cuántica del Electrón/Positrón”, por la cual le fue otorgado el
Premio Nobel de Física en 1965, igualando por tanto a su “maestro”
inspirador, Paul Dirac, quien lo obtuvo en 1933 tras desarrollar y
resolver su célebre Ecuación.

Esta técnica fue pronto generalizada para todas las parejas


fermiónicas y no fermiónicas de partículas/antipartículas: Los pares
corpusculares conjugados de las mismas se dibujan como vectores
convergentes o divergentes entre sí, proyectados sobre un eje
horizontal de tiempos – negativos a la izquierda y positivos a la
derecha – donde el “instante t=0 presente” se halla en el centro, y
entre ellos se intercambian luxones de masa nula bajo aspecto
ondulatorio. Los pares electrón/positrón” interactúan a través de
fotones (campo electromagnético), los pares nucleónicos
(protón/antiprotón y/o neutrón/antineutrón), mesones de Yukawa
(campo nuclear “fuerte”), las masas/masas imaginarias los
hipotéticos gravitones (campo gravitacional) y los protón/antiprotón
en su conversión interna reversible a neutrón/antineutrón,
neutrinos (campo nuclear débil, responsable de la radiación por
emisión β ). En este último caso, el posterior descubrimiento de una
muy ligera masa del neutrino lo excluye del grupo de los “luxones-
gluones” de intercambio, por lo que los teóricos actuales apuntan la
posible “Violación de la Paridad” en la interacción débil, pero
abundaremos en este arduo dilema algo más adelante. Estos
diagramas de Feynman fueron de inestimable ayuda para el
impulso, extensión y evolución de la Teoría Cuántica de Campos. En
concreto, es la técnica estándar para calcular las amplitudes de las
funciones de onda renormalizadas.

También ha sido la base conceptual para la génesis de las Teorías


de Supercuerdas o Hipercuerdas..., de las cuales y de sus
antecedentes nos ocuparemos de inmediato, del modo más
simplificado y no-matemático posible (lo que no es tarea fácil).

III.6

Teorías de Supercuerdas: La esforzada pero fascinante


senda hacia una Teoría del Todo

Todas ellas son complejos y elegantes modelos matemáticos que


intentan cuantificar definitivamente el Campo Gravitatorio o, dicho
en otras palabras, conseguir la ansiada “Teoría Unificada de
Campos o Teoría del Todo”, capaz de integrar en la QFT la
Teoría de Campo Gravitatorio de la Relatividad General de Einstein,
absolutamente válida a nivel macroscópico pero incompatible como
tal en su naturaleza original con la Mecánica Cuántica, al tratarse
de un planteamiento sustancialmente “clásico”, en el sentido de
que la transmisión o intercambio de energía sigue siendo continuo y
no contempla el Principio de Incertidumbre ni la Dualidad Onda-
Partícula. Este conjunto de teorías enfocan las interacciones
fundamentales de la Naturaleza como distintos “modos de vibración
e interferencia” cuantizados permitidos entre pares de “cuerdas
supersimétricas tubulares de sección muy fina” u ondas vibrantes,
que sustituyen a los “vectores de Feynman”, pero siguiendo
esquemas esencialmente análogos a los de sus diagramas: Cada
estado de oscilación mutua admisible o cuantificado corresponde a
una interacción de campo/intercambio “gluónico-gauge” de la
Teoría Estándar y, a la vez, implican una deformación particular en
los tensores métricos del espacio-tiempo cuatridimensional
einsteniano, por lo cual se obtiene al fin de modo formal la
anhelada Unificación, el “Santo Grial” de la Física Teórica actual.
Para estabilizar el sistema y que éste sea auto-congruente en
términos matemáticos, evitando soluciones infinitas o
indeterminadas, la técnica requiere que las “cuerdas vibrantes” se
definan en un espacio de múltiples dimensiones espaciales
adicionales, de ahí lo de “supercuerdas” o “hipercuerdas”. Dicho
número de dimensiones espaciales más el tiempo sería el nº de
dimensiones reales del Universo. Las dimensiones espaciales
adicionales a las tres que habitualmente percibimos se hallarían
“retorcidas” o plegadas sobre sí mismas, de modo que resultarían
indetectables, excepto en experimentos de elevadísimos órdenes
energéticos, cercanos al del Big-Bang o supuesta “Explosión
Primordial” que creó el espacio-tiempo en expansión del Cosmos.
Este sería uno de los objetivos básicos de la nueva generación de
superaceleradores, como el Gran Acelerador de Hadrones del CERN,
cuyas impresionantes e inmensas instalaciones, la mayor parte de
ellas subterráneas, se hallan cerca de Ginebra (LHC). (Hadrones =
combinaciones de quarks y antiquarks que conforman los protones
y neutrones fermiónicos y sus bosones de interacción o mesones, o
sea, partículas simples o compuestas que intervienen en el campo
nuclear fuerte), En él se podrían alcanzar energías de choques
entre nanopartículas sobre 14 TeV, equivalentes a los primeros
instantes posteriores a tal Gran Explosión en el Génesis del
Universo, cuyas condiciones suponen la “supercondensación” de las
cuatro fuerzas de campo elementales en una sola, según predicen
los modelos físico-matemáticos. Así, cuando estos ensayos
culminen y sus intrincados resultados sean exhaustivamente
analizados – para lo que habrá que esperar, desafortunadamente,
entre dos años y medio y tres, para que el colosal aparato funcione
a pleno rendimiento, debido a una serie de fallos, dificultades y
sabotajes técnicos e informáticos tan molestos como irritantes,
frutos estos últimos de la necedad ignorante de ciertos “profetas
pseudo-científicos” de desastres imaginarios sin fundamento
racional alguno –, podría demostrarse la existencia de las
dimensiones adicionales en cuestión, lo que respaldaría con fuerza
las Teorías de Supercuerdas... Entre otros muchos interrogantes
básicos sobre la naturaleza profunda a escala microfísica de
nuestra Realidad por medio del despeje de los potentes
interrogantes que aún plantea el Modelo Estándar de Partículas y la
QFT, que no citaré en su totalidad por rebasar con mucho el objeto
de este ensayo.

Por último, hablamos de “Teorías”, en plural, porque hay diversas


versiones de la física de Hiper-Cuerdas, todos ellos coherentes en el
aspecto matemático, pero que difieren en notables puntos. Y las
calificamos como “supersimétricas”, porque todas ellas parten del
postulado de que existe una correspondencia entre las propiedades
de los fermiones y los bosones, hipótesis todavía no probada
empíricamente (hacerlo sería uno de los más ardientes deseos de
los investigadores del LHC). Según este supuesto, (denotado como
modelo “SUSY” por su acrónimo en inglés), cada bosón lleva
asociada una partícula “compañera supersimétrica” acoplada de
carácter fermiónico, y viceversa. A las “compañeras” de los
fermiones (como ya indicamos, componentes elementales de la
materia, ya sean quarks o leptones) se las denomina anteponiendo
la letra “s” (de “simetría”, como es obvio): Así, la “compañera” del
electrón sería el bosón “selectrón”, la de los quarks, los squarks...
etc. Las “super-compañeras” de los bosones (partículas
intercambiadoras de las fuerzas de campos nucleares fuerte y
débil) serían fermiones con nombres terminados en “ino”; Por
ejemplo, la del fotón, “fotino”, y la del gravitón, “gravitino”. La
extensión mínima del Modelo Estándar (SM) con inclusión de
Supersimetría se conoce como MSSM, del inglés “Minimal
Supersymmetric Standar Model”, de manera que, en la jerga de la
Física de Partículas podemos resumirlo escribiendo que: SM + SUSY
= MSSM. Puesto que estas partículas “superacompañantes” no se
han podido crear por el momento en el laboratorio por
antianiquilación, la teoría indica que su masa debe ser mucho
mayor que las de las partículas originales. Y, ya que no se
presentan espontáneamente en la Naturaleza, quiere decir que,
tras generarse en las primeras etapas posteriores al Big-Bang,
algún mecanismo debió aniquilarlas selectivamente o cambiarlas a
“estados exóticos”, rompiendo la simetría. Algunos físicos creen
que en ello se encuentra la solución del enigma de porqué en el
Cosmos actual, y desde muy “poco después” de la Gran Explosión
primigenia del Espacio-Tiempo y la separación de las cuatro fuerzas
de campo fundamentales, la materia predomina de forma tan
notoria sobre la antimateria. Como se vio antes, en un hipotético
Anti-Universo taquiónico, ocurriría justo al revés, por lo que la
Pérdida de Supersimetría puede hallarse profundamente
relacionada con aniquilaciones supermasivas en las primeras fases
de expansión de un “Par Universo/Antiverso” en su mutuo y
simultáneo embrión. Asimismo, este fenómeno cabe relacionarlo
con la veloz “expansión exponencial” sufrida por el Cosmos justo
tras establecerse tal diferenciación de fuerzas básicas y
composición abrumadoramente mayoritaria de materia, según la
Teoría del Big-Bang y sus modelos astrofísicos y microfísicos. En la
Teoría Estándar, los bosones W+ y W- (de “weak”, débil), son
antipartículas acopladas de carga elemental (+-)1 (idénticas a la del
potrón/antiprotón o electrón/positrón), y el bosón Z es
eléctricamente neutro y por ello igual a su antipartícula. Los tres
poseen spín 1, son muy masivos (energías entre 80 y 90 GeV),
corto alcance de orden subnuclear y vidas medias muy breves. Los
tres resultan esenciales para explicar el decaimiento de los
leptones o los quarks para desintegrarse en otro más ligero (lo que
los especialistas llaman “cambio de sabor”), procesos derivados de
la interacción débil o emisión β . Los cambios de masa-energía
asociados se hallan mediados por los bosones W y el Z actúa como
intercambiador del momento lineal. Al ser tan supermasivos (unas
20000 veces la masa-energía de los leves quarks originales), las
transiciones β no solo violan la Conservación de Paridad como
apuntábamos anteriormente, sino también la de la Energía, pero
como el tiempo de interacción de estos tres “bosones intermedios”
es tan fugaz (10-25 s), puede ocurrir gracias de nuevo al Principio de
Indeterminación. Fueron descubiertos experimentalmente por el
CERN en 1983, pero su existencia y papel determinante en las
fuerzas de campo nuclear débil habían sido predichas ya por los
físicos cuánticos estadounidenses Sheldon Glasgow y Steven
Weinberg y el paquistaní Abdus Salam. Estos científicos
generalizaron los resultados de la electrodinámica cuántica al
campo nuclear débil, unificándolo con el electromagnético entre las
décadas de los 60 y 70 del pasado siglo. Por su Teoría de Campo
Electrodébil, recibieron el Premio Nobel en 1979. Por otra parte, el
punto flaco de esta teoría era que los mediadores de interacción
poseían masas enormes, a diferencia de todos los demás (fotones,
mesones y los hipotéticos gravitones), que carecen de ella. Una
solución a este inconveniente fue aportada por Peter Higgs y su
equipo, quienes desde 1964 postularon la necesidad de que
hubiese una partícula escalar neutra masiva cuya energía-masa se
hallase próxima a los bosones W y Z. El bosón de Higgs es en
principio un cuanto de uno de los componentes del Campo de
Higgs. Dicho campo escalar cuantificado posee un Valor Esperado
de Vacío (VEV) constante estimado en 246 GeV. Gracias a dicha
propiedad (energía de vacío finita y no-nula), permite calcular o
“asignar” masa a todas las demás partículas elementales dentro de
la Teoría Estándar, incluido a sí mismo. Por esta razón se la bautizó
a nivel popular como “la Partícula de Dios”. En concreto, la
adquisición espontánea o “perturbación” de un valor VEV distinta
de cero es lo que explica la ruptura de la simetría “gauge”
electrodébil, fenómeno conocido como “Mecanismo de Higgs”. Este
proceso es capaz de conferir masa a cualquier bosón de gauge y,
por consiguiente, es compatible con la Teoría de Campos de Gauge,
la Teoría Estándar y la QFT normalizada. Como el Campo de Higgs
es escalar, el bosón de Higgs tiene spín nulo y carece también de
momento angular intrínseco, todos ellos magnitudes cuantizadas
vectoriales u orientadas. Posee, además, como exigen los modelos
compatibles, su propia antipartícula y simetría CPT. El Modelo
Estándar no predice por sí mismo el valor de la masa-energía para
la “Partícula de Dios”, pero sí sus límites: Si el bosón de Higgs se
situase entre 115 y 180 GeV, entonces el Modelo Estándar sería
válido a todas las escalas energéticas hasta la escala de Planck,
cuya energía-unidad sería de aproximadamente 1016 TeV. La escala
de Planck es un sistema de unidades naturales para todas las
magnitudes físicas fundamentales, suponiendo que las cinco
Constantes Básicas de los Campos de Fuerza del Universo tomasen
todas el valor unidad, es decir: c=1 (velocidad de la luz en el
vacío), G=1 (constante de interacción gravitatoria), h/2π = 1
(constante reducida de cuantización de Planck), K=1 (constante de
interacción electrostática de Coulomb) y κ =1 (constante de
Boltzmann). En función de estos cálculos, la mayor magnitud de
masa-energía admisible para el bosón de Higgs (o para cualquier
ruptura de simetría electrodébil) es de 1 TeV. Por encima de ella, la
Teoría Estándar se torna inconsistente, porque pierde la unicidad
como conjunto matemático de elementos (partículas/antipartículas)
para ciertos procesos de dispersión. Cuando posteriormente se
aplicó el modelo de Supersimetría al Campo de Higgs, se demostró
matemáticamente que la “partícula de Dios” ha de presentar una
masa únicamente un poco por encima de los actuales límites
experimentales, aproximadamente unos 120 GeV. Esto confirmaría
la solidez de la Teoría Electrodébil-Higgs + Supersimetría
compatible con el Modelo Estándar y la actual QFT de modo
aplastante. Para 2006, todos los demás aspectos de esta
combinación armónica de modelos físico-matemáticos que
actualizan la vanguardia de la Física de Partículas se encontraban
ya confirmados empíricamente, excepto la detección real del bosón
de Higgs y la determinación de su masa. Como ya sabemos, hemos
de esperar con impaciencia hasta el 2012-2013 para constatarlo.

El Modelo MSSM demuestra que las “supercompañeras” del bosón


Z0 (zino), el fotón (fotino) y el bosón de Higgs (higgsino), poseen
exactamente idénticos números cuánticos, por lo que por el
Principio de Exclusión de Pauli, resultan indistinguibles, se
“mezclan” y dan lugar a un único tipo de supermasivas llamadas
neutralinos. Prácticamente indetectable, el neutralino sólo
interactúa a través de la gravedad y la fuerza débil, y no tiene
carga eléctrica ni de “color”. El “color” es una propiedad de carga
especial de los quarks, definida en el contexto de la Teoría Cuántica
de Campos particular desarrollada para describir la interacción
fuerte entre los nucleones, habitualmente conocida por
Cromodinámica Cuántica (QCD). La palabra “color” no tiene nada
que ver con el significado usual del sustantivo, ya que éste es en
verdad una simple propiedad electromagnética relacionada con la
absorción, reflexión y refracción selectivas de ondas de luz visible
por parte de la materia a ciertas longitudes de onda. La
Cromodinámica Cuántica fue propuesta a comienzos de los 70 del
siglo XX por Hugh David Politzer e, independientemente, por Frank
Wilceck y David Gross, los tres avanzados físicos teóricos
norteamericanos, el último destacado pionero más tarde en Teoría
de Supercuerdas. La CQD permite comprender la estructura de los
bariones (como ya indicamos, agrupaciones de tres quarks, como
los protones y neutrones) y los mesones (pares quarks/antiquarks
responsables de los intercambios de fuerzas de campo nuclear
fuerte entre ellos, como los piones, contemplados por vez primera
como modelo teórico de formación del núcleo atómico por el físico
teórico nuclear japonés Hideki Yukawa, premio Nobel en 1949 por
su precoz trabajo). Los propios Politzer, Wilceck y Gross fueron
distinguidos con el supremo galardón científico por la elaboración
de su CQD en el año 2004. La Cromodinámica Cuántica se halla
integrada en la Teoría de Gauge que sustenta el Modelo Estándar,
unificada a partir de la Teoría de Campos de Yang-Mills, que
formula todas y cada una de las interacciones específicas de
campos fermiónicos a través de los bosones, esto es, que integran
como casos particulares todos los campos cuantizados vinculados a
la interacción electromagnética, nuclear débil y nuclear fuerte,
como si se tratara de perturbaciones o transformaciones dinámicas
(determinadas por el Operador Lagrangiano del sistema,
matemáticamente denotadas como “rotaciones”), de la métrica
espacio-temporal compatibles con el Principio de Equivalencia de la
Relatividad General y el Mecanismo de Higgs como “asignador de
masas”. Sólo resta asimilar o cuantizar las Ecuaciones de Campo
Gravitatorio y los hipotéticos gravitones de intercambio a este
esquema y se conseguiría la Gran Teoría del Todo. Y esto es lo que
intenta hacer la actual, controvertida y muy reciente Teoría M, que
generaliza las cinco versiones de Modelos de Supercuerdas –
incorporando además la Supersimetría como ya reseñamos – cual
diversos casos concretos bajo diferentes condiciones físicas.

Retomando el tema de la Supersimetría, recordarán que decíamos


que las partículas “supercompañeras” de los bosones Z0, los
fotones y los bosones de Higgs son comunes, y han sido bautizadas
“neutralinos”. Su ausencia de carga eléctrica y “color” implica que
no responden a los campos electromagnéticos ni al nuclear fuerte,
sino tan sólo a la gravedad y la interacción débil, de ahí su escasa
detectabilidad. La Teoría indica que el neutralino es un fermión
estable. Si realmente se halla su existencia y se comprueba su
estabilidad experimentalmente, su masa-energía debería estar
comprendida en el rango entre 30 y 5000 GeV. Su importancia
radica en que los cosmólogos y astrofísicos consideran que es una
excelente candidata para constituir un WIMP. Los WIMPs (del inglés
wimp = “blando”, afeminado), debido a sus muy especiales
propiedades, son, junto a los tildados, sin duda por no muy sutil
contraste, MACHOs, los dos grupos de partículas que los expertos
en el estudio del origen, estructura y evolución del Cosmos a gran
escala estiman como más probables responsables de otro enorme
reto/enigma al que se enfrenta la Física de vanguardia en este albor
del Tercer Milenio: La Materia Oscura.

Dediquémosle a ella nuestro penúltimo preámbulo-síntesis.

III.7

A la caza de una furtiva “Oscuridad”

En Astrofísica y Cosmología se define como “Materia Oscura” a toda


materia hipotética, de composición por ahora desconocida, que, al
no interaccionar en absoluto o hacerlo de manera muy reducida con
la luz – las radiaciones electromagnéticas en general – no se puede
detectar por medio de la tecnología instrumental actual, pero sí de
forma indirecta a través de su efecto gravitacional sobre la materia
visible del Universo a gran escala, tal y como las estrellas, galaxias
y cúmulos. También puede inferirse su presencia porque produce
anisotropías o variaciones heterogéneas sobre la radiación de
fondo cósmico de microondas. Las observaciones más recientes de
las estructuras del Cosmos de talla superior a una galaxia, y los
modelos teóricos sobre la evolución del Universo en su conjunto de
la Cosmología del Big Bang, conducen a la sorprendente y
perturbadora conclusión de que tal “materia oscura” – sobre cuya
auténtica composición y naturaleza íntima lo desconocemos casi
todo – conforma la gran mayoría de la masa del Universo (entre un
84 y 85% de la misma). El resto sería “materia ordinaria o
bariónica”, organizada en átomos y moléculas, de la cual un
13,85% del total se hallaría en el gas y polvo interestelar e
intergaláctico y un exiguo 1,54% las grandes condensaciones
masivas de ésta, como estrellas en sus diferentes fases de
“madurez”, púlsares, quásares, estrellas, planetas... etc. El
astrofísico búlgaro Fritz Zwicky – quien asimismo fue el pionero en
la definición de las supernovas y el descubridor de las estrellas de
neutrones – fue el primero en emplear el concepto actual de
“materia oscura” (1933), para hacer concordar las aparentes
“anomalías por exceso de masa” ligadas a los datos obtenidos en
observaciones tales como la velocidad de rotación de las galaxias,
las velocidades orbitales de las galaxias en los cúmulos, las “lentes
gravitacionales” o elevada curvatura de la luz causada por objetos
de fondo originada por los cúmulos galácticos, así como las
medidas de distribución de temperaturas de los gases calientes en
galaxias y cúmulos... Todos ellos indicios potentes, pero
insuficientes... Y así permaneció la cuestión hasta hace muy poco.
Pero, recientemente, sus ideas han encajado muy bien para
justificar el espectacular y notable fenómeno denominado “Cúmulo
Bala”, localizado en 2004 por las observaciones realizadas por el
satélite Chandra. Tan singular objeto astrofísico, (1E 0657-56 en
notación astronómica, situado en la Constelación de Carina),
consiste en un Cúmulo Doble engendrado por dos cúmulos de
galaxias en colisión, donde un pequeño sub-cúmulo se aleja de otro
mayor, de ahí su peculiar nombre. Estos datos fueron publicados
por Markewitch y al. y Clowe y al. En ellos, se determina que el
sistema sufre una rápida velocidad de fusión, la cual resulta
evidente a partir de la distribución espacial de gas caliente emisor
de intensos rayos X. El gas se encuentra así detrás de los
subcúmulos , mientras que una gigantesca masa mucho más fría se
interpone delante, detectada por el efecto de lente gravitatoria.
Puesto que durante el choque entre cúmulos, las estrellas,
observadas en el espectro visible, no experimentan alteraciones
aparentes, pero sí modifican su movimiento en torno a sus núcleos
galácticos y al centro de masas de los cúmulos por frenado
gravitacional, el gas se calienta con fuerza y emite potentes haces
de radiación de elevada energía (rayos X), mientras la supuesta
“masa oscura”, indiferente por completo a cualquier
acción/reacción electromagnética y por ello foto-térmica,
permanece fría e inerte en medio de la gran colisión. Por ello, los
modelos que no consideran la presencia de tal masa “oculta”
predicen que el efecto lente gravitatoria se debía generar
principalmente a causa de la gigantesca masa de gas caliente
emisor de radiación X. Sin embargo, los resultados antes indicados
prueban que el fenómeno es incomparablemente más acentuado
en dos regiones separadas cerca de la acumulación de galaxias
visibles: El gas se encuentra, por consiguiente, tras los dos centros
de los subcúmulos, y el mucho más masivo conjunto de masa fría y
opaca delante de él. Esto solo es explicable si la inmensa mayor
parte de la masa del sistema se concentra en dicha zona,
comportándose como materia oscura, inalterada por los violentos
efectos del titánico choque sobre la materia bariónica “corriente”.

A partir de este valioso hallazgo, que refuerza la hipótesis de la


materia oscura de modo empírico, indirecto pero muy razonable, la
mayoría de los científicos tiende a aceptar su existencia real, pero
ahora la discusión se ha trasladado a su composición dominante.

En principio, hay cuatro probables “candidatas” para ello:

a) Abundantes partículas ligeras “calientes”, o sea, que se


desplazan a velocidades
relativistas hasta poco antes de su recombinación. Los
neutrinos cumplen esta condición. Su masa es insignificante, si
bien no-nula, no interaccionan con el campo electromagnético ni el
nuclear fuerte y son, por tanto, muy difíciles de detectar. Hasta ahí,
todo perfecto. Sin embargo, los cálculos teóricos de los más
aceptados modelos cosmológicos y las evidencias empíricas sobre
su abundancia en el Universo los hacen demasiado escasos como
para suponer nada más que una pequeña contribución al total de
materia oscura que debe existir. Además, la masa oscura
“caliente”no permite explicar algo tan fundamental en la historia
evolutiva del Universo como el mecanismo a partir del cual se
formaron las galaxias a partir del Big-Bang; La radiación de fondo
de microondas, medida por el satélite COBE y la sonda WMAP,
lanzados por la NASA con objetivos de alta y precisa investigación
cosmológica, prueban que tal radiación es increíblemente “lisa” con
anisotropías de muy baja amplitud. Lo que implica que la materia
se agrupó lentamente desde escalas muy reducidas. Y las partículas
de “materia oscura caliente” o de movimiento rápido no pueden
agregarse a niveles tan pequeños, y de hecho impiden que la
concentración material opere a escalas inferiores. La cuestión es
directa e inequívocamente contradictoria, tanto para todas las
simulaciones de los modelos matemáticos como los resultados
experimentales: Si los neutrinos u otros corpúsculos semejantes
fuesen el componente masivo y activo de la materia oscura, el
Universo sería mucho menos homogéneo y mostraría extensiones
de vacío desmesuradamente más vastas, alternadas con inmensas
áreas superpobladas de colosales hipercúmulos galácticos, y la
radiación de fondo de las microondas sería mucho menos “suave”.
Acerca de estos puntos no hay discusión posible. El Modelo de
Concordancia compatible con las observaciones instrumentales y la
Teoría del Big-Bang exige que la actual estructura macroscópica del
Cosmos derive de la acción de partículas “frías” o, a lo sumo,
“templadas” de materia oscura. Examinemos ahora a éstas.
b) Aglomeraciones a macro-escala de materia “bariónica”
ordinaria, (evidentemente moviéndose a velocidades sub-
relativistas y, por ello, “frías”). Algunos de estos “grandes,
oscuros, lentos y masivos cuerpos astronómicos” , tales como
monstruosos agujeros negros de órdenes de tamaño galácticos, son
imposibles, dadas las bases de datos recabadas sobre lentes
gravitacionales, Sí son admisibles entre ellos las estrellas en fase de
enanas marrones y los “MACHOs”. MACHO procede de “Massive
Astrophysical Compact Halo Object” y, a su vez, por contraste con
el significado habitual, ya señalado al principio de nuestra
exposición sobre los neutralinos, del término inglés “WIMPs”. Por
definición, cualquier tipo de objeto astrofísico real y constatable que
pueda utilizarse para explicar la presencia de materia oscura fría en
los halos galácticos es un MACHO. Por lo general, se trata de
cuerpos astronómicos relativamente “pequeños” y “aislados” – no
pertenecientes a ningún sistema estelar – que viajan por el espacio
entre las estrellas a velocidades claramente sub-relativistas,
emitiendo poca o ninguna radiación. Además de agujeros negros de
“tallas aceptables” y enanas marrones, dentro de ellos podemos
sumar a estrellas de neutrones, planetas o planetoides errantes
solitarios, cometas o “clusters”, enanas blancas y hasta enanas
rojas muy débiles. Esta clase de materia oscura es perfectamente
compatible y se halla prevista en la Teoría del Big-Bang, ayudando a
justificar el comportamiento gravitatorio de las galaxias, tanto
individual como integrado en los cúmulos. Su detección, en extremo
dificultosa como la de toda forma de masa oscura, se puede llevar a
cabo mediante micro-lentes gravitacionales, esto es, captando
variaciones en tamaños de objetos brillantes situados detrás de
ellos. Se ha estimado que en la Vía Láctea pueden llegar a constituir
el 20% de toda su materia. Suponiendo que la nuestra sea una
Galaxia típica y apoyándonos en las más recientes observaciones a
mayor escala de la macro-estructura del Universo, es patente que
los MACHOs y otros cuerpos bariónicos “fríos” no son suficientes
para dar cuenta de la necesaria cantidad de materia oscura que
impone el Modelo Cosmológico, en relación con el “aparente
defecto global de densidad de masa” que la “baja” aceleración de
expansión del Universo y las anomalías locales en la misma y de las
velocidades de rotación en el seno de los cúmulos galácticos
muestran, respectivamente.

c) Partículas no-bariónicas que se mueven a velocidades


relativistas, o Materia Oscura “templada”. Si esta posible
fracción de masa oscura predominase, los corpúsculos elementales
fundamentales de la misma interaccionarían de modo más débil
que los neutrinos, serían menos numerosas y poseerían una masa-
energía del orden en torno a 1 eV. Lo de “templada” corresponde a
su velocidad térmica promedio menor a la de los neutrinos
“masivos”. Existen muy pocas partículas descritas – incluso tan sólo
en términos teóricos – capaces de satisfacer estas condiciones, en
concreto las “supersimétricas” gravitino (propuesto por Pagel y
Primacks en 1982) y fotino (Bond, Szalay y Turner, en el mismo
año). Su contribución es coherente con los datos y el Modelo
Cosmológico vigente, pero su cantidad e intensidad de acción
gravitacional sería insuficiente, de nuevo, para justificar las
observaciones al respecto.

d) Partículas que se conviertan o recombinen en “lentas” ,


moviéndose a velocidades sub-relativistas lo bastante
“pronto” como para reflejarse a una distancia
insignificante. Esto es, Materia Oscura no-bariónica “fría”,
como las “supersimétricas” masivas de interacción débil,
por ejemplo los WIMPs. En este grupo se cuentan también a los
axiones. Esta peculiar partícula subatómica fue postulada por vez
primera de forma teórica en 1977 por Peccei-Quinn, para explicar la
Conservación de Simetría CP en el marco de la Cromodinámica
Cuántica. Su masa sería muy pequeña y no tendría carga eléctrica.
No obstante, su nombre le fue asignado por Frank Wilczek, quien
co-escribió el primer artículo donde proponía la existencia del axión.
Wilczek recibió el honor de ser el encargado de bautizar a la
criaturita y, buscando un nombre adecuado para ella – aseguran los
cotilleos de sociedad en el seno de la comunidad de los físicos de
vanguardia –, fijó los ojos en el letrero de la marca del detergente
que estaba usando, “AXION”, y asunto resuelto. Como puede
comprobarse, pasar de la humildad de las encimeras de cocina al
Reino Encantado de la Física de Partículas y la Cosmología Cuántica
es simple cuestión de suerte o, como tantas otras cosas en esta
vida, de “encontrarse en el lugar preciso en el momento
adecuado”... Afirmó que le parecía un nombre adecuado, ya que
confiaba en que “limpiara el problema de la QCD con la simetría
CP”. Las curiosas propiedades mecano-cuánticas de los axiones
también permiten especular con que, bajo determinadas
condiciones, los fotones de alta energía y otros rayos cósmicos
neutros, puedan transformarse temporalmente en axiones, y así
viajar enormes distancias en el Universo sin ser absorbidos por la
radiación de fondo opaca de microondas, lo que resulta un misterio
hasta la fecha. A principios de 2009, un selecto grupo de
investigadores liderado por Malcolm Fairbairn del King´s College de
Londres – donde se integran Timur Rashba del Instituto Max Planck
de Investigación del Sistema Solar y Sergey Troitsky de la Academia
Rusa de Ciencias – ha encontrado una correlación positiva entre el
lugar de detección de los haces de rayos cósmicos y donde es más
probable que se “mezclen o interconviertan axiones y fotones. En
sus experimentos de laboratorio – descritos como “lanzar luz a
través de un muro” – un láser brilla contra una pared opaca en
presencia de un campo magnético: Si en verdad parte de los
fotones del láser se transforman en axiones, a causa de su pequeña
masa y casi nula interactividad con la materia ordinaria,
atravesarán el muro y volverán a convertirse en fotones para ser
detectados al otro lado. Este efecto – exitosa y rigurosamente
registrado en sus ensayos – podría ser un buen modelo de lo que
ocurriría a escala cosmológica, donde el “muro” sería la “barrera
opaca de fondo de las microondas”, y el papel del campo
magnético sería jugado por las galaxias. Para ver si este macro-
efecto de “iluminar a través del Universo” existe, el equipo dirigido
por Fairbairn realizó un completo análisis estadístico de los rayos
cósmicos neutros con energías por encima de 1018 eV captados por
el Detector de Alta Resolución “Ojo de Mosca” (HiRes) de Utah.
Trabajos anteriores ya habían demostrado una relación positiva
entre la llegada de rayos cósmicos y las posiciones de las “fuentes
activas” de alta luminosidad en las galaxias lejanas. Pero el grupo
de Fairbairn ha llegado más allá, al probar una correlación adicional
entre la intensidad de radiación cósmica detectada y el perfil
estimado del campo magnético de nuestra galaxia, el cual
determina la probabilidad de conversión fotón-axión. Los científicos
afirman que la posibilidad de que esta correlación específica sea
casual es tan sólo de un 2,4%. Definitivamente, este resultado es
un fuerte indicio a favor de la existencia de los axiones y su papel
esencial en el mecanismo de propagación a distancias cósmicas de
las radiaciones de altas energías. No es, sin embargo, una prueba
directa y definitiva, como es evidente. Según estos datos, los
supuestos axiones que actúan tras ellos han de constituir partículas
muy ligeras (sobre unos 10-7 eV) y con un acoplamiento con los
fotones excepcionalmente débil (un acoplamiento inverso
aproximado de 1010 GeV). Esta última propiedad los descarta como
“conservadores de la Simetría CP en el campo nuclear fuerte”, por
un desfase de varios órdenes de magnitud. Sí subsiste su posible rol
como componentes de la materia oscura fría que genera la mayor
parte de la gravedad del Universo. Si bien, de manera parcial y muy
debilitada; Examinemos la razón: La Teoría Cosmológica exige que
las partículas predominantes componentes de la materia oscura
presenten masas-energías más pesadas que 10-7 eV por unidad,
pues en caso contrario no han podido ser generadas poco después
del Big-Bang y entonces dispersarse a los niveles de bajas
densidades puestos de manifiesto por los análisis astrofísico-
cosmológicos empíricos. En referencia a esta contradicción, Aaron
Chou, portavoz del experimento “GammeV” en el Fermi-Lab,
sugiere que los axiones, sencillamente, “se concentran o habitan en
regiones del Cosmos donde la densidad media de materia oscura es
más baja de manera natural”. “Para abreviar – explica – este
modelo podría también producir materia oscura fría de “tipo axión”,
pero no de una forma genérica o universal”. Un punto a favor de los
“axiones de Fairbairn” es que los resultados de su estudio
respaldan otros anteriores relizados por Hooper y Pasquale Serpico,
del CERN, y Melanie Simet, de la Universidad de Chicago, los cuales
hallaron una correlación muy parecida para los fotones de bajas
energías un año antes (2008). Mas los resultados no son
absolutamente concluyentes: Hooper y Serpico apuntan – y
Fairbairn, junto a sus colaboradores, admiten – que no hay medio
de saber la proporción o cantidad de rayos cósmicos neutros
registrados por el HiRes que son en realidad fotones, dado que lo
detectado son en realidad las posteriores “lluvias secundarias” de
estas radiaciones cuando los rayos primarios chocan con la
atmósfera terrestre. Adicionalmente, Serpico alberga dudas
conceptuales acerca de si el mecanismo de conversión fotón-axión
sería teóricamente efectivo en la gama de tan altas energías.

Por todo ello, la mayoría de los especialistas actuales


consideran que la componente principal de Materia Oscura
Universal está formada por “masa oscura fría no-bariónica”
de tipo WIMPs, sobre todo por neutralinos y semejantes
partículas “supersimétricas” masivas, cuyas propiedades
las hacen idóneas para explicar los parámetros medios
globales que ha de poseer la materia oscura “invisible” del
Universo para justificar las anomalías y observaciones
astrofísicas y cosmológicas observadas , además de los
propios requerimientos del Modelo Cosmológico que las
interpreta.

De hecho, ya conocemos con bastante aproximación el valor


estimado de estas magnitudes: En la primavera del 2006,
reputados miembros del Instituto de Astronomía de la Universidad
de Cambridge, basándose en todos los datos obervacionales
indirectos disponibles, calcularon que el efecto gravitacional de la
masa oscura únicamente es sensible a partir de concentraciones
del tamaño de los cúmulos mayores con radios del orden de 1000
años-luz, implicando una velocidad media de las partículas
componentes de 9 Km/s, densidad promedio de 20 amu/cm3 y
temperaturas de unos 10 K.

Estas cifras coinciden muy bien con un modelo de


composición con fuerte predominio cuantitativo de la masa
no-bariónica tipo WIMPs, con una minoritaria pero
respetable contribución de eventuales objetos tipo MACHOs
y otra aún más reducida de axiones y neutrinos, tal y como
se inducía del análisis precedente.

La conclusión resumida en el último párrafo es correcta, pero no se


fundamente únicamente en los estudios y medidas indirectas de los
efectos de la Materia Oscura disponible y su contraste con la
aceleración estimada de Expansión del Universo y el Modelo
Cosmológico sobre su génesis y evolución que en ésta se sustenta:
Ya que tal fenómeno de “dilatación” del espacio-tiempo
cuatridimesional einsteniano a partir de la Gran Explosión
Primordial, ha de verse continuamente impulsado por una
enigmática “Quinta Fuerza Elemental” de la Naturaleza,
denominada habitualmente “Campo Fundamental Repulsivo” o
“Quintaesencia”, por los sabios más inclinados a la vena poético-
histórica... Este Quinto Campo o Interacción Fundamental hace
posible que la velocidad de expansión del Cosmos en su conjunto
sea cada vez más rápida, por lo que la famosa Constante de Hubble
no sería tal en verdad. Dicha Constante deriva de la observación del
“corrimiento al rojo” de la longitud de onda de la luz emitida por las
galaxias debido al Efecto Doppler, que determina la velocidad
relativa de alejamiento de las mismas en función de su distancia del
punto de referencia en cada momento, según las simples Leyes:

LEY FUNDAMENTAL DE HUBBLE

c δ = H0 d

donde H0 es la Constante señalada en el momento de la


observación, c la velocidad de la luz en el vacío, δ el factor de
corrimiento al rojo (un número adimensional), y d la distancia
actual a la galaxia emisora (en Mpc).

Y:

LEY GENERAL DE RELACIÓN VELOCIDAD-DISTANCIA DE


HUBBLE

v = H0 d

En la cual v simboliza la velocidad de recesión o alejamiento


relativo de la galaxia observada a causa de la Expansión del
Universo (normalmente en Km/s), y el miembro derecho con
idéntico significado al puntualizado para la Ley Fundamental.

Estrictamente, H0 no constituiría en verdad un factor invariante,


sino creciente o decreciente en el tiempo según la relación opuesta
de Fuerza Impulsora (Campo Repulsivo o Quinta Fuerza) y Fuerza
Gravitatoria de Frenado (incluyendo, por supuesto, el término
adicional derivado de la atracción de la Materia Oscura).

El primero es el Campo de Energía Oscura,, una Oscuridad


todavía más sutil, esencial y transcendental para la comprensión
del Origen, Evolución y Destino Final del Universo que la propia
Materia Oscura, con la cual no debe obviamente confundirse.

Trataremos de abordar lo poco (pero fascinante, decisivo y


profundamente perturbador) que sabemos sobre ella en la siguiente
y última Sección de este repaso general sobre la Nueva Física,
imprescindible para proseguir el razonamiento central de este
ensayo.

III.8

Energía Oscura vs. Gravitación: La Gran Pugna entre


Opuestos que dicta el Destino de nuestro Universo

III.8.1

Concepto y naturaleza de la Energía Oscura

La Energía Oscura es un campo o forma de energía


hipotética que estaría presente en todo el espacio,
produciendo una presión negativa que tiende a incrementar
la velocidad de expansión del Universo, derivada de una
fuerza gravitatoria repulsiva.

Los físicos han aceptado la existencia de la Energía Oscura porque


es el modo más simple de explicar las múltiples observaciones
astrofísicas y radioastronómicas recientes que prueban sin lugar a
dudas que el Universo parece estar expandiéndose a velocidad
creciente, a pesar del “frenado adicional” por la gravedad asociada
a la materia oscura. Hasta el punto, que el presente Modelo
Cosmológico Estándar aceptado por la comunidad científica
internacional considera que casi las tres cuartas partes (en
concreto, el 74%) de la masa-energía del Cosmos es Energía
Oscura, el 22% masa oscura predominantemente no-bariónica y
“fría” como ya expusimos, y un 4% de materia bariónica ordinaria,
repartida entre un 3.6% de polvo intergaláctico y similares y tan
sólo un diminuto 0.4% de la que compone los supercúmulos,
cúmulos, galaxias, estrellas, planetas y otros cuerpos astronómicos
“convencionales”, así como la materia orgánica de todo ser vivo
que existe o pueda existir en el Universo.

Hay dos posibles enfoques o modelos teóricos para intentar abordar


el problema de la Energía Oscura:

1) El reajuste de la Constante Cosmológica:

Inicialmente propuesta por Albert Einstein como constante de


integración de las Soluciones de sus Ecuaciones de Campo
Gravitatorio en su Teoría de la Relatividad General, con objeto
de asegurar la hipótesis – entonces dominante – de un
Universo estático y esencialmente homogéneo. Es una
densidad de energía supuestamente invariable que llena todo
el espacio-tiempo de forma homogénea. Su origen se
encontraría en la célebre “Energía del Vacío” que, como ya
indicamos, aparece igualmente al resolver las ecuaciones de
estado cuántico-relativistas de los pares
partículas/antipartículas o Ecuación de Dirac, lo que muestra
que representa una magnitud fundamental en la estructura y
evolución del Cosmos que unifica la micro-escala con la macro-
escala, resultado que era de esperar, dadas sus profundísimas
y colosales implicaciones. La presión negativa vinculada a la
fuerza de tracción de la Explosión Expansiva o Big-Bang o.
mejor dicho, sus efectos equivalentes a una repulsión
gravitacional según la Métrica de Friedman-Lemâitre-
Robertson-Walker (FLRW) que aplica el Modelo
Cosmológico del Big-Bang/Expansión del Universo a la
Métrica de Riemann-Einstein que determina la estructura
hipergeométrica cuatridimensional deformada por las Masas-
Campos Gravitatorios en el marco de la Relatividad General,
perturbarían o modificarían el valor de la Constante
Cosmológica, haciéndola aumentar su valor muy lentamente
en el tiempo. (En rigor, ya no debería, pues. llamarse así –
“Constante” – pero la minúscula rapidez del proceso y la
poderosa inercia de la costumbre han conspirado por
mantener tan desfasada terminología). Dicha “Constante”
mediría – por ende – el “coste variable” de expandir o ampliar
el espacio, puesto que cada unidad de volumen de espacio
posee una energía fundamental intrínseca. Esto es el
significado de la Constante Cosmológica, usualmente
representada por Λ (la mayúscula de la letra “L” griega,
“Lambda”). Por ello, añadir el reajuste de la Constante
Cosmológica en la Métrica FLRW se conoce como Modelo
Lambda-CDM, o “Modelo Estándar Cosmológico”,
aceptado y utilizado como una excelente aproximación
matemática para describir la Evolución Global del Universo,
dada la elevada convergencia de los posibles escenarios de
sus simulaciones con los conjuntos de datos observacionales
disponibles. Teniendo en cuenta el Principio de
Equivalencia Masa-Energía de la Relatividad General:

E = m c2

es obvio que la energía oscura poseerá un efecto


gravitacional, gigantesco según el Modelo Estándar, pues
predice que ocupa con gran uniformidad todo el espacio-
tiempo y concentra casi las ¾ partes de la masa-energía del
Cosmos. Equivale a la Energía del Vacío porque la teoría
determina que su densidad es bajísima e igual a la de esta
energía, en torno a 10-29 g/cm3 ó unas 10-120 en Unidades
Planck, el mismo orden de valor que estiman los Modelos de
Campos Cuánticos en Física de Partículas para las
fluctuaciones de vacío, como ya aseguramos antes. La
Constante Cosmológica produce una presión negativa
equivalente a su densidad de energía gravitatoria “repulsiva”
(de ahí la inversión de su signo como campo escalar de
potencial asociado) y, por tanto, genera una continua
repulsión que hace que el Universo se expanda de forma
acelerada. La inmensa presión negativa vinculada a Λ no
tiene nada de “esotérico” ni misterioso... Es más, para
explicarla no es necesario recurrir a complejos conceptos
cuánticos, sino a algunos de los más sencillos y ya
perfectamente establecidos por la Física Clásica: Un fluido o
sustancia ejerce una presión positiva cuando empuja a los
cuerpos o partículas que se hallan en su entorno con una
fuerza-peso por unidad de superficie o sección que lo soporta,
correspondiente al producto de su densidad, la intensidad de
campo de gravedad local y la altura o profundidad del mismo
que lo aplica, según:

dP = ρ h dg

Suponiendo una densidad promedio ρ constante o uniforme y


una “columna” o sección-volumen de espacio “empapada” por
dicho material fija unitaria. Esto es lo que ocurre en un fluido
corriente.

La presión negativa – o tensión – se produce simplemente


cuando dicho fluido o sustancia tira o aplica tracción sobre los
objetos de su medio, como por ejemplo ocurre cuando un
sólido elástico es deformado al soportar una masa-peso
colgante. Es elemental – pues – deducir que, si dP<0, dg<0
(la tensión derivada de la Gran Explosión Original, o
“Constante Cosmológica” equivale a una intensidad de campo
gravitatorio repulsivo repartido por todo el espacio),
lógicamente. Asimismo, según el Principio de Conservación de
Energía de la Termodinámica elemental, la energía interna que
se libera o pierde desde dentro de un contenedor de vacío que
se expande un volumen dV equivale a – PdV, siendo P la
presión y su trabajo de expansión desarrollado la misma
cantidad cambiada de signo, obviamente. Ahora bien, la suma
de energía transferida a una caja de vacío al aumentar su
volumen un dV positivo es igual a σ dV, siendo σ la densidad
de energía. Por consiguiente, es evidente que P = – σ y, por
el Principio de Equivalencia de Einstein, P = – ρ c2.

De manera más específica, si aplicamos tal principio básico a


las ecuaciones de la Métrica FLRW, es fácil demostrar que la
“presión interna” dentro del fluido-energía oscura contribuye
al sumatorio total de la intensidad de fuerza gravitacional que
éste ejerce sobre cualquier otro cuerpo material de su entorno
de forma por completo equivalente a su masa. Una poderosa,
universal y casi homogéneamente distribuida presión negativa
aplicará, por consiguiente, una repulsión gravitatoria a través
de todo el continuo espacio-temporal que tiende a acelerar la
Expansión del Universo. Los cálculos demuestran que el efecto
gravitacional repulsivo ligado a la energía oscura es mayor
que el de “atracción propia” engendrado por su misma masa-
energía. A escala cósmica global, esto conduce a que el
impulso expansivo ha de superar al sumatorio de todos los
“frenos” de contracción por gravedad, dando como resultado
un Universo en Expansión Acelerada.

A algunas personas – físicos incluidos – les cuesta trabajo


aceptar la aparente paradoja de que la tracción procedente de
la “presión negativa” de la Energía Oscura-Vacío (que genera
la fuerza de empuje expansivo del Universo), provoque, a su
vez, un “contra-frenado” atractivo... O que, imaginando que la
suma total de todas las interacciones gravitatorias o “densidad
media del Cosmos” fuera tan grande que se impusiese al
término impulsor, de modo que, finalmente, en un “futuro
Universo en Contracción con la Ley de Hubble invertida,
indujera un “corrimiento al azul” de las Galaxias al acercarse a
un punto de observación dado), tal fenómeno impusiese a su
vez una “contra-aceleración” expansiva... Pero ello es
rigurosamente una directa consecuencia de la acción de la
propia masa-equivalente a la Energía Oscura, tal como obliga
la Teoría de la Relatividad General y su Principio Fundamental
de Equivalencia, es decir, la re-formulación actual Einsteniana
del Principio de Inercia de Newton. Lo que pasa es que,
inconscientemente, tendemos a errar confundiendo “fuerzas
de empuje y frenada” con las propias “fuerzas gravitatorias”
en sí..., lo que es conceptual y radicalmente falso, ya que el
que dos magnitudes sean equivalentes cuantitativamente
entre ellas, no significa que sean iguales en su naturaleza ni
signifiquen lo mismo en términos físicos, como ocurre con la
masa gravitacional o “pesante” y la masa-inercia. Bastan tres
argumentos muy elementales para despejar tales dudas:

a) Los Empujes/Frenos de la Presión Negativa y Positiva son


meras fuerzas mecánicas no-gravitacionales, que solo pueden
alterar el estado de movimiento o desplazar a las partículas
materiales que se encuentren en torno a su espacio interior,
jamás cambiar o distorsionar la métrica del espacio-tiempo en
sí misma.

b) Por el contrario, la repulsión o atracción gravitatoria


derivadas de ellas sí operan directa y efectivamente sobre el
propio espacio-tiempo, según demuestra indefectiblemente la
Teoría de la Relatividad General de Einstein: En realidad, lo
que llamamos en un marco newtoniano o clásico “fuerza de
atracción” de la gravedad no es más que una deformación
contractiva de la métrica del espacio cuatridimiensional, que
tiende a “disminuir” la distancia entre los cuerpos masivos, a
causa de la presencia misma de tal masa “deformante”. Y a
“retardar” el flujo de paso del tiempo local en su torno, dicho
sea de paso (en el seno de un campo de gravedad muy
intenso o hiper-masivo, todos los relojes se “atrasan”, hecho
comprobado experimentalmente de modo rotundo); En
consecuencia, está claro que una “fuerza de repulsión”
equivalente y derivada de un potencial escalar de signo
opuesto, en términos relativistas, no es otra cosa que una
distorsión expansiva de la geometría cuatridimensional del
espacio-tiempo, con efectos simétricos a los anteriores: La
distancia a cada escala entre las partículas del Universo
aumenta y el paso del “tiempo universal” se “acelera”... o sea,
el Cosmos entero se precipita más y más “velozmente” hacia
la Expansión Auto-Impulsada. El juego entre las dos tendencias
contrarias determinará el “Radio o Tamaño del Universo en
cada estadio de su Evolución Cósmica”... Radio limitado en
cuatro dimensiones, no en tres...; Como si fuésemos “seres
bidimensionales” pegados a un “plano infinito” en dos
dimensiones (para nuestra percepción ordinaria solo existirían
el largo y el ancho, no la altura o profundidad), pero que en
verdad se curvase en una esfera limitada en una tercera
dimensión espacial adicional, siguiendo la deliciosa, satírica y
didáctica metáfora expuesta por el matemático, profesor,
escritor, teólogo y erudito shakespiriano Edwin Abbott en su
maravillosa y precoz obra “Flatland, una novela de muchas
dimensiones”, editada en 1884. Concepto magníficamente
popularizado por el exquisito divulgador y excelente científico
Carl Sagan en su libro y serie televisiva “Cosmos” en la década
de los 80 del siglo pasado, admirable labor que tantas
vocaciones e inquietudes por el pensamiento racional y la
investigación despertó, incluyendo la de este modesto autor.
Pues bien, nosotros estaríamos en igual situación, pero
añadiendo una dimensión más..., el tiempo: El Cosmos se nos
antoja “infinito” en tres dimensiones, pero posee un “tamaño”
en cada instante evolutivo para su hipergeometría
cuatridimensional, o Métrica de Riemann-Einstein. Por eso el
genial Albert – el radiante pensador y científico, co-progenitor
e intérprete esclarecido a la par de la Nueva Visión del Cosmos
y sus posibles Destinos desvelada por la Física de vanguardia
–, dejó escrito, en una de sus sintéticas e inolvidables
sentencias: “El Universo es finito, pero sin límites”.

c) Nada obliga a que estos dos efectos actúen en la misma


dirección: De hecho, lo hacen en sentidos opuestos de modo
continuo y permanente.

Problemas pendientes asociados a la Constante


Cosmológica

Una fuerte dificultad en esta aproximación teórica a la naturaleza


de la Energía Oscura es que la QFT en muchas de sus aplicaciones
dentro del Modelo Estándar de Partículas exige Constantes de
Energías de Vacío desmesuradas, de orden decimal de magnitud
incluso superior a 120. Esto se necesitaría cancelar – aunque no
exactamente – con un término igual de grande de exponente con
signo opuesto. A su vez, ciertos modelos para partículas
Supersimétricas –precisas como hemos visto para justificar la
constitución y propiedades de la materia oscura – requieren una
Constante Cosmológica derivada de la Energía del Vacío Cuántico
muy próxima o idéntica a cero. En consecuencia, la re-
normalización de las constantes de integración en las diferentes
ecuaciones de modo que éstas guarden coherencia entre sí y con
los datos disponibles sobre la estructura a gran escala métrica del
Universo y su Expansión es problemática. Estas deficiencias
técnico-matemáticas se alían con el inconveniente metodológico
esencial que hace ardua la ingente tarea de unificar lo
submicroscópico con lo macroscópico – o la Relatividad General que
rige la Astrofísica y la Cosmología con la Mecánica Cuántica que
gobierna la Física de Partículas –, ya que, empíricamente, la
verificación de los modelos teóricos de la primera se basa en
observaciones a macro-escala y los de la segunda en
comprobaciones empíricas o experimentos directos de laboratorio,
como los propios de los Aceleradores de Partículas y otros. La
comunidad científica actual, ante tal doble dilema, ha optado por
una solución provisional de consenso, la única razonable y posible
dadas las presentes limitaciones, aunque a sabiendas que es
meramente provisional; Inducción y extrapolación de las pruebas
empíricas en aquellos casos en los que las Teorías Estándar
permiten realizar predicciones fiables y contrastables con los
ensayos u observaciones experimentales, e ir ajustando o
perfeccionando según estos resultados los modelos matemáticos de
manera más y más fina. Esto da buenos frutos en los problemas
que las actuales teorías logran describir y determinar con claridad y
exactitud, como por ejemplo la predicción del Destino Final del
Universo en función de sus parámetros críticos, la razón energía o
presión repulsiva/masa gravitatoria propia de la Energía Oscura y
densidad total media de materia en el Cosmos. Pero hay otros
aspectos, como varias etapas de su evolución temprana – tales
como “fase inflacionaria”, predominio de la materia sobre la
antimateria, o, en menor grado de incertidumbre, la medida fina de
su tasa de aceleración expansiva actual –, que permanecen
envueltos en serias dudas y contradicciones. Por ello los físicos y
sabios en general esperan con ardiente impaciencia y natural
curiosidad nuevos hallazgos empíricos procedentes de tecnologías
instrumentales astronómicas y astrofísicas cada vez más potentes y
sofisticadas – como las desarrolladas por medio de los telescopios y
satélites especializados colocados en órbita por la NASA y la ESA –
así como los descubrimientos de la nueva serie de experiencias
programadas por el HLC o Superacelerador de Hadrones del CERN.

Ellos ayudarán a dictaminar si la última y elegante tentativa por


ahora puramente teórico-matemática que podría en principio
resolver estas lagunas y conseguir por fin la ansiada Teoría
Unificadora del Todo, la Teoría de Supercuerdas Unificadas o Teoría
M, es algo más que un hermoso edificio de suntuosas ecuaciones...
Ignoramos hasta qué punto. Pero, en todo caso, al menos, serán
inestimables para despejar y clarificar las imperfecciones que
subsisten en los Modelos Estándar independientes de Lo Inmenso y
Lo Diminuto y, sobre todo, en sus trabajosas correlaciones
aproximadas intentadas hasta la fecha.

Lo que no es poco.

Otro quebradero de cabeza ligado a la inclusión de la Constante


Cosmológica en el Modelo Estándar Cosmológico es que aparecen
varios tipos de discontinuidades para regiones con anormalmente
baja densidad de materia. La existencia de estas titánicas “áreas
vacías” en determinadas áreas del espacio profundo, carentes de
galaxias y estrellas casi por completo y, presumiblemente, con
mucha menor densidad de los “nódulos” o vórtices” de energía
oscura que “soportan las acumulaciones anisótropas de materia
ordinaria” y los “filamentos de materia oscura” arrastrados por su
tracción o presión negativa dominante, que es la visión actual de la
Gran Red en expansión que configura la macro-estructura del
Universo en nuestro modelo más avanzado, han sido halladas por
observaciones astrofísicas recientes. Pero el mecanismo de su
génesis es un misterio, tanto como la naturaleza o constitución
íntima de la Energía y la Masa Oscura. Los conceptos teóricos que
conocemos señalarían que dichas zonas serían como “secciones” o
“islas” en las que el espacio, por alguna razón desconocida, se ha
expandido o “envejecido” y enfriado más rápido de lo normal, pero
carece de explicación alguna para ello. En el extremo contrario,
otras discontinuidades muestran que, bajo las condiciones del
Universo en sus etapas primigenias, cuando aún dominaba la
radiación caliente, el signo de la energía del vacío pudo invertirse,
al menos de forma local, en grandes áreas del Universo emergente.
La presión de la Energía Oscura sería entonces positiva o
contractiva en vez de negativa. Estas “contra-tensiones” parciales
son interpretadas por algunos teóricos como “reacciones de
reajuste energético-elástico” a la etapa pre-primigenia de
elevadísimo crecimiento exponencial del Universo por supuestas
amplificaciones cuánticas vía “efecto túnel masivo” de las
fluctuaciones de vacío de la energía repulsiva u oscura cuando éste
era todavía más reducido, comprimido y ardiente, en la etapa
inmediatamente posterior a la misma Gran Explosión (fase
inflacionaria). Es obvio que no se trata más que de una conjetura,
pero parece lógica.

De todos modos, lo patente es que – como cabía esperar – la simple


Ecuación de Estado de la Energía Oscura por la
Aproximación de la Constante Cosmológica,, que antes
dedujimos de los Principios Termodinámicos más elementales,
adopta la forma:

P+ρ c2 = 0

Y es una buena aproximación para las condiciones pasadas,


presentes y futuras de un Universo ya “estabilizado” y dominado en
su vertiente material por la masa oscura fría, esto es, la “juventud”,
“madurez” y posible “ancianidad”, tal y como la predice el Modelo
Estándar. Pero no es extraño que deje de ser exacta y descriptiva
bajo condiciones tan extremas y “cercanas” a la supuesta
“Singularidad Inicial” como cuando era un “embrión inflacionario”, o
un “bebé” determinado por la “radiación caliente”, a altísimas
presiones y temperaturas. Al igual que ocurre con la sencilla
Ecuación de los Gases Ideales o Perfectos de Clausius-Clapeyron: p
V = R T, (R es la Constante de los Gases Ideales), tan sólo válida a
presiones y temperaturas apreciablemente separadas de los
relativamente altos valores de presión p y bajísimos de
temperatura absoluta T y volumen V reinantes en las proximidades
del Cero Absoluto, entorno en el cual hay que “modificarla” y
hacerla más compleja, mediante ciertos parámetros de corrección,
obteniendo la Ecuación de Van der Waals: (P + a/V2) (V – b) = R
T. En ella, a y b son constantes específicas de cada gas, que
dependen de las fuerzas intermoleculares (el primero es un factor
atractivo y el segundo repulsivo o volumen molar efectivo),
despreciables ambos cuando los volúmenes son enormes frente a
los que ocupan las propias moléculas (y por ello las presiones
pequeñas), y las energías térmicas de expansión o energías
cinéticas medias de las misma elevadas, debido a la alta
temperatura. El modelo se puede refinar todavía más, añadiendo o
modificando términos a la ecuación y haciéndola cada vez más
exacta a cambio de una notable pérdida de simplicidad. Algo similar
ocurriría con la Ecuación de Estado de la Energía Oscura: En
condiciones de colosal presión, inmensa temperatura y un volumen
espacial del Universo en sus primera fases de expansión aún muy
limitado en comparación con los posteriores, así como bajo el
“Reinado Primitivo de la Radiación Caliente”, el comportamiento e
interacción entre la tensión repulsiva, la gravedad generada por su
propia masa equivalente, la materia oscura y la aún “débil”
diferenciación de los cuatro Campos de Fuerza entre sí, durante los
primeros segundos de existencia del Cosmos en que éste tan solo
era una “sopa fluida” de energía y masa oscura, una diminuta
fracción de partículas elementales y cantidades tremendas de
fotones de luz, sin duda impuso una serie de alteraciones en la
termodinámica de la expansión del Gran Entramado que cambiaron
y sofisticaron los términos de la Ecuación de Estado. Esto explicaría
los desajustes pendientes sobre la descripción de los fenómenos en
periodos tan primigenios de la Evolución del Universo, pero,
desafortunadamente, nuestra ignorancia sobre la esencia profunda
de la energía y la masa oscuras, no nos permiten por el momento
abordar tal problema más allá de la mera especulación.

Sin embargo, a pesar de estas deficiencias, la Constante


Cosmológica sigue siendo la solución o aproximación más
económica en el sentido de la “infalible” Navaja de Ockam. Esto es
así porque a partir de unos postulados termodinámicos muy
elementales y bien conocidos, de los que no se conocen excepción
alguna en la fenomenología fisico-química, se puede integrar el
efecto actual y futuro de la “tensión repulsiva” de la Energía Oscura
en el Modelo Estándar de modo que la variación de un solo
parámetro (la Constante Cosmológica Λ ), posibilita la explicación
de un tremendo y variado número de observaciones. Al igual que
ocurre con el Principio de Constancia Invariante de la Velocidad de
la Luz en el Vacío respecto a cualquier sistema de referencia en el
contexto de la Relatividad Especial de Einstein, o con la Ley de
Selección Natural de Darwin, por citar dos de las más grandiosas,
económicas y a la par “simples” ideas brillantes de la historia de la
Ciencia, la razón entre el nº de suposiciones causales (hipótesis)
que postula y la cantidad de procesos, fenómenos y observaciones
empíricas que justifica, es abrumadoramente pequeña. Por ende, su
probabilidad de certeza básica es casi muy alta, aunque sus
mecanismos concretos para condiciones o casos especiales puedan
ser ampliados, perfeccionados y/o matizados. Es en la habilidad,
capacidad inductiva e intuición racional para encontrar estas a la
vez sencillas y majestuosas “generalizaciones maestras” o “Leyes
de la Naturaleza”, a partir de un conjunto de datos y/o desarrollos
teóricos precedentes, donde radica la facultad del “genio
científico”.

Por todo ello, la mayor parte de los astrofísicos y cosmólogos se


inclinaban hasta hace muy poco por este camino a la hora de
describir o formular la Energía Oscura, por lo cual el Modelo
Estándar o Lambda-CDM,como ya hemos recalcado muchas veces,
incluye la Constante Cosmológica como una característica
sustancial.

Hasta que un “nuevo y terrible bombazo” astrofísico les está


empezando a obligar a un último “cambio mental” más radical y
osado todavía, tal como examinaremos acto seguido.

2) Campos Escalares Dinámicos como la “Quintaesencia”


o “Quinta Fuerza”, cuya densidad de energía puede
cambiar en el tiempo y el espacio:

El origen de la palabra “Quintaesencia” es al mismo tiempo


evocador, sugestivo y filosófico; Para la Física Clásica Antigua
recopilada, sistematizada y ampliada por el gran filósofo y
naturalista griego Aristóteles el Estagirita, la materia ordinaria
de nuestro Mundo se hallaba constituida por Cuatro Elementos
esenciales: Tierra, Agua, Aire y Fuego. Toda sustancia de la
Naturaleza terrenal (o “Mundo Sublunar”) , incluyendo las
elaboradas por el hombre, debían estar compuestas por
diferentes proporciones de combinación entre dichos
elementos. El Mundo Terrenal o Sublunar (nuestro Globo y su
atmósfera o “esfera”de influencia, que para el pensador
heleno de ascendencia medo-persa alcanzaba justo hasta la
“esfera celeste” que sostenía la Luna), se caracterizaba por la
heterogeneidad, el cambio y la finitud. El movimiento físico no
era más que una de las clases de cambios, definido por dos
Principios Fundamentales: La Conversión de la Potencia
(energía) en Acto (ímpetu productor del movimiento
espontáneo o “natural”) y el Retorno a La Sustancia Afín. Éstos
no son más que la aplicación a la Física de la concepción
general de la Realidad elaborada por el filósofo, el
“Hilemorfismo”, o Teoría de la Sustancia y la Forma, utilizada
también en campos tan variados como la biología, la ética, la
antropología, la psicología o la política, todos ellos abordados
por el polifacético maestro a lo largo de su extensa y fecunda
obra. El Primer Principio implicaba que cualquier movimiento
espontáneo había de ser rectilíneo y uniforme (a velocidad
constante). Cualquier curvatura en la trayectoria de los
cuerpos, aceleración o frenada implicaba un movimiento
“forzado”, producto de un motor material a su vez móvil. El
Segundo Principio suponía que todos los movimientos o, en
general, cambios físico-químicos (llamados por el sabio,
respectivamente, “accidentales” y “esenciales”, según
afectasen tan solo a la “forma” o estados derivados de las
propiedades secundarias de los materiales o a la “sustancia”,
es decir, la composición entre los cuatro elementos de los
mismos), se hallaban “orientados a un fin”. Esta finalidad era
“reintegrarse con el elemento puro más afín o
mayoritario/semejante al cuerpo compuesto en cuestión”: Así,
la gravedad de los cuerpos sólidos se explicaba como la
tendencia a situarse en el centro de la esfera terrestre (pues
se entendía que estaban constituidos predominantemente por
el “elemento Tierra”), la de los líquidos fluir hasta acumular
más y más vastas superficies de los mismos dentro de sus
contenedores sólidos (así justificaba de una tacada la tensión
superficial y la condensación). El flujo de los ríos y corrientes,
subterráneas o no, hacia los océanos, así como las
precipitaciones, eran descritos cual la acción combinada de
dos tendencias básicas: La gravitación, debido a su minoritaria
fase “semisólida”, y el movimiento natural hacia el seno de las
grandes masas muy mayoritariamente compuestas por el
“Elemento Agua”. El humo o vapor, mayormente compuestos
por Aire, hacia los cielos por la misma razón. Y, por último, el
Fuego, el Elemento menos denso de todos, puede hacer arder
al aire, pues el Fuego era el elemento material menos denso, y
más próximo por ello al “Éter”. El “Éter” sería el Quinto
Elemento, o “Quintaesencia”, pero ya no pertenecería a la
Esfera Sub-Lunar o “terrenal”. La Física del Mundo Terrenal era
en los tratados de Aristóteles meramente cualitativa o
descriptiva, y no podía ser de otro modo, pues el autor
consideraba que por su propia naturaleza se encontraba
regida por la heterogeneidad, el cambio continuo y la
corruptibilidad o finitud, y por ello alejada de la “armonía en
proporciones, cantidades y formas y el carácter eterno e
inalterable de los componentes de la Esfera Superior, el Mundo
Supralunar o Celeste”. Este se componía de cuerpos
materiales eternos (la Luna, el Sol y los planetas por entonces
conocidos) y el Éter, ya que Aristóteles negaba la existencia
del vacío y por ello la incipiente Teoría Atómica de pensadores
de las generaciones anteriores o “presocráticos”, tales como
Epicuro o Demócrito. El Éter es definido como un fluido
asimismo extremadamente ligero o poco denso, a la par
“infinitamente elástico” e “impenetrable”, incorruptible,
absolutamente trasparente, inodoro, incoloro y que llena todo
el espacio entre las Esferas de los planetas, cada vez más
lejanas y “puras” respecto a la tosca e imperfecta materia
Sublunar, Estas esferas son igualmente circulares, “ideales” y
trasparentes, y son los “motores “ que hacen girar a los astros
sostenidos por ellas en sus órbitas. Las Esferas Celestes
Primarias, todas ellas concéntricas con la Tierra, serían, por
orden de menor a mayor lejanía, al igual que las órbitas
“planetarias” por ellas determinadas: Lunar, Mercurial,
Venusina, Solar, Marciana, Jupiterina y Saturnina. Tanto éstas
como el Éter, poseen la cualidad natural de engendrar,
transmitir y soportar un movimiento circular perfecto y eterno
pues, a diferencia de la materia terrestre, no se hallan
sometidos a la pérdida de “potencia” al derivarse en acto que
la fricción, la gravedad y el Principio de Afinidad elemental
imponen a los cuerpos sublunares. En consecuencia, están
gobernados por la armonía exacta de la geometría y las
matemáticas, siguiendo leyes precisas, periodos exactos y
trayectorias cuantitativamente predecibles. La última de las
esferas, y la más “pura” y remota, es la de las “Estrellas Fijas”,
emisoras de su propia luz, “incrustadas” en dicha Esfera y
movidas por el “Motor Inmóvil”. En el extremo opuesto, la
Luna, emplazada ya en la misma frontera con el Mundo
Terrenal, participa de la “materia etérica o Quintaesencia
Celeste”, pero su contacto con las regiones más leves pero
“imperfectas” del Fuego y el Aire de origen terreno la
“impurifican” de algún modo, por eso presenta “ciertos signos
de deterioro o imperfección”, como “manchas” y “cráteres”.
Para “tranquilidad de Aristóteles y sus innumerables
seguidores a lo largo del resto de la Era Antigua y toda la Edad
Media hasta la llegada de la Revolución Copernicana en1543,
de Galileo y de Kepler, por aquellas épocas no mejoraron las
técnicas telescópicas como para poder rebatirles). Pero como
todo movimiento o proceso mecánico (acto o efecto), ha de
provenir de un motor (potencia o causa) que lo genere, todos
los motores celestes han de transferir su energía a través del
Éter, hasta llegar a un Primer Motor Inmóvil Ideal, accionador
de las luminarias estelares, Eterno e Infinito..., que el filósofo
identifica aunque no de modo claro con el Creador de su
modelo de Universo inmortal pero finito, geocéntrico y
geoestático (pues la Tierra no se mueve, siendo el centro
pasivo del Sistema). Aristóteles – por tanto – tuvo el mérito de
sintetizar, refinar y organizar las teorías previas de la mayoría
de los sabios y astrónomos de la Antigüedad, basándose en
especial en las “esferas homocéntricas” de Euxodio o Eudoxo
de Cnido y su discípulo Calipo y la teoría de los Cuatro
Elementos de Empédocles. Con el movimiento orbital real de
nuestro satélite y el aparente del Sol y las estrellas “fijas” el
Sistema Aristotélico no tuvo problemas, pues ambos se
ajustaban muy bien a simple vista a su majestuoso mecanismo
de Esferas Concéntricas. Pero los “planetas” realizan un
“extraño rizo” retrógrado en sus órbitas tomando como centro
de referencia inmóvil a la Tierra (por eso “planeta” en griego
significa “errante”). Por lo cual ya Eudoxo hubo de suponer
que la “Esfera Límite” de las Estrellas Fijas se movía en
sentido contrario a las de los planetas. Además, Calipo diseñó
un ingenioso conjunto de esferas auxiliares a cada una
principal tales que, al rotar a diversas velocidades, producían
“lazos” o epiciclos que se ajustaban a las observaciones de los
“bucles retrógrados” de los “traviesos” planetas. Entre ellas y
las concéntricas sumaban 22 esferas. El Maestro preceptor de
Alejandro Magno las amplió hasta 55 y de esta manera se
fueron multiplicando y haciéndose parte de un cada vez más y
más intrincado y artificioso mecanismo geométrico-
matemático, a medida que las técnicas astronómicas y la
exactitud de las mediciones progresaba. Más tarde, el
brillante astrónomo y matemático alejandrino Claudio
Ptolomeo llega a desarrollar su famoso Modelo Geocéntrico de
Esferas-Epicíclicas y Concéntricas (Deferentes), llegando a
requerir 80 de ellas para acomodar el funcionamiento del
colosal mecanismo a las nuevas observaciones y datos
obtenidos para el cálculo de las órbitas aparentes sobre el
fondo de las estrellas fijas en su tiempo (Siglo II d.C.).
El modelo cosmológico de Aristóteles-Ptolomeo fue adoptado –
como en general todo el sistema filosófico del Estagirita – cual
única Verdad Oficial Incuestionable, pues por una serie
compleja de motivos fue considerada la doctrina más idónea
para lograr el primer anhelo de los sabios y teólogos
medievales: Armonizar los dogmas de la Fe y la “Razón”
(escolasticismo), tanto en el seno de la cultura cristiana como
islámica y judía, desplazando al paradigma neoplatónico que
había sido preferente desde el fin del Imperio Romano hasta la
Alta Edad Media. En el ensayo aparte que dedicaré a comentar
y analizar las consecuencias e implicaciones filosóficas de los
nuevos paradigmas físicos en general y de este trabajo en
particular, se expondrán las causas de ello con mucho mayor
detalle. Por ello, a partir de finales del siglo XII y comienzos del
XIII (Baja Edad Media), Aristóteles fue El Maestro en toda
Europa Occidental y del Este, Bizancio, el Norte de África,
Persia y Oriente Medio..., con mayúsculas y sin excepción.

Esto fue fatídico para el progreso y desarrollo innovador de la


Física y de la Cosmología en concreto; Ello se debe a que las
ideas y teorías del genio “peripatético” – (él y su escuela, el
prestigioso Liceo de Atenas, fueron así bautizados porque el
pensador acostumbraba a enseñar leyendo o charlando
mientras paseaba rodeado de sus alumnos) –, en Física no
fueron precisamente las más acertadas y ajustadamente
precoces... Mientras que con toda justicia se le puede
reverenciar como el Padre de la Lógica, la Sociología, la
Economía Política, la Psicología de la Percepción y la Biología,
elaborando definiciones, métodos y conceptos pasmosamente
adelantados a su tiempo, y aún en gran medida válidos en la
actualidad, así como el gran precursor del Principio de
Economía de Hipótesis y la metodología empírico-deductiva
que determina la Ciencia moderna, su trabajo y conclusiones
en Física y Cosmología fueron mucho menos originales,
certeros y brillantes. El mismo cerebro admirable que diseñó
las Tablas de Verdad Formal de los silogismos, estableció las
bases de la clasificación objetiva de los diferentes sistemas
sociopolítico-económicos fundamentales y un primer esbozo
de su crítica comparativa, amén de los mecanismos cíclicos
que tienden a hacerlos sucederse en la Historia de las
comunidades, quien demostró por vez primera la relación
causal entre las asociaciones libres de ideas y los factores que
condicionan la generación de sensaciones a partir de los
estímulos y, más aún, el mismo investigador portentoso que,
con la paupérrima escasez de medios técnicos instrumentales
de su época, logró una coherente clasificación de los
organismos marinos conocidos por entonces, así como un
estudio asombrosamente correcto de la íntima convergencia
morfología-función en los seres vivos, un prematuro y
sustancialmente exacto esbozo de los principios del desarrollo
embrionario y, apoyándose en todo ello, incluso una
primitiva intuición de la existencia de una Evolución
Adaptativa de las Especies, no-inmutables, se limitó, en
Física, Mecánica y Astronomía a “copiar, pegar y sintetizar” lo
ya supuesto por otros. Su falta de chispa creativa en estas
especialidades se nota mucho, hasta el punto de que sus
obras al respecto no parecen haber salido de la pluma de un
genio de la misma talla. De hecho, en su Sistema Geocentrico
antes formulado, la influencia de los conceptos idealistas y
duales de su maestro Platón son palpables, al suponer una
nítida y abismal diferencia esencial entre la materia terrenal
ordinaria y sus Leyes y las que según él componen y rigen el
Mundo Celestial.

Como es bien sabido, cuando esta rígida, dogmática y estática


visión del Universo tenaz y violentamente impuesta por los
teólogos y clérigos se derrumbó tras la Revolución
Copernicana y el nacimiento de la Ciencia Experimental como
tal, a través de la grandiosa y osada labor de titanes del
pensamiento libre e innovador tales como Galileo, Kepler e
Isaac Newton, el Nuevo Método Científico tomó de Platón y
Pitágoras su estimación por las matemáticas y la geometría
como “lenguaje del Libro de la Naturaleza” – óptimo para
definir hipótesis y proponer modelos de los fenómenos
estudiados en el laboratorio u observados en el medio natural
–, y la convicción de que “todo conocimiento veraz probatorio
y seleccionador de estas hipótesis y modelos teóricos procede
de la percepción sensorial o la medida instrumental de esos
fenómenos, estructuras y procesos”, del Aristotelismo
“reformado” por la Navaja de Ockam y el empirismo inductivo.
Podíamos decir que, en términos globales, “ganó Aristóteles”,
pues se demostró – no sin dura pugna contra los “ortodoxos”
inquisitoriales y “celosos guardianes de la Tradición bendecida
por Dios”..., como desafortunadamente ocurre siempre – que
las Leyes y Principios de la Naturaleza han de ser idénticos en
esta Tierra y en cualquier punto del Cosmos, aniquilando para
siempre la mítica, supersticiosa y “temerosa” idea de que
éstas eran muy diversas en nuestro mundo material y en las
“esferas celestes superiores”. Y también porque se corroboró
de forma indiscutible y demoledora que el único criterio sólido
y objetivo para determinar el nivel de acercamiento a la
Verdad de una hipótesis, postulado o conjunto de ellos era
contrastarlos con la experiencia, obteniendo las leyes y
patrones generales de los fenómenos naturales a partir del
análisis inductivo de los ensayos u observaciones particulares,
como indispensable complemento verificador de los esquemas
teórico matemáticos o lógicos deductivos.

La conclusión final de todo esto es que la combinación de la


“duda metódica” y el matematicismo racionalista de
Descartes, la “Navaja Económica de Occam” y el empirismo
analítico-sintético que configuran el Método Científico desde el
siglo XVII, por más que es el más eficaz, realista y funcional
camino del auténtico Conocimiento Objetivo de la Realidad del
que disponemos, desde la óptica filosófica constituye una
especie de Híbrido Neo-Aristotélico/Platónico, aunque con un
notorio predominio del primero. Lo enormemente irónico y
paradójico de todo ello es que, en el terreno específico de la
Física Cosmológica y la Astronomía, Aristóteles era
“demasiado platónico”, por lo que fue justo en este apartado
donde la Nueva Era Científica más clara y absolutamente
superó y pulverizó su Sistema.

He aquí la clave que justifica esta circunvalación histórico-


filosófica que quizás haya resultado extravagante o incluso
inconveniente a ojos de algunos lectores: Pero era necesaria
para comprender porqué el concepto actual de
“Quintaesencia”, al evocar directamente un componente
básico de la vieja Cosmología Aristotélica, produce hoy por
hoy una considerable “alergia” o rechazo a muchos científicos.

Por si fuera poco, hasta los tiempos de James Clerk Maxwell,


la arcana hipótesis del “peripatético” no fue abandonada del
todo por los físicos, tal era el poder de su inercia, a pesar de
todos los pesares... El propio genio escocés autor de la Teoría
de Campo Electromagnético todavía formuló originalmente su
sistema de Ecuaciones de Campo que unifican las Leyes del
Magnetismo y la Electricidad postulando que las ondas
electromagnéticas transversales se propagaban por el “vacío”
por un proceso análogo al de sus homólogas mecánicas,
siendo el medio transmisor un “fantasmal” y sutil “Éter
Luminífero” cuyas propiedades remitían casi directamente a
las imaginadas por el filósofo griego. El argumento en que se
sostenía tal supuesto poseía gran carga lógica: Si, al igual que
las ondas mecánicas, las radiaciones ondulatorias
electromagnéticas exigían un medio material corpuscular para
propagar sus vibraciones, la velocidad de movimiento del
frente de ondas sería inversamente proporcional a la densidad
de tal medio. Consecuentemente, la velocidad máxima de la
luz c correspondería a su desplazamiento por el “vacío”, en
realidad lleno de un fluido tan desmesuradamente ligero y
elástico que le permitiese alcanzar tan tremenda celeridad.
Este fluido sería el Éter. Entre mediados y finales del siglo XIX,
casi todos los grandes físicos y, particularmente, los
especialistas teóricos y aplicados en Electromagnetismo,
incluyendo a personajes de la envergadura del propio Maxwell,
Lord Kelvin y Nikola Tesla, aceptaban la existencia del Éter.
Hasta que en 1887, los investigadores Albert Abraham
Michelson y Edward Morley abordaron un crucial experimento
destinado a medir la velocidad de la luz en dos direcciones
perpendiculares entre sí y, por ello, con diferente velocidad
lineal relativa al Éter, en un intento de probar la existencia del
Éter y la velocidad de traslación de la Tierra respecto a éste. El
muy célebre Experimento Michelson-Morley, repetido en
sucesivas ocasiones bajo condiciones cuidadosamente
controladas, dio siempre un resultado negativo, demostrando
de manera reiterada que la velocidad de la luz c es una
constante invariante con el movimiento relativo respecto a
cualquier sistema inercial de referencia. Este resultado es
incompatible con la presencia del Éter, y sirvió de base para
generalizar la Transformación de Lorentz sobre la que se
asienta a su vez la Teoría de la Relatividad Especial de
Einstein. Poco después, Heinrich Rudolph Hertz, quien había
conseguido el primer sistema técnico capaz de producir y
detectar ondas electromagnéticas – probando así la Teoría de
Maxwell experimentalmente en 1885 –, reformuló las
Ecuaciones de Maxwell obteniendo sus soluciones como un par
de fases de vectores de campo eléctrico y magnético
perpendiculares entre sí y mutuamente acoplados
propagándose en espacio y el tiempo, sin necesidad alguna de
medio etérico, sin más que imponer la invariante de la
velocidad de las mismas en el vacío como un parámetro
inverso de la raíz cuadrada del producto de permitividades
magnética y electrostática del mismo, probando además en el
laboratorio que éstas en efecto se transmitían exactamente de
este modo en el vacío, según:
c = 1/(µ ο ε ο )1/2

Como había establecido la Teoría de Maxwell y los trabajos


previos de Faraday.

En cualquier otro medio, por muy escasamente magnetizable


y/o polarizable que sea – o, lo que es equivalente, por muy
baja que sea su absorbancia sobre la luz –, el producto de
permitividades aumenta, al haber corpúsculos materiales a
escala molecular, atómica o subatómica, que pueden
interactuar aunque sea mínimamente con la radiación, y por
ello parte de la energía del frente de ondas se transforma o
disipa, perdiendo éste frecuencia oscilatoria y aumentando su
longitud de onda, y por ello velocidad – ya que ν = v/λ –. O
sea, se refracta, siendo el índice n de refracción, igual a v/c,
siempre menor a la unidad. Así se explicaba de una buena vez
porqué, cuando un rayo de luz incidente pasa de un medio
menos denso a otro más denso (por ejemplo, de aire a agua),
el rayo refractado se acerca a la normal de su dirección de
propagación, mientras cualquier onda mecánica, como el
sonido, se comporta justamente al revés, a causa de que, a
superior densidad de las partículas del medio transmisor de las
vibraciones, la onda mecánica viaja con mayor rapidez, siendo
entonces n menor que 1. Y todo ello sin recurrir a hipótesis
artificiosas sobre un impalpable y problemático “Éter
Universal”, jamás detectado a nivel empírico.

No es nada sorprendente, por ende, que encontrándose el


experimento clave que descartó la existencia del Éter o
“Quintaesencia”, por darle su nombre medieval, en los
cimientos mismos de las dos últimas grandes Teorías
“Neoclásicas” o No-Cuánticas de la Nueva Física – la de Campo
Electromagnético y la Relatividad, ambas en plena vigencia
dentro de sus respectivos marcos de referencia –, la mayoría
de los físicos se mostrasen en un principio reluctantes a
aceptar – aunque sea bajo otra forma y a nivel conceptual muy
distinto –, el retorno de un “fluido energético” no bien definido,
o “Quinto Campo de Fuerzas”, empapando cada punto del
espacio-tiempo cual “Energía del Vacío u Oscura”, como ente
físico propio e independiente. Máxime si – por si fuera poco –
el concepto de “Quintaesencia” está empapado de
resonancias “indeseables” a la mentalidad cartesiano-
empirista moderna, al resonar con los ecos más “idealistas-
neoplatónicos” subsistentes en el paradigma aristotélico...

Sin embargo, hay que manifestar con rotunda y firme claridad


que los mismos Principios Fundamentales de la Mecánica
Cuántica – el de Indeterminación de Heisenberg, Dualidad
Onda-Materia de De Broglie y el de Exclusión de Pauli –, así
como múltiples derivados y consecuencias teóricas y aplicadas
de ellos – no carecen tampoco de estos rasgos. Algo parecido
ocurre con la Teoría del Big-Bang, para colmo formulada por
vez primera por el sacerdote católico y eminente astrofísico
belga George Lemaître. Como interesante anécdota, hemos de
recordar que el mismísimo Albert Einstein desconfiaba
profundamente y experimentaba una intensa “repulsión
intelectual” por la interpretación de Copenhague de los
fenómenos microfísicos liderada por Bohr y otros “colosos” –
puntal de la actual Física Cuántica y su Modelo Estándar de
Partículas – ,así como por las propuestas iniciales sobre el
Modelo Cosmológico hoy Estándar de Expansión del Universo a
partir de una Gran Explosión primordial. Y su actitud y
sentimiento de rechazo se hallaba motivada por claros motivos
filosóficos: Sobre la primera espetó con su peculiar y aguda
ironía la famosa frase “Dios no juega a los dados”, y acerca del
segundo no se privó de sentenciar mucho más directo y
desabrido que “la hipótesis del Big-Bang – o cualquier otra
que no fuera su favorita de un Cosmos globalmente
homogéneo, eterno, cuasi-plano o “finito” en cuatro
dimensiones, estático, sin principio ni fin y, por tanto increado
– suponía volver a dejar el problema del Génesis y Destino del
Universo en manos de clérigos y teólogos”... En clara y no muy
amable alusión al padre Lemaître, a quien no obstante alabó
como alumno cuando éste – siendo aún un joven científico, en
1933, no mucho después de emitir su teoría sobre el Gran
Estallido de un “Huevo-Cósmico” o Singularidad Primigenia –,
asistió a unas clases que impartió el Padre de la Relatividad en
la Fundación Universitaria de Bruselas. Interrogado en aquella
ocasión el Maestro judío-alemán por un colega sobre si creía
que sus oyentes habían comprendido bien sus explicaciones,
el insigne sabio respondió con su habitual gracejo entre
travieso, brutalmente sincero y sardónico: “El profesor de
Donder quizás, el canónigo Lemaître sin duda, los demás creo
que no”. Esta misma mezcolanza de virtudes de inestimables
rotundidad, auténtica humildad libre de falsa modestia y
honradez intelectual le llevó años más tarde, cuando las
evidencias a favor de la “peregrina idea del canónigo” ya eran
innegables, a referirse a la introducción de su Constante
Cosmológica Fija como “el mayor error de mi vida”, como ya
se apuntó anteriormente.

Y no digamos nada si nos adentramos en la actualísima


vanguardia de la Teoría de Supercuerdas Unificadas: En ésta,
todos los pares de partículas/antipartículas elementales y sus
“compañeras supersimétricas” – incluyendo la más crucial, la
portadora del Campo de Higgs que confiere la masa a todos
los bosones, empezando por sí mismo – no son más que
“reflejos corpùsculares asociados” a diferentes “modos o
estados de vibración permitidos” en diversas formas de
hipercuerdas en un espacio de diez dimensiones espaciales
más el tiempo... Y las hipercuerdas no dejan de ser
instrumentos matemáticos altamente refinados que
representan todas las interacciones de campos cuánticos (la
gravitación y la Quintaesencia-Energía Oscura del Vacío
incluidas), de modo elegante y unificado. Quien no perciba “un
fuerte aroma “neopitagorino-neoplatónico” en ello es que es
sordo y ciego mental voluntario...

Abandonemos – en consecuencia – prejuicios y cerrazones


conceptuales de añeja herencia histórico-ideológico-filosófica,
por completo ya obsoletas y limitadoras, y analicemos las
posibilidades del modo más abierto y objetivo posible... Es
obvio – según revelan los últimos avances teóricos, resultados
experimentales y observaciones astrofísicas – y parece
corroborarse más que nunca antes que, tanto a la escala de lo
infinitesimalmente pequeño como de lo monstruosamente
grande, así como en la Unificación entre ambos extremos que
conllevan las condiciones del Origen y probable Fin del
Universo en su conjunto, el Cosmos se comporta más
“como un Gran Pensamiento-Idea Platónica condensada
en materia-energía” que como un mecanismo , ya sea
éste organicista-aristotélico o determinista newtoniano. Esto
es ya incuestionable en términos
megamacro/submicroscópicos. La lógica causal lineal, continua
y mecanicista tan grata a Aristóteles, a Newton y al
positivismo empirista en general, tan sólo funciona como
primera aproximación en el marco de lo “medianamente
extenso”, la escala “mesoscópica”, y con todo ello no sin
poderosas y radicales correcciones para estados de energía-
movimiento muy elevados, próximos a la velocidad de la luz
en el vacío o densidades de masa gravitatoria comparables,
como ya se encargó de demostrar la Teoría de la Relatividad
del propio Einstein. Desde inicios del siglo pasado, y cada vez
más plena y aceleradamente en el que ahora vivimos, se ha
gestado en la Física un titánico terremoto de ideas y conceptos
que permite hablar, en cierto modo, de la “Venganza de
Platón” . Por ello, así titulo en parte mi siguiente ensayo,
dedicado a la exposición y profundización en las
consecuencias filosóficas de este trabajo.

Como dejó escrito el agudo erudito, exquisito literato y hondo


pensador argentino Jorge Luis Borges, ahora más que nunca se
hace palpable que, “en el fondo, todo choque entre
nuevos paradigmas en cualquier campo del
Conocimiento humano sigue siendo otro capítulo más
de una infinita y eterna discusión dialéctica entre
Platón y Aristóteles..., el Gran Maestro y su no menos
Gran Discípulo...”.

Y, quizás, si somos afortunados, esté ya maduro el


Magnífico y Revolucionario Momento de sentar las
bases para lograr la Gran Síntesis Complementaria y
Armónica entre ellos, al menos en el campo de la
Física, otra manera de definir la Gran Unificación o
Teoría del Todo...

Y sus subyugantes y trascendentales implicaciones en


el terreno psíquico, lo que este modesto autor se ha
atrevido a llamar “Transpsicofísica”...

Porque, si bien el fundador de la Academia Ateniense se


recobra con inusitado e inesperado vigor de sus últimos
quinientos años de postergación científica, el Nuevo
Paradigma sigue siendo a la vez profundamente afín a su no
menos brillante alumno creador del Liceo en idéntica y dorada
Ciudad-Epicentro de la Sabiduría Clásica... No olvidemos que la
metodología de verificación de hipótesis y modelos teórico-
matemáticos continúa siendo rigurosamente empirista...,
como no puede ser de otro modo para conservar la
imprescindible objetividad. Y, en lo tocante a los objetivos
concretos de este y los tres precedentes ensayos hay que
destacar que la Teoría Psicofísica de las Redes de
Impregnación (causales o retro-causales/precognitivas) no
deja de cumplir, al mismo tiempo y con pulcra exactitud, el
nuclear Principio aristotélico que afirma: “Nada hay en el
entendimiento que no haya impresionado antes los
sentidos”...

Como es palmariamente diáfano, en nada contradice a ello


que el número de sentidos sea superior a cinco..., como
tampoco lo hace que utilicemos potentes microscopios de
efecto túnel, colosales aceleradores de partículas y poderosos
radiotelescopios para “ver, escuchar, observar y medir” lo que
se halla más allá de nuestro pobre y muy limitado equipo
sensorial natural.

Puede – que, por fin, y por vez primera en la Historia conocida


de la Humanidad, sustentándonos en algo más firme que la
pura especulación –, otra Revolución Copernicana más nos
abra el Umbral de una Nueva Era Científica, en la cual
podamos disolver la milenaria Gran Discusión entre el Maestro
Platón y su Primer Discípulo Aristóteles, de modo positivo y
complementario...

Pero, de momento, tengamos estas reflexiones presentes y,


huyendo de todo dogmatismo, intentemos repasar lo poco que
sabemos sobre la Teoría alternativa de la Quintaesencia,
evitando en lo posible dejarnos contaminar por juicios a priori.
Limitémonos a compararla con la opción de la Constante
Cosmológica, tanto en el plano conceptual como, en especial,
en relación a los datos y pruebas experimentales y
observacionales disponibles hasta la fecha.

La Quintaesencia o Quinta Fuerza Fundamental sería un


Campo Cuántico Escalar ligado a la Energía del Vacío: Cada
punto del espacio llevaría – por consiguiente – asociado un
valor definido de Potencial de Vacío cuantizado. Esta clase de
campos son dinámicos, es decir, que pueden variar en cada
coordenada espacio-tiempo.

Se diferencian de los reajustes de la Constante Cosmológica


en que no se obtienen por un razonamiento termodinámico
elemental a partir del simple supuesto de una presión negativa
generada por el Big-Bang en oposición a la fuerza de frenado
gravitatorio, sino que constituyen en realidad una nueva
interacción básica cuantificada de la Naturaleza, que se
postula de intensidad repulsiva de forma directamente
proporcional a la densidad de masa-energía, un auténtico
“Quinto Campo Antigravitacional”, vinculado a la existencia de
la Energía del Vacío por sí misma. Aun cuando en el caso
particular de un campo de Quintaesencia Estacionario (que
sólo varíe localmente por las heterogeneidades en la densidad
de masa y no en el tiempo), el ritmo de estos cambios es tan
pequeño que resultaría muy difícil de diferenciar del obtenido
por el Modelo de la Constante Cosmológica, ambas
magnitudes son sustancial y teóricamente muy diversas entre
sí. Pueden llegar a coincidir numéricamente y formularse con
idénticas unidades dimensionales, pero jamás ser equivalentes
en su significado físico, como ocurre con la masa inerte y la
masa gravitatoria o entre la aceleración de “graves” o caída
libre de los cuerpos en el entorno de una gran masa (estrella,
planeta, satélite...) y la intensidad media g de su campo de
gravedad superficial. Los teóricos de la Quintaesencia
proponen que la Energía Oscura puede convertirse en Masa
Oscura siguiendo la Equivalencia de Einstein cuando la
primera (Energía del Vacío universal y pre-existente) es
bombardeada por partículas bariónicas, productoras mediante
este mecanismo de excitaciones cuánticas en el seno de un
campo escalar dinámico cuantizado similar a los propuestos
para resolver la Ecuación Dirac por el Método de
Perturbaciones en la QFT. Destacamos, por ello, que esta
Teoría asume el planteamiento de Feynman desde el
principio, tratando de aplicarlo a escala cosmológica.
Además, dada la elevada homogeneidad observable del
Universo, para que las anisotropías por agrupamiento
estructural masivo de materia-energía no sean mayores ni
menores de las que son, el Campo de Quintaesencia ha de
presentar una densidad energética promedio muy baja o, lo
que es lo mismo, poseer en general una longitud de onda de
Compton enorme. No se han encontrado evidencias rigurosas
de su existencia, ya que distinguirlo de los efectos de la
expansión sobre la Constante Cosmológica requiere
mediciones ultra-precisas de la variación de la velocidad
expansiva del Cosmos aún fuera del alcance, aunque cada vez
menos, de nuestro más refinado instrumental tecnológico para
las mediciones astrofísicas, porque como ya antes se indicó,
las tasas de modificación de las intensidades del potencial
repulsivo en el espacio en una región de tiempo (o distancia
en años-luz) dada respecto a otra más próxima o más lejana
serían extraordinariamente lentas.

Los campos escalares de esta índole son predichos de manera


natural por la Teoría Cuántica de Campos en el contexto del
Modelo Estándar de Partículas y también en la flamante Teoría
de Supercuerdas y en su “alternativa aspirante a “Teoría del
Todo”, la de Bucles Cuánticos Gravitatorios (LQG), a la que nos
referiremos más tarde. Pero subsiste un problema similar al de
la Constante Cosmológica si buscamos aplicar el modelo a las
fases en extremo primigenias de formación del Universo o
justificar con él la etapa de inflación cósmica del mismo: Al ser
re-normalizados, la teoría determina que estos campos de
potenciales cuantizados deberían adquirir densidades de
masa-energía gigantescas. Otra forma de abordar este dilema
es el denominado “Dilema de la Coincidencia Cósmica”, o sea,
satisfacer el tremendo interrogante que podemos escribir
como “¿Porqué la aceleración cósmica comenzó a actuar
cuando lo hizo?” ; Si se hubiera iniciado antes, sabemos con
seguridad que estructuras masivas como las galaxias nunca se
hubieran podido constituir ni permanecer en todo caso
estables. No obstante, muchas simulaciones matemáticas de
los Campos de Quintaesencia propuestos poseen una
“alucinante” y oportuna propiedad que podíamos explicar –
para entenedernos – como “comportamiento rastreador o de
escáner holográfico”... En estos modelos, la Quintaesencia
presenta una densidad que “sigue la pista” o se acopla de
cerca, pero es inferior a la densidad de energía de la radiación
durante las primeras fases de crecimiento del Cosmos justo
tras la Gran Explosión. Luego, una vez producida la igualdad
entre densidades equivalentes radiación-materia, este hecho
genera el “estímulo disparador” de la intensidad de campo de
la Energía Oscura, como si las oscilaciones cuánticas de las
fluctuaciones de vacío “se congelaran” al descender la
temperatura promedio de fondo del Universo, amplificándose
por interferencia positiva y “congelándose”, hasta aumentar
más y más incrementando en proporción la tasa de
aceleración expansiva, terminando por dominar el freno
gravitatorio de la masa oscura y la materia bariónica ordinaria
y dominar la Evolución Final de la métrica del Universo. Ello
solo es compatible con una baja escala de densidad para el
Campo escalar ligado a la Quinta Fuerza, resolviendo las
incongruencias en tiempos primordiales antes señaladas y el
problema de las densidades disparatadamente grandes para el
Potencial de Vacío. En cuanto al remoto futuro, aparecen
versiones para las formulaciones del Campo Oscuro de
Quintaesencia en que su densidad de energía aumenta
directamente en el tiempo desde el principio, a partir de un
ínfimo valor primitivo. En estos, la Quintaesencia es bautizada
por los físicos-matemáticos con el curioso nombre de
“Esencia-K” (acrónimo de “Quintaesencia Cinética” ). Este
campo exhibe una modalidad cuantizada no-convencional de
energía cinética de signo opuesto a la atracción gravitatoria,
también llamada “Energía Fantasma”. Puesto que dicho
potencial escalar, de alguna manera, se encuentra relacionado
con el propio curso del tiempo-dilatación espacial del Universo
y, equivalentemente, con la continua acumulación positiva de
desorden-entropía – es decir, deriva de la naturaleza misma de
nuestra Causalidad o Flecha Temporal – se autoimpulsa a sí
mismo sin cesar, acelerando sin parar exponencialmente la
“carrera expansiva” del Cosmos, hasta provocar un “Big Rip” o
“desgarramiento” inevitable, Otra idea desarrollada en las
pizarras, teclados y monitores de los teóricos sugiere que el
signo del Potencial de Quintaesencia podría ser variable,
negativo o repelente desde la “niñez” del Universo hasta hoy
mismo y mucho después, para más tarde alcanzar un
“mínimo” o “máximo repulsivo” acelerador e ir disipándose o
disminuyendo a continuación muy lentamente..., o incluso
anularse y tornarse positivo o atractivo, sumándose dentro de
docenas de miles de millones de años a la gravitación y
precipitando al Cosmos a un “encogimiento/calentamiento”
desbocado hasta sumirlo en una Gran Singularidad o Big-
Crunch Terminal. Esta sería la versión “Quintaesencial” del
Modelo Cíclico del Universo, cuyas implicaciones se
profundizarán asimismo después.

Como se afirmó antes, tan sólo mediciones ultrafinas de la


aceleración de expansión del Universo podrán discernir de
forma precisa y absoluta la realidad entre estos escenarios
alternativos, si bien – tal y como se puntualizará en el segundo
apartado posterior de esta Sección – hay ya potentes indicios y
pruebas indirectas de que el Cosmos en su conjunto es casi-
plano y la Constante del Campo de Quintaesencia ha de ser –
en principio, menor que cero y variable en torno a un valor
muy acotado, más o menos parecido al asignado por análogos
razonamientos a la Constante Cosmológica, por lo que tanto
el Big-Crunch como el Big-Rip quedarían excluidos del
Apocalipsis Total Final.

FORMULACIÓN GENERAL DEL CAMPO DE


QUINTAESENCIA. ECUACIÓN DE ESTADO DE LA ENERGÍA
OSCURA/QUINTASENCIA. COMPARACIÓN CON LA
OBTENIDA POR LA APROXIMACIÓN DE LA CONSTANTE
COSMOLÓGICA

En los modelos teóricos, el Campo Escalar de Quintaesencia se


postula como un campo de presiones negativas o tracciones
repulsivas asociado a cada punto coordenado del espacio-
tiempo, siendo su magnitud P directamente proporcional a la
densidad de energía de dicho punto. Si denotamos por ρ a la
densidad equivalente de masa, es evidente que podemos
entonces establecer que:

P = ω ρ c2

La Ecuación de Estado del Campo de Energía


Oscura/Quintaesencia vendrá determinada, por ende por:

P – ω ρ c2 = 0

Donde ω es el “Coeficiente de Interacción” del Campo de


Quintaesencia o “Quinta Fuerza Fundamental”.

Si contrastamos esta ecuación con su homóloga según la


Constante Cosmológica:

P + ρ c2 = 0

Salta a la vista que la convergencia entre ambas


aproximaciones teóricas depende en exclusiva de los posibles
valores aceptables para ω .

Si asignamos a ω un valor negativo (repulsivo) muy cercano a


1, la Quintaesencia equivale a una Constante Cosmológica no-
nula estacionaria y ambos modelos convergen
cuantitativamente, aun cuando no en concepto, como ya
comentamos; Para ω < – 1/3 , la aceleración expansiva o
predominio del Efecto de Campo Repulsivo queda garantizado.
Si toma cifras menores que – 1, (menores a cero con más alto
valor absoluto), éste se vuelve tan poderoso que jamás se
hubieran formado galaxias ni cúmulos; Por ello, para los
modelos teóricos cosmológicamente aceptables se estima que
– 1 < ω < – 1/3. De manera teórica general, este factor
puede modificarse a lo largo de escalas de tiempo
cosmológicas. Por eso muchos especialistas prefieren utilizar
el término “Kinescencia” para referirse a los supuestos
campos cuánticos variables de Energía del Vacío que quizás
jugaron un papel decisivo en los periodos primigenios del
Universo, tales como la Fase Inflacionaria, o alcancen a
desempeñarlo en escenarios tremendamente remotos de su
futuro, reservando “Quintaesencia” para el primer caso,
que definiría el estado actual, y el imperante durante toda la
vastísima duración de la “madurez” o “Era de la Materia”
dentro de la Evolución Cósmica. Análogamente, si ω > – 1/3 ,
tampoco se considera “Quintaesencia” – pues no asegura una
aceleración neta en la expansión del Universo – y, tal cual ya
reseñamos, al adoptar signo positivo (ω > 0, carácter
atractivo), podría empujar a una evolución cósmica final de
tipo Gran Contracción/Big-Crunch extremadamente
problemática a nivel teórico . En este intervalo se hallaría, por
cierto, ω = 0, donde la Ecuación de Estado se simplifica a P =
0, es decir, un modelo de Universo carente de Energía Oscura
o con Energía del Vacío Nula. Este es el escenario
contemplado por los científicos antes de que existiesen
evidencias indirectas de la existencia de un incremento
efectivo en la velocidad de expansión, en el cual si la fuerza de
tracción de la Gran Explosión superase siempre al frenado de
la densidad de masa gravitatoria el Cosmos proseguiría su
dilatación de modo indefinido, pero cada vez más y más
despacio hasta “casi” detenerse asintóticamente en un Radio
Máximo de Einstein, o bien si la gravedad fuera suficiente lo
haría detenerse e iniciar una lenta Contracción hasta un Big-
Crunch o Gran Colpaso final, pero excluyendo las posibilidades
extremas de “Big Rip” o “Big Bounce (“Rebote” cíclico), como
estudiaremos a continuación con mayor extensión.

La aplicación del Principio de Cuantización de Planck al Campo


de Quintaesencia (lo que se conoce como Nueva
Quintaesencia”) nos lleva a una interesante relación
matemática en la cual la Cantidad de Energía dEo contenida
en una unidad elemental de volumen dV del espacio-tiempo
“Vacío” viene dada por la expresión:

dΕ ο = h n dV

Simbolizando h la Constante de Planck y n el nº de unidades-


cuantos portadoras o “fuentes” de “Quintaesencia” presentes
por unidad de tiempo en dicho volumen definido. Suponiendo
que n es un valor promedio constante en el tiempo/volumen
expansivo durante la actual “Fase Evolutiva” del Universo o, lo
que es lo mismo, que éste permanece en términos medios
globales dentro de los límites de homogeneidad del Modelo
Estándar en esta etapa, sin más que integrar elementalmente:

Eo / V = h n

Es obvio que la Densidad Energética Promedio del Vacío


σ = Eo / V , luego:

σ =hn

Simple expresión que expresa la Cuantización del Campo


Escalar de Energía Oscura, determinando que su intensidad o
densidad de potencial como un nº entero de veces equivalente
a la Constante Fundamental de Planck.

Si llevamos este resultado a la Ecuación de Estado


correspondiente, y puesto que P = σ o, obtenemos la
Ecuación de Estado del Campo de Nueva
Quintaesencia/Energía Oscura en forma Cuantizada y
versión “Homogénea” o de Valores Promedio:

h n – ω ρ c2 = 0

Dividiendo por la Constante de Planck:

n – (ω c2/h) ρ = 0

Podemos definir como “Factor de Aceleración Cósmica


Cuantizada” (kα ) al conjunto de factores entre paréntesis, de
manera que:

n – kα ρ = 0

Sería la forma compacta de dicha Ecuación de Estado.

Observemos que, como consecuencia de ella, sin más que


despejar adecuadamente:

n = kα ρ

Tomando ahora los valores para las constantes físicas


fundamentales implicadas (SI):
h = Cte. de Cuantización de Planck = 6.626 x 10-34 J s

c = Cte. de Velocidad de la Luz en el Vacío = 3 x 108 m/s

Considerando, además, que, según la mayor parte de los


estudios teóricos realizados, el grado de aceleración expansiva
ocasionado por un Campo Cuántico de Energía Oscura tipo
“Quintaesencia” compatible con los desarrollos matemáticos y
las observaciones y datos astrofísicos disponibles, sería algo
menor al generado por el modelo de la Constante
Cosmológica, aproximaremos – como de hecho formulan tales
expertos – su valor como el más “moderado” posible, al menos
en esta “Era Presente” de la Evolución del Universo:

ω = Coeficiente de Interacción Repulsiva del Campo de


Quintaesencia = – 1/3

Sustituyendo y operando, conseguimos una estimación para el


Factor de Aceleración Cósmica:

kα = ω c2/h = – 1/3 (3 x 108)2/6.626 x 10-34 = – 4.528 x 1049


Kg-1 s-1 .

Esto implica que el conjunto del Cosmos se expande con una


potencia de aceleración media equivalente al efecto
gravitatorio, cambiado de signo (–), esto es, en sentido
repulsivo, de 4.528 cientos de billones de billones de billones
(hispanos) de toneladas métricas de masa cada segundo.
Puede parecer una cantidad monstruosa, casi inconcebible,
pero si la dividimos por el volumen total estimado del Universo
sobre el que se reparte espacio-temporalmente, tan colosal
ilusión se desvanece: Si tenemos en cuenta un Radio de
Einstein-Schwarzild Actual Observable para el mismo de unos
46500 millones de años-luz, siguiendo los cálculos astrofísicos
más recientes, su Volumen Esférico Equivalente sería:

RES = 3 x 108 x 46.5 x 109 x 365 x 24 x 60 x 60 m = 4.40 1026


m

VES = 4/3 π RES3 = 3.57 x 1080 m3

Así, la “Densidad Promedio de Potencia” del Factor de


Aceleración Repulsiva de la Quintaesencia podría
calcularse como:

ρ α = kα /VES = 1.268 x 10-31 m3/Kg s

Lo que significa que el Universo se está expandiendo


actualmente con una aceleración antigravitatoria del orden de
un incremento de una milmillonésima de billonésimas
(hispanas) de picómetros cúbicos de volumen por segundo y
Kilogramo de masa. Ello supone – sin más que realizar unos
cálculos básicos – puesto que su masa observable estimada es
aproximadamente de 3.53 x 1054 Kg – que está aumentando
de tamaño a razón de unos 4.48 x 1023 m3 por segundo, o casi
8 pársecs cúbicos cada minuto. Si comparamos esta cifra – por
mucho que pueda parecernos impresionante – con su talla y
edad presente, implica que, aun tratándose de un aumento
colosal a nuestra escala, es pequeño frente al que ya se ha
producido en un periodo mucho menor (más o menos unos
13700 millones de años hasta el presente desde el Big-Bang).
Esto corrobora la necesidad de la vigencia de Campos
Cuánticos Repulsivos con Coeficientes Variables mayores a 1/3
en valor absoluto en etapas primordiales o, lo que es lo
mismo, la existencia ya evidenciada por otros caminos de una
Fase Inflacionaria temprana en la Expansión del Cosmos.

Notemos que es la misma conclusión esencial a la que llegaba


la Teoría de la Constante Cosmológica, pero por otro método o
planteamiento.

Una vez aproximado el Factor de Aceleración, es factible hacer


lo mismo con el número o índice n que estima la densidad
espacio-temporal de unidades de “fuentes” escalares del
Campo de Quintaesencia, según ya formulamos:

n = kα ρ

Volviendo a tomar como referencia un modelo de Universo


casi-plano, la densidad promedio de masa gravitatoria ρ
(incluyendo la materia oscura, por supuesto), ha de ser
cercana a su valor teórico dado por la Métrica FLRW del
Modelo Estándar o de orden levemente inferior (en un factor
máximo de dos exponentes decimales), o bien, consultando de
nuevo sus estimaciones más recientes:

ρ = 9.9 x 10-27 Kg/m3


Por consiguiente:

n = – 4.528 x 1049 x 9.9 x 10-27 = – 4.482 x 1023


unidades/m3 s

Si nos fijamos esta cifra es del orden de 1 mol o Nº de


Avogadro de “cuantos” portadores o fuentes escalares del
potencial de la Quinta Fuerza por unidad de espacio-tiempo en
el SI: De hecho 1 mol equivale exactamente a 6.023 x 10 23. La
desviación cae de sobra dentro del margen de error debido a
las imprecisiones sobre nuestras medidas de la densidad
promedio del Universo. Postulemos, por ende, con fines
simplificadores, que el enigmático “fluido neo-etérico” de
la Quintaesencia-Energía que llena todo el “vacío” del
Cosmos posee un equivalente en densidad de masa
espacial de 1 mol/m3. Si ahora contrastamos este resultado
con la densidad estándar de un gas ideal a 273 K (0 ºC) de
temperatura y 1 atm de presión (22.4 dm3 por mol ó 44.643
mol/m3), llegamos a la sugestiva conclusión de que la Energía
Oscura es alrededor de 45 veces más sutil o ligera que
un gas bajo condiciones ordinarias. Tal estimación es
coherente con la exigencia fundamental de la hipótesis inicial
de la Teoría, que imponía una densidad muy baja y en
consecuencia una longitud de onda de Compton
tremendamente elevada.

Asumiendo la reflexión mayoritaria de los científicos sobre que


el Campo de Quintaesencia ha de mantener – al menos en la
“Era Actual Cósmica” de Predominio de la Materia – su
intensidad específica de interacción repulsiva más “modesta”
– dicho de otro modo – asignando ω = – 1/3 , la Ecuación de
Estado de la Quintaesencia/Energía Oscura quedaría
como sigue:

P + (c2/3) ρ =0

3) Idoneidad y Límites de Validez de los dos modelos


teóricos en función de los datos y pruebas
observacionales y empíricas disponibles

Aquí se aprecia de forma todavía más clara que el impulso de


aceleración antigravitacional expansiva de la Energía Oscura –
eligiendo cualquier modelo razonable de Quintaesencia – es un
máximo de tres veces más débil o menos que si aceptamos los
de la Constante Cosmológica. Hoy por hoy, nuestra
sensibilidad instrumental y rango de observaciones no
permiten discriminar entre ambas posibilidades, como
tampoco bastan para determinar con total precisión la
densidad media de materia del Universo, aunque en este
último caso sí podamos asegurar que se acerca mucho al valor
crítico que estructura un continuo espacio-tiempo casi plano.
Como hemos visto por medio del resumen precedente de
ambas teorías, los Campos Cuánticos de Quintaesencia
permiten explicar conceptualmente mejor las simulaciones de
los estadios primigenios del Cosmos y las “huellas” empíricas
que conocemos de ellos, tales como los fuertes datos a favor
de una etapa de crecimiento exponencial o “inflacionario”, o la
interpretación de los actuales valores aproximados de la tasa
de aceleración como una “congelación” de las fluctuaciones
amplificadas de vacío, propias de los Campos Cuantizados
Escalares. Pero las pruebas constatadas hasta ahora por la
astrofísica y la física de partículas también pueden justificarse
con similar grado de coherencia y de puntos aún dudosos en
términos de la Constante Cosmológica, y ésta tiene a su favor
que aparece como un parámetro natural en la Métrica
Estándar cuatridimensional del Universo a partir de las
Ecuaciones de Campo Gravitatorio de Einstein y el
“sacrosanto” Principio de Economía.

Lo más intrigante y a la vez significativo es que los grupos de


resultados que inclinan la balanza hacia la Teoría de la
Quintaesencia son los más precisos y novedosos, lo que ha
hecho en el primer decenio del siglo XXI que – venciendo las
renuencias iniciales –, cada vez mayor número de físicos y
cosmólogos la consideren como la mejor aproximación
conseguida hasta la fecha para explicar nuestros actuales
conocimientos sobre la estructura a gran escala, origen y
evolución probable del Universo.

Cuando a principios de los 2000, en la primera y naciente


Aurora del Nuevo Milenio, los astrofísicos Robert R. Caldwell,
Rahul Dave y Paul J. Steinhardt – todos ellos entonces en la
Universidad de Pennsylvania – elaboraron el moderno
concepto de “Quintaesencia” como un campo cuántico
variable dotado de repulsión gravitatoria, muchos cosmólogos
encontraron fascinante su principal “ventaja” sobre la más
conservadora Teoría de la Constante Cosmológica: Su alto
dinamismo; La Energía del Vacío en esta última es un factor
por completo inerte, en principio, manteniendo siempre una
misma densidad. Consecuentemente, para justificar la
cantidad actual de energía oscura requerida para sostener la
estructura a gran escala presente en el Universo y las
estimaciones más recientes de su aceleración expansiva, el
valor de la Constante Cosmológica ha de haber sido “ajustado”
con gran precisión desde el nacimiento del Universo, idea que
posee un peculiar “halo finalista y místico” que desagrada a
múltiples científicos, empezando por el “progenitor” de la
criatura, Albert Einstein. Por el contrario, el Campo de
Quintaesencia, por definición, interactúa con la masa-energía
evolucionando en el tiempo, por lo cual bien podría haber
cambiado a lo largo de los Eones de forma natural y reactiva,
hasta alcanzar su intensidad de interacción hoy vigente. Así,
este valor de potencia repulsiva no es excesivo – lo que
impediría la formación de cúmulos, galaxias y estrellas – ni
demasiado pequeño – de manera que su efecto persistiría
todavía, generando una tasa de aceleración positiva pero
discreta sobre todo el continuo métrico espacio-temporal.
Como escriben el propio Steinhardt y el profesor Jeremiah P.
Ostriker, un relevante astrofísico teórico de la Universidad de
Princeton, en un interesante y clarificador artículo conjunto,
“La distinción entre ambas opciones reviste interés máximo.
Los físicos de partículas recurrieron a los aceleradores de
altas energías para descubrir nuevas formas de energía y
materia. Ahora, el propio cosmos nos revela una clase de
energía sin precedentes, sutilmente dispersa; de tan débil
interacción, que escapa a la capacidad detectora de los
aceleradores. Para desarrollar una teoría fundamental de la
naturaleza resulta imperioso establecer si esta energía es
inerte o dinámica. Los físicos de partículas se han percatado
de que deben estar pendientes de los avances en el cielo, no
menos que de los progresos en los aceleradores”.

“La investigación de la energía oscura se ha ido consolidando


paso a paso a lo largo de los últimos diez años. El primero
se dio con la elaboración del censo de toda la materia
contenida en las galaxias y en los cúmulos galácticos; se
emplearon técnicas ópticas, de rayos X y de radio. Se
determinó que la masa total almacenada en los elementos
químicos y en la materia oscura da cuenta sólo de un tercio
aproximadamente de la cantidad global que la mayoría de
los teóricos predicen, la llamada densidad crítica. Muchos
cosmólogos se acogieron a ese resultado para poner en tela
de juicio los postulados teóricos. Estaríamos viviendo en un
universo en permanente expansión, cuyo espacio sería curvo
hiperbólico, como la salida de una campana.

Pero semejante interpretación quedó descartada tras las


mediciones de manchas calientes y frías de la radiación del
fondo de microondas, cuya distribución demuestra que el
espacio es plano y que la densidad total de energía es igual a
la densidad crítica. Si engarzamos las dos observaciones y
recurrimos a una aritmética simple, advertiremos la necesidad
de una componente energética adicional que dé cuenta de
los dos tercios de la densidad de energía perdida.

Cualquiera que sea su naturaleza, la nueva componente


habrá de ser oscura, ni absorberá ni emitirá luz, pues si lo
hiciera se habría detectado ya. En eso se asemeja a la
materia oscura. Pero la nueva componente -llamada energía
oscura- difiere de la materia oscura en un aspecto crucial:
debe ser gravitatoriamente repulsiva, pues de lo contrario la
energía oscura habría sido arrastrada hacia las galaxias y los
cúmulos, donde hubiera afectado al movimiento de la
materia visible. No se ve rastro de tal influencia. No sólo eso.
La repulsión gravitatoria resuelve la "crisis de edad" que
padeció la cosmología en los años noventa. Si partimos de
las medidas actuales de la velocidad de expansión y se
supone que ésta se ha ido frenando, la edad del universo se
cifra en menos de 12.000 millones de años. Pero existen
pruebas que apuntan a que algunas estrellas de nuestra
galaxia tienen 15.000 millones de años. Al provocar la
aceleración de ritmo de expansión del universo, la repulsión
determina que la edad estimada del cosmos coincida con la
edad observada de los objetos celestes.

El punto flaco potencial de la argumentación residía en que la


repulsión gravitatoria acelerase la expansión, fenómeno que
aún no se había observado. Pero en 1998 se dio un paso
firme. Dos grupos independientes tomaron medidas de
supernovas muy distantes y descubrieron un cambio en el
ritmo de expansión”.

Ambos grupos concluyeron que el universo se aceleraba y


que lo hacía con el ritmo predicho por la teoría.
Todas estas observaciones reducen lo esencial a tres
números: la densidad promedio de la materia (la común y la
oscura), la densidad promedio de la energía oscura y la
curvatura del espacio. De acuerdo con las ecuaciones de
Einstein, las tres cantidades se suman en la densidad
crítica. Las posibles combinaciones de los tres números se
representan mediante un sencillo diagrama triangular. Los
tres conjuntos de observaciones -el censo de la materia, el
fondo cósmico de microondas y las supernovas- se
corresponden con tiras del interior del triángulo. Las tres tiras
se superponen en la misma posición, lo que es, sin duda, una
prueba de la energía oscura”.

III.8.2

Problemas Fundamentales de la Nueva “Cosmología


Cuántica”: Amanecer de una Nueva Física más allá del
Modelo Estándar

III.8.2.1

Periodo Inflacionario

Aún no sabemos a cuál temperatura – y por ello tiempo


cósmico exacto – se produjo el “disparo” exponencial en el
ritmo de expansión del Universo-Bebé, excepto como mera
aproximación teórica. Pero, en todo caso, subyace una
poderosa necesidad lógica para asegurar que tal evento
aconteció... Porque sin él las características sustanciales
que definen el estado y macro-estructura a gran escala de
nuestro Universo se mostrarían incompatibles con su
Génesis mediante el Big-Bang y el modelo métrico FLRW,
sustentados a su vez por bases empíricas tan sólidas como
el análisis de la radiación de fondo de microondas y las
incontestables pruebas a favor de la Teoría General de la
Relatividad, entre otras. Esto es así dado que, a causa del
fortísimo, vertiginosamente veloz y “precoz” estirón
“acelerado” dilatador del espacio en su conjunto que
determina este paso en la Evolución Cósmica, el Universo
fue “alisado” a tres dimensiones espaciales de curvatura
casi exactamente plana, “replegando” o “retorciendo” las
posibles restantes dimensiones adicionales que exigen los
Modelos de Unificación como la Teoría M Unificada de
Supercuerdas hasta tallas ultra-subatómicas. Además, tal
dilatación brusca, acelerada, breve e isótropa (idéntica en
esas tres direcciones espaciales), garantizó la
homogeneidad esencial del Universo observada y coherente
con el Principio Cosmológico. Ello es el fundamento de la
posibilidad de formación posterior de sus estructuras a gran
escala – desde un macro-cúmulo a una persona o cualquier
otro ser vivo –, derivadas evolutivas finales todas ellas de
un espectro primordial de fluctuaciones de casi-invariantes
en escala. De forma similar, se justificaría el
establecimiento del entorno de valores vigentes de
“tamaño” para la Constante Cosmológica/Intensidad de
Interacción de Quintaesencia, “congelados” en su
“limitada” horquilla de cifras actualmente “gobernantes”
de la Expansión del Universo por el rapidísimo y fugaz
descenso exponencial de presión-temperatura a partir de
sus amplias y velocísimas oscilaciones cuánticas iniciales a
alta frecuencia. Como consecuencia de este trascendental
Cambio de Fase, parte de la energía de los fotones se
transformó en quarks virtuales e hiperones.

Los quarks son las partículas elementales cuya combinación


entre varias de sus diversas especies produce partículas
estables pesadas tales como protones y neutrones. Son –
por consiguiente – junto a los leptones, los componentes
básicos de la materia ordinaria. Se trata de las únicas
partículas subatómicas capaces de interactuar con los
cuatro Campos Elementales “clásicos” de la Naturaleza:
gravedad, electromagnetismo, nuclear débil y nuclear
fuerte. Su masa media y tamaño es del orden de los
gluones, ya que ejercen una elevada fuerza de cohesión
entre ellos mismos y sus agregados estables (así, la
atracción protón-protón, protón-neutrón y neutrón-neutrón
que determina el Campo Nuclear Fuerte, capaz de sostener
la mayor parte de los núcleos atómicos estables a pesar de
la incesante repulsión interna entre protones de cargas
eléctricas positivas). Los quarks poseen todos spín (+,-)½,
por lo cual son también fermiones. En principio, existen seis
tipos de quarks, que reciben nombres un tanto
extravagantes, alusivos a su propiedad cromodinámica
cuántica transferible al convertirse unas especies en otras a
través de los tránsitos controlados por la interacción débil,
el denominado “sabor”, del que ya hablamos algo páginas
atrás: u (“up”, “arriba”), d (“down”, “abajo”), c (“charm”,
encantado), s (“strange”, “extraño”), t (“top”, “cima”) y b
(“bottom/beauty”, “fondo/belleza”). La propiedad de
“sabor” de los dos primeros (u, d) es el “isoespín débil”, de
valor (+½, -½) respectivamente , lo que permite su libre
interconversión por medio del intercambio de bosones W y
Z. Los quarks con sabores de signos y valores idénticos no
pueden transformarse mutuamente de esta forma. Sólo si
presentan igual valor y signos opuestos. Estas dos clases de
quarks – u (“up”) y d (“down”), cuya “propiedad de sabor”
es el isoespín débil – son los únicos estables en la
Naturaleza. Los restantes tipos, (s, c, b, t), tienen
propiedades de sabor que se denotan de manera idéntica a
sus nombres – por ejemplo, “extrañeza” para los quarks “s”
–, pero tampoco pueden interconvertirse si no poseen “nºs
cuánticos de sabor” iguales y de signos contrarios o
“simétricos”: Esto es, la conversión sgc
(“extrañogencantado”) es posible, por concretar un caso,
pues el “nº de extrañeza” es -1 y el “nº de encanto” +1. Sin
embargo, una transformación “extrañogfondo/bello” o
viceversa está “prohibida”, puesto que los “nºs de
extrañeza” y de “fondura/belleza” son ambos iguales a -1.
Por cierto, observen que los términos arbitarios homónimos para
identificar la propiedad y el nº cuántico de “sabor” de los quarks
“b” son , alternativamente, tales que equiparan “bello” a “fondo”...
Teniendo en cuenta que hay una traducción más vulgar en inglés
para “bottom” (=“trasero”), podemos comprobar que los teóricos
Murray Gell-Mann, Kazuhiko Nishijima y George Zweig, autores en
1964 de la Cromodinámica Cuántica básica de los quarks, cuya
detección y medición de propiedades fue corroborada
posteriormente por los experimentadores del SLAC (Acelerador
Lineal de Stanford) entre 1968 y 1970 – como tantos otros físicos de
alto nivel – conservan una buena dosis de humor salaz y
“políticamente incorrecto”... Demos gracias por ello al “Dios” del
Big-Bang, o “Dios de Spinoza”, como diría el Viejo Maestro Albert
Einstein. Hemos afirmado que los quarks de tipo u y d son los
únicos estables, y es cierto: Los otros cuatro decayeron
rápidamente nada más formarse durante la etapa
inflacionaria primordial del Universo, del mismo modo que
sus agregados más pesados, los hiperones. Conocemos sus
características y Reglas de Selección Cuánticas para su
interconversión débil y combinación fuerte tan sólo
mediante los ensayos de alta energía en los aceleradores de
partículas. Por eso los llamamos “quarks virtuales”. La
Regla Selectora concerniente a la carga eléctrica es
extremadamente simple: Como las cargas de los quarks son
siempre fraccionarias (-1/3 ó +2/3), sus partículas
compuestas (mesones y bariones), poseen una carga entera
o neutra. De esta forma, por citar algunas combinaciones
específicas, la agregación de dos quarks “down” y uno “up”
produce un neutrón, ya que cada quark d aporta -1/3 de
carga eléctrica y el quark u +2/3, y la de dos quarks “up” y
uno “down” un protón de carga +1; En lo tocante a la Regla
de Selección para la “carga de color” – o, sencillamente,
“color” que gobierna la Interacción Fuerte – hemos de
considerar en primer lugar que los quarks son fermiones, y,
debido a ello, han de cumplir el Principio de Exclusión de
Pauli. Éste obligaría a que los tres quarks de cualquier
composición bariónica se hallasen en una combinación
antisimétrica. No obstante, algunos bariones (fermiónicos) –
y, en general, hadrones, incluyendo a los mesones
(bosónicos) – muestran una composición de spines
paralelos, lo que supone que debe existir otro número
cuántico interno para poder diferenciar sus estados como
antisimétricos y seguir pese a todo cumpliendo el Principio
de Pauli: Tal propiedad cuántica es es la “carga de color” o
“color”, propuesta por primera vez en los trabajos del físico
Óscar W. Greenberg poco después del desarrollo teórico de
los quarks en 1964, estableciéndose así los cimientos de la
actual Cromodinámica Cuántica, herramienta esencial para
el Modelo Estándar de Partículas. Cada “estado de color”
viene determinado por tres valores o “colores”,
denominados convencionalmente “rojo”, “verde” y “azul”.
Como es obvio, se trata de una jerga nemotécnica
arbitraria, pues nada tiene que ver tan exótica
característica cuántica de los quarks con el “color” real en
su sentido electromagnético. Un quark dado puede
encontrarse en cualquiera de los tres estados y, por ello,
aun cuando posea idéntica carga, spin y “sabor” a otro de la
combinación hadrónica, representar un estado cuántico
diferente o asimétrico, satisfaciendo a la postre el Principio
de Pauli. Por ello se acostumbra a decir que hay 18
“subtipos o subestados de quarks”, los 6 “sabores” ya
indicados, cada uno de ellos en tres “subestados” en su
“estructura fina de color”. Y por eso, cada hadrón ha de
equivaler a una unión de tres quarks, lo que se ha bautizado
como “Regla de Confinamiento de Color”. Al igual que
ocurre con la carga eléctrica, la “carga de color” es opuesta
en cada antipartícula de cada tipo de quark, o “antiquark”;
Los diferentes antiquarks de antimateria se simbolizan con
la misma letra que sus partículas gemelas de materia, pero
colocando una barra sobre ella, y se leen anteponiendo el
prefijo “anti” al nombre de éstas (por ejemplo, “t _ =
anticima”), excepto los antiquarks de “extraño” y
“encanto”, que reciben los nombres de “común” y “odio”,
respectivamente. En consecuencia, un antiquark puede
exhibir tres “colores” diversos de signo opuesto a su quark
gemelo, que se tildan como “antirrojo o cian”, “antiverde o
magenta” y “antiazul o amarillo”. Cada antihadrón de
antimateria se constituiría por tanto por la misma
combinación exacta equivalente en antiquarks que su
hadrón especular de materia, (1 antiprotón = 2 up _ + 1 d _ ;
1 antineutrón = 2 d _ + 1 up _ , etc). Por otro lado, cada gluón
o bosón de la fuerza nuclear fuerte no es más que un
compuesto formado por un par color/anticolor, como
rojo/antiverde, azul/antirrojo..., y así sucesivamente.

La inestabilidad propia de los quarks “virtuales” s,t,c y b los


hizo desaparecer precipitadamente del escenario de la
Evolución Cósmica, abriendo paso a su siguiente “escalón”
dentro de esta Edad Primitiva.

III.8.2.2

Bariogénesis

El último acto del “Eón Muy Primigenio” de nuestro


Universo estuvo protagonizado por la formación de las
partículas bariónicas diferenciadas a partir de sus
componentes mínimos, los quarks. Tanto esta etapa como la
justamente precedente, al empezar a constituirse dichos
quarks estables y los leptones – o sea, las partículas
elementales fermiónicas con spín (+-)1/2 y carentes de
carga de color, y por ello insensibles a la interacción fuerte,
como el electrón, el muón, el tau o tauón y los tres tipos de
neutrinos asociados a cada uno de ellos – presupone en
teoría que, al mismo tiempo, debieron formarse todas y
cada una de sus antipartículas en cantidad muy
aproximadamente igual. Y hay una excelente razón para que
esto fuera así: Estamos más que razonablemente seguros
de que la fase de Inflación Cósmica fue un hecho cierto,
porque se halla bien corroborado por las mediciones más
exactas del fondo cósmico de microondas, al ser la única
explicación consistente de porqué las variaciones de
temperatura del mismo son tal y como las registradas, muy
pequeñas pero no-nulas (sobre el 0.001%), pues
fluctuaciones cuánticas de ese orden surgen de modo
natural al suponer un modelo de expansión exponencial o
inflacionaria. Pero, precisamente por eso también, si antes
de dicho periodo hubiese existido un desequilibrio entre el
número de bariones y antibariones, éste tendría que haber
sido monstruoso para “sobrevivir” en su nivel actual tras el
colosal “alisado cósmico”..., ¡del orden de 1069!, hipótesis
palmariamente grotesca, ilógica y “poco elegante”. Pero,
en tal caso, si las cantidades primitivas se encontraban
igualadas, la inmediata y subsiguiente aniquilación entre
cada par equivalente hubiera consumido el Universo
emergente en una gigantesca explosión de energía o
radiación gamma pura, destruyendo todo resto de la
incipiente materia para toda la Eternidad, de manera
irreversible. Hoy por hoy nuestro Cosmos no sería más que
una gigantesca y aburrida sopa de fotones. Como es
patente que tal cosa no ocurrió, ya que estamos aquí y
ahora preguntándonos sobre ello, se hace imprescindible
encontrar uno o varios mecanismos capaces de justificar el
tremendo exceso en el número de partículas sobre el de
antipartículas en estos estados primordiales del Cosmos.
Tal cosa, en un contexto de Simetría CPT como el ya
esbozado para el régimen entre los pares elementales de
materia/antimateria, obliga a admitir una Violación CP o de
Carga-Paridad, pero entonces los principios cuánticos
imponen simultáneamente una Violación T ligada a una
inversión temporal masiva, aceptable siempre que, para
cada pareja partícula/antipartícula implicada, se produjese
durante un lapso muy pequeño o “virtual” de tiempo, por
debajo de los límites determinados por el Principio de
Incertidumbre.

El resalte inclinado de los últimos párrafos procede para indicar que


este argumento conduce a fuertes implicaciones – una vez
más – con la Teoría de Feynman sobre el Universo
Taquiónico Especular y su posible reafirmación actualizada
vía Teoría M, sobre lo que luego volveremos de forma mucho más
completa. Por ahora, nos limitaremos a sintetizar lo descubierto por
los científicos en el marco de los desarrollos mecano-cuánticos de
Unificación Parcial vigentes dentro del Modelo Estándar de
Partículas y/o Supersimetría, fundamentados en procesos
experimentales demostrados, incluyendo los más novedosos y
probablemente inminentes.

Los físicos han comprobado hace ya mucho tiempo que la


Fuerza Nuclear Débil viola las Simetrías de Carga y Paridad,
C y P respectivamente.

Expliquemos esto con cierto detalle: Es bien conocido desde los


orígenes de la Física Nuclear y Atómica que existen
partículas elementales que podemos llamar “pares” e
“impares”, puesto que sus combinaciones y
desintegraciones obedecen las mismas propiedades que la
suma de números enteros de igual nombre; Así, una
partícula de paridad “par” puede escindirse en dos “pares”
o dos “impares”, pero nunca en una “par” y otra “impar”.
Por su parte, una partícula “impar” ha de disociarse
siempre en una “par” y otra “impar” o viceversa. Si
asignamos convencionalmente el signo (+) a la Paridad Par
y el (-) a la Paridad Impar, expresamos esto como:

X(+) = Y(+) + Z(+)


X(+) = Y(-) + Z(-)
X(-) = Y(+) + Z(-)
X(-) = Y (-) + Z (+)

Refiriéndonos solo a parejas de sumandos, tal propiedad


puede reducirse a dos proposiciones, es decir:

Paridades idénticas equivalen a suma par


Paridades distintas equivalen a suma impar

Y, en todo caso, ambas son formulaciones del Principio de


Conservación de la Paridad, P.

Lo mismo ocurre con el producto de números reales de


distinto signo:

(+) = (+) x (+)


(+) = (-) x (-)
(-) = (+) x (-)
(-) = (-) x (+)

Así ocurre invariablemente en lo referente a cualquier


propiedad física fundamental dual o dipolar de las
partículas, como la carga eléctrica, las cargas de “color” y
la polaridad magnética o spín.

Resumiendo éstas en dos enunciados mínimos, como antes,


es obvio que:

Polaridades iguales dan producto positivo (repulsión)


Polaridades opuestas dan producto negativo (atracción)

Lo que constituye el Principio de Conservación de la carga,


C.

Más técnicamente, para cualquier sistema mecano-cuántico


de partículas, la Paridad se conserva si el Operador P – el
cual invierte el signo de todas las coordenadas espaciales
de posición y la componentes de velocidad (o momento
lineal) de su vector de estado – al aplicarse sobre éste,
mantiene invariante la probabilidad de
colisión/recombinación o rotura de dichas partículas.

En términos formales (nota: Los vectores se destacan en


tipo inclinado):

Conservación de la Paridad

P/X; r ; m > = η P (X)/A; – r ; m >

Donde η P (X) simboliza la paridad intrínseca de la partícula


“X” de masa “m”, (+,-)1.

Conservación de la Carga

La aplicación del Operador C – que cambia el signo de la


carga eléctrica y todos los demás números cuánticos
dipolares (“color”,en caso de exhibirlo, momento de giro,
momento magnético, spín) – implica la conversión de cada
partícula en su antipartícula o “reflejo especular”. De esta
manera, hay Conservación de Carga si la probabilidad de
colisión/recombinación o rotura permanece constante para
el mismo cambio ya se lleve a cabo entre partículas o sus
correspondientes antipartículas en análogas condiciones.

Mediante formalismos lógico-matemáticos:

C/X; φ (l,m,s) > = η C(X)/X _ ; φ (l,m,s) >


Aquí φ denota la función de onda de la partícula X y su
antipartícula X _ y l,m,s los números cuánticos de las
variables de estado antes citadas que invierten su signo o
sentido, y η C(X) las cargas intrínsecas eléctricas y/o de
“color” alternativas (+-1), del par materia/antimateria, por
ejemplo (-e=electrón, +e=positrón), o (quark “verde”,
antiquark “antiverde”).

Esta fue – en esencia, la tesis principal del gran físico-matemático


húngaro Eugene Wigner, publicada en 1927, justo en los albores de
la Mecánica Cuántica operativa. A lo largo de los años y décadas
siguientes, cada una de sus demostraciones fueron exquisitamente
respaldadas por multitud de experimentos para todo proceso
cuántico de base electromagnética o nuclear fuerte, por lo que
acabó recibiendo un bien merecido Premio Nobel en 1963. En un
principio, este comportamiento “simétrico o especular” resulta tan
simple, elegante y lógico, tan “bello” o coherente con el carácter
cuantizado o discreto de los tránsitos o cambios de las magnitudes
de estado de las partículas subatómicas, y su cumplimiento tan
riguroso y general a nivel empírico en cualquier mecanismo de tipo
nuclear fuerte o electromagnético, que los físicos asumieron
que el Principio de Conservación de las Simetrías C y P era
universal. Subsistía la dificultad conceptual ligada al hecho de que
el campo gravitatorio parece, por definición, “apolar” o de
“paridad/signo único”, al ser siempre atractivo y sus fuentes
positivas. Precisamente en ello – entre otros factores, como la
extremada “debilidad” o pequeñez de su Constante Fundamental
de interacción, G – radica la enorme problemática de su unificación
con los campos cuánticos que rigen las otras tres grandes Fuerzas
Elementales de la Naturaleza. Pero, debido a esto mismo, y a que
su baja intensidad le hace “despreciable” en la práctica totalidad de
las reacciones o tránsitos cuánticos en el contexto de la Física de
Partículas, tales lagunas no fueron consideradas de interés por los
investigadores, o al menos no de forma urgente; En contraste,
cualquier intercambio de gluones portadores de “color” entre
quarks estables o sus hadrones (interacción fuerte) y de fotones
entre electrones (electromagnetismo), o sus respectivas
antipartículas, cumplían las Simetrías C y P, y eso era lo que
importaba.

Sin embargo, pronto surgieron nuevas pruebas


experimentales encargadas de derrumbar tan simplificador
optimismo: La Tercera Fuerza – por orden relativo de
magnitud – de los Cuatro Campos Fundamentales, la
interacción nuclear débil, a pesar de actuar a muy corto
alcance y hallarse plenamente cuantificada, tampoco
cumple la Conservación o Simetría de Carga ni de Paridad...

Y eso ya no se podía ignorar o aplazar tan alegremente.

Durante los años 50 del pasado siglo, el hallazgo de una


nueva partícula, el mesón K o Kaón neutro, K0, vino a
desbaratar tan armoniosa “placidez”: En efecto, se observó
en el laboratorio que tal partícula se descompone o fisiona a
veces en dos mesones π (piones) y otras en tres de ellos.
Esto viola la Paridad, pues sería equivalente a aceptar que
un mismo número puede ser a la vez suma de dos impares
(y por ende, par) y de tres impares (y por ello, impar), al
mismo tiempo. Desconcertados, los científicos supusieron
inicialmente que debían, en consecuencia, existir dos clases
de mesones K, el de paridad par (mesón theta, θ ), y el de
paridad impar (mesón tau, τ ). El primero se dividiría en dos
mesones π y el segundo en tres, y todo resuelto. Lo malo
fue que jamás se encontró evidencia ni método empírico
alguno capaz de diferenciar ambas variedades del mesón K
entre sí de modo fiable. Ante ello, en 1956, dos jóvenes y
brillantes físicos teóricos chino-norteamericanos de la
Universidad de Columbia, Chen Ning Yang y Tsung Dao Lee,
decidieron dar un resuelto y valiente paso adelante y
proponer que el Principio de Conservación de la Paridad – a
diferencia de otros de índole y alcance mucho más esencial
y general como el de Conservación de la Energía o el
Aumento de Entropía del Universo –, no tenía porqué ser
respetado de forma global y universal. Así, plantearon que
en este proceso y, por extensión en todos los gobernados
por la Fuerza Nuclear Débil, se violaba el Principio de
Conservación de la Paridad. Esto – aunque fue publicitado
casi como una “catástrofe conceptual” o “crisis de
paradigma” por ciertos periodistas un poco lerdos en
formación física, imprudentemente intrusos en la difícil y
encomiable labor de la divulgación científica –, no es algo
tan crítico ni tan “asombroso”; Dos aspectos o interacciones
en apariencia estrechamente relacionados y que afectan a
la vez al mismo tipo de sistemas, pero en verdad
nítidamente diversos entre sí, pueden operar el uno de
acuerdo con un esquema polar-paritario estricto y el otro
no.
El brillante y prolífico divulgador científico, ensayista polifacético e
imaginativo autor de ciencia-ficción y bioquímico norteamericano
de origen judío-ruso Isaac Asimov lo expone de modo magistral en
su obra “El Electrón es Zurdo y otros ensayos científicos”, mediante
una ingeniosa y familiar comparación: La “interacción”
psicobiológica y fisiológica que conocemos bajo el nombre de
“reproducción humana” – a semejanza del Campo Nuclear Fuerte –
cumple con rigor la Conservación de Simetrías C y P, al tratarse de
una relación inequívocamente dipolar: Cualquier ser humano (H)
procede de la combinación de otros dos, uno de ellos masculino (M)
y el otro femenino (F), y no puede concebirse por cualquier
emparejamiento diferente o alternativo en condiciones naturales.
Por ello, si llamamos H+ al nuevo humano o embrión neonato
viable y H- a un resultado reproductivo nulo – despreciando
enfermedades o disfunciones orgánicas y psicosexuales
minoritarias como la impotencia y la esterilidad –, al igual que
ocurre con el electromagnetismo y la fuerza nuclear fuerte:

M + M = H-
M + F = H+
F + M = H+
F + F = H-

Ahora bien, existe otra variedad de acción mutua entre los seres
sexuados que podemos denominar “atracción sexual”, “amor” o
“erotismo”, regida por el Principio de la mera descarga de la
tensión sexual y el logro de placer, tanto puramente físico como a
nivel de la más profunda gratificación psico-emocional. Es una
fuerza tan poderosa como el instinto reproductor e independiente
de él, como prueban rotundamente la existencia de
condicionamientos y parafilias multiformes pero masivamente
extendidas como el voyeurismo o algo tan natural y simple como la
masturbación. Y, evidentemente, dentro de él cabe una
“combinación” o relación efectiva y plenamente satisfactoria entre
individuos del mismo sexo biológico. La homosexualidad es tan
universal y espontánea en todas las comunidades y culturas
humanas e incluso en muchas de entre los mamíferos superiores
como el emparejamiento heterosexual mismo. Forma parte del
“Campo del Eros”, pero no del “Campo Reproductor”, que son
fuerzas claramente diferenciadas. Es evidente entonces que el Eros
no cumple la Simetrías C y P, como acontece con la Fuerza Nuclear
Débil, pues es patente que, simbolizando por P+ la
atracción/excitación u obtención de Placer Positivo y por P- su
ausencia o rechazo, tenemos que, en algunas ocasiones:

M + M = P+
F + F = P+
M + F = P-
F + M = P-
(Homosexualidad)

Y en otras:

M + M = P-
F + F = P-
M + F = P+
F + M = P-

(Heterosexualidad)

Y, es más, un individuo o “partícula sexual” concreta puede en


algunos casos comportarse según un patrón o el opuesto, como el
Kaón K0, (bisexualidad), sin que por ello tampoco implique que
existan dos “subgéneros” de mujeres y hombres distinguibles en
términos conductuales, psicológicos, fisiológicos, genéticos u
orgánicos objetivos.

Concluimos – por consiguiente – que el “Campo Reproductivo” es


dipolar y, por ende, cumple las Simetrías C y P, y el “Campo
Erótico” no, lo que le permite violar la Conservación de Carga y
Paridad. Y no pasa nada, porque se trata de dos fuerzas o
interacciones psicobiológicas diversas e independientes, aunque
ambas afecten a la sexualidad, de la misma manera que el Campo
Nuclear Fuerte y el Débil, claramente diversos por más que los dos
sean de naturaleza nuclear por mediar entre nucleones.

Tan solo el prejuicio ilusorio y la torpe óptica simplificadora que


asocia en muchas culturas y civilizaciones los conceptos de
“Reproducción” y “Erotismo” , empuja a muchos a considerar que el
segundo debe obedecer las mismas leyes que el primero, habiendo
producido tal falsedad supersticiosa toda clase de desastres,
sufrimientos, dolor y hasta crueles discriminaciones, persecuciones
y normas morales y legales homófobas contra quienes libre y
naturalmente optan por el placer o el amor con personas de su
mismo sexo.

De manera similar – si bien por fortuna menos duradera, tozuda y


dañina – las ideas preconcebidas por parte de muchos físicos les
hicieron creer, sin pruebas sólidas contrastadas, que, debido a la
Conservación de las Simetrías C y P en la interacción fuerte y el
electromagnetismo, la interacción débil también debía respetarlas,
lo cual no tenía en realidad justificación racional alguna.

Tal y como ya se apuntó antes, en 1927 el físico-matemático


magiar Eugenio P. Wigner demostró que conservar la
Paridad equivale a mantener la Simetría Especular o
Izquierda/Derecha. Es decir, que para todos los procesos o
interacciones de la Naturaleza en las que exista
Conservación de la Paridad, no existirá motivo alguno para
“preferir” u “optar” por la dirección izquierda sobre la
derecha, o viceversa. Otra forma de expresarlo es afirmar
que si observamos dichos fenómenos naturales y sus
imágenes especulares, no hay manera posible de diferenciar
entre el fenómeno real en sí y su reflejo especular perfecto.
Cuando dos bolas de billar totalmente lisas y sin marcas
chocan elásticamente, por ejemplo, cumplen tal condición,
porque las Leyes de Conservación de la Energía y la
Cantidad de Movimiento a escala macroscópica y los
Principios de la Dinámica de Newton conservan la Paridad
celosamente. De hecho, el 99.99% de los cambios y
mecanismos físico-químicos “clásicos” lo hacen, excepto
ciertas sutiles interactividades enzimáticas o bioquímicas
que interesan a las moléculas orgánicas quirales, cuyos
carbonos completamente sustituidos hacen girar en idéntico
grado pero en sentido diestro (dextrógiro) o siniestro
(levógiro) un plano de luz polarizada, lo que da lugar a una
“estereoquímica” diversa entre “isómeros ópticos” o
“enantiómeros” especulares entre sí, de altísima
especificidad selectiva, lo que es imprescindible para
regular ciertas funciones celulares. A nivel submicroscópico
o fnndamental, ocurre algo parecido: En la inmensa mayoría
de los casos, para toda interacción electromagnética o
nuclear fuerte, las ondas-partículas elementales se
comportarán como bolas de billar newtonianas o las
moléculas en las reacciones químicas “ordinarias”, no
enantio-selectivas: Si una de ellas está haciendo algo a
nuestra derecha, su imagen o reflejo especular hará
exactamente lo mismo a nuestra izquierda o al revés, sin
poder distinguirse ambas cosas entre sí de manera objetiva,
porque la acción o cambio observado es tan acorde con las
Leyes Naturales que lo controlan tanto en un sentido como
en otro. Por eso conservan la Paridad.

Por el contrario, si violan la Paridad, como los procesos


asociados al campo nuclear débil, tales cuales la disociación
del Kaón neutro o la emisión de partículas electrónicas
radiactivas de elevada frecuencia β y neutrinos vinculados
a los tránsitos neutróngprotón, las partículas implicadas
son “asimétricas”: Dicho de otro modo, pueden hacer algo
en sentido “izquierdo” que no les está permitido “a
derechas”, o al revés; Entonces, sí se puede diferenciar con
exactitud el fenómeno real de su imagen especular, pues en
esta última el proceso se observa invertido o “cabeza
abajo” o, lo que es lo mismo, llevando a cabo algo
imposible. Como de costumbre, el Dr. Asimov nos pone un
ejemplo magníficamente didáctico: Eso es como si
contemplamos la imagen de nuestra cara en el espejo pero
fijándonos en la posición de un lunar o sentados escribiendo
y somos zurdos; La imagen se delata como diversa del
rostro real porque en ella el lunar ocuparía la posición
justamente opuesta y nos veríamos escribiendo con la mano
derecha.

La comprobación empírica de la asimetría izquierda-derecha


en la interacción débil es más compleja de lo que parece a
simple vista. Centrándonos en el proceso más común
gobernado por dicha Fuerza Fundamental, la emisión de un
electrón β desde un núcleo atómico:

n g p(+1) + β e- + ν

Donde “n=neutrón”, “p(+1)=protón”, “β e-= beta-electrón”


y “ν =neutrino”.

El núcleo atómico puede considerarse como un corpúsculo


giratorio con su propio campo magnético o spín, un dipolo
rotatorio análogo a la Tierra, solo que de talla minúscula.
Puesto, que a diferencia del planeta, un núcleo – o
cualquiera de sus nucleones – carecen de referencias
geográficas o topológicas convencionales, no podemos
saber cuál es su “Polo Norte” convencional y cuál el Sur.
Por ello, si bien estamos seguros que la partícula real y su
imagen especular girarán en sentidos opuestos y poseerán
los polos invertidos entre sí, no seremos capaces de
discriminar entre ellas por este camino. Pero si los
electrones tendiesen a ser emitidos con mayor frecuencia o
probabilidad por un polo que por otro, sí se nos permitiría
distinguir el proceso real de su imagen especular, y eso es
precisamente lo que ha de acontecer si en verdad el campo
nuclear débil viola la Paridad. En una muestra cualquiera de
material isotópico radiactivo de tipo β , trillones de núcleos
inestables emiten electrones de alta energía en todas las
direcciones posibles de modo uniforme, tanto si brotan de
un solo polo como si lo hacen de los dos por igual, porque
sus ejes de rotación nuclear se encuentran orientados al
azar, y por tanto tampoco es factible comprobar si se
conserva o no la Simetría P. Para verificar este extremo, es
necesario aplicar un potente campo magnético externo que
alinee todos los polos en un único sentido (“Norte” respecto
al de la Tierra, por ejemplo), y a la vez enfriar el sistema
hasta las cercanías del Cero Absoluto de temperatura, con
objeto de que apenas subsista energía vibratoria residual
que los vuelva a desorientar mínimamente.

Poco después de que Lee y Yang formularan su teoría, la


profesora adjunta Chien Shiung Wu – asimismo chino-
norteamericana de la Universidad de Columbia – realizó un
importante experimento utilizando este procedimiento:
Alineando núcleos de Co-60 del modo descrito, probó que
lanzaban electrones β por el Polo Sur y no por el Norte. Con
ello, se demostró que la interacción débil viola la Paridad.
Por ello, en los procesos o cambios determinados por ella,
es perfectamente posible distinguir entre izquierda y
derecha y, en concreto, el electrón, cuando responde a esta
fuerza de campo cuántico, tiende a actuar en sentido
“izquierdo”, de donde procede el llamativo título de Isaac
Asimov, calificándolo como “zurdo”.

Sabemos que la imagen especular real de toda partícula de


materia es su antipartícula de antimateria. Pues bien, como
predice el modelo teórico de Lee y Yang, la antisimetría P
exige que si una partícula es zurda, su correspondiente
antipartícula sea “diestra”, y viceversa. Así, si un electrón
lleva a cabo un proceso “a izquierdas” – como ser emitido a
gran velocidad o frecuencia de onda asociada desde el Polo
Sur de un núcleo – es evidente que su “reflejo” especular
ideal sería ese mismo electrón operando “a derechas” – o
sea, siendo lanzado desde el Polo Norte del mismo – pero
ahora podemos señalar esta última observación como pura
imagen virtual, pues nos consta que este comportamiento
es imposible. La operación que transforma en la Ecuación de
Dirac la función o vector de onda que describe el estado y
movimiento de una partícula en el de su antipartícula
equivalente se denomina “conjugación de carga”, e implica
la inversión del signo de la carga eléctrica, el espín y la
carga de color. Así, matemáticamente, si aplicamos dicho
operador a un electrón cualquiera implicado en una
interacción débil, obtendríamos un “positrón zurdo”. Pero
tal estado no está permitido, pues por la Asimetría C, todo
positrón ha de ser “diestro”: En el ejemplo de la emisión
beta, de los antinúcleos alineados y “casi congelados”
surgirían indefectiblemente todos los positrones por el Polo
Norte, nunca por el Sur, mientras en su interior un
antiprotón negativo se transmutaría en un antineutrón. En
consecuencia, la Violación C implica o impone a su vez la
No-Conservación simultánea del Principio de Conservación
de la Carga, que ha de adquirir signo opuesto
obligatoriamente. Entonces, si se invierten al unísono Carga
y Paridad, el “reflejo especular doble” de cada partícula
(como el electrón) es su antipartícula (como el positrón),
dotada de carga eléctrica y paridad de signos o sentidos
contrarios al mismo tiempo, lo cual sí representa un estado
permitido, por lo que ya no podríamos diferenciar el la
“imagen especular” del original, conservándose por tanto
conjuntamente la “Carga-Paridad” .

De modo que los procesos que implican la desintegración β


por interacción nuclear débil no conservan la Conjugación
de la Carga y la Paridad por separado, pero sí la Carga-
Paridad como un todo.

Esto puede resultar extraño. Con propósito de intentar


comprenderlo mejor, de nuevo, el privilegiado talento profesoral
del Dr. Asimov acude en nuestra ayuda, a través de una metáfora
sencilla y cotidiana: Si reflejamos en un espejo la letra “b”,
obtenemos la “d”, y si reflejamos la “d”, observamos la “b”. Es
obvio que ambos caracteres por separado no conservan la simetría
especular, pero si unimos los dos de cualquier forma, “bd” se
reflejará como “bd” y “db” cual “db”, al invertirse a la par la grafía
y el orden de sucesión, siendo por tanto indistinguible la imagen
especular del original.

Hay otro tercer aspecto sustancial a tener en cuenta: Todo


proceso como los descritos unas líneas más arriba y, en
realidad cualquier cambio físico en general, puede ser –
conceptualmente hablando – simétrico o no respecto al
tiempo. Es obvio que si consideramos – según nuestro
convenio habitual de escritura occidental – que el “estado
inicial” del sistema en evolución descrito es el
representado a la izquierda del signo “=” o “g” y el
“estado final” el simbolizado a la derecha, una reflexión
especular del proceso equivale a considerarlo “invertido” en
el tiempo, como “filmado” en sentido “reverso”, desde el
futuro al pasado.

Todos los fenómenos físicos dinámicos reversibles de largo


alcance macroscópico en sistemas aislados (cuya variación
de entropía total es cero) , ya comporten bajas
velocidades/energías (aproximación newtoniana), o
elevadas (mecánica relativista), determinados por los
campos gravitatorio y electromagnético, no pueden
distinguirse objetivamente si los observamos como si el
tiempo corriese hacia atrás o si lo hacemos suponiendo el
sentido real en que acontecen en nuestro Universo, desde el
“pasado” al “futuro”. Esto sigue comprobándose a escala
subatómica, así como con cualquier evento gobernado por
la interacción nuclear fuerte. Conservan, por tanto la
Simetría Temporal, T. Esto es coherente con su
Conservación de Paridad y Carga ya establecida. En
resumen, en lo referente al electromagnetismo, la gravedad
y la fuerza nuclear fuertes el Universo parece ser
absolutamente simétrico, como siempre se presupuso.

¿Ocurre lo mismo con el Campo Débil? ; Acabamos de ver


que, en la desintegración β , la Violación de Paridad y
Conjugación de Carga por separado se “arregla” tomando
en consideración ambas propiedades a la vez, pues su doble
inversión sí permite finalmente lograr una imagen especular
equivalente al proceso original, o Simetría CP.

Sin embargo, si volvemos a fijarnos con más detalle en los


mecanismos alternativos de desintegración o decaimiento
del Kaón neutro – el fenómeno original que hizo cuestionar
el hasta entonces “intocable” Postulado de la Conservación
de Simetría Universal – comprobamos que violan incluso la
Conservación conjunta CP, ya que:
+
K0S g π +π -
; (τ = 0.5 x 10 -10 s)
+ 0
K0L g π +π -
+π ; ( τ = 0.9 x 10 -10 s)

(τ = Periodos Promedio de “Vida” del Kaón desintegrado)

En esta notación, los subíndices “S”(“Short=Corto”) y “L”


(“Large=Largo”), que figuran debajo del símbolo del Kaón
neutro, son convencionales, meros indicadores de los dos
posibles caminos para el decaimiento de la partícula, ya
que, tal cual se puntualizó, no existe modo real de
diferenciarlos entre sí, a pesar de que la dos reacciones o
tránsitos nucleares débiles son claramente distintos, al
igual que sus periodos medios. De hecho, el proceso
opuesto – la formación de K0 a partir de sus componentes
todavía más elementales, controlado por el Campo Nuclear
Fuerte – es único y, como es natural, respeta la Simetría de
Carga y Paridad escrupulosamente.

No obstante, según lo que demuestran ambas reacciones


rigurosamente verificadas a nivel empírico, se hallan
permitidos dos auto-estados propios, cada uno con un signo
contrario de Simetría CP o “Carga-Paridad” conjunta, a
saber:

/K0S> = r2/2 [/K 0


> + /K0 –
>] ; CP = +1

/K0L> = r2/2 [/K 0


> – /K0 – >] ; CP = -1

(Siendo K0 – el anti-kaón neutro correspondiente)

De ello se infiere que este proceso viola de modo patente la


Conservación CP.

Si no fuera así, y la Simetría CP se conservase, en rigor, la


desintegración “S” de vida más corta no debería darse,
pero fue plenamente aislada y medida por separado y en
paralelo con su “vía alternativa” en un ingenioso y pulcro
experimento realizado por Christenson y Al. en 1964,
usando un campo magnético para separar dos
espectrómetros de masas con cámaras detectoras de
centelleo divergentes destinadas a determinar los
momentos lineales, cuyos triggers se alinean asimismo con
un par de contadores de Cherenkov.

Pero entonces también ha de producirse una Inversión de la


Simetría Temporal, porque, como ya razonamos, pues es
obvio que la reacción opuesta (formación), equivalente a
“pasar la película” del proceso al revés, produce un solo
Kaón Neutro invariante.

Consecuentemente – en general – la interacción débil


admite cambios que violan la Simetría CPT , lo que no
ocurre con el resto de cambios y acciones mutuas de la
Naturaleza.

Esto es lo mismo que afirmar que el ritmo de decaimiento


de ciertas partículas – especialmente bariónicas – no es el
mismo que el de sus antipartículas.

Por ello, estos sutiles mecanismos podrían explicar el


exceso final de materia tras la aniquilación con la
antimateria primordial durante esta etapa clave en la
evolución de la “primera infancia” del Universo.

“Podrían”...,, pero quizá no puedan, si la tasa diferencial de


asimetría entre las partículas elementales de materia y
antimateria no es lo bastante grande como para justificar la
enorme cantidad de masa “ordinaria” observable en el
Cosmos.

Complejos y refinados experimentos posteriores han


profundizado en el análisis de estos fenómenos y
encontrado violaciones débiles CP para otras partículas
implicadas en dicha interacción. Enumeremos las más
relevantes de la forma más sintética posible:

• Desintegraciones semileptónicas de kaones neutros:

K 0 g l+ + ν l + π –

+
K0 g l – + ν l

(Donde “l” es el leptón o antileptón con su carga


eléctrica, ν l y ν l – sus neutrinos o antineutrinos
asociados y π los piones conjugados de cargas también
opuestas)

• Los ensayos NA-48 y CPLEAR en el CERN, de nuevo


sobre mesones K (1999): Consiguieron medir con
aceptable precisión los parámetros cuantificadores de
la proporción entre los ritmos de decaimiento de estas
partículas y sus antipartículas, en un estado de
Condensado Bose-Einstein análogo al consistente con
las condiciones cosmológicas primitivas. Los
resultados probaron de modo contundente la existencia
de una asimetría a favor de la materia del orden
previsto por los modelos teóricos sobre violación CP
desarrollados dentro de la Teoría Estándar (GUT, o
Teorías de Gran Unificación).

• Experimentos BaBar en el SLAC con mesones B y D


(sobre 2001): Un equipo internacional de alto nivel
trabajando en el Stanford Lineal Accelerator (EEUU),
puso de manifiesto un segundo proceso de Violación
CP; Los mesones pesados Bs y sus homólogas
antipartículas presentan frecuencias de desintegración
nítidamente asimétricas, siendo igualmente más
estables los corpúsculos elementales de materia que
los de antimateria en una medida mayor que los kaones
neutros y análogamente concordante con el Modelo
GUT. Lo mismo ocurre con los mesones Ds. Publicaron
sus resultados en la Physical Review Letters. En
palabras del portavoz del grupo de selectos
investigadores, el Dr. Steward Smith, “después de 37
años de búsqueda de futuros ejemplos de violación de
paridad de carga CP, los físicos ahora conocemos que
hay al menos dos nuevas partículas subatómicas que
exhiben este misterioso fenómeno, y por tanto
pensamos que puede ser el responsable de la gran
preponderancia de materia en el Universo”.

Estos datos fueron corroborados poco más tarde por un


estudio parecido en el acelerador de Belle (Japón).

¿Permiten explicar estos descubrimientos porqué en el plasma de


quarks-gluones que compuso el Universo tras esta trascendental
etapa predominaron a tal extremo los quarks sobre los anti-quarks
y los leptones por encima de los anti-leptones y, en definitiva, la
materia contra la antimateria? Si todos los modelos teóricos indican
que, en su génesis previa inmediata, el Cosmos hubo de contar con
igual cantidad de partículas y antipartículas iniciales, ¿bastan los
mecanismos de Violación CP enunciados hasta aquí para dar cuenta
de la tremenda desproporción mantenida desde entonces hasta
hoy, y que ha hecho posible la existencia y desarrollo del Universo
tal y como lo conocemos?

Analicemos esto con mayor detenimiento.

En función de los datos observacionales comprobados, la


proporción de antimateria en el fondo de radiación cósmica
equivale a un ínfimo factor aproximado de 10 -4.

Por otro lado, si partimos de una composición primigenia de


igual cantidad de quarks y antiquarks como principales
constituyentes de la materia/antimateria primordial
naciente, los cálculos indican que el número de partículas
supervivientes de ambos tipos (nºs bariónico y
antibariónico), deberían ser iguales entre sí y
extraordinariamente pequeños en razón a la enorme
cantidad de unidades de radiación pura (rayos gamma, γ ,
fundamentalmente) producidas por aniquilación mutua. Esto
es, que la “Razón Materia-Antimateria/Radiación”, η , habría
de ser en extremo reducida. En concreto, una vez enfriado
el Universo lo suficiente, siendo la energía térmica media
del mismo kT < 1 GeV:

η = nB/nγ = nB-/nγ = 10 -19

Dicho de otra forma, la “aburrida sopa de fotones” que


antes comentábamos.

Sin embargo, los valores reales observados en nuestro


Universo – y demos gracias por ello – son del orden:

η = nB/nγ = 10 -9 >>...> nB-/nγ

Esta firme y evidente asimetría a favor de un sólido exceso


de materia requiere el cumplimiento de tres requisitos
imperantes en tan tempranas fases del crecimiento Cósmico
(justo posteriores a la Gran Inflación), denominados
“Condiciones de Sakharov”, en tributo al eminente físico
ruso y disidente anti-soviético Andrei Sakharov, quien las
estableció junto a su colega y compatriota Vadim Kuzmin
entre 1967 y 1970:

1) Violación del Nº Bariónico B (y, por extensión,


Leptónico)
2) Violación C y CP en suficiente grado cuantitativo
3) Sistema fuera del Equilibrio Térmico (de manera que las
velocidades de establecimiento de los equilibrios de
estas reacciones radioquímico-nucleares de
decaimiento y aniquilación sean muy superiores a la del
equilibrio térmico, garantizando así que la composición
final del Cosmos se torne homogénea o satisfaga el
Principio Cosmológico)

Las exigencias 1) y 3) se cumplen dentro del Modelo


Estándar.

La primera – eso sí – supone admitir la existencia de un


“exótico mecanismo”, si bien contemplado por la Teoría
Estándar, que ha continuación trataré de exponer del modo
lo más sucinto y sencillo que me sea posible: En principio, el
Nº cuántico Bariónico asociado cada barión, (lo que les
distingue de los mesones, carentes de él), parece
conservarse en todo proceso natural al igual que la carga
eléctrica. En particular, si se violara de manera tan común
como la Paridad en la desintegración beta o incluso la
Simetría CP en el decaimiento de ciertos mesones, el protón
mismo tendería a descomponerse espontáneamente en un
pión y un electrón, reacción que jamás se ha detectado. ¡Los
datos experimentales indican muy por el contrario que el
protón goza de una vida media mayor de 1033 años! Ahora
bien, entonces cada antibarión ha de presentar un número
bariónico igual y de signo opuesto a su barión
correspondiente. De lo cual es patente que, partiendo de un
Universo carente de partículas de materia/antimateria justo
a t=0 tras el Big-Bang (y por ende con Nº Bariónico Total
igual a cero), si todos los cambios físicos conservan dicha
propiedad, tal número seguirá siendo siempre nulo. A pesar
de ello, hay procesos que, al menos en teoría, admite una
Violación del Número Bariónico dentro del marco de la
Teoría Estándar; Estos mecanismos se denominan
“esfalerones”(del griego “caer”). Los esfalerones son
configuraciones de las fluctuaciones del Potencial de Vacío
Cuántico que no conservan el número bariónico e implican a
nueve quarks y tres leptones ligeros. Fueron formuladas
matemáticamente por Frans Klinkhamer y Nicholas Manton
en 1984, pero aún no se han confirmado en el laboratorio.
Son tan rápidas, que se mantienen muy por debajo del nivel
de Incertidumbre y, por ello mismo, solo virtualmente
permitidas a temperaturas inmensas, entre 1013 y 1025 K, o
lo que es equivalente, entre 10-25 y 10-13 s después del Big-
Bang. He ahí la razón por la que no podemos detectar sus
efectos en nuestros experimentos, pues ni tan siquiera en el
corazón de una estrella es hoy factible alcanzar tales
escalas de temperatura, ni en los más potentes
aceleradores de partículas se han logrado aún reproducir
tan titánicos niveles de energía, aunque estemos cerca de
ello.

La tercera es una consecuencia directa de la propia


Expansión del Universo: A causa de ésta, el continuo
enfriamiento del Cosmos asegura que éste no se halle nunca
en equilibrio térmico. Si estuviese en equilibrio, cualquier
reacción no-conservativa del nº bariónico tendería a
producirse reversiblemente,de modo total o parcial, de
modo que si un cambio generase “x” unidades de dicho
número, en sentido directo, el sentido inverso volvería a
reducirlo en igual cantidad o una fracción significativa de
ella. Igual ocurriría con los procesos que afectasen al nº
leptónico o asimétricos respecto a C o CP, de donde se
desprende que, en promedio, la bariogénesis diferencial a
favor de la materia no podría en todo caso rendir un exceso
tan importante como el reinante en nuestro Universo. Pero
como debido a la continua dilatación-enfriamiento del
mismo jamás se alcanza dicho estado, la velocidad de las
reacciones de decaimiento asimétricas a favor de las
partículas sobre las antipartículas – especialmente de los
mesones pesados – es muy superior y llega a ser
irreversible respecto a los procesos opuestos, así como los
mecanismos esfalerónicos, haciendo así al menos
teóricamente factible por esta vía un predominio final de la
materia sobre la antimateria. Este efecto es especialmente
extremado durante las grandes transiciones de fase o
cambios globales de estado estructural del Cosmos en su
conjunto, entre las cuales la Etapa Inflacionaria destaca por
encima de todas, al suponer a la par un “aplanamiento
dimensional-geométrico” y el tránsito de un escenario casi
exclusivamente constituido por una suerte de gas
hipercaliente de radiación a otro finalmente conformado por
un inmenso “océano” de plasma líquido quark-gluones
sustancialmente más “frío”, pasando por un periodo
intermedio de recalentamiento. En estas transiciones de
fase, la actividad bariogénica diferencial sería
particularmente intensa y decisiva.

Al fin y al cabo, como ya sabían los antiguos alquimistas...


“Solve et Coagula”, mas a una escala integral, a la vez
subatómica y colosal...

La segunda, por último, es mucho más complicada de


evaluar.

Una de las formas de intentarlo es la llamada “Teoría GUT”,


que respeta el marco de la Teoría Estándar.

En este modelo, la desintegración de bariones implica la


producción de bosones muy pesados – denotados por “X” –
de energía-masa MX c2.

Mientras kT se mantuvo sobre el valor medio MX c2, es


perfectamente posible sostener los procesos señalados en
equilibrio térmico con densidades tales que nX~nγ .
Después, una vez kT<MX c2 , los Bosones X solo pueden
decaer.

Dichas reacciones de desintegración y sus tasas de


actividad correspondientes son:

a) X g q + l ; r

b) X g q - + q - ; (1–r)

c) X - g q - + l - ; r -

d) X – g q + q ; (1–r -)

(Donde los superíndices (-) simbolizan las antipartículas como es


usual, “q” los quarks y “l” los leptones, así como los términos a la
derecha del punto y coma las tasas de desintegración de cada
proceso).

Por ello, aplicando un razonamiento básico de Mecánica


Estadística, la Tasa de Bariogénesis o Producción Bariónica
∆ B por Par X/X - a través de estas reacciones podrá
estimarse como:

∆ B = 1/3 r – 2/3 (1–r) – 1/3 r - + 2/3 (1–r -) = r – r - = ε

Siendo ε la Magnitud de Violación CP, obviamente.

Asimismo, cuando concluyen las aniquilaciones entre


partículas y antipartículas generando fotones de alta
frecuencia gamma, se puede demostrar que la Relación de
Exceso Bariónico o Razón Materia/Radiación obedecerá a la
expresión:

η = nB/nγ = ε (gX/g*)

En la cual, gX determina el nº de estados de espín


permitidos para el Bosón X y g* el nº de grados de libertad
del espín para kT=MX c2 .

Las conclusiones que se deducen al aplicar esta Teoría son las


siguientes:

• Para explicar el valor de Exceso Bariónico observado en


el Universo ε ha de
adquirir una magnitud en torno a 10 -8 .

• Por consiguiente, hay una gigantesca diferencia entre


el valor calculado para dicho parámetro según el
Modelo GUT a elevadas escalas de masa-energía y los
predichos y observados experimentalmente en
procesos de Violación CP en sistemas más ligeros, como
el K0/K0 - y similares, de magnitud muy inferior.

• El resultado para el Modelo Estándar SU(5) GUT con 3


generaciones de bariogénesis y 2 multipletes de Higgs
da un valor de ε <<10 -8 . Considerando más
generaciones adicionales o un número de multipletes
permitidos más alto puede incrementarse el valor
calculado para la Magnitud de Violación CP, pero tales
artificios no se justifican dentro del Modelo Estándar y
su conjunto de apoyos empíricos fiables. Además, para
acercarnos tan siquiera de modo notable a la cifra
requerida, haría falta un número tal de tales
operaciones que el escenario del modelo se vuelve
absurdamente engorroso y poco plausible.

En suma, se infiere que la mera acumulación estadística de


procesos asimétricos con violación CP de partículas
sensibles a la interacción nuclear débil con masas ligeras o
moderadas, como los aislados y descritos hasta ahora
empíricamente, no son suficientes como para justificar el
masivo predominio de la materia sobre la antimateria que
caracteriza al Universo desde el fin de la Gran Inflación.

Es necesario – por ende – buscar otras fuentes de más


extensa y fuerte asimetría CP.

Otra posibilidad teórica propuesta al respecto ha sido la conocida


como Modelo de Bariogénesis Electrodébil (EW).

La Teoría Electrodébil es la que unifica el


electromagnetismo con la fuerza nuclear débil, creada en
los 60 del siglo pasado por Glashow, Salam y Weinberg.

Bajo condiciones de altas temperaturas y presiones, este


modelo prevé que, en el Universo Primordial, se formaron
burbujas (fases heterogéneas) a medida que el espacio se
expandía y enfriaba. En el exterior de las burbujas las
partículas carecían de la masa que poseen de ordinario,
pues las condiciones no permitían la formación del Bosón de
Higgs que dota a las mismas de tal propiedad, y todas se
comportaban todavía como los fotones o gravitones y sus
antipartículas correspondientes, moviéndose a la velocidad
de la luz (luxones). Dicha “fase exótica” – originalmente
preponderante en el Universo – puede parecernos muy
anómala, pero describe un estado coherente con la
formulación de la Teoría Electrodébil sin considerar por el
momento la Ruptura de Simetría interna entre el
electromagnetismo y el campo nuclear débil. En contraste,
la mayor concentración de energía y menor temperatura
reinantes en el interior de las burbujas indujo una “precoz”
pérdida de esa simetría, diferenciando ambas fuerzas y
haciendo posible el inicio del mecanismo ligado al Campo de
Higgs. Es difícil explicar de modo sencillo y comprensible el
concepto y significado del Bosón de Higgs y su decisiva
acción auto-generadora y generadora de masa; Podemos
intentarlo mediante una comparación más, la misma que el
físico David Miller utilizó para tratar de hacérselo
comprender al ex-ministro de Ciencia británico William
Waldegrave: Imaginemos un cóctel en la sede de un partido
político, donde los militantes, simpatizantes, funcionarios y
cargos del mismo se hallan distribuidos uniformemente a lo
largo y ancho de la sala con sus copas y canapés en la mano
y departiendo con sus vecinos más próximos. De pronto,
entra en el salón de fiestas el líder carismático del Partido –
la Dama de Hierro, Mrs. Margaret Thatcher en el didáctico
ejemplo de Miller – andando a su acostumbrado paso firme,
resuelto y rápido. Automáticamente, todos los congregados
se dirigen a ella para saludarla, felicitarla por la flamante
victoria electoral y dejarse ver y que les vean cerca de la
Jefa (o en otros casos, Jefe), como acostumbran a hacer los
miembros variablemente destacados y/o cualificados de
cualquier grupo ideológico, político, religioso o tribal y
sectario en general. Semejante interacción acaba
ralentizando enormemente la velocidad de la entonces
Primera Ministra del Reino Unido, hasta el extremo de verse
obligada a detenerse. Y, una vez que se encuentre en
reposo, le costará trabajo volver a ponerse en marcha.
Finalmente, cruzará la sala rumbo a su siguiente
compromiso o tarea, pero lo hará mucho más lentamente,
tardando quizás hasta más de un cuarto de hora, mientras
que si la habitación hubiese estado vacía habría cubierto
idéntica distancia en pocos segundos. Más tarde, tras ella
llega algún otro ministro o jerarca importante del Partido
Conservador y ocurre lo mismo, con igual o menor
intensidad de “agolpamiento” y “bloqueo”. Pues bien, la
numerosa cohorte de seguidores representan en este
escenario a los Bosones de Higgs, cuyo campo interacciona
con todas las partículas “líderes” o Fundamentales, tanto
bariónicas como leptónicas, y se halla homogéneamente
distribuido por todos los puntos del espacio, al ser este
campo cuántico una forma de Potencial de Vacío. Su acción
mutua con las partículas las hace desplazarse con mucha
mayor lentitud en grado variable, provocando además que,
cuando las frena del todo, le cueste energía volver a
moverse. Justo esas dos propiedades – resistencia al
movimiento y dificultad para retornar a él desde el reposo –
son las que definen a la masa-inercia en Física.
Naturalmente, la inercia será mayor cuanto más “nivel
jerárquico-liderazgo” (o sea, masa-energía) posea/adquiera
la partícula. Pero, en ausencia de Bosones de Higgs,
cualquiera de ellas surcaría la sala a la máxima velocidad
posible (a la velocidad de la luz) y sin efectos de inercia
(masa nula), al igual que lo harían la Dama de Hierro u otro
alto mandatario del Gobierno y/o el Partido si el salón
estuviese totalmente despejado.

Volviendo a la Bariogénesis Electrodébil, podemos ahora


recapitular diciendo que, en el interior de las burbujas, la
Invariancia Gauge/Simetría Electrodébil ya se ha roto
definitivamente, permitiendo que los Bosones de Higgs
acudan en tropel a “reverenciar-entorpecer” o conferir
masas a las “Partículas-Líderes” – obedeciendo ya las Leyes
del marco de la Física “ordinaria” que nosotros conocemos
–, mientras en el exterior de ellas tal acontecimiento crucial
no se ha producido aún, y todas las partículas carecen de
masa-inercia y se desplazan a la velocidad de la luz.

Lo más interesante de esta singular situación es que la


teoría demuestra que, en tal caso, existiría asimismo una
asimetría en la actividad de los esfalerones: Dentro de las
burbujas, los esfalerones son más “débiles”, pues su
interacción también se ve dificultada por el Mecanismo de
Higgs, y fuera de ellas ésta es más fuerte e intensa. La
Violación del Nº Bariónico es – por tanto – más limitada en el
interior de las burbujas y más extensa en el exterior. El
modelo predice que estas burbujas tenderían a expandirse y
multiplicare al ritmo de la expansión-enfriamiento del
Universo, terminando por “invadir” y desplazar a la “Fase
Exótica” externa, ocupando todo el espacio del recién
nacido Universo. Tal proceso se denomina “transición de
fase de primer orden”. Por ello, si no se diese la “asimetría
esfalerónica” indicada, los esfalerones internos acabarían
por destruir la elevada asimetría bariónica creada por los
que estaban fuera. Pero como los esfalerones de origen
interior son más lentos, en el balance final quedará un
exceso de bariones sobre antibariones, posibilitando el
predominio relativo de la materia y la práctica ausencia de
antimateria estable en el Cosmos.

Conceptual o cualitativamente, parece una solución lógica y


atractiva.

Pero el problema reside en que el grado o magnitud en que


tal fenómeno pudo acontecer depende de la velocidad de
transición de fase, y los cálculos indican que ésta era
demasiado baja como para inducir el tremendo exceso de
materia bariónica observable en el Cosmos, por lo cual
retornamos al punto de partida.

Es preciso – por ende – ir más allá de la Teoría Estándar de


la Física de Partículas para poder explicar la evidente y
clara primacía de la materia sobre la antimateria en el
Universo, de la cual depende nada menos que la propia
existencia de estructuras complejas en el mismo,
incluyéndonos a nosotros mismos.

Una posibilidad es recurrir a la Supersimetría. En una


Sección anterior ya resumimos los fundamentos de este
modelo (SUSY), apuntando por añadidura que su
combinación con la Teoría Estándar constituye una de las
aproximaciones más correctas disponibles para tratar de
empezar a comprender la naturaleza de la Materia Oscura.

Los astrofísicos, cosmólogos y físicos cuánticos se inclinan


hoy por hoy a considerar que el gran exceso objetivo de
materia sobre la antimateria reinante en el Cosmos e
encuentra profundamente relacionado con la génesis de la
Materia Oscura, la cual ocurriría entre el periodo de
Bariogénesis y la de Ruptura de Simetría (entre 10-12 y 10-10
s después del Big-Bang).

Al respecto, un reciente y fascinante experimento revela


poderosos indicios que parecen confirmar tal extremo: En
efecto, los ensayos CDF y D0 en el Tevatrón del FERMILAB
acaban de demostrar, reproduciendo a submicro-escala
condiciones análogas a las de estas fases del Universo Muy
Primigenio, que la asimetría entre materia y antimateria
alcanza cotas 50 veces superiores a las predichas por el
Modelo Estándar-GUT o la Teoría EW. Este revolucionario
resultado se basa en los datos analíticos que prueban una
diferencia de un 1% en la producción de pares de muones
sobre los de antimuones en el decaimiento de pares de
mesones Bs y Bc derivados de las colisiones entre partículas
y antipartículas. El informe (redactado en Mayo de 2010), ha
sido publicado en Physical Review. Es la primera vez que se
consigue una evidencia directa de un mecanismo real capaz
de engendrar un exceso de materia sobre antimateria
coherente con el que forzosamente hubo de afectar al
Universo primitivo, en contradicción con los límites
predictivos del Modelo Estándar, consolidando de esta
forma de manera espectacular la exigencia de incorporar la
Supersimetría-Materia Oscura en el mecanismo de la
bariogénesis asimétrica a extenso nivel y..., con ello un
fuerte respaldo indirecto a la Teoría M de Unificación Total,
la cual carece de sentido sin la intervención de las
partículas “Compañeras” super-pesadas propuestas por
SUSY como origen de “estados exóticos” como la Materia
Oscura, fuentes adicionales de asimetría bariónica y
leptónica; “Esta desproporción en un factor 50 veces mayor
de lo que se pensaba está mucho más cerca de la cantidad
necesaria para que exista el Universo tal y como lo
conocemos” – puntualiza Stefan-Solder, de la Universidad de
Manchester (Reino Unido), portavoz del equipo multidisciplinar e
internacional de selectos investigadores –, añadiendo: “Al
encontrar este hallazgo, se nos puso la carne de gallina...
()... estamos muy contentos, porque significa que hay una
nueva Física más allá del Modelo Estándar”.

IV

Consideraciones Generales y Conclusiones inferidas del


estado actual de desarrollo teórico y confirmación empírica
en Cosmología Cuántica

1) Cualquier modelo cosmológico actual o futuro sobre el


origen y evolución global del Universo ha de tener en
cuenta los nuevos conceptos, datos y planteamientos
antes expuestos, lo que supone abordar una nueva
Física teórica que haga compatible o al menos tienda a
conjugar la Teoría Cuántica de Campos (QFT), la Teoría
de Campo Gravitatorio derivada de la Relatividad
General y – debido a la crucial evidencia de la
importancia cualitativa y cuantitativa en la génesis,
estructura y dinámica evolutiva del Cosmos en su
conjunto de la masa y la energía oscuras –, la
Supersimetría, (SUSY). Esta triple exigencia implica,
así como las últimas observaciones astrofísicas y
hallazgos experimentales obrados por los aceleradores
de partículas de muy alta energías, amén de los más
destacados y revolucionarios previstos a corto-medio
plazo, formular una auténtica Teoría de Gran
Unificación, que logre integrar el campo o interacción
gravitatoria con la mecánica cuántica, a la cual
obedecen las otras tres grandes “fuerzas” de la
Naturaleza, la nuclear fuerte, la electromagnética y la
nuclear débil, ya descritas como casos o
diferenciaciones particulares de una única interacción
cuantizada fundamental.

Lo cual supone ir más allá de los límites de la presente


Teoría o Modelo Estándar de Partículas. Más, si cabe,
cuando se pretende insertar dicho proceso de
“separación” de campos específicos a partir de uno
primordial unificado dentro del esquema cosmológico,
mediante la Teoría del Big-Bang y la ulterior “Etapa
Inflacionaria”, Bariogénesis Asimétrica y Expansión
Acelerada del Universo por repulsión de Potencial de
Vacío o Energía Oscura, de las que existen pruebas
cada vez más firmes, sólidas y palpables. Hasta ahora,
tan sólo dos formulaciones teóricas consiguen – con
desigual fortuna, por cierto – este difícil objetivo, que
lleva de cabeza a los mejores cerebros creativos de la
Física desde poco más tarde de la muerte de Albert
Einstein hasta nuestros días: Las Teorías de
Supercuerdas y, muy recientemente, la de Bucles
Cuánticos Gravitacionales.

2) De ambas, las Teorías de Supercuerdas (hasta cinco


variantes de ellas, inicialmente, cuando empezaron a
postularse hace tres decenios), son las más
desarrolladas y potentes explicativamente, siendo cada
vez más amplia su aceptación por la mayor parte de la
comunidad científica. Centrémonos en ellas en este
punto por el momento: No es este el tiempo ni el lugar
de adentrarnos en una más profunda y ardua
exposición detallada sobre el origen, perfeccionamiento
y final “unificación” de los diversos modelos de
Supercuerdas en su más flamante versión, la
denominada “Teoría M” o “Teoría del Todo”, Forjadas
por los trabajos de mentes tan brillantes como las de
los físicos y matemáticos Chris Hull, Paul Townsend,
Michael Duff, John H. Schwarz y Javier Duarte, han sido
posteriormente recopiladas, reorganizadas,
sofisticadas y uniformizadas o “normalizadas” en una
única Teoría de síntesis por el Dr. Edward Witten,
actualmente profesor de física-matemática en el
Instituto de Estudios Avanzados de Princeton, y quien
disputa a eminencias de la talla de un Kip Thorne,
Roger Penrose o Stephen Hawking la “corona” como
“nuevo Einstein” viviente. Para los propósitos de este
ensayo, basta con la síntesis ya realizada al respecto.
Pero sí es obligado destacar que – para conseguir la
anhelada unificación de los campos cuantizados con la
gravitación relativista –, es imprescindible concebir el
Universo como un “objeto cuántico” a una inimaginable
macro-escala hiperdimensional de múltiples Universos
o “estados permitidos” en una gigantesca y pasmosa
Realidad Multi-Versal.; E, igualmente, que la Teoría M,
como todo Modelo de Supercuerdas, se fundamenta
matemáticamente en los Diagramas de Feynman .

3) Por tanto, el más actual, esperanzador y aceptado


avance en la Teoría del Todo, más allá de la Física del
Modelo Estándar, es, por definición y principio,
compatible con la Interpretación de Feynman de la
QFT/Ecuación de Dirac y – consiguientemente – con la
hipótesis del Universo “Taquiónico” Gemelo Especular
sobre la que se apoya mi concepto de la Precognición
como una Transferencia de eventos probables futuros
por Retro-Impregnación Psicofísica.

4) La alternativa a la Teoría M o Teoría Unificada de


Supercuerdas (M-ST, del inglés “M-String Theory”) –
también conocida por “La Teoría Elegante” por la
“suntuosa” coherencia lógico-matemática de su
formalismo –, es la denominada “Teoría Cuántica de
Bucles Gravitatorios” o “Teoría de Gravedad Cuántica
de Bucles” (LQG, del inglés “Loop Quantum Gravity”). Esta
última recibe también el nombre de “La Bella Teoría”,
en el sentido de que, aunque su alcance es menor – por
las razones que no a demasiado tardar intentaremos
explicarnos –, su planteamiento conceptual es tal que,
de él, la cuantización de la gravedad surge de forma
absoluta y fluidamente natural. Esto contrasta con el
abordaje del problema propio de la M-ST, que es un
modelo perturbativo esencialmente anclado en su
origen en la QFT y su descripción de las interacciones
de intercambio entre partículas descritos mediante
Diagramas de Feynman. Capaz, finalmente, al refinarse
y hacerse más compleja, de “hacer pasar por el aro
cuántico”, en términos lógico-matemáticos, al campo
primordialmente continuo y sustanciado en la
deformación geométrica del espacio-tiempo según la
formulación de Einstein, pero de manera “forzada”, por
así decir, o un tanto más “artificiosa”. “Belleza” – en el
sentido de “frescura espontánea”/simplicidad (las
cualidades que el genial “Padre de la Relatividad”
estimaba como “reflejo teórico de la Verdad”) –.

Examinemos las razones que subyacen detrás de esta


notable y medular diferencia.

Esta distinción parte de la definición primigenia misma


de la LQG: Constituye un esfuerzo por establecer una
teoría cuántica de la gravedad independiente del
substrato, lo que significa que no arranca del marco
espacio-temporal cuatridimensional continuo a nivel
macroscópico característico del modelo de la
Relatividad General – por un lado – y, por el otro, de los
Principios Cuánticos de la QFT aplicados a las partículas
puntuales elementales de diferente índole y sus pares
de intercambio gluónico en cada tipo de las otras tres
interacciones fundamentales de la Naturaleza ya
integradas entre sí bajo el esquema de la Teoría
Cuántica de Campos. Ni, desde estas dos formulaciones
en principio contradictorias, trata de “perturbarlas” –
hacia el límite inferior microfísico en el caso de la
gravedad, y pugnando por “proyectarla” o extenderla a
escala macrofísica para el de los fenómenos cuánticos
–, con objeto de hallar un sistema lógico-matemático
formal e hipergeométrico coherente, en que ambos
terminen por converger, presuponiendo así el obligado
cumplimiento “globalizado” del Principio de
Correspondencia, como hace la Teoría de Supercuerdas;
Por el contrario, la Teoría Cuántica de Bucles
Gravitatorios , para simplificar y evitar entrar
demasiado en detalles técnicos matemáticos
complicados e inútiles para el propósito de este
trabajo, digamos que fija como hipótesis inicial que es
el propio espacio-tiempo como tal el que se halla
cuantizado estructuralmente. Nos hallamos – por
consiguiente – ante una Teoría Cuántica del Espacio-
Tiempo, en un sentido literal.

Ahora bien, por más que su progreso y desarrollo hayan sido


lentos y engorrosos, y en su forma actual – que todavía dista
de ser completa – pueda ser considerada como más “joven” o
novedosa que las Teorías de Supercuerdas – las cuales
empezaron a emerger hace unos 30 años –, su “semilla
remota” fue plantada muy temprano: En plena década de los
años 20 del siglo pasado, poco después de la publicación de
Albert Einstein sobre su Teoría General de la Relatividad. Tal
aportación fue obra del matemático francés Elie Cartan: Éste
generalizó las ecuaciones de campo einstenianas apoyadas en
la métrica de Riemann de modo que incluyeran espacio-
tiempos con torsión además de curvatura, posibilidad ausente
en la formulación original de Einstein. Físico-
matemáticamente, ello equivale a una geometría del espacio-
tiempo a la manera de redes de fibras y conexiones, En esta
métrica, la noción de “distancia cuatridimensional” queda
sustituida como elemento central por el de “transporte
paralelo”. Éste es un operador matemático que permite
trasladar vectores sobre curvas diferenciables o geodésicas
variablemente suaves de modo que permanezcan “paralelos”
(en un sentido tetradimensional) a una conexión determinada.
Lo análogo ocurre con el concepto de “intervalo temporal
invariante”, ya que el tiempo es representado como una
cuarta dimensión espacial en términos de la métrica de
Riemann-Einstein, elaborada a su vez desde el denominado
“espacio cuatridimensional de Minkovski”. Cimentándose en
tal antecedente, el físico-matemático británico Roger Penrose
llevó a cabo en 1967 una reformulación de la geometría
espacio-tiempo presentándolo como un “mallado”
combinatorio cuántico, o “Redes de Espín” (SN, de “Spin
Networks”). Para ello, utilizó unos inéditos y peculiares
instrumentos matemáticos que bautizó como “twistores”,
porque actuaban como operadores cuánticos rotacionales en
una métrica de números complejos. Sus “criaturas” consiguen
“mapear” los objetos geométricos en un espacio algebraico
tetradimensional complejo a través de pares 2x2 de
coordenadas reales/imaginarias definidas por su autor cual
“tétradas”. El principal inconveniente es que su técnica
permite resolver muy bien las ecuaciones de movimiento para
los campos sin masa dotados de espín arbitrario, lo que
obviamente excluye a la gravedad. Posteriormente, el físico
teórico hindú Abhay Ashtecar volvió a replantear las
ecuaciones de la Relatividad General empleando un cambio de
variantes a un conjunto denotado por “variables de Ashtecar”,
las cuales constituyen un nuevo enfoque de la geometría de
“fibras y lazos” de Cartan, pero admitiendo las conexiones
complejas propias del formalismo de Redes de Espín-Twistores
de Penrose. Así, consiguió aproximar una primera cuantización
de la gravedad, como una variedad de las interacciones de
campos de Gauge usadas por la QFT en física de partículas. En
este modelo, cada “objeto/partícula” elemental queda definido
cual un operador o “regla de transformación/rotación” para el
transporte paralelo de sus vectores de estado (funciones de
onda) – técnicamente llamados “conexiones” –, y un marco
coordenado definido (tétrada). El sistema matemático viable
para ello son los “Bucles de Wilson”, un método diseñado en
1970 con el fin de analizar la interacción de campo cuantizada
de la fuerza nuclear fuerte en el contexto de la Cromodinámica
Cuántica. Más adelante aún (principios del útlimo decenio del
siglo XX), Carlo Rovelli y Lee Smolin perfeccionaron su trabajo,
consiguiendo una base de formulación explícita para los
estados geométricos cuantizados en campos dotados de masa,
cuya estructura era coherente con la Redes de Espines de
Penrose. Demostraron que los SN de Penrose – la arquitectura
tetradimensional del espacio-tiempo de Minkosvski-Riemann
cuantificado desde su raíz –, no eran otra cosa que una
generalización de los bucles o “lazos” de Wilson, necesaria
para representar a dos o más bucles que intersectan
mutuamente, lo que es la traducción en su métrica discreta o
cuantizada de la acción mutua entre dos masas deformantes
del espacio-tiempo continuo de Einstein... Expresado de otra
manera, la interacción por gravedad.

Pero una vez nacida, la Teoría de Bucles Gravitatorios


Cuánticos no había dicho su última palabra...

En Diciembre del 2010, un grupo de físicos de la Universidad


de Varsovia publicaron en la revista especializada Physical
Review D un nuevo modelo teórico basado en la Gravedad
Cuántica de Bucles, mucho más avanzado que los anteriores, y
capacitado por ello para describir el nacimiento del espacio-
tiempo a partir de las estructuras y principios cuánticos. A
diferencia de las teorías cosmológicas tradicionales – apoyadas
fundamentalmente en la Teoría General de la Relatividad –, la
LQG evita el gravísimo problema de las “Singularidades” o
“soluciones infinitas” de las ecuaciones de campo cuando en
su modelo dinámico del Universo retrocedemos tan cerca de
su origen/Big-Bang que las densidades y temperaturas tienden
a crecer desmesuradamente. Esta es una de sus más
encomiables ventajas. Pero, hasta ahora, los científicos
adeptos a los “Bucles de Gravedad” habían desarrollado
aproximaciones cuánticas cosmológicas muy simplificadas, en
las cuales los estados de la materia y el espacio-tiempo vienen
definidos por un número finito y muy limitado de valores.

Por su parte, los resultados de la Teoría Cuántica de Campos


aplicados a una fuerza o interacción dada generan
invariablemente también estados “infinitos”. Estas
incongruencias delatan a las claras que ambos enfoques son
limitados e incompletos, por lo que los físicos saben desde
hace unos 60 años que se requiere una Nueva Teoría
Unificada. Entretanto, ellos y sus colegas matemáticos han
puesto a punto técnicas “para salir del paso”
provisionalmente, con el objeto de eliminar estas “soluciones
infinitas” en el contexto de la QFT. Estos procedimientos se
conocen como “renormalizaciones”. Si bien, únicamente
funcionan para los casos del campo nuclear fuerte, el débil y el
electromagnético, no para el gravitatorio. La causa es sencilla
de asimilar: Mientras que estos tres últimos parten de una
formulación ya cuantizada de un número elevado pero finito
de posibles “estados discretos” discontinuos permitidos, las
ecuaciones de campo de Einstein para la gravedad son
continuas; De esta manera, las “molestas” soluciones
“infinitas” absurdas son muy reducidas y de signos
simétricamente contrarios para los primeros – y por ende
“eliminables” por la vía de la renormalización –, pero , en el
escenario gravitatorio, las partículas portadoras, siempre e
invariantemente atractivas, se tienden a agrupar juntas en
volúmenes mínimos y, por ello, engendran muy compactos
conjuntos de interacciones con numerosos estados de
potencial-densidad infinitos, imposibles de ser cancelados
entre sí. Este monumental problema sólo es “sorteable” por
dos caminos: 1) Presuponer que cada clase de partículas
interactivas, al igual que sus gluones de intercambio sin
masas, no son más que la “proyección” o “condensación” en
masa-energía de diferentes estados cuantizados permitidos
resonantes de vibraciones de “supercuerdas” abiertas o
cerradas, pero a costa de establecer un espacio de referencia
de 10 o más dimensiones físicas además del tiempo. Lo que
obliga a suponer que las siete dimensiones espaciales
adicionales a las tres evidentes se encuentran “hiper-
enrrolladas” a escalas sub-nanométricas y – por ello –
indetectables. Esto es lo que postulan las Teorías de Cuerdas y
sistematiza/generaliza la Teoría M; 2) O bien proponer desde el
principio que es el propio “tejido” del espacio-tiempo
cuatridimensional el que se halla cuantizado en unidades
discontinuas, con una textura en red “espumosa” conformada
por fibras-conexiones a modo de “bucles o lazos”, cuya
descripción matemática esencial coincide con los “Spín-
Networks” antes señalados. Estos elementos actúan
recíprocamente entre sí de varios modos “permitidos”,
correspondientes a los estados cuánticos del campo de
gravedad. Estos bucles han de presentar un tamaño ínfimo –
calculado en torno a 10-35 m, del orden de la “distancia de
Planck”, y un intervalo temporal mínimo indivisible entre sus
interacciones de 10-43 s (“tiempo de Planck”) – lo que define
expresamente la cuantificación intrínseca del espacio-tiempo.
Los “lazos” se anudan entre sí de varias formas, llevando a la
génesis de bordes, superficies y vértices, de un modo análogo
a como crecen o se ensamblan entre ellas las pompas de
jabón. Cuando se divide un bucle, se producen otros dos, cada
uno de ellos con el mismo tamaño primitivo. La Red SN es – en
consecuencia – la representación de los estados cuánticos
posibles para la geometría espacio-temporal relativa: La Teoría
de la Relatividad General de Einstein no sería más que una
primera aproximación “clásica” macroscópica a la métrica
cuantizada del espacio-tiempo, como su mismo autor terminó
por predecir – a regañadientes, por cierto – cuando la cantidad
y calidad de pruebas irrefutables a favor de la Mecánica
Cuántica le forzaron a ello. Esto, y la mayor “sencillez” o
“economía matemático-dimensional” de sus ecuaciones,
permiten aventurar que – en la actualidad – Albert Einstein
sería partidario de la LQG, como aproximación inicial, al
menos, a la anhelada y esquiva “Teoría del Todo” o “Santo
Grial de la Física”. La preferiría a la “más artificiosa” Teoría M
de Supercuerdas... Cuestión de “Belleza”..., ya saben. Tal
reflexión consuela a sus defensores y propugnadores del
hecho de que, hoy por hoy, están en minoría en el seno de la
comunidad científica, en una proporción de 10 contra 1, más o
menos. Aquí tenemos la propuesta de la Teoría Cuántica de
Bucles Gravitatorios. Los desarrollos de dicha métrica de
Ashtekar, originados hasta hace muy poco por teóricos como
Lewandowski, Pawlowski, Bojowald, John C. Báez, y Singh,
entre otros, predicen que el Campo Gravitatorio Cuántico
impide el aumento de la densidad promedio de materia en el
Cosmos por encima de cierto valor crítico, del orden de
magnitud de la densidad de Planck. Mas entonces – como
su modelo carece de las fastidiosas y “horribles”
singularidades –, nuestro “Universo” presente ha
debido originarse por efecto de la anterior contracción
descomunal de otro “Universo Paralelo o Gemelo”, muy
“próximo”, desde la perspectiva de una quinta
dimensión física adicional... Cuando tal contracción
alcanzó el señalado nivel máximo de densidad de masa
permitido por los estados cuánticos de la “geometría
en red espumosa”, se produjo – por reacción “elástica”
– una violenta expansión (fase inflacionaria),
posteriormente frenada por la atracción de la
gravedad, pero cuyo impulso ( equivalente al potencial
de Energía Oscura), fue tan monstruoso que la
velocidad de esta expansión no dejará nunca en rigor
de acelerar. De esta suerte, el dilema insoluble de la
“Singularidad Primigenia” se evita y el “Big-Bang” es
reinterpretado cual un “Big-Bounce” o “Gran Rebote”.
Lo que “resucita” sobre mucho mejores y más firmes
bases la vieja Teoría del Universo Cíclico, pero
actualizada como Teoría de Multiversos agrupados por
Pares de Contracción-Expansión “eternas” o
indefinidas...

Desafortunadamente, el no pequeño inconveniente de estos


planteamientos era que se trataba de modelos en los que –
debido al muy reducido número de “valores permitidos”
asignados a los estados de materia y espacio-tiempo –,
resultaban excesivamente primarios o simplificados, casi
“maquetas de juguete”... Por más que algunas de sus
simulaciones por computadora de los sucesivos “Big-Bounces”
constituyesen todo un espectáculo tan estimulante como
sugestivo.

Sin embargo, como ya se afirmó, esto acabó cerca de las


Navidades del año pasado. El revelador y crucial artículo de
investigación elaborado por los científicos de la Facultad de
Física de la Universidad de Varsovia (FUW), Marcin Domagala,
Wojciegh Kaminsky y Jerzi Lewandowsky – además de Kristina
Giesel (colaboradora de la Universidad de Louisiana) –,
muestra un nuevo y sofisticado modelo cuántico-cosmológico
de bucles que arranca del marco de la LQG, estableciendo dos
premisas sustanciales: La existencia de un campo
gravitacional constituyente-conformador de la geometría
cuantificada relativa del espacio-tiempo, y la de otro campo:
Un campo cuántico escalar que asigna a cada punto de dicho
espacio un valor discreto permitido. Este campo escalar puede
variar sus parámetros en función de las diversas estructuras
interactivas de lazos determinadas o asociadas en cada región
coordenada por la métrica de bucles o red SN, y representa
por tanto las partículas elementales de materia; Los propios
autores justifican de este modo lo absolutamente “evidente” o
“axiomático” de sus presupuestos: “Gracias a la Teoría
General de la Relatividad, sabemos que la Gravedad
constituye la verdadera geometría del espacio-tiempo.
Podemos afirmar por lo tanto que nuestro punto de partida es
el espacio tridimensional” – afirma Domagala, quien además
es Doctor en Filosofía por la FUW; Por su lado, el profesor
Lewandowsky explica: “Hemos optado por un campo escalar
ya que es la característica típica de de los modelos
cosmológicos actuales y nuestro objetivo es desarrollar un
modelo que constituya otro paso adelante en la investigación
de la Gravedad Cuántica” ; Y, referente al “aspecto” que la
trama del espacio-tiempo adquiere en este esquema teórico,
Wojciech Kaminsky, Licenciado en Ciencias por la misma
institución, describe: “Es como en el caso de una tela –
aunque parezca suave a distancia – se hace evidente al
aproximarse y ver que está compuesta por una cadena de
fibras”. Según los cálculos de este estudio, el citado tejido
reticular sería tan fino que un área de un centímetro cuadrado
contendría alrededor de 1066 “hilos”. En este modelo, el
tiempo surge como la relación entre el campo gravitatorio, que
da forma a la métrica o estructura del espacio tridimensional,
y el potencial del campo escalar de masa-energía asociado:
Así, un “momento” determinado en el tiempo cuantizado
relativo no es más que una manera de medir el “valor
permitido” de este campo en un punto del espacio: “Nosotros
planteamos la cuestión de la forma del espacio para un valor
dado del campo escalar, y las ecuaciones “cuantificadas” de
Einstein nos dan la respuesta” – precisa Lewandowski. Dicho
en otras palabras: El fenómeno del flujo del tiempo es una
propiedad emergente de los estados de campo gravitacionales
y de masa-energía escalar, se trata de una magnitud derivada
y local, no absoluta ni preexistente o intrínseca desde el origen
con la estructura métrica “vacía” del espacio. De hecho, esta
es la razón concreta por la que admite sin problemas,
paradojas ni singularidades infinitas divergentes la fase
previa de un “Antiverso Gemelo” que se contrae
desmesuradamente hacia casi un “Big-Crunch” –
dinámica “simétrica” a la expansión de nuestro Cosmos
que, como ya nos consta, sólo es concebible invirtiendo
el signo de la variación total de entropía y el sentido de
la “flecha del tiempo”. Extremo que distingue y añade
potencia a la par que, en especial, “belleza”, a la novedosa
Teoría Cuántica de Bucles Gravitatorios, además de hacerla
sustrato-independiente, y más “económica” en el sentido de la
Navaja de Ockam, que cualquier otro Modelo Cuántico-
Cosmológico de comparable poder unificador y predictivo,
como la M-ST. Pues no necesita – en contraste con ella –
“inflar” el número de dimensiones espaciales del Multiverso
para lograr la coherencia y estabilidad funcional matemática.
Citando al sabio polaco Lewandowski una vez más: “Merece la
pena hacer la observación de que el tiempo no existe al
comienzo del modelo, Su acción y dinámica aparecen como la
interrelación entre los campos cuando comenzamos a hacer
preguntas de cómo un objeto se relaciona con otro”. Uno de
los méritos más relevantes de este trabajo es que demuestra
que es posible ofrecer una explicación más precisa de la
evolución a macro-escala del Universo basándose en principios
microfísicos cuantizadores de la gravedad desde la raíz,
mientras que las descripciones facilitadas por la Teoría
General de la Relatividad, aparte de limitarse a una
simplificación continua o “clásica” del problema, por ello
mismo tienden a asumir que la intensidad de campo
gravitatorio en cada punto del espacio es uniforme o
experimenta leves variaciones, mostrando los fenómenos tales
como las estrellas super-masivas o los agujeros negros a modo
de “excepciones”, “sistemas-límite” o francas “singularidades”
inabordables, o a lo sumo aproximadas de formas muy
engorrosas y artificiosas. Sin embargo, en esta Teoría
Avanzada LQG – por definición – el campo de gravedad es
altamente local espacio-temporalmente y, por consiguiente,
puede adoptar valores muy variantes entre otras tantas
regiones del Cosmos en un mismo “instante” de su evolución.
Esta construcción teórica es la primera de elevada complejidad
y a la vez “robusta” consistencia matemática interna dentro
de los modelos de Gravitación Cuántica de Bucles. Como todo
este tipo de desarrollos, requiere utilizar un notorio y
productivo instrumental matemático denominado “algortimos
de cuantización”, que hacen factible partir de una formulación
clásica-continua y transformarla en su equivalente cuántico,
conservando su validez: Esto quiere decir que, en el límite
superior, haciendo las masas “enormes” o “muy densas”, por
ejemplo, sus ecuaciones y las soluciones de éstas tenderán a
tornarse idénticas a las del Campo Gravitatorio de Einstein; La
forma matemática de asegurar que cumplen el Principio de
Correspondencia: Hasta el presente, los anteriores modelos
más “toscos” de la LQG no satisfacían este muy relevante
requisito, lo que constituía una de las más duras objeciones
contra esta teoría. Por el contrario, el trabajo llevado a cabo
por este grupo de la Universidad de Varsovia supera muy bien
tal inconveniente. Tales dificultades son comunes en los
estadios iniciales o inmaduros de la mayor parte de los
planteamientos teóricos de enfoque cuantizador:
“Desafortunadamente para los físicos – aclara el asimismo
Máster en Ciencias Marcin Domagala – los algortimos distan
mucho de ser precisos. Por ejemplo, un algoritmo puede
aproximarse a lo que se necesita para construir un espacio de
Hilbert – (una generalización matemática del espacio
geométrico euclídeo que posibilita extender conceptos, entes
o técnicas algebraicos y operaciones métricas definidos en
espacios de dos y tres dimensiones a otros de número
dimensional arbitrario, hasta “infinito”) –, pero no arroja
detalles... ()... Hemos tenido éxito en la realización completa
de una cuantización y conseguir uno de los modelos posibles”.

Los logros obtenidos son – pues – grandes y meritorios. Pero


aún están lejos de ser completos: Entre otras cuestiones, falta
refinar el método para conseguir una simulación lo
suficientemente detallada del trascendental proceso del “Big
Bounce” o “Gran Rebote” a partir de las premisas de la teoría;
También persiste la otra gran deficiencia original de la Teoría
Cuántica de Bucles Gravitatorios frente a la Teoría M de
Supercuerdas – junto al de su primitiva incapacidad de cumplir
el Principio de Correspondencia, ahora felizmente anulada – :
Sigue siendo una formulación restringida a la interacción por
gravedad, ignorando las otras tres Fuerzas Fundamentales de
la Naturaleza. Como apunta de nuevo el profesor
Lewandowski, “...en el futuro, intentaremos incluir en el
modelo más campos de partículas elementales del Modelo
Estándar, Nosotros mismos tenemos curiosidad por saber qué
va a suceder”.

5) Tanto la Teoría M-ST como la LQG convergen –


sugerente y reveladoramente –, en predecir modelos en
los que existe una Realidad Multiverso, así como un
“algo” antes del Big-Bang, sustituyendo y evitando por
dos métodos diferentes el carácter de “Singularidad”
de éste, y del hipotético “Big-Crunch” de un Universo
Paralelo Especular previamente contractivo, por el de
un Big-Bounce o Gran Rebote continuo y “oscilante”
entre una especie de “Meta-Universo” Dual Gemelar
conformado por un par de Universos muy próximos y
similares, pero invertidos en sus flujos fundamentales
de causalidad, entropía y sucesión de eventos, o “triple
flecha del Tiempo”. A este respecto, los físicos Paul J.
Steinhardt y Neil Turok propusieron un escenario
cosmológico tipo multiverso basado en la formulación
de la Teoría M de Supercuerdas: En éste, nuestro
propio Universo y todos los demás - en un número
inmenso pero finito – estarían constituidos por unas P-
Branas o membranas de 10 dimensiones de distintas
extensiones, formas y tamaños – formadas por haces
de supercuerdas entrelazados y asimismo
interpenetrados a su través de diversos modos hiper-
geométricos – desplazándose/evolucionando
temporalmente en un hiperespacio-tiempo de 11
dimensiones mínimas (por ejemplo, expandiéndose o
contrayéndose a variables ritmos), de maneras
específicas en función de sus particulares
combinaciones de parámetros cosmológicos y
magnitudes de sus constantes físicas fundamentales,
cada uno de ellas definitorias de un “estado discreto
permitido”, puesto que los Universos individuales no
serían otra cosa que enormes macro-objetos cuánticos.
Con el propósito de facilitarnos la visualización comprensiva
de esto imaginemos una simplificación reduciendo el número
de dimensiones implicadas: Los Universos-Brana podrían ser
planos – folios o trozos de papel de variopintas simetrías o
contornos más o menos regulares y valor de superficie total
(pero percibidos “desde dentro” como “infinitos” para sus
hipotéticos y diminutos “seres bidimensionales” auto-
conscientes), moviéndose en un espacio externo común de
tres dimensiones. Hasta ahí, nada nuevo en el marco de la
Teoría de Supercuerdas... La innovación que estos
investigadores aportaron es modelar físico-
matemáticamente lo que ocurriría cuando dos de estos
Universos-Membranas (U-Branas) se aproximasen entre
sí; Una vez se aproximasen tanto más que la separación
del orden de un diámetro atómico medio, las
ecuaciones determinan el equivalente
“superondulatorio” a un “choque intermembranal”: Un
titánico fenómeno de interferencia entre enormes
sectores de haces de supercuerdas vibrantes, que,
dependiendo de la orientación, amplitud e intensidad
relativa de oscilación, hipergeometría del impacto y de
las secciones de P-Branas interesadas en él, podría
calificarse de destructiva, constructiva,.., etc. En
particular, cada colisión tiende a generar “nuevas
formas/ P-Branas” en fases y amplitudes recombinadas,
esto es “nuevos Ciclos-Universos”. El proceso puede
ocurrir – desde el sistema de referencia de cada uno de
ellos – tanto en sentido pasadogfuturo como
futurogpasado. Es indiferente, ya que equivale
sencillamente a cambiar el signo de la ecuación de
hiper-onda y/o de su fase de desplazamiento relativo.
En el primer caso, produce “Universos-Bebé” en rápida
expansión inicial (Big-Bangs), en el segundo, en veloz
contracción primigenia (Big-Crunchs) y, contemplado el
mecanismo “desde arriba” o en conjunto en el
hiperespacio máximo de 11 dimensiones, ambos
fenómenos componen un Big-Bounce o “Gran Rebote”
mutuo. A partir de ahí los U-Branas se separan y
continúan evolucionando cada uno por su cuenta,
durante prolongadísimos periodos. Hasta que, debido a
la desmesurada dilatación y/o contracción entre ellos,
vuelven a aproximarse, iniciándose otro Ciclo..., y así
sucesivamente. El proceso de sucesivos Ciclos de
Interferencias-Choques entre Universos-Branas es
indefinido, tanto en dirección presentegfuturo como
futurogpresente. No hubo ni habrá jamás un auténtico
Principio ni Final, a la mega-escala hiperespacial de los
Multiversos.

En suma, ambas formulaciones tienden a solaparse en


lo que ha venido en denominarse “Modelo Cosmológico
Ekpirótico del (los) Universo (os)”. El calificativo procede
del término clásico grecorromano que define la primitiva
concepción cosmológica ligada a la filosofía estoica
desarrollada por pensadores como Lucio Anneo Séneca y
otros, que describía un Universo Físico en perpetuos periodos
de destrucción-renovación por el “Fuego Cósmico”... Si la
actual teoría científica de igual nombre es confirmada, habrá
que felicitar a estos sabios antiguos por su sobresaliente
intuición casi “premonitoria”...

6) Esta sustancial congruencia entre ambos modelos no es


tan extraña: En realidad, ambas Teorías – la M-
Supercuerdas y la de Bucles Cuánticos Gravitatorios –
apuntan serios indicios de poder ser más
complementarias que contradictorias.

Su aparente y bastante exagerada “incompatibilidad” procede


en verdad de que su estudio, desarrollo y “cultivo” ha dividido
a la comunidad científica de físicos teóricos de vanguardia en
dos “bandos” rivales, aunque la M-ST cuente por el momento
con unas diez veces más “efectivos” de brillantes cerebros
dedicados a ella que la LQG. Sobre este hecho hay incluso
chistes que circulan en el mundillo académico de la física de
vanguardia. Esto es hasta cierto punto comprensible, porque
cada una de ellas arranca de premisas conceptuales muy
diferentes y emplea procedimientos matemáticos
marcadamente diferenciados...

Pero – fenómenos sociológico-grupales y batallas de egos


relucientemente titulados aparte –, si analizamos con fría
objetividad el asunto no podemos menos que inferir que
podría existir una estimable posibilidad de “entendimiento”...

O, mejor dicho que, cual era de prever en el abordaje


de un problema tan complejo, ambas son formas
todavía incompletas, inmaduras y probablemente
complementarias de una futura
integración/amplificación en una sólida, coherente y
potente Teoría del Todo de Gran Unificación
revolucionaria y decisiva: La M-ST abarca los cuatro
Campos o Fuerzas Elementales en un marco cuántico-
cosmológico coherente y explica porqué el de gravedad
ha de ser tan extraordinariamente débil. Pero exige un
número elevado de dimensiones espaciales adicionales
“replegadas” e inverificables por el momento; La LQG
no necesita tal cosa ni la Supersimetría de partículas,
mas por ahora no incluye en sus planteamientos otra
fuerza de campo cuantificada que la gravitación. Y el
hecho de que no precise de los elementos indicados no
significa que su posible existencia sea incompatible con
ella. De hecho, es racionalmente probable que ambos
modelos resulten a la postre básicamente correctos y
compatibles. Concebir las Branas como conjuntos de
Redes de Espines es una idea más que aceptable, solo
necesita una o varias mentes excelentes que la
articulen matemáticamente: En este caso, la Teoría
Cuántica de Bucles Gravitatorios actuaría como un
marco más profundo para la Teoría M de Supercuerdas,
y ésta le proporcionaría a la primera el camino para
extenderse o generalizarse a las interacciones diversas
de la gravedad.

A causa de la acentuada división ya reseñada entre los


investigadores, se ha trabajado poco en este sentido, tan sólo
el físico Lee Smolin tiene el honor de comenzar a intentarlo.

Esperemos que su ejemplo prevalezca, permitiéndonos


acceder a una Nueva y Hermosa Teoría Integral del
Todo que por fin conjuge de modo idóneo Elegancia y
Belleza..., cumpliendo así el Gran Sueño Inconcluso de
Albert Eintein y, tras él, de todos quienes anhelamos
acceder al menos a un principio del conocimiento de los
cimientos físicos de la Realidad... Y que podamos vivir
para contemplarlo: En ese día, la Física
Hiperdimensional/Multiversal rigurosa habrá nacido...
y, con ella, lo que este modesto librepensador ha
llamado “Transpsicofísica”...

7) Por fortuna, a tan radiante y noble posible logro ayuda


el hecho de que ambas teorías son – además de
consistentes lógico/matemáticamente cada una en su
contexto –, abiertamente falsables, lo que las convierte
en seriamente “científicas”, por otro lado; Dicho de
otra forma: Pueden ser comprobables empíricamente.
Los dos modelos cosmológico-cuánticos han calculado y
realizado predicciones concretas acerca de la
intensidad y frecuencia de las ondas gravitatorias que
habrían de ser detectadas como “eco” del último “Gran
Rebote/Big-Bang” que supuestamente originó el actual
Ciclo de nuestro Cosmos... Este acontecimiento
primordial equivaldría a la caída de una piedra arrojada
sobre un estanque, Las ondas generadas por el impacto
se extienden, y si encuentran sobre la superficie un
obstáculo, se modifican o perturban. Midiendo estos
efectos, se pueden calcular sus parámetros y
características iniciales. De análoga manera, cuando
una onda gravitatoria alcanza un cuerpo astronómico
masivo, éste, al ser atravesado por ella, se estirará y
comprimirá. Hasta hoy no se ha logrado detectar estas
ondas, predichas desde la Teoría General de la
Relatividad, a causa de su extrema baja intensidad, a
diferencia de lo que ocurre con el análisis de la
radiación de fondo en la banda de microondas, la
principal fuente radioastronómica de datos fiables
acerca del Universo primitivo. Pero esto puede cambiar
a corto plazo con la puesta a punto de nuevas y
avanzadas tecnologías polarimétricas ultrasensibles en
los observatorios LIGO y VIRGO, así como las instaladas
a bordo del satélite de sondeo remoto Planck Surveyor.
Además, tenemos definida la medida exacta que
decidirá si los Modelos del Gran Rebote, o la “Inflación
Clásica” tras un Big-Bang/Singularidad único
primigenio, ganan finalmente la partida: Los cálculos de
las nuevas Teorías Cíclico/Ekipiróticas determinan un
orden de intensidades promedios de las “señales
fósiles” de ondas gravitatorias unas 50 veces más
débiles. Cuando real y efectivamente se detecten tales
registros, la cuestión quedará zanjada por la fuerza de
la evidencia. No obstante, ya hay serios indicios de que
el Modelo de Multiversos Cíclicos puede ser
sustancialmente correcto: En un artículo publicado
digitalmente a finales del 2010 en Arxiv.org por el
eminente físico-matemático y cosmólogo teórico Roger
Penrose, el sabio afirma sin rodeos que se han
recabado observaciones que indican la existencia de
otro Universo, previo al inicio de la Gran Expansión
Primordial que “engendró” el nuestro. Tan
extraordinaria y revolucionaria conclusión se apoya en
el análisis de los últimos datos logrados por el satélite
WMAP; En ellos, se han contrastado la aparición de
ciertos patrones circulares en el fondo de microondas
cósmico, a modo de “ecos concéntricos” netamente
definidos. Estos resultados implican una fuerte señal de
que el espacio-tiempo no comenzó a existir en un Punto
Cero Singular o Big-Bang hace aproximadamente 14000
millones de años, sino que el “esqueleto” geométrico
espacio-tiempo se conserva desde muchísimo antes (en
verdad, no tendría Principio ni Fin, habríamos de
considerarlo “eterno”), habiendo sido sucesivamente
contraído y expandido en Ciclos continuos o “Universos
Pulsantes”, cada uno de ellos bautizados como “Eones”
por el insigne científico. Penrose resalta,
adicionalmente, que el Modelo Inflacionario Estándar
no encaja con el bajísimo estado de entropía que
necesariamente hubo de caracterizar el estado original
supercomprimido en la supuesta Singularidad Original,
para así poder justificar el nacimiento explosivo del
Universo y su estado actual tal y como lo conocemos.
Un antiguo argumento contra la teoría cosmológica
oficialmente aceptada hasta ahora y al que nadie ha
podido replicar de modo satisfactorio hasta la fecha.
Pero sí cuadra a la perfección con un escenario en el
cual el tremendo impulso de la Explosión primitiva
constituyese una reacción a una igualmente gigantesca
y universal contracción-compresión hasta un estado de
altísima densidad y mínima entropía (“Big-Crunch”), en
una suerte de “Universo Gemelo” con la Triple Flecha
del Tiempo invertida. El Modelo Cosmológico Oscilante de
Penrose predice que, en un futuro desmesuradamente lejano,
este Universo/Eón particular retornará – a causa de su
incesante por más que ahora suave aceleración expansiva –, a
recobrar, en cierta forma, las condiciones esenciales que le
empujará a una situación “crítica” tendente a propiciar un
nuevo Ciclo: Monstruosamente frío, dilatado, desordenado,
absolutamente uniforme, de geometría casi infinitamente lisa,
lineal y suave – en contraste con la situación actual, en
promedio más o menos homogéneo en todas direcciones pero
con abundantes “picos” y “discontinuidades” o variaciones
locales, que permiten la condensación de estructuras masivas
complejas como estrellas, galaxias y cúmulos –. Esta “super-
continuidad” de forma en su más extremo porvenir, le
conducirá a una “transición cuántica terminal de fase” que le
empujará a un nuevo Eón de contracción/inversión, al principio
brusca y exponencial (etapa “anti-inflacionaria, por así decir),
y luego más lenta pero ligeramente acelerada, por el “freno
antigravitatorio”, justo “simétricamente” a lo acontecido en el
Ciclo anterior... Y así sucesiva e indefinidamente. Penrose no
duda en aseverar que ha encontrado pruebas empíricas de lo
que postula: Y estas confirmaciones se hallan en el estudio del
fondo cósmico de microondas, los “ecos” lejanísimos del Big-
Bang, para él el mero comienzo del último Eón... Examinando
en detalle las señales detectadas por el satélite
radioastronómico de exploración profunda WMAP, desde siete
años atrás, Penrose y su colega armenio Vahe Gurzadyan, han
identificado con claridad y rigor una serie de “círculos
concéntricos”, correspondientes a vastas zonas en el
firmamento de microondas excepcionalmente lejanas y, por
ende, antiquísimas, en las que el rango de temperatura de la
radiación desciende notablemente en relación a otras
regiones. Son exactamente estos círculos las “ventanas” que
nos permiten vislumbrar, a través y más allá del Big-Bang,
cualquier otro concebible suceso precedente, es decir,
perteneciente al anterior “Eón Cósmico” en los términos de la
Teoría de Penrose, o cualquier otra aproximación del
Multiverso Ekpirótico. Estas “titánicas huellas de impacto” –
interpretan Penrose y Gurzadyan – “son marcas dejadas en
nuestro Eón por las ondulaciones esféricas de las ondas
gravitatorias que se generaron cuando los agujeros negros
colisionaron en el Eón anterior”. (Se entiende que en los
últimos estadios de la “Supercompresión”). Además – razonan
– la mera existencia de estos círculos u ondas
“fosilizadas” de choque suponen un irresoluble desafío
para el actual Modelo Inflacionario dentro del Modelo
Cosmológico Estándar: En función de éste, la
distribución de las variaciones o anisotropías locales de
temperatura en origen, a partir de la
“inflación/alisamiento” global exponencial y
uniformador del Universo, debe presentar un perfil
gaussiano o aleatorio, en lugar de mostrar estructuras
o simetrías definidas en su interior. Muchos astrofísicos
y cosmólogos más “conservadores” – a quienes las
ideas de Penrose y otros “escandalizan” – han
rechazado con cierta acritud la tesis de las “huellas de
colisión entre agujeros negros”, arguyendo que es
altamente “especulativa”. Pero no han ofrecido a
cambio ninguna explicación para tales registros
concéntricos totalmente anómalos e incompatibles con
el Modelo Estándar.

Finalmente, anotar que las tesis “Ekpiróticas-Big


Bounce/Multiversos” o similares cuentan, asimismo,
con “pruebas indiciarias negativas” a su favor, que
además pueden fortalecerse de manera inminente...
Explicaremos porqué de modo sintético: Tal cual ya
señalamos, los nuevos Modelos Cíclicos con “Rebote
Cósmico” predicen una generación de ondas
gravitacionales de intensidades en torno a 50 veces
inferiores a las estipuladas por la Hipótesis “Clásica”
del Big-Bang. Incluso hoy mismo resulta un tanto “extraño”
que los actuales sistemas de detección telemétrica no hayan
captado jamás ni la más mínima traza del “fondo de ondas
gravitatorias”, mediante técnicas análogas a las muy fecundas
en el sector de las microondas, mucho más intensas, pues
teóricamente se hallan levemente por encima del umbral que
las cifras del “escenario estándar” calculan. Ahora bien, si
los radio-telescopios del futuro próximo – dotados de
una ultra-sensibilidad y poder de resolución
considerablemente más elevados, como el del Planck
Surveyor, siguiesen sin registrarlas, al ser inevitables
distorsiones de fondo ocasionadas por la rápida
expansión exponencial ligada a la Inflación Primordial
en términos de la teoría actual –, ésta se vería
seriamente comprometida. No así la alternativa
“Cíclica”, pues dicho instrumental no dispondrá aún de
una magnitud 50 veces más alta de sensibilidad-
resolución. Para corroborar empíricamente esta
innovadora y audaz opción – empero – habremos de
aguardar algo más, hasta que la tecnología avance
hasta dichos grados de finura.

CONCLUSIÓN FINAL

El estado actual de la formulaciones teóricas más


consistentes que superan los límites del Modelo Estándar en
Cosmología y Microfísica, y su nivel de coherencia con los
datos, indicios y evidencias observacionales y
experimentales obtenidos por la Astrofísica, Radio-
Astronomía y la Física de Partículas de Altas Energías,
permiten asumir como muy estimablemente razonable la
“histórica” Interpretación de Richard Feynman de las
Soluciones Negativas de la Ecuación de Dirac, en el contexto
de la Teoría Cuántica de Campos y la más antigua todavía
Solución de “Onda Adelantada” de las Ecuaciones de Campo
Electromagnético de Maxwell aplicadas al desplazamiento
de la luz en el vacío, a través de la Hipótesis Taquiónica.
Ésta, combinada con los nuevos Modelos Cuánticos
Cosmológicos “Neo-Cíclicos”/Ekpiróticos del Multiverso
basados en la Teoría M Unificada de Supercuerdas, la Teoría
Cuántica de Bucles Gravitatorios y/o su posible
complementación-síntesis futura como Teoría del Todo,
perfilan un Nuevo Paradigma Fundamental de la Física, en
cuyo marco resulta apropiado y razonable proponer como
primera aproximación cualitativa un Modelo “Dipolar” de
pares de Universos “acoplados” y “gemelos”en continua e
indefinida “oscilación-rebote”.

El citado modelo une los planteamientos “Ekpirótico-


Cíclicos” más recientes de Steinhardt-Turok, el grupo de
Lewandowsky, Penrose-Gurzadyan y otros eminentes
investigadores con la Interpretación de Feynman...

Y en ese sentido “sincrético-lógico” es original de este


humilde autor.

Acto seguido lo expondré lo más clara y resumidamente que


pueda.

Modelo Feynman/Schreiber del “Dipolo-Verso Especular”, o


“Modelo Cosmológico-Cuántico Bimétrico Gemelar”

Las características o rasgos de este modelo pueden concretarse


así:

• El enorme (sobre 10159 según estimaciones de la Teoría


M), pero finito conjunto de Universos-Brana y/o
Universos-Bucle Membranosos tetradimensionales –
considerados como otros tantos “macro-
estados/objetos cuánticos permitidos” en un colosal
Multiverso o Espacio de entre 5 y 11 dimensiones,
incluyendo el Tiempo –, se encuentra estructurado en
“Pares de Universos Bimétricos, Especulares o
Gemelares”, a los que denominaré “Dipolo-Versos”.

• En cada “Ciclo/Eón de Penrose”, uno de ellos está


constituido por partículas-onda elementales de
materia, la gravedad es atractiva (Masa Oscura
incluida), y la Energía Oscura/Potencial/Campo Escalar
Cuántico de Vacío repulsivo o “positivo”. Por ello, se
expande a mayor o menor ritmo desde un estado inicial
de máxima densidad y temperatura, mínima entropía y
muy reducido volumen (el “Big-Bang” del Modelo
Estándar o, lo que es lo mismo, el “Big-Crunch” del
“Eón” previo). Asimismo, las causas siempre preceden
a sus efectos, la entropía total tiende a aumentar
inexorablemente y el flujo temporal transcurre desde el
pasado (o presente relativos) hacia el futuro. La “Triple
Flecha del Tiempo” es – por consiguiente - “positiva”,
definámosla así por convenio, al coincidir con lo
ocurrido en el “Universo Local” que habitamos.
Consecuentemente, todas las partículas dotadas de
masa han de moverse a velocidades inferiores a las de
la luz en el vacío, “c”, constante cuyo valor
corresponde a su límite superior absoluto. Las masas
inerciales equivalen a cantidades numéricas reales y las
energías o trabajos aplicados para acelerarlas
incrementan su velocidad y energía cinética positiva;
En el otro miembro del Dipolo-Verso, los componentes
elementales se hallan formados por antimateria en
idénticas proporciones y relaciones que su “Gemelo”
para cada tipo de antipartícula/partícula respectivas, la
gravedad es repelente (Masa Oscura también), y la
Energía Oscura/Potencial/Campo Escalar Cuántico de
Vacío es atractivo o “negativo”. Por ello, se contrae con
mayor o menor rapidez a partir de un estado original
de mínima densidad y temperatura, máxima entropía y
muy dilatado volumen (el “Big-Rip” o “Gran Desgarrón”
o, en su defecto, la situación de máxima expansión
posible al final del Ciclo precedente). Asimismo, los
efectos anteceden a sus causas, la entropía total
tiende a disminuir para cualquier cambio y el tiempo
fluye “hacia atrás”, desde el porvenir al presente o
pasado relativos. La “Triple Flecha del Tiempo” es – por
tanto - “negativa”, u “opuesta” a la que rige en su
“Universo-Espejo”, el nuestro, por ejemplo. Lo
llamaremos – por ende - “Anti-Verso”, por simplificar.
En coherencia con todo esto, sus antipartículas dotadas
de masa han de moverse a velocidades superiores a las
de propagación de la luz en el vacío, “c”, constante
cuyo valor fijaría su límite inferior inviolable. Esas
masas inerciales serían imaginarias y las energías o
trabajos desarrollados para acelerarlas harían menguar
su velocidad y su energía cinética negativa. Por el
contrario, al ser frenadas, su velocidad se mantendría
en magnitudes enormes sobre “c”. Las partículas del
Universo “Positivo” se definen en consecuencia como
“tardiones”, y sus “imágenes especulares” en el Anti-
Verso, “taquiones”, el sustantivo que inventó el Dr.
Feynman para ellas, del prefijo griego “taqui”, que
significa “rápido”.

• Obviamente, este escenario implica que cada taquión


del Anti-Verso ha de presentar propiedades y
comportarse como su tardión homólogo en el Universo-
Espejo correspondiente: Por ejemplo, el “taqui-
positrón” equivale al electrón “tardiónico” o
sublumínico, el “taqui-antiprotón” al protón
“ordinario”, el “taqui-antineutrón” al neutrón..., y así
sucesivamente. Tal “Principio Especular” fundamental
entre los miembros de un “Dipolo-Verso” significa que
cada “Par Universo/Antiverso” - considerados
globalmente como macro-objetos cuánticos –, están
“acoplados”, y cumplen así, en su conjunto la Ecuación
de Dirac, bajo su Interpretación de Feynman a lo largo
de toda su Evolución Cosmológica. Es decir, al igual
que el movimiento de un positrón dado hacia atrás en
el tiempo equivale matemáticamente a la misma
trayectoria o sucesión de estados cuánticos-relativistas
de un electrón desplazándose hacia adelante en él, la
dinámica cosmológica e hipergeométrica del Universo
Expansivo ha de ser exactamente idéntica, simultánea
pero invertida en comparación con la de su Anti-Verso
“Acoplado”. Concretamente, si la fuerza, “energía
fantasma”, “potencial repulsivo de energía oscura” o
como queramos llamarla, que dio génesis a la
expansión de nuestro Universo y su densidad promedio
de materia (tanto bariónica como oscura), poseen las
magnitudes determinadas que conllevan la tasa actual
de leve aceleración en el crecimiento de su “Radio
Cósmico”, en este momento nuestro Anti-Verso Gemelo
se estaría contrayendo al mismo ritmo preciso. Como
quiera que nuestro Universo es “abierto casi plano”,
entre otros factores, por haber sufrido un “alisamiento
masivo” durante su etapa de “dilatación inflacionaria”
en un grado exponencial específico, el Anti-Verso hubo
de pasar por la misma fase, pero justamente invertida,
empequeñeciendo y comprimiéndose brusca y
velozmente con la misma tasa exponencial pero
decreciente. Si finalmente la densidad del Campo de
Energía Oscura resulta ser tal que acabe provocando un
espectacular y “apocalíptico” Gran Desgarrón Terminal,
en ese instante el Anti-Verso se compactará de modo
asintóticamente “infinito”, transformándose en una
especie de “Inmenso Agujero Negro”... De hecho, el
Big-Bang no es más que una suerte de “Agujero Negro
al Revés”, como afirma el célebre y prestigioso
cosmólogo y divulgador Kip Thorne. Pero si su cifra es
algo más modesta, la muerte térmica o “transición de
fase” final será más semejante a un “suspiro” final, la
“congelación virtual”de la expansión y, a la par, el Anti-
Verso dejará de contraerse..., intercambiando los
papeles en el siguiente Ciclo o Eón Cosmológico...

• Cada “Par/Dipolo-Verso” contaría con una combinación


propia de magnitudes para sus Constantes Físicas
Fundamentales – tales como la velocidad de la luz en el
vacío “c”, la Constante de Planck, “h”, la Constante de
Gravitación Universal “G”...etc –, así como de
parámetros cuales el índice de curvatura de su
geometría espacio-temporal “K”, “densidad de Energía
Oscura ω ”, la densidad crítica de masa gravitatoria
“ρ ”y otros. Por ello, su “Evolución Cosmológico-
Cuántica Acoplada” variaría de múltiples formas... Por
describirlo de la manera más gráfica y sencilla posible,
“nuestro” Dipolo-Verso particular podría visualizarse
como dos hipérboles o“pabellones de trompeta” muy
anchas (casi planas), unidas entre sí por un
“hipercilindro” a modo de doble Agujero Negro de Kerr
o “Agujero de Gusano”. En verdad, un “Punto Zero o
Alfa/Agujero Blanco” de “nuestro lado”, del que todo
emerge aumentando de tamaño cada vez más, muy
vertiginosamente al principio y luego, durante un
incomparablamente más prolongado intervalo
evolutivo, a ritmo suave; Y, consecuentemente, un
“Punto Omega/Agujero Negro” del “lado del
Antiverso”, hacia el cual todo es atraído,
contrayéndose más y más simultánea y
acompasadamente, y por ello de forma muy veloz en
sus orígenes “del remoto futuro” y más adelante de
manera mucho más lenta. El Dipolo-Verso asume así la
apariencia de un “Diábolo” membranoso esencialmente
tridimensional – con siete nanodimensiones “ultra-
replegadas” o no –, moviéndose en un espacio de orden
superior, a la vez que una de las “campanas de
trompeta” o extremos se abre y aumenta de tamaño
poco a poco, y la otra se cierra y disminuye
exactamente a igual velocidad con precisión más que
“milimétrica”. El Tiempo es la dimensión física espacial
adicional, claro, reflejada por medio de dichos
movimientos opuestos: “Positivo”, o en sentido pasado
(presente)gfuturo en una de las “trompetas”, y
“Negativo”, o siguiendo el flujo futurog(presente)
pasado en su simétrica.

Podía haberlo bautizado como “Diábolo-Verso”, en


alusión al juguete tradicional al que se parece, pero la
otra connotación más general de la palabrita me indujo
a abstenerme... Ya soy lo bastante heterodoxo y
polémico como para añadir “leña al fuego”... Dejo la
elección en manos de los especialistas del espero
cercano futuro...

Es patente que otros “Pares de Dipolo-Versos”


mostrarían muy diferentes y variadas conformaciones:
Por ejemplo, habría algunos que asemejen dos esferas
virtualmente tangentes cerradas de distinto y cada vez
más desequilibrado tamaño: Una de ellas
incrementando su radio-límite con mayor o menor
premura, y la “gemela” menguando especularmente.
En ellos las densidades gravitatorias superarían sus
valores locales críticos – en el que se dilata en cantidad
de masa real media por unidad de volumen y en el que
se contrae de masa imaginaria –, lo que les convierte en
geometrías de curvatura cerrada. Cediendo – a la
postre – a la Tentación, pues creo como mi estimado
Óscar Wilde, “que es el mejor modo de tratar con ella”,
propongo denominar a esta simetría “Dipolo-Verso
Testicular”, o “Testículo-Verso”..., sobre todo por lo de
la “ínfima cisura intermembranosa” entre sus
“Gemelos”; Otros, en fin, se asemejarían a auténticas
“hojas planas” de espesor despreciable y contorno
variablemente irregular, paralelas entre sí pero
extremadamente próximas, casi rozándose, y una de
ellas extendería su área y cada traza de su perímetro
idénticamente en la misma forma y proporción que su
“reflejo especular” los reducirían, y a velocidad
uniforme: En estos casos, las densidades medias –
reales o imaginarias – coincidirían al 100% con sus
valores críticos, y las fuerzas de campo gravitacional o
antigravitacional en cada uno de ellos igualarían las
derivadas de sus potenciales “oscuros” de signo
expansivo o compresivo, respectivamente. Podríamos
llamarlos “Dipolo-Planiversos”, o “Flatland-Versos”, en
honor a la famosa e instructiva obra al mismo tiempo
erudita, didáctica y satírica del profesor de
matemáticas, erudito en literatura clásica, escritor y
teólogo inglés Edwin A. Abbot, titulada “Flatland,
romace of many dimensions” (“Planilandia, una novela
de muchas dimensiones”) , publicada en 1884 bajo el
seudónimo de “A Square” (“Un Cuadrado”).

Y existen posibles configuraciones más “exóticas”,


compatibles en principio con las matemáticas de las U-
Branas y/o las de los haces fibrosos de “lazos”
gravitatorios cuantificados: Dobles Toroides, Dobles
Hélices cual colosales “ADNs Cósmicos”..., hasta alguna
que otra “amorfa” o predominantemente irregular.

Además, todas ellas podrían dilatarse-contraerse, en un


“momento” dado de su Co-Evolución, a muy distintas
velocidades y aceleraciones, según las condiciones de
arranque de sus Ciclos o Eones, como antes se
explicó... Habría “Dipolos-Verso” de “Alta Celeridad
Cosmo-Evolutiva”, los cuales, fuere cual fuere su forma,
en uno de sus “Polos Gemelos” se consumirían en un
Big-Rip efímero justo tras completar su periodo
inflacionario super-estimulado, o bien se helarían con
igual precipitación, mientras su “Espejo” se consumiría
en idénticamente súbito y violento Colapso-Ignición
“Universal”; Otras “Parejas Cósmicas Acopladas” en
las que acontecería lo mismo esencialmente, pero al
menos durarían unos cuantos cientos de millones de
años más, hasta ver encenderse y apagarse (o
apagarse y encenderse, en exactamente el mismo
orden opuesto en su “extremo taquiónico”), una única
y triste generación de estrellas; Algunas en las que la
combinatoria de constantes y parámetros cuántico-
cosmológicos permitirían la formación de estructuras
“condensadas” complejas hasta el nivel de galaxias,
sistemas planetarios y/o seres vivos, y otras no... Y así,
en una abigarrada, inabarcable y exuberante “cosmo-
diversidad” en el seno del Multiverso.

Pero todos ellos se hallarían recubiertos por sendas


membranas/branas con una “fisura” o “interfase” del
orden de un diámetro atómico, y uno de sus
componentes sería de naturaleza tardiónica o sub-
lumínica y el otro taquiónica o super-lumínica. El
primero con tendencia intrínseca variablemente
expansiva y el segundo contractiva, por las sólidas
razones ya expuestas. Es interesante resaltar que – sin
embargo – no en todas las ocasiones el “Polo
Tardiónico” se hallaría extremadamente “volcado”
hacia su constitución por partículas de materia estable
y su “Espejo” por antipartículas de la misma índole: La
físico-matemática de Dirac-Feynman establece
diáfanamente que, al igual que un positrón – por
ejemplo – avanzando hacia atrás en el tiempo equivale
a un electrón “corriendo” hacia adelante en él, también
un electrón retrocediendo en el tiempo equivale a un
positrón moviéndose en el sentido natural para
nosotros. Todos los Principios y Leyes de la Mecánica
Cuántica y Relativista se siguen cumpliendo en ambas
opciones duales escrupulosamente. Por ende, existirían
“Pares Cosmológicos Acoplados” en los cuales el
“Tardio-Verso” sería muy sustancialmente compuesto
por materia y el “Taqui-Verso” por antimateria – como
el que nos alberga –, pero asimismo otros –
posiblemente en proporción comparable –, en los que el
“Tardio-Verso” se constituiría mediante un abrumador
predominio de antipartículas y el “Taqui-Verso” de
partículas. Eso sí, una vez que uno de ellos “optase”
por uno de los dos “caminos” en sus etapas más
primordiales de evolución, el otro quedaría
determinado a “seleccionar” el opuesto: La
Bariogénesis Asimétrica ha de cumplir el Principio
Especular por motivos más que demoledores: En
cualquier conjunto, serie o sucesión de estados
primigenios – aun admitiendo fuesen “permitidos” –, en
los cuales los mecanismos de “Selección
Bariogenésica” a favor de la materia o la antimateria
no se mostrasen tan rigurosos, al coexistir la formación
de partículas y antipartículas en fracciones aunque no
fuera más que comparables al final de estos procesos,
toda o la mayor parte de los nacientes Universos serían
destruidos por una masiva reacción de aniquilación.
Puede que en muchos casos, esto es justo lo que haya
ocurrido, y el “Dipolo-Verso” resultante sean dos
aburridas “sopas” de rayos γ y fotones, unos
desplazándose hacia adelante en sus líneas temporales
como “ondas retardadas” de Maxwell y los otros
haciendo idéntica y anodina “tarea” cual “ondas
adelantadas”, para acabar fundiéndose en la
Resonancia de una Nada Informacional “Eterna” en el
seno de la Inter-Membrana o Pared Luxónica entre
ambos “Para-Versos Gemelares”... Quizá tan desolador
panorama sea el estadísticamente más frecuente o
asociado a una máxima probabilidad de “colapso” de
las Macro-Funciones o Vectores de Onda descriptores
de los Estados-Multiversos, y los “Dipolo-Versos”
capaces de desarrollar en su evolución formas
organizadas, compactas y convenientemente separadas
de materia y antimateria constituyan una rara y
preciosa excepcionalidad en la Gran Matriz Oscura
Hiperdimensional... O es concebible que la Realidad –
con mayúsculas, nunca mejor colocadas –, sea la
contraria, y el Multiverso rebose de manifestaciones
inimaginables y polimorfas de materia/antimateria
compleja, vida e incluso auto-consciencia... O bien la
distribución tienda a ser “Gaussiana”, prevaleciendo
las situaciones intermedias... Quizá pueda, en un futuro
más o menos lejano, plantearse una “Versión
Multiversal de la Ecuación de Drake”, con sus
apasionados debates entre los científicos más
“optimistas” y “pesimistas”..., tal y como hoy
asistimos, limitando la polémica a un único Universo.

Este razonamiento sugiere que – entre la asombrosa y


excitante multiplicidad que abre la nueva Cosmología
Cuántica del Multiverso –, debe haber posibles
“combinaciones o estados iniciales” permitidos,
“prohibidos”, más o menos probables, en un sentido
mecano-cuántico: Multitud de combinatorias serán
admisibles, pero todas no, muy plausiblemente las más
“extremas” o incoherentes entre sí, para las cuáles los
“Universos-Espejos” no podrían existir ni unas pocas
fracciones decimales de nanosegundos después de sus
“Big-Bounces”, por ejemplo... Lo que consideraríamos
como una suerte de “Meta-Leyes de Restricción” a nivel
Multiversal. La investigación rigurosa y sistemática de
este emocionante, maravilloso y titánico campo de
exploración teórica y, en un porvenir indefinidamente
remoto, empírica, se convertirá más pronto o tarde en
el objeto de estudio nuclear de la Física
Hiperdimensional o Transdimensional que se avecina,
insinuando ya sus primeros lloriqueos justo a la salida
del Útero del Conocimiento humano... Con toda
seguridad, llenará el tiempo y la potencia de los
cerebros más iluminados de los próximos siglos, hasta
puede que milenios, si pretendemos o necesitamos
algún día aplicarla como “Ingeniería Hiperespacial”,
con el propósito de “saltar” por fin a las Estrellas..., o
más allá de ellas... No importa: Si no nos auto-
destruimos antes, todavía nos quedan muchos millones
de años por delante de vida estable de nuestro Sol..., y
como mínimo la mitad del “Periodo Suave” de
Expansión de nuestro Cosmos, en el peor de los
escenarios posibles... La colosal e imponente magnitud
y profundidad de la labor no debe arredrarnos, todo lo
contrario: Hemos de sentirnos más que orgullosos,
ufanos – como especie – de haber conseguido, en un
intervalo de progreso inaudita y casi “mágicamente”
corto, aunque sea tan sólo atisbar el inicio de un primer
vislumbre de tan prodigiosa, vasta, sobrecogedora,
inefable y consoladora Verdad...

• El Principio de Especularidad también se aplica a la


Causalidad misma y el Tiempo, lógicamente: De hecho,
la estructuración en forma de “Pares de Dipolo-Versos
Especulares” de la ultra-monstruosa Red del Multiverso
no sería más – en este modelo – que una consecuencia
directa de dicho Principio. Esto se deduce al estimar a
cada “Par Posible”, o “Superviviente”al tamiz de las
indicadas Meta-Leyes de Selección Cosmológico-
Cuánticas, como el equivalente a un Par de
Partícula/Antipartícula, en evolución/movimiento entre
estados permitidos, obediente por tanto a la Ecuación
de Dirac y la formulación de la QFT en su Interpretación
de Feynman, nada más que a escala de “hiper-macro-
objetos cuánticos”, esto último en base a los
desarrollos de la Teoría M-ST y/o la LQG.

Así, el significado y trascendencia de este Principio –


que acaba por aclarar la tremenda magnitud de su
alcance y “Meta-Universalidad” - son los siguientes:
Todos los “Macro-Estados Posibles o Efectivos” del
Multiverso se manifiestan por “Pares de Dipolo-Versos
Especulares o Gemelares Acoplados” porque, en el
seno de cada uno de ellos, el “Cosmo-Polo, Mono-Verso
o Universo Taquiónico” constituye el conjunto
integrado por un número enorme pero finito de
posibles “estados de futuro” en las líneas espacio-
temporales relativas de cada partícula o sistema de
partículas existentes en él durante el curso de su
evolución, así como el “Cosmo-Polo, Mono-Verso o
Universo Tardiónico” lo es del conjunto de “probables
estados de pasado relativo” vinculados por parejas a
los primeros a través del Principio de Causalidad en su
Doble Flujo. Cuando, sobre cada una de estas líneas
espacio-temporales, los posibles estados permitidos de
mayor probabilidad se “encuentran”, viajando los unos
en sentidos justamente opuestos y simétricos entre sí,
sus funciones de onda asociadas respectivas
“retardadas” y “adelantadas” colapsan o entran en
fase resonante, generando lo que concebimos y
percibimos como “presente” relativo en cada sistema
inercial de referencia. En realidad, todo el Universo y el
Anti-Verso Espejo como macro-objetos/Brana y/o Bucle
asociados por el Principio de Dualidad Onda-Partícula
cumplen el mismo Principio, y desde el “Instante Cero”
de su Ciclo o “Eón Cosmológico” acoplado de Penrose:
Se puede afirmar que el “Big-Crunch” o “Ultra-
Contracción” del “Anti-Verso Taquiónico” anterior fue
el “Efecto” del “Big-Rip” o, en todo caso, “Expansión
Máxima/Muerte Térmica” del “Universo Tardiónico”
protagonista del Ciclo inmediatamente previo (“Causa”
pasada para el primero).., o al revés, que el Big-Bang
que originó el Universo Tardiónico actual (antes
Taquiónico), es la Causa del Big-Crunch del “nuevo”
Universo Taquiónico contractivo (el cual, en el Eón
precente, jugó el “pepel tardiónico-expansivo), que
“acude ahora a nuestro encuentro” desde el
futuro,como “nuestro Efecto”... Da igual, y se podrá
repetir un número inmenso e indefinido de veces,
porque en verdad lo que desde nuestra perspectiva (y
la hipotéticos “observadores virtuales de una serie de
posibles futuros relativos), son “Big-Bangs” y “Big-
Crunchs” aparente y absurdamente “Singulares e
Infinitos”, desde una óptica hiperdimensional suiperior,
la del Multiverso de los Dipolo-Versos, no se trata más
que de initerrumpidos “cambios de fase” ,“Big-
Bounces” o “Grandes Rebotes” en Ciclos Cosmológicos
sucesivos que van alternando la “polaridad” o “signo”
de la “Triple Flecha del Tiempo” de los dos “Mono-
Versos” entre sí...

Indefinidamente..., pero no siempre ni necesariamente


de manera “eterna”: Si, en la “recombinación
parcialmente azarosa” de un determinado “Génesis
Dual Acoplado” o “Gran Rebote”, el “cóctel” de
constantes y parámetros fundamentales cuántico-
cosmológicos resulta “prohibido” por las Meta-Leyes de
Restricción del Multiverso – por engendrar un
“hipotético Dipolo-Verso” inconsistente en términos
físicos elementales –, o bien hace “renacer” un Par-
Verso Especular de efímera vida como los esbozados
unas líneas más arriba, el titánico Mecanismo podría
llegar a detenerse en algunos casos..., produciéndose
la auténtica Muerte Cósmica “Local” definitiva...

Pero tan terrible suceso quedaría “relativizado” por el


hecho de que hablamos de un monstruoso número
apenas imaginable de “Dipolo-Versos” posibles... :
Tomando como referencia aunque sea orientativa o
provisional la cifra que arroja el Modelo de
Supercuerdas – ¡¡¡la unidad seguida de 159 ceros!!! –,
se halla más que garantizado que, antes o después, en
algún lugar del Hiper-Espacio de los Multiversos,
emergerá un Dipolo-Verso “Rebotado”
extraordinariamente similar al perdido para siempre...

Una vez esbozado el Modelo Cosmológico-Cuántico


Feynman/Schreiber, pasaré a intentar explicarles su utilidad para
justificar el fenómeno de la Precognición por Transferencia de
Retro-Impregnaciones “futuras” (desde nuestro punto de vista)...
La que sería una primera aplicación de la “Física
Transdimensional/Multiversal” a la Psicofísica..., lo que este humilde
librepensador ha venido en llamar “Transpsicofísica”...

VI

Teorema Schreiber de la Precognición por Resonancia

Según el Modelo anteriormente descrito y la Hipótesis Schreiber


de la Retro-Impregnación Psicofísica,, el fenómeno de la
Precognición no sería más que la percepción de las emisiones de
una Red de Impregnación Psicofísica creada por una descarga
bioenergética o serie de ellas lo suficientemente intensas y/o
repetitivas, en un enclave permeable adecuado, pero cuyos hechos-
trauma desencadenantes acontecen “virtualmente” en un punto
espacio-temporal de una línea de sucesos situado en un probable
futuro en el “Anti-Verso Simétrico”.

Si recordamos el análisis psicofísico realizado en los tres ensayos


precedentes de esta serie, el proceso de Transferencia por
Impregnación Ambiental requiere la “sintonización” o “resonancia”
entre las fases de las partículas-onda biofoto-electrónicas
portadoras de energía-información provenientes de la Fuente
Donante Impregnada, o Emisor, y el Receptor Sensitivo o Sujeto
Perceptor.

Ahora bien, en el caso de la Precognición por Retro-Impregnación,


los corpúsculos ondulatorios irradiados por la Fuente Primaria o Red
Exponencial Psicofísica de Impregnación han de constituir o ir
asociados a taquiones, en concreto taqui-positrones, viajando desde
un estado futuro probable “permitido” hasta el presente relativo del
Receptor/Perceptor. Reiteramos que un positrón o cualquier otra
antipartícula elemental moviéndose hacia atrás en el tiempo
equivale a su “imagen especular” o partícula “tardiónica” de
materia “ordinaria” homóloga trasladándose “hacia adelante” sobre
la misma “línea de sucesos”.

Esto es lo que se deduce de la Ecuación de Dirac y la Interpretación


de Feynberg en el contexto de la Teoría Cuántica de Campos
aplicada a la Cosmología del Dipolo-Verso que postulo en este
trabajo.
Si esta teoría es correcta, ha de existir una correspondencia físico-
matemática exacta entre los estados relativos de energía y
movimiento de los tránsitos foto-positrónicos generadores de los
estímulos condicionantes y los inducidos reactivamente por éstos
en la Red Neural del Perceptor que los capta y procesa en
respuesta a nivel bio-fotoelectrónico.

Pues bien, eso es justo lo que voy a demostrar en este Teorema.

Enunciado

“La Premisa o Condición Necesaria para que se produzca la


percepción precognitiva eficiente en el sujeto Perceptor, es
que la velocidad de los bio-fotoelectrones del tránsito
cuántico provocado en respuesta a su exposición a la
emisión foto-positrónica de la Fuente o Red Primaria de
Impregnación ligada al hecho-trauma futuro que la originará
(u “originó” en el sistema de referencia espacio-temporal
del Anti-Verso), sea tal que su fracción por defecto (v/c)
respecto a la velocidad-límite de la luz en el vacío, que
define la “Pared Luxónica” entre ambos Universos Paralelos
y Especulares, corresponda idénticamente con la proporción
por exceso de la velocidad de los foto-positrones
estimulantes (c/v*). Ello implica que las longitudes de onda
asociadas a ambos haces de ondas-partículas portadoras se
encuentren en fase o resonancia perfecta, lo que sólo se
logrará si la sensibilidad específica del Receptor y los demás
factores de Transferencia evitan pérdidas o dispersiones.
Dicha circunstancia será la Condición Suficiente para la
operatividad del fenómeno”.

Premisas

Por hipótesis:

1) Velocidad “v*” del foto-positrón emitido:

v* > c

β *
>1

β *
= v*/c

2) Variación de masa inerte relativa “m” y masa en reposo


“mo*” del foto-positrón estimulante:

Por la Teoría Especial de la Relatividad de Einstein y la


formulación de Feynman para una antipartícula taquiónica:

m = mo* / (1- β *2 1/2


)

m = mo*/ (- n)1/2

Donde:

n=β *2
-1

Por lo cual:

m = mo* / n1/2 i

O bien:

mo* = m n1/2 i

Si ahora definimos, por simple comodidad:

m n1/2 = m*

Resulta evidente que:

mo * = m* i

Pues, lógicamente, tanto la masa inerte en movimiento


relativo como su valor constante en “reposo” han de ser
magnitudes imaginarias para cualquier taquión super-lumínico
componente del Anti-Verso.

En cuanto a la “Energía-Masa” Relativa del positrón móvil


vendrá dada, sin más que tener en cuenta el Principio de
Equivalencia de la Teoría General de la Relatividad de Einstein,
por:

E* = m c2 = - (mo*c2) / n1/2 = - Eo* / n1/2

Ya que – obviamente – las energías de los taquiones han de


poseer naturaleza “negativa”, lo que indica su carácter
intrínsecamente antigravitatorio o mutuamente repulsivo.

He utilizado el término “masa o energía en reposo” por


analogía con la formulación original de la Teoría de la
Relatividad aplicada a partículas sub-lumínicas o “tardiones”
de nuestro Universo: Está claro que, dentro del sistema de
referencia espacio-temporal del Anti-Verso Especular de
Feynman, cuyo “límite mínimo de velocidad” es la de la luz en
el vacío, c, deberíamos denotarla más bien como “masa
propia” o algo semejante. Y así lo haremos en adelante.

Observemos que esta fórmula permite describir de manera


idónea dos casos específicos de gran interés:

a) Positrón “hiper-lento”..., en el límite de la


conversión energética productora de un fotón por
transición cuántica de emisión:

v*gc+

β *g1+
+
ng0

mo*g0 i

Eo* = mo*/c2 g 0-

Interpretación Psicofísica:

En el Universo-Espejo, todas las leyes dinámicas y de


transferencia de energías han de ser “simétricas” respecto al
nuestro, al igual que el Triple Flujo Fundamental de
Causalidad-Tiempo-Entropía: Esto significa que “allí”, la
descarga psicoenergética y/o bioenergética inicial ligada al
tránsito cuántico inducido por el hecho-trauma liberador excita
foto-positrones que, al decaer, son “frenados” cada vez más a
medida que se extinguen y transcurre el tiempo desde su
estado probable virtual futuro hasta el presente del
“observador” precognitivo. Los paquetes de ondas-corpúsculos
aumentan su intensidad y densidad energética a medida que
disminuye su velocidad/energía cinética y pasa el tiempo, en
igual proporción y ritmo pero exactamente al revés que un
proceso equivalente acontecido en este Universo en sentido
pasadogpresente (la Transferencia por Impregnación
Psicofísica “común”). En el límite, cuando su celeridad es tan
sólo un infinitésimo por encima de c, tenderían a alcanzar o
rozar su valor mínimo admisible de velocidad, el de la luz en el
vacío: En ese instante, se transformarían en “fotones” o
radiación electromagnética (de masa propia nula, la única
posible en el seno de la “Pared Luxónica”), que serían
captados de algún modo por centros aún no bien
determinados del cerebro y/o el Sistema Nervioso del
Receptor. Dicho mecanismo equivale físico-matemáticamente
al “colapso” en fase de la “onda adelantada” y la “retardada”,
originalmente demostrado, mas durante casi un siglo y un
tercio ignorado, por las soluciones completas de las
Ecuaciones de Maxwell. En la nueva interpretación de la QFT-
Modelo Cosmológico-Cuántico de Feynman/Schreiber, este
colapso entre las funciones de onda procedentes de un suceso
situado en un probable futuro virtual o estado del Anti-Verso, y
la de su retro-percepción actual/suceso psico-perceptivo en el
sistema del observador emplazado en el Universo Gemelo,
cuya línea de tiempo discurre en sentido opuesto, sería el
proceso que, literalmente “crea o condensa” cada instante de
lo que llamamos “Realidad” presente. Solo que para la
inmensa mayoría de los seres humanos y otros organismos
variablemente conscientes dicho fenómeno se mantendría
operativo a nivel puramente subliminal/inconsciente, excepto
una “minoría dentro de la minoría” de sensitivos, capaces de
captarlo y procesarlo en ocasiones a escala consciente,
gracias a sus extraordinariamente bajos umbrales perceptivos.

b) Positrón “hiper-rápido”..., en el límite inicial de la


excitación por muy intensa descarga
psicoenergética/bioenergética de Impregnación
vinculada a un hecho-trauma probable “futuro”:

v*>>>...>>c

β *g “infinito” (enorme en términos comparativos)

ng “infinito” (enorme en términos comparativos)

mo*g “infinito” i

Eo* = mo*/c2 g - “infinito”


Interpretación Psicofísica:

La descarga original liberada por el hecho-trauma imprimador


ha de hallarse ligada a una elevada densidad energética y/o
frecuencia de realimentación: Por ello, en la estructura de
niveles cuánticos del Antiverso conformado por partículas-
ondas superlumínicas, su velocidad/energía cinética inicial es
“inmensa” desde nuestro punto de vista. La energía relativa a
una velocidad de emisión de los foto-positrones excitados
tremendamente superior a c supone un valor negativo y
colosal..., al igual que su masa -inercia equivalente en
unidades imaginarias. Esto será tanto más aproximado cuanto
mayor sea la intensidad de la impregnación de la Fuente
Emisora. Es patente que entonces, a igual magnitud de esta
descarga o causa primera, mientras más “alejado” en la línea
virtual de futuros probables se encuentre el evento generador
más tiempo relativo fluirá hasta “alcanzar”el presente del
Observador-Perceptor, más grande será el frenado de la
velocidad de los foto-positrones portadores y, en
consecuencia, también más alto el “incremento de energía
negativa” (o decremento en valor absoluto) y, por ende, la
posibilidad eficaz de tender al límite inferior y “colapsar” con
la Pared Luxónica – esto es, ser percibido por un sujeto
sensitivo idóneo –. Así, en general, manteniendo invariante la
intensidad de descarga en origen, los fenómenos de
precognición, según este modelo teórico, serían menos
difíciles o improbables si han de ocurrir sobre una línea de
lejano futuro que en un punto más “próximo” al presente
relativo del Receptor. Por otro lado, si consideramos constante
la “posición” más o menos remota en el porvenir del
acontecimiento impregnante, a menor, si bien suficiente (para
generar la Red Psicofísica de Impregnación en el material
psicopermeable “taquiónico” perteneciente al Anti-Verso
virtual “futuro”), intensidad de descarga “retro-primitiva”, por
así decir, más alta será la probabilidad de ser captada. Estas
dos deducciones contradicen de frente el “sentido común”,
pero nuestros cerebros han sido moldeados por la Evolución
para adaptarse a un entorno “tardiónico” y macroscópico: Por
consiguiente, la forma de inteligencia y percepción intuitiva
que denominamos “sentido común” se torna perfectamente
inútil, y hasta contraproducente, a la hora de interpretar los
fenómenos en campos tan alejados de dicho marco como los
mecanismos cuánticos y parapsicológicos, como ya bien
dejaron sentado dos grandes genios precursores en
afortunadísima alianza de sus prodigiosos talentos: El
psiquiatra y filósofo Carl Gustav Jung y el físico teórico
Wolfgang Pauli, en su magnífica y más que pionera obra
analítica acerca de la Serendipidad o Series de Sucesos
Sincrónicos Acasuales... La auténtica “primera piedra angular”
de lo que se ha venido en llamar “Psicotrónica”, y este
humilde autor ha “rebautizado” como “Transpsicofísica”. Sin
embargo, hay un dato empírico que, aunque se nos antoje
sorprendente, lo corrobora: Las “predicciones premonitorias”
seriamente contrastadas y comprobadas posteriormente a
medio-largo plazo son más abundantes y precisas que los
“pronósticos” a tiempo corto, tomando un grado de amplitud o
extensión próximo al promedio; A su vez, las “visiones”o
anticipaciones espontáneas de eventos de baja-media
magnitud – tales como pequeños accidentes, pérdidas,
lesiones ligeras, dificultades, enfermedades leves, etc, o de
alcance limitado o estrictamente individual -, para periodos de
supuesto “vencimiento” cercanos a una intervalo medio, se
muestran notablemente más recurrentes y/o acertadas que las
de mayor impacto colectivo o intensidad psicoemocional
personal: Por ejemplo, es mucho más probable o “menos
inusual” vaticinar correctamente una complicación doméstica
o sentimental menor de un conocido o pariente lejano (la
típica “corazonada”), que un “desastre” en el propio hogar y
que una enfermedad grave de un familiar directo que convive
con el “sensitivo”, y aún más que la fecha de su misma
muerte, en ese orden, tomando un plazo mediano de
“ejecución” para dichos eventos. Estas conclusiones
inductivas, derivadas de la observación por los investigadores
de campo del fenómeno de la precognición, siempre han
chocado mucho, provocando serias dudas y perplejidad a los
científicos que se han interesado por estos asuntos, además
de fuertes ataques por parte de los escépticos sistemáticos
ante todo lo mal llamado “paranormal”, pues en apariencia
“repugnan a la lógica natural” de nuestras mentes... Pero
ahora vemos que nos acercamos a su verosímil explicación
racional: No se trataría más que de simples consecuencias de
la “paradójica” y “exótica” mecánica cuántica-relativista
especular de los taquiones. Dicho extremo será plenamente
verificado en términos teóricos por un par de Corolarios que se
desprenden de este Teorema.

3) Velocidad “v” del foto-electrón secundario emitido por


respuesta inducida, que engendra la correspondiente
corriente neuronal electroquímica en la Red Neural
Perceptora:

En este caso, se trata del comportamiento dinámico habitual


de una partícula relativista sublumínica o “tardiónica”, tal cual
fue formulado por Albert Einstein:

v< c

β <1

β = v/c

Y, por la Hipótesis-Condición Necesaria del fenómeno


perceptivo:

β = 1/β *

4) Variación de masa inerte relativa “m” y masa en reposo


“mo” del foto-electrón secundario inducido:

m = mo / (1- β 2)1/2

Demostración

Es obvio que, por la Hipótesis de la “Condición Necesaria” de


Acoplamiento Estímulo-Respuesta entre el foto-positrón primario y
el foto-electrón secundario, se cumplirá que:

c=β v

Sustituyendo, simplificando y desarrollando convenientemente en


la función de variación de la masa inercial:
∗ ∗2 ∗2 1/2 ∗ ∗2
m = mo / [1- (v/β v)2]1/2 = mo / [(β - 1)/β ] = mo β / (β 1)1/2

Pero, de la sección anterior, sabemos que:


∗2
n=β 1

De lo cual:

m = mo β / n1/2
Reagrupando factores y despejando la “masa en reposo” del foto-
electrón:

mo = m n1/2 / β

Puesto que las masas relativas en cada estado de velocidad-


movimiento equivalentes o “acoplados” respecto a la velocidad-
límite inferior (para el positrón) o superior (para el electrón), han de
ser las mismas en valor absoluto, al igual que las de toda partícula
y su correspondiente antipartícula, podemos asegurar la certeza de
la igualdad:

m n1/2 = m*

Lo que nos lleva a:



mo = m* / β = m* β

O bien:

mo / m* = β

Expresión que nos indica que “la razón entre la masa en


reposo del foto-electrón secundario y la masa relativa del
foto-positrón estimulante inductor primario ha de resultar
idéntica al “coeficiente de acoplamiento” que mide la
proporción o fracción por defecto de su velocidad de
excitación-respuesta respecto a la velocidad de la luz. O, lo
que es lo mismo, la que presenta por exceso sobre dicho
límite absoluto inferior su foto-positrón estimulante justo en
su estado final de máximo decaimiento/frenado-interacción.

A partir de esta relación es factible analizar lo que ocurriría en los


dos casos extremos antes enunciados:

a) Positrón “Hiper-Lento”, Percepción por Transferencia de


Retro-Impregnación “Muy Remota” en el futuro:

β g1-

β g1+

vgc-
v*gc+

Imponiendo estas condiciones en la fórmula previamente obtenida,


nos conduce a:

mo = m*

Interpretación Psicofísica:

Ahora bien, recordemos que este “estado final” de interacción


supone la “aniquilación virtual” mutua del positrón portador y el
electrón reactivo, pues según la Teoría de la Relatividad Especial el
primero tendería a adquirir una masa inerte imaginaria “infinita” y
el segundo otra exactamente e igual pero real. Lo cual supone que
ambos – al interaccionar, en el límite de la Pared Luxónica que
“separa asintóticamente” ambos Universos –, han de destruirse
mutuamente produciendo un único fotón de una proporcionalmente
intensa radiación gamma (γ ) de enorme frecuencia, que recibe en
particular el nombre de “Radiación de Cherenkov”. Y el fotón, cuya
onda asociada portadora transmitiría la información procedente del
estado probable virtual del porvenir desde el Anti-Verso, posee una
masa inercial nula, claro está. Precisamente esa diferencia de masa
transformada en energía pura es la que genera el fotón γ de alta
frecuencia. Esta reacción viola el Principio de Conservación de la
Energía y el Momento Lineal, pero en el contexto de la Teoría
Cuántica de Campos (QFT), se encuentra permitida cual un estado
cuántico “virtual” intermedio para tiempos y entornos de posición
tan extraordinariamente fugaces y diminutos, respectivamente, que
la variación o conservación de energía y momento quedan
totalmente indeterminados, siendo así posible “burlar” su
conservación, según define el Principio de Incertidumbre de
Heisenberg. Dicho fenómeno – y el reversible, la creación o
“condensación” de un par electrón-positrón a partir de energía o
radiación γ pura, se han demostrado experimentalmente en los
grandes aceleradores de partículas. Y no únicamente con
electrones y positrones, sino con cualquier pareja simétrica de
partícula/antipartícula. Este mecanismo debería desencadenar –
para la recepción de tasas elevadas de intensidades o flujos de
partículas-ondas como las que nos ocupan –, una gran cantidad de
energía y radiación biológicamente letal a la larga para el
organismo. Pero los genuinos y verdaderos “videntes”
premonitorios no han de albergar temor alguno al respecto: Lo que
ocurre es que, en este caso, la aniquilación no conllevaría una
violenta y destructiva liberación explosiva de energía y radiaciones
letales en el sistema nervioso o el cerebro del Receptor, porque, en
rigor, el tránsito de conversión no ocurre ni en el continuo espacio-
temporal de este Universo ni en el de su Gemelo-Espejo. Acontece
en la “Interfase Virtual” entre ambas hiper-geometrías/branas, cuyo
espesor, según los modelos de las Teorías de Supercuerdas, es de
un orden ligeramente inferior al diámetro medio de un átomo. Es
decir, en la ultra-delgadísima “Pared Luxónica” postulada entre
cuatro y cinco décadas atrás por Feynman. La inmensa mayor parte
de la energía “explosiva” de la aniquilación unidireccional se pierde
o “disipa” en dicha “fisura virtual” de no-espacio/no-tiempo, que
podemos formular matemáticamente pero ni tan siquiera imaginar
o visualizar realmente en nuestras pequeñas y limitadas mentes.
Inmediatamente después, un fotón secundario de muchísima menor
energía/frecuencia cuantizada continuaría su camino en “dirección”
pasadogpresente hacia la Red Neural Perceptora... Y “otro”,
idéntico, (desde nuestro punto de referencia, puramente virtual),
haría lo propio retrocediendo en el tiempo en el seno del Anti-Verso,
siguiendo su sentido o flujo estrictamente opuesto. Insisto, estos
extraños tránsitos son factibles debido a que, como predice la QFT,
el estado cuántico de una sola onda-partícula puede fluctuar en un
estado “super-excitado” o inestable de dos partículas y volver a su
estado inicial, o viceversa. Pero, si además operan en la “Inter-
Brana” entre dos Universos Gemelos, nos ahorraríamos el tremendo
inconveniente de los “fogonazos” de rayos gamma...

Por cierto, no deja de ser interesante y más que sugerente destacar


un hecho: La gran mayoría de los “dotados psíquicos” honestos
estudiados bajo adecuados controles empíricos y científicos,
acostumbran a describir sus percepciones como eminente y
predominantemente “visuales” a nivel mental/subjetivo. Otros
posibles “efectos”, ya sean sonoros (principalmente), les
acompañan a veces. Y, en muy raras circunstancias, olfativos,
táctiles o hasta gustativos (casi nunca), aparecen con acentuada
escasez, mucha menor “calidad”, precisión predictiva, una muy
agudizada vaguedad y muy probable y contrastadamente “teñidos”
de una ulterior pero rápida y por ende ilusoriamente “simultánea”
elaboración inconsciente subjetiva. Por otra parte, cuando reciben
“señales” de hechos traumáticos, en sus percepciones suelen
prevalecer gamas cromáticas de baja intensidad (blanco y negro,
banda de grises), el color rojo o rojo-oscuro con bordes o siluetas
frecuentemente difuminados o “sombreados” y una cierta
sensación de “calor”. Este cuadro perceptual se corresponde con
buen ajuste al que cabe esperar de la recepción/procesamiento de
ondas electromagnéticas, en algunos casos portadoras de pulsos
sonoros al modo de las emisiones de Televisión, en frecuencias
decodificables en la región visual del bajo visible-infrarrojo, y la
banda sonora, en frecuencias de microondas a ondas cortas de
radio. Justo lo que la Teoría de la Transferencia por Impregnación de
Redes Psicofísicas desarrollada en mis anteriores estudios
planteaba. Y, también, lo que los cálculos físicos teóricos indican
como entorno aproximado de la zona de “frecuencias” residuales o
secundarias derivadas de un mecanismo de aniquilación positrón-
electrón, en el cual más del 99.999...% de las energías-
masas/frecuencias incrementadas por efecto relativista se disipa en
la “Interfase Luxónica”, liberando las partículas-ondas
portadoras/codificadoras en un estado asintóticamente convergente
con sus “masas en reposo/propias” al producirse el “colapso” entre
la “onda adelantada taquiónica” y la “retardada tardiónica”,
simétricas y viajeras en sentidos opuestos de la misma línea
espacio-temporal de probabilidad máxima.

Como puede observarse, el poder explicativo del modelo teórico se


agiganta por momentos.

b) Positrón “hiper-rápido”, Percepción por Transferencia de


Retro-Impregnación “Muy Próxima” en el futuro:

β g0

β g “infinito”

v <<<...<< c

v* >>>...>>c

Consecuentemente:

mog0

m*g “infinito”

Interpretación Psicofísica:

Los foto-positrones emitidos por la Fuente Primaria de


Impregnación localizada en el “futuro probable” no han dispuesto
de un intervalo de frenado lo suficientemente extenso como para
dejar de desplazarse hacia atrás en el tiempo a velocidades
superlumínicas gigantescas, estimadas desde nuestro sistema
referencia: Suponemos – por hipótesis – se ha de cumplir la
Condición Necesaria para hacer posible al menos la
Percepción Precognitiva (que ambos haces de partículas y
antipartículas-ondas se encuentren “acoplados”, o sea, que

v*/c = c/v, o β = 1/β , Pero, para que el proceso de transferencia
perceptiva sea realmente efectivo, adicionalmente, se requiere otro
requisito o Condición Suficiente: Que realmente la emisión
“sintonice” o entre en “fase resonante” con el Sistema
Perceptor en Red Neural del sujeto observador-sensitivo. Esta
operación, como exige la Teoría de la Transferencia, posee un coste
energético. Se intuye fácilmente que este costo o trabajo específico
será máximo – y por ende el fenómeno de precognición menos
probable o frecuente – cuanto mayor sea la diferencia de niveles o
estados de energía-movimiento entre las partículas cuánticas
protagonistas de la interacción. En esta clase concreta, debido al
“escasísimo recorrido de frenado” del foto-taquión emitido, el
citado valor es enorme y, por consiguiente, el suceso poseerá una
mínima probabilidad real de ocurrencia, algo menos pequeño – no
obstante – si la densidad o intensidad de descarga energética inicial
es menor, porque entonces la “velocidad de salida” del “chorro” de
positrones portadores será proporcionadamente inferior, lo que
compensa, aunque muy deficientemente, el corto periodo de
frenaje y “aumento de energía/masa relativa negativa” (o
disminución de su valor absoluto). Por esta causa, las
“premoniciones a muy breve plazo” serán mucho más certeras y
frecuentes – dentro de su general exclusividad y “rareza” -, para
eventos de bajo alcance o magnitud que para los más “graves” y/o
colectivos, lo que coincide con la experiencia recabada por los
expertos.

Evidentemente, la mayor parte de los casos corresponderán a


tránsitos intermedios entre estos dos extremos.

Para ellos – como proceso general – prosigue la demostración del


Teorema.

Retomando la expresión genérica de la Razón de Masas


Acopladas en el Estado Final de Interacción Efectiva
Perceptiva:

mo / m* = β
O, lo que es del todo equivalente:

mo / m* = v/c

Reordenando:

mo c = m* v

Donde el término izquierdo representa la cantidad de movimiento o


momento lineal del fotón secundario y el derecho el del positrón
portador primario en el instante virtual de la conversión-umbral de
percepción a través de la “Pared Luxónica”.

Aplicando a continuación el Principio de Dualidad Onda-Corpúsculo


de Louis de Broglie:

h/λ ο = h/λ

Simbolizando “h” la Constante Fundamental de Planck, “λ ο ” la


longitud de onda asociada a la onda del fotón inducido/respuesta y

“λ ”la longitud de onda asociada al positrón inductor/estímulo.

Sin más que simplificar e igualar:



λ ο =λ

Lo que define la Condición de “Resonancia de Fase” entre


ambas ondas, o Condición Suficiente del Fenómeno
Perceptivo-Precognitivo.

C.Q.D.

VII

Corolarios del Teorema Schreiber de la Precognición por


Resonancia: Leyes Psicofísicas de la Precognición

Corolario I

Energía o Trabajo de Transferencia Precognitiva


Definición:

“Energía intercambiada o consumida en el proceso de


aniquilación-transferencia virtual positrón/electróngfotón o
mecanismo eficaz de la Percepción Precognitiva”

Desarrollo:

Suponiendo una susceptibilidad-capacidad de sintonización


resonante óptima por parte de la Red Neural Perceptora y, por
tanto, despreciando pérdidas, vendrá determinado
matemáticamente por la fórmula:

φ PT = ∆ E = [mo - (- m*)] c2

Obviamente, el signo negativo (-) del estado inicial obedece a su


carácter taquiónico.

Teniendo en cuenta que mo = m* β :

φ PT = ∆ E = (m* + m* β ) c2

φ PT = ∆ E = (1 + β ) m* c2

O, idénticamente:

φ PT = ∆ E = (1 + β *) p* c

Indicando “p*” el momento lineal del foto-positrón o foto-


taquión inductor estimulante.

En términos de la onda asociada a éste, por el Principio de


Dualidad:

φ PT = ∆ E = h c (1 + β ) / λ

Esta Ley de Trabajo o Coste de Resonancia Precognitiva


refleja ecuacionalmente las deducciones teóricas anteriores
derivadas del modelo, así como las observaciones empírico-
estadísticas que las apoyan: Notemos que el Coste Energético
del mecanismo perceptivo de la premonición efectiva – y por
ende su improbabilidad o baja frecuencia – aumenta en
directa proporcionalidad con dos factores o variables
independientes: Su “lejanía” en la línea espacio-temporal
futura – medida a través del coeficiente β , más elevado o
próximo a 1- cuanto menos prolongadamente “frenada”
haya sido la antipartícula portadora y, por consiguiente,
más “próximo” en el porvenir virtual probable sea el hecho-
trauma impregnador que actúa como causa primera del
fenómeno -, y la magnitud de densidad-intensidad de
descarga de la Impregnación original – cuantificada por

medio de λ , ya que a inferior longitud de onda asociada,
mayor frecuencia o energía emitida por la Impregnación
Psicofísica en origen –.

Esto conlleva que, tomando cual invariante el alcance


temporal de la precognición, la probabilidad/frecuencia
estadística de percepciones eficientes crecerá en relación
inversa con la magnitud-intensidad psico-bioenergética de
la descarga o hecho-trauma de Impregnación. Resulta más
fácil captar un “flash traumático o perturbador” del
porvenir de menor alcance y/o intensidad que otro
“situado” en a igual “distancia” en el futuro más extenso o
impactante. Por el contrario, si fijamos constante este
último factor, la probabilidad de premonición efectiva y
acertada aumenta cuanto más remoto sea el hecho-trauma
desencadenante.

Corolario II

Precognición Altamente Remota de Ínfimo Costo y


Probabilidad Máxima

Definición:

“Estableciendo un valor de magnitud o intensidad promedio


para el hecho-trauma impregnador, la Percepción Efectiva
de un “taquión hiper-rápido” emitido como producto de un
evento muy remoto entre los estados futuros permitidos del
Anti-Verso es máxima, y en el límite tiende a 1 (la certeza
estadística). Esto es, se captaría siempre de modo casi
sistemático o determinista – o se cumpliría la Condición
Suficiente –, con tan sólo satisfacerse la Condición
Necesaria previa (la adecuada sensibilidad específica del
Receptor/Perceptor).
Desarrollo:

Basta partir de la función general de Trabajo o Coste de


Precognición Transferente y hacer en ella β g0.

Obtenemos:

φ PT =∆ E=hc/λ

El Trabajo de Resonancia es mínimo, luego la probabilidad


de precognición eficaz máxima.

Interpretación Psicofísica:

Podemos ver que, en este caso, el Coste de “Sintonización”


o “colapso” en estado resonante perfecto es idéntico a la
energía cuantizada del paquete onda-antipartícula emitido
en el instante virtual de la interacción perceptiva, según el
Principio Fundamental de Planck.

Ello implica que – dada la igualdad de “masa en reposo” y


“masa propia” en el estado-límite final asintóticamente
convergente con la velocidad relativa “c” del positrón o
taquión portador - , el proceso de transferencia es
equivalente “cuasi” exactamente con una aniquilación
virtual unidireccional con liberación de un único fotón en
sentido presentegfuturo, es decir, “en dirección hacia
nuestro Universo (el Sistema o Red Neural Perceptora). Por
ende, el consumo o trabajo por disipación en el seno de la
Interfase Luxónica es mínimo y la probabilidad de
percepción/procesamiento efectivo – presuponiendo la
presencia de un cerebro o sistema nervioso “dotado”
sensitivamente de forma idónea –, enorme, o
extraordinariamente cercana a la unidad.

Corolario III

Precognición Altamente Próxima de Máximo Costo y


Probabilidad Mínima

Definición:

“Tomando un valor de magnitud o intensidad media para el


hecho-trauma impregnante, la Percepción Eficaz de un
“taquión hiper-lento” generado como efecto de un suceso
muy próximo o “inminente” entre los estados futuros
posibles del Anti-Verso es mínima, y en el límite tiende a 0
(la improbabilidad estadística absoluta). Esto es, nunca o
prácticamente nunca se captaría –o no se llegaría a
satisfacer la Condición Suficiente –, aun cuando se
cumpliera la Condición Necesaria constitutiva de la premisa
(la óptima sensibilidad perceptiva del Receptor).

Desarrollo:

Igual que antes, consideramos la función genérica de Trabajo o


Coste de Precognición Transferente e imponemos en ella que β g1

Obtenemos:

φ PT =∆ E=2hc/λ

El Trabajo de Resonancia es máximo, luego la probabilidad


de precognición efectiva mínima.

Interpretación Psicofísica:

Comprobamos que, bajo estas condiciones, el Coste de


“Resonancia” o “colapso” en estado de sintonización
perfecta es igual a la energía cuantizada del doble del
paquete onda-antipartícula emitido en el instante virtual de
la interacción receptiva, por el Principio Fundamental de
Planck.

Esto implica que – dada la extrema diferencia entre la


“masa en reposo” (que se acerca infinitesimalmente a cero)
y “masa propia” (la cual tiende a “infinito”), que define el
estado-límite final para, respectivamente, el fotón
secundario producido en dirección “tardiónica” y el taquión
portador - , el proceso de transferencia es equivalente
“cuasi” exactamente con una aniquilación virtual
bidireccional con liberación de dos fotones en sentidos
opuestos, orientados entre sí con una dispersión muy
próxima a 180º en la Interfase Luxónica. Uno de ellos,
proyectado en sentido presentegfuturo hacia nuestro
Universo (el captado por el Sistema o Red Neural
Receptora); Y el otro, en la justamente contraria,
ingresando en el continuo espacio-tiempo del Anti-Verso
siguiendo su flujo futurogpresente. Consecuentemente, el
costo o trabajo por disipación en el seno de la Pared
Luxónica es máximo (de un orden “cuasi” igual al 100% de
la energía útil por foto-taquión transferido), y la
probabilidad de percepción/procesamiento eficaz – aun
asegurando como premisa la existencia de un cerebro o
sistema nervioso óptimamente sensitivo –, se torna ínfima,
o extraordinariamente cercana a cero. Nos hallamos ante el
caso en el cual el cumplimiento de la Condición Necesaria
hace posible el fenómeno de la Precognición, pero el
desmesuradamente breve periodo de frenado de la señal
superlumínica primaria estimulante, ocasionado por la
tremenda proximidad en la línea de tiempo futura del
suceso que la origina , en términos mecano-
cuánticos/relativistas, prácticamente anulan su probabilidad
real de efectuarse de modo operativo, por no cumplimiento
de la Condición Suficiente.

VIII

Conclusiones

El modelo expuesto trata de establecer las bases físicas mecano-


cuántico/relativistas del fenómeno de la Precognición o
Premonición.

Según éste, la Precognición no sería más que la percepción


psíquica, por parte de la Red Neural de un
sujeto/observador sensitivo, de un evento o serie de ellos lo
bastante perturbadores-traumáticos como para impregnar
un soporte (anti)-material psicopermeable o Red Psicofísica,
localizados en una línea de tiempo o “futuro probable” en el
seno de un Anti-Verso o Universo Gemelo ligado
cosmológico-evolutivamente al nuestro de manera
especular, en los términos formulados por la Teoría M
Unificada de Supercuerdas y/o Teoría Cuántica de Bucles
Gravitatorios - Modelo Ekpirótico Bimétrico –. Uniendo éste
con la Interpretación de Feynman de las “Soluciones
Negativas” de la Ecuación de Dirac en el marco de la Teoría
Cuántica de Campos, se puede plantear un Modelo Cuántico-
Gravitatorio Unificado Cosmológico que he denominado
“Dipolo-Verso de Feynman/Schreiber”.
En el seno de este escenario cosmológico – fundamentado por
crecientes y recientes evidencias observacionales astrofísicas y
experimentales en física de partículas de altas energías que se
documentan en este ensayo – el mecanismo de la Precognición
por Transferencia de emisiones de foto-taquiones en
general y foto-positrones en particular puede formularse de
modo racional y coherente, tal y como es desarrollado en el
texto.

El Teorema o demostración central de este modelo toma


como premisa la emisión de un foto-taquión desde la Fuente
Primaria de Impregnación, “acoplado” con la recepción o
emisión secundaria reactiva de la Red Neural del Perceptor
por mostrar éste una sensibilidad específica de bajo umbral
respecto al hecho-trauma desencadenante de la irradiación
desde el estado virtual probable futuro en el Anti-Verso.
Esta Condición Necesaria previa de “acoplamiento” se
define como sigue: La antipartícula-onda que retrocede en
el tiempo (estímulo) ha de poseer, en el momento de la
interacción, una velocidad tal, que su fracción superior a la
unidad respecto a la velocidad de la luz en el vacío, ha de
ser exactamente inversa a la del fotoelectrón secundario
que induce al ser percibida en nuestro Universo
(respuesta).

El par estímulo/respuesta de partícula/antipartícula se


aniquila virtualmente en la Interfase entre las Branas
hiperdimensionales de ambos Universos (“Pared Luxónica,
en la formulación original de Feynman y colaboradores).
Este proceso genera fotones, mediante un mecanismo
variable entre la emisión de un único fotón unidireccional en
sentido presentegfuturo hacia nuestro Universo (el sistema
nervioso o cerebro del Receptor), con mínimo coste
energético y máxima probabilidad/frecuencia de
percepción/procesamiento efectivo de la información
codificada en el fotón secundario portador, y la emisión de
dos fotones idénticos en direcciones opuestas con
dispersión mutua de 180º, uno de ellos hacia este Universo
y el otro hacia el Universo Gemelo Especular, en sentido
futurogpresente. Este último caso supone un máximo
consumo energético y, por ende, la probabilidad mínima de
percepción eficaz. En general, se producirán dos fotones,
pero el orientado hacia el Universo “tardiónico” o cerebro
del Perceptor/Observador conservará una proporción
residual de la energía liberada por el choque aniquilador en
la banda entre el visible de baja frecuencia y el infrarrojo –
pudiendo actuar como onda electromagnética portadora de
pulsos de microondas-radio de onda corta que el Receptor
decodificará cual sonidos -, mientras que el otro fotón
“rebotado” hacia el Antiverso o Fuente Primaria
Impregnada mantendrá el resto de la energía de la emisión
secundaria. En todo caso, la inmensa mayor parte de la
energía liberada por la aniquilación materia tardiónica-
antimateria taquiónica se disipará en la Inter-Brana
Luxónica en un periodo virtualmente “cuasi-nulo” de
tiempo, respetando el Principio de Incertidumbre, como
garante de la total o parcial violación de la Conservación del
Momento Lineal y la Energía verificada (desde los puntos de
referencia separados de ambos Universos, por supuesto).
Cuando la fracción de energía-información que porte el
fotón transferido en sentido temporal “normal”, o sea, en
dirección al Receptor de nuestro Universo, sea mayor que la
de su “gemelo invertido”, la probabilidad de percepción
eficiente aumentará. Esto ocurrirá cuando la velocidad de
llegada de la emisión positrónica-taquiónica sea cercana, o
al menos comparable, a la de la luz, y tanto más cuanto más
próxima resulte a ésta. Lo que equivale a afirmar cuanto
más prolongadamente haya sido “frenado” el flujo de
antipartículas-ondas portadoras, o bien cuanto más lejano
en el futuro se encuentre el hecho-trauma desencadenante,
o el ángulo de dispersión entre los dos fotones secundarios
sea menor. Y viceversa: Para velocidades finales de la
emisión taquiónica progresivamente más rápidas o super-
lumínicas – y por tanto menos frenadas, o derivadas de
sucesos o estados más cercanos en el provenir probable –,
los ángulos de dispersión aumentan y el fotón de “dirección
tardiónica” transmite cada vez menos energía-información.
El trabajo o coste de acoplamiento se incrementa y la
probabilidad de percepción efectiva decae. En el límite
“favorable” a la operatividad de la premonición, se emite un
solo fotón totalmente “alineado” frontalmente hacia el
Universo Tardiónico-Perceptor, que porta toda la energía-
información útil transferible. El coste tiende a cero y la
probabilidad de percepción eficaz a la unidad; En la
situación más “adversa”, se emiten dos fotones secundarios
con orientaciones justamente opuestas, cada uno hacia un
Universo, con lo cual el consumo o trabajo de acoplamiento
es máximo e iguala a la energía transferida: La probabilidad
de percepción operativa tiende a cero.

Pero, en todos los posibles estados cuánticos finales


“permitidos”, tanto los dos extremos como los intermedios,
la teoría demuestra que, de producirse acoplamiento por
hipótesis, la Condición Suficiente, si existe alguna
probabilidad no-nula por pequeña que sea de percepción
precognitiva real, es que dichos estados representen una
Resonancia Ondulatoria entre las partículas cuánticas
interactuantes: el taquión estimulante y el fotón secundario
“tardiónico”emitido como respuesta. Lo que
matemáticamente equivale a la igualdad entre las
longitudes de onda asociadas a sus estados finales de
movimiento, aplicando el Principio de Dualidad.

De ello también se infieren – como corolarios – una suerte de


“Leyes Psicofísicas de la Precognición”, coincidentes con las
evidencias empíricas estudiadas al respecto por equipos
multidisciplinares en el terreno de la Parapsicología Científica.

Estas Leyes pueden enunciarse así:

1) Primera Ley de la Precognición: “A igualdad de


Intendidades/Magnitudes iniciales de descargas psico-
bioenergéticas de Impregnación o hechos-trauma
desencadenantes futuros, la probabilidad o frecuencia
estadística de percepciones efectivas premonitorias por parte
de un sujeto sensitivo dado aumentan en proporción directa
con la “lejanía” de estos sucesos en un probable porvenir”: Se
captan correctamente mayor cantidad de eventos más
remotos que los más próximos al presente relativo del
observador.

2) Segunda Ley de la Precognición: “Manteniendo constante


la separación temporal del posible acontecimiento futuro
impregnador, la probabilidad o frecuencia para su
“visualización” certera se incrementa de forma directamente
proporcionada con su grado de “trivialidad” o menor
intensidad-alcance de perturbación”: Los sucesos menos
intensos, “cercanos individualmente” y/o extensos
colectivamente, se captan de modo certero en mayor cantidad
y recurrencia que los más “potentes” o de amplio efecto.
Dichos mecanismos teóricos explican porqué un avezado y
auténtico “vidente” es capaz de visualizar correctamente –
y a veces con un lujo y precisión de detalles impresionante
-, un desastre o atentado grave, decenios antes de
producirse, pero casi nunca puede predecir si él mismo o
sus familiares más queridos van a morir dentro de unos
minutos, o acertar con la combinación de números
afortunados de la lotería del día o la semana siguiente, por
poner ejemplos tan típico-tópicos como significativos y bien
comprobados.

Tales hechos siempre ha incitado a sonreír y burlarse a los


escépticos por sistema, bajar la cabeza, confundidos, a los
verdaderos investigadores científicos, rigurosos pero abiertos de
mente, interesados por la fenomenología parapsicológica – muchos
de ellos grandes figuras punteras de las más diversas
especialidades –, y turbado, además de provocado fuerte
inseguridad, en los propios dotados auténticos y sinceros.

Pero ahora – por primera vez – la Teoría de la Precognición


por Retro-Impregnación Psicofísica ofrece una explicación
racional, física e incluso cuantitativa sobre ello.

Espero de todo corazón que aliente, anime e impulse, tanto


a los audaces investigadores como a sus voluntarias y
muchas veces incomprendidas, atormentadas y valientes
“cobayas”, a seguir trabajando con seriedad, constancia y
valor, en su noble intento por hacer progresar el
Conocimiento humano en las zonas más oscuras y
misteriosas de nuestra compleja y multidimensional/multi-
universal Realidad.

A ellos dedico humildemente este trabajo.

VIII

Bibliografía y Referencias

• Dirac, Paul A. M., “Principles of Quantum Mechanics” ,


4ª Edición (Clarendon, 1982).
• Shankar, R., “Principles of Quantum Mechanics” , 2ª
Edición (Plenum, 1994).

• Wheeler, John & Feynman, Richard, “Interaction with


the Absorber as the Mechanism of Radiation” , Review of
Modern Physics (17), (1945).

• Feynman, Richard, “The Theory of Positrons” , Physical


Review (76), (1949).

• Feynman, Richard, “The Development of Space-Time


View of Quantum Electrodynamics” , discurso con motivo
de la recepción del Premio Nobel de Física, (11/12/1965).

• Nambu, Yoichiro, “The Use of the Proper Time in


Quantum Electrodynamics I” , Progress in Theorethical
Physics (5), (1950).

• Weinberg, Steven, “Los tres primeros minutos del


Universo” , Alianza Editorial (1999).

• Weinberg, Steven, “El sueño de la teoría final: la


búsqueda de las leyes fundamentales de la
naturaleza” , Crítica (2003).

• Feinberg, Gerald, “Possibility of Faster-Than-Light


Particles” , Physical Review (159), (1967).

• Hernández, Pedro J., “Cosmología, origen, evolución y


destino del Universo” , (Edición Digital, 2005).

• “Confirmando la existencia de Energía Oscura” , Seti cl


(edición digital, 27/08/2008).

• “Confirman la existencia de energía oscura” ,


Neofronteras (edición digital, 29/03/2010).

• González Díaz, Pedro F., “La energía fantasma y el


futuro del Universo” , Investigación y Ciencia, (Junio 2006).

• Ostriker, Jeremiah P., & Steinhardt, Paul J., “The


Quintessential Universe” , Scientific American, (Enero
2001).

• “La asimetría entre materia y antimateria” , Revista


Ciencia (edición digital, 6/07/2010).

• Longair, Malcolm S., “La Evolución de nuestro


Universo” , Paperback (versión española Ediciones Akal, Abril,
1999).

• Asimov, Isaac, “El electrón es zurdo y otros ensayos


científicos” , Alianza Editorial S.A. (1ª Edición, 3ª Impresión,
Julio 2002).

• Ibarra Sixto, Alejandro, “La masa de los neutrinos y la


asimetría materia-antimateria del universo” ,
Conferencia pronunciada en ocasión de la concesión del
Premio Jóvenes Investigadores de la Región de Murcia,
convocado por la Fundación Séneca-Agencia Regional de
Ciencia y Tecnología, (2004).

• Maroño Vidal, Miguel, “Violación CP y Cosmología” ,


Curso de Doctorado en Cosmología, Universidad Complutense
de Madrid, (edición digital).

• Thorne, K. S; Price, R.H. & Mc Donald, D. M., “Black


Holes, The Membrane Paradigm” , New Haven: Yale
University Press (1986).

• Thorne, K. S., en “300 Years of Gravitation” (Eds.),


Hawking, S. W. & Israel, W., University of Chicago Press,
“Gravitational Radiation” , (1987).

• Green, Michael B.; Schwarz, John H.; & Witten, Edwards,


“Superstring Theory” , Cambridge University Press (2
Volúmenes), 1988.

• J. Duff, Michael, “The Theory Formerly Known as


Strings” , Scientific American, págs. 64-69 (Febrero 1998).

• Green, Michael Brian, “El Universo Elegante” , Editorial


Crítica, Drakontos (2006).

• Kaku, Michio, “Paralell Worlds: A Journey Through


Creation, Higher Dimensions, and the Future of the
Cosmos” , Doubleday (Diciembre 2004).

• Witten, Edwards, “Magic, Mystery and Matrix” , Notices


of the AMS, (Octubre 1998, 1124-1129).

• Penrose, R, “Casuality, quantum theory and


cosmology” , en “On Space and Time”, Shahn Majid Eds.,
Cambridge University Press, pp. 141-195 (2008).

• Penrose, R, “Cycles of Time: An Extraordinary New


View of the Universe” , Bodley Head (London, 2010).

• Choi, Charles Q., “Antes del Big-Bang” , Investigación y


Ciencia, Nº 375, (Diciembre 2007).

• Pérez, Ismael, “Más allá del Big-Bang” , DivulgaUNED.es,


(7/10/2009).

• Cárdenas Martín, Santiago, “El panorama de la Física


actual” , Año Mundial de la Física, Grupo de Interés especial
GIENCIA, (edición digital).

• Domagala, Marcin; Giesel, Cristina; Kaminski, Wojciech


& Lewandowski, Jerzy, “Gravity quantized: Loop
quantum gravity with a scalar field” , Physical Review D,
82, 104038, (2010).

• Gurzadyan, V. G. & Penrose, R., “Concentric circles in


WMAP data may provide evidence of violent pre-Big-
Bang activity” ,
http://arxiv.org/ftp/arxiv/papers/1011/1011.3706.pdf ,
(10/11/2010).

• Feeney, Stephen M.; Johnson, Mathew C.; Mortlock,


Daniel J. & Peiris, Hiranya V., “First Observational Tests
of Eternal Inflation” , arXiv:1012.1995v2 [astro-ph.CO],
(10/12/2010).

• Báez, John & Muniain, Javier Pérez de, “Gauge Fields,


Knots and Quantum Gravity” , World Scientific (1994).

• Ashtecar, A., “Lectures on Non-Perturbative Canonical


Gravity” , World Scientific (1991).

• Smolin, Lee, “Life of the Cosmos” , Oxford University Press


(1997).

• Smolin, Lee, “Three Roads to Quantum Gravity” , Basic


Books (Kindle Edition, 18/03/2008).

• Smolin, Lee, “The Trouble with Physics: The Rise of


String Theory, the Fall of a Science, and What Comes
Next” , Houghton Mifflin (2006).

• Schreiber, Juan (8-3-2010) “FUNDAMENTOS DE


TRANSPISCOFÍSICA (I): PSICOFÍSICA DE LA
TRANSFERENCIA. (Un primer modelo psicofísico del
fenómeno de Impregnación Psíquica)”. (Internet,
disponible en: www.scribd.com.). Para consultas: enviar
e-mail a: mago-juan@hotmail.es.
• Schreiber, Juan (21-3-2010) “FUNDAMENTOS DE
TRANSPSICOFÍSICA (II): PSICOTERMODINÁMICA DE LA
TRANSFERENCIA (Un modelo psicofísico sobre la
termodinámica de la Transferencia por Imprimación
Psíquica)”. (Internet, disponible en: www.scribd.com.).
Para consultas: enviar e-mail a: mago-juan@hotmail.es.
• Schreiber, Juan (17-7-2010) “FUNDAMENTOS DE
TRANSPSICOFÍSICA (III): PSICOTERMODINÁMICA DE LA
TRANSFERENCIA (Un primer ensayo sobre las bases
para una nueva Parapsicología Científica)”. (Internet,
disponible en: www.scribd.com.). Para consultas: enviar
e-mail a: mago-juan@hotmail.es.
• Schreiber, Juan (28-3-2011) “Genes y Memes: Teoría
Cinética de los Replicadores Evolutivos Transferentes” .
(Internet, disponible en: www.scribd.com). Para
consultas: enviar e-mail a: mago-juan@hotmail.es.

-----------------------

Por:

Juan Schreiber

(Bioquímico y Librepensador)

En Madrid, a 18/04/2011

10:51 A.M.

Você também pode gostar