domingo, 8 de noviembre de 2009

Brevísima historia de la física (Parte 2)

La teoría cuántica y el Higgs
Esta deficiencia se debe a que la teoría de la gravitación de Einstein no incorpora los efectos de otra teoría desarrollada poco después de esta, la teoría cuántica, la gran unificadora de los fenómenos microcósmicos. Esta teoría se fundamenta en una borrosidad intrínseca, según algunos a la materia misma, según otros a la capacidad sensorial humana, en la determinación simultánea de las magnitudes fundamentales de un sistema mecánico, el momentum y la posición de las partículas. Así, la capacidad de predicción en la evolución de un sistema mecánico microscópico se hace indeterminable, pues la medición de alguna de las magnitudes mencionadas antes, hace variar a la otra en una proporción que no puede ser predicha, aunque si está acotada. Esto destrozó el sueño laplaciano, o mejor dicho, lo redujo a la mitad. En el mundo microcósmico no se hablaba ya de posiciones y momentum específicos de partículas, sino de la probabilidad de encontrar a una partícula con un determinado momentum en cierta región del espacio.
Lo dicho anteriormente se conoce como el principio de indeterminación de Heisenberg y llevó también a consecuencias espectaculares. La más saltante de ellas fue que se descubrieron dos fuerzas, la fuerte y la débil, que junto a la electromagnética, podía explicar la interacción entre los quarks y los leptones, a través de partículas portadoras de fuerza, los bosones de gauge. Todos estos en conjunto, formarían los componentes fundamentales de los que está hecha toda la materia. Pero eso no es todo, los fundamentos matemáticos sobre los que se hizo descansar la teoría cuántica, implican leyes invariantes que generan una gran unificación entre las fuerzas fundamentales que gobiernan estos fenómenos y parece ser también que, aunque ningún humano lo ha corroborado aún con datos fehacientes, la masa no es una propiedad intrínseca a estas partículas, sino tan solo una propiedad adquirida por la interacción de estas con su entorno: un entorno unificado en el que las distinciones entre cada partícula se deban al como estás son capaces de interactuar con un campo, el llamado campo de Higgs. De esta forma, la perdida de simetría del universo en esa variedad de “algos” de que hablamos en un principio, podría entenderse como el resultado de las condiciones que se generaron a partir de la expansión del universo primigenio, que activo el campo e Higgs y con ello, la capacidad de las partículas de interactuar. El grito de horror que se escucho tras la idea de indeterminación, fue aplacado por la nueva gran unificación.
Pero (siempre hay un pero) esta teoría de Higgs fue forjada por los humanos a medida que encontraban pruebas experimentales inconsistentes con la teoría cuántica que tanto les costó construir, por lo que fueron agregando propiedades y mecanismos adicionales que las eliminaran, pero, ya no olvidando, pero si dejando para después el hallazgo de los datos necesarios para afirmar la consistencia de la mencionada teoría. Así, tomaron el vacío y lo inundaron de partículas virtuales, campos de Higgs y hasta una constante cosmológica, aunque de esto hablaremos mas tarde.

Problemas de unificación
Volviendo a la teoría de la relatividad, la unificación que experimentaron, por lo menos teóricamente, las fuerzas que rigen las interacciones del micromundo no incluyen a la gravedad, que por cierto es incompatible a la teoría cuántica, la cual se hace indispensable en el estudio de aquellas estructuras a las que llamamos agujeros negros. Además, como se dijo antes, la teoría de la relatividad implica que el universo se expande, lo que evidentemente quiere decir que hace mucho tiempo estuvo “muy junto”. Nuevamente los humanos se encontraron en un escenario en el que el influjo gravitatorio se hace importante a nivel microcósmico, pero el puente de conexión carecía de bases. En los primeros estadios de la evolución del universo a partir del big bang, las condiciones de la gran unificación, según el modelo teórico estándar, se daban, por lo que se espera una inminente fusión entre el estudio del universo a gran escala con el estudio del universo a pequeña escala, lo que debería desembocar en una teoría cuántica de la gravitación, cuyas características, ya empezaron a ser deducidas por algunos perspicaces teóricos.
Pero mencioné antes (no me acuerdo porqué) a la constante cosmológica. Resulta que, al igual que nuestros queridos estudiosos de la física del micromundo, se hicieron una serie de mediciones sobre la velocidad a la que el universo se expandía y se encontraron con resultados que no podían ser explicados con los niveles conocidos de masa en el macromundo. Eso los llevó a voltear los ojos hacia el micromundo y postular la existencia de cierto tipo de materia indetectable, fría y totalmente obscura, a la que llamaron, en un brote de creatividad, materia obscura. Esta materia, al igual que el campo de Higgs para los físicos del micromundo, brindaba un nuevo marco compatible con las ideas de la relatividad general, y su origen estaría en ciertas partículas generadas a partir del modelo estándar de las partículas fundamentales.
Esto parece muy artificial, y por lo visto los humanos están cayendo nuevamente en el mismo error que cuando encontraron incompatibles los fenómenos electromagnéticos y gravitatorios: muchas ideas con una maravillosa estructura lógica interna, ningún dato.
Pero han de ser los datos experimentales obtenidos a partir de nuevos instrumentos, conocidos como colisionadores de partículas, los que determinen el futuro de las nuevas teorías unificadoras de las interacciones del micromundo lo que permita asentar definitivamente estas teorías sobre el campo de Higgs y ello aliviará a los investigadores del macromundo que depositaron sus esperanzas en que esta sea correcta, tras lo que el primer gran paso para la unificación de la gravedad y la teoría cuántica se verá consumado.

¿El lejano final se vislumbra?
Para terminar, vimos como en un principio las investigaciones humanas se fundamentaron en obtener primero datos, abundantes datos sobre un determinado fenómeno, para luego buscar estructuras matemáticas coherentes a sus axiomas que modelen este fenómeno bajo la forma de una ley fundamental, lo mas simplificada posible, pero lo suficientemente general, como para derivar a partir de ella la mayor cantidad de fenómenos relacionados que se le permitiesen a los límites mismos del conocimiento en el espacio-tiempo histórico (para usar términos hayistas) en el que este fue desarrollado. A partir de las revoluciones relativistas y cuánticas, muchos físicos, tras el vasto desarrollo de las matemáticas y las técnicas de cálculo, se encontraron realizando deducciones lógicas de teorías físicas ya existentes, que los llevaban a predecir la existencia de nuevos tipos de fenómenos, en un afán de extender la validez del cuerpo del conocimiento ya adquirido, pero sin corroborar antes que este sea verdaderamente “extensible” a una nueva clase de fenómenos. Esto llevó a grandes logros intelectuales, como el de la relatividad general o las teorías del entrelazamiento cuántico, pero también ha desviado demasiado a los humanos de la línea “clásica” del desarrollo científico seguido hasta entonces, conjeturando, ahora, un sin número de explicaciones posibles a fenómenos desconocidos, con bases matemáticas espectacular y elegantemente concebidas, pero sin la mas mínima idea de técnicas que permitan corroborar todo lo predicho, muchas veces achacando esta imposibilidad al poco desarrollo tecnológico al que están limitados en su tiempo.
No sé si esta será el camino que deberá seguir la evolución del conocimiento contemporáneo, pero sea como sea, los tiempos en los que la unificación se de parecen aún muy lejanos, y ¿quién sabe si algún día llegarán los humanos a ello?, pero, aunque dios (sea lo que sea que esto signifique) se carcajee al ver sus vanos intentos, nunca se podrán lamentar de no haberlo intentado.

No hay comentarios:

Publicar un comentario

Buscar