martes, 25 de octubre de 2011

Fundamentos de la Superconductividad, Parte I: Introducción.

La superconductividad fue descubierta en 1911 por H. Kammerlingh Onnes en Leiden. Él observó que cuando se enfriaba una muestra de mercurio, su resistencia desaparecía de forma brusca y aparentemente por completo a los 4.2 K. En un experimento con mayor sensibilidad, en el que se utilizaba una corriente permanente inducida en una espira de alambre superconductor, Kammerlingh Onnes estimó que la resistencia en el estado superconductor era cuando mucho 10^(-12) veces la resistencia en el estado normal. En experimentos más recientes, en el MIT, se encontró que una corriente inducida de varios cientos de amperios en un anillo de plomo superconductor  no mostró cambio en la intensidad de la corriente durante un periodo de por lo menos un año, lo que proporcionó una clara prueba de que la resistencia en el estado superconductor es, en efecto, cero. Se sabe ahora que por lo menos 20 elementos y cientos de aleaciones y de compuestos intermetálicos son superconductores con temperaturas que varían bastante menos de 1K (por ejemplo, 0.121 K para el hafnio) hasta alrededor de 23 K, como en el compuesto de perowskita que contienen ligaduras de cobre u oxígeno (estos últimos materiales tienen temperaturas de transición de hasta 100 K en algunos casos). La temperatura de transición, o crítica, es aquella en que tiene lugar el cambio del estado normal al de superconductor y es característica del material particular que se está estudiando. La temperatura crítica depende, hasta cierto punto, tanto de la pureza química  del material como de la perfección cristalina de la muestra. En realidad, la falta de homogeneidad de pureza  y tensión de la muestra generalmente tiende a ampliar el intervalo de temperatura de transición entre los estados normal y superconductor. Una muestra pura y bien templada puede presentar en su temperatura de transición un intervalo tan pequeño como 0.001 K.

Si se aplica un campo magnético lo suficientemente grande paralelo a un alambre superconductor, se verá que la muestra se vuelve normal. La magnitud del campo que origina la transición  depende tanto del material como dela temperatura, y es llamado campo crítico. 
Si se aplica un campo en alguna otra dirección, la muestra empezará a volverse normal cuando el campo alcance en cualquier punto de la superficie el valor del campo crítico. La forma de la curva temperatura-campo es generalmente parabólica  y está dada en una buena aproximación por la ecuación:
donde Hc es el campo crítico, T la temperatura absoluta de observación y Ho y Tc representan las características de la muestra (temperatura crítica para el campo cero y campo crítico para la temperatura de cero absoluto). Además de ampliar la transición, las homogeneidades pueden tener también un efecto marcado en Ho, aumentándolo a veces varios ordenes de magnitud. 

En los orígenes de la superconductividad, la aplicación de las ecuaciones de Maxwell a un conductor perfecto llevó a la conclusión de que la variación con respecto al tiempo de la inducción magnética en el interior de un superconductor debería ser cero. De este modo, dependiendo de que la muestra s enfriara por debajo dela temperatura de transición, en ausencia o en presencia de un campo magnético, el flujo magnético debía ser atrapado o excluirse. Esta idea arraigó tan fuertemente que no fue sino hasta 1933 cuando W. Meißner y R. Ochsenfeld comprobaron experimentalmente que la hipótesis era falsa y que, en todos los casos, independientemente de que la muestra se enfriara dentro o fuera de un campo magnético, la inducción magnética en un superconductor es cero.. A este efecto se le llama exclusión de flujo o efecto Meißner. Una afirmación esencialmente equivalente es que el superconductor se comporta como si tuviera permeabilidad cero o una susceptibilidad diamagnética perfecta. La importancia principal del  efecto Meißner es que demuestra que un superconductor se caracteriza por propiedades electromagnéticas más complejas que la simple conductividad infinita. Cualquier explicación satisfactoria de la superconductividad debe considerar de forma natural tanto la resistividad nula como el efecto Meißner.

Debido al efecto Meißner, para campos magnéticos aplicados menores que el campo crítico Hc, el campo no penetra en la muestra y esta permanece en su estado de superconductividad; para campos mayores, este penetra y el estado de superconductividad se destruye. Hablando estrictamente, estas afirmaciones describen el comportamiento magnético de los llamados superconductores de tipo I. Existe otro tipo de superconductor  (de tipo II), y aquí el comportamiento magnético es más complicado: a bajos campos magnéticos el flujo se excluye completamente (tal como sucede en el comportamiento de tipo I), lo que persiste hasta un campo crítico más bajo Hc1. Para campos por encima de este valor, el flujo penetra parcialmente, pero la superconductividad no se destruye hasta que el flujo penetra completamente al campo crítico de valor más alto Hc2. Entre estos dos valores críticos el tipo II  no presenta un efecto Meißner perfecto.


Desde que Kammerlingh Onnes descubrió la superconductividad, sean hecho denodados esfuerzos para hallar materiales superconductores con la más alta temperatura de transición posible. Sin embargo, lo sumo logrado fue una temperatura crítica de 23 K. Entonces, en 1986, Bednorz y Müller descubrieron la superconductividad de una nueva clase de materiales; se trataba de un compuesto de perowskita, que contenía capas de cobre y átomos de oxígeno, con una temperatura critica por encima de los 30 K. Este descubrimiento estimuló intensamente la investigación sobre esta nueva clase de cerámicos superconductores, y al inicio de 1987 se encontraron materiales con Tc mayores que los 90 K. 

Desde el punto de vista teórico se ha avanzado mucho, comenzando con la aplicación de la termodinámica a la transición de superconductividad llevada a cabo por W.H. Keesom en 1924. Luego, en 1934, C.J. Gorter y H. Casimir desarrollaron una explicación fenomenológica de la transición de segundo orden y de otras propiedades, basados en modelos de fluidos. Este trabajo fue continuado por H. y F. London, teniendo en cuenta el efecto Meißner. Pero hasta 1950 en que se descubrió el  efecto isotópico, fueron pocos los trabajos teóricos dirigidos con éxito hacia la teoría microscópica de la superconductividad. Sin embargo, en 1950, H. Fröhlich desarrolló una teoría basada en la interacción de electrones con átomos vibrando en la red cristalina, que explicaba el efecto isotópico, pero no conseguía predecir otras propiedades del estado superconductor. Entonces, en 1957, J. Bardeen, L. Cooper y J. Schrieffer desarrollaron una teoría mecánico quántica de la superconductividad que ha tenido mucho éxito. Esta última teoría (teoría BCS) tiene en cuenta de una forma natural la transición de fase de segundo orden, el efecto Meißner y otras propiedades termodinámicas y electromagnéticas de los superconductores. Según la teoría BCS, la superconductividad se manifiesta como una transición de fase que surge de un apareamiento de electrones. Este apareamiento es el resultado de la interacción de los electrones con las vibraciones dela red en el material. En cierto modo, la superconductividad es análoga a la condensación de Bose-Einstein de pares ligados de electrones; ambos efectos son esencialmente mecánico quánticos y no tienen análogos clásicos.

La teoría BCS parece ser capaz de predecir, al menos cualitativamente, todos los resultados experimentales relacionados con la superconductividad, con la posible excepción de la superconductividad para alta Tc de las perowskitas de óxido de cobre. Pero aún en este último caso, parece que la transición de fase se inicia con el apareamiento de electrones, si bien el origen de la interacción puede ser la interacción electrónica con alguna otra excitación del cristal.

sábado, 15 de octubre de 2011

La casi muerte del Big Bang

Érase  1995. Los rayos tronaban en el cielo obscuro y las mentes andaban perdidas en un laberinto sin salida. Tanvir, Shanks, Ferguson y Robinson publicaron en Nature un artículo titulado Determination of the Hubble constant from observations of Cepheid variables in the galaxy M96. En este se determinó que la constante de Hubble era H=69 ± 8 km/s/Mpc, la cual llevaba, en el marco de la teoría de Big Bang, a estimar la edad del universo en aprox. 10 mil millones de años. Sin embargo, medidas astronómicas muy precisas sugerían edades para las estrellas más viejas observadas de 13 mil millones de años, un serio problema para el modelo del Big Bang: las estrellas no pueden ser más antiguas que el propio universo. La conclusión más inmediata de esto era que la teoría del Big Bang estaba errada y que sería necesario desecharla inmediatamente. Claro, esa era la presurosa propuesta de los improvisados, más démosles  crédito, la crisis era profunda.
No sería sino hasta 1998 en que los grupos del Supernova Cosmology Project liderado por el Dr. Saul Perlmutter de la universidad de Berkeley  y el High-z Supernova Search Team, dirigidos por  el Dr. Brian Schmidt de la Universidad Nacional de Australia y el Dr. Adam Riess de la Universidad de Johns Hopkins, descubrirían la expansión acelerada del universo. Entre las dos colaboraciones, se estudió cerca de 50 supernovas del tipo Ia, cuya luminosidad era más débil de lo esperado teóricamente, como si estuviesen más lejos de los esperado. La hipótesis más natural sería, pues, asumir que el universo se expandía de forma acelerada. Por supuesto, desde 1998, una vasta cantidad de trabajos corroboran este hecho. Con elritmo de aceleración medido, la "nueva" edad del universo sería de unos 14 mil millones de años, solucionando el problema de las estrellas "viejas" y renovando la teoría del Big Bang.
Es por eso que este año, la ilustradísima (¿?) comisión Nobel decidió otorgarles el premio de Física a los líderes de los proyectos que llevaron a este maravillosos descubrimiento. Enhorabuena por ellos y por la cosmología. Ahora sólo falta averiguar porque el universo se expande como lo hace, tarea que parece aún más difícil de solucionar. Por lo pronto, llamamos a este algo energía obscura y no existe un consenso generalizado sobre su origen, su composición y mucho menos se ha detectado.     

sábado, 8 de octubre de 2011

La fe...

Y dijo:
Bendita sea la ignorancia, porque ella lleva a la fe
                                                                                                                                     Sidereus Nuncius

lunes, 4 de abril de 2011

Pi: la constante matemática mas hermosa


3.
1415926535 8979323846 2643383279 5028841971 6939937510 5820974944 5923078164 0628620899 8628034825 3421170679 8214808651 3282306647 0938446095 5058223172 5359408128 4811174502 8410270193 8521105559 6446229489 5493038196 4428810975 6659334461 2847564823 3786783165 2712019091 4564856692 3460348610 4543266482 1339360726 0249141273 7245870066 0631558817 4881520920 9628292540 9171536436 7892590360 0113305305 4882046652 1384146951 9415116094 3305727036 5759591953 0921861173 8193261179 3105118548 0744623799 6274956735 1885752724 8912279381 8301194912 9833673362 4406566430 8602139494 6395224737 1907021798 6094370277 0539217176 2931767523 8467481846 7669405132 0005681271 4526356082 7785771342 7577896091 7363717872 1468440901 2249534301 4654958537 1050792279 6892589235
4201995611 2129021960 8640344181 5981362977 4771309960 5187072113 4999999837 2978049951 0597317328 1609631859 5024459455 3469083026 4252230825 3344685035 2619311881 7101000313 7838752886 5875332083 8142061717 7669147303 5982534904 2875546873 1159562863 8823537875 9375195778 1857780532 1712268066 1300192787 6611195909 2164201989 3809525720 1065485863 2788659361 5338182796 8230301952
0353018529 6899577362 2599413891 2497217752 8347913151 5574857242 4541506959 5082953311 6861727855 8890750983 8175463746 4939319255 0604009277 0167113900 9848824012 8583616035 6370766010 4710181942 9555961989 4676783744 9448255379 7747268471 0404753464 6208046684 2590694912 9331367702 8989152104 7521620569 6602405803 8150193511 2533824300 3558764024 7496473263 9141992726 0426992279
6782354781 6360093417 2164121992 4586315030 2861829745 5570674983 8505494588 5869269956 9092721079 7509302955 3211653449 8720275596 0236480665 4991198818 3479775356 6369807426 5425278625 5181841757 4672890977 7727938000 8164706001 6145249192 1732172147 7235014144 1973568548 1613611573 5255213347 5741849468 4385233239 0739414333 4547762416 8625189835 6948556209 9219222184 2725502542
5688767179 0494601653 4668049886 2723279178 6085784383 8279679766 8145410095 3883786360 9506800642 2512520511 7392984896 0841284886 2694560424 1965285022 2106611863 0674427862 2039194945 0471237137 8696095636 4371917287 4677646575 7396241389 0865832645 9958133904 7802759009...

sábado, 26 de marzo de 2011

Termodinámica Bíblica, Parte I: Sé malo o arderás en el cielo

  Sidereus Nuncius
Laboratorio de Parodias y Humor
Facultad de Ciencias Físicas y Matemáticas – UNT

Resumen
De la aplicación de la termodinámica a los enunciados bíblicos se deduce que el cielo es endiabladamente más caliente que el infierno,  asumiendo que este ya ha alcanzado el equilibrio térmico, de la ley cero de la termodinámica y asumiendo que el cielo radia según la ley de Stefan-Boltzmann.

 1. Introducción:
Siglos de amenazas con quemarnos en el infierno por ser chicos malos parecen desestimarse gracias a nuevas pruebas encontradas en el antiguo testamento.  Del libro de Isaías (en el que, por cierto, abundan las amenazas) se encontraron pruebas fehacientes [1] que desechan la posibilidad de permanecer seguro del ardor infernal sólo por ir al cielo. Es más, el cielo resultaría tener una temperatura por encima de la del averno. De ser cierta la inspiración que causó en los escritores del mencionado libro el dios judío, entonces el craso error de interpretación sacerdotal se desprende de su ignorancia sobre las más básicas leyes de la física.
2. Temperatura Celestial:
E el libro de Isaías 30:26, en el antiguo testamento se lee [2]:
Por otra parte, a la luz de la luna será como la luz del sol y la luz del sol será siete veces mayor que la luz de siete días...
Es decir, el cielo recibirá la radiación que el sol emite en 7 días multiplicada por 7, esto es, 49 veces la radiación recibida por el sol. Además, recibirá la radiación equivalente a la de un sol por parte de una hipotética luna presente en lares celestiales. En total, el cielo recibirá 50 veces la radiación que recibe usualmente la tierra durante un día.
Ahora, asumiendo que, producto de su antiquísima existencia, el cielo se encuentra ya en equilibrio termodinámico, entonces flujo de energía recibida por el cielo debe ser igual al flujo energético saliente. De aquí, asumiendo que el cielo radia según la ley de Stefan-Boltzmann, tenemos que:

Es decir, la razón de la emitividad de radiación del  cielo respecto de la emitividad de la tierra es 50. Aquí  E, T, a indican la emitividad, la temperatura y la constante de Stefan-Boltzmann, respectivamente. De (1) deducimos rápidamente que:

Donde los subíndices hacen referencia a la Tierra (T) y al cielo (C). Finalmente, asumiendo que la temperatura promedio de la tierra es de:
 entonces tenemos por un simple cálculo que:
 
Es decir, el cielo se encuentra a 492.8 grados Celsius aproximadamente.

3. Temperatura Infernal:
No se puede determinar la temperatura exacta del averno con los datos disponibles en [2]; sin embargo, se puede acotar. En el libro Apocalipsis 21:8 se lee [2]:
“Pero los cobardes e incrédulos...tendrán su parte en el lago que arde con fuego y azufre
 De aquí, un lago de azufre implica que la temperatura del cielo debe estar por encima de la temperatura de fusión del azufre y por debajo de su temperatura de ebullición, esto es:
 Aquí TI representa la temperatura infernal. Por tanto, la máxima temperatura posible del infierno para que se cumpla lo postulado en Apocalipsis es:

4. Conclusiones:
Comparando (3) y (5) vemos que necesariamente el cielo es más caliente que el infierno, pues, valiéndose de la inspiración divina de la biblia, no quepa duda alguna sobre los datos de esta extraídos. ¡Amén!

5. Referencias Bibliográficas:
[1] Applied Optics (1972, 11 A14).
[2] Dios, “Antiguo Testamento”, Editorial Santísima, última edición, 2010.

lunes, 14 de marzo de 2011

Laico himno de la inteligencia

"El hombre es un miembro del reino animal, del phylum de los cordados, del subphylum de los vetebrados, de  la clase de los mamíferos, de la subclase de los euterios, del grupo de los placentarios, del orden de los primates, del suborden de los pitecoides, del infraorden de los catarrinos, de la familia de los hominoides, de la subfamilia de los homínidos, del género homo y de la especie: estúpidos."
                                                                                                    Marco Aurelio Denegri

jueves, 24 de febrero de 2011

Fotoacústica: el sonido de la luz.


1. Introducción:
La fotoacústica (FA) es un área de la física aplicada que se encuentra en una etapa muy activa de investigación, así como los fenómenos fototérmicos en general. Estos términos hacen referencia a la generación de ondas acústicas u otros efectos termoelásticos por cualquier tipo de flujo energético incidente, que va de la radiación por rayos X, electrones, protones, ultrasonido, etc. El efecto FA fue descubierto por A.G.Bell en 1980 y su resurgimiento se debe a los trabajos de Kreuzer y Rosencwaig en los inicios de los años setenta.
2. Antecedentes históricos de la Fotoacústica:
El efecto fotoacústico en gases y sólidos fue descubierto en el siglo XIX por A.G. Belly reportado por el mismo a la American Association for the Advancement of Science. En el trascurso de sus experimentos, Bell encontró que algunas veces se podía obtener una señal audible cuando el haz de luz se interrumpía parcialmente mediante un disco giratorio con ranuras y enfocado sobre alguna sustancia sólida con forma de diafragma conectada apropiadamente al oído.
En 1881 Bell publicó sus investigaciones en las que encontró que cuando la materia sólida se encontraba en una celda llena de gas conectada mediante un tubo al oído, se podía escuchar una señal audible cuando el material dentro de este se iluminaba con luz periódica. Así, notó que las señales mas fuertes eran producidas por materiales esponjosos o porosos y aquellos que tenían colores obscuros. 
En una serie subsecuente de experimentos, Bell se cuenta que el efecto FA en sólidos dependía de la absorción de la luz y que la intensidad de la señal FA dependía de que tan fuerte se absorbiera la luz en el material dentro de la celda.
Posteriormente fueron realizados experimentos por J. Tyndall y W. Roentgen sobre muestras gaseosas y encontraron que era fácil el estudio FA en gases absorbentes de luz.
Bell, Tyndall y Roengten describieron experimentos en los que utilizaron como radiación óptica luz solar y lámparas de arco de mercurio, haciendo pasar la luz a través de un disco ranurado giratorio, con lo que modulaban la luz que posteriormente incidía en la muestra dentro de una cámara cerrada y la señal producida dentro de la celda era detectada por el oído. La absorción de la luz por la muestra daba como resultado fluctuaciones de presión en el tubo y esas fluctuaciones tenían la misma frecuencia de modulación de la luz.
Bell supuso que cuando un haz de luz incidía sobre la superficie de la muestra, sus partículas se expandían, esto hacía que hubiera una contracción del espacio de aire o de los poros entre ellos y era expulsado un pulso de aire, semejante al caso de exprimir una esponja con agua. Cuando la muestra tenía forma de un disco o de una membrana delgada, Bell sostenía la idea de Lord Rayleigh, quién concluyó que la principal fuente de la señal FA se debía a la vibración mecánica originada por el calentamiento no uniforme del disco, cuando este se iluminaba con el rayo de luz periódico.
Las posteriores hipótesis de Mercadier y Preece se aproximan mas a la explicación moderna. Estos sugirieron que el efecto FA era debido al movimiento vibratorio determinado por el enfriamiento y calentamiento alternado de la radiación y, principalmente, a la capa gaseosa adherida a la superficie de la muestra calentada por la luz. Preece escribió que el efecto FA es puramente un efecto de radiación de calor y es esencialmente debido a al cambio de volumen del gas producido por la degradación y absorción de este calor en un espacio confinado.
1.3. Principios de Fotoacústica y técnicas de detección
Aunque actualmente se ha encontrado que la fuente principal que genera la señal FA es causada por el flujo de calor periódico de la muestra sólida hacia el gas circundante con el subsecuente cambio de presión en el gas dentro de la cámara, que se ajusta mas a la s predicciones de Mercadier y Preece, también los argumentos de Bell y Rayleigh contribuyen en parte a la señal.
El principio subyacente de la fotoacústica es la calefacción producida en una muestra debido a la absorción de un flujo energético incidente y a los procesos de relajación desexcitados no radioactivos subsecuentes debido a una fuente de calor en la muestra, que puede distribuirse a lo largo de su volumen o confinarse en su superficie. Esta fuente de calor da lugar a variaciones de temperatura y fluctuaciones de presión dentro de las muestras que descubren entonces las características térmicas o acústicas, o incluso ambas, los cuales se obtienen por dispositivos o sensores.
En la mayoría de los casos, el calor depositado en la muestra es debido a absorción de radiación óptica y esta es la razón por la que el nombre fotoacústica y fototérmica se asocien con esta técnica.
Físicamente, el calentamiento de la muestra que está en el haz de luz no solo depende de la cantidad de calor generado en la muestra, sino también del coeficiente de absorción óptica de la muestra para la radiación incidente, así como de la eficacia de conversión de la luz en calor, pero también en como este se distribuye a través de la muestra. Es por consiguiente intuitivamente legítimo esperar que la señal FA detectada deba ser fuertemente dependiente en la interacción de estos tres factores. La dependencia de estos factores es la razón principal que está bajo la versatilidad de la técnica FA. La dependencia de la señal FA en el coeficiente de absorción para la radiación incidente nos permite realizar el estudio espectroscópico, considerando el hecho que la señal es también proporcional a los procesos de conversión de luz en calor. De esta manera, la técnica FA puede usarse también para conseguir la información acerca de los procesos no térmicos desextitados.
Finalmente, el hecho de que la señal fotoacústica dependa también de cómo el calor se difunde a través de las muestras nos permite realizar no solo la caracterización térmica de la muestra (es decir, mediciones de propiedades térmicas y su conductividad térmica) sino también la conductividad térmica imaginaria del material. Este último punto viene del hecho de que la generación de ondas térmicas por la absorción de un pulso energético incidente puede reflejarse y pueden espaciarse si se topan con ruidos, defectos, y así sucesivamente, que afectan la señal recibida.
En un arreglo experimental típico de FA, la muestra se encierra en una cámara hermética (cámara), la cual se expone a una luz ligera cortada mediante un chopped o troceador. La calefacción periódica resultante de la muestra es fuertemente dependiente de la interacción de los tres factores antes mencionados. Como resultado de esta, la presión en la cámara oscila a la frecuencia del troceador y puede determinarse mediante el uso de un micrófono sensible acoplado a la cámara.

lunes, 14 de febrero de 2011

Introducción a las Partículas Elementales, Parte I


Resulta algo difícil dar una definición rigurosa al concepto de partícula elemental. Como una primera aproximación pueden considerarse partícula elementales aquellas micropartículas cuya estructura interna, al nivel del desarrollo actual de la física, no pueden ser representadas como la unión de otras partículas. En todos los fenómenos observados hasta el presente, cada una de ellas se comporta como un todo único. Las partículas elementales pueden transmutarse unas en otras.
Para poder explicar el comportamiento y las propiedades de las partículas elementales hay que asignarles además de la masa, carga y espín, una serie de magnitudes complementarias características.
Se conocen cuatro tipos de interacciones entre partículas elementales: fuerte, débil, electromagnética y gravitacional. Es usual caracterizar la intensidad de la interacción con ayuda de la llamada constante de interacción, la que es un parámetro adimensional, que define la probabilidad de los procesos condicionados por el tipo de interacción dado. La relación de los valores de las constantes da la intensidad relativa de las interacciones correspondientes:
· Interacción Fuerte: Este tipo de interacción garantiza el enlace entre los nucleones en el núcleo. La constante de interacción es de orden 10. La mayor distancia en la que se manifiesta esta interacción es de (10^-3) cm, aproximadamente.
· Interacción Electromagnética: La constante de interacción de (10^-2)aproximadamente. Su radio de acción es ilimitado.
· Interacción Débil: Esta interacción es la responsable por todos los tipos de desintegración beta de los núcleos, incluyendo la captura e , por muchas desintegraciones de partículas elementales y por todos los procesos de interacción de los neutrinos con la materia. La constante de interacción es del orden de los (10^-14) . La interacción débil, así como la fuerte, es de corto radio de acción.
· Interacción Gravitacional: La constante de interacción tiene un valor del orden de (10^-39) . Su radio de acción es ilimitado.
La interacción gravitacional es universal. A ella se someten todas las partículas elementales si excepción. Sin embargo en los procesos del micromundo no juega un rol importante.
En al tabla anterior, se dan los valores (por orden de magnitud) de las constantes de los diferentes tipos de interacción. En la última columna de la misma se indican el tiempo de vida de las partículas que se desintegran a cuenta de la interacción dada (se denomina a también tiempo de desintegración).
La lista de partículas subatómicas que actualmente se conocen consta de centenares de estas partículas, situación que sorprendió a los físicos, hasta que fueron capaces de comprender que muchas de esas partículas realmente no eran elementales sino compuestas de elementos más simples llamados quarks y leptones que interaccionan entre ellos mediante el intercambio de bosones.
El término partícula elemental se sigue usando para cualquier partícula que esté por debajo del nivel atómico. Por ejemplo, es usual hablar de protones y neutrones como partículas elementales aun cuando hoy sabemos que no son elementales en sentido estricto dado que tienen estructura ya que el modelo estándar analiza a estas partículas en términos de constituyentes aún más elementales llamados quarks que no pueden encontrarse libres en la naturaleza.
     Otras partículas subatómicas como los leptones y entre ellos los neutrinos son partículas, de las que se cree son realmente elementales. Los neutrinos, entidades que comenzaron su existencia como artificios matemáticos, ya han sido detectados y forman parte de todas las teorías físicas de la composición de la materia, de la cosmología, astrofísica y otras disciplinas.
     Actualmente se cree que los leptones, los quarks y los bosones gauge son todos los constituyentes más pequeños de la materia y por tanto serían partículas propiamente elementales. Existe un problema interesante en cuanto a estas partículas propiamente elementales, ya que parecen los leptones, por ejemplo, agruparse en series homofuncionales, siendo cada generación similar a la anterior pero formada por partículas más masivas: 
     ·  Generación 1: electrón, neutrino eléctrónico, Quark arriba, quark abajo. 
     ·  Generación 2: muón, neutrino muónico, quark extraño, quark encantado.
     ·  Generación 3: tauón, neutrino tauónico, quark fondo, quark cima.
Aunque no se tienen demasiadas ideas de por qué existen estas tres generaciones, en teoría de cuerdas el número de generaciones existentes tiene que ver con la topología de la variedad de Calabi-Yau que aparece en su formulación. Concretamente el número de generaciones coincidiría en esta teoría con la mitad del valor absoluto del número de Euler de la variedad de Calabi-Yau. Sin embargo, esto no es estrictamente una predicción ya que en el estadio actual de la teoría de cuerdas pueden construirse espacios de Calabi-Yau de diferente número de Euler. Se sabe que si quiere construirse una teoría de cuerdas que de lugar a sólo tres generaciones, el número de Euler debe ser ±6.
Existe la hipótesis de que los quarks están formados de preones.
La siguiente tabla da una visión general de las distintas familias de partículas elementales, y las teorías que describen sus interacciones.

Buscar