jueves, 19 de noviembre de 2009

2009: El año internacional de la astronomía

Por motivo del 400 aniversario de las primeras observaciones telescópicas hechas por Galileo Galilei (si, ese que quería medir todo lo medible y hacer medible lo que no lo es) y la publicación del Astronomía Nova por parte de Johannes Kepler, el 2009 fue declarado el año mundial de la astronomía.

La iniciativa de esto se debe a la Unión Astronómica Internacional y al apoyo de la UNESCO, tras la propuesta inicial del gobierno italiano. Esto se aprobó por parte de la asamblea general de la naciones unidas en el 2007 y, claro, nadie se dio por enterado en el Perú.

La astronomía puede presumir de ser la ciencia mas antigua de la humanidad, aunque, claro, la utilización del método científico en sí es mas bien reciente (con Galileo precisamente). Como ya dije en un post anterior, la observación de los cielos tuvo gran importancia para las civilizaciones primitivas, para las mediciones del tiempo y la determinación de las estaciones, conocimiento fundamental para las actividades agrícolas; además de su gran utilidad para la orientación geográfica antes de la invensión de la brújula.
En la astronomía griega, cuyos cimientos forjó Aristóteles (¿quién más podría ser?), se postuló la perfecta esfericidad de la tierra, así como su posición céntrica en el universo (geocentrismo). Además, los astros se concibieron también como perfectamente esféricos, trasladandose alrededor de nuestro planeta en trayectorias circulares perfectas.
Por supuesto, el modelo geocéntrico se mantuvo inalterable durante toda la edad media, pues lo postuló nuestro querido Ari y eso es mas que suficiente para la iglesia católica, que estaba feliz de proclamar a los cuatro vientos que ese modelo se ajustaba a "las escrituras".
Pero la obervación del movimiento de los planetas en los cielos no encajaba con el modelo imperante (planeta significa errante). Así, grandes matemáticos, como Ptolomeo, inventaron modelos intrincadísimos, compuestos de una serie de combinaciones de movimientos circulares, con la única finalidad de ajustar las observaciones a la teoría aristotélica. Claro está que el soporte empírico del geocentrismo era mínimo hacia finales de edad media y es ahí donde surge nuestro gran sistematizador: Mikolaj Kopernik (Nicolás Copérnico para los hispanohablantes). Este propueso el primer modelo heliocéntrico del sistema solar fundamentado matemática y empíricamente en su libro "De revolutionibus orbium coelestium".
Los trabajos de Kopernik fueron divulgados, corregidos y corroborados por Galileo Galilei y Johannes Kepler. Precisamente, en 1609, Galileo recibió noticias de la invensión del telescopio (se cree que su invensión se debe al Gerundés Juan Roget) decidiendo diseñar y construir uno. Con este, Galileo logr´p observar por pimera vez los cráteres de la luna, las fases de venus, pero fundamentalmente, los cuatro satélites mas grandes de Júpiter (Io, Ganímedes, Europa y Calisto), atestando el mas duro testazo al modelo geocéntrico en su historia. A su vez, Kepler publica su "Astronomia Nova", en el que enuncia dos de sus leyes sobre el movimiento planetario, basandose en las observaciones del astrónomo danés Tyge Ottesen Brahe.

Se inicia así el camino hacia la mas grande revolución del conocimiento humano, que prosiguió con la publicación del Siderius Nuncius por parte de Galileo y el Harmonices Mundi de Kepler, que brindó todo bagaje para que Sir Isaac Newton formule la Ley de Gravitación Universal, lenando el vacío entre las leyes de Kepler y la dinámica de Galileo.

Es comprensible, pues, que la las naciones unidas de decidieran por homenajear a estos grandes hombres 400 años despues de instaurar los hitos del inicio del conocimiento humano.

La relatividad y los filósofos (parte 1)

(sacado de "Lecturas de Física" de Feynman, Cap.16, volumen I, editorial Adisson-Wesley Iberoamericana)

Poncairé hizo la siguiente exposición del principio de la relatividad: "De acuerdo con el principio de relatividad, las leyes de los fenómenos físicos deben ser las mismas para un observador fijo que para un observador que tiene movimiento uniforme de traslación relativo a él, de manera que no tengamos, ni siquiera posiblemente, ninguna manera de discernir si nosotros somos llevados o no en este movimiento."

Cuando esta idea se propagó por el mundo, causó gran revuelo entre los filósofos, especialemnete los "filósofos de salón" quienes dijeron: "Ah, es muy sencillo: la teorçia de Einstein dice que ¡todo es relativo!" Realmente una sorprendente cantidad de filósofos, no solo aquellos que se encuentran en fiestas (pero con el ánimo de no avergonzarlos, sencillamente los llamaremos "filósofos de salón"), dirán "que todo es relativo, es una consecuencia de Einstein y tiene una profunda influencia en nuestras ideas". Ademças dicen: "Se ha demostrado en física que los fenómenos dependen del sistema de referencia". Se escucha esto muy a menudo(*), pero es dificil saber lo que significa. Probablemente los sistemas de referencia a que se refirieron originalmente eran los sistemas de coordenadas que usamos en el análisis de la teoría de la relatividad. De manera que el hecho que "las cosas dependen de sus sistema de referecia" ha tenido una profunda influencia en el pensamiento moderno. Uno podrçia muy bien preguntarse por qué, ya que, despues de todo, que las cosas dependan del punto de vista de uno es una idea tan simple, que ciertamente no puede haber sido necesario todo el trastorno de la teoría de la relatividad física, para descubrirla. Que las cosas que uno ve dependen de su sistema de referencia es ciertamente conocido por cualquier persona que camine, ya que ve un peatón que se acerca primero por el frente y despues por detrás: no hay nada más profundo en casi toda la filosofía, que se dice que ha venido de la teoría de la relatividad, que la observación de que "una persona luce diferente desde el frente que desde atrás"[...]
Pero realmente debe haber cosas mas profundas en la teoría de la relatividad


(*)Nota del Traductor: Doy fe de ello, se escucha muy, muy a menudo.

miércoles, 18 de noviembre de 2009

El método de la ciencia (Parte 2)

Luego del planteamiento de la hipótesis, se debe pasar a la contrastación de esta con el fenómeno en sí. Evidentemente, en principio, debe darse una percepción intencionada del fenómeno de interés en las condiciones normales en la que este se presenta en la naturaleza, debiendo ser esta interpretativa. Según Mario Bunge en el capítulo 12, segunda sección de su libro “La Investigación Científica”, en el proceso de la observación pueden distinguirse ciertos eslabones: el primer estadio es la presentación del objeto, es decir, “su percepción por parte del observador” (*). El segundo estadio es una interpretación a grandes rasgos del objeto percibido. Finalmente, el tercer estadio es el de la descripción. No todos los hechos, sin embargo, son observables de forma directa, es decir, que no pueden inferirse a través de la medición de hechos perceptibles y por medio de conjeturas. En estos casos se busca la contrastación por medio de datos acerca de hechos directamente observables, suponiendo que estos son efecto de los primeros.

Ahora, la recolección cuantitativa de las ideas de la fase de observación son los llamados datos. Estos deben representar informes acerca de hechos objetivos, extirpando completamente experiencias subjetivas. La recolección de estos se debe a que son necesarios para evidenciar la hipótesis, estando a su vez, esta misma recolección guiada y justificada por hipótesis que subyacen a su procedimiento empírico. Una peculiaridad de los datos científicos es que tienen que ser producidos. Los objetos físicos de cierta clase (los cuerpos perceptibles y algunos de sus cambios) se nos da como objetos de conocimiento se dan como la base del trabajo humano y como base de su apariencia, su manipulación y nuestra invención y contrastación de modelos de ellos mismos. Todos los datos recogidos que son relevantes para alguna idea, son los considerados evidencias de la hipótesis (representada en este caso por la idea), asi pues, antes de llevar a cabo una observación con la finalidad de producir una evidencia para la hipótesis planteada, hay que delimitar que clase de datos son relevantes para ello.

Todo lo que puede observarse directa o indirectamente pasar por un procedimiento de cuantificación numérica, es decir, se deben asociar a las variables cualitativas, variables cuantitativas. Toda clase de observación cuantitativa es lo que se conoce como medición. Hay que resaltar que hay que disponer del concepto antes de atribuirle un número con ayuda de una operación empírica, además de analizar lógicamente este concepto. De esta forma, vemos que la cuantificación antecede a la medición, porque medir es atribuir valores concretos a variables numéricas de un concepto cuantitativo sobre la base de la observación. Como dice Mario Bunge en la página 787 de la segunda edición de su libro “La Investigación Científica”, editada por colecciones Ariel: “Cuantificar una propiedad de un sistema concreto es proyectar el conjunto de grados de la propiedad sobre un conjunto de números, de tal modo que la ordenación y espaciación de los números refleje el orden y la espaciación se los grados. Y medir es determinar efectivamente algunos de esos valores numéricos”. Las técnicas de medición dependen de la naturaleza del objeto de estudio, del conocimiento disponible, de los requisitos de precisión del experimento y de la habilidad del operador (esto si es importante). Además, estas técnicas dependen de cómo el operador se puede relacionar con el objeto de estudio para la realización de las mediciones. Una condición necesaria del instrumento a utilizar para la medición, interaccione de forma despreciable con el objeto, además de ser calculable.

Una vez proyectado, construido y contrastado un equipo de medición se procede a la medición en sí, la cual dará un conjunto de mediciones, los cuales deben pasar por un proceso de refinamiento adecuado para la interpretación y el cálculo, por que solo ella puede proporcionar el aparato teórico para contrastar la hipótesis o derivar de ella otros datos. Una vez sistematizados los datos, se busca en ellos errores experimentales, que podrían deberse a deficiencias en el planteamiento o en la ejecución misma de la medición.

También se puede provocar deliberadamente algún cambio en el objeto para la observación y toma de datos, controlando los parámetros necesarios del fenómeno, para sintetizar el trabajo: esto es lo que se conoce como un experimento.

El objetivo de todos estos procedimientos, controlando el fenómeno bajo ciertos parámetros en el caso del experimento, no es otro más que la convalidación experimental de la propuesta teórica (hipótesis) como posible solución del problema planteado. Así, se propone una hipótesis matemáticamente fundamentada y con estructura lógica interna y luego se corrobora la misma, mediante el desarrollo de un experimento (o la observación directa en un ambiente controlado) que sean analizables, comparables, criticables y perfeccionables. De esta forma, el experimento representa un medio (no un fin) en la búsqueda de la respuesta al problema inicialmente planteado: “El método experimental es el modo como las hipótesis factuales se contrastan empíricamente, a saber, mediante el control riguroso de las variables relevantes y de las inferencias obtenidas de los resultados de la operación” (**).

Finalmente, la contrastación y corroboración de una determinada hipótesis la lleva a ampliarse o sintetizarse en teorías: sistematizando el conocimiento estableciendo relaciones lógicas entre entidades antes inconexas, explicando generalizaciones empíricas derivándolas de las hipótesis corroboradas, incrementando el conocimiento derivando nuevas proposiciones y reforzando la contrastabilidad de nuevas hipótesis.

Así, finalmente se cimienta el nuevo cuerpo de conocimientos que darán paso tanto a aplicaciones tecnológicas como al planteamiento de nuevos problemas que a su vez suscitarán nuevas hipótesis que proporcionan a la ciencia este carácter tan particular que la hace la mas grande creación humana: su capacidad de autocorregirse y desarrollarse, siempre, por supuesto, con la necesaria extensión finita de los conocimientos de su época.


(*)Mario Bunge, “La Investigación Científica”, Capítulo 12, sección 2, Colecciones Ariel, segunda edición.
(**)Mario Bunge,
“La Investigación Científica”, Capítulo 14, sección 6, Colecciones Ariel, segunda edición.

martes, 17 de noviembre de 2009

El lenguaje del cosmos.

¿Como nos "habla" la naturaleza? Nadie lo explicaría mejor que el mas grande físico norteamericano de la historia:

"Resumiendo, citaré a Jeans, quien dijo que 'El Gran Arquitecto parece ser un matemático'. Para aquellos que no conocen las matemáticas, es difícil sentir la belleza, la profunda belleza de la naturaleza. […] Es una pena que tengan que ser las matemáticas, y que las matemáticas se les den mal a bastante gente. […] Los físicos no sabemos traducir a otro idioma. Si quieres aprender sobre la naturaleza, apreciar la naturaleza, es necesario aprender el lenguaje en el que habla. Ella ofrece su información sólo de una manera; y nosotros no somos tan soberbios como para exigirle que cambie antes de prestarle atención".

Richard Feynman, El caracter de la ley física

sábado, 14 de noviembre de 2009

El método de la ciencia (Parte 1)

En la vigésimo segunda edición de DRAE se define método como “un modo de hacer o decir con orden”: esto nos permite definir el método científico como un modo, una secuencia de procedimientos mediante los cuales la investigación científica busca conocimientos verificables del mundo, el conocimiento científico.
En el paradigma contemporáneo del conocimiento científico se abolió completamente los principios universales idénticos y permanentes, caracterizando a este no por su veracidad, sino por el método usado para el planteamiento del problema y la verificación de las soluciones propuestas. Mario Bunge dice textualmente en el segundo de los 4 ensayos que conforman su libro “La Ciencia: Si Método y Su Filosofía”, con referencia a lo anterior:

“…para que un trozo de saber merezca ser llamado ‘científico’ no basta (ni siquiera es necesario) que sea verdadero. Debemos saber en cambio, como hemos llegado a saber (o a presumir) que le enunciado en mención es verdadero: debemos ser capaces de enumerar las operaciones (empíricas o racionales) por la cuales es verificable (confirmable o desconfirmable) de una manera objetiva al menos en principio”.

Ahora, las soluciones propuestas, en forma de enunciados, necesitan un método de verificación que no dependa únicamente de la contemplación y el análisis, sino que es necesaria una comparación con otros enunciados, los cuales tienen como extensión necesariamente finita los conocimientos del espacio-tiempo histórico en el que se desarrolla la investigación científica. De esta forma, se ve claramente que cualquier hipótesis confirmada por algún tipo de procedimiento empírico y racional, queda corroborada tan solo de forma provisional: esto es el falsacionismo de Popper, piedra angular del paradigma contemporáneo.
Pero, ¿en que debe (o debería) consistir nuestro método científico para que nos permita distinguir entre las afirmaciones verificables?.
Todo problema de investigación científica inicia con el hallazgo y la formulación de problemas. Precisamente, el progreso del conocimiento consiste en el planteamiento, aclaración y resolución de nuevos problemas. La selección de estos, coincide con al elección de la línea de investigación. Mario Bunge, con respecto a la elaboración de problemas, dice en la primera sección del capítulo 4 de su libro “La Investigación Científica”:

“No hay técnicas para elaborar problemas que sean a la vez profundos, fecundos y resolubles con medios prescritos. Pero pueden ser útiles los siguientes consejos: (i) Criticar soluciones conocidas, esto es, buscar puntos débiles en ellas: tienen que tener alguno, aunque no se haya descubierto aún. (ii) Aplicar soluciones conocidas a situaciones nuevas y examinar si siguen valiendo para estas: si valen, será ampliado el dominio de estas soluciones; si no valen, se habrá tal vez descubierto un nuevo sistema de problemas. (iii) Generalizar viejos problemas: probar con nuevas variables y/o dominios para las mismas. (iv) Buscar relaciones con problemas pertenecientes a otros campos…”.

Los problema de investigación exigen estrategias varias dependiendo de la naturaleza del mismo: el orden de los problemas puede tener que alterarse mas de una vez en el trascurso de la investigación, a medida que los resultados presentan nuevos problemas o problemas que no habían sido tomados en cuenta en principio. La libertad de la investigación científica, como dice Bunge, “consiste en la libertad de los investigadores para elegir sistemas problemáticos, planteamientos metódicos y soluciones sin mas objetivo que la consecución de la verdad. Así, el paradigma de la estrategia de la investigación se secuencia en tres pasos principales: descripción, análisis e interpretación”.
Una vez planteado y examinado el problema (o sistema de ellos) viene la búsqueda de una posible solución a este. Esta suposición que se toma como base del razonamiento es la llamada hipótesis, que debe referir se a hechos no sujetos aún a la experiencia y debe ser corregible a la vista de nuevos conocimientos. Propiamente, una hipótesis es una conjetura que trata de explicar algún hecho, tratando de formularse esta bajo ciertos parámetros que ayuden a particularizar el problema en mención de cualquier otra posible solución al mismo. Existen tres requisitos necesarios y suficientes ara considerar que una hipótesis es científica: (i) La hipótesis debe estar bien formulada; (ii) La hipótesis tiene que estar fundada en alguna medida en conocimiento previo, y si no es así, debe ser compatible con el cuerpo del conocimiento científico; (iii) La hipótesis debe ser empíricamente contrastable, es decir, mediante su comparación con datos empíricos a su vez controlados a su vez por técnicas y teorías científicas. Con respecto al tercer requisito, la consistencia lógica incluye ciertos caracteres sintácticos y semánticos que tienen que averiguarse antes de tomar en consideración contrastaciones. Definimos así, la fuerza lógica de forma siguiente: “una fórmula A es mas fuerte lógicamente que otra B si, y solo si, A implica B”. La fuerza lógica, es una fuente de determinación, así como de contenido informativo, ya que de dos formulas desigualmente fuertes lógicamente, la más fuerte puede guardar mayor información. Las hipótesis científicas tienen que ser sintéticas (factualmente significativas, según Bunge) y tener fuerza lógica máxima respecto de las evidencias empíricas relevantes a ellas, además de ser todo lo aproximadamente analíticas que sea posible, respecto del cuerpo disponible, es decir, se pide sinteticidad respecto del cuerpo de información empírica y analiticidad máxima posible respecto el cuerpo principal de conocimiento previo. Así, la fuerza lógica se trasforma en una condición necesaria (aunque no suficiente) para la contrastabilidad. Dicho en las propias palabras de Karl Popper: “Cuanto mas fuerte es una hipótesis, tanto mayor es su contrastabilidad”. Pero la constrastabilidad depende también de los procedimientos empíricos existentes o concebibles, como las técnicas de medición. Una hipótesis además, no solo es sostenida por al confirmación empírica de cierto número de sus consecuencias particulares: las hipótesis científicas tienden a incorporar se a hipótesis ya validadas o están incorporadas en ellas, y estas teorías están relacionadas entre sí, constituyendo la totalidad de la cultura intelectual. Cuanto mas numerosos sean los hechos que una hipótesis confirma, cuanto mayor sea la precisión que esta reconstruye hechos, cuantos mas “territorios científicos” ayude a explorar, mayor será la posibilidad que le asignemos: esto es lo que llamamos soporte empírico. Pero al experiencia disponible no puede ser considerada como inapelable porque nuevas experiencias pueden obligarnos reajustar las hipótesis propuestas y por que la experiencia científica es interpretativa, es decir, se hace en términos de teorías. Cuanto mayor compatibilidad entre la(s) nueva(s) hipótesis y las ya validadas, tanto mayor será la confianza en ella: esto es lo que llamamos soporte racional. Estos soportes de las hipótesis son interdependientes. Además, deben de ser susceptibles a ser comparados y controlados de acuerdo a ciertos patrones precisos y formulables.

¿Qué es la conciencia?

Ya Einstein nos decía que lo realmente incomprensible de este universo es que nos sea precisamente comprensible y esta comprensibilidad de los eventos del cosmos radica en nuestra capacidad de percibirlo. En física tenemos muchas bellas y simples teorías con una consistente estructura lógica interna (como la merecidamente famosa Teoría de Cuerdas), pero es su capacidad de darnos resultados perceptibles lo que determina si son realmente algún reflejo de la "realidad" (lo que quiera que "realidad" signifique).
Siempre pienso en que el máximo logro de la mente humana fue la invensión de las matemáticas, y esta gloria recide en que su contenido axiomático y su estructura lógica es independiente del contenido: ¡no necesitamos mas que unos cuantos conceptos primitivos y un par de sistemas axiomáticos básicos, mas un montón de idealizaciones para, con ello, modelar casi todos los fenómenos naturales que se nos presentan.
Traigo esto a colación porque es por ello que creo que mis lecturas sobre la conciencia fueron infructuosas. El contenido informativo que puedo encontrar sobre estos temas no hacen mas que exponer los carácteres genéricos sobre lo que en consenso se entiende por conciencia. No hay nada sustancial sobre como modelar cuantitativamente algo estudiado sobre la conciencia que contenga algún razonamiento de experiencia refrente a hechos "reales". Incluso le otorgamos la posibilidad a nuestra conciencia de emerger de aquello que somos incapaces de entender, como Penrose y su teoría de la "conciencia cuántica": ¡es en nuestra incapacidad de entender las leyes de la mecánica cuántica donde depositamos nuestra esperanza de tener una conciencia libre e independiente de los procesos mecánicos deterministas!. Me parece que vivimos el sueño de la libertad y no queremos despertar, aunque parece que todo se da para que esto se convierta en una pesadilla laplaciana. Como decía Hume, creo que el contenido especulativo sobre lo que entendemos por conciencia debemos dejarselo a las llamas.
Parece que al final no somos mas que mandriles haciendo cosas horrorosas, como una aguja en una brujula que puede apuntar unicamente en una dirección, pero queremos creer que apuntamos al norte por que es nuestra voluntad. Tal vez el Marqués de Laplace tenía razón (y me aterroriza), pero mi corazón newtoniano sonríe.

¿Qué es, pues, libertad, libre albedrío o moral en un mundo mecanicista? ¿Cómo trascender concientemete si el utimo refugio de mi conciencia se lo trato de dejar a mi ignorancia?

Si alguien sabe lo que es la conciencia, ahí está mi correo electrónico...

La libertad del hombre

Situándonos en un plano determinista preguntémonos: Si todo obedece las inmutables leyes de la naturaleza, ¿entonces el ser humano no tiene voluntad propia y simplemente cumple un programa fijo?
En la búsqueda de respuestas, consulté información concerniente a como las distintas ramas de la ciencias conciben nuestros procesos mentales.

A nivel psicológico descubrimos que psicólogos y especialistas siempre han comparado nuestro cerebro con un ordenador donde se procesa gran cantidad de información y se efectúan miles de operaciones simultáneas, superando espectacularmente al ordenador más potente del mundo. Nos podríamos sentir orgullosos de ello. Sin embargo, a pesar de que no existe ningún ordenador que nos supere en número de operaciones mentales, nuestro funcionamiento intelectual comete errores, distorsiones o decisiones aparentemente caprichosas que un ordenador nunca haría. Algunos de estos errores de nuestros cerebros serían los prejuicios raciales o los estereotipos, por ejemplo. Así, cuando analizamos la información que recibimos a través de nuestros sentidos, nos dejamos llevar muy a menudo por nuestras creencias, expectativas o prejuicios.
A nivel biológico, a pesar de que el hombre ha conseguido grandes logros en los campos de la ciencia, la técnica, etc., sobrevaloramos el grado de participación del pensamiento consciente en la vida cotidiana. Está comprobado que gran parte de nuestro comportamiento aprendido queda fijado permanentemente. En los inicios del proceso, aprender algo nuevo nos resulta difícil, pero luego no tenemos que emplear gran esfuerzo para llevarlo a cabo. Por ejemplo, la mayoría de los adultos caminan, nadan, se atan los zapatos o escriben palabras sin ninguna dificultad. También hay que tener en cuenta que nuestras mejores ideas se nos ocurren cuando no somos conscientes de ello, mientras estamos pensando o haciendo algo que no tiene ninguna importancia. Así pues, de esto se desprende que somos bastante automáticos en nuestros actos; y el automatismo es lo contrario de la libertad, de la originalidad.
Esto nos llevará a nuestra primera gran conclusión: el análisis causal de la realidad efectuado por nuestros cerebros conscientes es lo suficientemente parcializado como para no tomarlo en cuenta.

Vayamos al plano de la física. Estamos hechos de los mismos elementos que cualquier objeto y que estamos sometidos también a las mismas interacciones elementales. En base a esto, el físico y matemático Pierre Simon, Marqués de Laplace, postuló que todo está determinado a nivel físico y, por tanto, toda libertad es ilusoria. Sin embargo, este razonamiento no tiene en cuenta el descubrimiento unos años más tarde del matemático Henri Poincaré respecto al “problema de los tres cuerpos”. Si se produce la imbricación de varios determinismos, el resultado de su acción a largo plazo es imprevisible. Esto es lo que en física se conoce como fenómenos caóticos, es decir, aquellos cuyo desarrollo depende estrechamente de las condiciones iniciales; como la precisión del conocimiento de estas condiciones de partida es limitada, la previsión a largo plazo tiene también un límite. Pero, esta imprevisibilidad está estrechamente ligada a los límites computables de los métodos poco refinados del cálculo, de forma que no solucionan el problema del determinismo laplaciano.
Con la llegada de la mecánica cuántica el asunto ha tomado nuevos aires. Los defensores de la libertad humana entienden que a nivel microscópico las partículas no se rigen por leyes que podamos medir. Ahí está el Principio de Indeterminación de Heisenberg. Incluso hay científicos un tanto fantasiosos, quizá, que postulan que nosotros somos cuerpos grandes, al igual que planetas, y por tanto se podrían predecir nuestros movimientos futuros con un ordenador suficientemente potente, pero nuestro pensamiento es nuestra acción, y nuestro cerebro no opera a nivel macroscópico sino a nivel cuántico.
Roger Penrose, el célebre físico-matemático norteamericano, famoso por su tesis doctoral junto a Stephen Hawking sobre la existencia de los agujeros negros y la imposibilidad de la existencia de los agujeros de gusano en la teoría de la relatividad general, sostiene una teoría algo alentadora para los defensores del libre albedrío. Él defiende que la conciencia humana es no computacional, a diferencia de otros procesos humanos. Esto se hace posible gracias a que, según Penrose, nuestro cerebro opera a nivel cuántico, donde el principio de indeterminación de Heisenberg proporciona la una borrosidad intrínseca en la materia, que permite zafar del fantasma del determinismo. Por supuesto, no todos los físicos creen que esta borrosidad sea intrínseca a la materia, sino que podría ser debida a los límites en la capacidad sensorial propios de nuestra naturaleza. Penrose explica que este fenómeno se lleva a cabo en unas pequeñas estructuras neuronales, los microtúbulos, que actúan como el centro de nuestra conciencia.
Como físicos, aunque esto tal vez no sea más que nuestros prejuicios newtonianos de formación, pugnamos por entender la conciencia como una propiedad de la materia, porque el cerebro está constituido por ello precisamente. La vida no sería así más que una propiedad de la materia. Maxwell dijo: “si la aguja de una brújula pensara, diría que apunta hacia el norte por que es su voluntad”, y todo lo que progresivamente vamos descubriendo sobre el funcionamiento del universo nos lleva a pensar que nosotros obramos del mismo modo.

Así, la no computabilidad de la mecánica cuántica, o simplemente nuestra incapacidad de entender la mente humana en términos lógicos o físicos, es decir, nuestra incomprensión de las leyes fundamentales de la física, es donde radica nuestra llave a la libertad, tal vez limitada por nuestra naturaleza material, pero por lo menos unos grados de libertad no estarían tan mal…"como un meñique en la mano de dios".

El límite según Heine

Desde que mi vida universitaria inició, los límites entraron irrevocablemente en mi vida. Y el número de caras de incertidumbre que pude ver a lo largo de todos estos años en los iniciados (y no tan iniciados) en el análisis matemático cada vez que algún profesor les definia límites era sorprendentemente grande. Eso me dejó claro que Cauchy puso rigurosidad a la definición de límite, pero de claridad, nada.

Hace un tiempo, pues, tuve la suerte de que llegó a mis manos un libro de la extinta editorial MIR-Moscú, "Curso de Análisis Matemático", del profesor L.D. Kudriávtzev, en la que encontré una definición alternativa de límite de una función, obra y gracia del matemático prusiano Heinrich Heine, dada en términos de límites de sucesiones. Pero vamos a la acción.

Todos los brillantes lectores de este blog saben que una correspondencia biunívoca entre cada número natural y cierto número real, xn, es lo que llamamos una sucesión.

El número a que pertenece a los reales se llama límite de la sucesión {xn}, designado como:

\lim_{x\to \infty }x_{n}

Si: n_{0}\Rightarrow x_{n}\in U(a)" src="http://www.texify.com/img/%5CLARGE%5C%21%5Cexists%20n_%7B0%7D%5Cin%20N%3A%5Cforall%20n%3E%20n_%7B0%7D%5CRightarrow%20x_%7Bn%7D%5Cin%20U%28a%29.gif" align="center" border="0">

Para los que prefieren el "lenguaje de las epsilon", podemos tambien definir el límite de una sucesión como el número a que pertenece a R, tal que:

0)(\exists n_{\varepsilon }\in N):\forall n>n_{\varepsilon }\Rightarrow \left | x_{n}-a \right |<\varepsilon " src="http://www.texify.com/img/%5CLARGE%5C%21%28%5Cforall%20%5Cvarepsilon%20%3E0%29%28%5Cexists%20n_%7B%5Cvarepsilon%20%7D%5Cin%20N%29%3A%5Cforall%20n%3En_%7B%5Cvarepsilon%20%7D%5CRightarrow%20%5Cleft%20%7C%20x_%7Bn%7D-a%20%5Cright%20%7C%3C%5Cvarepsilon%20.gif" align="center" border="0">

domingo, 8 de noviembre de 2009

Brevísima historia de la física (Parte 2)

La teoría cuántica y el Higgs
Esta deficiencia se debe a que la teoría de la gravitación de Einstein no incorpora los efectos de otra teoría desarrollada poco después de esta, la teoría cuántica, la gran unificadora de los fenómenos microcósmicos. Esta teoría se fundamenta en una borrosidad intrínseca, según algunos a la materia misma, según otros a la capacidad sensorial humana, en la determinación simultánea de las magnitudes fundamentales de un sistema mecánico, el momentum y la posición de las partículas. Así, la capacidad de predicción en la evolución de un sistema mecánico microscópico se hace indeterminable, pues la medición de alguna de las magnitudes mencionadas antes, hace variar a la otra en una proporción que no puede ser predicha, aunque si está acotada. Esto destrozó el sueño laplaciano, o mejor dicho, lo redujo a la mitad. En el mundo microcósmico no se hablaba ya de posiciones y momentum específicos de partículas, sino de la probabilidad de encontrar a una partícula con un determinado momentum en cierta región del espacio.
Lo dicho anteriormente se conoce como el principio de indeterminación de Heisenberg y llevó también a consecuencias espectaculares. La más saltante de ellas fue que se descubrieron dos fuerzas, la fuerte y la débil, que junto a la electromagnética, podía explicar la interacción entre los quarks y los leptones, a través de partículas portadoras de fuerza, los bosones de gauge. Todos estos en conjunto, formarían los componentes fundamentales de los que está hecha toda la materia. Pero eso no es todo, los fundamentos matemáticos sobre los que se hizo descansar la teoría cuántica, implican leyes invariantes que generan una gran unificación entre las fuerzas fundamentales que gobiernan estos fenómenos y parece ser también que, aunque ningún humano lo ha corroborado aún con datos fehacientes, la masa no es una propiedad intrínseca a estas partículas, sino tan solo una propiedad adquirida por la interacción de estas con su entorno: un entorno unificado en el que las distinciones entre cada partícula se deban al como estás son capaces de interactuar con un campo, el llamado campo de Higgs. De esta forma, la perdida de simetría del universo en esa variedad de “algos” de que hablamos en un principio, podría entenderse como el resultado de las condiciones que se generaron a partir de la expansión del universo primigenio, que activo el campo e Higgs y con ello, la capacidad de las partículas de interactuar. El grito de horror que se escucho tras la idea de indeterminación, fue aplacado por la nueva gran unificación.
Pero (siempre hay un pero) esta teoría de Higgs fue forjada por los humanos a medida que encontraban pruebas experimentales inconsistentes con la teoría cuántica que tanto les costó construir, por lo que fueron agregando propiedades y mecanismos adicionales que las eliminaran, pero, ya no olvidando, pero si dejando para después el hallazgo de los datos necesarios para afirmar la consistencia de la mencionada teoría. Así, tomaron el vacío y lo inundaron de partículas virtuales, campos de Higgs y hasta una constante cosmológica, aunque de esto hablaremos mas tarde.

Problemas de unificación
Volviendo a la teoría de la relatividad, la unificación que experimentaron, por lo menos teóricamente, las fuerzas que rigen las interacciones del micromundo no incluyen a la gravedad, que por cierto es incompatible a la teoría cuántica, la cual se hace indispensable en el estudio de aquellas estructuras a las que llamamos agujeros negros. Además, como se dijo antes, la teoría de la relatividad implica que el universo se expande, lo que evidentemente quiere decir que hace mucho tiempo estuvo “muy junto”. Nuevamente los humanos se encontraron en un escenario en el que el influjo gravitatorio se hace importante a nivel microcósmico, pero el puente de conexión carecía de bases. En los primeros estadios de la evolución del universo a partir del big bang, las condiciones de la gran unificación, según el modelo teórico estándar, se daban, por lo que se espera una inminente fusión entre el estudio del universo a gran escala con el estudio del universo a pequeña escala, lo que debería desembocar en una teoría cuántica de la gravitación, cuyas características, ya empezaron a ser deducidas por algunos perspicaces teóricos.
Pero mencioné antes (no me acuerdo porqué) a la constante cosmológica. Resulta que, al igual que nuestros queridos estudiosos de la física del micromundo, se hicieron una serie de mediciones sobre la velocidad a la que el universo se expandía y se encontraron con resultados que no podían ser explicados con los niveles conocidos de masa en el macromundo. Eso los llevó a voltear los ojos hacia el micromundo y postular la existencia de cierto tipo de materia indetectable, fría y totalmente obscura, a la que llamaron, en un brote de creatividad, materia obscura. Esta materia, al igual que el campo de Higgs para los físicos del micromundo, brindaba un nuevo marco compatible con las ideas de la relatividad general, y su origen estaría en ciertas partículas generadas a partir del modelo estándar de las partículas fundamentales.
Esto parece muy artificial, y por lo visto los humanos están cayendo nuevamente en el mismo error que cuando encontraron incompatibles los fenómenos electromagnéticos y gravitatorios: muchas ideas con una maravillosa estructura lógica interna, ningún dato.
Pero han de ser los datos experimentales obtenidos a partir de nuevos instrumentos, conocidos como colisionadores de partículas, los que determinen el futuro de las nuevas teorías unificadoras de las interacciones del micromundo lo que permita asentar definitivamente estas teorías sobre el campo de Higgs y ello aliviará a los investigadores del macromundo que depositaron sus esperanzas en que esta sea correcta, tras lo que el primer gran paso para la unificación de la gravedad y la teoría cuántica se verá consumado.

¿El lejano final se vislumbra?
Para terminar, vimos como en un principio las investigaciones humanas se fundamentaron en obtener primero datos, abundantes datos sobre un determinado fenómeno, para luego buscar estructuras matemáticas coherentes a sus axiomas que modelen este fenómeno bajo la forma de una ley fundamental, lo mas simplificada posible, pero lo suficientemente general, como para derivar a partir de ella la mayor cantidad de fenómenos relacionados que se le permitiesen a los límites mismos del conocimiento en el espacio-tiempo histórico (para usar términos hayistas) en el que este fue desarrollado. A partir de las revoluciones relativistas y cuánticas, muchos físicos, tras el vasto desarrollo de las matemáticas y las técnicas de cálculo, se encontraron realizando deducciones lógicas de teorías físicas ya existentes, que los llevaban a predecir la existencia de nuevos tipos de fenómenos, en un afán de extender la validez del cuerpo del conocimiento ya adquirido, pero sin corroborar antes que este sea verdaderamente “extensible” a una nueva clase de fenómenos. Esto llevó a grandes logros intelectuales, como el de la relatividad general o las teorías del entrelazamiento cuántico, pero también ha desviado demasiado a los humanos de la línea “clásica” del desarrollo científico seguido hasta entonces, conjeturando, ahora, un sin número de explicaciones posibles a fenómenos desconocidos, con bases matemáticas espectacular y elegantemente concebidas, pero sin la mas mínima idea de técnicas que permitan corroborar todo lo predicho, muchas veces achacando esta imposibilidad al poco desarrollo tecnológico al que están limitados en su tiempo.
No sé si esta será el camino que deberá seguir la evolución del conocimiento contemporáneo, pero sea como sea, los tiempos en los que la unificación se de parecen aún muy lejanos, y ¿quién sabe si algún día llegarán los humanos a ello?, pero, aunque dios (sea lo que sea que esto signifique) se carcajee al ver sus vanos intentos, nunca se podrán lamentar de no haberlo intentado.

jueves, 5 de noviembre de 2009

Brevísima historia de la física (Parte 1)

Todo inicio (o debió iniciar) hace unos 15 mil millones de años, en alguna especie de “charco primigenio”, cuya verdadera identidad puede ser digna de Star Trek: una concentración infinitamente densa de materia en una porción espacio-temporal de dimensión nula, como sostenía Lamaître, o un “algo” unificado en el que espacio-tiempo y masa-energía sean la misma expresión de un mismo “todo”, como sostiene Linde, o la nada (¡nada!) que en realidad es algo de la que todo salió, como mas recientemente afirma Magueijo en su controvertida teoría de la variación de la velocidad de la luz y la constante cosmológica, aunque todas ellas, de perfecta simetría. Sea como fuese, esta configuración inicial perfectamente simétrica, que la física moderna no es capaz de esclarecer, sufrió un cambio determinante, tal vez porque dios, alá, el primer motor, la naturaleza o la nada (¡nada!) se tropezó, se equivocó, se aburrió o se le “chispoteó”, lo que obligó a este átomo primigenio, charco cósmico, big bang o nada (¡nada!) a expandirse y enfriarse, fracturando esa estética perfecta del todo y transformándolo en distintos “algos”.

Los primeros "pasos" del universo
Una billonésima de una billonésima (como diría Sagan) de segundo después del inicio de está “gran explosión” (en la que, por cierto, nada explotó) empezaron a surgir un sin número de “algos” de lo que alguna vez fue un todo y la materia se diferencio en masa y energía, y el espacio-tiempo sufrió los estragos de ver como su factor de escala se hacía cada vez mayor. Así pasaron millones de años, en los que los “algos” empezaron a combinarse nuevamente, pero la simetría perfecta jamás se pudo recuperar (y tal vez nunca lo haga).
Y en “medio” de esta expansión y ruptura de simetrías, surgieron en los fríos confines de una galaxia espiralada, en una minúscula roca helada que gira lentamente alrededor de una pequeña estrella, unos seres inteligentes (bueno, muchos solo potencialmente inteligentes) que empezaron a darse cuenta de cierta periodicidad en los fenómenos que ante sus atónitos ojos se mostraban. Ellos vieron como el aparente caos que siguió a la “gran explosión” era no más que un desorden aparente: solo cambiaron las reglas del juego.
Al principio todo fue únicamente especulativo y excesivamente variante de un ser a otro, así que estos magníficos (¿?) seres inventaron un lenguaje que les permitiera codificar y preservar sus hallazgos, las matemáticas, y nuevamente se lanzaron en la búsqueda de aquellas reglas que aparentemente regían con perfecta sincronía la evolución del cosmos. Para esto, inventaron raros instrumentos basados en este extraño código. Entonces descubrieron que ellos mismos se encontraban en una roca, que giraba alrededor de una masa incandescente junto con muchos otras rocas.
Y alcanzaron una cumbre: estas rocas giraban una en torno de la otra siguiendo estrictamente una regla, a la que llamaron la ley de la gravitación universal. Quien la enunció era conocido como Isaac Newton. De esta regla se dedujeron un sin número de métodos para modelar el mundo alrededor de estos seres, de tanta belleza y simplicidad, que creyeron estar ante la magnífica norma que regía el accionar de todo el universo.
Luego, el campo de visión cósmica se amplio y surgieron una nueva clase de fenómenos, distintos a los hasta entonces estudiados. Nuevas mentes prominentes, como Faraday, Ampere, Maxwell y demás, se embarcaron en el estudio de nuevos tipos de interacciones entre la materia y diferenciaron por primera vez entre masa y energía, como dos expresiones distintas de algo íntimamente interactuante: había nacido el electromagnetismo.
Pero nada parece ser perfecto desde el big bang. Las nuevas teorías electromagnéticas resultaban incompatibles a las anteriores sobre la gravedad, y se escuchó un clamor desesperado entre la multitud: “unificación”.
Los primeros intentos, impulsados por el afán determinista de las teorías newtonianas, llevaron a suposiones carentes de la munición más preciada hasta entonces usada por los humanos, los datos. Entonces el desarrollo del conocimiento era gobernado por preceptos fuertemente arraigados en sus mentes y eso no les permitía a los grandes genios ver más allá. Pero todo lo imaginable fue sobrepasado con respecto a lo que se conocía del cosmos. Los preceptos tuvieron que ser modificados y la concepción determinista del universo sufrió su primer gran terremoto. Einstein creo la teoría de la relatividad restringida y posteriormente la de la relatividad general, basándose en la búsqueda de leyes invariantes para cualquier observador. De ello dedujo de forma lógica la existencia de la fuerza gravitacional y explicó coherentemente las interacciones macroscópicas sobre la electrodinámica de los cuerpos en movimiento.
Las implicancias de la nueva teoría einsteiniana fueron espectaculares: todo el universo macroscópico perecía estar regido por ella: se dedujo la expansión del universo, la precesión de mercurio, el comportamiento galáctico, y, lo más importante, se unificaron el espacio y el tiempo, además de la masa y la energía. Una de las consecuencias mas asombrosas (y devastadoras) de la teoría de la relatividad, fue la predicción de la existencia de los agujeros negros, regiones espacio-temporales cerradas contra si mismas producto de la enorme fuerza gravitacional generada por una determinada masa encerrada en una región suficientemente pequeña como para ceder a esta y aislarse del universo cognoscible. Al profundizar en el estudio de las características físicas de estos cuerpos, la nueva teoría de Einstein llevó a contradicciones inconcebibles: debían “devorarse” porciones enteras de espacio-tiempo, reduciéndose estas a una longitud nula, con una densidad de materia infinita. Esto, por supuesto, se considera como una deficiencia en la teoría.

Tu signo zodiacal, no es tu signo zodiacal

¿Cuántas veces ha revisado su horóscopo para saber si la disposición de las estrellas o los planetas le auguran un buen o mal día? Si usted es un ferviente lector de las columnas de horóscopos de los diarios o de internet, me veo en la fatídica tarea de informarle que usted viene siendo engañado, aunque muy probablemente no a sabiendas del que escribe esas columnas.
Si no están preparados para renunciar a su signo zodiacal, les recomiendo pasar al siguiente post inmediatamente; caso contrario, vamos a explicar porque se le asigna un signo zodiacal determinado a la persona nacida en una fecha específica, como preparación para entender el por qué del fraude.

Estrellas en movimiento
Es sabido por todos (¿?) que por el movimiento de rotación de la tierra en torno a un eje que pasa por los polos norte y sur se produce el efecto de que todo el cielo se mueve uniformemente alrededor de un punto en la esfera celeste (así llaman los astrónomos al “cielo”), los llamados polos celestes, uno en el hemisferio norte y otro en el sur. En el hemisferio norte, este punto coincide con la llamada estrella polar, siendo el único punto que permanece fijo en el cielo. Los que habitamos en el hemisferio sur no tenemos la suerte de ubicar a simple vista una estrella en la posición exacta del polo sur celeste. Este movimiento aparente de la esfera celeste se llama “movimiento diurno” y es el que causa que, a lo largo de la noche, las estrellas salgan por el este y se oculten por el oeste. Si aún no está muy claro, este mismo movimiento es responsable de la aparente salida del sol por el este y su puesta por el oeste.
En la antigua región de Mesopotamia (actual Irak) la observación del cielo era patrimonio de los sacerdotes babilonios, quienes para su mejor reconocimiento, agruparon las estrellas en constelaciones, dándoles formas imaginarias de personas y animales. Estas constelaciones agruparon estrellas en función de la aparentemente cercana posición de los astros mas brillantes que se podían ver a simple vista. Debido a que desde la tierra no es posible ver al sol y las demás estrellas al mismo tiempo, ya que la potente luz de solar las enmascara, no podían saber en que constelación estaba el sol, pero idearon un método efectivo para saberlo. Anotando cuidadosamente la constelación que aparecía por el este justo antes de la salida del sol, vieron que dicha constelación cambiaba de una época a otra, reconstruyendo así todas las zonas por las que este estaba moviéndose. Este camino en el cielo, por el que se movía el sol delante del bloque de estrellas fijas, es lo que hoy conocemos por zodiaco. La primera lista de estrellas que usa los doce signos del zodiaco data del siglo XII antes de nuestra era y en ella, los babilonios usaron, en su mayoría, los nombres que aún usamos.
La identificación de las estrellas era importantísima para las sociedades antiguas, pues les permitía hacer mediciones de tiempo, identificar las estaciones, identificar direcciones, etc. Por ejemplo, los sacerdotes egipcios se dieron cuenta de que los desbordes del río Nilo coincidían en el tiempo con los días en los que la estrella más brillante del firmamento, la estrella Sirius (conocida por ellos como Sothis), efectuaba su primera aparición por el horizonte este, justo antes de la salida del sol. Este fenómeno se repetía periódicamente cada 365 días con 6 horas, como comprobaron ellos mismos. En las desérticas tierras de Egipto donde casi no llueve, resulta evidente la importancia de este fenómeno de inundación para la agricultura.
De esta forma, la observación de los fenómenos cíclicos del cielo llevó a las civilizaciones primitivas a especular sobre si existía cierta influencia de estos sobre lo mundano. Empiezan de esta forma una proliferación de mitos y cultos estelares.

Tu signo del zodiaco
Luego de identificar las fechas exactas en las que el sol se encontraba en las distintas constelaciones zodiacales a través de todo el año, los astrólogos instauraron el mito de que si una persona nacía entre los mismos días en los que el sol estaba en tal o cual constelación, eso determinaría una serie de características de su personalidad, además de que ello regiría o determinaría el desarrollo de sus actividades. Estas fechas, determinadas ya por los babilonios hace mas de 2900 años, son aquellas con las que estamos familiarizados. Por ejemplo, Aries si naces entre el 21 de marzo y el 20 de abril.
Se empezaba a contra desde Aries, debido a que, por aquellos tiempos, se encontraba en esta constelación la intersección de la Eclíptica(línea imaginaria que describe el sol en su trayectoria a través del cielo) y Ecuador celeste, punto conocido como el Punto Vernal o Punto Aries.

Se olvidaron de actualizar
Lamentablemente, a diferencia de nuestros amigos los sacerdotes babilonios o egipcios, quienes eran verdaderos estudiosos de los movimientos celestiales, los astrólogos actuales parecen haber olvidado los cimientos de su pseudociencia.
Además de los vastamente conocidos por todos, movimientos de rotación y traslación de la tierra alrededor del sol, existen varios tipos mas de movimiento que realiza nuestro planeta, como el movimiento de precesión, nutación o el bamboleo de Chandler. El movimiento de precesión, por ejemplo, fue ya medido por Hiparco de Nicea, hacia el siglo II antes de nuestra era, y es el responsable de que el punto vernal retroceda sobre la eclíptica, es decir, cambie periódicamente su ubicación en la esfera celeste. A principios de la era cristiana, el punto vernal se proyectaba sobre la constelación de Aries (de ahí que se le conociera como punto Aries), pero actualmente, el movimiento de precesión produjo que retroceda hasta la constelación de Piscis. Este movimiento se conoce como la precesión de los equinoccios.
He ahí la clave de este artículo: además, el movimiento de precesión cambia la posición aparente de cualquier estrella (en términos mas sofisticados, cambia la declinación y la ascensión recta de cualquier estrella). Para periodos de tiempo cortos, esto es casi imperceptible, pues la tierra completa su movimiento de precesión cada 25 780 años, pero desde la elaboración de las tablas zodiacales babilónicas hasta nuestros días el cambio se hizo ya significativo. Este cambio en el posicionamiento del bloque de estrellas fijas en la esfera celeste, ha producido que el sol se retrase aproximadamente un signo zodiacal, con ligeras variaciones en las fechas en las que este permanece en cada constelación. Pero eso no es todo, además de ello, ahora hay una constelación más, en la que el sol permanece entre el 30 de noviembre y el 17 de diciembre, la constelación de Ophiuchus (el portador de la serpiente), sumándose así un nuevo signo zodiacal a los ya conocidos, para dar un total de 13 constelaciones zodiacales.

El posicionamiento actual del sol en las distintas constelaciones a lo largo de las distintas fechas del año son las siguientes (verifique su "nuevo" signo):
I. Piscis - del 12 de marzo al 18 de abril.
II. Aries - del 19 de abril al 13 de mayo.
III. Tauro - del 14 de mayo al 19 de junio.
IV. Geminis - del 20 de junio al 20 de julio.
V. Cancer - del 21 de julio al 9 de agosto.
VI. Leo - del 10 de agosto al 15 de septiembre.
VII. Virgo - del 16 de septiembre al 30 de octubre.
VIII. Libra - del 31 de Octubre al 22 de noviembre.
IX. Escorpio - del 23 al 29 de noviembre.
X. Ophiuchus - del 30 de noviembre al 17 de diciembre.
XI. Sagitario - del 18 de diciembre al 18 de enero.
XII. Capricornio - del 19 enero al 23 de febrero.
XIII. Acuario - del 24 de febrero al 11 de marzo.

Claro, esto no durará mucho tiempo mas, ya que en algunos siglos mas, los astrólogos se enfrentarán a un nuevo retraso en la posición del sol en el cielo, que hará que nuestros actuales amigos de Aries se conviertan en Acuario.

miércoles, 4 de noviembre de 2009

Hoy inicia Nabopedia.

Este día, 4 de noviembre del 2009, iniciamos este nuevo blog sobre Ciencias Físicas y Matemáticas, alentados por la idea de compartir algo del material que tenemos a nuestro alcance como estudiantes universitarios. Por supuesto que no rehuimos a tratar algunos mas diversos temas sobre otras ciencias, pero nuestra finalidad principal es tratar temas de Física y Matemática.

Dejo abierta la posibilidad de recibir colaboraciones para la publicación de artículos o de bibliografía, que ayude a todos los interesados en esta maravillosa ciencia a ahondar en sus cimientos y, ¿por qué no?, ampliar las fronteras de la Física misma.

Buscar