VÍDEO

Mostrando las entradas con la etiqueta Ciencia espacial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Ciencia espacial. Mostrar todas las entradas

26 de noviembre de 2009

LAS REVOLUCIONES CIENTÍFICAS A FINALES DEL SIGLO XX


Época: Mundo fin XX
Inicio: Año 1973
Fin: Año 2000
Antecedentes
El mundo de finales del siglo XX


Siguientes:


Del átomo a la estructura de la vida


Genética y teoría de la evolución


De la energía atómica al microchip


Del microcosmos al macrocosmos


El mundo interrelacionado: Internet


Producir sin trabajo: la robótica


Si bien la Teoría de la Relatividad de Einstein eliminó algunos de los presupuestos epistemológicos básicos de la física clásica, como el espacio y el tiempo absolutos, sobre los que se asentaba la representación moderna del Universo, no puso en cuestión la representación determinista de la Naturaleza, característica de la época Moderna. Dicha representación se asentaba en la validez universal del principio de causalidad clásico, cuyas premisas no quedaban afectadas por la revolución relativista. Lo que salvaguardaba la vigencia del criterio de realidad dominante en la física moderna, mediante el cual era posible aprehender la naturaleza de los procesos físicos sin interferencias del observador, postulado básico de la teoría del conocimiento desarrollada en la época Moderna.Sin embargo, este pilar fundamental del Saber moderno pronto se vería afectado por una profunda crisis, como consecuencia del desarrollo de la Mecánica Cuántica. El inicio de esta fractura epistemológica se sitúa en la introducción del "cuanto de acción" por Max Planck en 1900, resultado de su investigación sobre el problema de la radiación del "cuerpo negro". Con ello introdujo el "cuanto de energía" como una realidad física, al subdividir el continuo de energía en elementos de tamaño finito, asignándoles un valor constante y proporcional a su frecuencia. Un paso que rompía radicalmente con la física del siglo XIX, al introducir la discontinuidad en la emisión y absorción de energía, hecho del que no se percató el propio Planck cuando estableció su teoría de la radiación del cuerpo negro, y que tardaría en reconocer cerca de diez años por la repugnancia epistemológica que ello le producía.La fórmula de Planck por la que se establecía una igualdad entre la energía concebida como discontinua y la energía considerada continua, en función del carácter ondulatorio de la frecuencia, resultaba completamente extraña para los físicos de la época. Sólo Einstein comprendería el problema en toda su magnitud, al postular en 1905 la existencia de partículas de luz -fotones-, y con ello establecer el carácter corpuscular y ondulatorio de la luz. Una posición que gozó de la animadversión del resto de los físicos, entre ellos el propio Planck, que atrapados por la teoría ondulatoria de la luz, dominante desde la segunda mitad del siglo XIX, no podían concebir un comportamiento a primera vista tan contrario a los postulados de la física. Tan sólo en 1922, con la introducción del efecto Compton y el desarrollo de la Mecánica Cuántica a partir de 1926-1927, la solución propuesta por Einstein se abrió camino.Fue Ehrenfest el primero en señalar que la teoría de Planck constituía una ruptura con la teoría clásica, al limitar la energía de cada modo de vibración a múltiplos enteros del elemento de energía establecido por la realidad física del cuanto de acción, señalando que la cuestión fundamental de la teoría de Planck radicaba en el tratamiento probabilístico del campo. A conclusiones similares, pero por caminos distintos, llegó Einstein en las mismas fechas, al defender que durante la absorción y la emisión la energía de un resonador cambia discontinuamente en un múltiplo entero.La teoría de Einstein sobre los calores específicos planteaba la imposibilidad de reducir la discontinuidad a la interacción entre materia y radiación, ni siquiera era posible reducirla a una teoría de los electrones mejorada. La teoría de Einstein era una teoría mecánico-estadística, independiente de consideraciones electromagnéticas, que exigía cuantizar la energía no sólo de los iones sino también de los átomos neutros. La aplicación de la mecánica clásica a cualquier proceso atómico era puesta en cuestión y con ella la totalidad de la teoría cinética. La discontinuidad aparecía así como un fenómeno de una gran generalidad y de profundas consecuencias físicas, que planteaba la reformulación sobre bases nuevas de la teoría cinética de la materia.El siguiente gran paso no se produjo hasta 1913, cuando Niels Bohr aplicó la distribución cuántica de la energía para explicar el comportamiento de los electrones en el seno de la estructura atómica. Bohr resolvió así las dificultades del modelo atómico de Rutherford, al explicar por qué el átomo no emite radiación de forma continua y los electrones no se precipitan sobre el núcleo permaneciendo en órbitas estacionarias. Sin embargo, el modelo atómico de Bohr no estaba exento de dificultades teóricas, debidas a la introducción del cuanto de acción para explicar las transiciones energéticas del electrón. Ello implicaba que las transiciones entre los diferentes estados energéticos del átomo se producían mediante saltos cuánticos, algo que resultaba absolutamente incompatible con la teoría clásica que postulaba transiciones continuas de un estado de energía a otro. La dificultad se veía agravada por el recurso en la misma teoría a los principios de la mecánica y el electromagnetismo clásicos, para definir la carga y la masa del electrón y del núcleo. La utilización dentro del mismo modelo atómico de dos teorías, la clásica y la cuántica, incompatibles entre sí, generaba enormes problemas teóricos, que no fueron resueltos hasta la aparición de la Mecánica Cuántica en 1926-1927.Los experimentos de Frank y Hertz de 1914 demostraron que la cuantización de los niveles de energía de los átomos constituía una propiedad de la materia muy general, incompatible con la teoría corpuscular clásica de la materia, pues para esta última la energía en un sistema de corpúsculos clásicos es una magnitud continua.La publicación de un artículo de Heisenberg en 1925 representó un salto cualitativo en la resolución de los problemas que aquejaban a la teoría cuántica del átomo de Bohr, al proponer la necesidad de abandonar el concepto clásico de órbita electrónica e introducir un nuevo formalismo matemático, que sería desarrollado inmediatamente por Max Born y Pascual Jordan, consistente en la aplicación de la matemática de matrices. Nacía así la mecánica matricial, sobre la que se fundaría la Mecánica Cuántica. Paralelamente, Dirac llegó a resultados similares en Cambridge.Por las mismas fechas, 1924-1926, se desarrolló la Mecánica Ondulatoria por De Broglie y Schrödinger. De Broglie generalizó la dualidad onda-corpúsculo de la luz, establecida por Einstein en 1905 para el caso del electrón, señalando que esta dualidad se encontraba íntimamente asociada a la existencia misma del cuanto de acción. Se trataba, en definitiva, de asociar al movimiento de todo corpúsculo la propagación de una onda, ligando las magnitudes características de la onda a las magnitudes dinámicas del corpúsculo, mediante relaciones en las que intervenía la constante de Planck.Esta nueva mecánica ondulatoria fue desarrollada por Schrödinger en los primeros meses de 1926. En ella señaló que los estados estacionarios de los sistemas atómicos podían representarse por las soluciones propias de una ecuación de ondas, cuyo formalismo matemático encontraba fundamento en la solución de Hamilton respecto de la analogía formal existente entre los sistemas mecánicos y ópticos.La situación no podía dejar de ser más confusa. Por una parte, el desarrollo de la nueva mecánica matricial ofrecía una teoría que resolvía matemáticamente los problemas que habían aquejado a la primera teoría cuántica, sobre la base de la consideración corpuscular del electrón, obviando su posible comportamiento ondulatorio. Por otra parte, la mecánica ondulatoria de Schrödinger se basaba en el comportamiento ondulatorio del electrón y obviaba el posible carácter corpuscular del electrón. Dos teorías que en principio parecían radicalmente contradictorias, sin embargo, alcanzaban resultados similares.La situación se complicó aún más por la interpretación clásica que Schrödinger hizo de la ecuación de ondas, que perseguía eliminar los saltos cuánticos y la discontinuidad de los procesos atómicos, sobre la base de interpretar la función de ondas de su ecuación desde la perspectiva de la teoría clásica de la radiación electromagnética. En otras palabras, interpretó la teoría cuántica como una simple teoría clásica de ondas, en la que era negada categóricamente la existencia de niveles discretos de energía. La interpretación clásica de Schrödinger encontró una gran audiencia entre los físicos, pues eliminaba el contrasentido de los saltos cuánticos que amenazaba a todo el edificio de la física clásica. Dicha interpretación fue contestada por Niels Bohr, Werner Heisenberg y Max Born.Fue Max Born quien resolvió la polémica y clarificó la situación, mediante su interpretación estadística de la ecuación de ondas de Schrödinger, al poner de manifiesto el carácter equivalente de la mecánica matricial y la mecánica ondulatoria; debido a que la ecuación de ondas, por su carácter complejo, exigía una interpretación probabilística de la localización en el espacio de la partícula asociada. Born sostenía que en los procesos individuales no es posible determinar con exactitud el estado de la partícula, sino que sólo puede establecerse la probabilidad del estado de la partícula, como consecuencia de la existencia del cuanto de acción. De esta manera, la función de la ecuación de ondas debía ser interpretada como la probabilidad de encontrar al electrón en el espacio de configuración determinado por el cuadrado de la función de ondas, no siendo posible una determinación exacta de la posición del electrón. En otras palabras, Born demostró que la ecuación de ondas de Schrödinger sólo podía ser interpretada de una forma probabilística.La interpretación probabilista de la mecánica cuántica realizada por Max Born, completada por la teoría de la transformación de Dirac y Jordan, constituyó un avance sustancial en la comprensión del significado de la nueva mecánica cuántica, al establecer el carácter físico de la probabilidad cuántica, hecho que constituía una profunda fractura con los fundamentos epistemológicos de la física clásica, por cuanto establece que tanto la localización espacial del electrón como los estados estacionarios del átomo sólo pueden ser determinados probabilísticamente.La aparición en 1927 del artículo de Heisenberg en el que introducía las "relaciones de incertidumbre" como un principio físico fundamental, al postular que no es posible conocer simultáneamente la posición y el impulso de una partícula, no hizo sino profundizar dicha fractura epistemológica, al romper radicalmente con la antigua pretensión de la Física Moderna de alcanzar, mediante el conocimiento completo de todos los fenómenos físicos del Universo en un instante dado, la determinación absoluta hacia el pasado y hacia el futuro del Universo, en función de la validez universal del principio de causalidad estricto, origen y fundamento de la representación determinista de la Modernidad. El artículo de Heisenberg apuntaba directamente al corazón de la vieja gran aspiración de la Física Moderna, al sostener la imposibilidad física del conocer simultáneamente con exactitud determinista la posición y el impulso de cualquier clase de partícula elemental. Según las relaciones de incertidumbre, el producto de las incertidumbres de la localización y de la cantidad de movimiento no puede ser más pequeño que el cuanto de acción de Planck, constituyendo éste un límite físico infranqueable.Para poder apreciar el papel que desempeñó el principio de incertidumbre en la renuncia del principio de causalidad estricto, conviene recordar que en la mecánica clásica son justamente los valores iniciales y los ritmos iniciales de cambio de todas las variables mecánicas -que definen el estado de un sistema dado- los que determinan los movimientos futuros del sistema en cuestión. Sin embargo, de acuerdo con el principio de incertidumbre, existe una limitación fundamental, derivada de las mismas leyes de la naturaleza en el nivel cuántico, consecuencia de la existencia del cuanto de acción, que hace imposible la predicción determinista del comportamiento de los procesos físicos cuánticos, debido a su naturaleza esencialmente probabilística.La ruptura epistemológica con la física clásica se torna evidente si consideramos que ésta asocia a los sistemas físicos, cuya evolución desea describir, un cierto número de magnitudes o de variables dinámicas. Estas variables dinámicas poseen todas ellas, en cada instante, un valor determinado, a través de los cuales queda definido el estado dinámico del sistema en ese instante. Por otra parte, se admite, en la física clásica, que la evolución del sistema físico a lo largo del tiempo está totalmente determinada cuando se conoce su estado en un momento inicial dado.El "principio de incertidumbre" se constituye en un principio físico fundamental que rige para el conjunto de los fenómenos, y que no es posible soslayar en los niveles de magnitudes en los que el cuanto de acción no es despreciable. El principio de incertidumbre se extiende, como principio físico fundamental, al conjunto de las relaciones físicas de las magnitudes cuánticas, y no sólo a las relaciones de incertidumbre de posición e impulso. Las consecuencias epistemológicas de las relaciones de incertidumbre alcanzaban de lleno al centro mismo de lo que había sido la Física desde los tiempos de Newton; es decir, cuestionan la capacidad de la Física para establecer leyes de la Naturaleza que determinen con absoluta precisión su funcionamiento como si de un mecanismo de relojería se tratara.Ello provocó una fuerte polémica entre los defensores y detractores de la mecánica cuántica, centrada en el alcance de las consecuencias epistemológicas y la interpretación que debía realizarse de la nueva teoría cuántica. Polémica cuyos rescoldos todavía no se han apagado en la actualidad, si consideramos las posturas mantenidas por el neodeterminista Bunge o el realista clásico Popper, por citar sólo dos casos. La fractura era tan radical que tanto Planck como Einstein se negaron hasta su muerte a aceptar los resultados de la mecánica cuántica, al considerar que significaba el fin de la física como teoría comprensiva de la Naturaleza. En el caso de Einstein, éste mantuvo una prolongada y famosa polémica con Niels Bohr iniciada en la V Conferencia Solvay, celebrada en Bruselas en octubre de 1927, y continuada hasta su fallecimiento en 1955. De dicha polémica Einstein salió derrotado pero no vencido, y aunque terminó aceptando a su pesar la validez del formalismo de la mecánica cuántica, no cejó en su intento de demostrar que la interpretación de dicho formalismo no era correcta.Einstein, en una carta dirigida a Max Born en 1926, explicitaba su repugnancia a las consecuencias de la mecánica cuántica: "la mecánica cuántica es algo muy serio. Pero una voz interior me dice que de todos modos no es ese el camino. La teoría dice mucho, pero en realidad no nos acerca gran cosa al secreto del Viejo. En todo caso estoy convencido de que El no juega a los dados". En 1957 De Broglie expresaba con claridad la validez de las consecuencias que Einstein rechazaba: "Mientras que en la física clásica era posible describir el curso de los sucesos naturales como una evolución conforme a la causalidad, dentro del marco del espacio y del tiempo (o espacio-tiempo relativista), presentando así modelos claros y precisos a la imaginación del físico, en cambio, en la actualidad la física cuántica impide cualquier representación de este tipo y, en rigor, la hace completamente imposible. Sólo permite teorías basadas en fórmulas puramente abstractas, desvirtuando la idea de una evolución causal de los fenómenos atómicos y corpusculares; únicamente suministra leyes de probabilidad considerando que estas leyes de probabilidad son de carácter primario y constituyen la esencia de la realidad cognoscible; y no permiten que sean explicadas como consecuencia de una evolución causal que se produjera a un nivel aún más profundo del mundo físico".La relatividad general y la mecánica cuántica son las dos grandes teorías sobre las que se basa la actual representación del Universo. Un universo dinámico y en expansión, que encuentra sus orígenes en el big-bang. Las observaciones astronómicas realizadas hasta la fecha han confirmado las previsiones teóricas de la cosmología contemporánea. Pero, además, la relatividad general y la mecánica cuántica no sólo han destruido los fundamentos sobre los cuales descansaban los pilares básicos de la racionalidad occidental en la época moderna y nos permiten explicar la estructura del Universo, sino que también se han constituido en el núcleo central de los desarrollos de la ciencia del siglo XX. La formulación de la ecuación de Einstein por la que la energía y la materia están directamente ligadas (E = mc2) fue el fundamento teórico para el desarrollo de la física nuclear, que ha dado lugar a las bombas atómicas, pero también a las centrales nucleares o la medicina nuclear.


Referencia:
Tomado de Arte Historia. En http://www.artehistoria.jcyl.es/historia/contextos/3641.htm
http://jonkepa.files.wordpress.com/2009/04/profesor_hawking_despacho_centro_matematica_aplicada_cambridge.jpg

1 de noviembre de 2008

HORMIGAS ROBÓTICAS PODRÍAN HACER EDIFICACIONES EN MARTE



El novedoso proyecto europeo I-SWARM está desarrollando un enjambre de diminutos robots autónomos preparados para comunicarse entre sí mediante infrarrojos y trabajar en equipo. Se trataría de un frente que podría encargarse de construir en Marte las primeras edificaciones para el ser humano (1).


Más aún, estas pequeñas hormigas robóticas no sólo construirían los edificios, sino que después desempeñarían funciones diversas como reparar maquinarias, administrar medicamentos en el cuerpo humano o eliminar la polución.

“Estos pequeños robots trabajarían juntos y explorarían el planeta. Sabemos que hay agua y polvo; lo suficiente para empezar a construir estructuras, como casas para científicos”, comenta Marc Szymanski, de la Universidad de Karlsruhe, en Alemania.

De momento, se han creado 100 robots a escala de un centímetro y se han hecho importantes avances para construir enjambres de robots del tamaño de una hormiga, y que a su vez, sean capaces de reconfigurarse solos y ensamblarse autónomamente formando un robot más grande.

Las pruebas hechas hasta el momento han demostrado que los robots son capaces de interactuar, aunque el gran reto ahora es conseguir producirlos en masa. En cualquier caso, los investigadores confían lograrlo pronto, ya que construir robots tan pequeños es casi como fabricar chips de ordenador, cuya fabricación es relativamente barata

----
(1) Novedades científicas (Octubre 31, 2008) http://www.novaciencia.com/

11 de octubre de 2008

EL 2008 ES EL AÑO MÁS BLANCO DE LA ERA ESPACIAL

Los astrónomos que llevan el conteo de las manchas solares han dicho que el año 2008 es el "año más blanco" de la Era Espacial. La cuenta de las manchas solares han alcanzado su punto más bajo en los últimos 50 años, lo cual significa el nivel mínimo en el ciclo de actividad solar de 11 años, según informa Ciencia@NASA (1)

Las estadísticas de la NASA que se presentan en el gráfico, indican que, además de éste año, 1996 y 2007 fueron los otros años blancos. Sin embargo, históricamente, el año 1954 es el que tiene el record mínimo, desde entonces (2).

----------------

(1) http://ciencia.nasa.gov/

(2) http://science.nasa.gov/headlines/y2008/30sep_blankyear.htm

10 de agosto de 2008

NUESTRO PLANETA VISTO DESDE LA LUNA

La imagen de nuestro planeta tomada desde la luna, revolucionó la conciencia humana. Este descubrimiento echó por tierra la teoría física aristotélica que consideraba a los astros como esferas celestes, puras, perfectas e inmutables.

El 17 de febrero de 1600, en Roma, los servidores del Santo Oficio, luego de ser juzgado por la Inquisición y no retractarse, quemaron al filósofo Giordano Bruno, condenado por blasfemia, herejía e inmoralidad por haber dicho en su cátedra que "la Tierra ya estaba en el Cielo", puesto que navegaba por el espacio. Lo que no sabía Giordano Bruno es que la tierra navega por el espacio a treinta kilómetros por segundo(1).
Cuando las cenizas de Bruno fueron lanzadas al viento, Galileo tomó su relevo en el estudio de los astros. Uno de sus primeros trabajos fue perfeccionar el telescopio holandés y cuando consiguió una lente de veinte aumentos convocó al Consejo de Venecia en la cima del campanile de San Marcos y la enfocó hacia la luna para mostrar a los clérigos y prebostes civiles los accidentes geológicos que había en su superficie.
Precisamente, éste fue el descubrimiento que trajo por los suelos la teoría física aristotélica que consideraba los astros como esferas celestes, puras, perfectas e inmutables. Galileo también fue condenado a morir en la hoguera y sólo un falso arrepentimiento de última hora le salvó de esa condena.
Ahora, nada que no sea global, planetario y universal tiene ya sentido. Todos los sueños de la humanidad se dirigen hacia las galaxias y, a la par, se ha instalado en el centro de nuestro cerebro un principio insoslayable: en esta nave que es la Tierra, o nos salvamos todos o perecemos todos.
--------------

3 de agosto de 2008

PHOENIX CONFIRMA EXISTENCIA DE AGUA EN MARTE


La NASA acaba de informar(1) que las pruebas de laboratorio realizadas a bordo de la nave espacial Phoenix, en la Misión Marte, han verificado la existencia de agua en las muestras recogidas del suelo de ese planeta por la nave.

El brazo robot de la nave entregó las muestras el miércoles pasado a un instrumento que identifica vapores producidos por el calentamiento de las muestras. Así lo afrmó el director científico del instrumento William Boynton de la Universidad de Arizona que analiza dichas partículas llamado TEGA. "Habíamos visto evidencias de este agua helada en observaciones anteriores realizadas por la sonda espacial Mars Odyssey y en otros sitios que ya se diluyeron observados por Phoenix el mes pasado, pero esta es la primera vez que el agua de marte es tocada y probada", aseveró.

Por esa razón, la NASA ha decidido extender esta misión hasta el 30 de Septiembre próximo.

---------

(1) http://www.lanasa.net/Nasa/Nasa/Nav_BrevesNEWS.asp

VÍDEO: LA INVASIÓN DEL PERÚ, CAUSAS Y CONSECUENCIAS