viernes, 28 de septiembre de 2007

Materia Oscura

El telescopio espacial Hubble ha enviado la primera imagen de un anillo fantasmal en torno a un grumo de galaxias a 5.000 millones de años luz de la Tierra, que los astrónomos describieron hoy como la primera prueba de la existencia de la materia oscura.

"Aunque se ha encontrado la materia invisible antes en otros conjuntos de galaxias, jamás se la había detectado tan separada del gas caliente y las galaxias que forman el conjunto", dijo en una teleconferencia Myungkook James Jee, de la Universidad Johns Hopkins en Baltimore (Maryland).

La materia oscura, según creen los científicos, compone la mayor parte de la masa que ejerce gravedad en el Universo, en tanto sólo el diez por ciento es materia que detectan los sentidos humanos.

Los científicos sostienen que si no existiese la materia oscura las galaxias como la Vía Láctea, en la cual se encuentra la Tierra, se habrían dispersado por falta de un "pegamento" gravitacional.

"Ésta es la primera vez que hemos detectado la materia oscura como una estructura única diferente del gas y las galaxias en el conjunto" identificado como ZwCi0024+1652, señaló Jee.

Por su parte, en la misma teleconferencia, Richard Massey, del Instituto de Tecnología de California, en Pasadena, expresó cierto escepticismo acerca del descubrimiento y recordó que "ese mismo grupo de galaxias se ha mencionado en otros anuncios muy publicitados".

"Necesitamos una confirmación, más observaciones", añadió Massey. "Y, lamentablemente, estas imágenes se tomaron justo poco antes de que se dañara la cámara del Hubble que las tomó".

La agencia espacial estadounidense NASA ha puesto en Internet algunas imágenes compuestas que muestran un racimo de galaxias envuelto en una nube de gases, en torno al cual se extiende un anillo oscuro de unos 2,6 millones de años luz de diámetro.

Más allá de este anillo, de supuesta materia oscura, continúa la luminosidad de esa región del espacio.

"La observación de una estructura de materia oscura que no está marcada por galaxias y gas caliente nos permite el estudio de cómo su comportamiento es diferente del de la materia normal", dijo Jee.

Durante el análisis de materia oscura de las imágenes enviadas por el Hubble, los astrónomos notaron una onda parecida a las olas que causa en un estanque la caída de una piedra en el agua.

La observación de la materia oscura es tarea difícil porque esa materia no emite ni refleja luz, y los astrónomos sólo pueden detectar su influencia por la manera en que su fuerza de gravedad afecta la luz.

Para hallarla, los astrónomos estudian la forma en que la luz de las galaxias muy distantes es distorsionada y difuminada en arcos y bandas por la gravedad de la materia oscura de una galaxia más próxima.

Esta materia está compuesta por átomos muy diferentes de los que componen la materia normal de las estrellas y galaxias. Los científicos creen que el cruce a través de la materia oscura pasaría inadvertido para los humanos, pero que no ocurre lo mismo en la colisión de dos áreas de masa oscura.

El anillo del cual los astrónomos dieron cuenta hoy, se formó cuando dos gigantescos grupos de galaxias chocaron hace unos mil a dos mil millones de años -y para fortuna de los científicos- la colisión ocurrió de frente desde el punto de vista del Hubble.

"La colisión de los dos grumos galácticos creó una onda de materia oscura que dejó huellas muy claras en las formas de las galaxias más distantes", dijo Jee.

"Es como mirar a los cantos rodados en el fondo de un estanque cuando hay olitas en la superficie", explicó.

"Las formas de las piedras parecen cambiar a medida que las ondas se mueven encima. De la misma manera las galaxias más distantes, detrás el anillo, muestran cambios de sus formas que corresponden a la presencia del denso anillo de materia oscura".

jueves, 27 de septiembre de 2007

¿Qué es la nanotecnología?

La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas. Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nanómetros tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot).

Nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.

Definición

Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad.

Un nanómetro es la mil millonésima parte de un metro. Para comprender el potencial de esta tecnología es clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comportan de manera diferente que en los mismos elementos a mayor escala.

Aunque en las investigaciones actuales con frecuencia se hace referencia a la nanotecnología (en forma de motores moleculares, computación cuántica, etcétera), es discutible que la nanotecnología sea una realidad hoy en día. Los progresos actuales pueden calificarse más bien de nanociencia, cuerpo de conocimiento que sienta las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares.

Historia

El premio Nobel de Física Richard Feynman fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959 titulado Al fondo hay espacio de sobra (There's Plenty Room at the Bottom).

Otro visionario de esta área fue Eric Drexler quien predijo que la nanotecnologia podría usarse para solucionar muchos de los problemas de la humanidad, pero también podría generar armas poderosisimas. Creador del Foresight Institute y autor de libros como Máquinas de la Creación Engines of Creation muchas de sus predicciones iniciales no se cumplieron, y sus ideas parecen exageradas en la opinion de otros expertos, como Richard Smalley.

Inversión

Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos.

Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado.

Algunos gigantes del mundo informático como IBM, Hewlett-Packard (HP), NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative.

En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido un par de congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid.

Ensamblaje interdisciplinar

La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.

Una posible lista de ciencias involucradas sería la siguiente:













* Química (Moleculares y computacional)
* Bioquímica
* Biología molecular
* Física
* Electrónica
* Informática

Nanotecnología avanzada


La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.

A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica.

Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006.

Futuras aplicaciones

Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las diez aplicaciones más prometedoras de la nanotecnología son:

* Almacenamiento, producción y conversión de energía
* Producción agrícola
* Tratamiento y remediación de aguas
* Diagnóstico y cribaje de enfermedades
* Sistemas de administración de fármacos
* Procesamiento de alimentos
* Remediación de la contaminación atmosférica
* Construcción
* Monitorización de la salud
* Detección y control de plagas
* Informática

Riesgos potenciales

Sustancias viscosas

Recientemente, un nuevo estudio ha mostrado como este peligro de la “sustancia viscosa gris” es menos probable que ocurra de como originalmente se pensaba. K. Eric Drexler considera un escenario accidental con “sustancia viscosa gris” improbable y así lo declara en las últimas ediciones de Engines of Creation. El escenario “sustancia viscosa gris” clamaba la Tree Sap Answer: ¿Qué oportunidades existen que un coche pudiera ser mutado a un coche salvaje, salir fuera de la carretera y vivir en el bosque solo de savia de árbol?. Sin embargo, se han identificado otros riesgos mayores a largo plazo para la sociedad y el entorno.

Una variante de esto es la “Sustancia viscosa verde”, un escenario en que la nanobiotecnología crea una máquina nanométrica que se autoreplica que consume todas las partículas orgánicas, vivas o muertas, creando un cieno -como una masa orgánica muerta. En ambos casos, sin embargo, serían limitado por el mismo mecanismo que limita todas las formas vivas (que generalmente ya actúan de esta manera): energía disponible.

Veneno y Toxicidad

A corto plazo, los críticos de la nanotecnología puntualizan que hay una toxicidad potencial en las nuevas clases de nanosustancias que podrían afectar de forma adversa a la estabilidad de las membranas celulares o distorsionar el sistema inmunológico cuando son inhaladas o digeridas. Una valoración objetiva de riesgos puede sacar beneficio de la cantidad de experiencia acumulada con los materiales microscópicos bien conocidos como el hollín o las fibras de asbestos.

Hay una posibilidad que las nanopartículas en agua de boca pudieran ser dañinas para los humanos y otros animales. Las células de colon expuestas a partículas de dióxido de titanio se ha encontrado que se descomponen a mayor velocidad de la normal. Las nanopartículas de dióxido de titanio se usan normalmente en pantallas de sol, como las hacen transparentes, comparadas con las grandes partículas de dióxido de titanio, que hacen a las pantallas de sol parecer blancas.

Armas

La militarización de la nanotecnología es una aplicación potencial. Mientras los nanomateriales avanzados obviamente tienen aplicaciones para la mejora de armas existentes y el hardware militar a través de nuevas propiedades (tales como la relación fuerza-peso o modificar la reflexión de la radiación EM para aplicaciones sigilosas), y la electrónica molecular podría ser usada para construir sistemas informáticas muy útiles para misiles, no hay ninguna manera obvia de que alguna de las formas que se tienen en la actualidad o en un futuro próximo puedan ser militarizadas más allá de lo que lo hacen otras tecnologías como la ingeniería genética. Mientras conceptualmente podríamos diseñar que atacasen sistemas biológicos o los componentes de un vehículo (es decir, un nanomáquina que consumiera la goma de los neumáticos para dejar incapaz a un vehículo rápidamente), tales diseños están un poco lejos del concepto. En términos de eficacia, podrían ser comparados con conceptos de arma tales como los pertenecientes a la ingeniería genética, como virus o bacterias, que son similares en concepto y función práctica y generalmente armas tácticamente poco atractivas, aunque las aplicaciones para el terrorismo son claras.

La nanotecnología puede ser usada para crear dispositivos no detectables – micrófonos de tamaño de una molécula o cámaras son posibilidades que entran en el terreno de lo factible. El impacto social de tales dispositivos dependería de muchos factores, incluyendo quién ha tenido acceso a él, como de bien funcionan y como son usados.

miércoles, 26 de septiembre de 2007

De la energía atómica al microchip

La "física de las partículas elementales" comenzaba su andadura de la mano de la mecánica cuántica, teoría fundamental de la estructura de la materia. Para ello fue preciso el desarrollo de la "física de altas energías", debido a la necesidad de romper las fuerzas de ligadura del núcleo atómico. En su primera etapa, el análisis de la estructura atómica se había realizado sobre la base de la radiación alfa (a). Para avanzar en el conocimiento de la estructura del núcleo atómico era necesario conseguir partículas a más energéticas; en 1932, John Cockcroft y Ernest Walton lograron, mediante un multiplicador voltaico, la desintegración artificial de átomos de litio en dos partículas a. Dando un paso más en esta dirección, Van de Graff diseñó un generador electrostático para acelerar partículas que alcanzaba los 80 kV, y ya en 1935 llegaba a los cinco millones de voltios (5 MV).El salto más significativo se produjo de la mano de Ernest Orlando Lawrence que, sobre la base de los trabajos de Rolf Wideröe, desarrolló el ciclotrón. Se fundamentaba en una estructura circular en la que las partículas cargadas entraban en un campo eléctrico alterno, logrando su aceleración por la diferencia de potencial. Lawrence aplicó al modelo de Wideröe la acción de campos magnéticos, que lograban un incremento sustancial de la aceleración de las partículas. En 1932, Lawrence lograba poner en funcionamiento el primer ciclotrón con la colaboración de M. Stanley Livingston en Berkeley. Paralelamente, en la Universidad de Columbia (Nueva York), Harold Urey y su equipo descubrían un isótopo del hidrógeno: el deuterio, cuyo poder desintegrador era diez veces más potente que los protones. En 1936, con un ciclotrón más potente, se logró medir el momento magnético del neutrón, produciéndose además el primer elemento artificial: el tecnecio. El ciclotrón posibilitó la creación de isótopos radiactivos que pronto revelaron importantes aplicaciones, entre otras, en el campo de la medicina para el diagnóstico y tratamiento del cáncer.En 1938, Otto Hahn junto con su colaborador Fritz Strassmann observó con sorpresa la producción de bario como consecuencia del bombardeo del uranio con neutrones. Se encontraban frente a la primera reacción de fisión nuclear conocida. El 6 de enero de 1939 publicaban sorprendidos estos resultados. Lisa Meitner, antigua colaboradora de Hahn y exiliada en Estocolmo por su origen judío, fue la primera en interpretar correctamente el alcance del descubrimiento de Hahn junto con su sobrino Otto R. Frisch. La aplicación de la fórmula einsteiniana E = mc2 a la fisión del uranio revelaba dicho proceso como una fuente inagotable de energía. Las bases de la bomba atómica estaban puestas. La proximidad de la Segunda Guerra Mundial aceleró el proceso.Frisch comunicó los cálculos a Niels Bohr en Copenhague antes de que partiera a Estados Unidos. El 16 de enero de 1939, Bohr y su colaborador Leon Rosenfeld se encontraron en Nueva York con John Wheeler y Enrico Fermi, a los que comunicaron el hallazgo de Hahn y los resultados de Meitner y Frisch. Inmediatamente los físicos en Norteamérica comenzaron a explorar el nuevo horizonte de la posibilidad de provocar reacciones en cadena. Para ello era necesario que, en la fisión del uranio, se produjera más de un neutrón. Joliot en París calculó un valor medio de 3,5 neutrones, mientras en Columbia Fermi contabilizaba dos neutrones. La reacción en cadena era, pues, una realidad. Algo que había predicho en 1934 Leo Szilard a raíz del descubrimiento de la radiactividad artificial por Irène Curie y Frédéric Joliot.Szilard, consciente del peligro que entrañaba la bomba atómica en manos de la Alemania nazi, se dirigió a Albert Einstein para que alertara al presidente de los Estados Unidos, Franklin Delano Roosevelt. Es la famosa carta de Einstein del 2 de agosto de 1939: "Trabajos recientes de E. Fermi y L. Szilard..., me hacen esperar que el elemento uranio pueda convertirse en una nueva e importante fuente de energía en el futuro inmediato... En el curso de los cuatro últimos meses se ha hecho probable -...- que pueda ser posible establecer una reacción nuclear en cadena en una gran masa de uranio... Este nuevo fenómeno conduciría también a la construcción de bombas y es concebible (...) que de esta manera se puedan construir bombas de un nuevo tipo extremadamente poderosas... En vista de esta situación, acaso pueda usted considerar aconsejable que exista algún contacto permanente entre la administración y el grupo de físicos que trabajan en reacciones en cadena en Estados Unidos".En octubre de 1939 se creaba un comité presidencial encabezado por Lyman J. Briggs, era el primer paso del llamado "proyecto Manhattan" que desembocaría en la fabricación de las primeras bombas atómicas. A principios de 1941, en plena guerra mundial, Ernest Lawrence se involucraba directamente en el proyecto. Desde que tuvo conocimiento de los trabajos de Hahn, Meitner y Frisch había embarcado a su equipo de Berkeley a investigar el proceso de fisión del uranio en los ciclotrones. En la primavera de 1940, Edwin McMillan y Phillip Abelson descubrieron un nuevo elemento producido por la fisión del uranio en el ciclotrón: el neptunio. En febrero de 1941, Glenn T. Seaborg identificaba un nuevo elemento de la desintegración del neptunio: el plutonio; Halban y Kowarski en Cambridge postularon que este nuevo elemento podía ser fisionable con neutrones lentos. De esta forma, se optimizaba la utilización del uranio, puesto que sólo el escasísimo isótopo del uranio U-235 era capaz de generar reacciones en cadena, mientras que el más frecuente U-238 no lo era, a cambio éste podría producir plutonio. Nacía así la posibilidad de la bomba de plutonio, que fue la utilizada en Nagasaki.El siguiente paso lo dieron Otto Frisch y Rudolf Peierls en Gran Bretaña, al calcular aproximadamente la masa crítica de uranio necesaria para desencadenar una reacción en cadena autosostenida. Los cálculos les llevaron a considerar esa masa crítica en torno al medio kilo, cuya reacción en cadena liberaría una energía equivalente a miles de toneladas de TNT. La bomba atómica era ya una posibilidad real. En noviembre de 1942 se inauguraba en Nuevo México el laboratorio de Los Alamos, bajo la dirección de Robert Oppenheimer, donde se realizaron las pruebas de la primera bomba atómica. Al amanecer del 16 de julio de 1945 estallaba en el desierto de Nuevo México la primera bomba atómica. El 6 de agosto una bomba atómica de uranio, con una potencia de 20.000 toneladas de TNT y unos 4.500 kilos de peso, arrasaba Hiroshima. El 9 de agosto de 1945 una bomba de plutonio arrasaba Nagasaki. Nacía así la "era nuclear".Una de las derivaciones del "proyecto Manhattan" fue el impulso que recibió la electrónica, sentando las bases prácticas para el desarrollo de los computadores. La participación de John von Neumann en el "proyecto Manhattan" fue, a este respecto, decisiva. Las necesidades de cálculo requeridas para el desarrollo del programa nuclear exigían nuevas innovaciones. Von Neumann conoció por Hermann Goldstine el proyecto de la Morre School of Electronics Engineering de la Universidad de Pennsylvania, embarcada en la construcción del computador electrónico ENIAC (Electronic Numerical Integrator And Computer) para los Ballistic Research Laboratories, que contaba con 18.000 válvulas. Von Neumann se incorporó al proyecto en el ámbito de la organización lógica. Al finalizar la guerra, Von Neumann se dedicó al desarrollo de máquinas más potentes, que culminaron con la construcción, en Princeton, de la JOHNNIAC, que entró en funcionamiento en 1952. Era el comienzo de la "era de los computadores". El desarrollo de la "física del estado sólido" en el campo de los semiconductores contribuyó decisivamente a ello. En 1947, el descubrimiento del transistor en los Laboratorios Bell, por Brattain, Bardeen y Shckey, permitió sustituir las viejas y aparatosas válvulas de vacío por los transistores, que redujeron las dimensiones e incrementaron las velocidades de cálculo de los computadores electrónicos.Sin embargo, los antecedentes de los computadores se remontan más atrás en el tiempo. En 1930, Vannevar Bush desarrolló el analizador diferencial, base sobre la que se fundamentaron los "computadores analógicos". El siguiente paso se debe a Howard Aiken, creador del Automatic Sequence Controlled Calculator, más conocido como Harvard Mark I, iniciado en 1939 y que entró en funcionamiento en 1944, que podía controlar toda la secuencia de cálculos, lectura de datos e instrucciones en un punto a impresionar sus resultados. Von Neumann y Goldstine avanzaron en el diseño lógico de los computadores, resolviendo los problemas asociados al almacenamiento de datos y programas en una memoria en común, proponiendo el sistema numérico binario, que se aplicó por primera vez en 1949 en el EDSAC de la Universidad de Cambridge y es de la base sobre la que se asientan los computadores desde entonces. Las ideas de von Neumann encontraron su plasmación más acabada en Princeton, el primer prototipo fue el IAS, o máquinas de Von Neumann, a partir de la que se construyeron la AVIDAC, la ORDVAC, la ORACLE, la SILLIAC, la ILLIAC, la MANIAC o la JOHNNIAC antes mencionada.Sobre el modelo estándar de las IAS, la IBM introdujo el sistema de tarjetas perforadas que permitió desarrollar la IBM-701 en 1953. Un año más tarde aparecía la IBM-650 y en 1959 la IBM-1401. En esta época, Jack Kilby de TI y Robert Noyce de Fairchild Semiconductor crearon el primer circuito integrado, conjunto de transistores y resistencias interconectados, nacía así el chip, que permitiría dar un salto de gigante en la construcción de computadoras y, en general, en la microelectrónica. Si a principios de los años sesenta un chip incorporaba unos cuantos transistores microminiaturizados, a finales del decenio de los ochenta un microchip incorpora millones de transistores. En abril de 1964 IBM desarrollaba el System/360, primera familia de computadores compatibles y, en 1981, creaba la primera computadora personal. En abril de 1976 Steve Wozniak y Steve Jobs fundaban la Apple Computer, que fabricaría la gama de computadores personales competidora con el sistema IBM, los Macintosh. En 1987, IBM lanzó al mercado el IBM PS/2, que ha reemplazado su anterior línea de computadoras personales.El avance en el campo de los ordenadores ha exigido combinar diferentes disciplinas desde la lógica formal a la física cuántica, pasando por la física del estado sólido, la cibernética, la teoría de la información, la ciencia de sistemas y la teoría de sistemas. Dos ramas han sido precisas para ello: el "hardware", o soporte material de los computadores, esto es la estructura de las máquinas, donde la física del estado sólido ha sido trascendental, al permitir desarrollar los transistores y, posteriormente, los microchips, mediante los avances registrados en el campo de la semiconductividad y más recientemente de la superconductividad, en los que la física cuántica es fundamental, logrando máquinas infinitamente más potentes y reducidas; y el "software", o lenguajes de programación, donde las matemáticas, la lógica formal, la teoría de la información y la teoría de sistemas han desempeñado un papel esencial, dando lugar a nuevas aplicaciones fruto del avance de la programación computacional, un campo donde el concepto de algoritmo es imprescindible.Los trabajos del británico Alan M. Turing en 1936, Emil Post en 1943 y Markov en 1947 han sido básicos en el desarrollo de la teoría algorítmica, cuyos antecedentes inmediatos se sitúan en el cálculo lambda de Alonzo Church y las funciones recursivas generales de Gödel. La máquina universal de Turing es un sistema matemático diseñado para manejar el problema general del cálculo no un objeto, de manera que para un argumento dado el valor de la función puede encontrarse utilizando sólo reglas preasignadas, aplicadas por la computadora y construidas previamente en su estructura. Su importancia reside en el hecho de que una máquina universal de Turing puede en principio ejecutar todo tipo de cálculo que sea realizable, Church señaló en 1936 que es el mecanismo más general posible para la solución de un problema resoluble. Shannon ha reducido el número de estados internos de la máquina de Turing a sólo dos, simplificando considerablemente el diseño de una máquina de Turing.Von Neumann ha extendido el principio de la máquina universal de Turing a los procesos biológicos regidos por los mecanismos de replicación del DNA. Lo que ha llevado a los defensores de la "Inteligencia artificial fuerte" a pensar en la posibilidad de construir máquinas inteligentes, abriendo un nuevo campo en el que se entrelazan la física y química cuánticas con la bioquímica del cerebro y la cibernética. En la actualidad los computadores, tanto en serie como en paralelo, se basan en los principios de la máquina universal de Turing. Sin embargo, el propio Turing ha reconocido posteriormente que no puede existir un algoritmo general capaz de decidir sobre todas las cuestiones matemáticas. A ello ha contribuido decisivamente el teorema de incompletud de Gödel, al demostrar que el programa de David Hilbert era irrealizable, en tanto en cuanto cualquiera de los sistemas de matemáticas formales de axiomas y reglas de inferencia debe contener algunos enunciados que no son demostrables ni indemostrables con los medios permitidos dentro del sistema.

Del microcosmos al macrocosmos

Para avanzar en el complejo mundo cuántico se hacían necesarios aceleradores más potentes que los ciclotrones de Lawrence. En 1945, MacMillan en Estados Unidos y Veksler en la Unión Soviética propusieron el principio de estabilidad de fase para construir aceleradores más potentes, surgieron así el sincrociclotón y el sincrotón; además, merced a los trabajos de Alvarez, Hansen y Panfosky, se construyeron aceleradores lineales capaces de alcanzar los 900 MeV, como el de Stanford. En 1943 Oliphant proponía un nuevo tipo de acelerador en forma de anillo, en el que la aceleración se lograría por la variación simultánea del campo magnético y la frecuencia de la tensión aplicada, principio que fue desarrollado en 1952 por Courant, Livingston, Snyder y Cristofilos, que desembocó en la construcción en Ginebra del sincrotón del CERN en 1959, que alcanzaba los 28,5 GeV. Entre tanto, la radiación cósmica vino en ayuda de los físicos. De esta forma, fueron identificados los piones y los muones mediante la interpretación de las trazas dejadas en placas fotográficas por los rayos cósmicos.Microcosmos y macrocosmos aparecían ligados entre sí. La estructura de la materia y del Universo debían de mantener una fuerte interrelación. De alguna manera la relatividad y la mecánica cuántica deberían estar relacionadas. De hecho, esa ligadura ya se había puesto de manifiesto con el "principio de exclusión de Pauli" y la ecuación de Dirac, desarrollada en 1928, que le llevó a postular la existencia del positrón, dando entrada al concepto de antimateria, esto es, la existencia de pares de partículas iguales con carga distinta. En 1950 en Berkeley se identificaba un nuevo pión, el pión neutro. A partir de entonces han ido apareciendo nuevas partículas, como los mesones K y los hyperiones. El modelo propuesto por Yukawa para explicar el comportamiento de la interacción fuerte, responsable de la estabilidad del núcleo atómico, fue sustituida en los años setenta por la cromodinámica cuántica (QDC) debido a la creciente complejidad del mundo atómico con la aparición de los quarks. Las partículas que interaccionan fuertemente se denominan hadrones, que a su vez están integrados por dos familias de partículas los mesones y los bariones.Las características y propiedades de los bariones ha dado lugar al establecimiento de la ley de conservación del número bariónico, por la que el número de bariones y antibariones se conserva y explica la estabilidad del protón, que es un miembro de la familia de los bariones, y con ella de la estabilidad de la materia. Además de los hadrones, existen los leptones, constituidos por el electrón, el neutrino y los muones. A su vez los hadrones están formados por quarks; éstos fueron propuestos en 1964 por Murray Gell-Mann y George Zweig. Los mesones están constituidos por un par quark-antiquark, mientras los bariones tienen tres quarks. Según la cromodinámica cuántica, los quarks nunca pueden aparecer bajo la forma de partículas libres. En los años setenta ha sido posible determinar las cargas de los quarks en el interior del protón, gracias al SLAC (Stanford Linear Accelerator Center). Junto con los quarks, en el interior de los hadrones se encuentran los gluones, responsables de la unión de los nucleones, observados en 1979 por el acelerador PETRA de Hamburgo. Como consecuencia del descubrimiento en la radiación cósmica de una nueva partícula neutra, llamada hyperión lambda, y del mesón K a ella asociado, se descubrió un nuevo número cuántico, al que se denominó extrañeza, que aparece asociado a un nuevo quark, el quark "s". La desintegración de las partículas con extrañeza responden, como la desintegración, a la interacción débil. La combinación de los quarks "d", "u" y "s" explican la existencia de los hyperiones epsilon, descubiertos a principios de los años cincuenta, los hyperiones forman la familia de las partículas delta.En 1964 se descubrió una nueva partícula con extrañeza, la omega (?) predicha con anterioridad por la teoría de Gell-Mann y Ne'eman, con ella podían interpretarse satisfactoriamente los sistemas de hadrones constituidos por los quarks "d", "u" y "s". Sin embargo, en la segunda mitad de los años sesenta los físicos predijeron una nueva interacción, la interacción de la corriente neutra que fue observada en el CERN en 1973, asociada a un nuevo quark: el quark "c", predicho en 1970 por Sheldon Glashow. En 1974 se descubrió en el laboratorio Brookhaven, por Sam Ting, y en el SLAC, por Burton Richter, una nueva partícula, la "psi", que Richard Feynman y Harald Fritzsch atribuyeron a un nuevo número cuántico al que denominaron "encanto". En 1979 se encontraron evidencias de la existencia del número cuántico "encanto" en los bariones, que se añadían así a los "mesones encantados". En 1970 Gell-Mann y Fritzsch postularon la existencia de un nuevo número cuántico al que llamaron "color", para explicar por qué el estado de la partícula delta es antisimétrico como exige el principio de exclusión de Pauli. De esta forma, los quarks podían ser rojos, verdes y azules -los colores son exclusivamente denominaciones-, con el número cuántico "color" se desarrolló la cromodinámica cuántica (CDQ), que ha venido ha completar a la electrodinámica cuántica (QED) que se ocupa de la interacción electromagnética a escala cuántica, para explicar la estructura y comportamiento de la materia.La física de las partículas elementales ha permitido avanzar en el conocimiento de la estructura del Universo. De esta forma, relatividad general y física cuántica se revelan como dos teorías fundamentales para comprender el macrocosmos. La razón de ello estriba en el hecho de que las partículas elementales requieren altísimas energías para su producción, capaces de romper las fuerzas de ligadura del núcleo atómico. Estos procesos sólo se producen en el interior de las estrellas o en la explosión de las mismas en sus variadas formas, en función de su masa: supernovas y gigantes rojas, que dan lugar a estrellas de neutrones, agujeros negros, enanas blancas y enanas negras; o en las primeras etapas del "big bang". El "big bang" se considera la singularidad inicial de la que parte nuestro actual Universo. La teoría del "big bang"forma parte del modelo estándar surgido de la relatividad general, que además se ajusta con bastante precisión a los resultados de la física cuántica en el mundo de las partículas elementales. En 1948, George Gamow predijo que debería existir un rastro en el Universo de la explosión inicial o "big bang", dicho rastro fue observado en 1965 por Penzias y Wilson, era la "radiación de fondo de cuerpo negro", radiación térmica de 2,7 grados Kelvin residuo del "big bang".En los instantes posteriores al "big bang" el Universo estaba extremadamente caliente y condensado, en aquellos momentos las leyes de la física no operaban y las partículas elementales de la materia no eran viables. Steven Weinberg ha descrito lo que sucedió en el lapso de tiempo comprendido entre una diezmilésima de segundo después del "big bang" y los tres primeros minutos del Universo actual, lapso en el que el Universo inició su expansión y enfriamiento, haciendo posible las fuerzas de ligadura que regulan las leyes de la física. Una hora y cuarto después del "big bang" la temperatura ha descendido a algo menos de una décima parte, unos 300 millones de grados Kelvin; en ese momento las partículas elementales se encuentran ligadas en núcleos de helio o en protones libres, además de la existencia de electrones. Alrededor de 700.000 años después del "big bang" la expansión y el enfriamiento del Universo permitió la formación de núcleos y átomos estables, el desacoplamiento de la materia y la radiación posibilitaría el inicio del proceso de formación de galaxias y estrellas.El modelo actual del Universo incluye la "flecha del tiempo", que en el ámbito de la física había sido introducida por Ludwig Boltzmann con la segunda ley de la termodinámica en el último tercio del siglo XIX. La segunda ley de la termodinámica afirma que la entropía de un sistema aislado aumenta con el tiempo. En términos generales, la entropía de un sistema es una medida de su desorden manifiesto. La segunda ley de la termodinámica introduce la asimetría temporal, o "flecha del tiempo". El Universo es por definición un sistema aislado, además el modelo actual del Universo dinámico y en expansión se ajusta a la existencia de una "flecha del tiempo", cuya dirección discurriría desde el "big bang" hacia el futuro. El problema se plantea a la hora de hacer compatible la entropía del Universo, regida por la segunda ley de la termodinámica, y las ecuaciones de la relatividad general y de la mecánica cuántica que son simétricas en el tiempo, especialmente las primeras, en tanto en cuanto la reducción del paquete de ondas dentro del formalismo mecanocuántico es asimétrica temporalmente. En la actualidad se piensa que la solución a este problema vendrá de la mano de la construcción de una "teoría de la gravitación cuántica", una teoría cuántica de la estructura del espacio-tiempo, para lo que el estudio de los "agujeros negros" se revela como el camino más factible. Los trabajos, de Roger Penrose y Stephen Hawking van en esta dirección. La revolución científica del siglo XX ha dado lugar a una nueva representación del Universo y de la Naturaleza. Del Universo infinito y estático característico de la época moderna, surgido de la revolución newtoniana, se ha pasado al universo dinámico y en expansión de las revoluciones relativista y cuántica. De la Naturaleza regida por leyes deterministas, derivadas del carácter universal de la Ley natural de la causalidad, se ha pasado a una concepción de la Naturaleza articulada sobre la base de los procesos complejos, en los que el carácter probabilístico de los fenómenos cuánticos afecta no sólo al ámbito de la física del microcosmos y del macrocosmos sino también a los propios procesos biológicos, como consecuencia de la trascendencia de los procesos bioquímicos en los organismos vivos.La representación determinista característica de la racionalidad de la civilización occidental en la época moderna, que se articulaba en tres grandes postulados, espacio y tiempo absolutos y principio de causalidad estricto, tiene que ser reemplazada por una nueva racionalidad. Una nueva racionalidad que, desde el paradigma de la complejidad, sea capaz de integrar de forma coherente y consistente "azar y necesidad".

Las revoluciones científicas

Si bien la Teoría de la Relatividad de Einstein eliminó algunos de los presupuestos epistemológicos básicos de la física clásica, como el espacio y el tiempo absolutos, sobre los que se asentaba la representación moderna del Universo, no puso en cuestión la representación determinista de la Naturaleza, característica de la época Moderna. Dicha representación se asentaba en la validez universal del principio de causalidad clásico, cuyas premisas no quedaban afectadas por la revolución relativista. Lo que salvaguardaba la vigencia del criterio de realidad dominante en la física moderna, mediante el cual era posible aprehender la naturaleza de los procesos físicos sin interferencias del observador, postulado básico de la teoría del conocimiento desarrollada en la época Moderna.Sin embargo, este pilar fundamental del Saber moderno pronto se vería afectado por una profunda crisis, como consecuencia del desarrollo de la Mecánica Cuántica. El inicio de esta fractura epistemológica se sitúa en la introducción del "cuanto de acción" por Max Planck en 1900, resultado de su investigación sobre el problema de la radiación del "cuerpo negro". Con ello introdujo el "cuanto de energía" como una realidad física, al subdividir el continuo de energía en elementos de tamaño finito, asignándoles un valor constante y proporcional a su frecuencia. Un paso que rompía radicalmente con la física del siglo XIX, al introducir la discontinuidad en la emisión y absorción de energía, hecho del que no se percató el propio Planck cuando estableció su teoría de la radiación del cuerpo negro, y que tardaría en reconocer cerca de diez años por la repugnancia epistemológica que ello le producía.La fórmula de Planck por la que se establecía una igualdad entre la energía concebida como discontinua y la energía considerada continua, en función del carácter ondulatorio de la frecuencia, resultaba completamente extraña para los físicos de la época. Sólo Einstein comprendería el problema en toda su magnitud, al postular en 1905 la existencia de partículas de luz -fotones-, y con ello establecer el carácter corpuscular y ondulatorio de la luz. Una posición que gozó de la animadversión del resto de los físicos, entre ellos el propio Planck, que atrapados por la teoría ondulatoria de la luz, dominante desde la segunda mitad del siglo XIX, no podían concebir un comportamiento a primera vista tan contrario a los postulados de la física. Tan sólo en 1922, con la introducción del efecto Compton y el desarrollo de la Mecánica Cuántica a partir de 1926-1927, la solución propuesta por Einstein se abrió camino.Fue Ehrenfest el primero en señalar que la teoría de Planck constituía una ruptura con la teoría clásica, al limitar la energía de cada modo de vibración a múltiplos enteros del elemento de energía establecido por la realidad física del cuanto de acción, señalando que la cuestión fundamental de la teoría de Planck radicaba en el tratamiento probabilístico del campo. A conclusiones similares, pero por caminos distintos, llegó Einstein en las mismas fechas, al defender que durante la absorción y la emisión la energía de un resonador cambia discontinuamente en un múltiplo entero.La teoría de Einstein sobre los calores específicos planteaba la imposibilidad de reducir la discontinuidad a la interacción entre materia y radiación, ni siquiera era posible reducirla a una teoría de los electrones mejorada. La teoría de Einstein era una teoría mecánico-estadística, independiente de consideraciones electromagnéticas, que exigía cuantizar la energía no sólo de los iones sino también de los átomos neutros. La aplicación de la mecánica clásica a cualquier proceso atómico era puesta en cuestión y con ella la totalidad de la teoría cinética. La discontinuidad aparecía así como un fenómeno de una gran generalidad y de profundas consecuencias físicas, que planteaba la reformulación sobre bases nuevas de la teoría cinética de la materia.El siguiente gran paso no se produjo hasta 1913, cuando Niels Bohr aplicó la distribución cuántica de la energía para explicar el comportamiento de los electrones en el seno de la estructura atómica. Bohr resolvió así las dificultades del modelo atómico de Rutherford, al explicar por qué el átomo no emite radiación de forma continua y los electrones no se precipitan sobre el núcleo permaneciendo en órbitas estacionarias. Sin embargo, el modelo atómico de Bohr no estaba exento de dificultades teóricas, debidas a la introducción del cuanto de acción para explicar las transiciones energéticas del electrón. Ello implicaba que las transiciones entre los diferentes estados energéticos del átomo se producían mediante saltos cuánticos, algo que resultaba absolutamente incompatible con la teoría clásica que postulaba transiciones continuas de un estado de energía a otro. La dificultad se veía agravada por el recurso en la misma teoría a los principios de la mecánica y el electromagnetismo clásicos, para definir la carga y la masa del electrón y del núcleo. La utilización dentro del mismo modelo atómico de dos teorías, la clásica y la cuántica, incompatibles entre sí, generaba enormes problemas teóricos, que no fueron resueltos hasta la aparición de la Mecánica Cuántica en 1926-1927.Los experimentos de Frank y Hertz de 1914 demostraron que la cuantización de los niveles de energía de los átomos constituía una propiedad de la materia muy general, incompatible con la teoría corpuscular clásica de la materia, pues para esta última la energía en un sistema de corpúsculos clásicos es una magnitud continua.La publicación de un artículo de Heisenberg en 1925 representó un salto cualitativo en la resolución de los problemas que aquejaban a la teoría cuántica del átomo de Bohr, al proponer la necesidad de abandonar el concepto clásico de órbita electrónica e introducir un nuevo formalismo matemático, que sería desarrollado inmediatamente por Max Born y Pascual Jordan, consistente en la aplicación de la matemática de matrices. Nacía así la mecánica matricial, sobre la que se fundaría la Mecánica Cuántica. Paralelamente, Dirac llegó a resultados similares en Cambridge.Por las mismas fechas, 1924-1926, se desarrolló la Mecánica Ondulatoria por De Broglie y Schrödinger. De Broglie generalizó la dualidad onda-corpúsculo de la luz, establecida por Einstein en 1905 para el caso del electrón, señalando que esta dualidad se encontraba íntimamente asociada a la existencia misma del cuanto de acción. Se trataba, en definitiva, de asociar al movimiento de todo corpúsculo la propagación de una onda, ligando las magnitudes características de la onda a las magnitudes dinámicas del corpúsculo, mediante relaciones en las que intervenía la constante de Planck.Esta nueva mecánica ondulatoria fue desarrollada por Schrödinger en los primeros meses de 1926. En ella señaló que los estados estacionarios de los sistemas atómicos podían representarse por las soluciones propias de una ecuación de ondas, cuyo formalismo matemático encontraba fundamento en la solución de Hamilton respecto de la analogía formal existente entre los sistemas mecánicos y ópticos.La situación no podía dejar de ser más confusa. Por una parte, el desarrollo de la nueva mecánica matricial ofrecía una teoría que resolvía matemáticamente los problemas que habían aquejado a la primera teoría cuántica, sobre la base de la consideración corpuscular del electrón, obviando su posible comportamiento ondulatorio. Por otra parte, la mecánica ondulatoria de Schrödinger se basaba en el comportamiento ondulatorio del electrón y obviaba el posible carácter corpuscular del electrón. Dos teorías que en principio parecían radicalmente contradictorias, sin embargo, alcanzaban resultados similares.La situación se complicó aún más por la interpretación clásica que Schrödinger hizo de la ecuación de ondas, que perseguía eliminar los saltos cuánticos y la discontinuidad de los procesos atómicos, sobre la base de interpretar la función de ondas de su ecuación desde la perspectiva de la teoría clásica de la radiación electromagnética. En otras palabras, interpretó la teoría cuántica como una simple teoría clásica de ondas, en la que era negada categóricamente la existencia de niveles discretos de energía. La interpretación clásica de Schrödinger encontró una gran audiencia entre los físicos, pues eliminaba el contrasentido de los saltos cuánticos que amenazaba a todo el edificio de la física clásica. Dicha interpretación fue contestada por Niels Bohr, Werner Heisenberg y Max Born.Fue Max Born quien resolvió la polémica y clarificó la situación, mediante su interpretación estadística de la ecuación de ondas de Schrödinger, al poner de manifiesto el carácter equivalente de la mecánica matricial y la mecánica ondulatoria; debido a que la ecuación de ondas, por su carácter complejo, exigía una interpretación probabilística de la localización en el espacio de la partícula asociada. Born sostenía que en los procesos individuales no es posible determinar con exactitud el estado de la partícula, sino que sólo puede establecerse la probabilidad del estado de la partícula, como consecuencia de la existencia del cuanto de acción. De esta manera, la función de la ecuación de ondas debía ser interpretada como la probabilidad de encontrar al electrón en el espacio de configuración determinado por el cuadrado de la función de ondas, no siendo posible una determinación exacta de la posición del electrón. En otras palabras, Born demostró que la ecuación de ondas de Schrödinger sólo podía ser interpretada de una forma probabilística.La interpretación probabilista de la mecánica cuántica realizada por Max Born, completada por la teoría de la transformación de Dirac y Jordan, constituyó un avance sustancial en la comprensión del significado de la nueva mecánica cuántica, al establecer el carácter físico de la probabilidad cuántica, hecho que constituía una profunda fractura con los fundamentos epistemológicos de la física clásica, por cuanto establece que tanto la localización espacial del electrón como los estados estacionarios del átomo sólo pueden ser determinados probabilísticamente.La aparición en 1927 del artículo de Heisenberg en el que introducía las "relaciones de incertidumbre" como un principio físico fundamental, al postular que no es posible conocer simultáneamente la posición y el impulso de una partícula, no hizo sino profundizar dicha fractura epistemológica, al romper radicalmente con la antigua pretensión de la Física Moderna de alcanzar, mediante el conocimiento completo de todos los fenómenos físicos del Universo en un instante dado, la determinación absoluta hacia el pasado y hacia el futuro del Universo, en función de la validez universal del principio de causalidad estricto, origen y fundamento de la representación determinista de la Modernidad. El artículo de Heisenberg apuntaba directamente al corazón de la vieja gran aspiración de la Física Moderna, al sostener la imposibilidad física del conocer simultáneamente con exactitud determinista la posición y el impulso de cualquier clase de partícula elemental. Según las relaciones de incertidumbre, el producto de las incertidumbres de la localización y de la cantidad de movimiento no puede ser más pequeño que el cuanto de acción de Planck, constituyendo éste un límite físico infranqueable.Para poder apreciar el papel que desempeñó el principio de incertidumbre en la renuncia del principio de causalidad estricto, conviene recordar que en la mecánica clásica son justamente los valores iniciales y los ritmos iniciales de cambio de todas las variables mecánicas -que definen el estado de un sistema dado- los que determinan los movimientos futuros del sistema en cuestión. Sin embargo, de acuerdo con el principio de incertidumbre, existe una limitación fundamental, derivada de las mismas leyes de la naturaleza en el nivel cuántico, consecuencia de la existencia del cuanto de acción, que hace imposible la predicción determinista del comportamiento de los procesos físicos cuánticos, debido a su naturaleza esencialmente probabilística.La ruptura epistemológica con la física clásica se torna evidente si consideramos que ésta asocia a los sistemas físicos, cuya evolución desea describir, un cierto número de magnitudes o de variables dinámicas. Estas variables dinámicas poseen todas ellas, en cada instante, un valor determinado, a través de los cuales queda definido el estado dinámico del sistema en ese instante. Por otra parte, se admite, en la física clásica, que la evolución del sistema físico a lo largo del tiempo está totalmente determinada cuando se conoce su estado en un momento inicial dado.El "principio de incertidumbre" se constituye en un principio físico fundamental que rige para el conjunto de los fenómenos, y que no es posible soslayar en los niveles de magnitudes en los que el cuanto de acción no es despreciable. El principio de incertidumbre se extiende, como principio físico fundamental, al conjunto de las relaciones físicas de las magnitudes cuánticas, y no sólo a las relaciones de incertidumbre de posición e impulso. Las consecuencias epistemológicas de las relaciones de incertidumbre alcanzaban de lleno al centro mismo de lo que había sido la Física desde los tiempos de Newton; es decir, cuestionan la capacidad de la Física para establecer leyes de la Naturaleza que determinen con absoluta precisión su funcionamiento como si de un mecanismo de relojería se tratara.Ello provocó una fuerte polémica entre los defensores y detractores de la mecánica cuántica, centrada en el alcance de las consecuencias epistemológicas y la interpretación que debía realizarse de la nueva teoría cuántica. Polémica cuyos rescoldos todavía no se han apagado en la actualidad, si consideramos las posturas mantenidas por el neodeterminista Bunge o el realista clásico Popper, por citar sólo dos casos. La fractura era tan radical que tanto Planck como Einstein se negaron hasta su muerte a aceptar los resultados de la mecánica cuántica, al considerar que significaba el fin de la física como teoría comprensiva de la Naturaleza. En el caso de Einstein, éste mantuvo una prolongada y famosa polémica con Niels Bohr iniciada en la V Conferencia Solvay, celebrada en Bruselas en octubre de 1927, y continuada hasta su fallecimiento en 1955. De dicha polémica Einstein salió derrotado pero no vencido, y aunque terminó aceptando a su pesar la validez del formalismo de la mecánica cuántica, no cejó en su intento de demostrar que la interpretación de dicho formalismo no era correcta.Einstein, en una carta dirigida a Max Born en 1926, explicitaba su repugnancia a las consecuencias de la mecánica cuántica: "la mecánica cuántica es algo muy serio. Pero una voz interior me dice que de todos modos no es ese el camino. La teoría dice mucho, pero en realidad no nos acerca gran cosa al secreto del Viejo. En todo caso estoy convencido de que El no juega a los dados". En 1957 De Broglie expresaba con claridad la validez de las consecuencias que Einstein rechazaba: "Mientras que en la física clásica era posible describir el curso de los sucesos naturales como una evolución conforme a la causalidad, dentro del marco del espacio y del tiempo (o espacio-tiempo relativista), presentando así modelos claros y precisos a la imaginación del físico, en cambio, en la actualidad la física cuántica impide cualquier representación de este tipo y, en rigor, la hace completamente imposible. Sólo permite teorías basadas en fórmulas puramente abstractas, desvirtuando la idea de una evolución causal de los fenómenos atómicos y corpusculares; únicamente suministra leyes de probabilidad considerando que estas leyes de probabilidad son de carácter primario y constituyen la esencia de la realidad cognoscible; y no permiten que sean explicadas como consecuencia de una evolución causal que se produjera a un nivel aún más profundo del mundo físico".La relatividad general y la mecánica cuántica son las dos grandes teorías sobre las que se basa la actual representación del Universo. Un universo dinámico y en expansión, que encuentra sus orígenes en el big-bang. Las observaciones astronómicas realizadas hasta la fecha han confirmado las previsiones teóricas de la cosmología contemporánea. Pero, además, la relatividad general y la mecánica cuántica no sólo han destruido los fundamentos sobre los cuales descansaban los pilares básicos de la racionalidad occidental en la época moderna y nos permiten explicar la estructura del Universo, sino que también se han constituido en el núcleo central de los desarrollos de la ciencia del siglo XX. La formulación de la ecuación de Einstein por la que la energía y la materia están directamente ligadas (E = mc2) fue el fundamento teórico para el desarrollo de la física nuclear, que ha dado lugar a las bombas atómicas, pero también a las centrales nucleares o la medicina nuclear.

La física cuántica ha encontrado a Dios

La nueva física nos enseña que nuestro mundo en realidad no se compone de materia. Lo que percibimos más o menos como sustancia sólida no es una aglomeración de una infinidad de las más pequeñas partículas fijas, sino una red de intercambio de impulsos y vibraciones de un campo energético invisible.

Einstein dijo: «Los átomos que nos parecen materia son una concentración de energía». Max Planck aclaró: «Toda la materia se forma y se mantiene sólo gracias a una fuerza que mantiene los átomos como al más diminuto sistema solar».

Si el espíritu universal, Dios, actúa en todo, en cada átomo, en cada molécula, en cada planta y en cada animal, y por supuesto, en cada ser humano, se plantea de nuevo la pregunta de si el menosprecio a los animales en la Biblia tradicional puede ser realmente la palabra de Dios. Para aquel que cree en el gran Dios creador, es inimaginable que éste quiera tratar con tal desprecio a sus criaturas como la Iglesia lo ha enseñado durante 2.000 años.

domingo, 23 de septiembre de 2007

Las tres leyes de la robótica














Transcribiré las tres leyes de la robótica, que son un conjunto de normas escritas por Isaac Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son "formulaciones matemáticas impresas en los senderos positrónicos del cerebro" de los robots (lo que hoy llamaríamos programación). Aparecidas por primera vez en el libro "Runaround" (1942), establecen lo siguiente:
  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Posteriormente fue desarrollada la ley cero de la robótica ("Zeroth law", en inglés) como corolario filosófico de la primera:

"Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la humanidad sufra daño."

¿Qué opinan sobre estas normas?

¿Qué es Geometría Fractal?

“Un fractal es, por definición, un conjunto cuya dimensión de Hausdorff-Besicovitch es estrictamente mayor que su dimensión topológica.”

BREVE DEFINICION.


Geometría Fractal es geometría que no distingue entre conjunto matemático y objeto natural. Este nuevo paradigma engulle paradigmas anteriores proyectando un modelo que inaugura una nueva zona o región de lo real.

Tómese un número complejo, multiplíquese por sí mismo y súmese el número inical; tómese el resultado, multiplíquese por sí mismo, súmese el inicial... y así sucesivamente. A esta iteración en principio errática se le asignan puntos sobre un plano. Disponga papel, lápiz y moneda con cara y cruz, fijemos ciertas reglas para cada lanzamiento; por ejemplo desplazar el punto X centímetros al noreste si sale cara y acercarse un 50% al centro inicial si sale cruz. Se perfila, progresiva y sorprendentemente el dibujo de la hoja de helecho (véase la figura de arriba) mientras el ordenador hace esta tarea menos ardua en pantalla y en décimas de segundo.


BREVE HISTORIA DE LA GEOMETRÍA FRACTAL.


Si Mandelbrot representa el enfoque moderno de la matemática y es considerado padre de la geometría fractal debemos remontarnos a 1935 cuando se funda la célebre escuela Bourbaki, organizadora del nuevo pensamiento matemático. Sus miembros fundadores eran: André Weil, Henri Cartan, Claude Chevalley, Jean Coulomb, Jean Delsarte, Jean Dieudonné, Charles Ehresmann, René de Possel y Szolem Mandelbrojt, colaboradores de Nicolas Bourbaki.

Los objetivos fundamentales de Bourbaki eran la reconstrucción del edificio matemático sobre bases axiomáticas. Sus trabajos cristalizaron en la redacción de una enciclopedia, “Éléments de Mathematique”.

En 1945, Szolem recomienda a su sobrino Benoît la lectura de un escrito de 300 páginas de Gaston Julia (1893-1978) titulado “Mémoire sur l’iteration des fonctions rationelles”, precursor de la moderna teoría de sistemas dinámicos. Y, de acuerdo con las ideas de la escuela de la que formaba parte, añadió: “Olvida la geometría”.

El discípulo Mandelbrot no se interesó mucho por la lectura recomendada por su maestro, bien por la clase de problemas planteados por su tío acerca de aquella, o porque Benoît enfocaba las Matemáticas desde un punto de vista muy diferente. Adicionalmente, hizo caso omiso de la recomendación acerca de la geometría. Por otra parte, Benoît recobró interés por la publicación mencionada en 1970. Con ayuda de las facilidades computacionales puestas a su disposición por IBM a partir de 1957 en el centro de investigación Thomas J. Watson, contribuyó a crear las ilustraciones de su ensayo de 1975. Y, curiosamente, en 1980, con ayuda de un ordenador VAX, pantalla Tektronix y hardcopy Versatac, sorprendió a la comunidad científica con el primer dibujo detallado de un gráfico deducido de la evolución del sistema dinámico en el campo complejo. Barnsley descubre esta dinámica en 1985 sin usar números complejos recurriendo a la aleatoriedad del juego del caos.

"Tras milenios de ser usadas para descubrir leyes que gobiernan sobre una naturaleza fundamentalmente pasiva, las matemáticas descubren los atractores o focos activos internos de cada sistema físico. En vez de limitarse a despejar incógnitas en sistemas lineales idealizados, emplean una técnica iterativa donde las funciones se realimentan por el procedimiento de volver sobre ellas mismas."


QUIENES CONTRIBUYERON AL DESARROLLO DE LA GEOMETRIA FRACTAL.

Karl Theodor Wilhelm Weierstrass (1815-1897)
Definió la primera curva continua no diferenciable.






Georg Ferdinand Ludwig Philipp Cantor (1845-1918)
Estableció una sucesión de segmentos conocida como "polvo de Cantor".






Aleksandr Mikhailovich Lyapunov (1857-1918)
Abrió el camino para el estudio de sistemas dinámicos.






Giuseppe Peano (1858-1932)
Diseñó una curva que, al desarrollarse, pasa por todos los puntos del plano.






Waclaw Sierpinski (1882-1969)
Su triángulo es, probablemente, el fractal más conocido.






Niels Fabian Helge von Koch (1815-1897)
Su aportación más famosa se la conoce como "Copo de nieve".






Gaston Maurice Julia (1893-1978)
Estudió por primera vez la iteración de funciones racionales.







Benoit Mandelbrot (1924- )
El gran impulsor de la matemática fractal, ayudado por las computadoras. Acuñó el nombre de fractal y a él se le atribuye también el nombre de geometría fractal.

domingo, 16 de septiembre de 2007

Mahna mahna (canción)




Mahna mahna es una muy conocida canción Pop, escrita por Piero Umiliani, y ha sido un éxito en diversos países de todo el mundo, incluyendo Estados Unidos en 1968-1969.En la fonética española se interpretaría como: Maná, Maná. La letra de la canción carece de significado en sí, solamente esta construida con palabras sin sentido alguno, a la manera de scat. La versión original interpola melodías de la Rapsodia Sueca ("Midsommarvaka" ("Midsummer Vigil")) de Hugo Alfven, "Santa Lucía", "Booguie Wooguie Bugle Boy" el jazz "Lullaby of Birdland" y otras.

Mahna mahna, debutó como parte de un soundtrack de Umiliani para el filme softcore Svezia, Inferno e Paradiso (Suecia, infierno y paraíso)(1968) un pseudo documental acerca de la actividad sexual salvaje y otros comportamientos en Suecia (Mahna mahna acompañó a la escena filmada en el sauna). El disco con el soundtrack de la película fue lanzado en 1968 bajo el mismo nombre.

En 1969 el cantautor Henri Salvador grabo una variación del mismo tema intitulada, "Mais Non, Mais Non" (Pero no,Pero no), con letra en francés a la melodía de Umiliani.

La canción se volvió familiar para muchos a raíz de la interpretación que Los Muppets hicieron en su conocido show transmitido por televisión nacional en el 19 de noviembre de 1969, Mahna mahna, fue interpretado en el Show de Ed Sullivan por un Muppet que solo era conocido como Mahna Mahna y los Snowths. También fue interpretado en 1969 en Plaza Sésamo por un personaje que después seria conocido como Bip Bipadotta junto con dos chicas Muppet sin identidad definida.

Durante la temporada de 1969-70 de "The Red Skelton Show" se usó la música de Umiliani como música de fondo para un sketch o broma recurrente. Por otro lado fragmentos silenciosos lo emplearon de fondo para escenas en donde algunos personajes disfrazados de habitantes de la luna tomaban los equipos dejados en la luna por los astronautas del Proyecto Apolo.

En 1973, se lanzó una versión de Mahna mahna, para sintetizador Moog que fue grabada en el álbum More Hot Butter de la banda Hot Butter, quienes ya eran conocidos por su tema de música electrónica Palomitas de maíz. Dicho álbum fue re-lanzado en el 2000.

En 1976, el primer episodio del Show de los Muppets en ser grabado llevando como primera invitada a Juliet Prowse uso Mahna Mahna como primer sketch usando la versión interpretada por Mahna Mahna y los Snowths. Como resultado, la grabación original de Piero Umiliani se convirtió en éxito en el Reino Unido, en donde también la versión del soundtrack del show de Los Muppets logro el primer lugar.

Versiones de los Muppets

  • Dentro del regreso de los Muppets a través del programa "Muppets Tonight" (1996-1998) se presento una parodia del tema, utilizando la palabra "Phenomenon"(fenómeno), cuya fonética en inglés, se adaptaba al nombre original, en un sketch donde actuaron La Rana René y la actriz Sandra Bullock
  • Los Muppets filmaron una nueva versión de la canción para una organización altruista en Nueva Zelanda llamada CanTeen, al presentar una nueva versión de "mahna mahna", la voz del muñeco fue provista por Bill Barreta y la letra fue cambiada a "Bandanana" convirtiéndose en "La semana Bandanana"


Otras versiones

  • La canción fue interpretada por el comediante egipcio Samir Ghanem al decir "ana ayes anam" (Quiero dormir)(1990)
  • Otra versión del tema fue interpretada por la banda Cake como tema principal del álbum "For The Kids" un CD cuyas ventas sirvieron para la fundación "Save The Music" a traves de VH1 el tema también apareció en el álbum B-Sides and Rarities
  • Jamster re-grabó la canción y la doto de animación con dos monstruos de color naranja y uno púrpura ocultos en botes de basura la intituló Manah Manah o Mah-Na Mah-Na, por los Monstruos o Les gentils Monstres (Los monstruos gentiles).

Otras tomas

  • Formo parte de la base musical del éxito de 1997 "No Way No Way" de la banda Vanilla.
  • Pato Fu un grupo Pop Brasileño usó la melodía de mahna mahna como la base de su canción "Made in Japan"(Hecho en Japón) en lugar de la letra ya conocida.
  • That Handsome Devil, un grupo de música Punk de Boston la usó en su canción "Hey White Boy"

En televisión y radio

  • La canción fue usada en el Show de Benny Hill de manera recurrente. Usualmente formó parte de un potpurrí que contenía los temas Gimme dat Ding un arreglo especial del tema de Beethoven; Fur Elise y el conocido Yakety Sax.
  • En el 2004 un programa de música infantil en la WEFT ubicada en Chicago Illinois llamado mahna mahna la uso como tema.
  • La canción ha sido interpretada por Gareth Keenan (MacKenzie Crook), David Brent (Ricky Gervais) y Ben (Ben Bradshaw) en el primer episodio de la segunda serie del programa de la BBC, The Office.
  • La canción fue usada para presentar una bebida de vainilla de la marca Dr Pepper.
  • A nivel mundial ha sido usada también para la promoción comercial.

Piero Umiliani

Svezia, inferno e paradiso


¡Suecia... donde los hechos de la vida son más extraños que la ficción!

Edmund Purdom narra un pseudo-documental sobre la sexualidad en Suecia. Muestra los anticonceptivos para las muchachas adolescentes, las salas de fiestas lesbianas, el intercambio de parejas, las películas porno, las pandillas de motociclistas, y las celebraciones Walpurgis nocturnas (fiestas paganas). También examina la presencia de la droga en Suecia, el alcohol y los altos índices de suicidio.

Así mismo ofrece la versión original de la canción "
Mah Nà Mah Nà" del autor Piero Umiliani, que después fue popularizada por Plaza Sésamo y Los Muppets.





viernes, 7 de septiembre de 2007

Ekranoplano

Un ekranoplano es un vehículo parecido a un avión, aunque está concebido para no salir jamás del área de influencia del efecto suelo (a pocos metros de altitud), donde vuela sobre un colchón de aire de manera similar a como lo haría un aerodeslizador. Su nombre es una derivación de la denominación que recibe en ruso el efecto suelo: ecranniy effect (экранный эффект).

Este tipo de aeronaves fueron concebidas por la Oficina de Estudios Especiales (OKB)-Alexeiev, situada en Nizhny Nóvgorod.

Una vez en marcha, el ekranoplano no mantiene ningún contacto con el agua, y es capaz de volar sobre el mar, terrenos nevados o helados e incluso sobre llanuras libres de obstáculos.



Para volar, los ekranoplanos utilizan el efecto suelo. A diferencia de los aviones convencionales que se benefician de una aspiración hacia arriba por efecto de la sustentación, los ekranoplanos utilizan para volar la sobrepresión que se produce delante y debajo de sus alas, que forma un colchón de aire que asegura una cierta sustentación del aparato.

Para poder hacer esto, los ekranoplanos tienen unas alas especiales. Mientras que en los aviones convencionales las alas son bastante finas en los extremos para evitar que se formen turbulencias que reducen la sustentación del aparato, los ekranoplanos tienen alas cuadradas para que el colchón de aire que se forma bajo las alas sea lo mayor posible. Además, las alas están "partidas" alrededor de la mitad de su longitud, a fin de dirigir el flujo del aire hacia la parte inferior del aparato. Este diseño tiene el inconveniente de que los extremos de las alas, que son muy largas, aumentan los remolinos de aire que frenan al ekranoplano. Afortunadamente este efecto es compensado de largo por el efecto suelo. De esta manera, el avión consume menos carburante pero a medida que toma altitud, el efecto suelo desaparece, tomando mayor importancia los remolinos que frenan al aparato y que hacen que el consumo de combustible aumente.

Gina DeVettori - Miss Horrorfest 2007

Miss Horrorfest 2007 Competition

La Paradoja de Olbers

La paradoja de Olbers es la contradicción aparente que existe entre que el cielo nocturno sea negro y que el Universo sea infinito. Si lo es, cada línea de visión desde la Tierra debería terminar en una estrella. Por tanto, el cielo debería ser completamente brillante.

Pero los astrónomos saben que durante la noche el cielo que hay entre las estrellas es negro. Una paradoja ocurre cuando se llega a dos resultados opuestos utilizando dos métodos de razonamiento en apariencia válidos. La paradoja de Olbers recibe el nombre del físico y astrónomo alemán Wilhelm Olbers, que escribió sobre la paradoja en la década de 1820.

La paradoja existente entre una noche oscura y un universo infinito se conocía antes de que fuera discutida por Olbers. A principios del siglo XVII, el astrónomo alemán Johannes Kepler utilizó la paradoja para respaldar la idea de que el Universo es infinito. En 1715, el astrónomo británico Edmund Halley identificó en el cielo algunas zonas brillantes y propuso que el cielo no brilla uniformemente durante la noche porque, aunque el Universo es infinito, las estrellas no están distribuidas de manera uniforme.

El astrónomo suizo Jean-Philippe Loys de Chéseaux comenzó a estudiar la paradoja basándose en el trabajo de Halley. Al final de un libro que trataba del brillante cometa que estudió en 1743, Chéseaux discutió la paradoja de forma explícita. Sugirió que o bien la esfera de las estrellas no era infinita o bien la intensidad de la luz disminuía rápidamente con la distancia, quizás debido a cierto material absorbente presente en el espacio.

En 1823 Olbers planteó la solución de que el cielo era oscuro de noche porque algo en el espacio bloqueaba la mayor parte de la luz estelar que debía llegar a la Tierra. Los científicos actuales se han dado cuenta de que la solución de Olbers no funcionaría, ya que la materia en el espacio que bloqueara la luz se calentaría con el tiempo y, finalmente, radiaría con tanto brillo como las estrellas. Las traducciones de los artículos de Olbers al inglés y al francés hicieron que su trabajo fuera bastante conocido. Durante los cien años siguientes la paradoja no fue discutida.

En 1948, el astrónomo británico Hermann Bondi se refirió a la paradoja de Olbers como una parte de la teoría del estado estacionario. La solución de Bondi era que la expansión del Universo provocaba que la luz percibida desde la lejanía fuera rojiza y, por tanto, con menor energía en cada fotón o partícula de luz. Esta solución es igualmente válida para la teoría del Big Bang.

En la década de 1960, el astrónomo estadounidense Edward Harrison llegó al entendimiento y solución actuales de la paradoja de Olbers. Harrison mostró que el cielo es oscuro de noche porque nosotros no vemos las estrellas que están infinitamente lejos. La solución de Harrison depende de que el Universo tenga una edad infinita. Dado que la luz tarda cierto tiempo en alcanzar la Tierra, mirar lejos en el espacio es como mirar en el pasado. Cada línea de visión desde la Tierra no termina en una estrella porque la luz de las estrellas más lejanas que se necesitan para crear la paradoja de Olbers todavía no ha alcanzado la Tierra.

Durante el tiempo de existencia del Universo, las estrellas no han emitido energía suficiente para hacer que el cielo nocturno brille. El efecto del desplazamiento hacia el rojo, por el que la energía de las estrellas más lejanas disminuye, es un efecto menor en este modelo.

Agujeros Negros Predatorios


Dos telescopios de rayos-X han sorprendido a un agujero negro en el acto de destrozar a una estrella.

Gracias a dos observatorios de rayos-X que se encuentran en órbita, los astrónomos han logrado obtener la primera evidencia fuerte de un agujero negro súper-masivo en el acto de desgarrar a una estrella y consumir una porción de ella. El evento, capturado por los observatorios de rayos-X Chandra de la NASA y XXM-Newton de ESA, había sido desde hace mucho una teoría hipotética, pero nunca había sido confirmado... hasta ahora.

Los astrónomos creen que una estrella con mala suerte se acercó demasiado a un gigantesco agujero negro luego de haber sido desviada de su curso por un encuentro cercano con otra estrella. A medida que se acercaba a la enorme gravedad del agujero negro, la estrella comenzó a estirarse a causa de las fuerzas de marea, hasta que se destrozó. El descubrimiento proporciona información importante acerca de cómo estos agujeros negros crecen y afectan las estrellas y el gas que los rodean.

Una visualización artística de una estrella que se acercó demasiado a un agujero negro súper-masivo en la galaxia RX J1242-11.

Las observaciones de Chandra y XMM-Newton, combinadas con imágenes anteriores del satélite alemán Roentgen, detectaron una poderosa explosión de rayos-X proveniente del centro de una galaxia llamada “RX-J1242-11”. Esta explosión, una de las más grandes jamás detectadas en una galaxia, fue causada por el gas de una estrella calentado hasta una temperatura de millones de grados centígrados antes de ser devorado por el agujero negro. La energía liberada en el proceso fue equivalente a la de una supernova.

“Las estrellas pueden sobrevivir si son estiradas un poco, como sucede en los sistemas de estrellas binarias, pero esta estrella fue estirada hasta más allá de su punto de ruptura”, dijo Stefanie Komossa del Instituto Max Planck para la Física Extraterrestre (MPE) en Alemania, líder de un equipo internacional de investigadores. “Esta desafortunada estrella simplemente estaba paseando en el vecindario equivocado”.

El agujero negro en el centro de RX J1242-11 tiene una masa de aproximadamente 100 millones de Soles. En contraste, la estrella destruida tenía probablemente una masa parecida a la del Sol. Los astrónomos estiman que solamente un uno por ciento de la masa de la estrella fue finalmente consumido, o acretado, por el agujero negro. El resto fue arrojado lejos del agujero negro.

La fuerza que destrozó a la estrella en RX J1242-11 es un ejemplo extremo de la fuerza de marea generada por diferencias en la gravedad que se ejerce sobre el frente y la parte trasera de un objeto. La fuerza de marea de la Luna causa las mareas en los océanos de la Tierra. Una fuerza de marea provocada por Júpiter rompió al cometa Shoemaker-Levy, antes de que éste se precipitara hacia el planeta gigante.


Los agujeros negros no son los únicos objetos que causan grandes mareas. Júpiter también puede hacerlo. Esta ilustración muestra al cometa Shoemaker-Levy estrellándose contra Júpiter en 1994, luego de haber sido destrozado por las mareas del gigantesco planeta. Aunque en una escala muy diferente, el mecanismo físico culpable de la ruptura de Shoemaker-Levy también causó la disgregación en la estrella en RX J1242-11.

Las probabilidades de una disgregación estelar por causa de la marea en una galaxia típica son bajas, aproximadamente de una en 10.000 por año. Si hubiera sucedido en el centro de nuestra Vía Láctea, a 25.000 años luz de la Tierra, la explosión de rayos-X resultante habría sido unas 50.000 veces más brillantes que la más poderosa fuente de rayos-X en nuestra galaxia, pero no habría representado una amenaza para nuestro planeta.

Otras llamaradas dramáticas han sido observadas en diferentes galaxias, pero ésta es la primera estudiada con la alta resolución espacial de Chandra y la alta resolución espectral de XMM-Newton. Ambos instrumentos lograron un avance crítico. Chandra mostró que el evento RX J1242-11 ocurrió en el centro de una galaxia, donde acecha el agujero negro. El espectro de XMM-Newton reveló las huellas dactilares que se esperaban de los alrededores de un agujero negro, descartando cualquiera otra explicacion astronómica.

Los agujeros negros súper-masivos en los centros de las galaxias son familiares para los astrónomos. Hay muchos de ellos, incluyendo uno en el corazón de nuestra propia Vía Láctea. Ahora, los astrónomos tienen un método para encontrar más: buscar las explosiones de rayos-X que ocurren cuando algunas estrellas son destrozadas por las mareas de los agujeros negros. Observaciones como ésta son necesarias, dicen los investigadores, para determinar cuán rápidamente pueden crecer los agujeros negros al absorber estrellas vecinas.