martes, 30 de octubre de 2007

TOP 30 - Filmes del Horror

Han transcurrido 23 años, y todavía nada supera a Halloween...

Con la aparición en las carteleras del Horrorfest de Halloween 2, también es la única en su serie que tiene 3 películas en el Top 30, amén de la trilogía de los Muertos Vivientes (Living Dead) de George Romero. Mientras tanto la trilogía de Evil Dead ha caído y Army of Darkness (Evil Dead 3) ha caído derechito de las carteleras.

También es digna de mención en el número 30 Poltergeist, que está mostrado en la categoría Macabra de http://www.festivalmacabre.com/.

TOP 30
  1. Halloween
  2. Exorcist
  3. Nightmare on Elm Street
  4. The Evil Dead
  5. Texas Chainsaw Massacre
  6. Friday the 13th
  7. Psycho
  8. The Shining
  9. Scream
  10. Night of the Living Dead (1968 Romero)
  11. Dawn of the Dead
  12. Carrie
  13. Blair Witch Project
  14. Halloween H20
  15. Hellraiser
  16. Brain Dead (a.k.a. Dead Alive)
  17. Alien
  18. The People Under the Stairs
  19. Omen
  20. Return of the Living Dead
  21. Evil Dead 2
  22. Candyman
  23. Child’s Play
  24. The Thing (1982 Carpenter)
  25. Suspiria
  26. Scream 2
  27. Halloween 2
  28. The Faculty
  29. Day of the Dead
  30. Poltergeist

lunes, 29 de octubre de 2007

El diablo de los números


El autor del libro, Hans Magnus Enzensberger, lo define como “Una extraña historia”, y nos avisa que los términos que usa este diablillo de los números difieren de los utilizados por los matemáticos, pero que los conceptos explicados son plenamente serios y correctos.

Este libro se recomienda a aquéllos que les gusta pensar, y sobre todo para los que quieren aprender a razonar y a comprender los principios matemáticos esenciales, más que las operaciones mecánicas en sí.

El autor presenta a un pequeño y travieso diablito, elegantemente vestido, que fuma pipa y tiene una gran inventiva para llevarnos a través de 12 capítulos o sueños a imaginar las teorías y propuestas de grandes matemáticos, explicándolas de forma comprensible.

El texto nos presenta a Roberto, un asombrado niño que al inicio del libro odia las matemáticas y poco a poco, conforme transcurren sus mágicos sueños, se encanta con los números, los símbolos y sus combinaciones, las cuales parecen cosa de hechizo.

Entre el pequeño y el diablo de los números, se establecen diálogos amenos y sorpresivos, teñidos de la fascinación con la que el diabólico personaje muestra su creatividad, desplegando gran variedad de recursos didácticos.

Los capítulos corresponden al número de noches en las que Roberto sueña con su singular amigo. Aunque los temas tratados en los sueños aparentemente son pocos, el listado que se ofrece en el anexo habla de los muchos conceptos de que trata el libro.

Descarga

sábado, 27 de octubre de 2007

God Of Thunder

El por qué el nombre del blog.


God Of Thunder

You've got something about you
You've got something I need
Daughter of Aphrodite
Hear my words and take heed

I was born on Olympus
To my father a son
I was raised by the demons
Trained to reign as the one

God of thunder and rock and roll
The spell you're under
Will slowly rob you of your virgin soul

I'm the lord of the wastelands
A modern day man of steel
I gather darkness to please me
And I command you to kneel
Before the

God of thunder and rock and roll
The spell you're under
Will slowly rob you of your virgin soul

I am the lord of the wastelands
A modern day man of steel
I gather darkness to please me
And I command thee to kneel
Before the

God of thunder and rock and roll
The spell you're under
Will slowly rob you of your virgin soul

domingo, 14 de octubre de 2007

La Trompeta de Gabriel


La Trompeta de Gabriel, el Cuerno de Gabriel o también llamado Trompeta de Torricelli, es una figura ideada por Evangelista Torricelli.

Torricelli, además de ser célebre por su diversidad de descubrimientos, entre ellos el barómetro, realizó un descubrimiento de un sólido infinitamente largo llamado hoy día la trompeta de Gabriel, que se caracteriza por tener una superficie infinita pero que encierra un volumen finito. Este descubrimiento fue apreciado en aquélla época como una paradoja increíble, incluso por el propio Torricelli, provocando una fuerte polémica en torno a la naturaleza del infinito en la que intervino el filósofo Thomas Hobbes.
La trompeta de Gabriel se forma utilizando la gráfica de y= \frac{1} {x}, con el rango x \ge 1 (para evitar la asíntota en
x = 0), y rotándola en tres dimensiones alrededor del eje X.

Su descubrimiento es anterior al cálculo, pero es fácil de verificar integrando \frac{2\pi  \sqrt{1 + \frac{1}{x^4}}}{x} y \frac{\pi} {x^2}. Si se considera la parte del cuerno entre x = 1 y x = a, el área de la superficie es más que 2πln(a) y el volumen es \pi(1-\frac{1}{a}). Cuando a aumenta, el área no está acotada, mientras que el volumen tiene una cota superior de π.

Como mencioné anteriormente, en el momento de su descubrimiento fue considerado una paradoja. Esta paradoja aparente ha sido descrita de modo informal señalando que sería necesaria una cantidad infinita de pintura para cubrir la superficie interior, mientras que sería posible rellenar toda la figura con una cantidad finita de pintura y así cubrir esa superficie. La solución de la paradoja es que la afirmación de que un área infinita requiere una cantidad finita de pintura presupone que una capa de pintura tiene un grosor constante. Esto no se cumple en el interior de la trompeta, ya que la mayor parte de la longitud de la figura no es accesible a la pintura, especialmente cuando su diámetro es menor que el de una molécula de pintura. Si se considera una pintura sin grosor, sería necesaria una cantidad infinita de tiempo para que ésta llegase hasta el «final» del cuerno.

En otras palabras, llegaría un momento en el que el espesor de la trompeta sería más pequeño que una molécula de pintura con lo que, digamos, una gota de pintura cubriría el resto de la superficie de la trompeta (aunque fuera infinito). Así, que la superficie de la trompeta sea infinita no implicaría que la cantidad de pintura tenga que ser infinita.

domingo, 7 de octubre de 2007

Como evitar fisuras en el hormigón

Tal vez se debería titular “Intentando evitar las fisuras en el hormigón”, o “Minimizando las fisuras en el hormigón”, dado que es imposible garantizar algo en contra de la fisuración.

1. Asegurarse que la sub-base esté compactada.

Las excavaciones debajo de la losa que no están rellenas con hormigón (generalmente por conducción de aguas u otras perforaciones mecánicas) se deberían llevar nuevamente a un estado compactado. Esto significa que una trinchera de 50 cm. se debería rellenar 15 cm de una sola vez, con cada zona vibrada mecánicamente de manera que quede compactada.

Si estas excavaciones no se compactan cuando se hormigona, este suelo suelto sedimentará con el tiempo dejando al hormigón sobre esa área sin ningún suelo debajo. Este se convierte en un lugar principal para que el hormigón sedimente Dado que el suelo próximo a estas excavaciones es suelo nativo, la trinchera no compactada puede literalmente volverse un lugar adecuado para el agua.

2. Uso de una relación agua/cemento (W/C) baja.

Una relación agua/cemento baja es el tema número uno que afecta la calidad del hormigón. La relación agua/cemento baja impacta a todas las propiedades deseadas del hormigón: trabajabilidad, resistencia a la compresión, resistencia al congelamiento y deshielo, economía, etc.

Se usa una relación agua/cemento como máximo 0.50, cuando el hormigón está expuesto a congelamiento y deshielo en una condición húmeda o a los aditivos químicos anticongelantes.

Se usa una relación agua/cemento como máximo 0.45 para el hormigón en condiciones severas o muy severas de ataques por sulfatos.

La permeabilidad al agua se incrementa exponencialmente cuando el hormigón tiene una relación agua/cemento mayor de 0.50.

La durabilidad se incrementa cuanto menos permeable es la mezcla de hormigón.

La resistencia a la compresión mejora cuando la relación agua/cemento se hace más baja.

3. Losas de hormigón adecuadamente curadas.

¿Por qué se cura el hormigón?
El curado sirve a dos propósitos principales:

§ Retiene humedad en la losa de manera que el hormigón continúe ganando resistencia a la compresión.

§ Demora la contracción por secado hasta que el hormigón sea lo suficientemente fuerte para resistir la fisuración por contracción.

§ El hormigón adecuadamente curado mejora la resistencia a la compresión, la durabilidad, la estanqueidad, y la resistencia al desgaste.

Cómo se cura al hormigón:

  • Curado en agua, el hormigón es inundado o rociado con agua. Es la forma más efectiva de método de curado para evitar la evaporación del agua de mezclado. Los métodos de retención de agua, usan cubiertas como arena, arpillera, paja, etc. que se mantienen continuamente húmedas. El material usado se debe mantener húmedo durante al período de curado.
  • Papel impermeable o sello de película plástica. Se aplican tan pronto como el hormigón ha endurecido lo suficiente para resistir el daño superficial. Las películas plásticas pueden provocar decoloración del hormigón, por lo cual no se deben aplicar al hormigón cuando es importante la apariencia.
  • Membranas químicas. La aplicación química se debe hacer tan pronto como esté terminado el hormigón. Se nota que los compuestos de curado pueden afectar la adherencia de los pisos resilientes.

¡Todas las propiedades deseables del hormigón se mejoran luego del curado adecuado!

4. Permitir el curado con agua.

Después de colocado el hormigón, éste incrementa su resistencia a la compresión rápidamente durante un período de 3 a 7 días. El hormigón que se cura en humedad durante 7 días es aproximadamente más fuerte que el no curado.

El curado en agua se puede hacer después de que la losa se cuele mediante diques de construcción con suelo alrededor e inundando la losa. El área encerrada está continuamente inundada con agua. Idealmente, la losa se puede curar bajo agua durante 7 días. Algunos constructores en un esquema muy ajustado, curan bajo agua durante 3 días dado que se logra el 80 % aproximadamente del beneficio del curado en agua durante 7 días.

5. Estar atentos a decidir dónde se han de colocar las juntas.

Las juntas de control se planifican para fisuras que permiten los movimientos provocados por los cambios de temperatura y contracción por secado. En otras palabras, si el hormigón no se fisura se debe tener un rol activo en decidir dónde se va a producir la fisura y que fisurará en una línea recta en lugar de al azar.

Juntas espaciadas adecuadamente. Las juntas se espacian (en pies) no más de 6 a 9 veces el espesor de la losa (en pulgadas).

Los cortes de las juntas deben ser suficientemente profundos. Se cortan las juntas en un 25% de la profundidad de la losa.

Cómo se cortan las juntas. Las herramientas de muescas cortan las juntas en el hormigón fresco. Las sierras de corte cortan las juntas tan pronto como el hormigón es lo suficientemente duro para que los bordes que sufren el corte no salten por acción de la hoja de la sierra.

Cortando las juntas muy pronto. En clima caluroso, el hormigón se podría fisurar si las juntas no se cortan dentro de las 6 a 12 horas después de terminado el hormigón. En esta condición, si Ud. no quiere usar una herramienta de muescas para cortar las juntas, hay sierras livianas de corte seco tempranas que se pueden usar casi inmediatamente después de la terminación. Estas sierras cortan con una profundidad de 2.5 cm. a 7.5 cm., dependiendo del modelo.

6. Evitando las fisuras en el hormigón.

Una de las preguntas más comunes es acerca de las fisuras que se están desarrollando en el hormigón recién colado. Se preguntarán porqué se fisura y si la tarea fue correcta.

Cuando se lo coloca adecuadamente, el hormigón es uno de los productos más durables y de larga duración que se pueden usar. Pero es importante que los contratistas de hormigón sigan un lineamiento bien establecido con respecto a la colocación del hormigón. Que el hormigón sea durable, de alta resistencia a la compresión, y resistente a la fisuración no sucede por accidente.

RAZÓN N° 1

Porqué se fisura el hormigón.

El hormigón no requiere mucha agua para lograr la resistencia a la compresión máxima. Pero una amplia mayoría del hormigón empleado tiene demasiada agua para hacer que el hormigón sea fácil de colocar. Este exceso de agua reduce mucho la resistencia a la compresión.

La contracción es la causa principal de la fisuración. A medida que el hormigón endurece y se seca, se contrae. Esto es debido a la evaporación del exceso del agua de mezclado. Cuanto más acuosa o húmeda la mezcla de hormigón, la fisuración será mayor. Las losas de hormigón se pueden contraer tanto como 1 cm. por cada 30 m. Esta contracción provoca fuerzas en el hormigón que literalmente sacan a la losa del lugar. Las fisuras son el resultado final de estas fuerzas.

RAZÓN N° 2

Secado rápido del hormigón.

También, el secado rápido de la losa incrementará significativamente la posibilidad de fisuración. La reacción química, que provoca que el hormigón vaya desde estar como un líquido o estado plástico a un estado sólido, requiere agua. Esta reacción química, o hidratación, continúa ocurriendo durante días y semanas después que se ha colado el hormigón.

Se puede asegurar el agua necesaria que está disponible para esta reacción, curando adecuadamente la losa.

RAZÓN N° 3

Inadecuada resistencia a la compresión del hormigón colado in situ.

El hormigón está disponible en diferentes resistencias a la compresión. Se debe verificar qué resistencia a la compresión tiene el hormigón que se está colocando. Conectarse con el producto del hormigón elaborado.

RAZÓN N° 4

Falta de juntas de control.

Las juntas de control ayudan a que el hormigón fisure donde uno quiere. Las juntas deberían tener 1/4 de la profundidad de la losa y no más de 2 - 3 veces (en pies) del espesor del hormigón (en pulgadas).

OTRAS RAZONES

Nunca se debe colar el hormigón en suelo congelado.

El suelo sobre el que el hormigón será colocado debe estar compactado.

La sub-base se debe preparar de acuerdo con las condiciones del suelo.

7. Control de fisuras (Fisuración de contracción por secado).

La pasta de cemento hidratada se contrae a medida que pierde humedad de sus poros extremadamente pequeños. A medida que la humedad se pierde en estos pequeños poros, la tensión superficial del agua remanente tiende a empujar a los poros todos juntos lo que resulta en una pérdida de volumen con el tiempo.

Los aditivos de reducción de contracción se diseñan para disminuir los efectos de la contracción por secado reduciendo la tensión superficial en estos poros.

Se debe hacer notar que el tipo de agregado y las propiedades cementicias mismas pueden influenciar la cantidad de fisuración que puede ocurrir. Entonces, es importante ensayar materiales locales al hacer el ensayo de contracción.

El curado también afecta la fisuración. En losas, la parte superior tiende a secarse primero y se contrae mientras las secciones más bajas aún tienen un contenido de humedad más alto. Esta diferencia en humedad se puede alterar mediante el uso de Aditivos Reductores de Contracción, los que alteran la manera en que el agua migra a través del hormigón y resulta en un perfil de humedad más uniforme.

8. Qué fisuras reparar.

No hay ninguna norma ACI o recomendación que de un SI o un NO para reparar las fisuras basado en el ancho de las mismas u otros factores. El significado de la fisura depende de muchos factores, incluyendo la orientación de las fisuras con respecto a la armadura, el espesor del recubrimiento, y la exposición. Los métodos de reparación también consideran si la fisuración se produjo una sola vez o por efectos repetidos. Dado que la fisuración parece ser provocada por sucesos únicos, una elección lógica es la inyección de epoxi.

Las cuadrillas de inyección experimentadas pueden reparar fisuras muy finas, a menudo más finas que 0.15 cm., si es necesario. A menudo no lo es, y la economía dictará qué límite de ancho de fisura se establecerá como base para la reparación. A veces este límite es aproximadamente 0.32 a 0.38 cm. Esto sería suficiente para este trabajo. Sin embargo, el consultor de inyección de epoxi Peter Barlow de Seattle, Washington, recomienda que las fisuras tan finas como las de 0.10 a 0.13 cm. sean inyectadas si hay suficiente presupuesto y que exista la probabilidad que el movimiento pueda continuar en las fisuras.

Si el movimiento continúa, los bordes tiende a desmoronarse, y pueden ser necesarias nuevas reparaciones.

sábado, 6 de octubre de 2007

Theremin, padre de la música electrónica.

León Theremin tocando el theremin

El compositor ruso León Theremin (1896-1993) fue el padre de la música electrónica e inventor en los años 20 del instrumento pionero que lleva su nombre, con el cual hizo giras por Europa y América, logrando un enorme éxito en conciertos de música electrónica. Theremin llevó una vida de extravagante invención musical unida a una atrevida clandestinidad electrónica. Genio creativo e inventor prolífico, Theremin empezó por su propia cuenta el campo de la música electrónica en 1920 con el instrumento musical que lleva su nombre. El theremín, el único instrumento que se interpreta sin tocarlo, creó una sensacion mundial y abrió el camino para el moderno sintetizador. Su sonido extravagante se volvió familiar en películas de ciencia ficción e incluso en la música rock. Este instrumento mágico que encantó a millones, sin embargo, es sólo el comienzo de su historia.

En su juventud en la nueva Unión Soviética, cautivó a Lenin con su "eterfono". Como científico soviético, Theremin dedicó su vida y obra al servicio del espionaje. Asignado a los EU a finales de los años 20 y en los 30, su maravilla electroacústica hizo furor en la sociedad neoyorquina, mientras pasaba datos de la tecnología industrial gringa a sus camaradas soviéticos.

Tras su desaparición súbita de Nueva York en 1938, Theremin fue llevado a un campo de trabajo en Siberia y luego pasó a la clandestinidad en el servicio secreto soviético, mientras se le daba por muerto durante casi 30 años. Usando la misma tecnología del theremin, diseñó aparatos de espionaje dirigidos a las oficinas diplomáticas gringas y estuvo en el centro de la guerra fría.

Durante su vida, Theremin desarrolló muchas otras maravillas electrónicas, incluyendo uno de los primeros televisores y aparatos de multimedia que se anticiparon por décadas al arte del performance y la realidad virtual. Fue condecorado personalmente por Josef Stalin por su servicio al comunismo internacional y a su patria soviética en su confrontación contra el Eje fascista y posteriormente contra las potencias capitalistas.

Y hablando de pioneros, resulta imposible no hacer referencia a los precursores que de una u otra manera ayudaron a desarrollar estas estéticas. Si hablamos de antecedentes previos tendríamos que retrotraernos hasta principios del siglo pasado con Luigi Russolo y sus amigos del club de los futuristas italianos que ya por esa época comenzaron a experimentar con ruidos y sonidos generados mecánicamente todo ello teorizado en el manifiesto “El Arte de los Ruidos”. Tampoco podemos olvidar las Ondas Martenot diseñadas en los años 20 por el compositor e ingeniero francés Maurice Martenot y que se limitaba a ser un generador de bajas frecuencias aplicado a un piano. Más tarde, compositores como Henry Cowell sientan las bases de una música creada únicamente con la intervención de medios electrónicos, que no se haría realidad hasta varios años después con el significativo desarrollo de la tecnología de la grabación de sonidos a mediados de los años 40.

jueves, 4 de octubre de 2007

La NASA admite la posibilidad de que existan universos paralelos

¿Existen copias casi exactas de usted en otros universos? Si una o más de las hipótesis de universos múltiples o multiversos es correcta, es absolutamente posible de acuerdo con la NASA.

Para tal fin creó una ilustración realizada por ordenador donde se muestran universos independientes como círculos o esferas. Las esferas pueden causalmente desconectarse de las otras, significando que ninguna comunicación puede pasar entre ellas. Algunas esferas pueden contener diferentes versiones de nuestro universo, mientras que otras pueden tener diferentes leyes físicas.

Un sistema entero de universos paralelos se llama multiversos.

Un ojo humano colocado en la imagen computarizada de acuerdo a la NASA puede representar la posibilidad de que las versiones de algunas hipótesis de multiversos puedan existir solamente en la mente humana.

Una crítica a la hipótesis de los multiversos es que son con frecuencia difíciles de probar.

Algunas hipótesis de multiversos pueden, por lo tanto, ser divertidas de imaginar pero prácticamente infalsificables y por lo tanto no tener ningún valor científico predictivo.

El concepto de los multiversos surgió en la década de los sesentas, de la obra de escritores de ciencia ficción como Michael Moorcock, que utilizó términos como universos o mundos paralelos.

En la actualidad uno de los más celebres promotores de la hipótesis multiverso es el cosmólogo estadounidense Max Tegmark, quien deduce la existencia de otros universos como una implicación directa de observaciones cosmológicas.

Multiversos

En el 2003 publicó su teoría en la revista Scientific American, en un articulo titulado "Universos paralelos". En éste detalla los cuatro niveles de multiversos que podrían existir:

# Nivel I o multiverso abierto; en un universo infinito hay tantos universos paralelos como burbujas de cierto diámetro que se puedan construir. Como el volumen de cada una de esas burbujas es finito, es evidente que cada cierto tiempo se deben ir repitiendo todas las posibles combinaciones. Es decir, no sólo existen universos paralelos sino que también hay infinitos universos idénticos a éste. Tendríamos un multiverso.

# Nivel II o de burbuja; estos universos se encontrarían separados entre sí por un espacio vacío que se extendería más rápido de lo que sería posible viajar en él. Tendrían además condiciones iniciales diferentes y también valores diferentes de constantes fundamentales. Ayudarían a explicar por qué las condiciones de nuestro universo están tan bien ajustadas a la vida.

# Nivel III o de la interpretación de algunos mundos; en estos universos cada vez que se debe de tomar una decisión cuántica es como si ese universo se desdoblase en tantos como fuesen necesarios para dar cuenta de todos los posibles resultados.

# Nivel IV o de la última teoría ensamblada; universos con otras estructuras matemáticas con diferencias fundamentales en sus leyes físicas.

De acuerdo con los niveles anteriores ya no podría existir un nivel V.

Para Tegmark, la hipótesis de los multiversos podría ser verificable con más observaciones sobre las predicciones que se derivan de ella.

Fuente: IBLNews

Un poco de historia y el nacimiento del Cálculo

Introducción

El Cálculo constituye una de las grandes conquistas intelectuales de la humanidad. Una vez construido, la historia de la matemática ya no fue igual: la geometría, el álgebra y la aritmética, la trigonometría, se colocaron en una nueva perspectiva teórica. Detrás de cualquier invento, descubrimiento o nueva teoría, existe, indudablemente, la evolución de ideas que hacen posible su nacimiento. Es muy interesante prestar atención en el bagaje de conocimientos que se acumula, desarrolla y evoluciona a través de los años para dar lugar, en algún momento en particular y a través de alguna persona en especial, al nacimiento de una nueva idea, de una nueva teoría, que seguramente se va a convertir en un descubrimiento importante para el estado actual de la ciencia y, por lo tanto merece el reconocimiento. El Cálculo cristaliza conceptos y métodos que la humanidad estuvo tratando de dominar por más de veinte siglos. Una larga lista de personas trabajaron con los métodos "infinitesimales" pero hubo que esperar hasta el siglo XVII para tener la madurez social, científica y matemática que permitiría construir el Cálculo que utilizamos en nuestros días.

Sus aplicaciones son difíciles de cuantificar porque toda la matemática moderna, de una u otra forma, ha recibido su influencia; y las diferentes partes del andamiaje matemático interactúan constantemente con las ciencias naturales y la tecnología moderna.

Newton y Leibniz son considerados los inventores del cálculo pero representan un eslabón en una larga cadena iniciada muchos siglos antes. Fueron ellos quienes dieron a los procedimientos infinitesimales de sus antecesores inmediatos, Barrow y Fermat, la unidad algorítmica y la precisión necesaria como método novedoso y de generalidad suficiente para su desarrollo posterior. Estos desarrollos estuvieron elaborados a partir de visiones de hombres como Torricelli, Cavalieri, y Galileo; o Kepler, Valerio, y Stevin. Los alcances de las operaciones iniciales con infinitesimales que estos hombres lograron, fueron también resultado directo de las contribuciones de Oresme, Arquímedes y Eudoxo. Finalmente el trabajo de estos últimos estuvo inspirado por problemas matemáticos y filosóficos sugeridos por Aristóteles, Platón, Tales de Mileto, Zenón y Pitágoras. Para tener la perspectiva científica e histórica apropiada, debe reconocerse que una de las contribuciones previas decisivas fue la Geometría Analítica desarrollada independientemente por Descartes y Fermat.

Sin la contribución de éstos y de muchos otros hombres más, el cálculo de Newton y Leibniz seguramente no existiría. Su construcción fue parte importante de la revolución científica que vivió la Europa del siglo XVII.Los nuevos métodos enfatizaron la experiencia empírica y la descripción matemática de nuestra relación con la realidad. La revolución científica supuso una ruptura con las formas de pensar, estudiar y vincularse con la naturaleza que dominaron casi absolutamente en Europa entre los siglos V y XV. Esta ruptura y salto en la historia del conocimiento estuvieron precedidos por las importantes transformaciones que se vivieron durante los siglos XV y XVI con el Renacimiento y la Reforma Protestante. El Cálculo Diferencial e Integral están en el corazón del tipo de conocimiento, cultura y de sociedad de la que, esencialmente, somos parte.

El extraordinario avance registrado por la matemática, la física y la técnica durante los siglos XVIII, XIX y XX, se lo debemos al Cálculo infinitesimal y por eso se puede considerar como una de las joyas de la creación intelectual de la que el hombre puede sentirse orgulloso.

El siglo XVII y la disputa por la creación del cálculo

En sus comienzos el cálculo fue desarrollado para estudiar cuatro problemas científicos y matemáticos:

  • Encontrar la tangente a una curva en un punto.
  • Encontrar el valor máximo o mínimo de una cantidad.
  • Encontrar la longitud de una curva, el área de una región y el volumen de un sólido.
  • Dada una fórmula de la distancia recorrida por un cuerpo en cualquier tiempo conocido, encontrar la velocidad y la aceleración del cuerpo en cualquier instante. Recíprocamente, dada una fórmula en la que se especifique la aceleración o la velocidad en cualquier instante, encontrar la distancia recorrida por el cuerpo en un período de tiempo conocido.

En parte estos problemas fueron analizados por las mentes más brillantes de este siglo, concluyendo en la obra cumbre del filósofo-matemático alemán Gottfried Wilhelm Leibniz y el físico-matemático inglés Issac Newton: la creación del cálculo. Se sabe que los dos trabajaron en forma casi simultánea pero sus enfoques son diferentes. Los trabajos de Newton están motivados por sus propias investigaciones físicas (de allí que tratara a las variables como "cantidades que fluyen") mientras que Leibniz conserva un carácter más geométrico y, diferenciándose de su colega, trata a la derivada como un cociente incremental, y no como una velocidad. Leibniz no habla de derivada sino de incrementos infinitamente pequeños, a los que llama diferenciales. Un incremento de x infinitamente pequeño se llama diferencial de x, y se anota dx. Lo mismo ocurre para y (con notación dy). Lo que Newton llamó fluxión, para Leibniz fue un cociente de diferenciales (dy/dx). No resulta difícil imaginar que, al no poseer en esos tiempos un concepto claro de límite y ni siquiera de función, los fundamentos de su cálculo infinitesimal son poco rigurosos. Se puede decir que el cálculo de fluxiones de Newton se basa en algunas demostraciones algebraicas poco convincentes, y las diferenciales de Leibniz se presentan como entidades extrañas que, aunque se definen, no se comportan como incrementos. Esta falta de rigor, muy alejada del carácter perfeccionista de la época griega, fue muy usual en la época post-renacentista y duramente criticada. Dos siglos pasaron hasta que las desprolijidades en los fundamentos del cálculo infinitesimal se solucionaron, y hoy aquel cálculo, potencialmente enriquecido, se muestra como uno de los más profundos hallazgos del razonamiento humano.

Resulta muy interesante la larga y lamentable polémica desatada a raíz de la prioridad en el descubrimiento. Al principio la disputa se realizó en el marco de la cortesía pero al cabo de tres décadas comenzó a ser ofensiva hasta que en el siglo XVIII se convirtieron en mutuas acusaciones de plagio. La polémica se tornó cada vez mayor y finalmente se convirtió en una rivalidad entre los matemáticos británicos y los continentales.

La discusión siguió hasta mucho después de la muerte de los dos grandes protagonistas y, afortunadamente, hoy ha perdido interés y la posteridad ha distribuido equitativamente las glorias. Hoy está claro que ambos descubrieron este cálculo en forma independiente y casi simultánea entre 1670 y 1677, aunque fueron publicados unos cuantos años más tarde.

La difusión de las nuevas ideas fue muy lenta y al principio sus aplicaciones escasas. Los nuevos métodos tuvieron cada vez más éxito y permitieron resolver con facilidad muchos problemas. Los nuevos logros fueron sometidos a severas críticas, la justificación y las explicaciones lógicas y rigurosas de los procedimientos empleados no se dieron hasta avanzado el siglo XIX, cuando aparecieron otros matemáticos, más preocupados por la presentación final de los métodos que por su utilización en la resolución de problemas concretos.

El siglo XVIII

Durante buena parte del siglo los discípulos de Newton y Leibniz se basaron en sus trabajos para resolver diversos problemas de física, astronomía e ingeniería, lo que les permitió, al mismo tiempo, crear campos nuevos dentro de las matemáticas. Así, los hermanos Bernoulli inventaron el cálculo de variaciones y el matemático francés Monge la geometría descriptiva. Lagrange, también francés, dio un tratamiento completamente analítico de la mecánica, realizó contribuciones al estudio de las ecuaciones diferenciales y la teoría de números, y desarrolló la teoría de grupos. Su contemporáneo Laplace escribió Teoría analítica de las probabilidades (1812) y el clásico Mecánica celeste (1799-1825), que le valió el sobrenombre de "el Newton francés".

Sin embargo el gran matemático del siglo fue el suizo Euler, quien aportó ideas fundamentales sobre el cálculo y otras ramas de las matemáticas y sus aplicaciones. Euler escribió textos sobre cálculo, mecánica y álgebra que se convirtieron en modelos a seguir para otros autores interesados en estas disciplinas. El éxito de Euler y de otros matemáticos para resolver problemas tanto matemáticos como físicos utilizando el cálculo sólo sirvió para acentuar la falta de un desarrollo adecuado y justificado de las ideas básicas del cálculo. La teoría de Newton se basó en la cinemática y las velocidades, la de Leibniz en los infinitésimos, y el tratamiento de Lagrange era completamente algebraico y basado en el concepto de las series infinitas. Todos estos sistemas eran inadecuados en comparación con el modelo lógico de la geometría griega, y este problema no fue resuelto hasta el siglo posterior.

A los matemáticos de fines del siglo el horizonte matemático les parecía obstruido. Se había llegado al estudio de cuestiones muy complicadas a las que nos se les conocía o veía un alcance claro. Los sabios sentían la necesidad de estudiar conceptos nuevos y hallar nuevos procedimientos.

El siglo XIX

Un problema importante fue definir el significado de la palabra función. Euler, Lagrange y el matemático francés Fourier aportaron soluciones, pero fue el matemático alemán Dirichlet quien propuso su definición en los términos actuales. En 1821, un matemático francés, Cauchy, consiguió un enfoque lógico y apropiado del cálculo y se dedicó a dar una definición precisa de "función continua". Basó su visión del cálculo sólo en cantidades finitas y el concepto de límite. Esta solución planteó un nuevo problema, el de la definición lógica de número real. Aunque la definición de cálculo de Cauchy estaba basada en este concepto, no fue él sino el matemático alemán Dedekind quien encontró una definición adecuada para los números reales. Los matemáticos alemanes Cantor y Weierstrass también dieron otras definiciones casi al mismo tiempo.

Además de fortalecer los fundamentos del análisis, nombre dado a partir de entonces a las técnicas del cálculo, se llevaron a cabo importantes avances en esta materia. Gauss, uno de los más importantes matemáticos de la historia, dio una explicación adecuada del concepto de número complejo; estos números formaron un nuevo y completo campo del análisis, desarrollado en los trabajos de Cauchy, Weierstrass y el matemático alemán Riemann. Otro importante avance fue el estudio de las sumas infinitas de expresiones con funciones trigonométricas, herramientas muy útiles tanto en las matemáticas puras como en las aplicadas, hecho por Fourier. Cantor estudió los conjuntos infinitos y una aritmética de números infinitos. La teoría de Cantor fue considerada demasiado abstracta y criticada. Encontramos aquí un espíritu crítico en la elaboración de estas nociones tan ricas. Esto constituye un punto de vista muy diferente del que animaba a los matemáticos del siglo anterior. Ya no se trata de construir expresiones ni forjar nuevos métodos de cálculo, sino de analizar conceptos considerados hasta entonces intuitivos.

Gauss desarrolló la geometría no euclideana pero tuvo miedo de la controversia que pudiera causar su publicación. También en este siglo se pasa del estudio simple de los polinomios al estudio de la estructura de sistemas algebraicos.

Los fundamentos de la matemática fueron completamente transformados durante el siglo XIX, sobre todo por el matemático inglés Boole en su libro Investigación sobre las leyes del pensamiento (1854).

Siglo XX y nuestros días

Es importante el aporte realizado por Lebesgue referido a la integración y a la teoría de la medida y las modificaciones y generalizaciones realizadas por matemáticos que lo sucedieron.

En la Conferencia Internacional de Matemáticos que tuvo lugar en París en 1900, el matemático alemán David Hilbert, quien contribuyó de forma sustancial en casi todas las ramas de la matemática retomó veintitrés problemas matemáticos que él creía podrían ser las metas de la investigación matemática del siglo que recién comenzaba. Estos problemas fueron el estímulo de una gran parte de los trabajos matemáticos del siglo.

El avance originado por la invención del ordenador o computadora digital programable dio un gran impulso a ciertas ramas de la matemática, como el análisis numérico y las matemáticas finitas, y generó nuevas áreas de investigación matemática como el estudio de los algoritmos. Se convirtió en una poderosa herramienta en campos tan diversos como la teoría de números, las ecuaciones diferenciales y el álgebra abstracta. Además, el ordenador permitió encontrar la solución a varios problemas matemáticos que no se habían podido resolver anteriormente.

El conocimiento matemático del mundo moderno está avanzando más rápido que nunca. Teorías que eran completamente distintas se han reunido para formar teorías más completas y abstractas. Aunque la mayoría de los problemas más importantes han sido resueltos, otros siguen sin solución. Al mismo tiempo aparecen nuevos y estimulantes problemas y aún la matemática más abstractas encuentra aplicación.

Conclusiones

El progreso de las ideas no se da en el tiempo a través de una trayectoria perfectamente delineada y preconcebida; existen muchos elementos que en la construcción son desechados, reformulados o agregados. Las concepciones filosóficas sobre la realidad, el papel de la ciencia, y en especial las concepciones sobre las características que debe reunir el conocimiento matemático para ser considerado como conocimiento científico, determinaron los enfoques realizados en cada época. El impacto que tuvieron los personajes y las contribuciones consignadas en la historia difícilmente puede ser comprendida cabalmente si estas consideraciones no se toman en cuenta.