Category Archives: Física y matemáticas

Buceando en cavernas submarinas donde se mezclan capas de agua salada y agua dulce, el efecto de bucear en el aire

En las cavernas donde el agua se divide en capas de agua dulce y agua salada, fenómeno que generalmente ocurre en cavernas marinas que reciben agua de río y especialmente en los cenotes de México, ocurre un fenómeno óptico muy interesante. El agua dulce al ser menos densa se sitúa en la parte superior de la cavidad cavernosa, mientras que el agua salada se sitúa en los niveles inferiores. Generalmente estas columnas verticales de cambio de salinidad se dan de manera gradual. No obstante, bajo ciertas condiciones donde se combinan presiones bajas con temperaturas frías, el cambio entre el agua dulce superficial y el agua salada del fondo se da de manera brusca.

Cuando esto ocurre, se dará un fenómeno óptico más que llamativo. Los índices de refracción, es decir el factor que influye en el ángulo de refracción de un haz de luz refractándose a través de una superficie, del medio salino y el medio de agua dulce serán tales que cualquier persona o cámara ubicadas en el medio de agua dulce percibirán al buzo o cualquier objeto, incluso las burbujas del respirador, moviéndose a través este medio como si estos estuviesen buceando sobre el aire.

Encendiendo bengalas dentro de cavernas glaciares, un espectáculo único

Encender una bengala dentro de una caverna de hielo debe ser uno de los espectáculos visuales más impresionantes en la tierra. La luz de las mismas, constantemente variando en intensidad, es refractada a través de las varias capas de hielo ricas en minerales y cuyas densidades varían a medida que las mismas se hacen más antiguas, formando así un verdadero paisaje de otro mundo.

Las cavernas de Alaska

Las siguientes imágenes fueron realizadas como parte de un proyecto fotográfico durante el 2012 en una caverna de hielo en Alaska formada en el 2010, es decir una caverna en pleno proceso de formación. Algo peligroso ya que la misma está formada a partir de “hielo nuevo” y carece de capas compactadas. Su estabilidad estructural es un acertijo ya que es un proceso en formación.

Eslovenia
Las cavernas de hielo de Eslovenia son particularmente limpias. Es decir, el hielo que las forma no posee una concentración de minerales elevada, por lo que su color es un azul puro e intenso.

Islandia

Esta es la misma fotografía utilizada en el cabezal de la entrada. La misma fue tomada en las cavernas de hielo de Islandia por el fotógrafo y naturalista Brynjar Agústsson. Las cavernas glaciales de Islandia son particularmente interesantes debido a su antigüedad y la cantidad de minerales atrapados en el hielo producto de las varias y densas erupciones volcánicas que azotaron a esta isla al borde del ártico a lo largo de los milenios.

Rusia
Las Cavernas Arcoiris en Rusia, llamadas de esta manera debido a los distintos colores que poseen sus hielos a causa de los depósitos minerales que los componen, son otro de los lugares espectaculares y relativamente desconocidos del planeta tierra debido a su extremadamente difícil acceso en el este de Russia. Durante cientos de miles de años estas cavernas acumularon los minerales expulsados por el volcán Mutnovsky en Kamchatka.

Continue reading Encendiendo bengalas dentro de cavernas glaciares, un espectáculo único

La prueba nuclear espacial que destruyó tres satélites y dañó otros tres por error

Durante la Guerra Fría las súperpotencias militares buscaron utilizar su armamento nuclear en todo tipo de estrategias y escenarios, intentando implementar desde minas nucleares hasta demolición nuclear. Muy rápidamente se darían cuenta que, a diferencia de los escenarios de destrucción total, podían utilizar los efectos secundarios de las explosiones nucleares a gran altura para bloquear en un área considerable las comunicaciones tanto de radio como satelitales del bando contrario. Es así que la Unión Soviética y los Estados Unidos comenzaron a detonar bombas nucleares cada vez a mayor altura. La mayoría de estas pruebas tuvo lugar entre 1958 y 1962, y si bien en un principio se trató de pruebas atmosféricas, rápidamente comenzaron a detonarse armas nucleares en el espacio para determinar su utilidad en la destrucción de satélites. Una de estas pruebas fue la Starfish Prime, llevada a cabo en julio de 1962 por los Estados Unidos, en la cual un misil Thor transportó una bomba termonuclear W49 a 400 kilómetros de altura sobre la isla de Johnston en el océano pacífico y detonó el dispositivo con un rendimiento de 1,4 megatones.

La anterior fue la prueba nuclear más poderosa alguna vez llevada a cabo en el espacio, la misma causó la destrucción de dispositivos electrónicos en varias islas del océano Pacífico, sobretodo en Hawaii, desactivando el sistema telefónico de las islas, destruyendo cientos de lámparas del alumbrado público y miles de televisores. Sin embargo, los daños más costosos ocurrirían tiempo más tarde, ya que Starfish Prime creó un cinturón artificial de radiación mucho más intenso de lo esperado y el cual cruzaba las órbitas de los satélites Ariel, TRAAC, y Transit 4B, los cuales quedaron inoperables, y los satélites Cosmos V, Injun I y Telstar 1 los cuales sufrieron varios tipos de daños menores. Según los estudios del físico de la NASA Wilmot Hess el cinturón duró unos cinco años antes de ser disipado por el campo magnético terrestre, y la razón por la cual la explosión tuvo dicho efecto inesperado fue el que nadie pudo prever que electrones de alta energía podían quedar atrapados en la termopausa, el límite superior de la termosfera terrestre. Debemos tener en cuenta que lo anterior tuvo lugar en 1962, cuando la cantidad de satélites en órbita era muy reducida, de hecho el satélite de la Bell Labs dañado a causa de ésta prueba, el Telstar 1, fue el primer satélite de telecomunicaciones comercial en existencia. Si Starfish Prime hubiese sido llevada a cabo en los últimos veinte o treinta años los daños económicos y políticos hubiesen sido catastróficos e irrecuperables. Peor aun si tenemos en cuenta que la Estación Espacial Internacional y su tripulación se encuentra a ~410 Km de altura.

En el caso de los Estados Unidos sabemos que se hicieron 3 detonaciones a gran altura durante el programa Operation Argus, el cual buscaba crear cinturones de radiación para impedir las telecomunicaciones rivales; y 31 detonaciones a gran altura, 5 de éstas espaciales, como parte del programa Operation Dominic el cual se subdividió en subprogramas específicos como Operation Fishbowl (todas éstas pruebas espaciales).

Por fortuna las pruebas también tuvieron un efecto positivo, ya que ambas súperpotencias se dieron cuenta de que no podían continuar desafiándose unas a otras con detonaciones nucleares espaciales sin llegar a sufrir un efecto colateral no deseado y muy costoso en el futuro. Ésto llevó a que se firme el Tratado de prohibición parcial de ensayos nucleares en 1963, poniendo un fin a éste tipo de ensayos.

El efecto pecera
La razón por la cual la operación Fishbowl (pecera) se llamó de dicha manera no es aleatoria. Sino que se debe al fenómeno por el cual las explosiones nucleares forman esferas en el espacio. De ésto ya hemos hablado anteriormente.

Cuán lejos está la estrella más caliente del universo de la mayor temperatura físicamente posible

La estrella considerada como la “más caliente del universo” ha cambiado veces en los últimos años, sobretodo a medida que nuevos radiotelescopios han sido puestos en funcionamiento. Actualmente Eta Carinae ubicada constelación de la Quilla es considerada como la estrella con la mayor temperatura de superficie del universo conocido, la misma posee un radio unas 180 veces mayor al radio de nuestro Sol y una temperatura en su superficie que va entre los 36.000 y 40.000 Kelvin (o unos 35.726,85°C a unos 39.726,85°C). Para darnos una noción de las cifras con las que estamos trabajando, la temperatura de superficie de nuestro sol es de unos 5.777K, es decir, 5.503,85°C. Si bien podemos llegar a creer que Eta Carinae es la estrella más grande conocida, esto no es así, ya que la más grande es VY Canis Majoris, con un radio unas 2000 veces mayor a la de nuestro Sol. Eta Carinae es una estrella de clasificación espectral O, sólo un 0.00003% de las estrellas en el universo corresponden con éste tipo.

Ahora queda preguntarnos, por qué entonces no es VY Canis Majoris la estrella con la mayor temperatura del universo, la respuesta tiene que ver con su conformación. VY Canis Majoris es una estrella roja hípergigante con una masa solar que se estima está entre los 17±8 M☉ (1 M☉ equivale a nuestro Sol), mientras que Eta Carinae es una hípergigante, hípermasiva azul con una masa que se estima está entre los 30M☉ a los 80M☉. Las estrellas azules son estrellas masivas y mucho más densas, por lo que queman su material mucho más rápido que las estrellas rojas y se consumen de manera mucho más rápida, generando niveles de temperatura muchísimo mayores pero, como consecuencia, muriendo muy rápido en comparación y de manera violenta al convertirse en súpernovas (aunque ciertos modelos actuales predicen que Eta Carinae muy posiblemente se convierta en un agujero negro). De hecho, el color visible de las estrellas es un fenómeno físico que viene dado precisamente por la temperatura de su superficie.

La mayor temperatura físicamente posible

Entonces nos queda preguntar, qué tan lejos está la temperatura en la superficie de Eta Carinae de la mayor temperatura posible. La respuesta es mucho, muchísimo. La mayor temperatura teórica que los modelos actuales soportan es la denominada como Temperatura de Planck. Ésta temperatura representa un límite fundamental ya que en éste punto la fuerza gravitacional se vuelve tan fuerte como las otras fuerzas fundamentales. En otras palabras, es la temperatura del universo durante los primeros picosengundos del Big Bang. Su valor: 1,417×1032 K (un poco menos si se tiene en cuenta la teoría de cuerdas).

Pero las estrellas quizás no sean la mejor opción de comparación, ya que hay objetos muchísimo más calientes que una estrella como la formación del núcleo de neutrones de una súpernova tipo II, que puede alcanzar 10×104 K. Sin embargo, la temperatura más alta alguna vez generada ocurrió en la tierra, en el LHC, Gran colisionador de hadrones, más precisamente en el detector ALICE diseñado para estudiar colisiones que producen plasma de quarks-gluones. El experimento en cuestión tuvo lugar en el 2010 cuando los científicos del acelerador de partículas colisionaron los núcleos de átomos de oro. La temperatura alcanzada fue de unos 5,5×1012 K

Arriesgando la vida para probar las máquinas voladoras de Leonardo da Vinci

En el año 1010, siglos antes que Leonardo da Vinci naciera, Eilmer de Malmesbury un monje obsesionado con la historia de Dédalo e Icaro, pasó estudiando durante años el vuelo de los pájaros. Convencido de que ya había logrado descifrar los secretos del vuelo (y de hecho lo hizo) construyó un ala rígida, se subió al campanario de su monasterio y saltó al vacio, logrando planear por casi 300 metros y saliendo casi ileso, sólo se quebró una pierna. De ésta historia ya hemos hablado en detalle en éste artículo.

Incluso siglos antes de que Eilmer de Malmesbury se arrojara al vacío, Abbás Ibn Firnás, otro hombre interesado en la ciencia del vuelo, pero esta vez en Córdoba, España y en el año 875, ideó el primer paracaídas funcional de la historia el cual también tenía elementos de parapente. Tenía 65 años y tras confeccionar un armazón de madera recubierto en seda con un volumen interior para capturar aire se subió a una torre y se arrojó al vacío ante una multitud que él mismo había invitado. Firnás logró permanecer en el aire durante varios minutos, y si bien al tocar tierra se quebró las dos piernas, el intentó fue todo un éxito. El intrépido inventor siguió arrojándose en sus paracaídas/parapente hasta bien pasados los 70 años.

Pero lo anterior no quita merito a Leonardo, ya que es casi imposible que el florentino más famoso contara con información alguna sobre éstos dos hombres. Además, el trabajo de Leonardo, realizado principalmente durante su estadía en Milán, fue mucho más científico y se enfocó en el concepto de resistencia del aire. Además Leonardo no se contentó con simplemente sobrevivir a la caída, Leonardo quería controlar sus máquinas, y el mayor trabajo fue justamente en diseñar los sistemas de control de vuelo. En fin, Leonardo nunca pudo probar sus invenciones, pero gracias a valientes modernos que las construyen al pie de la letra y las prueban poniendo en riesgo su propia vida, vemos que sí, en efecto, muchas de las máquinas voladoras del renacentista más famoso funcionan. Más importante aun es que gracias a los meticulosos documentos que el florentino mantuvo durante su vida, contamos con planos para reconstruir dichas invenciones.

El planeador híbrido

El planeador de da Vinci es un concepto muy interesante, ya que no es un planeador per se sino que se trata de un parapente con elementos de paracaídas (y en el video esto se puede ver perfectamente), y además posee una cola para poder controlar la dirección del vuelo. El mismo fue diseñado a partir del milano, un ave rapaz muy común en Italia.

El paracaídas

Construido y probado pro Olivier Vietti con la ayuda de Eric Viret y Eric Laforge ésta es una réplica exacta del paracaídas piramidal ideado por el florentino. Una prueba de bastante riesgo ya que los diseñadores del mismo buscaron ser fieles a la época de Leonardo y utilizaron materiales como disponibles en Florencia durante el siglo XVI.

La fase más peligrosa de la prueba no es el tramo de descenso de la caída en si, sino la abertura del paracaídas. Al estar construido con un armazón rígido, si por alguna razón el paracaidista hubiese llegado a desestabilizarse éste corría el riesgo de haber quedado enrollado entre las cuerdas, lo que le hubiese impedido liberar el paracaídas secundario y moderno que llevaba por seguridad.

Lo bueno de éstos dos hombres es que probaban ellos mismos sus invenciones, a diferencia de Jean Pierre Blanchard, quien utilizaba perros para probar sus diseños de paracaídas en el siglo XVIII.

Artículos relacionados
El sello que protegió la tumba de Tutankamón durante 3.245 años.
El mecanismo de Antiquerra, la computadora más antigua de la historia.
Sagami, el festival japonés donde remontan cometas de 1 tonelada.
La Montgolfière, el primer vuelo humano de la historia.

Cómo los Laboratorios Bell lograron “fotografiar el sonido”

En 1954 y con el fin de estudiar la propagación del sonido y los fenómenos ondulatorios, los Laboratorios Bell, institución prácticamente legendaria ya que ha sido responsable en gran parte por haber inventado infinidad de las tecnologías que hoy damos por hechas en el siglo XXI, dispuso de un grupo de cinco científicos e ingenieros bajo la dirección de Winston Kock (quien años más tarde se convertiría en una de las figuras más importantes en la historia de la NASA) con la tarea de lograr capturar visualmente de las ondas sonoras y su propagación. Éstos investigadores eran parte del Laboratorio Volta, subdivisión de la Bell Labs especializada en el estudio del sonido.

Tras varias pruebas y prototipos los investigadores desarrollaron un dispositivo que lograba la tarea que se les había sido encomendada a la perfección, más importante aun, el mismo era elegante: originalmente denominado como la lente acústica (no confundirse con las lentes acústicas utilizadas para enfocar el sonido en ciertos tipos de parlantes, éstas también fueron inventadas por los Laboratorios Bell), y posteriormente renombrado como el refractor de ondas sonoras. Éste aparato consistía de de dos partes, un parlante tipo bocina para producir el sonido, y el sistema de captura y conversión de las ondas sonoras en luces de distinta intensidad. Éste último a su vez se subdividía en una varilla de aluminio que vibraba al ser expuesta a las ondas sonoras y un micrófono que capturaba el sonido en si, las señales captadas por ambos sensores eran entonces codificadas en distintas tensiones de voltaje y a través de otro circuito se alimentaba a una lámpara de neón utilizando esas tensiones.

Dicha lámpara fue especialmente diseñada para este propósito por los ingenieros de Bell, y era la parte más compleja del dispositivo, ya que podía variar en su intensidad, apagar y prenderse y variar los ángulos de refracción varias veces por segundo, siendo además capaz de producir distintas intensidades de brillo en distintas áreas de su superficie en simultáneo. El efecto generado por la misma puede verse claramente en la imagen cabezal.

La importancia de esta investigación es que permitió visualizar ondas sonoras propagándose en el espacio, todos los intentos anteriores, como el realizado de manera pionera por Joseph Norman Lockyer 1878, lo hacían en el plano.

El vehículo de tierra rápido de la historia

Construido por la NASA este trineo deslizador impulsado a cohete (no tenía ruedas sino una base similar a dos perfiles U) alcanzó una velocidad de mach 8,5 es decir, unos 10.325 kilómetros por hora en la base Holloman. La base Holloman no es cualquier otra base, en la misma tienen el dispositivo de pruebas de alta velocidad más elaborado y avanzado del mundo, el cual puede simular lluvias, útil para probar como lás cabinas de los aviones supersónicos de la USAF van a reaccionar mientras viajan a velocidades supersónicas bajo la lluvia, e incluso un sistema de amortiguadores acuáticos cuando el vehículo en cuestión se desea recuperar intacto. Esta pista es básicamente un sistema de rieles diseñado en parte por el mismo John Stapp. Durante los últimos años la base añadió otro sistema de rieles, éste ultimo de tipo maglev, para pruebas hipersónicas (velocidades superiores a mach 5).

Nota: La base Holloman ha probado otro vehículo un poco más rápido que el anterior, el cual superó a la prueba de la NASA por unos pocos km/h (relativamente nada en comparación). No obstante, el material filmográfico del mismo es muy escaso y de mala calidad.

El hombre que sobrevivió a una desacelaración de 214g y el hombre que lo hizo posible

Kenny BräckKenny Bräck es un piloto sueco que antes de retirarse participaba en distintos circuitos de Indy, CART e Indianapolis. Fue en uno de estos torneos en los cuales sufrió el peo accidente de su carrera, el cual no sólo es el peor en su historia pero además considerado como el peor accidente en la historia del automovilismo. Este fue en el año 2003, en la Texas Motor Speedway, su vehículo trabo sus ruedas con el conducido por Tomas Scheckter y en cuestión de milissegundos ambos autos quedaron destruidos. El de Scheckter sufrió el menor daño, ya que continuo contra el borde de la pista, p3ro el de Bräck comenzó a girar como un trompo, desintegrándose en el proceso.

Galileo ProbeDurante ese trompo descontrolado, Bräck sufrió múltiples desaceleraciones, incluído un pico de 214g (1g es igual a la aceleración de la gravedad, 9,8m/s²), algo terrible. Para darnos una idea, la Galileo Probe, la mini sonda experimental que se desprendió de la nave sonda Galileo en 1995 y entró a la atmósfera de Júpiter a unos 47 kilómetros por segundo, al impactar contra la atmósfera sufrió una desaceleración de 230g, y la fricción fue tal que su escudo termal de 152 kilogramos perdió 80 kilogramos durante el ingreso. La sonda luego desplegó su paracaídas y durante 58 minutos transmitió a su nave madre las lecturas del interior de Júpiter, un verdadero infierno.

Ilustración de la Galileo Probe

El hombre que lo hizo posible
John StrappBräck no tendría que haber sobrevivido a semejante colisión, pero lo hizo, con fracturas múltiples y 18 meses de terapía, pero lo hizo, y lo hizo gracias a otro hombre: el coronel John Stapp, un médico, cirujano de vuelo y biofísico de la Fuerza Aérea de los Estados Unidos quien dedicó su vida al estudio de la desaceleración en los pilotos. Strapp también trabajaría, tras retirarse de la fuerza aérea en la NHTSA (National Highway Traffic Safety Administration), estudiando los efectos de las colisiones y la desaceleración en los conductores.

Strapp es un héroe silencioso, ya que a pesar de no ser conocido es quizás responsable de haber salvado cientos de miles de vida, y eso no es una exageración. A finales de los años 40, y con el fin de no arriesgar la vida de sus pilotos, se ofreció como voluntario para llenar su cuerpo de sensores y someterse a violentas desaceleraciones, estudiando además las reacciones mecánicas del cuerpo. La información recogida de éstas pruebas sería fundamental para la creación de los crash test dummies, los maniquíes de pruebas de choque.

En 1954 realizaría su más peligrosa prueba, tras la misma quedaría temporalmente ciego. Esta prueba, para la cual se debió atar a un trineo impulsado a cohete, sirvió para re-diseñar los arneses de seguridad y los asientos del piloto para proteger el cuello y evitar un paro cardíaco al sufrir presión extrema en el pecho por parte del cinturón de seguridad sujetando al piloto. Parte de estos hallazgos brindarían información para la creasion de los HANS Devices (Head And Neck Support Device), o en español: Soporte para cabeza y cuello, que salvan incontables vidas en pilotos de carrera y de aviones.

Los datos recolectados sirvieron para la creación de los maniquíes de pruebas modernos, tanto los efectos físicos sufridos por la victima así como varios rediseños y nuevos conceptos de seguridad que no eran considerados hasta ese momento.

Relacionados
– Su historia nos recuerda a Joseph Kittinger, otro arriesgado hombre que recolectó datos imprescindibles para la ciencia.

– Para más información sobre Strapp ver: La bala humana

La estrella más pequeña del universo

Si bien hallar la estrella más grande del universo conocido es garantía de salir en todos los periódicos, y ésto es algo que ocurre seguido ya que constantemente se hallan estrellas cada vez más grandes, hallar la estrella más pequeña es algo quizás no tan glamuroso pero si mucho más interesante, justamente por el hecho de que la enormidad y el gran tamaño son características definitorias de las estrellas. Por lo tanto, que mejor que hallar lo menos dentro de lo más.

2MASS J0523-1403, una pequeña gigante
La misma es, por supuesto, una enana roja, es decir, una estrella de secuencia principal, relativamente de “poca” temperatura, no más de 4000 Kelvin, y una masa y diámetro inferiores a la mitad de nuestro propio sol.

2MASS J0523-1403

Si bien el universo está iluminado por millones de enanas rojas, de hecho son el tipo más común de estrellas en la Vía Lactea componiendo 3/4 de las estrellas halladas en la misma, una de de ellas, 2MASS J0523-1403, es la más pequeña que se conoce. Con un radio solar de 0,086 unidades (unos 59,8 mil km), no sólo es más pequeña que Júpiter y Saturno, y sólo un poco más grande que Neptuno, sino que es además considerada como el límite mínimo al cual puede llegar una estrella antes de dejar de serlo. La misma es muy poco visible, su temperatura es de uno 2074K y su luminosidad solar es de unas 0,000126 unidades. De hecho, es tan pequeña y “poco” caliente que los investigadores dudaron al principio si se trataba de una enana marrón joven (objetos a medio camino entre planetas y estrellas, es decir, muy masivos para ser planetas por lo que inician un proceso de fusión nuclear pero poco masivos para ser estrellas por lo que se terminan “apagando” muy rápidamente). Por lo cual se la considera como el patrón de la estrella más pequeña posible, debido a que si fuese más pequeña simplemente dejaría de ser una estrella.

OGLE-TR-122b
OGLE-TR-122bOGLE-TR-122b es otra estrella pequeña famosa, debido a su parecido en tamaño y forma con Júpiter. Con un radio solar de 0,12 unidades (unos 167 mil km), es una estrella tan diminuta que es apenas un 19% más grande que Jupiter y de hecho más pequeña que muchos planetas extra-solares. Como por ejemplo HD 106906b unas 11 veces más grande que Júpiter.

Levitando objectos con ondas acústicas

Levitación acústicaSi bien la levitación acústica, que fue postulada hace ya mucho tiempo pero por limitaciones tecnológicas sólo se pudo realizar en las últimas décadas, primero se utilizó para levitar objetos pequeños, casi invisibles, y luego en la industria para la fabricación de cierto tipo de circuitos integrados para evitar el contacto con obleas de silicio durante el ensamblado, en los últimos años distintos grupos de investigadores la están llevando al límite; no sólo simplemente manteniendo el objeto en el aire, sino que además desplazándolo de manera controlada, haciéndolo rotar y controlando múltiples objetos independientemente unos de otros.

El método más avanzado en la actualidad es el desarrollado por los investigadores del Argonne National Laboratory, con el cual no requieren de una cámara sellada y son además capaces de hacer levitar pequeños seres vivos sin dañarlos. Su intención es desarrollar nuevas herramientas para la investigación y producción de medicamentos.


Este innovador método utiliza transmisor (abajo) y un reflector (arriba) para producir y flectar ondas acústicas a distintas velocidades creando distintas áreas de presión adyacentes al objeto que lo pueden mantener y moverlo en el aire.

Recopilación de distintas técnicas
El siguiente video es una compilación de varios experimentos modernos con levitación acústica.

Los experimentos de la NASA
La NASA, por ejemplo, la utiliza para simular en Tierra ciertos fenómenos de micro gravedad en el espacio.


En este video vemos un experimento de la NASA utilizando una cavidad de resonancia Helmholtz, tres parlantes y una guía de onda (una estructura muy común en las telecomunicaciones que sirve para guiar ondas electromagnéticas). Posteriormente una onda acústica de 600hz es utilizada y mediante complejos cambios en la amplitud y la relación de fase de los parlantes se logra no sólo levitar sino controlar en el espacio múltiples objetos.

Derritiendo acero con el poder de la luz solar


El siguiente es uno de los videos más interesantes que pude ver últimamente. Se trata de un fragmento del programa Big Ideas de James Mays en el cual James visita a Richard Diver, uno de los expertos de mayor renombre en el campo del estudio y la aplicación práctica de la energía solar, para ver su horno de luz solar. Este dispositivo tan llamativo y ciertamente interesante logra atrapar y concentrar radiación solar en un punto focal a partir de una serie de espejos reflectantes ordenados en una configuración parabólica. Punto focal que es a su vez lente de Fresnel, dispositivo que concentra aun más la luz solar utilizada logrando así generar temperaturas de más de 2400ºC sobre los distintos objetos en los se enfoque el rayo.

La madre de todos los hornos solares

Centro de investigación de Odeillo

No obstante, si de hornos solares hablamos el hallado en Odeillo, sureste de Francia, es ciertamente el más avanzado y espectacular de todos. Operado por el Centre national de la recherche scientifique ésta maravilla de la ingeniería es capaz de realizar experimentos de impacto térmico con una potencia térmica de 1000kW, y, en su fase final, puede crear rayos capaces de calentar objetos a más de 3500ºC. El dispositivo se basa en una primera fase que consiste en una fila de espejos con capacidad de orientación dinámica que atrapan la radiación solar y la trasmiten a una segunda fase denominada fase de concentración. Ésta segunda fase es en si misma un gigantesco refractor parabólico, muy similar, aunque mucho más costoso y más grande, al construido por el doctor Richard Diver. La energía capturada por éstos espejos es concentrada y redirigida a una tercera fase en la cual una serie de poderosos rayos de luz solar convergen en la zona superior del edificio para ser concentrados una vez más mediante la utilización de un complejo objetivo circular de 40 centímetros de diámetro, obteniendo gracias a ésto rayos de gran poder los cuales pueden ser enfocados y distribuidos utilizando distintos dispositivos ópticos y así poder realizar una gran variedad de experimentos.

El centro puede ser fácilmente visto desde el aire:


View Larger Map

El efecto Kopp-Etchells

Uno de los principales problemas logísticos sufridos por las fuerzas estadounidenses y británicas en los comienzos de la guerra en Afganistán fue el increíble y acelerado nivel de erosión que causaba la arena en las palas de los rotores de helicópteros de transporte al despegar y aterrizar muy frecuentemente. Como el dejar de aterrizar en lugares con arena no era opción y las soluciones previas a éste problema no eran suficiente, la perspicacia de los ingenieros llevaría a desarrollar una solución tan ingeniosa como simplista.

Efecto Kopp-Etchells

Ésta nueva solución ampliaba sobre una ya existente, y consistió en dotar las palas con láminas abrasivas hechas a partir de titanio y níquel. Éstas láminas abrasivas, al chocar contra varios miles de los granos de arena circundantes, llevan a generar un efecto piezoeléctrico. Efecto que tiene lugar cuando tras el fuerte impacto los cristales de cuarzo en los granos se comprimen rápidamente polarizándo su masa y causando una diferencia de potencial entre las cargas electrostáticas de su superficie. Inmediatamente éstos campos se descargan sobre los cristales vecinos llevando a que varios miles de granos estallen y logrando de ésta manera limpiar o barrer el área circundante a las palas del grueso de la arena. Así mismo y a su vez, debido a lo impactos ocurren varios fenómenos triboeléctricos -electrificación causada por el frotamiento entre distintos materiales con distintos niveles de aspereza superficial-
Efecto Kopp-Etchells

El efecto fue nombrado a partir de Benjamin Kopp y Joseph Etchells, dos miembros de las fuerzas estadounidenses y británicas que estudiaron el fenómeno durante el año 2009. Si bien el mismo es muy visible a simple vista, sobretodo por la noche, es extremadamente difícil su captura en fotografías y videos debido a los tiempos de exposición necesarios -sobretodo con cámaras digitales-. Las fotografías aquí mostradas fueron tomadas por el corresponsal de guerra Michael Yon, quien asombrado por el fenómeno se valió de lentes especiales con amplificación nocturna.
Efecto Kopp-Etchells

Von Braun y su atrevido plan para llegar a Marte en 1982

Wernher von BraunWernher von Braun fue ciertamente una de las pocas personas en la historia de la humanidad a las cuales el calificativo de genio le queda corto. Padre de la cohetería moderna y cuyo trabajo no sólo permitió poner a más de una decena de hombres en la Luna, sino además a partir de quien continúan basándose prácticamente todos los diseños de sistemas modernos capaces de poner personas en órbita -recordarán como Sergey Korolyov, otro genio absoluto de la ingeniería, debió de estudiar los planos alemanes capturados por los soviéticos durante la Segunda Guerra mientras se encontraba cautivo viviendo en condiciones infrahumanas en Sharashka, la prisión para genios de la Unión Soviética, y desde la cual comenzó a imaginar su histórica Soyuz. Nave de la cual, tras el inminente retiro del transbordador, dependerá por completo la Estación Espacial Internacional-

Plan de cuatro etapas
(Aquí vemos detalladas las etapas de lanzamiento y ensamble de las fases)

Si bien von Braun entendía perfectamente que tras la llegada a la Luna la carrera espacial se enfriaría y aletargaría considerablemente como mencionó en varias oportunidades, nunca imaginó que la misma, que supo inspirar a decenas de millones de personas en el mundo a interesarse por la ciencia y la ingeniería y de la cual se desprenden gran parte de los avances tecnológicos modernos, sería reducida por el gobierno estadounidense al nivel de un mero gasto público más cuyo presupuesto se aprueba año a año cada vez con mayor renuencia. Razón por la cual incluso antes de finalizar con el Programa Apolo el ingeniero pródigo ya se encontraba trabajando en un plan para llegar a Marte. Plan que resumiría en un libro: Project MARS: A Technical Tale -el cual pueden conseguir en cualquier tienda en-línea de venta de libros.

El módulo de exploraciónSu ilusión sobre la posibilidad de tal proyecto pareció convertirse en realidad cuando Spiro Agnew, entonces vice-presidente de los Estados Unidos, le encomendara realizar en treinta días una presentación sobre una posible misión a Marte para 1982/86 a ser presentada durante la reunión de la Space Task Group el 4 de agosto de 1969. Reunión en la que se reunirían científicos e ingenieros con senadores, congresistas y el mismo presidente de los Estados Unidos, Richard Nixon, para discutir sobre la viabilidad del proyecto. Emocionado con esto, von Braun rápidamente volcaría sus ideas, ya mucho más avanzadas que las sugeridas en Poject MARS, asistido a su vez por William Lucas, Ron Harris y Gene Austin -todos legendarios miembros de la NASA- en una serie de diapositivas describiendo el proyecto de la manera más simple posible.

Sus nuevos diseños eran mucho más avanzados no sólo estructuralmente, sino que ahora los cohetes estarían compuestos por cuatro etapas alimentadas por energía nuclear que, debido a su colosal tamaño, debían ser lanzadas por separado y luego unidas en órbita antes de comenzar el viaje. Esto, obviamente, un requerimiento de la misión ya que debido a la distancia del Planeta rojo y el tiempo de viaje requerido los astronautas no pasarían sólo unas horas en la superficie marciana como durante los viajes a la Luna, sino que deberían permanecer durante meses hasta que las posiciones orbitales de Marte y la Tierra sean las adecuadas para emprender el viaje de regreso.

Interior de la nave

El Programa Integrado
El Plan Integrado a largo plazoLa genialidad de este programa no era la nave ni los módulos en si mismos, sino su exhaustiva visión y extensión. Von Braun y sus colaboradores vieron el talón de Aquiles del Programa Apolo: si bien una maravilla de la ingeniería, era un proyecto condenado por su aislamiento. Una vez cumplida la misión, y como es que efectivamente ocurrió, todo terminaba. Para solucionar esto, y así comenzar no sólo una misión para llegar a Marte sino formalizar un programa espacial verdadero, exhaustivo y a largo plazo, crean el Programa Integrado. Éste programa además de intentar poner seres naves del Programa Integrado de von Braunhumanos en Marte integraba tanto la creación de toda una infraestructura, tanto terrestre como espacial, junto a la creación de subprogramas científico-tecnológicos para lanzar así a la humanidad a una nueva era de exploración y avance científico continuo. Desde misiones robóticas hasta bases y centros de investigación inter-relacionados iban a permitir, de haberse escuchado a éstos científicos, una tasa de cién misiones anuales para 1980 y una población permanente de más de 250 personas trabajando en alguna de las bases y naves entre la Tierra, la Luna y Marte para 1990. Si bien en el devaluado 2010 esto parece un número astronómico, el programa también comprendía el subsecuente abaratamiento de costos y la mayor disponibilidad de partes y nuevas tecnologías producto no sólo de los grandes números de misiones sino además del provecho económico y científico traído por las mismas.

Desafortunadamente, y si bien durante esa reunión hubo grandes discursos y varias promesas, la patética falta de visión y el poco interés por el progreso científico por parte de los políticos pudo más, y hoy, más de cuarenta años después, debemos agradecer que al menos se puede tener una estación espacial con una tripulación de menos de diez personas y un futuro muy incierto orbitando nuestro frágil planeta azul.