Tag Archives: Ciencia

Las tierras del sol de medianoche, las regiones terrestres donde el sol brilla durante la noche

En el planeta Tierra existen lugares fascinantes que, debido principalmente a su ubicación geográfica, presentan características climáticas sorprendentes e imposibles en otras regiones. En Anfrix ya habíamos hablado del lugar de la tierra en el que no llueve desde hace más de 2 millones de años, los siguientes son igual de llamativos: las tierras del sol de medianoche.

Estos puntos terrestres se denominan de dicha manera debido a que durante el atardecer el sol en vez de desaparecer en el horizonte permanece sobre el mismo durante toda la noche, y se da solamente en los círculos polares durante sus respectivos veranos cuando la inclinación del eje de giro de la Tierra con respecto a la posición orbital exponen a uno de los polos a recibir luz solar constante. La duración del fenómeno disminuye en su duración a medida nos alejamos del polo en cuestión.

El siguiente vídeo demuestra de manera acelerada varios días y noches con un sol que nunca está en ocaso en el circulo polar ártico.

Si bien el fenómeno ocurre tanto el circulo polar ártico como en el circulo polar antártico, es en el primero, debido a los asentamientos humanos que lo experimentan desde tiempos inmemoriales, donde el Sol de Medianoche posee un valor cultural de gran importancia. Las distintas culturas nativas en el norte de Alaska, Islandia, Noruega, Suecia, Canadá y Finlandia poseen distintos festivales en torno a este evento. De todos estos lugares es en la remota isla noruega de Svalbard, ubicada a unos 700 kilómeros al norte de dicho país y con una población de aproximadamente 2600 habitantes, donde el fenómeno es parte de la vida cotidiana de sus habitantes ya que el mismo empieza el 19 de Abril y termina el 23 de Agosto. Durante estos meses el sol permanecerá constantemente en el cielo, elevándose durante el día y acercándose al horizonte durante la noche pero nunca desapareciendo en el mismo, sino que durante la noche recorrerá el horizonte como si caminase sobre el mismo para luego elevarse al día siguiene.

Si bien es en la ya mencionada Svalbard, misma isla donde también se encuentra la Bóveda Global de Semillas, el lugar poblado donde el fenómeno se prolonga durante la mayor extensión de tiempo, en otras regiones pobladas más al sur donde el Sol de Medianoche dura una menor cantidad de meses o sólo unas pocas semanas también se recibe al mismo con una variada y rica gama de festivales y tradiciones que se fueron generando a lo largo de los siglos. Un ejemplo es el festival de Harstad, donde se recibe la llegada del Sol de Medianoche con eventos musicales, comida, bailes y festejos. En Alaska los esquimales asocian a este fenómeno con varias creencias y mitos así como un período de abundancia y bienestar.

Ingresando a la cámara magmática de un volcán islandés

Si por algo es famosa Islandia es por sus volcanes, poseyendo docenas de los mismos divididos en cuatro zonas volcánicas y experimentado en promedio una erupción cada cinco años. Quizás la más famosa de todas en la memoria reciente fue la serie de erupciones del volcán Eyjafjallajökull, las cuales tuvieron lugar en el 2010 largando 75 toneladas de cenizas y piroclasto por segundo y literalmente causando un caos global debido a la innumerable cantidad de vuelos cancelados por todo el hemisferio norte.

Þríhnúkagígur, que en español puede traducirse como “el cráter de los tres picos”, es uno de los tantos volcanes de la isla. Su característica particular y especial interés es que su cámara magmática, el repositorio de roca fundida encerrada a presión de un volcán, no está sellada y por alguna razón que se desconoce al momento la misma se ha vaciado sin que este entre en erupción. El mismo está ubicado en las cercanías de la capital islandesa, Reykjavik, y su hallazgo ha presentado una oportunidad única a geólogos de todo el mundo para estudiar un aspecto de los volcanes que generalmente está fuera del alcance de los investigadores.

Esta anomalía fue descubierta por Árni Stefánsson, un doctor aficionado al montanismo y la exploración de cavernas que en 1974 encontró un “cráter” que le causó particular interés. Al llegar al borde de lo que parecía ser un profundo pozo, primero intentó apuntar con su linterna hacia el suelo del mismo, esperando así determinar su profundidad. No obstante, para su sorpresa el pozo era tan profundo que no logró ver nada y al arrojar una roca pasaron varios segundos hasta que escuchó muy a lo lejos el ruido producido por la misma al golpear el suelo.

Incluso con la ayuda de sus hermanos, también aficionados al montanismo y la exploración de cavernas, le llevaría varios meses preparar la primer expedición al fondo del pozo, y durante todo ese tiempo, según sus palabras, soñó con encontrar ríos de lava y formaciones rocosas extrañas. Sin embargo, una vez en el fondo se decepcionaron al no encontrar ni ríos de lava ni formaciones particulares. Los que no se decepcionarían fueron los científicos del departamento de ciencias terrestres de la Universidad de Islandia, quienes al ver las fotografías rápidamente se dieron cuenta que se trataba de una cámara magmática que, por alguna razón, estaba completamente seca.

Tras décadas de investigación en el 2012 la cámara fue abierta al turismo, y una serie de construcciones entre las que se incluyen un elevador que sube y baja a los visitantes a lo largo de los 120 metros de profundidad de la cámara así como varias pasarelas de metal para recorrer el interior de la estructura.

La cautivadora belleza de las solarigrafias

La solarigrafia es una técnica de fotografía de larga exposición en la cual se imprime en papel fotográfico las distintas trayectorias del sol a través del cielo durante las estaciones del año. Para la misma generalmente se suelen utilizar cámaras de tipo estenopeicas, es decir sin lente y un cuerpo el cual consta de una caja de estanco con un orificio o estenopo por el cual ingresa la luz quedando plasmada en un material fotosensible. En efecto un principio y mecanismo muy similar al utilizado en las cámaras oscuras, las primeras cámaras en la historia.

Tras seis meses o un año la luz que ingresa a través del orificio irá marcando en el papel fotográfico la trayectoria del sol entre sus puntos máximo y mínimo y todos los puntos intermedios entre estos. Un detalle interesante a notar es que el color de cada trayectoria es el color del cielo durante el período de tiempo de esa trayectoria en cuestión, por lo que las solarigrafias no sólo indican el trayecto del sol sino que además son una buena indicación del color del cielo durante cada período de tiempo.

Como puede observarse en la imagen hacia la derecha, las cámaras utilizadas son simples y fáciles de construir y generalmente se construyen utilizando latas. El único desafío técnico presentado por las mismas consta en calcular el diámetro óptimo del orificio o estenopo y la altura a la cual debe ubicarse la cámara para capturar los puntos máximos y mínimos de la trayectoria.

Es una técnica tanto artística como didáctica ya que permite visualizar de manera clara y sencilla la trayectoria de sol en el cielo sin necesitar de una mayor explicación.

Fotografías del solsticio
Un tipo de fotografía similar en temática pero muy distinta en su técnica son las fotografías del solsticio de verano. La técnica en si es mucho más simple y no se necesita construir una cámara especial, simplemente se toma una fotografía por hora desde las 6 AM hasta las 6 PM y luego se realiza una composición de todas las imágenes.

En esta imagen realizada en Noruega vemos al sol transitar directamente sobre el Trópico de cáncer.

Artículos relacionados
Fotografías pioneras, la primer fotografía en la Historia.

Biosphere 2, un ecosistema cerrado tan perfecto e idílico que terminó en fracaso

La adversidad muchas veces es algo necesario, algo que si es aprovechado nos servirá para aprender y formar nuestro caracter. Quizás el mejor ejemplo de ésto es lo que ocurrió en Biosphere 2, un hábitat completamente cerrado creado por la Universidad de Arizona en 1987 con el fin de servir como ecosistema de investigación y vivarium de varias especies de plantas y árboles exóticos.

Si bien en el presente se utiliza para los fines anteriormente mencionados, a principios de los años 90 la instalación sirvió para un propósito de investigación científica pura: crear el primer ecosistema completamente cerrado. Desde los nutrientes hasta el oxigeno, la humedad y demás recursos serían creados y reciclados constantemente utilizando las costosas y complejas maquinarias y sistemas dentro de las instalaciones del complejo. La idea original era la de crear el hábitat perfecto, todos los parámetros medidos en tiempo real por avanzados sensores y regulados por complejos sistemas de control; dándole a los vegetales en el lugar la cantidad de nutrientes perfecta y asegurando la virtual inexistencia de plagas e insectos invasivos. De funcionar, se crearía un ecosistema aislado del mundo el cual podría servir como punto de partida para el desarrollo de ecosistemas en bases inter-planetarias o incluso la preservación de las especies vegetales en caso de una catástrofe ecológica a escala global.

Así fue, al menos durante los primeros años, las plantas y árboles que crecían dentro de B2 eran más voluptuosas, más grandes en incluso abundantes que sus pares en el resto de la tierra. Ciertamente ésta serie de ecosistemas cerrados que ocupaban 1,27 hectáreas eran un paraíso en la tierra, perfecto, sin adversidades ni problema alguno.

Pero algo comenzó a ocurrir, y en un principio ninguno de los científicos entendió el por qué. Los árboles se quebraban antes de madurar cayendo a tierra sin motivo alguno. Tras buscar varias respuestas la definitiva vino del análisis de la madera y las raíces de los mismos. Al haber crecido completamente guarecidos de los vientos, éstos árboles nunca desarrollaron raíces lo suficientemente arraigadas, y la madera de los troncos y ramas carecían de las denominadas maderas de compresión y tensión. Dichas maderas son los dos tipos de tejido especial desarrollados por las plantas leñosas en sus ramas principales y deformaciones de los troncos como respuesta a los efectos de la gravedad y del viento. Generalmente la madera de tensión es más común en los árboles de madera dura, es decir las angiospermas como pueden ser los robles; mientras que la madera de compresión hace lo mismo en los árboles de madera blanda es decir las gimnospermas como las coníferas. No obstante, no es exclusivo a unas y otras y distintos tipos de madera de reacción pueden ser observados en un mismo árbol. Ambas son un tipo de madera en la cual las células del tejido vegetal se alinean de manera no vertical, permitiendo al árbol contar con un soporte extra y una mayor capacidad de torsión así como soportar las fuerzas de tensión causadas por los vientos. De hecho, en la naturaleza las plantas leñosas utilizan en parte éste tipo de manera para por alinearse mejor ante el sol y recibir mayor cantidad de luz solar en sus hojas.

Tras una serie de investigaciones los científicos de la universidad descubrirían que la razón por la cual los árboles del hábitat crecían a un ritmo mucho mayor que el resto de los árboles en el exterior se debía al hecho que no generaban los distintos mecanismos de soporte y arraigo que permiten que los árboles no sólo vivan por cientos y miles de años, sino que además resistan fuertes vientos y tormentas.

Hoy en día B2 sigue en funcionamiento, aunque ya no como un sistema completamente cerrado, sino que se ha reorientado y convertido en una reserva de especies exóticas y amenazadas.

Cuán lejos está la estrella más caliente del universo de la mayor temperatura físicamente posible

La estrella considerada como la “más caliente del universo” ha cambiado veces en los últimos años, sobretodo a medida que nuevos radiotelescopios han sido puestos en funcionamiento. Actualmente Eta Carinae ubicada constelación de la Quilla es considerada como la estrella con la mayor temperatura de superficie del universo conocido, la misma posee un radio unas 180 veces mayor al radio de nuestro Sol y una temperatura en su superficie que va entre los 36.000 y 40.000 Kelvin (o unos 35.726,85°C a unos 39.726,85°C). Para darnos una noción de las cifras con las que estamos trabajando, la temperatura de superficie de nuestro sol es de unos 5.777K, es decir, 5.503,85°C. Si bien podemos llegar a creer que Eta Carinae es la estrella más grande conocida, esto no es así, ya que la más grande es VY Canis Majoris, con un radio unas 2000 veces mayor a la de nuestro Sol. Eta Carinae es una estrella de clasificación espectral O, sólo un 0.00003% de las estrellas en el universo corresponden con éste tipo.

Ahora queda preguntarnos, por qué entonces no es VY Canis Majoris la estrella con la mayor temperatura del universo, la respuesta tiene que ver con su conformación. VY Canis Majoris es una estrella roja hípergigante con una masa solar que se estima está entre los 17±8 M☉ (1 M☉ equivale a nuestro Sol), mientras que Eta Carinae es una hípergigante, hípermasiva azul con una masa que se estima está entre los 30M☉ a los 80M☉. Las estrellas azules son estrellas masivas y mucho más densas, por lo que queman su material mucho más rápido que las estrellas rojas y se consumen de manera mucho más rápida, generando niveles de temperatura muchísimo mayores pero, como consecuencia, muriendo muy rápido en comparación y de manera violenta al convertirse en súpernovas (aunque ciertos modelos actuales predicen que Eta Carinae muy posiblemente se convierta en un agujero negro). De hecho, el color visible de las estrellas es un fenómeno físico que viene dado precisamente por la temperatura de su superficie.

La mayor temperatura físicamente posible

Entonces nos queda preguntar, qué tan lejos está la temperatura en la superficie de Eta Carinae de la mayor temperatura posible. La respuesta es mucho, muchísimo. La mayor temperatura teórica que los modelos actuales soportan es la denominada como Temperatura de Planck. Ésta temperatura representa un límite fundamental ya que en éste punto la fuerza gravitacional se vuelve tan fuerte como las otras fuerzas fundamentales. En otras palabras, es la temperatura del universo durante los primeros picosengundos del Big Bang. Su valor: 1,417×1032 K (un poco menos si se tiene en cuenta la teoría de cuerdas).

Pero las estrellas quizás no sean la mejor opción de comparación, ya que hay objetos muchísimo más calientes que una estrella como la formación del núcleo de neutrones de una súpernova tipo II, que puede alcanzar 10×104 K. Sin embargo, la temperatura más alta alguna vez generada ocurrió en la tierra, en el LHC, Gran colisionador de hadrones, más precisamente en el detector ALICE diseñado para estudiar colisiones que producen plasma de quarks-gluones. El experimento en cuestión tuvo lugar en el 2010 cuando los científicos del acelerador de partículas colisionaron los núcleos de átomos de oro. La temperatura alcanzada fue de unos 5,5×1012 K

Sustancia-N, el gas venenoso incendiario con el que los Nazis planeaban cambiar el curso de la guerra

Uno de los mayores obstáculos que debieron sortear los estrategas alemanes durante el planeamiento del avance occidental fue la Franja de Maginot, una serie de fortificaciones construidas por Francia tras la Primer Guerra con la intención de frenar a futuro cualquier intento de invasión alemana. Si bien la franja era imponente y una maravilla de la ingeniería, con sistemas de filtrado de aire, búnkers para tropas, garajes subterráneos, hileras de cañones anti-tanques y piezas de artillería protegidas por varios metros de concreto contando además con depósitos de municiones y pertrechos para durar combatiendo durante varios meses, los alemanes lograron vencerla simplemente evitándola, y cruzando a Francia a través de Bélgica sin contratiempo alguno. No obstante, antes de que esto ocurra, en los planes alemanes existieron varias “súper armas” ideadas con el fin de destruir o abrir un camino a través de la Franja de Maginot. Una de estas soluciones, por así llamarla, fue la creación de gigantescas piezas de artillería, tan grandes como un edificio. Uno de éstos monstruos, el Schwerer Gustav, pesaba 1,350 toneladas y poseía un cañon de 47,3 metros capaz de disparar un obús de 4,8 toneladas a 48 kilómetros de distancia, un arma que el mismo Gustav Krupp tildaría de “capaz de derribar montañas”.

Pero entre las súper armas alemanas se encontraba una mucho más siniestra que cualquier cañón, desarrollada en el instituto Kaiser Wilhelm el N-Stoff (Substancia-N) se trataba de un compuesto interhalógeno (molecula compuesta sólo por elementos del grupo de los halógenos) de fórmula molecular ClF3 y nombre químico Trifluoruro de cloro. Compuesto que a temperatura ambiente se existe en forma de gas corrosivo, incoloro, y de carácter extremadamente reactivo, el cual al condensarse se convierte en un liquido amarillento en extremo venenoso.

Rápidamente los científicos del instituto vieron las aplicaciones militares del mismo, y sin perder tiempo alguno el mando alemán movió todo el desarrollo y producción del gas al complejo industrial de Falkenhagen, una la fábrica de municiones y laboratorio militar subterráneo compuesto por varios búnkers y laboratorios donde el Tercer Reich desarrolló algunas de sus más escalofriantes armas secretas. El gas era ideal para ser utilizado como arma de último recurso en la Franja de Maginot, de hecho, los científicos construyeron modelos en miniatura de la misma con compresores y extractores de aire que simulaban los vientos de la región, y estudiaron en profundidad como utilizar el gas para diezmar a las tropas y operarios de artillería franceses dentro de los búnkers.

El problema, además de la peligrosidad del gas, radicaba en que su producción era extremadamente costosa, producir solamente un kilogramo de N-Stoff costaba unos 100 Reichsmark (a finales de la década del 30 encontramos que 2,5 ℛℳ se cambiaban por aproximadamente $1 dolar estadounidense (según el historiador William Breuer), si ajustamos los niveles inflacionarios, entonces: $1 dólar de 1939 equivalen a $16,89 dólares del 2016. Lo que quiere decir que producir 1 kilogramo de N-Stoff costaba unos $675,6 dólares actuales). Por dicha razón, y el hecho de que durante el principio de la guerra incluso el llegar a sugerir la utilización de armas químicas era algo tabú sobretodo después de las experiencias de la Primer Guerra, la investigación se dejó de lado.

Pero eso cambiaría en 1944, el alto mando alemán sabía que la guerra estaba perdida, por lo que varios planes desesperados comenzaron a implementarse, uno de estos fue el Vergeltungswaffe 3, un arma diseñada para convertir a Londres en escombros. Otra de estas “armas de venganza” sería el ahora resucitado N-Stoff. Altamente oxidante, altamente venenoso y reactivo con materia tanto orgánica como inorgánica, era capaz de iniciar un proceso de combustión incluso sin una fuente de ignición presente. El mismo quemaba a través de arena, asbestos e incluso concreto, y si se lo intentaba apagar con agua reaccionaba de manera aun más violenta. Peor aun, éste gas es de peligrosidad máxima, ya que es fácilmente absorbido por la piel y su residuo es también mortal, dejando prácticamente inutilizadas cualquier pieza de equipo o maquinaria con las que entre en contacto. Como si lo anterior ya no fuese poco, al ser más denso que el aire generalmente no asciende, y se mantiene al nivel de las tropas, metiéndose además por canales de ventilación o las compuertas de distintos vehículos de combate.

Afortunadamente la Sustancia-N nunca fue utiliza en el campo de batalla, ya que la problemática de su costosa producción se mantuvo como una constante, y una Alemania ya demolida por los bombardeos tanto Aliados y Soviéticos fue incapaz de producir el compuesto a gran escala. De hecho, cuando los Soviéticos capturaron Falkenhagen, encontraron que los alemanes habían sido capaces de producir unas pocas toneladas del mismo (los estrategas alemanes consideraban que para que el gas tenga un efecto en el curso de la guerra se necesitaban producir 90 toneladas mensuales)

Hoy en día el Trifluoruro de cloro se utiliza en varios procesos industriales, sobretodo en la producción de semiconductores y como componente oxidante en ciertos combustibles de cohete, aunque el difícil manejo y almacenamiento del mismo han hecho que se opte por otros soluciones de menor riesgo.

Cómo los Laboratorios Bell lograron “fotografiar el sonido”

En 1954 y con el fin de estudiar la propagación del sonido y los fenómenos ondulatorios, los Laboratorios Bell, institución prácticamente legendaria ya que ha sido responsable en gran parte por haber inventado infinidad de las tecnologías que hoy damos por hechas en el siglo XXI, dispuso de un grupo de cinco científicos e ingenieros bajo la dirección de Winston Kock (quien años más tarde se convertiría en una de las figuras más importantes en la historia de la NASA) con la tarea de lograr capturar visualmente de las ondas sonoras y su propagación. Éstos investigadores eran parte del Laboratorio Volta, subdivisión de la Bell Labs especializada en el estudio del sonido.

Tras varias pruebas y prototipos los investigadores desarrollaron un dispositivo que lograba la tarea que se les había sido encomendada a la perfección, más importante aun, el mismo era elegante: originalmente denominado como la lente acústica (no confundirse con las lentes acústicas utilizadas para enfocar el sonido en ciertos tipos de parlantes, éstas también fueron inventadas por los Laboratorios Bell), y posteriormente renombrado como el refractor de ondas sonoras. Éste aparato consistía de de dos partes, un parlante tipo bocina para producir el sonido, y el sistema de captura y conversión de las ondas sonoras en luces de distinta intensidad. Éste último a su vez se subdividía en una varilla de aluminio que vibraba al ser expuesta a las ondas sonoras y un micrófono que capturaba el sonido en si, las señales captadas por ambos sensores eran entonces codificadas en distintas tensiones de voltaje y a través de otro circuito se alimentaba a una lámpara de neón utilizando esas tensiones.

Dicha lámpara fue especialmente diseñada para este propósito por los ingenieros de Bell, y era la parte más compleja del dispositivo, ya que podía variar en su intensidad, apagar y prenderse y variar los ángulos de refracción varias veces por segundo, siendo además capaz de producir distintas intensidades de brillo en distintas áreas de su superficie en simultáneo. El efecto generado por la misma puede verse claramente en la imagen cabezal.

La importancia de esta investigación es que permitió visualizar ondas sonoras propagándose en el espacio, todos los intentos anteriores, como el realizado de manera pionera por Joseph Norman Lockyer 1878, lo hacían en el plano.

El efecto McGurk, o cómo nuestra visión puede alterar lo que escuchamos

El efecto McGurk es un fenómeno de percepción audiovisual descubierto en 1976 por Harry McGurk mientras estudiaba como los infantes procesan el habla, y que demuestra la asociación entre lo auditivo y las señales visuales. Básicamente, el fenómeno toma lugar cuando cierto sonido o fonema es a su vez asociado con una señal o indicación visual producida por otro sonido, alterando así lo que escuchamos.

En el video podemos ver a una persona vocalizando el nombre “Bill”, luego, el sonido se mantiene pero la imagen es cambiada por el mismo hombre vocalizando “Phil” (pronunciado Fil}. Si el video se mira con los ojos cerrados, se escuchará siempre el mismo sonido, no obstante, si se mira prestando atención al rostro del hombre, el sonido cambia claramente.

Este efecto tiene a su vez una influencia muy grande en la manera en la que se traducen las películas dobladas, ya que muchas veces es preferible alterar el significado del diálogo original por un nuevo diálogo que coincida con los movimientos de las bocas de los protagonistas, incluso si se pierde algo del significado original.

Si bien el efecto es simple, y hasta curioso, su importancia científica fue muy notable, ya que permitió obtener un mejor entendimiento de la integración multisensorial y cómo el sistema sensorial, la parte del sistema nervioso que procesa la información sensorial, integra distintas fuentes de información. En efecto, en los seres humanos, la percepción del habla es multimodal, para procesarla se combinan distintas entradas de información, siendo la visión un factor extremadamente importante ya que la interpretación del rostro del comunicador es fundamental para comprender su intención o estado emocional.

Desde su descubrimiento el efecto de McGurk ha sido muy útil para estudiar y diagnosticar a individuos disléxicos, quienes son menos perceptivos a dicho efecto, personas con distintos grados de autismo, sobretodo en niños quienes son casi incapaces de distinguir el efecto McGurk, y personas con Alzheimer.

Algo similar ocurre con las máscaras huecas y la esquizofrenia.

Cómo se recolectó la roca lunar más grande traída a la tierra

Sample 61016Era la misión Apolo 16, en ella viajaba a la luna uno de los mejores astronautas en la historia, Charles Duke. Su pasión por la ciencia era (y es) gigantesca. Ingeniero aeronáutico, capitán de la fuerza aérea (retirándose como brigadier general), piloto de pruebas de prototipos secretos y astronauta, básicamente uno de esos hombres con lo correcto, para ir a la luna.

Una vez en la superficie lunar Duke realizaría algunas de las pruebas más icónicas del programa, entre ellas, recolectar la muestra lunar más grande traída a la tierra: Sample 61016, o “Big Mulley” como fue apodada en honor a Duke.

South RayLa roca fue recolectada en el lado este del cráter Plum, en las Tierras Altas de Descartes. De unos 1.8 millones de años de antigüedad su origen ha sido determinado como el producto de la expulsión de material tras que un asteroide impacte con la luna. Más precisamente se ha rastreado su punto de origen al cráter South Ray, a unos 3,9 kilómetros del sitio de alunizaje del módulo lunar del Apolo 16.

La llegada a la luna
La llegada a la Luna fue quizás la mayor hazaña en la historia de la humanidad, y negar el que se llegó, como está tan de moda últimamente, es ser tan necio y ciego como negar la selección natural, básicamente cegarse a todas las pruebas y confirmaciones optando por creer las charlatanerías de gente ignorante a la ciencia y la ingeniería detrás del Programa Apolo.

En el pasado he escrito un artículo estableciendo el por qué negar la llegada a la Luna es un acto de ignorancia sobre las pruebas tanto científicas como ingenieriles y hasta las confirmaciones por parte de los soviéticos de la llegada.

La antropometría y el ingeniero que parametrizó al ser humano para que las acciones y la interacción con los objetos resulten más simples

Hombre de vitruvioDefinir la altura estándar de una puerta parece algo muy simple: hacerla lo suficientemente alta como para que pasen por la misma las personas más altas dentro de un rango razonable que acapare al 99% de la población, pero lo suficientemente baja para que sea práctica estructuralmente. Eso resulta simple de comprender; pero qué acerca de, por ejemplo, la altura de una silla en relación a un escritorio y sus cajones, ciertamente debe existir una relación matemático estadística que enlace y determine los tamaños y distancias para que dichos elementos sean cómodos como para que el promedio de los seres humanos, y sus rangos de variaciones, puedan realizar una escritura confortable sobre la superficie del escritorio como a su vez poseer un fácil y rápido acceso a los cajones del mismo sin necesidad de mover el tronco de su cuerpo, todo perfectamente al alcance de nuestros brazos; o tal vez cuando nos sentamos en un automóvil, y simplemente con un movimiento de brazos podemos tomar el ojal del cinturón de seguridad e insertarlo en la traba con un simple movimiento que tampoco requiere mover el tronco del cuerpo para la absoluta mayoría de la población adulta.

Todo esto hoy lo damos por sentado y resulta tan básico, tan elemental y dado por hecho que nunca pensamos que esto, en realidad, es el producto de siglos de mediciones y estudios. Primero desde el saber común con tablas de medidas para ciertos objetos, y luego, con la llegada de la modernidad, del diseño industrial y el estudio científico de la biomecánica humana.

Los pioneros
Tabla de medidasPrimeramente ésta ciencia empezó como una técnica, midiendo la disposición y distancia de los elementos, por ejemplo, Hipócrates dio gran importancia en la cirugía al acceso y distancia del instrumental, Taylor durante la revolución industrial presto principal atención a mecanizar movimientos cortos, simples y prácticos durante el trabajo, y ciertamente infinidad de gremios a lo largo de los siglos desarrollaron sus propias “tablas de medidas” como la que puede verse hacia la derecha, utilizada por carpinteros del mundo angloparlante para determinar el tamaño y la distancia óptimos de distintos muebles para que estos sean prácticos y convenientes.

EL ModulorNo obstante, no fue hasta la llegada del arquitecto Charles-Édouard Jeanneret-Gris, mejor conocido como Le Corbusier, en que las dimensiones y movimientos humanos se comenzaron a considerar como relaciones matemáticas aplicables. Para esto creó el Modulor, una serie de escalas antropométricas que harmonizaban las dimensiones humanas con la arquitectura. Con éste, se podían dimensionar objetos tanto arquitectónicos como mobiliarios de manera tal que posean una mayor armonía con las dimensiones y movimientos humanos. El mismo empleaba fuertemente las series de Fibonacci y, a grosso modo, el sistema partía desde la mano levantada del hombre (226cm) y desde su ombligo (113cm). A partir de la primer dimensión se suma y se resta sucesivamente en relación a la sección áurea y se obtiene la serie azul; con el mismo proceso, pero a partir de la segunda medida, se obtiene la serie roja. Esto permite obtener miles de combinaciones aplicables tanto a un simple mueble como a un edificio entero.
EL Modulor

El hombre que parametrizó al ser humano
Estudios de Henry DreyfussEl problema con el Modulor es que si bien fue un adelanto no era un estudio científico, y se preocupaba más por la estética y el arte que el rigor matemático. No obstante, esto lo solucionaría el industrial Henry Dreyfuss a mediados del siglo XX. Con éste fin publicaría en 1960 una influyente obra denominada Measure of Man: Human Factors in Design (La medida del hombre: Factores humanos en el diseño), una obra culmine del diseño industrial; en la que se interpretan las relaciones ergonómicas como si se tratase de “ingeniería humana”. La antropometría deja de ser el paradigma principal siendo reemplazada por la ergonomía, es decir, las medidas en si dejaban de importar y las relaciones de movimientos y posiciones eran los factores determinantes

Estudios de Henry Dreyfuss
Estudios de Henry DreyfussDreyfuss crearía dos modelos estandarizados Joe y Josephine, todas sus medidas no estarían determinadas por valores absolutos sino que representarían porcentajes interrelacionados, por lo que al ajustar ciertas variables los modelos podían representar personas de distintos tamaños, así como niños, personas con distintos índices de masa corporal e incluso personas en sillas de ruedas. La biomecánica jugaba un rol fundamental en dichos modelos, con las articulaciones y sus rangos de acción definidos en arcos proyectantes de gran información visual para quien emplee el modelo.

Estudios de Henry DreyfussLas dimensiones, los rangos de movimiento y rotación del cuerpo dejan de ser valores individuales y pasan a representar relaciones interdependientes, jerarquizadas. Un movimiento de la rodillas alterará los valores asignados a su respectivo pie, así como el área de acción del modelo. Más importante aun es la tabulación de valores aplicables a distintas acciones. Tablas para el modelo sentado, tablas para el modelo estático, tablas para el modelo en movimiento, etc.

Estudios de Henry Dreyfuss

Esta obra marcó un antes y un después, y ciertamente dejó por sentado que en el diseño industrial se deben adaptar los objetos a la persona y no la persona a los objetos, dando paso a los diseños altamente ergonómicos que disfrutamos hoy en día.

El hombre que sobrevivió a una desacelaración de 214g y el hombre que lo hizo posible

Kenny BräckKenny Bräck es un piloto sueco que antes de retirarse participaba en distintos circuitos de Indy, CART e Indianapolis. Fue en uno de estos torneos en los cuales sufrió el peo accidente de su carrera, el cual no sólo es el peor en su historia pero además considerado como el peor accidente en la historia del automovilismo. Este fue en el año 2003, en la Texas Motor Speedway, su vehículo trabo sus ruedas con el conducido por Tomas Scheckter y en cuestión de milissegundos ambos autos quedaron destruidos. El de Scheckter sufrió el menor daño, ya que continuo contra el borde de la pista, p3ro el de Bräck comenzó a girar como un trompo, desintegrándose en el proceso.

Galileo ProbeDurante ese trompo descontrolado, Bräck sufrió múltiples desaceleraciones, incluído un pico de 214g (1g es igual a la aceleración de la gravedad, 9,8m/s²), algo terrible. Para darnos una idea, la Galileo Probe, la mini sonda experimental que se desprendió de la nave sonda Galileo en 1995 y entró a la atmósfera de Júpiter a unos 47 kilómetros por segundo, al impactar contra la atmósfera sufrió una desaceleración de 230g, y la fricción fue tal que su escudo termal de 152 kilogramos perdió 80 kilogramos durante el ingreso. La sonda luego desplegó su paracaídas y durante 58 minutos transmitió a su nave madre las lecturas del interior de Júpiter, un verdadero infierno.

Ilustración de la Galileo Probe

El hombre que lo hizo posible
John StrappBräck no tendría que haber sobrevivido a semejante colisión, pero lo hizo, con fracturas múltiples y 18 meses de terapía, pero lo hizo, y lo hizo gracias a otro hombre: el coronel John Stapp, un médico, cirujano de vuelo y biofísico de la Fuerza Aérea de los Estados Unidos quien dedicó su vida al estudio de la desaceleración en los pilotos. Strapp también trabajaría, tras retirarse de la fuerza aérea en la NHTSA (National Highway Traffic Safety Administration), estudiando los efectos de las colisiones y la desaceleración en los conductores.

Strapp es un héroe silencioso, ya que a pesar de no ser conocido es quizás responsable de haber salvado cientos de miles de vida, y eso no es una exageración. A finales de los años 40, y con el fin de no arriesgar la vida de sus pilotos, se ofreció como voluntario para llenar su cuerpo de sensores y someterse a violentas desaceleraciones, estudiando además las reacciones mecánicas del cuerpo. La información recogida de éstas pruebas sería fundamental para la creación de los crash test dummies, los maniquíes de pruebas de choque.

En 1954 realizaría su más peligrosa prueba, tras la misma quedaría temporalmente ciego. Esta prueba, para la cual se debió atar a un trineo impulsado a cohete, sirvió para re-diseñar los arneses de seguridad y los asientos del piloto para proteger el cuello y evitar un paro cardíaco al sufrir presión extrema en el pecho por parte del cinturón de seguridad sujetando al piloto. Parte de estos hallazgos brindarían información para la creasion de los HANS Devices (Head And Neck Support Device), o en español: Soporte para cabeza y cuello, que salvan incontables vidas en pilotos de carrera y de aviones.

Los datos recolectados sirvieron para la creación de los maniquíes de pruebas modernos, tanto los efectos físicos sufridos por la victima así como varios rediseños y nuevos conceptos de seguridad que no eran considerados hasta ese momento.

Relacionados
– Su historia nos recuerda a Joseph Kittinger, otro arriesgado hombre que recolectó datos imprescindibles para la ciencia.

– Para más información sobre Strapp ver: La bala humana

La estrella más pequeña del universo

Si bien hallar la estrella más grande del universo conocido es garantía de salir en todos los periódicos, y ésto es algo que ocurre seguido ya que constantemente se hallan estrellas cada vez más grandes, hallar la estrella más pequeña es algo quizás no tan glamuroso pero si mucho más interesante, justamente por el hecho de que la enormidad y el gran tamaño son características definitorias de las estrellas. Por lo tanto, que mejor que hallar lo menos dentro de lo más.

2MASS J0523-1403, una pequeña gigante
La misma es, por supuesto, una enana roja, es decir, una estrella de secuencia principal, relativamente de “poca” temperatura, no más de 4000 Kelvin, y una masa y diámetro inferiores a la mitad de nuestro propio sol.

2MASS J0523-1403

Si bien el universo está iluminado por millones de enanas rojas, de hecho son el tipo más común de estrellas en la Vía Lactea componiendo 3/4 de las estrellas halladas en la misma, una de de ellas, 2MASS J0523-1403, es la más pequeña que se conoce. Con un radio solar de 0,086 unidades (unos 59,8 mil km), no sólo es más pequeña que Júpiter y Saturno, y sólo un poco más grande que Neptuno, sino que es además considerada como el límite mínimo al cual puede llegar una estrella antes de dejar de serlo. La misma es muy poco visible, su temperatura es de uno 2074K y su luminosidad solar es de unas 0,000126 unidades. De hecho, es tan pequeña y “poco” caliente que los investigadores dudaron al principio si se trataba de una enana marrón joven (objetos a medio camino entre planetas y estrellas, es decir, muy masivos para ser planetas por lo que inician un proceso de fusión nuclear pero poco masivos para ser estrellas por lo que se terminan “apagando” muy rápidamente). Por lo cual se la considera como el patrón de la estrella más pequeña posible, debido a que si fuese más pequeña simplemente dejaría de ser una estrella.

OGLE-TR-122b
OGLE-TR-122bOGLE-TR-122b es otra estrella pequeña famosa, debido a su parecido en tamaño y forma con Júpiter. Con un radio solar de 0,12 unidades (unos 167 mil km), es una estrella tan diminuta que es apenas un 19% más grande que Jupiter y de hecho más pequeña que muchos planetas extra-solares. Como por ejemplo HD 106906b unas 11 veces más grande que Júpiter.

Levitando objectos con ondas acústicas

Levitación acústicaSi bien la levitación acústica, que fue postulada hace ya mucho tiempo pero por limitaciones tecnológicas sólo se pudo realizar en las últimas décadas, primero se utilizó para levitar objetos pequeños, casi invisibles, y luego en la industria para la fabricación de cierto tipo de circuitos integrados para evitar el contacto con obleas de silicio durante el ensamblado, en los últimos años distintos grupos de investigadores la están llevando al límite; no sólo simplemente manteniendo el objeto en el aire, sino que además desplazándolo de manera controlada, haciéndolo rotar y controlando múltiples objetos independientemente unos de otros.

El método más avanzado en la actualidad es el desarrollado por los investigadores del Argonne National Laboratory, con el cual no requieren de una cámara sellada y son además capaces de hacer levitar pequeños seres vivos sin dañarlos. Su intención es desarrollar nuevas herramientas para la investigación y producción de medicamentos.


Este innovador método utiliza transmisor (abajo) y un reflector (arriba) para producir y flectar ondas acústicas a distintas velocidades creando distintas áreas de presión adyacentes al objeto que lo pueden mantener y moverlo en el aire.

Recopilación de distintas técnicas
El siguiente video es una compilación de varios experimentos modernos con levitación acústica.

Los experimentos de la NASA
La NASA, por ejemplo, la utiliza para simular en Tierra ciertos fenómenos de micro gravedad en el espacio.


En este video vemos un experimento de la NASA utilizando una cavidad de resonancia Helmholtz, tres parlantes y una guía de onda (una estructura muy común en las telecomunicaciones que sirve para guiar ondas electromagnéticas). Posteriormente una onda acústica de 600hz es utilizada y mediante complejos cambios en la amplitud y la relación de fase de los parlantes se logra no sólo levitar sino controlar en el espacio múltiples objetos.