Category Archives: Investigaciones y búsquedas

El capitán que sin saberlo fotografío al iceberg que hundió al Titanic

La fría noche del 14 de abril de 1912 pasó a la historia cuando aproximadamente a pocos minutos de la medianoche el barco más grande del mundo, un lujoso palacio flotante obra de los afamados ingenieros Thomas Andrews y Alexander Carlisle impactó en su lado de estribor contra un enorme iceberg y pocas horas más tarde se hundió en las gélidas aguas del Atlántico Norte causando una de las mayores catástrofes marítimas en la historia.

La historia del hundimiento del Titanic se ha contado cientos de veces, e infinidad de teorías intentando determinar el por qué este, en teoría, “barco imposible de hundir” se terminó hundiendo han sido postuladas. No obstante, hay otras historias relacionadas al hundimiento que no tienen que ver con el Titanic en si mismo, sino que relatan el esfuerzo de los navíos cercanos por rescatar a los sobrevivientes, recuperar cuerpos en el agua e incluso investigar y determinar qué fue lo que ocurrió.

Una de estas historias es la del buque de pasajeros SS Prinz Adalbert, el cual durante el mediodía del 15 de abril, aproximadamente unas 11 o 12 horas después del hundimiento del Titanic, detectó un iceberg particular que llamó la atención de los marineros ubicados en los puestos de vigía. Debido a la capacidad limitada de los equipos de telecomunicaciones de la época, la tripulación del Prinz Adalbert desconocía lo ocurrido ya que al momento del hundimiento se encontraban a más de 140 kilómetros del lugar y es por esta razón que los hombres en cubierta se sorprendieron al ver un enorme iceberg que presentaba restos de pintura roja en uno de sus lados. Es también importante notar que transcurrió un tiempo considerable desde que la colisión tuvo lugar hasta que el Titanic, que se encontraba viajando a una velocidad de 22 nudos, logró detenerse por completo, por lo que se calcula que el hundimiento tuvo lugar a una distancia de 5 kilómetros del iceberg.

Sospechando que una colisión había tenido lugar el capitán ordenó abandonar su curso planificado, emitir un mensaje de alerta a las embarcaciones cercanas y navegar en un patrón de búsqueda con el fin de quizás rescatar a algún naufrago. Uno de los barcos que recibió esa alerta fue la Minia, un barco comercial que se encontraba tendiendo cables telefónicos sumergidos en el océano. Debido a que se debía llevar un registro visual de ciertas de sus tareas, el capitán contaba con una cámara, la cual utilizó para capturar las que se cree son muy posiblemente las únicas imágenes cercanas que existen del iceberg que hundió al Titanic, específicamente dos fotografías: una de la cara sur y otra de la cara este.

Cabe destacar que existe una fotografía tomada por una de las pasajeras del RMS Carpathia en la cual puede verse un iceberg muy a lo lejos, y el cual varios investigadores han mencionado como posiblemente otro documento visual del objeto con el que colisionó el Titanic. La misma puede verse a continuación:

Kudzu, la planta japonesa que devora el sur de los Estados Unidos

Hace un tiempo habíamos hablado sobre cómo las regiones evacuadas de Fukushima han sido rápidamente cubiertas por la vegetación local. Si bien esto es común, la naturaleza es de hecho implacable reapropiando espacios, lo llamativo era la velocidad con la que todo ocurrió. Esto se debe principalmente a un tipo de planta: el Kudzu.

El Kudzu es una planta nativa del sudeste asiático del género de las Pueraria. Las mismas son enredaderas perennes, resistentes a los insectos y relativamente tolerantes al frío. Se reproducen principalmente de manera asexual mediante esquejes producidos por sus estolones, los cuales echarán raíces y desde allí comenzarán su propia expansión. En otras palabras, la planta irá constantemente formando nuevos nodos, por lo que necesita expandirse rápidamente buscando espacios para dichos nodos. Pero lo que hace al kudzu una especie tan invasiva es que esta también puede reproducirse mediante semillas transportadas por el aire. Es decir, se expande rápidamente por el suelo y además puede extenderse a través de grandes distancias geográficas. Como si lo anterior fuese poco, en la década del 90 se descubrió que incluso si se arranca la planta su raíz puede permanecer durmiente durante más de tres años en el suelo y luego brotar nuevamente.

En el 1876 durante la Exposición del Centenario en Filadelfia, Pensilvania en la cual se festejaban los 100 años de independencia de los Estados Unidos, el pabellón de Japón constaba de un bello jardín japonés adornado con plantas y árboles del país asiático. Uno de estos vegetales traídos a la exposición fue el kudzu, y rápidamente capturó el interés de los visitantes quienes fueron cautivados por su aroma y el uso artístico que se le había dado para cubrir puentes y estructuras del jardín. La planta se volvería relativamente popular en los jardines y parques de Pensilvania.

No obstante, durante la década del 40 el problema de la erosión del suelo a causa del cultivo incesante del algodón en los territorios del sur de los Estados Unidos se había vuelto un problema de estado. Lo que llevó al presidente Franklin D. Roosevelt a iniciar una campaña federal para tirar semillas de kudzu por todo el sur, esperando que su rápido crecimiento ayude a sostener el suelo. Si bien en efecto el kudzu es muy efectivo para combatir la erosión del suelo y también sirve como fuente de alimento para el ganado, el clima del sur de los Estados Unidos resultó ser mucho más favorable que el clima de Pensilvania, un estado del norte. Este clima soleado y los suelos ricos en minerales de la región hicieron que la planta comenzara a expandirse mucho más rápido que en Asia o Pensilvania. En el punto más crítico de la “epidemia del kudzu” este llegó a cubrir una extensión de 610 km2 por año. Cientos de millones de dólares fueron invertidos para detener la expansión violenta de esta especie invasiva, pero nada parecía funcionar ya que el uso de herbicidas estaba restringido debido a que la expansión se daba principalmente en territorios agrarios y poblaciones rurales y la planta parecía tener una resistencia natural contra los herbicidas de menor intensidad. De hecho, el Dr. James Miller, contratado por el Servicio Forestal de los Estados Unidos, descubrió que de los 6 herbicidas aprobados por el gobierno al momento del estudio, la planta era inmune a tres, poco afectada por dos y el último incluso la ayudaba a crecer más rápido. La solución llegó desde China y Japón: resulta que el kudzu tiene un enemigo natural: las cabras. Por lo que durante los años 70 y 80 comenzaron a soltarse decenas de miles de cabras de angora en las áreas más afectadas para así combatir el crecimiento sin control de esta especie.


(Fe de errata, en la imagen pueden verse ovejas devorando kudzu.)

De todas maneras, y si bien las cabras han ayudado en los Estados Unidos, todavía no hay una solución definitiva y en el 2009 se ha detectado la existencia de kudzu en Canada y Australia.

Continue reading Kudzu, la planta japonesa que devora el sur de los Estados Unidos

Biosphere 2, un ecosistema cerrado tan perfecto e idílico que terminó en fracaso

La adversidad muchas veces es algo necesario, algo que si es aprovechado nos servirá para aprender y formar nuestro caracter. Quizás el mejor ejemplo de ésto es lo que ocurrió en Biosphere 2, un hábitat completamente cerrado creado por la Universidad de Arizona en 1987 con el fin de servir como ecosistema de investigación y vivarium de varias especies de plantas y árboles exóticos.

Si bien en el presente se utiliza para los fines anteriormente mencionados, a principios de los años 90 la instalación sirvió para un propósito de investigación científica pura: crear el primer ecosistema completamente cerrado. Desde los nutrientes hasta el oxigeno, la humedad y demás recursos serían creados y reciclados constantemente utilizando las costosas y complejas maquinarias y sistemas dentro de las instalaciones del complejo. La idea original era la de crear el hábitat perfecto, todos los parámetros medidos en tiempo real por avanzados sensores y regulados por complejos sistemas de control; dándole a los vegetales en el lugar la cantidad de nutrientes perfecta y asegurando la virtual inexistencia de plagas e insectos invasivos. De funcionar, se crearía un ecosistema aislado del mundo el cual podría servir como punto de partida para el desarrollo de ecosistemas en bases inter-planetarias o incluso la preservación de las especies vegetales en caso de una catástrofe ecológica a escala global.

Así fue, al menos durante los primeros años, las plantas y árboles que crecían dentro de B2 eran más voluptuosas, más grandes en incluso abundantes que sus pares en el resto de la tierra. Ciertamente ésta serie de ecosistemas cerrados que ocupaban 1,27 hectáreas eran un paraíso en la tierra, perfecto, sin adversidades ni problema alguno.

Pero algo comenzó a ocurrir, y en un principio ninguno de los científicos entendió el por qué. Los árboles se quebraban antes de madurar cayendo a tierra sin motivo alguno. Tras buscar varias respuestas la definitiva vino del análisis de la madera y las raíces de los mismos. Al haber crecido completamente guarecidos de los vientos, éstos árboles nunca desarrollaron raíces lo suficientemente arraigadas, y la madera de los troncos y ramas carecían de las denominadas maderas de compresión y tensión. Dichas maderas son los dos tipos de tejido especial desarrollados por las plantas leñosas en sus ramas principales y deformaciones de los troncos como respuesta a los efectos de la gravedad y del viento. Generalmente la madera de tensión es más común en los árboles de madera dura, es decir las angiospermas como pueden ser los robles; mientras que la madera de compresión hace lo mismo en los árboles de madera blanda es decir las gimnospermas como las coníferas. No obstante, no es exclusivo a unas y otras y distintos tipos de madera de reacción pueden ser observados en un mismo árbol. Ambas son un tipo de madera en la cual las células del tejido vegetal se alinean de manera no vertical, permitiendo al árbol contar con un soporte extra y una mayor capacidad de torsión así como soportar las fuerzas de tensión causadas por los vientos. De hecho, en la naturaleza las plantas leñosas utilizan en parte éste tipo de manera para por alinearse mejor ante el sol y recibir mayor cantidad de luz solar en sus hojas.

Tras una serie de investigaciones los científicos de la universidad descubrirían que la razón por la cual los árboles del hábitat crecían a un ritmo mucho mayor que el resto de los árboles en el exterior se debía al hecho que no generaban los distintos mecanismos de soporte y arraigo que permiten que los árboles no sólo vivan por cientos y miles de años, sino que además resistan fuertes vientos y tormentas.

Hoy en día B2 sigue en funcionamiento, aunque ya no como un sistema completamente cerrado, sino que se ha reorientado y convertido en una reserva de especies exóticas y amenazadas.

La prueba nuclear espacial que destruyó tres satélites y dañó otros tres por error

Durante la Guerra Fría las súperpotencias militares buscaron utilizar su armamento nuclear en todo tipo de estrategias y escenarios, intentando implementar desde minas nucleares hasta demolición nuclear. Muy rápidamente se darían cuenta que, a diferencia de los escenarios de destrucción total, podían utilizar los efectos secundarios de las explosiones nucleares a gran altura para bloquear en un área considerable las comunicaciones tanto de radio como satelitales del bando contrario. Es así que la Unión Soviética y los Estados Unidos comenzaron a detonar bombas nucleares cada vez a mayor altura. La mayoría de estas pruebas tuvo lugar entre 1958 y 1962, y si bien en un principio se trató de pruebas atmosféricas, rápidamente comenzaron a detonarse armas nucleares en el espacio para determinar su utilidad en la destrucción de satélites. Una de estas pruebas fue la Starfish Prime, llevada a cabo en julio de 1962 por los Estados Unidos, en la cual un misil Thor transportó una bomba termonuclear W49 a 400 kilómetros de altura sobre la isla de Johnston en el océano pacífico y detonó el dispositivo con un rendimiento de 1,4 megatones.

La anterior fue la prueba nuclear más poderosa alguna vez llevada a cabo en el espacio, la misma causó la destrucción de dispositivos electrónicos en varias islas del océano Pacífico, sobretodo en Hawaii, desactivando el sistema telefónico de las islas, destruyendo cientos de lámparas del alumbrado público y miles de televisores. Sin embargo, los daños más costosos ocurrirían tiempo más tarde, ya que Starfish Prime creó un cinturón artificial de radiación mucho más intenso de lo esperado y el cual cruzaba las órbitas de los satélites Ariel, TRAAC, y Transit 4B, los cuales quedaron inoperables, y los satélites Cosmos V, Injun I y Telstar 1 los cuales sufrieron varios tipos de daños menores. Según los estudios del físico de la NASA Wilmot Hess el cinturón duró unos cinco años antes de ser disipado por el campo magnético terrestre, y la razón por la cual la explosión tuvo dicho efecto inesperado fue el que nadie pudo prever que electrones de alta energía podían quedar atrapados en la termopausa, el límite superior de la termosfera terrestre. Debemos tener en cuenta que lo anterior tuvo lugar en 1962, cuando la cantidad de satélites en órbita era muy reducida, de hecho el satélite de la Bell Labs dañado a causa de ésta prueba, el Telstar 1, fue el primer satélite de telecomunicaciones comercial en existencia. Si Starfish Prime hubiese sido llevada a cabo en los últimos veinte o treinta años los daños económicos y políticos hubiesen sido catastróficos e irrecuperables. Peor aun si tenemos en cuenta que la Estación Espacial Internacional y su tripulación se encuentra a ~410 Km de altura.

En el caso de los Estados Unidos sabemos que se hicieron 3 detonaciones a gran altura durante el programa Operation Argus, el cual buscaba crear cinturones de radiación para impedir las telecomunicaciones rivales; y 31 detonaciones a gran altura, 5 de éstas espaciales, como parte del programa Operation Dominic el cual se subdividió en subprogramas específicos como Operation Fishbowl (todas éstas pruebas espaciales).

Por fortuna las pruebas también tuvieron un efecto positivo, ya que ambas súperpotencias se dieron cuenta de que no podían continuar desafiándose unas a otras con detonaciones nucleares espaciales sin llegar a sufrir un efecto colateral no deseado y muy costoso en el futuro. Ésto llevó a que se firme el Tratado de prohibición parcial de ensayos nucleares en 1963, poniendo un fin a éste tipo de ensayos.

El efecto pecera
La razón por la cual la operación Fishbowl (pecera) se llamó de dicha manera no es aleatoria. Sino que se debe al fenómeno por el cual las explosiones nucleares forman esferas en el espacio. De ésto ya hemos hablado anteriormente.

Alfred Redl, el peor traidor en la Historia

A principio del siglo XX el Imperio austrohúngaro comenzó a preocuparse por las nuevas tecnologías utilizadas en el espionaje, las cuales iban desde cámaras hasta micrófonos ocultos. Decididos a actuar contra éste flagelo se modifica la que antiguamente era la oficina de contraespionaje, la cual estaba pensada para contrarrestar la acción de espías convencionales, convirtiéndola en una oficina de contrainteligencia en la cual también se intentaba actuar contra medios de espionaje no tradicionales.

Es en 1907 que Alfred Redl, un singular personajes famoso por su carácter innovador, es elegido como el jefe de la oficina de contrainteligencia. El trabajo de Redl era intachable, no sólo logró capturar a varios espías enemigos utilizando agentes dobles, sino que además fue pionero en la utilización de micrófonos ocultos y otros tipos de medios tecnológicos. Fue además todo un pionero en el empleo de la información misma como medio de inteligencia militar, creando una de las primeras bases de datos relacionales utilizadas para rastrear personas sospechadas de ser agentes enemigos.

Redl era el oficial modelo, tanto que por sus logros fue ascendido a coronel y condecorado por sus méritos. Pero había algo nefasto detrás de ese ejemplo de oficial, Redl era en realidad un doble agente ruso incluso desde hacía ya varios años antes de hacerse cargo de la oficina de contrainteligencia, y serían sus propias innovaciones tecnológicas las que llevarían a su captura. Según el historiador Robert Asprey, quien estudió varios documentos militares de la época y la correspondencia entre el oficial y sus pares, el jefe de los espías rusos Nikolai Batyushin utilizó a varios agentes para acercarse a Redl de manera indirecta. Una vez hecho el contacto fue incriminado con un amante, y ésto obligó a Redl a comenzar a pasar inteligencia militar a Rusia, de lo contrario su vida personal y carrera se verían destruidas.

El daño causado
La inteligencia pasada a los rusos fue devastadora para los austrohúngaros, incluso tras la muerte de Redl seguiría causando daños severos. Entre los documentos más importantes se encuentran:

Una copia completa de los planes del general von Gieslingen para ir a la guerra con Rusia.

Una copia completa del Plan III, los planes e información estratégica para invadir Serbia. Los rusos pasaron ésta información a los serbios entre 1911 y 1912 y cuando el Imperio austrohúngaro finalmente invadió Serbia en el 1914 utilizaron una estrategia muy similar, sufriendo una colosal derrota y perdiendo alrededor de 270 mil hombres.

Las identidades de los espías en territorio ruso.

Los planos e información de destacamentos de algunos de los fuertes clave en territorio austriaco, permitiendo su pronta captura por parte de los rusos.

La captura de algunos espías rusos con información falsa en su poder, lo que llevó a los jefes militares a invertir gran cantidad de recursos y reforzar aéreas que no eran importantes a la estrategia rusa.

En total se estima que fue responsable directo por la muerte de más de medio millón de soldados y agentes austrohúngaros.

La captura
Quizás lo más curioso de ésta historia es que fue a causa de su propio éxito y eficiencia que Redl terminó siendo expuesto. En 1912 el general von Gieslingen lo promueve a un cargo de mayor importancia, llevando a que tenga que entregar el liderazgo de la oficina de contrainteligencia a manos de Maximilian Ronge. Ronge, discípulo de Redl, expandió la búsqueda de anomalías a la ofician de correos, buscando cartas que contuviesen dinero o información militar sospechosa. Meses más tarde los agentes comenzaron a encontrar cartas con dinero e información codificada, siendo además sobres designados para ser retirados en persona por la oficina de correos. Según la historia oficial dada por las autoridades, con el fin de capturar al destinatario de dichos sobres, dos integrantes del servicio de espías plantaron guardia en el correo durante varios días. Finalmente en mayo de 1913 una persona pasó a retirar los sobres sospechosos, pero durante el seguimiento le perdieron el rastro cuando éste se subió a un taxi. Utilizando el número de serie del taxi pudieron hallar al conductor y hacer que éste los lleve hacia la ubicación en la cual el conductor dejó previamente al sospechoso, el hotel Klomser. Durante el viaje también encontraron un abrecartas en el asiento del taxi, por lo que esperaron en la recepción y cuando una persona bajo a preguntar por un abrecartas lo aprehendieron, llevándose la gran sorpresa de estar aprendiendo a su antiguo jefe.

Ahora, la anterior es una historia digna de una película, por lo que algunos historiadores no le dan mucho crédito, asumiendo que lo que en realidad ocurrió es que otro agente doble delató a Redl y luego el gobierno austrohúngaro confeccionó la historia de su captura para salvarse de la humillación. Redl se suicidaría ese mismo día con un arma cargada con una sola bala dejada por Conrad von Hötzendorf para que éste “muestre algo de honor”.

Artículos relacionados
La paloma cámara, un drone versión 1903.
Reloj cámara para espías victorianos.
El Sr. Richebourg, un espia particular.

Cuán lejos está la estrella más caliente del universo de la mayor temperatura físicamente posible

La estrella considerada como la “más caliente del universo” ha cambiado veces en los últimos años, sobretodo a medida que nuevos radiotelescopios han sido puestos en funcionamiento. Actualmente Eta Carinae ubicada constelación de la Quilla es considerada como la estrella con la mayor temperatura de superficie del universo conocido, la misma posee un radio unas 180 veces mayor al radio de nuestro Sol y una temperatura en su superficie que va entre los 36.000 y 40.000 Kelvin (o unos 35.726,85°C a unos 39.726,85°C). Para darnos una noción de las cifras con las que estamos trabajando, la temperatura de superficie de nuestro sol es de unos 5.777K, es decir, 5.503,85°C. Si bien podemos llegar a creer que Eta Carinae es la estrella más grande conocida, esto no es así, ya que la más grande es VY Canis Majoris, con un radio unas 2000 veces mayor a la de nuestro Sol. Eta Carinae es una estrella de clasificación espectral O, sólo un 0.00003% de las estrellas en el universo corresponden con éste tipo.

Ahora queda preguntarnos, por qué entonces no es VY Canis Majoris la estrella con la mayor temperatura del universo, la respuesta tiene que ver con su conformación. VY Canis Majoris es una estrella roja hípergigante con una masa solar que se estima está entre los 17±8 M☉ (1 M☉ equivale a nuestro Sol), mientras que Eta Carinae es una hípergigante, hípermasiva azul con una masa que se estima está entre los 30M☉ a los 80M☉. Las estrellas azules son estrellas masivas y mucho más densas, por lo que queman su material mucho más rápido que las estrellas rojas y se consumen de manera mucho más rápida, generando niveles de temperatura muchísimo mayores pero, como consecuencia, muriendo muy rápido en comparación y de manera violenta al convertirse en súpernovas (aunque ciertos modelos actuales predicen que Eta Carinae muy posiblemente se convierta en un agujero negro). De hecho, el color visible de las estrellas es un fenómeno físico que viene dado precisamente por la temperatura de su superficie.

La mayor temperatura físicamente posible

Entonces nos queda preguntar, qué tan lejos está la temperatura en la superficie de Eta Carinae de la mayor temperatura posible. La respuesta es mucho, muchísimo. La mayor temperatura teórica que los modelos actuales soportan es la denominada como Temperatura de Planck. Ésta temperatura representa un límite fundamental ya que en éste punto la fuerza gravitacional se vuelve tan fuerte como las otras fuerzas fundamentales. En otras palabras, es la temperatura del universo durante los primeros picosengundos del Big Bang. Su valor: 1,417×1032 K (un poco menos si se tiene en cuenta la teoría de cuerdas).

Pero las estrellas quizás no sean la mejor opción de comparación, ya que hay objetos muchísimo más calientes que una estrella como la formación del núcleo de neutrones de una súpernova tipo II, que puede alcanzar 10×104 K. Sin embargo, la temperatura más alta alguna vez generada ocurrió en la tierra, en el LHC, Gran colisionador de hadrones, más precisamente en el detector ALICE diseñado para estudiar colisiones que producen plasma de quarks-gluones. El experimento en cuestión tuvo lugar en el 2010 cuando los científicos del acelerador de partículas colisionaron los núcleos de átomos de oro. La temperatura alcanzada fue de unos 5,5×1012 K

Arriesgando la vida para probar las máquinas voladoras de Leonardo da Vinci

En el año 1010, siglos antes que Leonardo da Vinci naciera, Eilmer de Malmesbury un monje obsesionado con la historia de Dédalo e Icaro, pasó estudiando durante años el vuelo de los pájaros. Convencido de que ya había logrado descifrar los secretos del vuelo (y de hecho lo hizo) construyó un ala rígida, se subió al campanario de su monasterio y saltó al vacio, logrando planear por casi 300 metros y saliendo casi ileso, sólo se quebró una pierna. De ésta historia ya hemos hablado en detalle en éste artículo.

Incluso siglos antes de que Eilmer de Malmesbury se arrojara al vacío, Abbás Ibn Firnás, otro hombre interesado en la ciencia del vuelo, pero esta vez en Córdoba, España y en el año 875, ideó el primer paracaídas funcional de la historia el cual también tenía elementos de parapente. Tenía 65 años y tras confeccionar un armazón de madera recubierto en seda con un volumen interior para capturar aire se subió a una torre y se arrojó al vacío ante una multitud que él mismo había invitado. Firnás logró permanecer en el aire durante varios minutos, y si bien al tocar tierra se quebró las dos piernas, el intentó fue todo un éxito. El intrépido inventor siguió arrojándose en sus paracaídas/parapente hasta bien pasados los 70 años.

Pero lo anterior no quita merito a Leonardo, ya que es casi imposible que el florentino más famoso contara con información alguna sobre éstos dos hombres. Además, el trabajo de Leonardo, realizado principalmente durante su estadía en Milán, fue mucho más científico y se enfocó en el concepto de resistencia del aire. Además Leonardo no se contentó con simplemente sobrevivir a la caída, Leonardo quería controlar sus máquinas, y el mayor trabajo fue justamente en diseñar los sistemas de control de vuelo. En fin, Leonardo nunca pudo probar sus invenciones, pero gracias a valientes modernos que las construyen al pie de la letra y las prueban poniendo en riesgo su propia vida, vemos que sí, en efecto, muchas de las máquinas voladoras del renacentista más famoso funcionan. Más importante aun es que gracias a los meticulosos documentos que el florentino mantuvo durante su vida, contamos con planos para reconstruir dichas invenciones.

El planeador híbrido

El planeador de da Vinci es un concepto muy interesante, ya que no es un planeador per se sino que se trata de un parapente con elementos de paracaídas (y en el video esto se puede ver perfectamente), y además posee una cola para poder controlar la dirección del vuelo. El mismo fue diseñado a partir del milano, un ave rapaz muy común en Italia.

El paracaídas

Construido y probado pro Olivier Vietti con la ayuda de Eric Viret y Eric Laforge ésta es una réplica exacta del paracaídas piramidal ideado por el florentino. Una prueba de bastante riesgo ya que los diseñadores del mismo buscaron ser fieles a la época de Leonardo y utilizaron materiales como disponibles en Florencia durante el siglo XVI.

La fase más peligrosa de la prueba no es el tramo de descenso de la caída en si, sino la abertura del paracaídas. Al estar construido con un armazón rígido, si por alguna razón el paracaidista hubiese llegado a desestabilizarse éste corría el riesgo de haber quedado enrollado entre las cuerdas, lo que le hubiese impedido liberar el paracaídas secundario y moderno que llevaba por seguridad.

Lo bueno de éstos dos hombres es que probaban ellos mismos sus invenciones, a diferencia de Jean Pierre Blanchard, quien utilizaba perros para probar sus diseños de paracaídas en el siglo XVIII.

Artículos relacionados
El sello que protegió la tumba de Tutankamón durante 3.245 años.
El mecanismo de Antiquerra, la computadora más antigua de la historia.
Sagami, el festival japonés donde remontan cometas de 1 tonelada.
La Montgolfière, el primer vuelo humano de la historia.

Cómo los Laboratorios Bell lograron “fotografiar el sonido”

En 1954 y con el fin de estudiar la propagación del sonido y los fenómenos ondulatorios, los Laboratorios Bell, institución prácticamente legendaria ya que ha sido responsable en gran parte por haber inventado infinidad de las tecnologías que hoy damos por hechas en el siglo XXI, dispuso de un grupo de cinco científicos e ingenieros bajo la dirección de Winston Kock (quien años más tarde se convertiría en una de las figuras más importantes en la historia de la NASA) con la tarea de lograr capturar visualmente de las ondas sonoras y su propagación. Éstos investigadores eran parte del Laboratorio Volta, subdivisión de la Bell Labs especializada en el estudio del sonido.

Tras varias pruebas y prototipos los investigadores desarrollaron un dispositivo que lograba la tarea que se les había sido encomendada a la perfección, más importante aun, el mismo era elegante: originalmente denominado como la lente acústica (no confundirse con las lentes acústicas utilizadas para enfocar el sonido en ciertos tipos de parlantes, éstas también fueron inventadas por los Laboratorios Bell), y posteriormente renombrado como el refractor de ondas sonoras. Éste aparato consistía de de dos partes, un parlante tipo bocina para producir el sonido, y el sistema de captura y conversión de las ondas sonoras en luces de distinta intensidad. Éste último a su vez se subdividía en una varilla de aluminio que vibraba al ser expuesta a las ondas sonoras y un micrófono que capturaba el sonido en si, las señales captadas por ambos sensores eran entonces codificadas en distintas tensiones de voltaje y a través de otro circuito se alimentaba a una lámpara de neón utilizando esas tensiones.

Dicha lámpara fue especialmente diseñada para este propósito por los ingenieros de Bell, y era la parte más compleja del dispositivo, ya que podía variar en su intensidad, apagar y prenderse y variar los ángulos de refracción varias veces por segundo, siendo además capaz de producir distintas intensidades de brillo en distintas áreas de su superficie en simultáneo. El efecto generado por la misma puede verse claramente en la imagen cabezal.

La importancia de esta investigación es que permitió visualizar ondas sonoras propagándose en el espacio, todos los intentos anteriores, como el realizado de manera pionera por Joseph Norman Lockyer 1878, lo hacían en el plano.

El vehículo de tierra rápido de la historia

Construido por la NASA este trineo deslizador impulsado a cohete (no tenía ruedas sino una base similar a dos perfiles U) alcanzó una velocidad de mach 8,5 es decir, unos 10.325 kilómetros por hora en la base Holloman. La base Holloman no es cualquier otra base, en la misma tienen el dispositivo de pruebas de alta velocidad más elaborado y avanzado del mundo, el cual puede simular lluvias, útil para probar como lás cabinas de los aviones supersónicos de la USAF van a reaccionar mientras viajan a velocidades supersónicas bajo la lluvia, e incluso un sistema de amortiguadores acuáticos cuando el vehículo en cuestión se desea recuperar intacto. Esta pista es básicamente un sistema de rieles diseñado en parte por el mismo John Stapp. Durante los últimos años la base añadió otro sistema de rieles, éste ultimo de tipo maglev, para pruebas hipersónicas (velocidades superiores a mach 5).

Nota: La base Holloman ha probado otro vehículo un poco más rápido que el anterior, el cual superó a la prueba de la NASA por unos pocos km/h (relativamente nada en comparación). No obstante, el material filmográfico del mismo es muy escaso y de mala calidad.

El delta de las petroesferas

Las esferas de piedra fueron primeramente descubiertas en la década del 40 en el delta del río Térraba -también conocido como el Diquis- por trabajadores de la nefasta UFC -United Fruit Company. Sí, sí, la misma componía de frutas que tenía su propio ejército y responsable de la Matanza de las bananeras quienes se encontraban realizando una serie de excavaciones. De tamaño variable, que va de unos pocos centímetros a 16 toneladas y dos metros de diámetro, las mismas fueron un misterio tan grande tras ser descubiertas que durante las décadas subsiguientes todo tipo de “teorías extraterrestres” comenzaron a surgir. No obstante, y como de costumbre, lo anterior no puede estar más alejado de la realidad, y hoy en día el proceso artesanal con el que los aborígenes de la región lograron construir dichas esferas es más asombroso que cualquier teoría loca o conspiración paranormal.

Hechas a partir de una roca de la familia del granito, la granodiorita, y construidas entre el 200 AC y el siglo XVIII, según Samuel Lothrop, arqueólogo especializado en culturas precolombinas, quien censó las piedras durante la década del sesenta y cuyas estimaciones se confirmaron posteriormente gracias a estudios de datación química, las mismas fueron realizadas por los antepasados de los pueblos Boruca y Guaymí. Para su realización, según el arqueólogo de la Universidad de Kansas John Hoopes, se utilizó una ardua técnica artesanal en el cual a la roca a redondear primero se le da una forma lo más esférica posible con fracturas controladas y tallado a mano. Posteriormente, puede perfeccionarse con la utilización de carbones calientes y el posterior enfriamiento repentino con agua fría. Una vez lograda una forma esférica aceptable las mismas eran pulidas a mano utilizando herramientas hechas con la misma piedra.

Por desgracia la rareza de las piedras hizo que sean extraídas y vendidas de sus locaciones originales, por lo que muy pocas aun se conservan donde fueron encontradas.

El bosque peor contaminado del mundo, donde los árboles se tornaron de color rojo

El desastre de Chernobyl fue una de las mayores tragedias ecológicas del siglo XX. El daño fue tal que una ciudad entera debió ser evacuada permanentemente, pero no sólo las ciudades se vieron afectadas. La naturaleza circundante a la planta sufrió un daño irreparable.

Si pensáramos que en el mundo existe un bosque de pinos en el cual, y a causa de la intensa contaminación, sus árboles se tornaron de color rojo, inmediatamente creeríamos que es una historia de ficción o un cuento. Pero no, el Bosque Rojo es algo tristemente muy real. Ubicado en el centro de la planta nuclear de Chernobyl, el mismo es un parche de 10 km2 cuyos árboles, tras absorber una intensa dosis de radiación, se tornaron de color rojizo y amarillento. El problema no fue causado por el desastre original, sino porque en el mismo se enterraron parte de los restos de la planta nuclear y desechos altamente contaminados de la zona. Estos desechos, gradualmente inutilizaron las napas subterráneas, y tornaron el área natural en el que es hoy en día considerado como el bosque peor contaminado del mundo.

No obstante, no solo el color de las plantas es anormal. Sino que varias de las mismas germinan con mutaciones y formas realmente llamativas. El mayor de éstos problemas es el gigantismo, por lo que es posible observar pinos doblados y casi derribados cuyas ramas son incluso más gruesas que su tronco principal.

Hoy en día el nivel de radiación, en las zonas peor contaminadas, puede calcularse entre 0,9 y 1,1 röentgen por hora -unas 100000 veces el nivel de radiación hallado en una ciudad como New York.- No obstante, y como ya hemos mencionado, el problema no esta en la superficie, sino en el suelo, donde los niveles de radiación en las napas llegan a ser fatales para los humanos.

Artículos relacionados
La expedición cientifíca que ingresó a Chernobyl tras el desastre.
Escalando la rueda de la fortuna de Chernobyl.

El experimento de Kellogg, o cómo experimentar con tu hijo de 10 meses

Winthrop N. Kellogg era un psicólogo doctorado en la Universidad de Columbia y profesor de la Universidad de Indiana, cuya área de especialización se hallaba en el estudio del condicionamiento, la conducta y el aprendizaje. Habiendo estudiado la capacidad del ser humano para adaptarse a la ecolocalización, decidiría extender su investigación a descubrir qué separaba al humano del animal. Es así que realizaría en 1931 su obra más famosa: “El simio y el niño” un estudio en el cual se utilizaría a un chimpacé bebé y a un humano de menos de 1 año, con el fin de hacerlos convivir como si fueran hermanos, utilizando la misma ropa, juguetes y utensilios, para así observar y estudiar la evolución y aprendizaje de ambos bajo un entorno similar.

Para el experimento Kellogg utilizaría una chimpacé recién nacida, Gua, y asombrosamente a su propio hijo de 10 meses, Donald. El experimento tenía como objetivo discernir cuándo precisamente se creaba esa brecha que, racionalmente, separaba al humano del animal. Gua sería tratada y cuidada de la misma manera que Donald, y ambos formarían una relación similar a la encontrada en hermanos de la misma edad. Sin embargo, ocurriría algo que Kellogg no imaginaba. Gua comenzaría a aprender más rápidamente que su hijo, dejando de mojar los pañales y comenzando a comer utilizando cucharas antes que Donald. Al mismo tiempo, y ocurriendo exactamente lo inverso a lo que esperaba Kellogg, no sería Gua la que se “humanizaría” sino que sería Donald quien comenzara a desarrollar las conductas de un chimpancé. Desde emitir ladridos hasta probar todo con la boca imitando el patrón característico de estos simios. Así mismo, su dominio del lenguaje se vería seriamente aletargado.

Si bien Kellogg terminaría separándolos, Donald reportaría que varios de los modismos y conductas aprendidos de Gua quedarían patente durante toda su vida.

Enlaces relacionados
The Ape and The Child – el estudio realizado por Kellogg hallado libremente en la biblioteca en línea de la Universidad de Florida (inglés)

Orenburg, el Hiroshima secreto

Durante la Guerra Fría, la Unión Soviética y Estados Unidos realizaron todo tipo de experimentos para conocer la capacidad de operación de sus ejércitos tras una guerra nuclear. Estados Unidos los realizaría en el desierto de Nevada, utilizando soldados a los cuales nunca se les dijo bien a que se enfrentaban; por su lado, la Unión Soviética, en un experimento similar pero aun más descabellado, el 14 de Septiembre de 1954 arrojaría una bomba cerca del pueblo de Orenburg -cercano al rango de Totskoe-, la cual, tras detonar a unos 350 metros de altura a las 9:33 de la mañana, desparramaría una lluvia radioactiva sobre la población civil. Al mismo tiempo, tras una orden del mariscal Georgi Zhukov, el mismo que tras la Segunda Guerra ordenara la violación en masa de cientos de miles de mujeres alemanas y polacas con el fin de “avasallar su orgullo”, 1200 tanques y vehículos de combate así como 320 aviones avanzarían hacia el hipocentro con el fin de realizar simulacros de combate.

Miles de personas se verían afectadas y cientos perderían sus vidas. En el caso de la URSS se calcula que 45 mil civiles y soldados de la región de Totskoe murieron indirectamente como resultado del experimento. Entre las víctimas se encontraban el piloto del Tu-4 que arrojó la bomba quien murió de leucemia y su copiloto quien falleció de cáncer de médula. Hoy en día la cantidad de casos registrados de cáncer en Orenburg duplica a los encontrados en Chernobyl y es comparable con los niveles detectados en Hiroshima y Nagasaki.

Sólo una pequeña cantidad de imágenes de estos experimentos se ha filtrado, todas, tan aterradoras como asombrosas.

El experimento de Orenburg

Las imágenes de este experimento quizás no son tan chocantes como las de Nevada, ya que el duro filtro impuesto por la Unión Soviética impidió su difusión. En la primer imagen vemos a Zhukov junto a Malyshev revisando los últimos detalles del ejercicio; en la segunda imagen podemos ver una de las únicas imágenes publicadas de la detonación, es escalofriante pensar que 350 metros más abajo había 70 mil personas esparcidas en un área de 10 kilómetros.