Category Archives: Descubrimientos y determinaciones

El sello que protegió la tumba de Tutankamón durante 3.245 años

La tumba del farón Tutankamón es una de las más raras alguna vez encontradas por los arqueólogos en Egipto. La misma consta de 5 sarcófagos en series, en los cuales se encuentran a su vez cinco altares con ofrendas y pasajes. Al ingresar al cuarto sarcófago además de las ofrendas y los cuerpos momificados de personajes menores pero cercanos al faraón e incluso sirvientes cuya tarea era la de servirle en el más allá, Howard Carter y su equipo hallaron en 1922 y tras una seguidilla de problemas tanto técnicos como económicos durante el principio de su expedición una gran compuerta la cual había permanecido escondida por miles de años. La misma aseguraba el ingreso con un singular sello puesto por los sacerdotes encargados de los ritos funerarios y el cual permaneció intacto por 3.245 años. El mismo constaba de una cuerda anudada y un sello de arcilla conteniendo la figura del dios chacal Anubis. Patrón de los embalsamadores y dios de la muerte,

El hallazgo fue espectacular. Si bien los sarcófagos anteriores fueron explorados con anterioridad en dos oportunidades e incluso los dos primeros de la serie saqueados en el pasado, la puerta de acceso al sarcófago de Tutankamón fue protegida por una serendipia del destino. Parte de la tumba de Ramsés IV, la cual se encontraba en el nivel directamente superior a la de Tutankamón, colapsó y ocultó con sus escombros la puerta de acceso. Tras remover los escombros, Carter rompió el sello e ingreso al quinto y último sarcófago encontrándose con el tesoro egipcio más espectacular de todos los tiempos; todo quedando capturado por la lente del fotógrafo de la expedición, Harry Burton.

Artículos relacionados
El mecanismo de Antiquerra, la computadora más antigua de la historia.
De como mover un frágil obelisco de 4 mil años.
Desenterrando el obelisco egipcio más grande alguna vez construido.
El hombre que pensó distinto a todos y logró traducir los jeroglíficos egipcios.
El sultán que intentó destruir las pirámides.

Biosphere 2, un ecosistema cerrado tan perfecto e idílico que terminó en fracaso

La adversidad muchas veces es algo necesario, algo que si es aprovechado nos servirá para aprender y formar nuestro caracter. Quizás el mejor ejemplo de ésto es lo que ocurrió en Biosphere 2, un hábitat completamente cerrado creado por la Universidad de Arizona en 1987 con el fin de servir como ecosistema de investigación y vivarium de varias especies de plantas y árboles exóticos.

Si bien en el presente se utiliza para los fines anteriormente mencionados, a principios de los años 90 la instalación sirvió para un propósito de investigación científica pura: crear el primer ecosistema completamente cerrado. Desde los nutrientes hasta el oxigeno, la humedad y demás recursos serían creados y reciclados constantemente utilizando las costosas y complejas maquinarias y sistemas dentro de las instalaciones del complejo. La idea original era la de crear el hábitat perfecto, todos los parámetros medidos en tiempo real por avanzados sensores y regulados por complejos sistemas de control; dándole a los vegetales en el lugar la cantidad de nutrientes perfecta y asegurando la virtual inexistencia de plagas e insectos invasivos. De funcionar, se crearía un ecosistema aislado del mundo el cual podría servir como punto de partida para el desarrollo de ecosistemas en bases inter-planetarias o incluso la preservación de las especies vegetales en caso de una catástrofe ecológica a escala global.

Así fue, al menos durante los primeros años, las plantas y árboles que crecían dentro de B2 eran más voluptuosas, más grandes en incluso abundantes que sus pares en el resto de la tierra. Ciertamente ésta serie de ecosistemas cerrados que ocupaban 1,27 hectáreas eran un paraíso en la tierra, perfecto, sin adversidades ni problema alguno.

Pero algo comenzó a ocurrir, y en un principio ninguno de los científicos entendió el por qué. Los árboles se quebraban antes de madurar cayendo a tierra sin motivo alguno. Tras buscar varias respuestas la definitiva vino del análisis de la madera y las raíces de los mismos. Al haber crecido completamente guarecidos de los vientos, éstos árboles nunca desarrollaron raíces lo suficientemente arraigadas, y la madera de los troncos y ramas carecían de las denominadas maderas de compresión y tensión. Dichas maderas son los dos tipos de tejido especial desarrollados por las plantas leñosas en sus ramas principales y deformaciones de los troncos como respuesta a los efectos de la gravedad y del viento. Generalmente la madera de tensión es más común en los árboles de madera dura, es decir las angiospermas como pueden ser los robles; mientras que la madera de compresión hace lo mismo en los árboles de madera blanda es decir las gimnospermas como las coníferas. No obstante, no es exclusivo a unas y otras y distintos tipos de madera de reacción pueden ser observados en un mismo árbol. Ambas son un tipo de madera en la cual las células del tejido vegetal se alinean de manera no vertical, permitiendo al árbol contar con un soporte extra y una mayor capacidad de torsión así como soportar las fuerzas de tensión causadas por los vientos. De hecho, en la naturaleza las plantas leñosas utilizan en parte éste tipo de manera para por alinearse mejor ante el sol y recibir mayor cantidad de luz solar en sus hojas.

Tras una serie de investigaciones los científicos de la universidad descubrirían que la razón por la cual los árboles del hábitat crecían a un ritmo mucho mayor que el resto de los árboles en el exterior se debía al hecho que no generaban los distintos mecanismos de soporte y arraigo que permiten que los árboles no sólo vivan por cientos y miles de años, sino que además resistan fuertes vientos y tormentas.

Hoy en día B2 sigue en funcionamiento, aunque ya no como un sistema completamente cerrado, sino que se ha reorientado y convertido en una reserva de especies exóticas y amenazadas.

La paloma cámara, un drone versión 1903

Hace unos días mencionábamos las razones que llevaron llevaron al Imperio austrohúngaro a modificar por completo su agencia de inteligencia a principios del siglo XX con el fin de contrarrestar la aparición de las cámaras y los micrófonos en el campo del espionaje. De todos éstos métodos tecnológicos la paloma cámara fue quizás el más ingenioso.

Durante miles de años las palomas fueron un instrumento de inteligencia militar crucial para la transmisión de mensajes, pero no fue sino hasta principios del siglo XX que las mismas se convirtieron además en una herramienta de espionaje y recolección de información.

Éste desarrollo tuvo lugar en 1903, cuando Julius Neubronne patentó su diseño y comenzó a ofrecer los prototipos a distintos organismos del estado. El mismo constaba de una pequeña cámara de acción neumática de 70 gramos que, tras ser accionada por un temporizador, comenzaba a tomar fotografías a una altura que variaba entre los 50 y 100 metros (ésto dependía enteramente de la paloma) cada 30 segundos y un arnés que permitía montar dicha cámara al pecho de una paloma mensajera sin dificultar su vuelo. Entre los interesados se encontraría la Compañía de palomas mensajeras de Baviera, quienes le brindaron los fondos suficientes a Neubronne para continuar desarrollando prototipos más sofisticados, que fueron desde cámaras cada vez más pequeñas hasta arneses cada vez más elaborados.

Si bien la fotografía aérea en el campo de batalla no era una novedad, y varios tipos de globos que sujetaban cámaras en altura ya habían sido utilizados en el pasado, las ventajas que ofrecían las palomas eran notables. En principio eran menos sospechosas, y si se ponía la paloma entre el objetivo y su palomar se aseguraba la obtención de las imágenes. Con los globos lo anterior dependía de los vientos. Además, a diferencia de los globos, no se debía montar una arriesgada y muchas veces infructífera misión de búsqueda para obtener el rollo fotográfico, ya que la paloma siempre retornaba con el éste a su palomar.

En esta singular imagen podemos apreciar las plumas del ave.

Al día de hoy no sabemos exactamente en qué operaciones militares concretas fueron empleadas, ya que su utilización se mantuvo en secreto, pero si sabemos que fueron empleadas en gran número durante la Primer Guerra Mundial para el reconocimiento de distintos campos de batalla. La mayoría de las imágenes de la paloma cámara que existen fueron obtenidas durante la Exposición Internacional de Fotografía de Dresde.

Fotografía aérea antigua

La fotografía aérea antigua, y en especial la de finales del siglo XIX y principios del siglo XX, es ciertamente un tema extremadamente interesante, sobretodo los métodos utilizados. Uno de estos métodos, y sin lugar a dudas el más popular de todos, era subirse a una grúa con una pesada cámara y comenzar a tomar fotografías de los alrededores. La imagen en cuestión fue tomada durante la década del 20.

Muchas de las imágenes aéreas antiguas más reconocibles fueron tomadas por Darian Smith, un verdadero pionero, y una de las primeras personas en emplear aviones y cámaras para realizar revelamientos topográficos para la producción de mapas de mayor precisión.

Artículos relacionados
Reloj cámara para espías victorianos.
El Sr. Richebourg, un espia particular.
Alfred Redl, el peor traidor en la Historia.

La prueba nuclear espacial que destruyó tres satélites y dañó otros tres por error

Durante la Guerra Fría las súperpotencias militares buscaron utilizar su armamento nuclear en todo tipo de estrategias y escenarios, intentando implementar desde minas nucleares hasta demolición nuclear. Muy rápidamente se darían cuenta que, a diferencia de los escenarios de destrucción total, podían utilizar los efectos secundarios de las explosiones nucleares a gran altura para bloquear en un área considerable las comunicaciones tanto de radio como satelitales del bando contrario. Es así que la Unión Soviética y los Estados Unidos comenzaron a detonar bombas nucleares cada vez a mayor altura. La mayoría de estas pruebas tuvo lugar entre 1958 y 1962, y si bien en un principio se trató de pruebas atmosféricas, rápidamente comenzaron a detonarse armas nucleares en el espacio para determinar su utilidad en la destrucción de satélites. Una de estas pruebas fue la Starfish Prime, llevada a cabo en julio de 1962 por los Estados Unidos, en la cual un misil Thor transportó una bomba termonuclear W49 a 400 kilómetros de altura sobre la isla de Johnston en el océano pacífico y detonó el dispositivo con un rendimiento de 1,4 megatones.

La anterior fue la prueba nuclear más poderosa alguna vez llevada a cabo en el espacio, la misma causó la destrucción de dispositivos electrónicos en varias islas del océano Pacífico, sobretodo en Hawaii, desactivando el sistema telefónico de las islas, destruyendo cientos de lámparas del alumbrado público y miles de televisores. Sin embargo, los daños más costosos ocurrirían tiempo más tarde, ya que Starfish Prime creó un cinturón artificial de radiación mucho más intenso de lo esperado y el cual cruzaba las órbitas de los satélites Ariel, TRAAC, y Transit 4B, los cuales quedaron inoperables, y los satélites Cosmos V, Injun I y Telstar 1 los cuales sufrieron varios tipos de daños menores. Según los estudios del físico de la NASA Wilmot Hess el cinturón duró unos cinco años antes de ser disipado por el campo magnético terrestre, y la razón por la cual la explosión tuvo dicho efecto inesperado fue el que nadie pudo prever que electrones de alta energía podían quedar atrapados en la termopausa, el límite superior de la termosfera terrestre. Debemos tener en cuenta que lo anterior tuvo lugar en 1962, cuando la cantidad de satélites en órbita era muy reducida, de hecho el satélite de la Bell Labs dañado a causa de ésta prueba, el Telstar 1, fue el primer satélite de telecomunicaciones comercial en existencia. Si Starfish Prime hubiese sido llevada a cabo en los últimos veinte o treinta años los daños económicos y políticos hubiesen sido catastróficos e irrecuperables. Peor aun si tenemos en cuenta que la Estación Espacial Internacional y su tripulación se encuentra a ~410 Km de altura.

En el caso de los Estados Unidos sabemos que se hicieron 3 detonaciones a gran altura durante el programa Operation Argus, el cual buscaba crear cinturones de radiación para impedir las telecomunicaciones rivales; y 31 detonaciones a gran altura, 5 de éstas espaciales, como parte del programa Operation Dominic el cual se subdividió en subprogramas específicos como Operation Fishbowl (todas éstas pruebas espaciales).

Por fortuna las pruebas también tuvieron un efecto positivo, ya que ambas súperpotencias se dieron cuenta de que no podían continuar desafiándose unas a otras con detonaciones nucleares espaciales sin llegar a sufrir un efecto colateral no deseado y muy costoso en el futuro. Ésto llevó a que se firme el Tratado de prohibición parcial de ensayos nucleares en 1963, poniendo un fin a éste tipo de ensayos.

El efecto pecera
La razón por la cual la operación Fishbowl (pecera) se llamó de dicha manera no es aleatoria. Sino que se debe al fenómeno por el cual las explosiones nucleares forman esferas en el espacio. De ésto ya hemos hablado anteriormente.

Cuán lejos está la estrella más caliente del universo de la mayor temperatura físicamente posible

La estrella considerada como la “más caliente del universo” ha cambiado veces en los últimos años, sobretodo a medida que nuevos radiotelescopios han sido puestos en funcionamiento. Actualmente Eta Carinae ubicada constelación de la Quilla es considerada como la estrella con la mayor temperatura de superficie del universo conocido, la misma posee un radio unas 180 veces mayor al radio de nuestro Sol y una temperatura en su superficie que va entre los 36.000 y 40.000 Kelvin (o unos 35.726,85°C a unos 39.726,85°C). Para darnos una noción de las cifras con las que estamos trabajando, la temperatura de superficie de nuestro sol es de unos 5.777K, es decir, 5.503,85°C. Si bien podemos llegar a creer que Eta Carinae es la estrella más grande conocida, esto no es así, ya que la más grande es VY Canis Majoris, con un radio unas 2000 veces mayor a la de nuestro Sol. Eta Carinae es una estrella de clasificación espectral O, sólo un 0.00003% de las estrellas en el universo corresponden con éste tipo.

Ahora queda preguntarnos, por qué entonces no es VY Canis Majoris la estrella con la mayor temperatura del universo, la respuesta tiene que ver con su conformación. VY Canis Majoris es una estrella roja hípergigante con una masa solar que se estima está entre los 17±8 M☉ (1 M☉ equivale a nuestro Sol), mientras que Eta Carinae es una hípergigante, hípermasiva azul con una masa que se estima está entre los 30M☉ a los 80M☉. Las estrellas azules son estrellas masivas y mucho más densas, por lo que queman su material mucho más rápido que las estrellas rojas y se consumen de manera mucho más rápida, generando niveles de temperatura muchísimo mayores pero, como consecuencia, muriendo muy rápido en comparación y de manera violenta al convertirse en súpernovas (aunque ciertos modelos actuales predicen que Eta Carinae muy posiblemente se convierta en un agujero negro). De hecho, el color visible de las estrellas es un fenómeno físico que viene dado precisamente por la temperatura de su superficie.

La mayor temperatura físicamente posible

Entonces nos queda preguntar, qué tan lejos está la temperatura en la superficie de Eta Carinae de la mayor temperatura posible. La respuesta es mucho, muchísimo. La mayor temperatura teórica que los modelos actuales soportan es la denominada como Temperatura de Planck. Ésta temperatura representa un límite fundamental ya que en éste punto la fuerza gravitacional se vuelve tan fuerte como las otras fuerzas fundamentales. En otras palabras, es la temperatura del universo durante los primeros picosengundos del Big Bang. Su valor: 1,417×1032 K (un poco menos si se tiene en cuenta la teoría de cuerdas).

Pero las estrellas quizás no sean la mejor opción de comparación, ya que hay objetos muchísimo más calientes que una estrella como la formación del núcleo de neutrones de una súpernova tipo II, que puede alcanzar 10×104 K. Sin embargo, la temperatura más alta alguna vez generada ocurrió en la tierra, en el LHC, Gran colisionador de hadrones, más precisamente en el detector ALICE diseñado para estudiar colisiones que producen plasma de quarks-gluones. El experimento en cuestión tuvo lugar en el 2010 cuando los científicos del acelerador de partículas colisionaron los núcleos de átomos de oro. La temperatura alcanzada fue de unos 5,5×1012 K

Arriesgando la vida para probar las máquinas voladoras de Leonardo da Vinci

En el año 1010, siglos antes que Leonardo da Vinci naciera, Eilmer de Malmesbury un monje obsesionado con la historia de Dédalo e Icaro, pasó estudiando durante años el vuelo de los pájaros. Convencido de que ya había logrado descifrar los secretos del vuelo (y de hecho lo hizo) construyó un ala rígida, se subió al campanario de su monasterio y saltó al vacio, logrando planear por casi 300 metros y saliendo casi ileso, sólo se quebró una pierna. De ésta historia ya hemos hablado en detalle en éste artículo.

Incluso siglos antes de que Eilmer de Malmesbury se arrojara al vacío, Abbás Ibn Firnás, otro hombre interesado en la ciencia del vuelo, pero esta vez en Córdoba, España y en el año 875, ideó el primer paracaídas funcional de la historia el cual también tenía elementos de parapente. Tenía 65 años y tras confeccionar un armazón de madera recubierto en seda con un volumen interior para capturar aire se subió a una torre y se arrojó al vacío ante una multitud que él mismo había invitado. Firnás logró permanecer en el aire durante varios minutos, y si bien al tocar tierra se quebró las dos piernas, el intentó fue todo un éxito. El intrépido inventor siguió arrojándose en sus paracaídas/parapente hasta bien pasados los 70 años.

Pero lo anterior no quita merito a Leonardo, ya que es casi imposible que el florentino más famoso contara con información alguna sobre éstos dos hombres. Además, el trabajo de Leonardo, realizado principalmente durante su estadía en Milán, fue mucho más científico y se enfocó en el concepto de resistencia del aire. Además Leonardo no se contentó con simplemente sobrevivir a la caída, Leonardo quería controlar sus máquinas, y el mayor trabajo fue justamente en diseñar los sistemas de control de vuelo. En fin, Leonardo nunca pudo probar sus invenciones, pero gracias a valientes modernos que las construyen al pie de la letra y las prueban poniendo en riesgo su propia vida, vemos que sí, en efecto, muchas de las máquinas voladoras del renacentista más famoso funcionan. Más importante aun es que gracias a los meticulosos documentos que el florentino mantuvo durante su vida, contamos con planos para reconstruir dichas invenciones.

El planeador híbrido

El planeador de da Vinci es un concepto muy interesante, ya que no es un planeador per se sino que se trata de un parapente con elementos de paracaídas (y en el video esto se puede ver perfectamente), y además posee una cola para poder controlar la dirección del vuelo. El mismo fue diseñado a partir del milano, un ave rapaz muy común en Italia.

El paracaídas

Construido y probado pro Olivier Vietti con la ayuda de Eric Viret y Eric Laforge ésta es una réplica exacta del paracaídas piramidal ideado por el florentino. Una prueba de bastante riesgo ya que los diseñadores del mismo buscaron ser fieles a la época de Leonardo y utilizaron materiales como disponibles en Florencia durante el siglo XVI.

La fase más peligrosa de la prueba no es el tramo de descenso de la caída en si, sino la abertura del paracaídas. Al estar construido con un armazón rígido, si por alguna razón el paracaidista hubiese llegado a desestabilizarse éste corría el riesgo de haber quedado enrollado entre las cuerdas, lo que le hubiese impedido liberar el paracaídas secundario y moderno que llevaba por seguridad.

Lo bueno de éstos dos hombres es que probaban ellos mismos sus invenciones, a diferencia de Jean Pierre Blanchard, quien utilizaba perros para probar sus diseños de paracaídas en el siglo XVIII.

Artículos relacionados
El sello que protegió la tumba de Tutankamón durante 3.245 años.
El mecanismo de Antiquerra, la computadora más antigua de la historia.
Sagami, el festival japonés donde remontan cometas de 1 tonelada.
La Montgolfière, el primer vuelo humano de la historia.

Sustancia-N, el gas venenoso incendiario con el que los Nazis planeaban cambiar el curso de la guerra

Uno de los mayores obstáculos que debieron sortear los estrategas alemanes durante el planeamiento del avance occidental fue la Franja de Maginot, una serie de fortificaciones construidas por Francia tras la Primer Guerra con la intención de frenar a futuro cualquier intento de invasión alemana. Si bien la franja era imponente y una maravilla de la ingeniería, con sistemas de filtrado de aire, búnkers para tropas, garajes subterráneos, hileras de cañones anti-tanques y piezas de artillería protegidas por varios metros de concreto contando además con depósitos de municiones y pertrechos para durar combatiendo durante varios meses, los alemanes lograron vencerla simplemente evitándola, y cruzando a Francia a través de Bélgica sin contratiempo alguno. No obstante, antes de que esto ocurra, en los planes alemanes existieron varias “súper armas” ideadas con el fin de destruir o abrir un camino a través de la Franja de Maginot. Una de estas soluciones, por así llamarla, fue la creación de gigantescas piezas de artillería, tan grandes como un edificio. Uno de éstos monstruos, el Schwerer Gustav, pesaba 1,350 toneladas y poseía un cañon de 47,3 metros capaz de disparar un obús de 4,8 toneladas a 48 kilómetros de distancia, un arma que el mismo Gustav Krupp tildaría de “capaz de derribar montañas”.

Pero entre las súper armas alemanas se encontraba una mucho más siniestra que cualquier cañón, desarrollada en el instituto Kaiser Wilhelm el N-Stoff (Substancia-N) se trataba de un compuesto interhalógeno (molecula compuesta sólo por elementos del grupo de los halógenos) de fórmula molecular ClF3 y nombre químico Trifluoruro de cloro. Compuesto que a temperatura ambiente se existe en forma de gas corrosivo, incoloro, y de carácter extremadamente reactivo, el cual al condensarse se convierte en un liquido amarillento en extremo venenoso.

Rápidamente los científicos del instituto vieron las aplicaciones militares del mismo, y sin perder tiempo alguno el mando alemán movió todo el desarrollo y producción del gas al complejo industrial de Falkenhagen, una la fábrica de municiones y laboratorio militar subterráneo compuesto por varios búnkers y laboratorios donde el Tercer Reich desarrolló algunas de sus más escalofriantes armas secretas. El gas era ideal para ser utilizado como arma de último recurso en la Franja de Maginot, de hecho, los científicos construyeron modelos en miniatura de la misma con compresores y extractores de aire que simulaban los vientos de la región, y estudiaron en profundidad como utilizar el gas para diezmar a las tropas y operarios de artillería franceses dentro de los búnkers.

El problema, además de la peligrosidad del gas, radicaba en que su producción era extremadamente costosa, producir solamente un kilogramo de N-Stoff costaba unos 100 Reichsmark (a finales de la década del 30 encontramos que 2,5 ℛℳ se cambiaban por aproximadamente $1 dolar estadounidense (según el historiador William Breuer), si ajustamos los niveles inflacionarios, entonces: $1 dólar de 1939 equivalen a $16,89 dólares del 2016. Lo que quiere decir que producir 1 kilogramo de N-Stoff costaba unos $675,6 dólares actuales). Por dicha razón, y el hecho de que durante el principio de la guerra incluso el llegar a sugerir la utilización de armas químicas era algo tabú sobretodo después de las experiencias de la Primer Guerra, la investigación se dejó de lado.

Pero eso cambiaría en 1944, el alto mando alemán sabía que la guerra estaba perdida, por lo que varios planes desesperados comenzaron a implementarse, uno de estos fue el Vergeltungswaffe 3, un arma diseñada para convertir a Londres en escombros. Otra de estas “armas de venganza” sería el ahora resucitado N-Stoff. Altamente oxidante, altamente venenoso y reactivo con materia tanto orgánica como inorgánica, era capaz de iniciar un proceso de combustión incluso sin una fuente de ignición presente. El mismo quemaba a través de arena, asbestos e incluso concreto, y si se lo intentaba apagar con agua reaccionaba de manera aun más violenta. Peor aun, éste gas es de peligrosidad máxima, ya que es fácilmente absorbido por la piel y su residuo es también mortal, dejando prácticamente inutilizadas cualquier pieza de equipo o maquinaria con las que entre en contacto. Como si lo anterior ya no fuese poco, al ser más denso que el aire generalmente no asciende, y se mantiene al nivel de las tropas, metiéndose además por canales de ventilación o las compuertas de distintos vehículos de combate.

Afortunadamente la Sustancia-N nunca fue utiliza en el campo de batalla, ya que la problemática de su costosa producción se mantuvo como una constante, y una Alemania ya demolida por los bombardeos tanto Aliados y Soviéticos fue incapaz de producir el compuesto a gran escala. De hecho, cuando los Soviéticos capturaron Falkenhagen, encontraron que los alemanes habían sido capaces de producir unas pocas toneladas del mismo (los estrategas alemanes consideraban que para que el gas tenga un efecto en el curso de la guerra se necesitaban producir 90 toneladas mensuales)

Hoy en día el Trifluoruro de cloro se utiliza en varios procesos industriales, sobretodo en la producción de semiconductores y como componente oxidante en ciertos combustibles de cohete, aunque el difícil manejo y almacenamiento del mismo han hecho que se opte por otros soluciones de menor riesgo.

Jones Live Map, el GPS de 1909

Los mapas existen desde tiempos inmemoriales, pero la navegación asistida es un lujo tecnológico de finales del siglo XX, o eso creemos.

Con la invención del automóvil a motor de combustión interna a finales del siglo XIX, el cual permitió comenzar a recorrer largas distancias en relativamente poco tiempo, y a diferencia de los trenes a lugares no predefinidos, los conductores prontamente se encontraron con la problemática de no conocer los lugares a los cuales debían viajar. Anteriormente, con los caballos o carruajes, los viajes de larga distancia eran más lentos y requerían de varios parajes de descanso. Esto como era de esperarse llevó a que se genere un rápido y lucrativo negocio con la creación y venta guías para conductores.

Las mismas generalmente estaban hechas de celulosa y se presentaban en prácticas libretas con los mapas de los territorios aledaños separados en varias hojas y un índice alfabético de las regiones que el volumen en cuestión contenía.

Uno de éstos conductores era el inventor J. W. Jones quien había adquirido un Ford Modelo T y una guía para el camino publicada por Rand McNally. Jones había hecho una pequeña fortuna patentando y vendiendo accesorios para fonógrafos de su invención, y por cuestiones de negocios debía recorrer regularmente los distintos caminos de la Costa Este de los Estados Unidos. No obstante, en el 1909 su empresa comenzó a comercializar un velocímetro deportivo, y Jones vio en la pista de carreras de Indianapolis, la cual se estaba inaugurando ese mismo año, una gran oportunidad de ventas. Allí, entró en contacto con gran cantidad de conductores y todos le comentaron el mismo problema: la incomodidad y el peligro de tener que estar leyendo mapas constantemente. Recordemos que las rutas y calles de principios del siglo XX no estaban listas para los automóviles, y los carteles de tránsito eran casi inexistentes.

Atento ante ésta nueva demanda y posibilidad de negocios Jones puso manos a la obra, y utilizando los recursos de su empresa en menos de 5 meses ya tenía un prototipo: el Jones Live Map.

Este dispositivo constaba de una carcasa con una serie de engranajes la cual se conectaba al eje del cuentakilómetros del automóvil, luego, de entre una serie de discos con información codificada de manera radial, se escogía el disco con la ruta que se iba a transitar y se ubicaba la posición actual del conductor en la posición correspondiente con la de los 180 grados en la circunferencia.

Al transitar, el movimiento del cuentakilómetros accionaba el mecanismo interno del Live Map llevando a que la rueda con información del dispositivo gire en sentido horario. La misma indicaba las condición del camino siguiente (si era de tierra o de piedra), la posición del trayecto en la que el conductor se encontraba en ese momento, puntos de descanso próximos, e indicaciones de navegación muy puntuales y específicas como por ejemplo la de “Doblar a la izquierda al llegar al árbol en el centro del camino pasando la iglesia” que se encontraba en Vallonia, en la posición 80 del camino entre Indinapolis y French Lick.

El dispositivo se vendería con éxito, existiendo cientos de rutas para el 2020 y la capacidad de recorrer los Estados Unidos de punta a punta, saliendo de Nueva York y llegando a Los Angeles utilizando siempre un disco de Live Map en todo punto del camino. No obstante, la necesidad de actualizar los mapas constantemente, sobretodo a mediado de los 20s cuando los distintos estados comenzaron una campaña de re-organización masiva de sus rutas con un foco en los automóviles, la pavimentación a nivel estatal y nacional y los carteles viales que comenzaron a hacerse visibles en todas las ciudades, llevaron a que el Mapa de Jones pierda su gracia y prontamente pase al olvido.

Artículos relacionados
Un mensaje que cambiaría al mundo, el primer mensaje de telégrafo.
La fotografía más antigua (que se conserva, ya que la primer fotografía de la historia fue tomada por el gran Athanasius Kircher en el siglo XVII)
La primer película de la historia (video completo)
La grabación musical más antigua que se conserva.
Voz del pasado, la lucha por recuperar la grabación más antigua de la voz humana.
La Internet del siglo XIX.

El último insulto a Lavoisier

En el pasado habíamos hablado lo injusta y despiadada que fue la ejecución de Lavoisier, uno de los más grandes científicos en la Historia. Traicionado, acusado injustamente y decapitado sin reparo alguno, aunque posiblemente el desprecio que sufrió durante y tras su ejecución fue aun peor que cualquier daño físico.

Éste hombre fue el científico que descubrió y nombró el oxígeno, nombró el hidrógeno (descubierto anteriormente por Cavendish pero explicado y nombrado por Lavoisier), creó los primeros modelos químicos de los procesos de combustión, estudió los procesos de oxidación, dio por obsoleta la teoría pseudo-científica del flogisto, impuso el método científico en el estudio de los elementos y avanzó notablemente el uso de procesos químicos en la agricultura entre otros logros, fue ejecutado en la guillotina debido su origen noble y su rol como tesorero del fisco en el pasado, labor a la que nunca le dio importancia ya que su mente estaba completamente ocupada con sus estudios científicos. Durante su juicio rogó no por su vida, sino porque se le permitiese continuar con sus estudios, pero el juez le replicaría que:

“La República no necesita ni científicos ni químicos, el curso de la justicia no puede ser detenido”

El último insulto
Pero quizás el último insulto vino casi un siglo después de su ejecución de manos de una tierra que nunca lo apreció ni respetó como se debía. La única estatua que se erigió en su honor en más de un siglo fue hecha a regañadientes, por un escultor poco interesado y mal pago que utilizó como modelo la cabeza de otra persona, el Marqués de Condorcet, por “no tener tiempo y aprovechar que ya tenía la otra”, y peor aun, durante la Segunda Guerra Mundial la misma fue cortada por su base, rebanada en partes, y fundida por su metal. La estatua nunca fue remplazada.

Artículos relacionados
El Sr. Richebourg, un espia particular.

El hombre que pensó distinto a todos y logró traducir los jeroglíficos egipcios

Piedra de RosettaUn 15 de Julio de 1799 un grupo de soldados Franceses se encontraban reparando los muros del Fuerte Julien, un fuerte originalmente Otomano capturado por los franceses. Sin saberlo realizarían uno de los hallazgos más importantes de los siglos XVIII y XIX. Al reforzar una de las paredes, corrieron una gran piedra utilizada como cimiento por los Otomanos durante la construcción del fuerte, fue prontamente el capitán e ingeniero Pierre-François Bouchard, que se encontraba guiando los trabajos de reparación, quien se dio cuenta que esa roca que los Otamanos habían enterrado como si fuese una piedra más tenía en realidad un gran valor arqueológico. Si algo hicieron los soldados franceses fue toparse con reliquia perdida tras reliquia.

La piedra contenía el mismo texto en tres lenguajes distintos: el egipcio antiguo, el demótico y el Griego antiguo. El demótico era una versión simple del egipcio antiguo con origen entre las clases populares del Delta del Nilo, de aquí su nombre en griego dimotika (habla popular). Los escribas de menor rango e incluso las clases populares podían dejar su legado escrito en demótico, a diferencia de los jeroglíficos sólo utilizados por los escribas de alto rango.

El mismo Napoleón poseía un gran interés por la cultura del Egipto antiguo, por lo que ordenó a sus soldados recolectar cualquier reliquia que hallasen, muchas de estas semi enterradas o completamente descuidadas. Algo común tras la caída de un gran imperio, recordemos como las finísimas losas de mármol del Foro Romano y tantos otros edificios fueron destripadas de sus edificios para crear paredes de chiqueros en la Roma medieval.

Oficial napoléonico en Egipto

La importancia de la piedra fue notada desde un principio y varias copias de la misma fueron realizadas y enviadas a varios museos, si bien el artefacto se estudió intensivamente durante más de dos décadas no fue hasta 1822 que Jean-François Champollion logró traducirla y crear el primer diccionario de jeroglíficos. Todos sus antecesores consideraban al egipcio como un lenguaje simple, primitivo, cuyos símbolos representaban simples alegorías. Traducirlo, creían, requería entender las alegorías de los símbolos. Tanto los contemporáneos a Champollion como los del pasado, sólo Ibn Wahshiyya llegó a sugerir que podían llegar a formar un alfabeto, no obstante falló en su intento.

Presentación de la piedra de Rosetta
(Presentación de la piedra)

Piedra RosettaPero Champollion pensó distinto, el no creía que esos hombres que erigieron las pirámides escribiesen con simples alegorías gráficas (algo que mucha gente todavía cree), y así comenzó a buscar patrones, series de repetición, familiaridades ente grupos de símbolos e incluso frecuencias entre los distintos símbolos. Eventualmente descubrió algo sorprendente, no se trataba de un sistema puro de escritura como el alfabético sino que era un complejísimo sistema mixto de morfemas logográficos que servía para representar, en efecto, de manera alegórica ideas pero que además incluía 24 caracteres de consonantes simples cuya función se asemejaba a la de un alfabeto y se complementaba incluso con glifos fonéticos.

Jean-François ChampollionLo más sorprenderte es cómo Champollion comenzó a desenmarañar el problema. Primero se dio cuenta que los egipcios encerraban ciertos nombres y palabras en cartuchos (una especie de borde ovalado), por lo que buscó en monumentos los jeroglíficos que representaban los nombres de los personajes honrados en dichas obras, especialmente el de Cleopatra en el Templo de File. Es así que llegó a una conclusión fascinante: los jeroglíficos también contenían un componente alfabético, algo que no era obvio a priori ya que como se mencionó anteriormente era un sistema de escritura mixto en el cual convivían ciertos símbolos logográficos que permitían resumir conceptos o palabras comunes en simples símbolos alegóricos y un sistema alfabético.

Piedra de Rosetta

Pero no terminaba allí, además de lo anterior descubriría que poseía un sistema de redundancia fonética mediante complementos fonéticos, similar a los vistos el lenguaje escrito Maya o en el kanji japonés. Una misma palabra podía escribirse de manera distinta si se le adicionaba su componente fonético

Curiosamente Champollion debió trabajar con copias, ya que no tuvo acceso a la piedra original (tras la derrota de Napoleón en Waterloo los Británicos tomaron posesión de la piedra y la enviaron al Museo Británico).

Y qué decía la piedra
El texto en la misma hace al Decreto de Menfis, y la Piedra de Rosetta no fue única, sino que cientos de estas fueron realizadas y expuestas en plazas y mercados para comunicar el decreto. En efecto, como se aprecia en las imágenes la Piedra de Rosetta estaba dañada y su texto incompleto, gracias al hallazgo de otras de estas piedras, como la estela de Noubarya, se pudo completar el texto entero

Artículos relacionados
De como mover un frágil obelisco de 4 mil años.
Desenterrando el obelisco egipcio más grande alguna vez construido.
El sultán que intentó destruir las pirámides.
El sello que protegió la tumba de Tutankamón durante 3.245 años.

El automóvil más viejo del mundo que aun funciona

Construido en 1884 y propulsado a vapor, éste De Dion-Bouton et Trepardoux, mejor conocido con La Marquise ha roto todos los récords no sólo por ser uno de los automóviles más viejos del mundo, sino porque aun funciona como el primer día. Ciertamente, ya no los hacen como antes.

Como apreciamos en el video, encender el motor del mismo era todo un tabajo, un proceso que requería más de media hora hasta que la caldera almacenera suficiente vapor como para poner al vehículo en marcha.

Mientras La Maqruise recorría las calles de París atrapando todas las miradas, en Alemania un ingeniero llamado Karl Benz se encontraba arduamente trabajando en algo revolucionario, un motor a combustión interna lo suficientemente pequeño como para funcionar en un vehículo de dimensiones similares a las de un carruaje. Benz ya había patentado un motor en 1878, pero la versión de 1885 era algo completamente distinto y verdaderamente revolucionaria. Un año más tarde, en 1886, construiría en Mannheim la primer versión de su mítico Motorwagen.

El hormiguero humano, la fiebre del oro de 1983 en Brasil

La fiebre del oro brasileraPocas veces he visto imágenes tan espectaculares como las captadas en 1983 en el Amazonas brasilero.

Todo comenzó a finales de dicho año, cuando se corrió un rumor sobre el hallazgo en uno de los garimpos (minas de oro improvisadas) de una veta madre de oro puro. El rumor tomó fuerza explosiva cuando pepas del tamaño de un puño se encontraron en el río Juma, por lo que los periodistas documentando la locura que acontecía denominaron al fenómeno como “Eldorado do Juma”. Locura que tristemente se repetería en varios de los cientos de garimpos por todo el amazonas, como el de Serra pelada y el del río Pacu.

La fiebre del oro brasilera
La fiebre fue inmensurable, docenas de miles de empobrecidos campesinos llegaban todos los días a escarbar aunque sea con sus manos, familias enteras. Las pestes comenzaron a aflorar y la malaria atacó a miles de personas.

La fiebre del oro brasilera
El crimen y la prostitución infantil estaba a la orden del día, pero a la absoluta mayoría sólo le importaba el oro y nada más que el oro. Como hormigas, sin equipos de excavación, sólo con palas y picos, removieron una montaña entera, y excavaron cavernosos laberintos en toda la región.

La fiebre del oro brasilera
El daño ambiental fue terrible, ya que los garimperos cargaban bolsas al hombro hasta el área de proceso, donde se utilizaba cianuro para separar el oro de baja calidad de los demás minerales, descartando los residuos en el río.

La fiebre del oro brasilera

Todo terminó como podía esperarse desde un principio, la gente desilusionada y explotada abandonando los garimpos en masa, dejando pueblos fantasmas a su paso, ecosistemas completamente destruidos y un legado de los bajo que puede llegar la miseria humana.

La antropometría y el ingeniero que parametrizó al ser humano para que las acciones y la interacción con los objetos resulten más simples

Hombre de vitruvioDefinir la altura estándar de una puerta parece algo muy simple: hacerla lo suficientemente alta como para que pasen por la misma las personas más altas dentro de un rango razonable que acapare al 99% de la población, pero lo suficientemente baja para que sea práctica estructuralmente. Eso resulta simple de comprender; pero qué acerca de, por ejemplo, la altura de una silla en relación a un escritorio y sus cajones, ciertamente debe existir una relación matemático estadística que enlace y determine los tamaños y distancias para que dichos elementos sean cómodos como para que el promedio de los seres humanos, y sus rangos de variaciones, puedan realizar una escritura confortable sobre la superficie del escritorio como a su vez poseer un fácil y rápido acceso a los cajones del mismo sin necesidad de mover el tronco de su cuerpo, todo perfectamente al alcance de nuestros brazos; o tal vez cuando nos sentamos en un automóvil, y simplemente con un movimiento de brazos podemos tomar el ojal del cinturón de seguridad e insertarlo en la traba con un simple movimiento que tampoco requiere mover el tronco del cuerpo para la absoluta mayoría de la población adulta.

Todo esto hoy lo damos por sentado y resulta tan básico, tan elemental y dado por hecho que nunca pensamos que esto, en realidad, es el producto de siglos de mediciones y estudios. Primero desde el saber común con tablas de medidas para ciertos objetos, y luego, con la llegada de la modernidad, del diseño industrial y el estudio científico de la biomecánica humana.

Los pioneros
Tabla de medidasPrimeramente ésta ciencia empezó como una técnica, midiendo la disposición y distancia de los elementos, por ejemplo, Hipócrates dio gran importancia en la cirugía al acceso y distancia del instrumental, Taylor durante la revolución industrial presto principal atención a mecanizar movimientos cortos, simples y prácticos durante el trabajo, y ciertamente infinidad de gremios a lo largo de los siglos desarrollaron sus propias “tablas de medidas” como la que puede verse hacia la derecha, utilizada por carpinteros del mundo angloparlante para determinar el tamaño y la distancia óptimos de distintos muebles para que estos sean prácticos y convenientes.

EL ModulorNo obstante, no fue hasta la llegada del arquitecto Charles-Édouard Jeanneret-Gris, mejor conocido como Le Corbusier, en que las dimensiones y movimientos humanos se comenzaron a considerar como relaciones matemáticas aplicables. Para esto creó el Modulor, una serie de escalas antropométricas que harmonizaban las dimensiones humanas con la arquitectura. Con éste, se podían dimensionar objetos tanto arquitectónicos como mobiliarios de manera tal que posean una mayor armonía con las dimensiones y movimientos humanos. El mismo empleaba fuertemente las series de Fibonacci y, a grosso modo, el sistema partía desde la mano levantada del hombre (226cm) y desde su ombligo (113cm). A partir de la primer dimensión se suma y se resta sucesivamente en relación a la sección áurea y se obtiene la serie azul; con el mismo proceso, pero a partir de la segunda medida, se obtiene la serie roja. Esto permite obtener miles de combinaciones aplicables tanto a un simple mueble como a un edificio entero.
EL Modulor

El hombre que parametrizó al ser humano
Estudios de Henry DreyfussEl problema con el Modulor es que si bien fue un adelanto no era un estudio científico, y se preocupaba más por la estética y el arte que el rigor matemático. No obstante, esto lo solucionaría el industrial Henry Dreyfuss a mediados del siglo XX. Con éste fin publicaría en 1960 una influyente obra denominada Measure of Man: Human Factors in Design (La medida del hombre: Factores humanos en el diseño), una obra culmine del diseño industrial; en la que se interpretan las relaciones ergonómicas como si se tratase de “ingeniería humana”. La antropometría deja de ser el paradigma principal siendo reemplazada por la ergonomía, es decir, las medidas en si dejaban de importar y las relaciones de movimientos y posiciones eran los factores determinantes

Estudios de Henry Dreyfuss
Estudios de Henry DreyfussDreyfuss crearía dos modelos estandarizados Joe y Josephine, todas sus medidas no estarían determinadas por valores absolutos sino que representarían porcentajes interrelacionados, por lo que al ajustar ciertas variables los modelos podían representar personas de distintos tamaños, así como niños, personas con distintos índices de masa corporal e incluso personas en sillas de ruedas. La biomecánica jugaba un rol fundamental en dichos modelos, con las articulaciones y sus rangos de acción definidos en arcos proyectantes de gran información visual para quien emplee el modelo.

Estudios de Henry DreyfussLas dimensiones, los rangos de movimiento y rotación del cuerpo dejan de ser valores individuales y pasan a representar relaciones interdependientes, jerarquizadas. Un movimiento de la rodillas alterará los valores asignados a su respectivo pie, así como el área de acción del modelo. Más importante aun es la tabulación de valores aplicables a distintas acciones. Tablas para el modelo sentado, tablas para el modelo estático, tablas para el modelo en movimiento, etc.

Estudios de Henry Dreyfuss

Esta obra marcó un antes y un después, y ciertamente dejó por sentado que en el diseño industrial se deben adaptar los objetos a la persona y no la persona a los objetos, dando paso a los diseños altamente ergonómicos que disfrutamos hoy en día.