Tag Archives: Desarrollo tecnológico

El vehículo de tierra rápido de la historia

Construido por la NASA este trineo deslizador impulsado a cohete (no tenía ruedas sino una base similar a dos perfiles U) alcanzó una velocidad de mach 8,5 es decir, unos 10.325 kilómetros por hora en la base Holloman. La base Holloman no es cualquier otra base, en la misma tienen el dispositivo de pruebas de alta velocidad más elaborado y avanzado del mundo, el cual puede simular lluvias, útil para probar como lás cabinas de los aviones supersónicos de la USAF van a reaccionar mientras viajan a velocidades supersónicas bajo la lluvia, e incluso un sistema de amortiguadores acuáticos cuando el vehículo en cuestión se desea recuperar intacto. Esta pista es básicamente un sistema de rieles diseñado en parte por el mismo John Stapp. Durante los últimos años la base añadió otro sistema de rieles, éste ultimo de tipo maglev, para pruebas hipersónicas (velocidades superiores a mach 5).

Nota: La base Holloman ha probado otro vehículo un poco más rápido que el anterior, el cual superó a la prueba de la NASA por unos pocos km/h (relativamente nada en comparación). No obstante, el material filmográfico del mismo es muy escaso y de mala calidad.

La antropometría y el ingeniero que parametrizó al ser humano para que las acciones y la interacción con los objetos resulten más simples

Hombre de vitruvioDefinir la altura estándar de una puerta parece algo muy simple: hacerla lo suficientemente alta como para que pasen por la misma las personas más altas dentro de un rango razonable que acapare al 99% de la población, pero lo suficientemente baja para que sea práctica estructuralmente. Eso resulta simple de comprender; pero qué acerca de, por ejemplo, la altura de una silla en relación a un escritorio y sus cajones, ciertamente debe existir una relación matemático estadística que enlace y determine los tamaños y distancias para que dichos elementos sean cómodos como para que el promedio de los seres humanos, y sus rangos de variaciones, puedan realizar una escritura confortable sobre la superficie del escritorio como a su vez poseer un fácil y rápido acceso a los cajones del mismo sin necesidad de mover el tronco de su cuerpo, todo perfectamente al alcance de nuestros brazos; o tal vez cuando nos sentamos en un automóvil, y simplemente con un movimiento de brazos podemos tomar el ojal del cinturón de seguridad e insertarlo en la traba con un simple movimiento que tampoco requiere mover el tronco del cuerpo para la absoluta mayoría de la población adulta.

Todo esto hoy lo damos por sentado y resulta tan básico, tan elemental y dado por hecho que nunca pensamos que esto, en realidad, es el producto de siglos de mediciones y estudios. Primero desde el saber común con tablas de medidas para ciertos objetos, y luego, con la llegada de la modernidad, del diseño industrial y el estudio científico de la biomecánica humana.

Los pioneros
Tabla de medidasPrimeramente ésta ciencia empezó como una técnica, midiendo la disposición y distancia de los elementos, por ejemplo, Hipócrates dio gran importancia en la cirugía al acceso y distancia del instrumental, Taylor durante la revolución industrial presto principal atención a mecanizar movimientos cortos, simples y prácticos durante el trabajo, y ciertamente infinidad de gremios a lo largo de los siglos desarrollaron sus propias “tablas de medidas” como la que puede verse hacia la derecha, utilizada por carpinteros del mundo angloparlante para determinar el tamaño y la distancia óptimos de distintos muebles para que estos sean prácticos y convenientes.

EL ModulorNo obstante, no fue hasta la llegada del arquitecto Charles-Édouard Jeanneret-Gris, mejor conocido como Le Corbusier, en que las dimensiones y movimientos humanos se comenzaron a considerar como relaciones matemáticas aplicables. Para esto creó el Modulor, una serie de escalas antropométricas que harmonizaban las dimensiones humanas con la arquitectura. Con éste, se podían dimensionar objetos tanto arquitectónicos como mobiliarios de manera tal que posean una mayor armonía con las dimensiones y movimientos humanos. El mismo empleaba fuertemente las series de Fibonacci y, a grosso modo, el sistema partía desde la mano levantada del hombre (226cm) y desde su ombligo (113cm). A partir de la primer dimensión se suma y se resta sucesivamente en relación a la sección áurea y se obtiene la serie azul; con el mismo proceso, pero a partir de la segunda medida, se obtiene la serie roja. Esto permite obtener miles de combinaciones aplicables tanto a un simple mueble como a un edificio entero.
EL Modulor

El hombre que parametrizó al ser humano
Estudios de Henry DreyfussEl problema con el Modulor es que si bien fue un adelanto no era un estudio científico, y se preocupaba más por la estética y el arte que el rigor matemático. No obstante, esto lo solucionaría el industrial Henry Dreyfuss a mediados del siglo XX. Con éste fin publicaría en 1960 una influyente obra denominada Measure of Man: Human Factors in Design (La medida del hombre: Factores humanos en el diseño), una obra culmine del diseño industrial; en la que se interpretan las relaciones ergonómicas como si se tratase de “ingeniería humana”. La antropometría deja de ser el paradigma principal siendo reemplazada por la ergonomía, es decir, las medidas en si dejaban de importar y las relaciones de movimientos y posiciones eran los factores determinantes

Estudios de Henry Dreyfuss
Estudios de Henry DreyfussDreyfuss crearía dos modelos estandarizados Joe y Josephine, todas sus medidas no estarían determinadas por valores absolutos sino que representarían porcentajes interrelacionados, por lo que al ajustar ciertas variables los modelos podían representar personas de distintos tamaños, así como niños, personas con distintos índices de masa corporal e incluso personas en sillas de ruedas. La biomecánica jugaba un rol fundamental en dichos modelos, con las articulaciones y sus rangos de acción definidos en arcos proyectantes de gran información visual para quien emplee el modelo.

Estudios de Henry DreyfussLas dimensiones, los rangos de movimiento y rotación del cuerpo dejan de ser valores individuales y pasan a representar relaciones interdependientes, jerarquizadas. Un movimiento de la rodillas alterará los valores asignados a su respectivo pie, así como el área de acción del modelo. Más importante aun es la tabulación de valores aplicables a distintas acciones. Tablas para el modelo sentado, tablas para el modelo estático, tablas para el modelo en movimiento, etc.

Estudios de Henry Dreyfuss

Esta obra marcó un antes y un después, y ciertamente dejó por sentado que en el diseño industrial se deben adaptar los objetos a la persona y no la persona a los objetos, dando paso a los diseños altamente ergonómicos que disfrutamos hoy en día.

Von Braun y su atrevido plan para llegar a Marte en 1982

Wernher von BraunWernher von Braun fue ciertamente una de las pocas personas en la historia de la humanidad a las cuales el calificativo de genio le queda corto. Padre de la cohetería moderna y cuyo trabajo no sólo permitió poner a más de una decena de hombres en la Luna, sino además a partir de quien continúan basándose prácticamente todos los diseños de sistemas modernos capaces de poner personas en órbita -recordarán como Sergey Korolyov, otro genio absoluto de la ingeniería, debió de estudiar los planos alemanes capturados por los soviéticos durante la Segunda Guerra mientras se encontraba cautivo viviendo en condiciones infrahumanas en Sharashka, la prisión para genios de la Unión Soviética, y desde la cual comenzó a imaginar su histórica Soyuz. Nave de la cual, tras el inminente retiro del transbordador, dependerá por completo la Estación Espacial Internacional-

Plan de cuatro etapas
(Aquí vemos detalladas las etapas de lanzamiento y ensamble de las fases)

Si bien von Braun entendía perfectamente que tras la llegada a la Luna la carrera espacial se enfriaría y aletargaría considerablemente como mencionó en varias oportunidades, nunca imaginó que la misma, que supo inspirar a decenas de millones de personas en el mundo a interesarse por la ciencia y la ingeniería y de la cual se desprenden gran parte de los avances tecnológicos modernos, sería reducida por el gobierno estadounidense al nivel de un mero gasto público más cuyo presupuesto se aprueba año a año cada vez con mayor renuencia. Razón por la cual incluso antes de finalizar con el Programa Apolo el ingeniero pródigo ya se encontraba trabajando en un plan para llegar a Marte. Plan que resumiría en un libro: Project MARS: A Technical Tale -el cual pueden conseguir en cualquier tienda en-línea de venta de libros.

El módulo de exploraciónSu ilusión sobre la posibilidad de tal proyecto pareció convertirse en realidad cuando Spiro Agnew, entonces vice-presidente de los Estados Unidos, le encomendara realizar en treinta días una presentación sobre una posible misión a Marte para 1982/86 a ser presentada durante la reunión de la Space Task Group el 4 de agosto de 1969. Reunión en la que se reunirían científicos e ingenieros con senadores, congresistas y el mismo presidente de los Estados Unidos, Richard Nixon, para discutir sobre la viabilidad del proyecto. Emocionado con esto, von Braun rápidamente volcaría sus ideas, ya mucho más avanzadas que las sugeridas en Poject MARS, asistido a su vez por William Lucas, Ron Harris y Gene Austin -todos legendarios miembros de la NASA- en una serie de diapositivas describiendo el proyecto de la manera más simple posible.

Sus nuevos diseños eran mucho más avanzados no sólo estructuralmente, sino que ahora los cohetes estarían compuestos por cuatro etapas alimentadas por energía nuclear que, debido a su colosal tamaño, debían ser lanzadas por separado y luego unidas en órbita antes de comenzar el viaje. Esto, obviamente, un requerimiento de la misión ya que debido a la distancia del Planeta rojo y el tiempo de viaje requerido los astronautas no pasarían sólo unas horas en la superficie marciana como durante los viajes a la Luna, sino que deberían permanecer durante meses hasta que las posiciones orbitales de Marte y la Tierra sean las adecuadas para emprender el viaje de regreso.

Interior de la nave

El Programa Integrado
El Plan Integrado a largo plazoLa genialidad de este programa no era la nave ni los módulos en si mismos, sino su exhaustiva visión y extensión. Von Braun y sus colaboradores vieron el talón de Aquiles del Programa Apolo: si bien una maravilla de la ingeniería, era un proyecto condenado por su aislamiento. Una vez cumplida la misión, y como es que efectivamente ocurrió, todo terminaba. Para solucionar esto, y así comenzar no sólo una misión para llegar a Marte sino formalizar un programa espacial verdadero, exhaustivo y a largo plazo, crean el Programa Integrado. Éste programa además de intentar poner seres naves del Programa Integrado de von Braunhumanos en Marte integraba tanto la creación de toda una infraestructura, tanto terrestre como espacial, junto a la creación de subprogramas científico-tecnológicos para lanzar así a la humanidad a una nueva era de exploración y avance científico continuo. Desde misiones robóticas hasta bases y centros de investigación inter-relacionados iban a permitir, de haberse escuchado a éstos científicos, una tasa de cién misiones anuales para 1980 y una población permanente de más de 250 personas trabajando en alguna de las bases y naves entre la Tierra, la Luna y Marte para 1990. Si bien en el devaluado 2010 esto parece un número astronómico, el programa también comprendía el subsecuente abaratamiento de costos y la mayor disponibilidad de partes y nuevas tecnologías producto no sólo de los grandes números de misiones sino además del provecho económico y científico traído por las mismas.

Desafortunadamente, y si bien durante esa reunión hubo grandes discursos y varias promesas, la patética falta de visión y el poco interés por el progreso científico por parte de los políticos pudo más, y hoy, más de cuarenta años después, debemos agradecer que al menos se puede tener una estación espacial con una tripulación de menos de diez personas y un futuro muy incierto orbitando nuestro frágil planeta azul.

Cómo hacen para hundirse y salir a flote los submarinos

La teoría
Todo se reduce al Principio de Arquímedes. Es decir, un cuerpo parcial o totalmente sumergido en un fluido incomprensible y estático que es empujado hacia arriba -o más precisamente en un sentido contrario a la dirección de la gravedad- con una fuerza igual al peso del volumen del agua que dicho cuerpo desplaza. Los barcos, y otros navíos que flotan sobre la superficie del agua, se mantienen en una condición positiva de equilibrio, es decir, pesan menos que el volumen de agua que desplazan, por lo que el empuje hidrostático que resulta de las presiones sobre sus superficies es lo que los mantiene a flote.

Interior de un submarino

El sistema
Los submarinos, cuando se encuentran en la superficie, también se mantienen en un equilibrio hidrostático a su favor. Sin embargo, lo interesante llega a la hora de hundirse. Los submarinos antiguos utilizaban tanques de balastro que eran abiertos para que se llenasen con agua y así el equilibrio hidrostático resulte negativo dando como resultado el hundimiento de la nave. En el presente, si bien el principio es el mismo, se utilizan complejos sistemas computarizados que abren los tanques secuencialmente para permitir hundimientos a distintas velocidades e incluso con distintos ángulos de inclinación. Incluso poseen balastros especializados denominados por estándar DCT -Depth Control Tanks, Tanques de Control de Profundidad- que soportan presiones mucho mayores y pueden dar un balance mucho más preciso al submarino cuando este se encuentra sumergido a grandes profundidades.

No obstante, otros métodos menores son utilizados como el cálculo de maniobras hidrodinámicas y también, en algunos submarinos de última generación estadounidenses, variaciones en el centro de gravedad de la nave. Aunque esto principalmente sirve para maniobrar mejor a grandes profundidades.

Lo que nos lleva a Tortuga
Tanque de balastro de un submarinoDesalentado por el papel casi secundario de las deidades helénicas -después de todo si no fuese gracias a los turbulentos y fogosos actos amatorios del rey de los mares cómo se moverían las olas?!- busqué algo que me alegrara el día. Es así que conocí a Turtle, el primer submarino utilizado en una batalla.

Diseñado en 1775 por David Bushnell en Connecticut con el fin de perforar secretamente la base de los navíos ingleses anclados en puertos estadounidenses, fue utilizado por vez primera el 7 de Septiembre de 1776. Piloteada por el Sgto. Ezra Lee, esta pequeña pelota de 1,8 mts de alto por 0,9 de ancho, intentaría atacar el poderoso HMS Eagle, en la isla Liberty. Al no poder maniobrar correctamente Lee debió abandonar a Turtle en su segundo intento.

La imagen es un esquema realizado por el mismo Bushnell, en ella podemos ver los rudimentarios mecanismos manuales y el taladro en el lomo del Turtle. Debajo del piso puede verse el balastro.

Las sorprendentes armas secretas alemanas en la Segunda Guerra

La Segunda Guerra Mundial es uno de mis tópicos de lectura favoritos en lo que a historia respecta. Pero no importa cuanto lea del tema, nunca voy a dejar de asombrarme por el increíblemente avanzado estado de la tecnología alemana en relación al resto del mundo. Desde misiles guiados por sistemas electro-ópticos hasta sensores infrarrojos, son algunas de las armas alemanas que, a pesar de su gran misterio, atormentaban a los aliados en el campo de batalla. Es sorprendente pensar que esto que hoy es información pública, hace 60 años atrás eran secretos tan celosamente guardados que decenas de espías perdieron sus vidas intentando descifrarlos.

Por razones de espacio vamos a obviar algunas de las armas de las que ya hablamos, como los drones explosivos o el súper cañon Schwerer Gustav. Así como los ya famosos misiles de largo alcance V2 y los primeros cazas a reacción de la historia.

El sistema de navegación X-Geräte
X-GeräteUno de los mayores secretos de la guerra fue el entender como los bombarderos de la Luftwaffe seguían rutas tan precisas. La respuesta a esto consistía en el X-Geräte, el primer sistema de navegación electrónica funcional en la historia. Este estaba compuesto por un sistema de posicionamiento trigonométrico en base a señales de tierra -El GPS de hoy día utiliza el mismo sistema, salvo que en vez de señales de referencia en tierra emplean satélites- y un avanzado sistema de blanco y calibración de bombas -basado también en un sistema trigonométrico y de cálculo de trayectoria-. Al ser completamente automático, permitía que los bombarderos alemanes vuelen con menor cantidad de hombres que los aliados, ya que la navegación y el blanco de las bombas era controlado por el mismo sistema. Este tipo de misiones generalmente eran acompañadas con un seguimiento de radares que trabajaban en el rango de los 560MHz como el FuGM 36.

Los primeros misiles guiados
Fritz-XLa Luftwaffe contaba con los únicos misiles guiados del mundo en ese entonces. Son legendarios los reportes de los pilotos de la RAF que aterrorizados veían como los misiles alemanes no seguían una trayectoria recta, sino que todo lo contrario, al igual que un depredador, doblaban en el aire atacando la nave más cercana.
El primer misil guiado de la historia fue la serie Henschel Hs. Sin embargo, era muy ineficiente para ser utilizado contra aviones, por lo que su uso sería exclusivo contra buques. Esto cambiaría con la llegada del RK 344, el cual podía ser disparado a 2 millas de distancia. De todas maneras, los dos tipos anteriores eran guiados a control remoto. El primer misil guiado de manera automática fue el Naxos Z, el cual detectaba las emisiones del sensor H2S de los bombarderos americanos. Si bien no contaba con la precisión de los misiles modernos, el efecto psicológico en los pilotos aliados era devastador.

Fritz-X

Mauser MG 213C
Mauser MG 213CEl Mauser MG 213C fue un tipo de cañón anti-aéreo nunca antes visto. Ingeniosamente combinaba el mecanismo a tambor de un revólver con un sistema giratorio múltiple de cañones. De esta forma, se lograba disparar una lluvia de balas desde tierra hacia los aviones aliados con un resultado devastador. Si bien nunca fue producido en serie, al terminar la guerra las unidades remanentes fueron capturadas por los aliados. A partir de éstas se basaría toda la artillería anti-aérea moderna utilizada desde los años 50s hasta finales de los 80.

Miras infrarrojas
Algunos de los relatos más escalofriantes de la Segunda Guerra tienen lugar en las bitácoras de los capitanes de marina británicos, los cuales aseguraban que los alemanes podían disparar con exacta precisión a través de densas cortinas de humo. Esto no era suerte ni casualidad por parte del ejército alemán, sino que era asegurado gracias a la utilización del detector infrarrojo Kiel y los asistentes de blanco y calibración Spanner I y II. La precisión de este equipo era devastadora, ya que permitía a los barcos alemanes no solamente apuntar a través de las cortinas de humo, sino que además servía para atacar de noche y detectar flotas de aviones enemigos. Posteriormente los spanners serían adaptados a los caza tipo Kauz III.

Hoy en día, precisamente, las bombas y cortinas de humo contienen partículas metálicas pesadas para evitar la detección infrarroja.

El tanque de Leonardo

“Estos tomarían el lugar de los elefantes en el campo de batalla. Se pueden inclinar. Se puede estar dentro de ellos para desparramar terror en los caballos enemigos, y se pueden poner carabineros dentro para romper las formaciones enemigas”.

Así describe Leonardo su visionaria maquinaria de guerra, y no era para menos ya que en el período que comenzaba a idear sus artefactos bélicos su ciudad adoptiva, Milán, se encontraría en guerra contra los franceses, contra otras ciudades italianas -especialmente Venecia-, los alemanes, los austriacos, los suizos, los otomanos y los húngaros… entre otros. Preocupado por esto nuestro genio Renacentista no solo diseñó la Condotta, una formación de unidades especializados en distintas tareas y funcionales unas a otras. Sino que además pensó en herramientas tales como armas de fuego rápido y hasta ataques aéreos. De hecho su idea de ejército ideal era muy parecida a los ejércitos actuales, donde un grupo de unidades extremadamente diferentes y con distintas aplicaciones se conjugaban entre si para causar el mayor daño posible al enemigo. Sin embargo, de todos estas ideas, serían los tanques uno de sus prototipos más visionarios y desarrollados.

Una de estas unidades especificas era justamente algo muy parecido a lo que hoy en día denominamos como “tanque de guerra”. En objetivo de estos, como él mismo lo menciomó, era reemplazar el papel del elefante -el elefante se utilizaba como base para arqueros y jabalineros-. En estos aparatos se introducirían varios arqueros los cuales dispararían desde su fortaleza móvil y cuyo objetivo sería no el de destruir al enemigo por si mismos sino crear caos entre sus líneas desestabilizando las formaciones. Así mismo, como los tanques de hoy en día, podrían ser utilizados como cobertura por las tropas enemigas que marcharían tras estos. Para moverlo se emplearían varios hombres los cuales utilizando un intrincado mecanismo de palancas lograrían hacer girar las ruedas a gran velocidad.

La astronomía en las civilizaciones antiguas

He decidido realizar un texto resumido y conciso sobre como las diferentes civilizaciones veían y estudiaban el firmamento que las rodeaba. Es impresionante ver como el estudio del cielo varía y se transforma con la esencia de cada pueblo. Desde los supersticiosos Hebreos quienes atribuían todos los fenómenos a los deseos de un dios, pasando por los Egipcios quienes se debatían entre la razón y la religión, culminando con los Griegos para quienes la razón y la lógica, de la mano de las matemáticas, se convertía en la herramienta perfecta para develar los misterios del cosmos.

Mesopotamia
Tableta babilónicaDentro de la Mesopotamia los Babilónicos estaban tecnológicamente mucho más avanzados que sus competidores. De hecho su avance tecnológico era tan elevado que la calidad y complejidad de los equipos utilizados por éstos hacía rivalidad a los empleados mucho tiempo después por los Griegos, con equipos muy similares al gnomon, la clepsidra, y el polos.

Llamativamente su estudio de los cielos era empírico, realizando anotaciones matemáticas de todo lo observado -matemática que heredaron y continuaron de los sumerios-, y su realizando varios análisis extremadamente analíticos -lo que los separaba de sus extremadamente supersticiosos vecinos-. Gran énfasis se encuentra en sus estudios sobre la erraticidad del movimiento planetario. Efectivamente, su mayor área de investigación, consistía en poder predecir la periocidad del desaparecer de los astros en el cielo y establecer las estaciones planetarias -muy posiblemente con el fin de construir mejores horóscopos-. Tanto avanzaron en éste campo que fueron la primer civilización en poder predecir la ubicación de un planeta a futuro matemáticamente. De hecho, el estudio de las tablas de arcilla de escritura cuneiforme que legaron, permite saber que pudieron solucionar los problemas de alteración del movimiento en ciertos astros erráticos.

La Tierra estaba representada con una gran montaña rodeada por agua y cubierta por la bóveda celeste. La bóveda no estaba formada por aíre, sino que era sólida y los picos más altos de la Tierra la sostenían.

Egipto
La principal utilización de la astronomía en Egipto se basaba en la división del tiempo. Ya desde el año 3000 AC dividían el año en 360 días el cual, a su vez, se dividía en 3 estaciones que se repartían en 12 meses de 30 días. Para solucionar los problemas de desfase, por las diferencias entre el Sol y la Luna, de las estaciones con respecto al calendario, 5 días “aparte” eran agregados periódicamente. Los decanos, constelaciones que servían para dividir el tiempo, dividían el año en 36 décadas -no décadas de 10 años sino que éstos eran períodos similares a las casas astrológicas de los demás calendarios-. Es notable como la esencia de una civilización influye en su astronomía. Los Egipcios magnos pero más preocupados por el arte y el esplendor visual, quedarían ampliamente relegados por sus vecinos quienes tratarían de hacer un análisis más exacto y matemático del firmamento.

Astronomía egipcia

Si bien el legado escrito no es muy amplio el arquitectónico nos deja una clara idea de que su astronomía estaba extremadamente avanzada. Las pirámides, por ejemplo, cuyas caras se orientan cada una a los cuatro puntos cardinales, los palacios que apuntan a constelaciones especificas, etc etc.

Su estudio primordial se basaba en comprender algunos fenómenos como el crecimiento del Nilo, río en el cual habían notado una periocidad en sus desbordes. Esto les permitía coordinar sus cosechas y abandonar el área antes de que se produjera dicha catastrofe. Los escribas, principalmente, eran los astrónomos encargados de anotar todo tipo de avistamientos y observaciones estelares. Sabemos que para ayudarse utilizaban un merkhet, una especie de compás estelar que permitía observar las estrellas y determinar la hora de noche. Esto era muy importante ya que requerían una gran precisión para saber cuándo, y cuándo no, realizar su gran cantidad de rituales. Para representaban a las deidades en diferentes constelaciones, las cuales al ocupar un vasto territorio, se movían por el firmamento anunciando cuando cierto ritual debía ser practicado. No obstante, el gran tamaño asignado a cada constelación dificultaba inmensamente su medición. Siendo esta la principal diferencia entre la medición matemática de sus contemporáneos Sumerios y la medición errónea e inexacta de los Egipcios.

Algo llamativo es que mientras que los cielos representaban a distintos Dioses -Nut, era la Diosa que formaba el cielo, Shu el aíre y el Sol y la Luna navegaban en una barca a espaldas de Nut- la Tierra no representaba el cuerpo de ningún Dios -aunque algunas anotaciones traen conflictos mencionando a Qeb como el que daba forma a la Tierra-. Por ende no tenían ninguna teoría que relacionara a los planetas con el resto del firmamento. La Tierra era vista como un montón de rocas rodeadas de una gran masa de agua.
Continue reading La astronomía en las civilizaciones antiguas

Un breve paseo por la Medicina Medieval

Los médicos
Si nos enfermásemos en la Edad Media tendríamos tres posibles destinos, que variarían dependiendo del tipo de especialista que nos toque: los doctores, los monjes o los herborístas. Irónicamente caer en las manos de un doctor medieval era lo peor que podía ocurrirnos ya que éstos se basaban en amuletos y oscuras teorías relacionadas a “sobrantes de cuerpo” que llevaban a amputaciones o drenados de sangre groseros e innecesarios que, consecuentemente, terminaban en la muerte del paciente. Ser tratados por un monje era más bien esperar a que nuestras auto-defensas corporales nos salvaran de morir. Aunque un plus radicaba en que los monjes ofrecían comida y reposo al paciente, lo que en gran parte de las enfermedades “mortales” de la época (gripe, resfríos, etc) era lo suficiente como para curarnos. Por último se encontraban los herborístas, éstos, llamativamente, eran lo mejor que podría tocarnos. Basados en los conocimientos empíricos dejados por los Griegos y Romanos de las plantas y los animales, se dedicaban a realizar “pócimas” que, algunas veces, lograban recuperarnos.

Tratado médico medieval

Qué se creía
Existían dos tipos de teorías acerca de las enfermedades:

La creencia religiosa: se pensaba que la enfermedad era un castigo de Dios (algo heredado de los Romanos, quienes atribuían las enfermedades a enojos de los distintos Dioses Olímpicos).

Tratado médico medievalLa escuela Hipocrática, o de “los 4 humores”: Los humores, originalmente, no eran emociones sino que eran los fluidos del cuerpo. Como se creía que cada humor era responsable de otorgarle alguna de las emociónes a la persona se entendía, entonces, que el correcto balance de estos “humores” era la llave a la buena salud. Lamentablemente esta teoría llevaba a que los “médicos” pensaran que en una persona existían “excesos de humor” ocasionando prácticas de drenado del o de los líquidos en cuestión. Esta teoría tenía una aceptación muy grande entre los “científicos” ya que se basaba en las cosmogonías generadoras del Universo, o los elementos: Sol (Fuego), Tierra, Agua Aire. Veamos una lista de cada humor y que emoción contenía:

De esta manera, si una persona tenía fiebre y sudaba mucho (calor y humedad) instantáneamente se pensaba que tenia un exceso de sangre, por lo que se procedía a drenarle parte de este tejido líquido. O también, por ejemplo, si una persona tenía problemas mentales y era agresiva, se creía que ésta padecia de un exceso de bilis amarilla (y ya se pueden imaginar lo mal que la iba a pasar). Como podemos ver era mucho mejor que nos tocara un monje o un herborísta que un doctor.

Artículos relacionados
Athanasius y los microbios.
Cirugía Plástica Medieval.
Chichonología, lectura de chichones.
Los ensalmadores.
Las máscaras antiplaga medievales.

De la IBM 701 a la IBM Blue Gene

Una noche como hoy pero de 1953 IBM anunció la creación de un súper ordenador, simplemente llamado “el 701”. Este ordenador, que ocupaba el tamaño de una vivienda, y anunciado como un boom tecnológico en sus especificaciones técnicas que nos informaban las prestaciones del mismo: sumas 16.000 por segundo o 2.000 multiplicaciones y divisiones por segundo. Combinadas podía realizar un total de 14 kiloflops, unas 14.000 operaciones por segundo.

Hace algunas semanas la misma IBM, autora de “El 701”, anunció su último prototipo de súper computadora para el 2005 la Blue gene/L. Esta súper computadora también ocupa el tamaño de varias habitaciones, y curiosamente también sus colores son azul gris y negro. Recién está funcionando a la mitad de su potencial ya que en un breve tiempo se le añadirá su otra mitad, la Purple gene. Juntas servirán como hardware de simulación para la US National Nuclear Security Administration (NNSA). La diferencia de ésta nueva súper computadora con su antepasado radica en que la Blue Gene/L, funcionando a todo su potencial, realizará medio petaflop de proceso, unas 1,000,000,000,000,000 operaciones matemáticas por segundo.