La informática está llegando a un punto evolutivo donde los medios actuales de presentar, y sobre todo interactuar, con la información limitan las posibilidades de uso y provecho en gran medida.

Más allá de efectos de pantalla que adulan el ojo y algún que otro motivo colorido, las interfaces de usuario siguen siendo similares a las que hace 20 años atrás servían para manejar sistemas mucho más primitivos. Es decir, interfaces pensadas para pantallas bidimensionales, sin profundidad o sentido del tacto en las cuales un puntero es necesario para activar todo a base de pinchar en ciertos píxeles

Esperar a que Microsoft innove y haga algo al respecto es lo mismo visitar la tumba de Elvis y esperar a ver su fantasma. Afortunadamente Mac, Linux, IBM, Novell y un gran número de empresas están investigando en este área.

A continuación hablaremos de algunos de estos conceptos que revolucionarán el manejo de ordenadores y sistemas remotos en el futuro.

Interacción neuronal

Distintas universidades han probado con éxito cascos que, una vez puestos en la cabeza, logran interpretar las señales eléctricas producidas en el cerebro y así ejecutar comandos.

Esto es muy útil para personas con todo tipo de parálisis o movilidad reducida, y a su vez es extremadamente útil para controlar dispositivos complejos y todo tipo de sistemas remotos. En este video filmado en una exposición sobre tecnología avanzada en la ciudad alemana de Berlín observamos a un participante utilizando un casco de electrodos y mirando a una pantalla. El mismo puede seleccionar distintas letras en la pantalla utilizando solamente su cerebro gracias a la interfaz entre su cerebro y el ordenador.

Mixed reality

Pero debemos decir que los adelantos interesantes están llegando de pequeñas empresas. En este caso es un concepto denominado mixed reality (del la lengua inglesa «realidad mezclada» o, más fiel a su significado original, «realidad mixta) que mezcla la interacción de objetos en el mundo real, es decir objetos enteramente físicos que son tomados por la cámara del dispositivo móvil que utilicemos, con el comportamiento de la interfaz en pantalla. Mezclando así de cierta manera objetos físicos con gráficos en la pantalla. 

Está bien, mover un pato digital y que se mueva en la pantalla no parece muy útil. Pero recordemos que estos son conceptos experimentales y en base a su desarrollo luego se pueden aplicar a cientos de cosas diferentes. Imagina una interfaz entre nuestro teléfono móvil y nuestro ordenador, donde dependiendo del movimiento del móvil podamos acceder a agendas, contactos, conectividad, meta data, etc etc.

Ciertamente un avance monumental desde los tiempos en los cuales se crearon las interfaces para los vídeo juegos pioneros como el Super Mario y el Pacman, en los cuales se debía aprovechar al máximo cada espacio de la pantalla debido a la limita memoria