martes, 18 de febrero de 2014

Interfaz basada en Kinect convierte lo virtual en físico


Investigadores del MIT (Instituto Tecnológico de Massachussets) ha creado una interfaz dinámica basada en Kinect para futuros dispositivos. Este proyecto llamado inFORM, combina 900 puntos de actuación que están conectados a varillas cuadradas con la consola para conseguir una interfaz que convierte objetos en 3D y movimientos generados por ordenador en formas reales.
El equipo ha explicado que la máquina utiliza dos Kinect. La primera consola está montada en una ubicación remota para capturar el movimiento del usuario, que puede ver la tabla inFORM en una pantalla. Desde el techo, la consola captura la profundidad de imagen y la imagen a color 2D de las manos del usuario u otros objetos colocados debajo.
Los datos se envían a la interfaz, y ésta le da forma mediante las varillas cuadradas. Un proyector les da el color del objetos o las manos del usuario que está interactuando. La segunda consola se coloca sobre la interfaz de inFORM junto al proyecto haciendo que los usuarios interactuen mediante gestos con la tabla. 
El equipo de investigadores ha confesado que pretenden conseguir con ésto futuras aplicaciones para visualizar diseños en 3D físicamente ayudando a arquitectos, geógrafos, etc. con modelos arquitectónicos, de terreno, mapas...
Además, también permitiría que los diseñadores 3D pudieran hacer prototipos físicos de sus diseños (aunque con baja resolución y sin impresión 3D). 
Se busca la mejora de inFORM para que dos personas puedan interactuar entre ellas de forma táctil y así tener colaboración remota bidireccional. 


jueves, 13 de febrero de 2014

La Universidad de Alicante trabaja para que los invidentes puedan detectar obstáculos con las Google Glass


El grupo de investigación Mobile Vision Research Lab (MVRLab)de la Universidad de Alicante se ha propuesto reprogramar las características de las famosas Google Glass para utilizarlas como sistema de Detección de Obstáculos Aéreos (DOA) y mejorar con ellas la movilidad de personas ciegas, ayudándoles a detectar estorbos como toldos o ramas.
Este proyecto tiene su origen en el teléfono móvil-guía para ciegos que este equipo de investigadores, junto con la empresa Neosistec, dio a conocer en 2013 y por el que han obtenido el premio de la Fundación Vodafone España, dotado con 20.000 euros. Su sistema consiste en una solución de movilidad para personas con discapacidad visual, basada en dispositivos móviles, que también estará disponible para Google Glass.
Tal y como explican los propios investigadores, se trata de un sistema para la detección de obstáculos aéreos (toldos, ramas de árboles,etc) dirigido a personas con problemas de visión. Sería un sistema no sustitutivo del bastón o perro guía pero que ayudaría muchísimo a estas personas para su vida diaria. 
En concreto, este sistema funciona utilizando la cámara de las Google Glass para detectar la profundidad de los obstáculos, captando imágenes durante el propio movimiento de la persona que las lleve colocadas.
En el momento que el dispositivo detecte una limitación las gafas emitirán una señal acústica para avisar al usuario. De momento el equipo de MVRLab está trabajando en reprogramar la tecnología diseñada para el reconocimiento de objetos con dispositivos móviles a las Goglee Glass y, según sus previsiones, espera presentar su propio prototipo este mismo año.