Google se encuentra trabajando en un proyecto que podría hacer ver al “Touchscreen” como algo obsoleto.
En la actualidad existen distintos tipos de dispositivos en el mercado tecnológico que son capaces de procesar los movimientos del cuerpo , y que permiten una interacción máquina- ser humano mas fácil y divertida. Tenemos como claro ejemplo a Kinect, o Wii en los videojuegos, aunque estos basan su funcionamiento en el procesamiento de imagen combinado con el uso de arrays de detectores, y no en el sensado de los movimientos y sus componentes en sí.
El proyecto Soli de Google es capaz de procesar los movimientos de la mano, como si nos encontráramos manipulando algún botón u objeto físico, cuando en realidad solo hacemos un ademán en el aire.
El propósito de Soli es llevar al mundo virtual las enormes capacidades que tienen los movimientos y gestos de la mano del ser humano, ya que, sin lugar a dudas, la manipulación y movimientos de una persona son extremadamente precisos y veloces.
Soli trabaja con un sensor de movimiento único (que fue fabricado y procesado especialmente para el proyecto), y cuyo radar envía una señal al aire, después de rebotar contra el objetivo, en este caso la mano, el receiver del sensor toma los datos espectrales de radiofrecuencia y los somete a un análisis, lo cual le permite realizar actividades acordes al movimiento.
Con Soli podemos notar que se procesan movimientos en un espacio corto, a distancias muy bajas, y con un muy exacto sentido de posición y profundidad.
Esta nueva tecnología (que fue trabajada bajo entorno Linux) abre muchas posibilidades para la interacción entre las personas y sus dispositivos, aunque se encuentra en fase de desarrollo y queda mucho trabajo por hacer, ya se comienza a especular sobre los alcances de esta plataforma, y la mayoría se centran en video juegos y programas interactivos, a la vez de que se abre un mundo de posibilidades para trabajar con wearables, internet de las cosas y otros tantos dispositivos electrónicos.
Lastima que soy pobre D: