Hace unos cuantos años, parecía que la interacción con los ordenadores y agentes autónomos en el futuro sería vía voz. Ahí tenemos a Dave de 2001, o a R2-D2, por poner un par de ejemplos conocidos. Luego aparecieron películas como Johnny Mnemonic y más tarde Minority Report, y parece que la realidad sigue a la ficción, porque se ha puesto de moda la comunicación gestual y pantallas multitáctiles. Tenemos ejemplos de comunicación gestual tanto en juegos tipo Black and White, como en aplicaciones para nuestro Mac como FlyGesture y xGestures. En cuanto a las pantallas multitáctiles ahí tenemos a nuestro amigo el iPhone dando guerra.
Hoy he leído que Apple ha presentado una patente sobre un diccionario de gestos multi-táctil, por lo que parece que nuestro CEO favorito tiene en mente sacar más productos con una interfaz innovadora.
La patente presenta un sistema de gestos de dedos y movimientos, organizado en forma de diccionario como un conjunto de signos y su correspondiente significado. Los gestos se componen de una combinación de dedos que tocan (o no, como veremos más adelante) la superficie, y un movimiento asociado a cada uno de ellos. Cada gesto sería capaz de provocar una respuesta en el sistema y su representación o feedback para el usuario. En la patente también se habla de mostrar dicho diccionario, por ejemplo mediante animaciones o gráficos superpuestos en la aplicación. También sería posible lanzar dichas ayudas visuales mediante un gesto y, con toda seguridad, el usuario podrá modificar los gestos predefinidos o crear otros nuevos.
Alguno de vosotros se preguntará por qué he hablado de Minority Report y Johnny Mnemonic. La respuesta se encuentra en el apartado 65 de la descripción detallada la patente. En el mismo se señala que los principios de la patente son perfectamente válidos para gestos en un espacio en tres dimensiones. Y no se queda ahí, sino que habla de gestos realizados con la mano derecha y con la mano izquierda, mostrados en su correspondiente parte de la pantalla. Como tengo la imaginación bastante desarrollada, me he puesto a pensar en que si pudiéramos tener sensores tanto en el monitor como en el teclado, podríamos hacer gestos e interaccionar con el ordenador sin necesidad de tocar nada.
A lo mejor el futuro está más cerca de lo que pensamos, y nos vemos navegando por internet o modelando un objeto en tres dimensiones utilizando sólo gestos en menos que canta un gallo.
Más información | Ars Technica
Ver 3 comentarios