Bajo el título de «Seguimiento tridimensional de manos usando secuencias de profundidad«, la última patente que se conoce de los de Cupertino describe un sistema en el que un dispositivo sería capaz de localizar y seguir la posición de las manos a través del espacio tridimensional en tiempo real, algo parecido al seguimiento facial que usa la aplicación Photo Booth, disponible para OS X y para iOS.
Una de las muchas posibilidades que nos ofrecería la tecnología descrita en la patente sería la capacidad de leer el lenguaje de signos, lo que nos permitiría entender lo que está diciendo una persona sordomuda, siempre y cuando Apple incluyera el diccionario en la aplicación y nuestro interlocutor conociera el lenguaje.
Por otra parte, también nos permitiría controlar la interfaz de un dispositivo iOS, un Mac, un Apple TV (si incluyen una cámara) o un Apple Watch con gestos y sin la necesidad de tocar la pantalla. Esto me recuerda un poco a la aplicación Flutter que nos permitía adelantar, retrasar, subir o bajar el volumen de iTunes y otras aplicaciones con gestos aunque, en aquel momento, la aplicación (ahora propiedad de Google) estaba muy desaprovechada.
Como siempre decimos, que una compañía haya patentado algo no significa que lo vayamos a ver en uno de sus dispositivos en el futuro, pero si tenemos en cuenta que Apple tiene planeado entrar en el mercado de Realidad Virtual (VR) y Realidad Aumentada (AR), no debería sorprendernos si uno de sus futuros dispositivos nos sirve para comunicarnos con personas con problemas de voz. Sólo el tiempo tiene todas las respuestas.
2 comentarios, deja el tuyo
Lengua o lenguaje???? ay ay….
Hola, Pepe. En este caso, son sinónimos. Legua española, Lengua francesa…
Un saludo.