¿Cómo se van a manejar las nuevas Apple Vision Pro?

La nuevas gafas de realidad mixta de Apple, sin duda, están dando mucho de qué hablar. Una de las cosas más llamativas ha sido la forma en la cual se controlan y podemos interactuar con la interfaz. Así que en este post te vamos a explicar las claves de cómo se manejan, y cómo han conseguido hacerlo así.

Nosotros somos el mando

A diferencia de otros visores de realidad virtual o aumentada, las Apple Vision Pro no requieren de periféricos conectados o la colocación de sensores en un espacio físico. Y tampoco necesitan la conexión con otro equipo para procesar lo que vemos. Todo ocurre en las gafas.

Para navegar por la interfaz, vamos a utilizar los ojos como si del puntero del ratón se tratara. Situando la mirada encima del elemento que queremos, este va a quedar marcado. Para entrar y seleccionar ítems, vamos a hacerlo con los gestos de nuestra mano. En este caso, nuestras manos son los botones del ratón, cuya función vamos a replicar. Y en cuanto a nuestra voz, vamos a poder ejecutar comandos en Siri para que realice determinadas acciones y tareas. Pero, ¿Cómo es posible que esto se haya conseguido?

Lo cierto es que los sensores que las Apple Vision Pro necesitan, para reconocer nuestra posición y gestos, ya están incorporados en las propias gafas. Tanto en la parte interior como exterior, contamos con gran cantidad de cámaras. Las de dentro de las gafas, sirven para monitorizar el movimiento de nuestros ojos, para así que el sistema reconozca dónde estamos mirando. Los de la parte exterior, situados en la parte inferior, cumplen con el cometido de reconocer los gestos que hacemos con las manos.

Cómo se van a manejar las nuevas Apple Vision Pro?

Es por eso que, durante toda la presentación, cuando hemos visto la demostración de las gafas, las personas que las manejan tienen las manos situadas en esa misma posición característica, alineadas lo máximo posible con el rango de visión de las cámaras exteriores, las cuales están en la parte inferior de la pantalla.

Los procesadores Apple Silicon han hecho magia en este producto

La capacidad de procesar toda esta información, además de ejecutar las aplicaciones y el propio sistema de visionOS, es posible gracias a dos procesadores de arquitectura Apple Silicon. Por un lado, el ya conocido Apple M2 es quién se encarga de procesar toda la parte del sistema operativo y la parte de gráficos. Por otro, el nuevo Chip R1 tiene la tarea específica de procesar todos los inputs de las cámaras y sensoresque captan, entre otros, los movimientos que nosotros llevamos a cabo para interactuar.

Esta combinación de elementos, junto a muchos otros, ha permitido que el retraso que se produce sea tan sólo de 12 milisegundos. Y tal y cómo menciona la propia compañía, es «virtualmente sin las, para una visión del mundo real».

Todavía queda mucho por hacer con esta tecnología, además de las mejoras e innovaciones que Apple ha introducido en estas gafas. En plena WWDC, ahora también es turno de los desarrolladores de trabajar con ARKit, para crear, desarrollar y mejorar sobre la semilla que la compañía de la manzana ha sembrado. Porque, por muy increíble que parezca, esta tecnología está en una fase muy inicial, si tenemos en cuenta el largo recorrido que le espera.