Su valor será de US$ 3.499 y su llegada está programada para el año que viene. Cuenta con un nuevo sistema operativo y la llegada de un co-procesador que acompañará al Apple Silicon M2.
La nueva era: Apple Vision Pro, un arsenal tecnológico
Las primeras gafas de realidad mixta de Apple reciben el nombre de Apple Vision Pro.
Su visor está fabricado en un cristal pulido que permite visualizar correctamente el exterior, acompañado de un cuerpo en aluminio que las recubre. La correa es textil, adaptándose a distintos tamaños al ser bastante flexible (quedará por ver qué tal se lleva con la suciedad, ya que es un material textil que recuerda a las correas de los Apple Watch).
Dichas correas cuentan con pequeñas pastillas. Estas, integran altavoces que proporcionan audio espacial. La experiencia inmersiva es especialmente relevante para Apple, por lo que estas pastillas se ubican justo en la zona de nuestros oídos (podremos adaptar las gomas laterales a nuestro gusto).
Estas gafas pueden conectarse a la corriente para que las podamos usar durante todo el día. El otro escenario de uso posible es usarlas conectadas a su batería externa. Mediante la misma, la duración es de dos horas. Queda así en la línea de rivales como las Meta Quest, aunque en el caso de Apple han querido dejar fuera la batería para aligerar peso.
En el interior, mirando hacia los visores (con lentes Zeiss), tienen 23 megapíxeles entre los visores interiores, resolución superior al 4K en cada ojo, con tecnología micro-OLED. Cuentan asimismo con un sistema de doble cámara capaz de captar imágenes "espaciales": fotografías y vídeos en tamaños panorámicos, con audio espacial y con el principal fin de recrear de la forma más fidedigna los propios momentos captados.
Dentro de los visores, se encuentra un sistema de seguimiento ocular de alto rendimiento basado en LEDs y cámaras infrarrojas. Este permite proyectar patrones de luz invisibles en cada ojo. ¿El objetivo? Registrar el seguimiento ocular de forma precisa, para permitir el control de la interfaz mediante la propia vista.
En cuanto al audio, ambas cápsulas (una por cada lado de la correa) permiten recrear sonido espacial. Analizan, al igual que los AirPods, el entorno para adaptarse a él. Apple lo llama "trazado de audio": un sistema que mapea en 3D gracias a infrarrojos y cámaras, en tiempo real, el entorno en el que estamos para adaptar el sonido.
Además de contar con un arsenal de sensores tanto dentro como fuera del visor, las Apple Vision Pro cuentan con dos cámaras de alta resolución, así como con un escáner LiDAR. Estas dos primeras cámaras se encargan de ofrecer un seguimiento preciso de cabeza y manos, mapean en 3D y en tiempo real el entorno, y son capaces de capturar tanto fotografías como vídeos. Estos últimos, pueden grabarse con sonido espacial.
Para mover este arsenal de hardware, la apuesta por el procesador ha ido un poco más allá de lo esperado. Estas gafas tienen el chip Apple M2, el mismo que montan algunos de los mejores ordenadores de Apple. Junto al mismo, estrenan el nuevo chip Apple R1, un SoC especialmente dedicado para procesar la entrada de las cámaras, sensores y micrófonos, transmitiendo imágenes a las pantallas en 12 milisegundos. El objetivo es que se pueda procesar toda la información que ven las gafas sin retrasos y en tiempo real.
Su diferencia real es:
Si bien la apuesta en hardware es altísima, la verdadera clave diferencial de estas gafas está en uno de los puntos más fuertes de Apple: el software.
visionOS y los escenarios de uso de las Apple Vision Pro…
El caso de estas Vision Pro de Apple, hablamos de unas gafas que combinan realidad aumentada y realidad virtual de una forma que no habíamos visto hasta ahora. Sus rivales directos se centraban en un sistema de balizas para lograr recrear realidad virtual, o en la proyección de contenidos en nuestro entorno para crear realidad aumentada. El software encargado de gestionar esta propuesta recibe el nombre de visionOS.
"visionOS cuenta con una nueva interfaz tridimensional que hace que el contenido digital se vea y se sienta presente en el mundo físico de un usuario. Al responder dinámicamente a la luz natural y proyectar sombras, ayuda al usuario a comprender la escala y la distancia. Para permitir la navegación del usuario y la interacción con el contenido espacial, Apple Vision Pro presenta un sistema de entrada completamente nuevo controlado por los ojos, las manos y la voz de una persona", afirman desde Apple.
En el caso de Apple, la integración es mucho más orgánica, cuenta con distintas interfaces que se adaptan a los distintos entornos en los que nos podamos encontrar, así como con configuraciones pensadas para cada una de las aplicaciones que ejecutemos en las gafas.
El propio tamaño de la interfaz es adaptable, ya que podemos hacer zoom tanto en los contenidos multimedia como en las propias aplicaciones (ventanas de navegador, galerías, películas, etc.). El objetivo es que la interfaz se adapte en todo momento al entorno en el que estamos, y que seamos nosotros mismos quienes tengamos el control sobre el tamaño de la misma.
Mañana te seguimos contando más de esta herramienta que va a cambiarlo todo.
Tu opinión enriquece este artículo: