Los Apple Vision Pro tienen un modo de "visión nocturna" tan avanzado que hay gente caminando a oscuras. No te lo recomendamos

El modo desarrollador del Vision Pro esconde una funcionalidad capaz de mapear el entorno y "ver" en la oscuridad

Vision Pro
28 comentarios Facebook Twitter Flipboard E-mail

Desde que se lanzó el Apple Vision Pro hace ya más de una semana hemos asistido a muchos de los usos que ya ofrecen en base a la cantidad de aplicaciones que ya hay en visionOS. Sin embargo, hay quienes han encontrado otro tipo de uso en el que muchos no habíamos recaído: poder ver mejor a oscuras con un Vision Pro en la cabeza.

No se trata de una funcionalidad que esté de serie en el casco de computación espacial de Apple, aunque sí mediante aplicaciones. A través de Twitter (X), ya hemos visto alguna muestra. Aunque, eso sí, hay razones aún para no fiarnos al cien por cien del casco para usarse como visión nocturna.

De Vision Pro a Vision Night gracias a los sensores LiDAR

Para entender el por qué se puede forzar un modo de vista nocturna en Vision Pro hay que recordar que el aparato cuenta con una docena de cámaras y cinco sensores 3D entre los que se encuentra un sensor LiDAR de alta profunidad. Y son precisamente ess últimos los que permiten tener esa visión nocturna que técnicamente no es tal.

Vision Pro Nocturno Así se ve el entorno con el modo de desarrollador de Vision Pro

El desarrollador conocido en Twitter (X) como Surya ha publicado en la red social un par de vídeos en los que muestra cómo se obtiene una visión completa de las estancias de una casa sin necesidad de que haya luz. Lo hace mediante el modo de desarrollador del visor y aprovechando los sensores 3D del visor capaces de mapear todos los lugares y componer el campo de visión.

Estos sensores son capaces de reconocer distancias y volúmenes de los objetos y paredes para crear una especie de mallas virtuales que, tal y como aclara Surya, son capaces de distinguir por colores los diferentes elementos como paredes, suelos, ventanas o puertas. Eso sí, por lo visto en sus vídeos, no parece que vaya del todo fino.

Aparte, no es tampoco algo recomendable de usar de forma más o menos habitual si tenemos en cuenta que va creando las formas en tiempo real y que no tenemos una visión completa del espacio de forma continua como cuando llevamos el Vision Pro en modo normal. Y es que podríamos darnos un buen golpe contra un objeto o algo así que no se hubiese captado al momento por el visor o, en su defecto, que fuese de un tamaño reducido como para no llegar a escanearlo bien.

Así pues, es probable que sea esa la razón por la que este modo está sólo para desarrolladores. No tiene demasiado sentido instaurarlo como una funcionalidad más del visor o al menos no hasta que demuestre una mayor fiabilidad. También entra en valor hasta qué punto puede ser o no útil una funcionalidad así, aunque a modo de curiosidad no está nada mal.

En Applesfera | Cuándo llega el Apple Vision Pro a España y cómo lo han conseguido los españoles que ya lo tienen

En Applesfera | Cómo y de qué materiales están hechos los Apple Vision Pro: ahora entendemos su precio

Comentarios cerrados
Inicio