Keijiro Takahashi es un desarrollador que ha creado Bibcam, una herramienta que permite sincronizar la imagen captada por las cámaras y la información recogida por el sensor LiDAR de un iPhone. Es una prueba de concepto aún en desarrollo, que podemos consultar en GitHub y es de descarga pública. Pero lo que de verdad mola de todo esto es cómo interpreta este software el mundo que le rodea.
Un escenario onírico que interpreta la realidad de una forma muy peculiar. El resultado es una auténtica pasada, pues vemos cómo interpreta y recompone en tiempo real nuestra realidad.
¿De qué están hechos los sueños? Hay una app para eso
En un tweet compartido en su perfil, Takahashi nos muestra cómo interpreta el mundo un iPhone 13 Pro Max (el iPhone 14 también incorporará estos sensores, como es lógico). Vemos las calles de Shibuya, un barrio de Tokio en Japón. Un callejón estrecho donde el escenario se reconstruye según avanzamos.
Da la sensación de que estamos en un sueño. Atrapados en una escena de la película Origen, donde el mundo recreado solo existe hasta apenas unos metros más allá. Para otros, recuerda a la cascada de caracteres verdes visto en la pantalla de Matrix.
La combinación que hace este desarrollo del LiDAR del iPhone 13 Pro Max y su sistema de cámaras es alucinante. Es una pena que no podamos disfrutar de esto en una app descargable desde la App Store. Para ello, necesitaría algunos cambios.
Bibcam, por sí sola y en su forma actual, no es una app que pueda ser aceptada en la App Store pues carece de funcionalidades. Bastaría con que tuviera un modo de grabación de vídeo o foto y compartirlo en redes sociales para pasar el filtro. Por lo que de momento tenemos que conformarnos con esto.
Ver 6 comentarios