Mientras Apple ya prepara la WWDC25 para el próximo 9 de junio, donde presumiblemente veremos un iOS 19 con el mayor rediseño desde iOS 7, entre bambalinas la compañía sigue trabajando contra reloj en su estrategia de inteligencia artificial. Una estrategia que, como hemos visto con el reciente retraso de la nueva Siri, no está siendo precisamente un camino de rosas.
Apple Intelligence como la respuesta de Cupertino a ChatGPT, Claude y Gemini. La realidad ha sido más modesta, y aunque por fin va a llegar en español en cuestión de días, la nueva Siri contextual, que debía ser la joya de la corona, no llegará con iOS 18... e incluso ni probablemente con iOS 19.
En este contexto de promesas a medio cumplir y fechas que se deslizan, surgen dos revelaciones que nos muestran que Apple lo está dando todo por alcanzar a la competencia en IA. Y lo más sorprendente: está recurriendo a "ayuda externa" que contradice frontalmente su discurso oficial.
El segundo trabajo secreto de los coches de Apple Maps
Esos vehículos llenos de cámaras que has visto recorriendo tu ciudad tienen ahora una misión adicional. Hasta ahora, pensábamos que solo se dedicaban a capturar imágenes para mejorar los mapas y alimentar Look Around, el "Street View" de Apple. Pero la compañía acaba de revelar, casi de puntillas, que estas imágenes servirán también para entrenar sus modelos de inteligencia artificial.
En un pequeño párrafo añadido a su web de Apple Maps Image Collection, la empresa confirma que "utilizará imágenes difuminadas recogidas durante los estudios realizados a partir de marzo de 2025 para desarrollar y mejorar otros productos y servicios de Apple". Traducción: todo lo que fotografían sus coches ahora será alimento para sus algoritmos de IA. Y sí, prometen difuminar caras y matrículas antes de usar estas imágenes.

La infidelidad silenciosa con Nvidia
Aquí es donde la historia da un giro sorprendente. Mientras Apple ha presumido siempre de su ecosistema cerrado y sus chips Apple Silicon, ahora parece estar abriendo nuevas puertas en busca de músculo adicional para sus ambiciones en IA. Según análisis recientes, Apple está realizando una inversión mastodóntica de 1.000 millones de dólares en hardware de IA de NVIDIA. No estamos hablando de cualquier hardware, sino de los recién anunciados sistemas NVIDIA GB300 NVL72, auténticas bestias de la computación que funcionan como centros de datos completos refrigerados por agua.

Las especificaciones técnicas son abrumadoras: cada unidad incluye 36 CPU NVIDIA Grace basadas en arquitectura ARM y 72 GPU NVIDIA Blackwell Ultra, complementadas con 288 GB de memoria. Esto se traduce en un rendimiento FP4 de hasta 1.400 PFLOPS (para poner esto en perspectiva, una GeForce RTX 5090 tope de gama para consumidores ofrece "apenas" 3,35 PFLOPS).
Con un coste aproximado de 4 millones de dólares por unidad, Apple estaría adquiriendo unos 250 servidores.
Es cierto que Craig Federighi declaraba en septiembre de 2024 que los servidores de Apple Intelligence corrían exclusivamente en Apple Silicon, estableciendo "un nuevo estándar para el procesamiento en la nube en la industria". Pero el mundo de la IA avanza a un ritmo vertiginoso, y parece que Apple ha decidido ser pragmática. Los chips propios siguen siendo fundamentales para su estrategia, pero ¿por qué no complementarlos con lo mejor que ofrece el mercado?
El plan de Apple apunta a una dualidad: servidores de Apple Silicon para nuestras peticiones, servidores de Nvidia para entrenar sus propios modelos de IA.
Las funciones actuales de Apple Intelligence son solo el principio. La compañía necesita (y quiere) más recursos para seguir escalando esta montaña de la IA. Utilizar las imágenes de Apple Maps es un movimiento ingenioso: millones de fotos del mundo real capturadas bajo sus propias condiciones. Y complementarlo con potencia de procesamiento adicional de Nvidia muestra que Apple está dispuesta a hacer lo necesario para ofrecer la mejor experiencia posible.

No se trata de abandonar sus principios, sino de ampliarlos. Como cuando añadieron ChatGPT a Siri: no era el reconocimiento de "un fracaso", sino una mejora del servicio para los usuarios. Mientras tanto, nosotros seguiremos viendo sus coches de mapas por las calles, sabiendo ahora que cada foto que toman contribuye a algo mucho más grande que un simple mapa. Y quién sabe qué nos traerá esa WWDC25 del 9 de junio. Quizás nos sorprendan con avances en IA que justifiquen todos estos movimientos estratégicos que estamos viendo entre bambalinas.
En Applesfera | Nuevo iOS 19 - Todo lo que creemos saber sobre el nuevo sistema operativo del iPhone
En Applesfera | WWDC 2025 de Apple: todo lo que esperamos ver, desde iOS 19 y macOS 16 hasta los nuevos Mac Pro
Ver 5 comentarios
5 comentarios
picolandia
Básicamente, anuncios de lo que no tendremos la gran mayoría. Baño de realidad.
Mike's
Pero resulta que Apple siempre cuida los datos de las personas, pero va a recabar ingente información con sus autos para Mapas para trabajar con ella, pero bueno cada quien interpreta la información como quiere.
hugooliveraferreira
Hola. Celebro todo avance de los recursos técnicos que ayudan en lo cotidiano a los usuarios. En un mundo conectado, la información es lo que nos conecta. Asi como alguien puede querer que no se sepa su ubicación, seguramente si quería si es víctima de un delito de secuestro para las fuerzas de seguridad. Todo tiene su parte positiva y negativa. Entender donde esta el equilibrio es parte de vivir en este mundo moderno. Saludos.
Uti
"La AI de Apple es más barata que ninguna". . . . . . . .¡y así le ha ido!
No hay que ser muy listo para darse cuenta que si uno tiene toda la Enciclopedia Británica en su cabeza puede contestar con más propiedad que si solo tiene el periódico del día, y esa carga de información no puede suplirse con nada.
Por lo demás, para que Siri sea inteligente sólo necesita tener conocimientos de iOS y poder acceder a la información que tenemos cada uno en su iPhone o en su producto Mac.