NVIDIA necesitó un año para construir un superordenador con miles de tarjetas gráficas, Elon Musk lo hizo en 19 días. Apple directamente juega en otra liga

Cómo Elon Musk "se ha pasado el juego" de la IA y por qué el planteamiento es tan distinto al que tiene Apple con sus propios modelos

Elon Musk Nvidia Apple
13 comentarios Facebook Twitter Flipboard E-mail

El máximo mandatario de NVIDIA está alucinando. Jen-Hsun Huang, CEO de la compañía, admira la rapidez de Elon Musk instalando servidores de inteligencia artificial para su nuevo proyecto. Todo ello, eso sí, en un contexto completamente diferente al de cómo Apple está enfocándose en este terreno con su inminente Apple Intelligence.

El contexto. Elon Musk fue parte fundamental de OpenAI, una de las indiscutibles líderes en el reciente auge de la inteligencia artificial generativa. Sin embargo, abandonó el proyecto al poco de nacer y viendo el panorama actual decidió montar xAI en 2023. Esta compañía nació con el firme objetivo de liderar un sector en el que, aparte de la citada OpenAI, están ya metidas de lleno otras big tech como Apple, Google y Meta.

Qué pinta NVIDIA en todo esto. Servidores y más servidores. El entrenamiento y procesamiento de la IA requiere de altos recursos y para ello NVIDIA se ha alzado como otra de las empresas fuertes de la actualidad (incluso ha logrado ser la segunda mejor valorada en bolsa tras Apple). Lo que la compañía ofrece son pontentísimas GPUs como la H100, que son las que Elon Musk encargó para montar los servidores de xAI.

Es un proceso que lleva años. Por norma general, montar un campo de servidores como el que ha montado Musk para xAI llevaría años. O eso al menos afirma uno de los expertos en la materia, que es ni más ni menos que el CEO de Nvidia. Jen-Hsun Huang afirma que son necesarios al menos tres años de planificación y uno adicional para montar los equipos que formarán el centro de datos.


Y no es sólo por la instalación de tarjetas gráficas como la NVIDIA H100, sino también por el acondicionamiento del lugar. Se precisan de enormes naves industriales con condiciones óptimas en ámbitos como la seguridad y, sobre todo, la refrigeración. Por no hablar de que todo centro de datos precisa de un segundo a modo de backup.

Sólo una persona podría hacerlo

"Sólo una persona podría hacerlo", dijo Hsun Huang. Esa persona es Elon Musk, a quien le da un enorme mérito al haber sido capaz de montar el centro de procesamiento de datos de xAI en apenas 19 días. Es algo que nunca se había hecho antes y mucho menos en la proporción en la que lo hizo el también CEO de Tesla: más de 100.000 unidades de las H100 de NVIDIA.

Ai

Apple lo hace de forma diferente. No es ni mejor, ni peor. Sencillamente Apple ha hecho suyo de nuevo aquel viejo eslogan de Think Different para centrar la gran parte de su inteligencia artificial en el poder de los procesadores que montan sus iPhone, iPad y Mac.

Tanto los chips de la serie M como los A17 Pro y los recientes A18 y A18 Pro están capacitados para realizar un procesamiento local de las peticiones que se generarán con Apple Intelligence. Esto ahorra mucho trabajo y dinero a la compañía en montar granjas de servidores. De paso, hace prevalecer la privacidad al "quedarse todo en casa".

Lo de Apple no es barato. En la letra no-tan-pequeña de Apple Intelligence nos encontramos con que no sólo hay procesamiento local. Sin llegar a especificar en qué medida actúan, la compañía ya explicó en la WWDC 2024 que parte de esa IA también necesita de servidores propios. Bien protegidos y con cifrados que hagan prevalecer la privacidad del usuario, pero servidores al fin y al cabo.

De hecho, se ha sabido que Apple también recurre a NVIDIA con alrededor de 3.000 unidades de las H100. Y aparte de lo que le costó a la compañía montarlo, los expertos hablan de un coste de mantenimiento anual que oscila en los mil millones de dólares.

No todo es de color rosa en Apple Intelligence. Y no, no nos referimos a lo que tardará en llegar a países como España, que también. Hablamos más de las renuncias que supone este sistema híbrido de la IA de Apple priorizando el procesamiento local. Esto hará que, por potentes que sean los SoC de los iPhone y compañía, se tengan prestaciones menos ambiciosas.

Esto es algo especialmente notable en apartados como la generación de imágenes o textos. De hecho, Apple no dispone de esto último y pese a que han publicado estudios en los que dejan clara su postura de no fiarse demasiado de la lógica de este tipo de modelos, lo cierto es que si en algún momento mejora y quieren implementar algo nativo, no tendrán más remedio que ampliar de forma considerable sus centros de procesamiento.

Vía | Xataka

En Applesfera | Apple Intelligence, primer contacto: así funciona la asombrosa IA que lleva a Siri a otro nivel

En Applesfera | Ideogram IA: cómo usar la inteligencia artificial viral que crea nombres con diseños 3D, desde tu iPhone y gratis

Inicio