Que los generadores de imágenes con motores de inteligencia artíficial están de moda es algo indiscutible. Muchos profesionales y aficionados se han lanzado a generar imágenes a partir de descripciones elaboradas, con resultados realmente impresionantes.
Uno de estos generadores es Stable Diffusion, que tiene la particularidad de poder instalarse y ejecutarse localmente en un Mac. Eso no ha pasado por alto en las oficinas de Apple, y los desarrolladores de la compañía han decidido optimizar iOS y macOS para poder ejecutar Stable Diffusion más eficientemente. Especialmente en los Mac con chips M1 o M2.
Apple Silicon, Core ML y un gran potencial
Apple ha hecho el anuncio oficialmente en su sección de Machine Learning, defendiendo la ejecución local de Stable Diffusion como un modo más privado de hacer experimentos con este generador y que nos permite ahorrar los costes que supone contratar un servidor.
La optimización la notaremos en iOS 16.2 y macOS 13.1, gracias a unos cambios que los desarrolladores de Apple han aplicado al motor CoreML. Esto debería reducir el tiempo de espera de generación de imágenes, que suele ser bastante largo (he probado a generar una imagen con mi MacBook Air M2 básico y la espera ha sido de unos 6-8 minutos).
Para mejorar estos tiempos habrá que esperar a estas actualizaciones, que deberíamos tener listas a tiempo para estas navidades. Eso es, como mucho, dos semanas. Será interesante ver hasta dónde se mejoran esos tiempos: generar imágenes mediante inteligencia artificial es un proceso muy intenso y Apple Silicon puede verse muy bien beneficiada.
Ver 5 comentarios