Apple entra en la IA por la puerta grande y presenta ReaAML, un lenguaje que presume de ser más rápido y eficaz que GPT-4

Apple sigue progresando en su carrera por liderar la inteligencia artificial. Ahora conocemos su nuevo lenguaje, que según los ingenieros superan sustancialmente a GPT-4.

Apple Gpt
19 comentarios Facebook Twitter Flipboard E-mail

No es ningún secreto que Apple está trabajando en desarrollar su propia inteligencia artificial. Lo confirman los cientos de rumores que hay sobre iOS 18, e incluso también lo afirmó el CEO de la compañía, Tim Cook. ¿Cuáles son, en concreto, los planes de Apple? En principio, dotar a Siri de un mayor conocimiento y también funcionalidad. Por otro lado, incorporar funciones de IA en el propio sistema operativo, como ya ofrecen otras empresas. Ya sea con traducción en tiempo real de llamadas de teléfono, o eliminando a personas del fondo de una imagen.

Lo que si está bastante claro es que Apple no desarrollará un ChatGPT como tal. Al menos de momento. Se sabe que lo tiene desarrollado, entre ellos está el proyecto Ajax. Pero de momento, no habrá una aplicación en la que puedas solicitar o realizar tareas. Toda la inteligencia artificial estará aplicada en las utilidades y aplicaciones del día a día. Así lo puede demostrar el nuevo sistema de IA de Apple llamado ReALM, el cual está sorprendiendo a los investigadores.

ReALM es tan inteligente que entiende todo lo que pasa en tu pantalla

¿Qué significa ReALM? Es el resultado de Reference Resolution As Language Modeling. Así es el nombre en clave del nuevo sistema de IA de Apple que entiende lo que hay en la pantalla.

Según los propios investigadores de Apple, ReALM, es capaz de entender el contexto, incluidas las referencias a elementos ambiguos. Va mucho más allá que un reconocimiento de texto o imágenes.

Esta forma de interactuar está pensada esencialmente para un asistente de conversión, dicen los ingenieros. Por lo que sí, estará destinado a Siri. De esta forma, el usuario podrá hacer consultas sobre lo que ve en su pantalla. Un paso crucial para garantizar una verdadera experiencia de manos libres en los asistentes de voz.

Para poder entender lo que sucede en la pantalla, ReALM reconstruye todo el contenido para generar una representación textual que captura en sí el diseño visual. En esta parte, es donde los investigadores afirman que podría superar a GPT-4. Consiguiendo obtener ganancias absolutas de más del 5 % para las referencias en pantalla. Esto supera sustancialmente al GPT-4 comentan los propios desarrolladores.

¿Qué utilidad podría tener ReALM en el iPhone?

La aplicación de ReALM en todo el ecosistema de Apple puede ser realmente interesante. Desde tener una Siri más inteligente pudiendo pedir resúmenes de páginas web, saber algún dato en concreto sobre una imagen, hasta pedir, por ejemplo, que nos cambie el tono del cielo de una fotografía o nos elimine una farola. Todo esto desde la voz y sin necesidad de tocar ajustes ni botones.

Una cosa tenemos que tener clara, y es que Apple suele "llegar tarde" por una razón: dotar a sus productos o servicios de una verdadera utilidad. Muchos de nosotros ya estamos familiarizados con ChatGPT, pero la inmensa mayoría de usuarios del iPhone ni siquiera habrán conversado nunca. Es aquí donde Apple puede conseguir una IA verdaderamente disruptiva, con aplicaciones en el día a día que faciliten la vida de las personas.

Ojo, que a mí ChatGPT me facilita mucho, pero a mi madre o mi pareja les aporta poco que le pida a ChatGPT ideas de título para una noticia o que me haga un código HTML para insertarlo en un módulo. ¿Y tú? ¿Utilizas ChatGPT?

Via | Venturebeat

En Applesfera | Ni en cien vidas hubiese imaginado Gemini en el iPhone para competir con Copilot. Ahora sabemos que es posible

En Applesfera | La inteligencia artificial que quiero en mi iPhone y Mac no sólo existe ya, sino que la ha presentado la propia Apple

Comentarios cerrados
Inicio