Apple ha mantenido una posición discreta en comparación con otras empresas tecnológicas respecto a sus avances en inteligencia artificial.
Sin embargo, artículos recientes publicados por sus investigadores sugieren que la compañía está trabajando en nuevas funciones para sus iPhone. Se han dado pistas sobre el tan rumoreado chatbot y un proyecto centrado en avatares digitales.
El último documento revela que Apple está desarrollando una forma innovadora de ejecutar grandes modelos de lenguaje (LLM) en dispositivos con memoria DRAM limitada. Esto permitiría la ejecución de sistemas de inteligencia artificial directamente en iPhones o iPads, en lugar de hacerlo a través de servidores externos.
Estos modelos de lenguaje, similares a los que impulsan chatbots como ChatGPT, suelen ejecutarse en centros de datos con una potencia informática mucho mayor que la de un dispositivo móvil.
Sin embargo, los investigadores de Apple han encontrado una “solución a un cuello de botella computacional actual” mediante la construcción de un modelo que se adapta al comportamiento de la memoria flash. Este enfoque busca reducir el volumen de datos transferidos y leer información en fragmentos más grandes y contiguos.
Apple probó este método con modelos como el Falcon 7B, una versión más pequeña de un gran modelo de lenguaje de código abierto. Según los investigadores, enfoques como este serán esenciales para aprovechar todo el potencial de estos modelos de lenguaje en una amplia gama de dispositivos y aplicaciones.
El lanzamiento reciente de MLX, un framework de Apple para el desarrollo de modelos de aprendizaje automático, ha generado especulaciones sobre la posibilidad de desarrollar una aplicación generativa impulsada por inteligencia artificial en el futuro.
Esta aplicación aprovecharía el hardware de Apple, reduciendo así la dependencia de procesamiento externo.
Reportes previos indicaron que Apple estaba trabajando en su propio chatbot, posiblemente utilizando el modelo grande de lenguaje (LLM) llamado “Ajax”. Aunque se ha estado probando internamente, aún no se ha definido una estrategia clara para su lanzamiento al mercado.
Varias empresas, incluyendo Google con su sistema Gemini y OpenAI con iniciativas como el “iPhone de la inteligencia artificial”, están incursionando en el desarrollo de dispositivos móviles con capacidades de inteligencia artificial. Se estima que para 2024, más del 40% de los nuevos dispositivos ofrecerán funciones de este tipo.
El segundo estudio publicado por Apple, llamado HUGS, presenta un nuevo proyecto de investigación que implica una herramienta de inteligencia artificial generativa capaz de convertir un breve vídeo de una persona en un avatar digital en minutos.
Este método permite crear avatares digitales animados a partir de solo unos segundos de vídeo, lo que podría tener aplicaciones en redes sociales, juegos y realidad aumentada.
Cristiano Amon, CEO de Qualcomm, prevé un aumento en las ventas de dispositivos móviles a principios de 2024 debido a la integración de inteligencia artificial generativa.
Amon señala la posibilidad de asistentes virtuales más sofisticados que puedan anticipar acciones del usuario y espera novedades en edición de fotografías gracias a estos avances tecnológicos.