OpenAI, la empresa detrás de ChatGPT, está cada vez más cerca de crear su primer chip de inteligencia artificial, según un nuevo informe. Con el aumento en el número de aplicaciones desarrolladas en su plataforma y el elevado costo de la computación en la nube, OpenAI ha decidido explorar nuevas estrategias de hardware para ser más eficiente.
Broadcom, el socio elegido para el chip personalizado
En julio, se informó que OpenAI estaba en conversaciones con varios fabricantes de chips, incluyendo Broadcom. Ahora, Reuters informa que la compañía ha elegido a Broadcom como su socio de silicio personalizado, y que el chip podría estar listo para 2026. Este nuevo chip de OpenAI no estaría enfocado en el entrenamiento de modelos (área dominada por Nvidia), sino en la ejecución de software de IA y la respuesta a las solicitudes de los usuarios.
Colaboración con AMD y Microsoft Azure
Antes de que el chip personalizado esté listo, parece que OpenAI añadirá chips de AMD a su infraestructura de Microsoft Azure, que actualmente ya utiliza los chips de Nvidia. La idea es diversificar su hardware y reducir costos, abandonando la idea inicial de crear una red de fábricas de chips o “fundición”.
¿Por qué OpenAI necesita su propio chip?
El principal motivo detrás de esta medida es reducir los altos costos de las aplicaciones de IA en la nube. Aunque OpenAI ha reducido el precio de los tokens API (lo que les cuesta a los desarrolladores usar sus modelos) en un 99% desde el lanzamiento de GPT-3 en 2020, el uso masivo de IA sigue siendo caro. El nuevo chip podría hacer que las aplicaciones impulsadas por IA sean más asequibles y viables a gran escala.
Nuevas herramientas para desarrolladores en DevDay London
En el evento DevDay London, OpenAI también presentó herramientas mejoradas para atraer a más desarrolladores. Una de las novedades fue una API en tiempo real con cinco nuevas voces expresivas, diseñada para ofrecer un modo de voz avanzado para aplicaciones. Actualmente, tres millones de desarrolladores en todo el mundo utilizan la API de OpenAI, aunque los altos costos siguen siendo un desafío para ejecutar muchas de sus funciones a gran escala.
Algunas startups ya están aprovechando los modelos de OpenAI para crear aplicaciones innovadoras. Por ejemplo:
- Veed, un editor de video en línea, utiliza modelos de OpenAI para transcribir automáticamente y seleccionar los mejores fragmentos de audio en videos largos.
- Granola, un bloc de notas impulsado por IA, usa GPT-4 para transcribir reuniones y enviar tareas de seguimiento, sin necesidad de que un bot se una a la llamada.
- Tortus, una startup enfocada en el sector de salud, utiliza modelos de voz de OpenAI para ayudar a los médicos, escuchando conversaciones con pacientes y automatizando tareas administrativas como la actualización de historiales médicos.
¿El futuro de la IA en servicio al cliente?
Además de estas aplicaciones, el modo de voz conversacional de baja latencia de OpenAI tiene un gran potencial en el servicio al cliente. Imagina poder interactuar con un modelo de voz de IA al llamar a una tienda o a una línea de soporte técnico. Sin embargo, los altos costos operativos actuales de la IA podrían frenar la adopción masiva, razón por la cual OpenAI parece estar acelerando el desarrollo de su propio chip.