En la industria de la inteligencia artificial, sin dudas OpenAI es una empresa que lleva la delantera. Gracias a ChatGPT, la compañía fundada por Sam Altman ha ganado reconocimiento a nivel mundial. Por eso, el anuncio de nuevos productos y actualizaciones comenzó a generar expectación apenas se dio a conocer.
PUBLICIDAD
Ahora, ya con los anuncios en mano, les podemos adelantar que no se trataba de un nuevo motor de búsquedas ni de GPT -5, tampoco de Sora. Pero sí hubo noticiones que aquí les explicamos.
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
Todo lo que debes saber sobre lo nuevo de OpenAI
Curiosamente, este evento llegó justo a tiempo antes del Google I/O 2024, instancia en la que uno de sus competidores dará a conocer sus novedades para el año. También se ha dicho que estos anuncios fueron en respuesta a Llama 3 de Meta, pero lo cierto es que son meras teorías de redes sociales.
En lo práctico, la transmisión comenzó con Mira Murati, Directora de Tecnología de OpenAI, dando a conocer el lanzamiento de GPT -4o (cuya “o” es la abreviación de “omni), su versión más avanzada hasta ahora en tecnología de lenguaje. ¿La novedad? Es que presenta significativas mejoras en cuanto a su predecesor GPT-4.
“Acepta como entrada cualquier combinación de texto, audio e imagen y genera cualquier combinación de salidas de texto, audio e imagen. Puede responder a entradas de audio en tan solo 232 milisegundos, con una media de 320 milisegundos, lo que es similar al tiempo de respuesta humano en una conversación”, adelantó Murati.
Y es que GPT-4o no solo posee la habilidad de procesar texto, sino que también amplió sus capacidades para incluir interpretación de audio e imágenes, lo que representa un gran salto en cómo interactuamos con la inteligencia artificial.
De acuerdo a la CTO de OpenAI, esta tecnología estará pronto disponible para todos los usuarios de ChatGPT, tanto en las versiones gratuitas como de pago. “Esta es la primera vez que realmente estamos dando un gran paso adelante en lo que respecta a la facilidad de uso”, reveló Murati, agregando que “esta interacción se volverá mucho más natural y mucho, mucho más fácil”.
PUBLICIDAD
OpenAI mira hacia el futuro de la IA
“En primer lugar, una parte clave de nuestra misión es poner en manos de las personas herramientas de IA muy capaces de forma gratuita (o a un precio excelente). Estoy muy orgulloso de haber hecho que el mejor modelo del mundo esté disponible de forma gratuita en ChatGPT, sin anuncios ni nada por el estilo”, escribió Sam Altman en su blog.
También, durante el evento se realizaron varias demostraciones para mostrar la capacidad de GPT-4o en tiempo real. Esto incluyó desde resolver ecuaciones matemáticas usando la cámara de un smartphone hasta identificar emociones a partir de expresiones faciales, demostrando su potencial.
Según Murati, las funciones de texto e imágenes ya están disponibles desde hoy para todos los usuarios de ChatGPT. El modo voz, en tanto, se lanzará en una versión alpha para los suscriptores de ChatGPT Plus en las próximas semanas. Además, el modelo estará disponible a través de la API de OpenAI, con una estructura de costos que promete ser más accesible y eficiente que las versiones anteriores.
“El nuevo modo de voz (y video) es la mejor interfaz de computadora que he usado. Parece la IA de las películas; y todavía me sorprende un poco que sea real. Llegar a tiempos de respuesta y expresividad a nivel humano resulta ser un gran cambio”, indicó Altman.
Y no sólo eso. Además del lanzamiento de GPT-4o, OpenAI anunció una aplicación de ChatGPT para sistemas operativos de escritorio, con versiones demostradas para macOS y la promesa de una versión para Windows. Su objetivo será facilitar a los programadores el acceso a las capacidades de la IA, permitiendo una integración más directa y efectiva en el proceso de desarrollo de software.