OpenAI lanzĆ³ un nuevo modelo de inteligencia artificial llamado GPT-4o, el cual revolucionarĆ” el servicio que brinda ChatGPT.
Durante un evento realizado este lunes, Muri Murati, CTO de OpenAI, informĆ³ que GPT-4o posee una inteligencia equivalente al modelo GPT-4, pero ha sido mejorado para ampliar sus capacidades en el manejo de texto, audio y visiĆ³n.
Esta mejora se traduce en una notable reducciĆ³n en la latencia de las respuestas, permitiendo interacciones casi instantĆ”neas con los usuarios.
Se trata de una actualizaciĆ³n que promete ser mĆ”s “inteligente y rĆ”pida” que sus predecesores, marcando un hito en la evoluciĆ³n de las tecnologĆas de aprendizaje automĆ”tico de la compaƱĆa liderada por Sam Altman.
ChatGPT. ĀæQuĆ© novedades trae GPT-4o?
Entre las nuevas funcionalidades destacadas, GPT-4o ofrece traducciĆ³n instantĆ”nea. Los usuarios podrĆ”n pedir al modelo que traduzca conversaciones en tiempo real a diferentes idiomas, como del italiano al espaƱol, facilitando la comunicaciĆ³n entre hablantes de distintas lenguas.
TambiĆ©n, este modelo tiene la capacidad de analizar imĆ”genes. Los usuarios pueden mostrarle una foto o captura de pantalla y obtener informaciĆ³n detallada sobre la misma, desde identificar modelos de coches hasta detectar errores en cĆ³digos de programaciĆ³n.
- InteracciĆ³n por voz: Los usuarios podrĆ”n conversar con ChatGPT utilizando Ćŗnicamente la voz, recibiendo respuestas de audio en un tiempo de respuesta similar al humano.
- AnĆ”lisis de imĆ”genes y vĆdeos: GPT-4o es capaz de procesar y mantener conversaciones sobre contenido visual compartido por los usuarios.
- Gratuito para todos: A diferencia de GPT-4, esta nueva versiĆ³n estarĆ” disponible de forma gratuita para todos los usuarios, tanto en dispositivos mĆ³viles como en ordenadores.
- Nuevas aplicaciones: OpenAI ha lanzado una nueva aplicaciĆ³n especĆfica para Mac y PC, ademĆ”s de la ya existente para iOS y Android.
ĀæCĆ³mo funciona GPT-4o?
GPT-4o mantiene las funciones bĆ”sicas de ChatGPT, respondiendo a preguntas y solicitudes del usuario, pero ahora tambiĆ©n a travĆ©s de la voz. Durante la presentaciĆ³n, se demostrĆ³ cĆ³mo la IA puede contar cuentos, adaptarse a las peticiones del usuario e incluso cambiar el tono de voz.
ĀæQuĆ© implica la multimodalidad?
La multimodalidad permite a los usuarios interactuar con ChatGPT de forma mĆ”s natural y versĆ”til, ya sea a travĆ©s de texto, voz o imĆ”genes. Esto abre un abanico de posibilidades para su uso en diferentes Ć”mbitos, desde la educaciĆ³n hasta el entretenimiento.
Se espera que GPT-4o ayude a mantener a ChatGPT a la cabeza del mercado de chatbots, impulsando su crecimiento y uso. AdemĆ”s, se rumorea que OpenAI podrĆa estar negociando con Apple para integrar esta tecnologĆa en Siri, el asistente de voz de los iPhone.
ĀæCuĆ”ndo estarĆ” disponible?
El modelo GPT-4o estarĆ” disponible para todos los usuarios de ChatGPT, incluyendo aquellos que usan la versiĆ³n gratuita. Esto democratiza el acceso a lo Ćŗltimo en tecnologĆa de IA, permitiendo a un mayor nĆŗmero de personas y empresas beneficiarse de estas avanzadas capacidades.
ĀæPor quĆ© se llama GPT-4o?
A travĆ©s de su sitio web, Open AI seƱala que la o es de Omni. Al respecto, la compaƱĆa lĆder en Inteligencia Artificial seƱala:
GPT-4o (“o” por “omni”) es un paso hacia una interacciĆ³n humano-computadora mucho mĆ”s natural: acepta como entrada cualquier combinaciĆ³n de texto, audio e imagen, y genera cualquier combinaciĆ³n de salidas de texto, audio e imagen.
Puede responder a entradas de audio en tan solo 232 milisegundos, con un promedio de 320 milisegundos, lo cual es similar al tiempo de respuesta humano (se abre en una nueva ventana) en una conversaciĆ³n.
Iguala el rendimiento de GPT-4 Turbo en texto en inglĆ©s y cĆ³digo, con una mejora significativa en texto en otros idiomas, siendo ademĆ”s mucho mĆ”s rĆ”pido y 50% mĆ”s econĆ³mico en la API. GPT-4o es especialmente mejor en la comprensiĆ³n de visiĆ³n y audio en comparaciĆ³n con modelos existentes.