top of page

Vea cómo funciona el nuevo GPT-4o: conversaciones con audio, video y respuestas a señales emocionales

El nuevo modelo de inteligencia artificial de OpenAI permite interacciones en tiempo real mediante audio y video, detectando y respondiendo a gestos. Ofrece mejoras significativas en velocidad y calidad en más de 50 idiomas.

El mundo de la inteligencia artificial ha dado un paso adelante significativo con el lanzamiento del GPT-4o por parte de OpenAI. La presentación, dirigida por la CTO de la firma, Mira Murati, incluyó demostraciones en tiempo real del GPT-4o en acción, mostrando su capacidad para mantener diálogos fluidos y adaptarse a las señales emocionales de los usuarios.


Una de las características destacadas del GPT-4o es su capacidad para responder a inputs de audio en aproximadamente 320 milisegundos en promedio, lo que se asemeja a los tiempos de respuesta humanos en conversación. Esto, combinado con su capacidad para procesar texto, visión y audio de manera simultánea en una única red neuronal, lo convierte en una herramienta poderosa para una amplia gama de aplicaciones.


Los usuarios pueden cargar capturas de pantalla, documentos con texto e imágenes o gráficos, y mantener conversaciones sobre el contenido visual, recibiendo análisis de datos del GPT-4o en tiempo real. Esto abre nuevas posibilidades en campos como el análisis de imágenes, la interpretación de emociones y la generación de conversaciones significativas sobre contenido visual.




Además de sus capacidades de conversación y comprensión visual, el GPT-4o ofrece mejoras significativas en velocidad y calidad en más de 50 idiomas, cubriendo el 97% de la población mundial. Su capacidad de traducción en tiempo real facilita la comunicación entre hablantes de diferentes idiomas, lo que lo convierte en una herramienta invaluable para la colaboración global y la comunicación intercultural.


OpenAI ha anunciado que el GPT-4o estará disponible para todos los usuarios de ChatGPT, con suscriptores pagos teniendo acceso a límites de velocidad cinco veces mayores que los usuarios gratuitos. Además, la versión API del GPT-4o ofrecerá el doble de velocidad, un 50 por ciento menos de costo y límites de velocidad cinco veces mayores en comparación con el GPT-4 Turbo.


A medida que el modelo se despliegue de manera iterativa en las próximas semanas, OpenAI continuará investigando la seguridad y recopilando comentarios de los usuarios para garantizar una experiencia óptima y segura para todos.


Comentarios


bottom of page