InicioTecnologíaInteligencia ArtificialGPT-4 Turbo llega a ChatGPT, Vision ya está disponible en la API

GPT-4 Turbo llega a ChatGPT, Vision ya está disponible en la API

Se mostraron algunos ejemplos del uso de la versión por algunas desarrolladoras

OpenAI anunció este martes dos nuevas actualizaciones en el marco de Cloud Next 2024, que van de la mano con GPT-4 Turbo, la versión mejorada de GPT-4 diseñada inicialmente para desarrolladores. Estas mejoras llegan horas después del lanzamiento de Gemini 1.5 Pro, nueva actualización de la Inteligencia Artificial de Google.

La primera mejora es la integración de GPT-4 Turbo a ChatGPT, disponible para usuarios Plus. Quienes usen la versión GPT-4 comenzarán paulatinamente a tener resultados de esta versión, que mejora aún más la calidad de respuesta y análisis. Anteriormente, solo estaba disponible por medio de algunos GPT de la tienda, como MULTITASKER.

El segundo upgrade es la disponibilidad del módulo Vision para los desarrolladores a través de la API. Este le da la capacidad de interpretar, identificar y comprender el contenido de una imagen otorgada. Los desarrolladores de todo el mundo ahora pueden parametrizar el contenido para obtener información y darle alguna utilidad en sus aplicaciones.

Con la finalidad de mostrar la herramienta, OpenAI presentó algunas demostraciones. TLDRAW usa GPT-4 Turbo con Vision para generar sitios web funcionales a través de diseños en sus canvas. La aplicación Fitness Healthifyme la usa para dar brindar la información nutricional bajo reconocimiento fotográfico. También está Devin, herramienta de asistencia de creación de código por Cognition Labs, que Vision le permite realizar una variedad de tareas de codificación.

Darío "Kentaro Darkdox" Pérez
Darío "Kentaro Darkdox" Pérez
Asesor, OT, Juez y Consultor Externo de Video Games/Cosplay • Informático de profesión • Google Local Guide lvl 7 •

Próximos eventos

¡Siguenos!

16,865FansMe gusta
1,841SeguidoresSeguir
650SeguidoresSeguir
801SeguidoresSeguir
729SeguidoresSeguir

Te recomendamos leer: