La longitud del contexto ampliado es comparable a la de un libro de 300 páginas.
OpenAI acaba de anunciar GPT-4 Turbo, por primera vez Evento del Día del Desarrollo de OpenAI. GPT-4 Turbo extiende la longitud del contexto a 128.000 tokens.
La compañía dice que los 128.000 tokens son comparables a un libro de 300 páginas, por lo que los usuarios ahora tendrán mucho más espacio para interactuar con ChatGPT en una sola discusión.
Si bien todavía se está desarrollando una duración ilimitada del contexto, como cubrimos una historia a principios de este año en la que Microsoft está tratando de lograrlo, GPT-4 extender la longitud de su contexto hasta tal punto será más que útil.
GPT-4 Turbo es más capaz y tiene conocimiento de los eventos mundiales hasta abril de 2023. Tiene una ventana de contexto de 128k, por lo que puede contener el equivalente a más de 300 páginas de texto en un solo mensaje. También optimizamos su rendimiento para poder ofrecer GPT-4 Turbo a un precio 3 veces más barato precio para tokens de entrada y un precio 2 veces más barato para tokens de salida en comparación con GPT-4.
Abierto AI
GPT-4 Turbo está actualmente disponible en modo de vista previa, pero OpenAI promete lanzar su versión estable en las próximas semanas.
GPT-4 Turbo: aquí encontrará todo lo que necesita saber al respecto
GPT-4 Turbo tendrá un seguimiento de instrucciones mejorado y, según OpenAI, esta versión de GPT también incluirá nuevas mejoras para la llamada de funciones.
Lanzamos varias mejoras hoy, incluida la capacidad de llamar a múltiples funciones en un solo mensaje: los usuarios pueden enviar un mensaje solicitando múltiples acciones, como “abrir la ventanilla del auto y apagar el aire acondicionado”, lo que anteriormente requeriría múltiples viajes de ida y vuelta con el modelo (aprende más). También estamos mejorando la precisión de las llamadas a funciones: es más probable que GPT-4 Turbo devuelva los parámetros de función correctos.
Abierto AI
El modelo también será capaz de generar resultados reproducibles, lo que, según las propias palabras de OpenAI, es invaluable para los desarrolladores.
Esta característica beta es útil para casos de uso como reproducir solicitudes de depuración, escribir pruebas unitarias más completas y, en general, tener un mayor grado de control sobre el comportamiento del modelo. En OpenAI hemos estado utilizando esta función internamente para nuestras propias pruebas unitarias y la hemos encontrado invaluable.
Abierto AI
Junto con GPT-4 Turbo, también llegará GPT 3.5 Turbo, y se lanzará con múltiples características nuevas.
El nuevo 3.5 Turbo admite seguimiento de instrucciones mejorado, modo JSON y llamada de funciones paralelas. Por ejemplo, nuestras evaluaciones internas muestran una mejora del 38% en el formato después de tareas como generar JSON, XML y YAML. Los desarrolladores pueden acceder a este nuevo modelo llamando a gpt-3.5-turbo-1106 en la API. Las aplicaciones que utilicen el nombre gpt-3.5-turbo se actualizarán automáticamente al nuevo modelo el 11 de diciembre. Se seguirá accediendo a los modelos más antiguos pasando gpt-3.5-turbo-0613 en la API hasta el 13 de junio de 2024.
Abierto AI
¿Qué opinas del nuevo GPT-4 Turbo?