La longueur du contexte étendu est comparable à celle d’un livre de 300 pages.
OpenAI vient d'annoncer GPT-4 Turbo, pour la toute première fois Événement OpenAI DevDay. GPT-4 Turbo étend la longueur du contexte à 128 000 jetons.
La société affirme que les 128 000 jetons sont comparables à un livre de 300 pages, de sorte que les utilisateurs disposeront désormais de beaucoup plus d'espace pour interagir avec ChatGPT au cours d'une seule discussion.
Bien que la longueur illimitée du contexte soit encore en développement, comme nous l'avons évoqué plus tôt cette année, dans lequel Microsoft essaie d'y parvenir, GPT-4 étendre la longueur de son contexte à un tel degré sera plus que utile.
GPT-4 Turbo est plus performant et connaît les événements mondiaux jusqu’en avril 2023. Il dispose d'une fenêtre contextuelle de 128 Ko et peut donc contenir l'équivalent de plus de 300 pages de texte dans une seule invite. Nous avons également optimisé ses performances afin de pouvoir proposer GPT-4 Turbo à un prix abordable.
3x moins cher prix pour les jetons d'entrée et un prix 2x moins cher pour les jetons de sortie par rapport à GPT-4. OpenAI
GPT-4 Turbo est actuellement disponible en mode aperçu, mais OpenAI promet de sortir sa version stable dans les semaines à venir.
GPT-4 Turbo: voici tout ce que vous devez savoir à son sujet
GPT-4 Turbo aura une suite d'instructions améliorée et, selon OpenAI, cette version GPT comportera également de nouvelles améliorations pour les appels de fonctions.
Nous publions aujourd'hui plusieurs améliorations, notamment la possibilité d'appeler plusieurs fonctions dans un seul message: les utilisateurs peuvent envoyer un seul message. demandant plusieurs actions, telles que « ouvrir la vitre de la voiture et éteindre la climatisation », ce qui nécessiterait auparavant plusieurs allers-retours avec le modèle (apprendre encore plus). Nous améliorons également la précision des appels de fonction: GPT-4 Turbo est plus susceptible de renvoyer les bons paramètres de fonction.
OpenAI
Le modèle sera également capable de produire des résultats reproductibles, ce qui, selon les propres mots d’OpenAI, est inestimable pour les développeurs.
Cette fonctionnalité bêta est utile pour des cas d'utilisation tels que la relecture des demandes de débogage, l'écriture de tests unitaires plus complets et généralement un degré plus élevé de contrôle sur le comportement du modèle. Chez OpenAI, nous utilisons cette fonctionnalité en interne pour nos propres tests unitaires et nous l'avons trouvée inestimable.
OpenAI
Parallèlement à GPT-4 Turbo, GPT 3.5 Turbo arrive également et sera publié avec plusieurs nouvelles fonctionnalités.
Le nouveau 3.5 Turbo prend en charge un suivi d'instructions amélioré, le mode JSON et l'appel de fonctions parallèles. Par exemple, nos évaluations internes montrent une amélioration de 38 % sur le format suite à des tâches telles que la génération de JSON, XML et YAML. Les développeurs peuvent accéder à ce nouveau modèle en appelant gpt-3.5-turbo-1106 dans l'API. Les applications utilisant le nom gpt-3.5-turbo seront automatiquement mises à niveau vers le nouveau modèle le 11 décembre. Les modèles plus anciens continueront d'être accessibles en passant gpt-3.5-turbo-0613 dans l'API jusqu'au 13 juin 2024.
OpenAI
Que pensez-vous du nouveau GPT-4 Turbo ?