Die erweiterte Kontextlänge ist vergleichbar mit einem 300-seitigen Buch.
OpenAI hat gerade GPT-4 Turbo zum ersten Mal angekündigt OpenAI DevDay-Event. GPT-4 Turbo erweitert die Kontextlänge auf 128.000 Token.
Das Unternehmen gibt an, dass die 128.000 Token mit einem 300-seitigen Buch vergleichbar sind, sodass Benutzer jetzt viel mehr Platz haben, um in einer einzigen Diskussion mit ChatGPT zu interagieren.
Die unbegrenzte Kontextlänge befindet sich zwar noch in der Entwicklung, wie wir Anfang des Jahres über eine Geschichte berichteten, in der Microsoft versucht, dies zu erreichen, indem GPT-4 seine Kontextlänge so weit ausdehnt, dass es mehr als sein wird nützlich.
GPT-4 Turbo ist leistungsfähiger und kennt das Weltgeschehen bis April 2023. Es verfügt über ein 128-KByte-Kontextfenster, sodass in einer einzigen Eingabeaufforderung das Äquivalent von mehr als 300 Textseiten Platz findet. Wir haben auch die Leistung optimiert, sodass wir GPT-4 Turbo zu einem günstigen Preis anbieten können
3x günstiger Preis für Eingabe-Tokens und ein 2x günstigerer Preis für Ausgabe-Tokens im Vergleich zu GPT-4. OpenAI
GPT-4 Turbo ist derzeit im Vorschaumodus verfügbar, OpenAI verspricht jedoch, seine stabile Version in den folgenden Wochen zu veröffentlichen.
GPT-4 Turbo: Hier finden Sie alles, was Sie darüber wissen müssen
GPT-4 Turbo wird über eine verbesserte Befehlsfolge verfügen und laut OpenAI wird diese GPT-Version auch neue Verbesserungen für Funktionsaufrufe enthalten.
Wir veröffentlichen heute mehrere Verbesserungen, darunter die Möglichkeit, mehrere Funktionen in einer einzigen Nachricht aufzurufen: Benutzer können eine Nachricht senden Anfordern mehrerer Aktionen, wie zum Beispiel „Öffnen Sie das Autofenster und schalten Sie die Klimaanlage aus“, was zuvor mehrere Hin- und Rückfahrten mit dem erfordert hätte Modell (Lern mehr). Wir verbessern auch die Genauigkeit von Funktionsaufrufen: GPT-4 Turbo gibt mit größerer Wahrscheinlichkeit die richtigen Funktionsparameter zurück.
OpenAI
Das Modell wird auch in der Lage sein, reproduzierbare Ausgaben zu liefern, was laut OpenAIs eigenen Worten für Entwickler von unschätzbarem Wert ist.
Diese Beta-Funktion ist nützlich für Anwendungsfälle wie das Wiederholen von Debugging-Anfragen, das Schreiben umfassenderer Komponententests und allgemein für ein höheres Maß an Kontrolle über das Modellverhalten. Wir bei OpenAI haben diese Funktion intern für unsere eigenen Unit-Tests verwendet und fanden sie von unschätzbarem Wert.
OpenAI
Neben GPT-4 Turbo kommt auch GPT 3.5 Turbo, und es wird mit mehreren neuen Funktionen veröffentlicht.
Der neue 3.5 Turbo unterstützt verbesserte Befehlsverfolgung, JSON-Modus und parallele Funktionsaufrufe. Unsere internen Auswertungen zeigen beispielsweise eine 38-prozentige Verbesserung bei Formatfolgeaufgaben wie der Generierung von JSON, XML und YAML. Entwickler können auf dieses neue Modell zugreifen, indem sie in der API gpt-3.5-turbo-1106 aufrufen. Anwendungen, die den Namen gpt-3.5-turbo verwenden, werden am 11. Dezember automatisch auf das neue Modell aktualisiert. Auf ältere Modelle kann bis zum 13. Juni 2024 weiterhin zugegriffen werden, indem gpt-3.5-turbo-0613 in der API übergeben wird.
OpenAI
Was denken Sie über den neuen GPT-4 Turbo?