Der nächste Schritt in der KI-Technologie ist da.
- Mit Llama 2 können Sie Ihre eigenen komplexen KI-Modelle erstellen.
- Sie werden in der Lage sein, die Llama 2-Modelle mit den Parametern 7B, 13B und 70B zu optimieren und einzusetzen.
- Und wenn Sie ein Entwickler sind, der Windows verwendet, können Sie sich auf etwas freuen.
Bei der Microsoft Inspire 2023 Konferenz, etwas Aufregendes ist passiert. Microsoft hat sich mit Meta zusammengetan eine KI-Partnerschaft mit Llama 2 einzugehen.
Meta und Microsoft haben heute auf der Microsoft Inspire die Unterstützung für die Llama 2-Familie großer Sprachmodelle (LLMs) auf Azure und Windows angekündigt. Llama 2 wurde entwickelt, um Entwicklern und Organisationen die Entwicklung generativer KI-gestützter Tools und Erfahrungen zu ermöglichen. Meta und Microsoft engagieren sich gemeinsam für die Demokratisierung von KI und ihren Vorteilen und wir freuen uns, dass Meta mit Llama 2 einen offenen Ansatz verfolgt. Wir bieten Entwicklern die Wahl zwischen den Modelltypen, auf denen sie aufbauen, unterstützen offene und Frontier-Modelle und sind begeistert Metas bevorzugter Partner zu sein, da sie ihre neue Version von Llama 2 erstmals für kommerzielle Kunden veröffentlichen Zeit.
Microsoft
Das macht Sinn, denn am ersten Tag der Konferenz drehte sich alles um KI. Microsoft hat viele Dinge im Zusammenhang mit KI angekündigt abgesehen von seiner Meta AI-Partnerschaft. Azure OpenAI-Dienst ist jetzt in Asien erhältlich, nachdem es kürzlich in Nordamerika und Europa veröffentlicht wurde.
Bing Chat Enterprise wurde ebenfalls angekündigt, und es ist die Version von Bing AI, aber für die Arbeit. Das Tool ist jetzt in der Vorschau verfügbar. Und, Microsoft Cloud-Partnerprogramm bekommt ein KI-Update. Sie können KI jetzt nutzen, um Ihren Geschäftsplan oder Ihre Marketingstrategie zu entwickeln und sie gleichzeitig zum Aufbau eines Portfolios zu nutzen.
Wenn es um KI geht, war Microsoft also von Anfang an an der Spitze. Und jetzt könnte die Partnerschaft des in Redmond ansässigen Technologieriesen mit Meta das nächste große Ding in der KI-Welt sein.
Wie bereits erwähnt, ermöglicht Llama 2 Entwicklern und Organisationen die Entwicklung generativer KI-Tools und -Erlebnisse.
Sie können die Llama 2-Modelle mit den Parametern 7B, 13B und 70B einfacher und sicherer auf Azure optimieren und bereitstellen.
Außerdem müssen Sie wissen, dass Llama für die lokale Ausführung unter Windows optimiert ist. Und wenn Sie ein Entwickler sind, der unter Windows arbeitet, können Sie Llama verwenden, indem Sie über die ONNX Runtime auf den DirectML-Ausführungsanbieter abzielen.
Windows-Entwickler können mit Llama 2, auf das über GitHub Repo zugegriffen werden kann, problemlos neue Erlebnisse erstellen. Mit dem Windows-Subsystem für Linux und hochleistungsfähigen GPUs können Sie LLMs genau auf Ihre spezifischen Anforderungen direkt auf ihren Windows-PCs abstimmen.
Was denken Sie über diese Partnerschaft? Lassen Sie es uns im Kommentarbereich unten wissen.