Det næste trin i AI-teknologi er her.
- Llama 2 giver dig mulighed for at bygge dine egne komplekse AI-modeller.
- Du vil være i stand til at finjustere og implementere Llama 2-modellerne 7B, 13B og 70B.
- Og hvis du er en udvikler, der bruger Windows, får du en fornøjelse.
Ved Microsoft Inspire 2023 Konference, der skete noget spændende. Microsoft gik sammen med Meta at danne et AI-partnerskab med Llama 2.
I dag, hos Microsoft Inspire, annoncerede Meta og Microsoft support til Llama 2-familien af store sprogmodeller (LLM'er) på Azure og Windows. Llama 2 er designet til at gøre det muligt for udviklere og organisationer at bygge generative AI-drevne værktøjer og oplevelser. Meta og Microsoft deler en forpligtelse til at demokratisere AI og dens fordele, og vi er glade for, at Meta tager en åben tilgang med Llama 2. Vi tilbyder udviklere valg i de typer modeller, de bygger på, understøtter åbne og grænseoverskridende modeller og er begejstrede at være Metas foretrukne partner, da de for første gang udgiver deres nye version af Llama 2 til kommercielle kunder tid.
Microsoft
Det giver mening, da konferencens første dag handlede om kunstig intelligens. Microsoft annoncerede en masse ting AI-relaterede bortset fra sit Meta AI-partnerskab. Azure OpenAI Service er nu tilgængelig i Asien efter for nylig at være blevet udgivet i Nordamerika og Europa.
Bing Chat Enterprise blev også annonceret, og det er versionen af Bing AI, men til arbejde. Værktøjet er tilgængeligt nu i Preview. Og, Microsoft Cloud Partner Program får en AI-opdatering. Du kan nu bruge AI til at udvikle din forretningsplan eller marketingstrategi, mens du udnytter den til at opbygge en portefølje.
Så når det kommer til AI, har Microsoft været på forkant med det lige fra starten. Og nu kan det Redmond-baserede teknologigigant-partnerskab med Meta blive den næste store ting i AI-verdenen.
Som det blev nævnt tidligere, gør Llama 2 det muligt for udviklere og organisationer at bygge generative AI-værktøjer og -oplevelser.
Du vil være i stand til at finjustere og implementere 7B-, 13B- og 70B-parameter Llama 2-modeller nemt og mere sikkert på Azure.
Derudover skal du vide, at Llama vil blive optimeret til at køre lokalt på Windows. Og hvis du er en udvikler, der arbejder på Windows, vil du være i stand til at bruge Llama ved at målrette DirectML-udførelsesudbyderen gennem ONNX Runtime.
Windows-udviklere vil også nemt kunne bygge nye oplevelser ved hjælp af Llama 2, som kan tilgås via GitHub Repo. Med Windows Subsystem til Linux og yderst dygtige GPU'er kan du finjustere LLM'er til at opfylde dine specifikke behov direkte på deres Windows-pc'er.
Hvad synes du om dette partnerskab? Fortæl os det i kommentarfeltet nedenfor.