Nästa steg inom AI-teknik är här.
- Llama 2 låter dig bygga dina egna komplexa AI-modeller.
- Du kommer att kunna finjustera och distribuera Llama 2-modellerna med 7B, 13B och 70B.
- Och om du är en utvecklare som använder Windows har du en njutning.
![microsoft meta llama 2 ai](/f/b58713c7997f6c130ddef44d1f61798c.jpg)
Vid Microsoft Inspirera 2023 Konferens, något spännande hände. Microsoft gick ihop med Meta att bilda ett AI-partnerskap med Llama 2.
Idag, på Microsoft Inspire, tillkännagav Meta och Microsoft stöd för Llama 2-familjen av stora språkmodeller (LLM) på Azure och Windows. Llama 2 är designad för att göra det möjligt för utvecklare och organisationer att bygga generativa AI-drivna verktyg och upplevelser. Meta och Microsoft delar ett åtagande att demokratisera AI och dess fördelar och vi är glada över att Meta tar ett öppet tillvägagångssätt med Llama 2. Vi erbjuder utvecklare valmöjligheter i de typer av modeller de bygger på, stöder öppna och gränsmodeller och är stolta över att vara Metas föredragna partner när de släpper sin nya version av Llama 2 till kommersiella kunder för första gången tid.
Microsoft
Det är vettigt, eftersom konferensens första dag handlade om AI. Microsoft tillkännagav många saker AI-relaterade förutom sitt Meta AI-partnerskap. Azure OpenAI Service är nu tillgänglig i Asien efter att nyligen släppts i Nordamerika och Europa.
Bing Chat Enterprise tillkännagavs också, och det är versionen av Bing AI men för arbete. Verktyget är tillgängligt nu i förhandsgranskning. Och, Microsoft Cloud Partner Program får en AI-uppdatering. Du kan nu använda AI för att utveckla din affärsplan eller marknadsföringsstrategi samtidigt som du använder den för att bygga en portfölj.
Så när det kommer till AI har Microsoft legat i framkanten redan från början. Och nu kan det Redmond-baserade teknikjättens partnerskap med Meta bli nästa stora grej i AI-världen.
Som det nämndes tidigare gör Llama 2 det möjligt för utvecklare och organisationer att bygga generativa AI-verktyg och -upplevelser.
Du kommer att kunna finjustera och distribuera 7B, 13B och 70B-parameter Llama 2-modeller enkelt och säkrare på Azure.
Dessutom måste du veta att Llama kommer att optimeras för att köras lokalt på Windows. Och om du är en utvecklare som arbetar på Windows, kommer du att kunna använda Llama genom att rikta in dig på DirectML-exekveringsleverantören genom ONNX Runtime.
Windows-utvecklare kommer också enkelt att kunna bygga nya upplevelser med Llama 2 som kan nås via GitHub Repo. Med Windows Subsystem för Linux och mycket kapabla GPU: er kan du finjustera LLM: er för att möta dina specifika behov direkt på deras Windows-datorer.
Vad tycker du om detta partnerskap? Låt oss veta i kommentarsfältet nedan.