Următorul pas în tehnologia AI este aici.
- Llama 2 vă va permite să vă construiți propriile modele complexe de IA.
- Veți putea să reglați fin și să implementați modelele Llama 2 cu parametri 7B, 13B și 70B.
- Și dacă ești un dezvoltator care folosește Windows, te bucuri de un răsfăț.
La Microsoft Inspire 2023 Conferință, sa întâmplat ceva interesant. Microsoft și-a unit forțele cu Meta pentru a forma un parteneriat AI cu Llama 2.
Astăzi, la Microsoft Inspire, Meta și Microsoft au anunțat suport pentru familia Llama 2 de modele de limbi mari (LLM) pe Azure și Windows. Llama 2 este conceput pentru a permite dezvoltatorilor și organizațiilor să construiască instrumente și experiențe generative bazate pe inteligență artificială. Meta și Microsoft împărtășesc angajamentul de a democratiza AI și beneficiile acesteia și suntem încântați că Meta adoptă o abordare deschisă cu Llama 2. Oferim dezvoltatorilor posibilitatea de a alege în ceea ce privește tipurile de modele pe care le construiesc, susținând modele deschise și de frontieră și suntem încântați să fie partenerul preferat al Meta, deoarece lansează noua versiune a Llama 2 clienților comerciali pentru prima dată timp.
Microsoft
Are sens, deoarece prima zi a conferinței a fost totul despre AI. Microsoft a anunțat o mulțime de lucruri legate de inteligența artificială în afară de parteneriatul său Meta AI. Serviciul Azure OpenAI este acum disponibil în Asia după ce a fost lansat recent în America de Nord și Europa.
Bing Chat Enterprise a fost de asemenea anunțat și este versiunea Bing AI, dar pentru muncă. Instrumentul este disponibil acum în Previzualizare. Și, Programul Microsoft Cloud Partner primește o actualizare AI. Acum puteți folosi inteligența artificială pentru a vă dezvolta planul de afaceri sau strategia de marketing, în timp ce îl folosiți pentru a construi un portofoliu.
Deci, când vine vorba de AI, Microsoft a fost în fruntea acesteia chiar de la început. Și acum, parteneriatul gigant tehnologic din Redmond cu Meta poate fi următorul lucru important în lumea AI.
După cum sa menționat mai devreme, Llama 2 face posibil ca dezvoltatorii și organizațiile să construiască instrumente și experiențe AI generative.
Veți putea regla fin și implementa modelele Llama 2 cu parametri 7B, 13B și 70B cu ușurință și mai sigur pe Azure.
În plus, trebuie să știți că Llama va fi optimizat pentru a rula local pe Windows. Și dacă sunteți un dezvoltator care lucrează pe Windows, veți putea folosi Llama țintind furnizorul de execuție DirectML prin ONNX Runtime.
Dezvoltatorii Windows vor putea, de asemenea, să construiască cu ușurință noi experiențe folosind Llama 2, care poate fi accesat prin GitHub Repo. Cu subsistemul Windows pentru Linux și GPU-uri de înaltă capacitate, puteți ajusta LLM-urile pentru a vă satisface nevoile specifice chiar pe computerele lor Windows.
Ce părere aveți despre acest parteneriat? Anunțați-ne în secțiunea de comentarii de mai jos.