Naslednji korak v tehnologiji umetne inteligence je tukaj.
- Llama 2 vam bo omogočila izdelavo lastnih zapletenih modelov AI.
- Lahko boste natančno prilagodili in uvedli modele Llama 2 s parametri 7B, 13B in 70B.
- In če ste razvijalec, ki uporablja Windows, vas čaka poslastica.

Pri Microsoft Inspire 2023 Na konferenci se je zgodilo nekaj vznemirljivega. Microsoft je združil moči z Meto vzpostaviti partnerstvo z umetno inteligenco z Llamo 2.
Danes sta Meta in Microsoft na Microsoft Inspire napovedala podporo za družino Llama 2 velikih jezikovnih modelov (LLM) v Azure in Windows. Llama 2 je zasnovan tako, da razvijalcem in organizacijam omogoča ustvarjanje generativnih orodij in izkušenj, ki jih poganja AI. Meta in Microsoft si delita zavezo k demokratizaciji umetne inteligence in njenih prednosti in navdušeni smo, da ima Meta odprt pristop k Llami 2. Razvijalcem ponujamo izbiro vrst modelov, na katerih gradijo, podpiramo odprte in mejne modele in smo navdušeni biti Metin prednostni partner, ko so svojo novo različico Llame 2 prvič izdali komercialnim strankam čas.
Microsoft
To je logično, saj je bil prvi dan konference namenjen AI. Microsoft je napovedal veliko stvari, povezanih z AI poleg svojega partnerstva Meta AI. Storitev Azure OpenAI je zdaj na voljo v Aziji, potem ko je bil nedavno izdan v Severni Ameriki in Evropi.
Bing Chat Enterprise je bila prav tako objavljena in je različica Bing AI, vendar za delo. Orodje je zdaj na voljo v predogledu. In, Partnerski program Microsoft Cloud dobi posodobitev AI. Zdaj lahko z umetno inteligenco razvijete svoj poslovni načrt ali trženjsko strategijo, hkrati pa jo uporabite za ustvarjanje portfelja.
Ko gre za umetno inteligenco, je bil Microsoft v ospredju že od samega začetka. In zdaj je lahko partnerstvo tehnološkega velikana s sedežem v Redmondu in Meta naslednja velika stvar v svetu umetne inteligence.
Kot je bilo že omenjeno, Llama 2 razvijalcem in organizacijam omogoča ustvarjanje generativnih orodij in izkušenj AI.
Modele Llama 2 s parametri 7B, 13B in 70B boste lahko enostavno in varneje natančno prilagodili in uvedli v Azure.
Poleg tega morate vedeti, da bo Llama optimizirana za lokalno delovanje v sistemu Windows. In če ste razvijalec, ki dela v sistemu Windows, boste lahko uporabljali Llamo tako, da ciljate na ponudnika izvajanja DirectML prek ONNX Runtime.
Razvijalci sistema Windows bodo prav tako lahko preprosto gradili nove izkušnje z uporabo Llama 2, do katere je mogoče dostopati prek GitHub Repo. S podsistemom Windows za Linux in zelo zmogljivimi grafičnimi procesorji lahko natančno prilagodite LLM-je, da bodo ustrezali vašim specifičnim potrebam neposredno na njihovih osebnih računalnikih z operacijskim sistemom Windows.
Kaj menite o tem partnerstvu? Sporočite nam v spodnjem oddelku za komentarje.