Kitas AI technologijos žingsnis jau čia.
- „Llama 2“ leis jums sukurti sudėtingus dirbtinio intelekto modelius.
- Galėsite tiksliai sureguliuoti ir įdiegti 7B, 13B ir 70B parametrų „Llama 2“ modelius.
- Ir jei esate kūrėjas, kuris naudoja „Windows“, jūsų laukia malonumas.
Prie Microsoft Inspire 2023 Konferencija, įvyko kažkas įdomaus. „Microsoft“ suvienijo jėgas su „Meta“. užmegzti AI partnerystę su Llama 2.
Šiandien „Microsoft Inspire“ metu „Meta“ ir „Microsoft“ paskelbė palaikymą „Llama 2“ didelių kalbų modelių (LLM) šeimai „Azure“ ir „Windows“. „Llama 2“ sukurta tam, kad kūrėjai ir organizacijos galėtų kurti generatyvius dirbtinio intelekto įrankius ir patirtį. „Meta“ ir „Microsoft“ yra įsipareigoję demokratizuoti dirbtinį intelektą ir jo privalumus, todėl džiaugiamės, kad „Meta“ laikosi atviro požiūrio į „Llama 2“. Siūlome kūrėjams pasirinkti modelių, pagal kuriuos jie kuria, tipus, palaikome atvirus ir pasienio modelius ir esame sužavėti būti „Meta“ pageidaujamu partneriu, nes jie pirmą kartą išleidžia naują „Llama 2“ versiją komerciniams klientams laikas.
Microsoft
Tai prasminga, nes pirmoji konferencijos diena buvo skirta dirbtiniam intelektui. „Microsoft“ paskelbė daug dalykų, susijusių su AI neskaitant „Meta AI“ partnerystės. Azure OpenAI paslauga dabar yra prieinama Azijoje, neseniai išleista Šiaurės Amerikoje ir Europoje.
„Bing Chat Enterprise“. taip pat buvo paskelbta, ir tai yra Bing AI versija, bet skirta darbui. Įrankis dabar pasiekiamas peržiūroje. ir, „Microsoft Cloud“ partnerių programa gauna AI atnaujinimą. Dabar galite naudoti dirbtinį intelektą kurdami verslo planą arba rinkodaros strategiją, tuo pat metu panaudodami jį portfeliui kurti.
Taigi, kalbant apie AI, „Microsoft“ nuo pat pradžių buvo jos priešakyje. Ir dabar Redmonde įsikūrusi technologijų milžino partnerystė su Meta gali būti kitas didelis dalykas AI pasaulyje.
Kaip buvo minėta anksčiau, „Llama 2“ leidžia kūrėjams ir organizacijoms kurti generatyvius AI įrankius ir patirtį.
„Azure“ galėsite lengvai ir saugiau suderinti ir įdiegti 7B, 13B ir 70B parametrų „Llama 2“ modelius.
Be to, turite žinoti, kad „Llama“ bus optimizuota veikti vietoje „Windows“. Ir jei esate kūrėjas, dirbantis sistemoje „Windows“, galėsite naudoti „Llama“ nukreipdami „DirectML“ vykdymo teikėją per ONNX Runtime.
„Windows“ kūrėjai taip pat galės lengvai kurti naujas patirtis naudodami „Llama 2“, kurią galima pasiekti per „GitHub Repo“. Naudodami „Windows“ posistemę, skirtą „Linux“ ir labai galingus GPU, galite tiksliai sureguliuoti LLM, kad atitiktų jūsų konkrečius poreikius jų „Windows“ kompiuteriuose.
Ką manote apie šią partnerystę? Praneškite mums toliau pateiktame komentarų skyriuje.