Järgmine samm AI-tehnoloogias on käes.
- Llama 2 võimaldab teil luua oma keerukaid tehisintellekti mudeleid.
- Saate täpsustada ja juurutada 7B, 13B ja 70B parameetritega Llama 2 mudeleid.
- Ja kui olete arendaja, kes kasutab Windowsi, on teil see maiuspala.
Juures Microsoft Inspire 2023 Konverents, juhtus midagi põnevat. Microsoft ühendas jõud Metaga luua AI partnerlus Llama 2-ga.
Täna teatasid Meta ja Microsoft Microsoft Inspire'is suurte keelemudelite (LLM) perekonna Llama 2 toetamisest Azure'is ja Windowsis. Llama 2 on loodud selleks, et võimaldada arendajatel ja organisatsioonidel luua generatiivseid AI-põhiseid tööriistu ja kogemusi. Meta ja Microsoft jagavad pühendumust tehisintellekti ja selle eeliste demokratiseerimisele ning oleme põnevil, et Meta suhtub Llama 2-sse avatud viisil. Pakume arendajatele valikut mudelitüüpide osas, millele nad tuginevad, toetades avatud ja piiripealseid mudeleid ning oleme põnevil olla Meta eelistatud partner, kui nad annavad oma Llama 2 uue versiooni esmakordselt kommertsklientidele aega.
Microsoft
See on loogiline, kuna konverentsi esimene päev käsitles kõike tehisintellekti. Microsoft teatas paljudest tehisintellektiga seotud asjadest peale selle Meta AI partnerluse. Azure OpenAI teenus on nüüd saadaval Aasias pärast hiljutist väljaandmist Põhja-Ameerikas ja Euroopas.
Bing Chat Enterprise samuti teatati ja see on Bing AI versioon, kuid töö jaoks. Tööriist on nüüd saadaval eelvaates. ja Microsofti pilvepartnerprogramm saab AI värskenduse. Nüüd saate kasutada tehisintellekti oma äriplaani või turundusstrateegia väljatöötamiseks, kasutades samal ajal seda portfelli koostamiseks.
Nii et tehisintellekti osas on Microsoft olnud algusest peale selle esirinnas. Ja nüüd võib Redmondis põhinev tehnoloogiahiiglase partnerlus Metaga olla järgmine suur asi tehisintellekti maailmas.
Nagu varem mainitud, võimaldab Llama 2 arendajatel ja organisatsioonidel luua generatiivseid AI tööriistu ja kogemusi.
Saate 7B, 13B ja 70B parameetriga Llama 2 mudeleid Azure'is hõlpsalt ja turvalisemalt peenhäälestada ja juurutada.
Lisaks peate teadma, et Llama optimeeritakse Windowsis kohapeal töötama. Ja kui olete Windowsis töötav arendaja, saate Llamat kasutada, sihites ONNX Runtime'i kaudu DirectML-i täitmise pakkujat.
Windowsi arendajad saavad hõlpsasti luua uusi kogemusi, kasutades Llama 2, millele pääseb juurde GitHub Repo kaudu. Windowsi alamsüsteemiga Linuxile ja suure võimekusega GPU-dega saate LLM-e täpselt nende Windowsi arvutites oma konkreetsetele vajadustele vastavaks häälestada.
Mida arvate sellest partnerlusest? Andke meile teada allpool olevas kommentaaride jaotises.