Tekoälytekniikan seuraava askel on täällä.
- Llama 2:n avulla voit rakentaa omia monimutkaisia tekoälymalleja.
- Voit hienosäätää ja ottaa käyttöön 7B-, 13B- ja 70B-parametrien Llama 2 -malleja.
- Ja jos olet kehittäjä, joka käyttää Windowsia, sinulla on herkkupala.
klo Microsoft Inspire 2023 Konferenssissa tapahtui jotain jännittävää. Microsoft yhdisti voimansa Metan kanssa tehdä tekoälykumppanuus Llama 2:n kanssa.
Tänään Microsoft Inspiressä Meta ja Microsoft ilmoittivat tuesta Llama 2 -perheelle suurille kielimalleille (LLM) Azuressa ja Windowsissa. Llama 2 on suunniteltu antamaan kehittäjille ja organisaatioille mahdollisuus rakentaa luovia tekoälyllä varustettuja työkaluja ja kokemuksia. Meta ja Microsoft ovat sitoutuneet demokratisoimaan tekoäly ja sen edut, ja olemme innoissamme, että Meta suhtautuu avoimesti Llama 2:een. Tarjoamme kehittäjille valinnanvaraa mallien tyypeissä, joihin he rakentavat, ja tuemme avoimia ja rajallisia malleja ja olemme innoissamme olla Metan ensisijainen kumppani, kun he julkaisevat uuden Llama 2 -versionsa kaupallisille asiakkaille aika.
Microsoft
Se on järkevää, sillä konferenssin ensimmäinen päivä oli kaikkea tekoälyä. Microsoft ilmoitti paljon tekoälyyn liittyviä asioita Meta AI -kumppanuuden lisäksi. Azure OpenAI -palvelu on nyt saatavilla Aasiassa sen jälkeen, kun se on äskettäin julkaistu Pohjois-Amerikassa ja Euroopassa.
Bing Chat Enterprise ilmoitettiin myös, ja se on Bing AI: n versio, mutta työhön. Työkalu on nyt saatavilla esikatselussa. Ja, Microsoft Cloud Partner -ohjelma saa AI-päivityksen. Voit nyt käyttää tekoälyä liiketoimintasuunnitelmasi tai markkinointistrategiasi kehittämiseen ja hyödyntää sitä portfolion rakentamiseen.
Joten mitä tulee tekoälyyn, Microsoft on ollut sen eturintamassa alusta alkaen. Ja nyt Redmondissa sijaitseva teknologiajättiläinen kumppanuus Metan kanssa voi olla seuraava iso asia tekoälymaailmassa.
Kuten aiemmin mainittiin, Llama 2 antaa kehittäjille ja organisaatioille mahdollisuuden rakentaa generatiivisia tekoälytyökaluja ja -kokemuksia.
Voit hienosäätää ja ottaa käyttöön 7B-, 13B- ja 70B-parametrien Llama 2 -malleja helposti ja turvallisemmin Azuressa.
Lisäksi sinun on tiedettävä, että Llama optimoidaan toimimaan paikallisesti Windowsissa. Ja jos olet Windowsissa työskentelevä kehittäjä, voit käyttää Llamaa kohdistamalla DirectML-suorituspalveluntarjoajan ONNX Runtime -sovelluksen kautta.
Windows-kehittäjät voivat myös helposti rakentaa uusia kokemuksia käyttämällä Llama 2:ta, jota voidaan käyttää GitHub Repon kautta. Windows Subsystem for Linux ja erittäin kyvykkäiden GPU: iden avulla voit hienosäätää LLM: itä vastaamaan erityistarpeitasi suoraan heidän Windows-tietokoneissaan.
Mitä mieltä olet tästä kumppanuudesta? Kerro meille alla olevassa kommenttiosassa.