„phi-1“ yra naujas „Microsoft“ kalbos modelis, skirtas koduoti.
- „Microsoft“ finansuoja daug dirbtinio intelekto tyrimų.
- Paskelbus, kad Orca bus atvirojo kodo, phi-1 taip pat yra čia.
- phi-1 gali pats konsoliduoti žinias.
![Microsoft phi 1](/f/af31f169c3a7659f888e73d1e9ed3b22.jpg)
„Microsoft“ tikrai žengia didelį žingsnį kuriant AI. Praėjusį mėnesį AI buvo „Microsoft Build“ konferencijos priešakyje, o Redmondo technologija netgi paskelbė, kad „Copilot“ ateina į „Windows 11“.. Kaip vietinė integruota programa, skirta viskam, ko jums reikia,
AI taip pat ateina į „Microsoft Teams“, savo Recap Ai įrankyje. Ir daugelis kitų „Microsoft“ įrankių naudos AI, įskaitant „Microsoft Fabric“.
Tačiau atrodo, kad „Microsoft“ taip pat finansuoja AI tyrimus. Visai neseniai technologijų milžinas paskelbė Orca 13B bus atvirojo kodo. Ir „LongMem“ yra dar vienas geras AI tyrimų taškas: tai atsakymas į neribotą konteksto ilgį.
Ir dabar atėjo laikas dar vienam dideliam proveržiui dirbtinio intelekto tyrimuose, žinoma, iš „Microsoft“. Pranešama, kad naujasis 1.3B parametro modelis, koduojantis LLM, vadinamas phi-1, pranoksta GPT 3.5 tik per 4 mokymo dienas.
Kas yra phi-1 ir kuo jis jau lenkia GPT?
Phi-1 yra naujas 1.3B parametrų kalbos modelis kodui, žymiai mažesnio dydžio nei konkuruojantys modeliai. Kalbos modelis buvo mokomas 4 dienas, daugiau nei 7 milijardai žetonų (iš viso matyti šiek tiek daugiau nei 50 milijardų žetonų), po to patikslintas mažiau nei 200 milijonų žetonų.
Nepaisant to, kad phi-1 yra daug mažesnis nei konkuruojantys modeliai, jis pasiekė 50,6 proc. [apsaugotas el. paštas] tikslumas „HumanEval“ ir 55,5 proc. [apsaugotas el. paštas] tikslumas MBPP (dažniausiai pagrindinės Python programos), kurios yra vienas iš geriausių savarankiškai pateiktų skaičių, naudojant tik vieną LLM kartą.
Be to, nepaisant to, kad phi-1 yra išmokytas naudoti daug mažiau žetonų, palyginti su esamais modeliais, jis vis dar turi daug galimybių.
„HumanEval“ patobulinimai yra didžiausi „phi-1“ pasiekimai kaip kalbos modelis. Po derinimo „phi-1“ sugebėjo atlikti užduotis, kurios nebuvo nurodytos koregavimo duomenų rinkinyje. Tai reiškia, kad modelis pritaikė ir patobulino koregavimo procesą.
O įdomiausia tai, kad phi-1 perorganizavo ir įtvirtino parengiamojo mokymo metu įgytas žinias, nors iš pradžių jų nebuvo aiškiai.
Trumpiau tariant, phi-1 ne tik mokosi treniruočių metu, bet ir plečia žinias savarankiškai. Jis sugebėjo pranokti GPT 3.5 visuose lygmenyse ir tik laiko klausimas, kol mažasis modelis perims didelius, tokius kaip GPT 4.
Ką manote apie šį naują AI modelį? Kur, jūsų nuomone, eina dirbtinio intelekto tyrimai? Būtinai praneškite mums savo nuomones toliau pateiktame komentarų skyriuje.