Microsofts nye kodende LLM kommer efter GPT 4

phi-1 er Microsofts nye sprogmodel til kodning.

  • Microsoft finansierer en masse AI-forskning.
  • Efter at have annonceret, at Orca vil være open source, er phi-1 her også.
  • phi-1 er i stand til at konsolidere viden på egen hånd.
Microsoft phi 1

Microsoft tager virkelig et stort skridt ind i AI-udvikling. I sidste måned var AI i spidsen for Microsoft Build-konferencen, og den Redmond-baserede teknologi annoncerede endda, at Copilot kommer til Windows 11. Som en indbygget app, til alt hvad du har brug for,

AI kommer også til Microsoft Teams, i sit Recap Ai-værktøj. Og en masse andre værktøjer fra Microsoft vil bruge AI, inklusive Microsoft Fabric.

Men det ser ud til, at Microsoft også finansierer AI-forskning. For nylig meddelte teknologigiganten Orca 13B vil være open source. Og LongMem er et andet godt punkt i AI-forskning: det er svaret for ubegrænset kontekstlængde.

Og nu er der tid til endnu et stort gennembrud inden for AI-forskning, som selvfølgelig kommer fra Microsoft. Den nye 1.3B-parameter model kodende LLM, kaldet phi-1, overgår angiveligt GPT 3.5 på kun 4 dages træning.

Hvad er phi-1, og hvordan overgår den allerede GPT?

Phi-1 er en ny 1.3B-parameter sprogmodel for kode, med en væsentlig mindre størrelse end konkurrerende modeller. Sprogmodellen blev trænet i 4 dage, over 7B tokens (lidt over 50B samlede tokens set) efterfulgt af finjustering på mindre end 200M tokens.Microsoft phi 1

På trods af at den er meget mindre end de konkurrerende modeller, nåede phi-1 50,6 % [e-mail beskyttet] nøjagtighed på HumanEval og 55,5 % [e-mail beskyttet] nøjagtighed på MBPP (Mostly Basic Python-programmer), som er et af de bedste selvrapporterede tal, der kun bruger én LLM-generation.

På trods af, at den er trænet på meget færre tokens sammenlignet med eksisterende modeller, har phi-1 stadig en masse potentialer.

Forbedringerne på HumanEval er de phi-1 største præstationer, som sprogmodel. Efter tuning lykkedes det phi-1 at udføre opgaver, der ikke var med i finjusteringsdatasættet. Det betyder, at modellen tilpassede og forbedrede finjusteringsprocessen.

Og det mest bemærkelsesværdige er, at phi-1 reorganiserede og konsoliderede den viden, der blev erhvervet under fortræning, selvom viden ikke var eksplicit til stede der i første omgang.

Kort sagt, phi-1 lærer ikke kun under træning, men udvider også viden på egen hånd. Den formåede at overgå GPT 3.5 på alle niveauer, og det er kun et spørgsmål om tid, før den lille model tager fat på de store, som GPT 4.

Hvad synes du om denne nye AI-model? Hvor tror du, AI-forskningen er på vej hen? Sørg for at fortælle os dine meninger i kommentarfeltet nedenfor.

Sådan undgår du 1-års forbud fra Xbox Enforcement Strike System

Sådan undgår du 1-års forbud fra Xbox Enforcement Strike SystemMicrosoftXbox

Microsoft er opsat på at gøre Xbox til et sikkert sted for alle.Xbox Enforcement Strike System fungerer som et kørekort, jo mere du bryder reglerne, jo flere strejker får du.Systemet skulle være li...

Læs mere
Går OpenAI konkurs i 2024? Mest sandsynligt nej, her er hvorfor

Går OpenAI konkurs i 2024? Mest sandsynligt nej, her er hvorforMicrosoft

OpenAI ved, at partnerskaber er nøglen til en sund AI-udvikling, og det passer dem.OpenAI har mange igangværende AI-projekter, herunder det nyligt annoncerede SuperAligment-projekt.Virksomheden ved...

Læs mere
Fix: Microsoft ønsker at bruge dine fortrolige oplysninger

Fix: Microsoft ønsker at bruge dine fortrolige oplysningerMac OsMicrosoft

Problemer med nøgleringe er ofte årsagen til dette problemMac-prompt om, at Microsoft ønsker at bruge fortrolige oplysninger, der er gemt i din nøglering, kan forekomme, når du åbner enhver Office-...

Læs mere