Microsofts nya kodande LLM kommer efter GPT 4

phi-1 är Microsofts nya språkmodell för kodning.

  • Microsoft finansierar mycket AI-forskning.
  • Efter att ha meddelat att Orca kommer att vara öppen källkod är phi-1 här också.
  • phi-1 kan konsolidera kunskap på egen hand.
Microsoft phi 1

Microsoft tar verkligen ett stort steg in i AI-utveckling. Förra månaden var AI i framkant av Microsoft Build-konferensen, och den Redmond-baserade tekniken tillkännagav till och med att Copilot kommer till Windows 11. Som en inbyggd app, för allt du behöver,

AI kommer också till Microsoft Teams, i sitt Recap Ai-verktyg. Och många andra verktyg från Microsoft kommer att använda AI, inklusive Microsoft Fabric.

Men det verkar som att Microsoft också finansierar AI-forskning. Alldeles nyligen meddelade teknikjätten Orca 13B kommer att vara öppen källkod. Och LongMem är en annan bra punkt inom AI-forskning: det är svaret för obegränsad kontextlängd.

Och nu finns det dags för ännu ett stort genombrott inom AI-forskning, som kommer från Microsoft förstås. Den nya 1.3B-parametermodellen som kodar LLM, kallad phi-1, har enligt uppgift överträffat GPT 3.5 på bara 4 dagars träning.

Vad är phi-1 och hur överträffar den redan GPT?

Phi-1 är en ny 1.3B-parameter språkmodell för kod, med en betydligt mindre storlek än konkurrerande modeller. Språkmodellen tränades i 4 dagar, över 7B tokens (något över 50B totalt sett) följt av finjustering på mindre än 200M tokens.Microsoft phi 1

Trots att den var mycket mindre än de konkurrerande modellerna, nådde phi-1 50,6 % [e-postskyddad] noggrannhet på HumanEval och 55,5 % [e-postskyddad] noggrannhet på MBPP (Mostly Basic Python Programs), som är ett av de bästa självrapporterade siffrorna med endast en LLM-generation.

Dessutom, trots att den tränas på mycket färre tokens jämfört med befintliga modeller, har phi-1 fortfarande många potentialer.

Förbättringarna på HumanEval är de phi-1 största prestationerna, som språkmodell. Efter justering lyckades phi-1 utföra uppgifter som inte fanns med i finjusteringsdatauppsättningen. Detta innebär att modellen anpassade och förbättrade finjusteringsprocessen.

Och det mest anmärkningsvärda är att phi-1 omorganiserade och konsoliderade den kunskap som förvärvats under förträningen, även om kunskapen inte var explicit närvarande där i första hand.

Kort sagt, phi-1 lär sig inte bara under träningen utan utökar också kunskapen på egen hand. Den lyckades överträffa GPT 3.5 på alla nivåer, och det är bara en tidsfråga tills den lilla modellen tar sig an de stora, som GPT 4.

Vad tycker du om den här nya AI-modellen? Vart tror du AI-forskningen är på väg? Var noga med att låta oss veta dina åsikter i kommentarsfältet nedan.

Hackare skickar e-post till Windows-användare som låtsas vara från Microsofts supportteam

Hackare skickar e-post till Windows-användare som låtsas vara från Microsofts supportteamMicrosoftCybersäkerhet

Det verkar som att hackare är starkt inriktade på Windows-användare eftersom nya rapporter avslöjar en våg av bluff-e-postmeddelanden som översvämmar inkorgen för många Outlook-användare.Detta är i...

Läs mer
Windows-tekniksupportbedrägerier ökar, säger Microsoft

Windows-tekniksupportbedrägerier ökar, säger MicrosoftMicrosoftCybersäkerhet

Trots Microsofts starka ansträngningar med brottsbekämpande myndigheter för att slå ner teknisk support bedrägerier, deras antal har stigit. Senaste Microsoft rapporter notera 24% fler kundklagomål...

Läs mer
Microsofts Seeing AI-app riktad till användare från Storbritannien och Australien

Microsofts Seeing AI-app riktad till användare från Storbritannien och AustralienMicrosoft

Nyligen tog Microsoft upp behoven hos användare som lider av synskada genom att lansera en helt ny app som heter Ser AI som kommer att förändra livet för dem i det blinda och synskadade samhället.A...

Läs mer