Microsofts specialiserade hårdvara för AI-beräkning kallas Hjärnvåg, och det är skapat på ett sådant sätt att köra ett neuralt nätverk så snabbt som möjligt med minimal latens.
Företaget meddelat att sedan han använde Brainwave lyckades det bli tio gånger snabbare prestanda från Bings AI. Maskininlärningsmodellen driver i princip sökmotorns funktionalitet.
Microsofts mål som ska uppnås via Brainwave är att tillhandahålla AI-förutsägelser i realtid för appar som senaste Bing funktioner.
Bing får nya funktioner
Microsoft ger också Bing några nya funktioner, och de viktigaste som är värda att nämna erbjuder fler svar till How-to-frågor och support för att definiera ord som inte används så ofta när användare pekar över muspekaren dem. Dessa funktioner drivs av Brainwave.
Microsoft använder Intels FPGA för att driva AI-beräkning
FPGA är ett slags tomma dukar för utvecklare att använda när de vill distribuera olika kretsar genom att skicka ny programvara. Detta innebär en stark blandning av prestanda och programmerbarhet.
Nu kan Microsoft göra mer än att skapa snabbare modeller med hårdvaran; Företaget kan också bygga mer sofistikerade AI-system. Till exempel är Bings Turing Prototype 1 nu tio gånger mer komplex och snabbare tack vare beräkningskapaciteten som läggs till via Brainwave.
FGA: erna som används av Microsoft har dedikerade digitala signalprocessorer ombord förbättrade för komplex AI-matematik.
Den största fördelen med FPGA
Den mest betydande fördelen med FPGA: er jämfört med GPU: erna (som blev det bästa valet för AI-beräkning) är att de inte kräver omfattande användning av batchberäkningar.
En viktig innovation gör det möjligt för Microsoft att få sådana framgångsrika resultat via FPGA: er är användning av 8 och 9-bitars flytande punktdatatyper som drastiskt ökar prestanda.
Intels FPGA-chips gör det möjligt för Bing att snabbt läsa och analysera miljarder dokument över hela webben och ge det bästa svaret på din fråga på mindre än en bråkdel av en sekund. […]
Faktum är att Intels FPGA: er har gjort det möjligt för oss att minska latens för våra modeller med mer än 10 gånger samtidigt som vi har ökat vår modellstorlek med 10 gånger.
Användningen av FPGA för att påskynda AI-beräkning går tillbaka till 2012
Microsoft började använda FPGA för att höja hastigheten på AI-beräkning för mer än sex år sedan när Bing-teamet började använda chipsen. Allt detta är också bra nyheter för Intel. Företaget köpte Altera, en FPGA-tillverkare 2015 och affären på 16,7 miljarder dollar gav Intel den kraft som behövs för att driva Microsofts behov fram till idag.
Vi ser fram emot att se Brainwave tillgängligt via Microsoft Azure för att erbjuda kunderna chansen att distribuera sina modeller.
RELATERADE BERÄTTELSER FÖR ATT KONTROLLERA:
- Microsofts nya tjänsteavtal gör att användare känner sig oroliga
- Sök ”Inaktivera Windows 10-uppdatering” på Bing och bevittna magi
- Microsofts nya tjänsteavtal gör att användare känner sig oroliga