Den nye ramme vil revolutionere AI-modeller.
- Rammen gør det muligt at have ubegrænset kontekstlængde.
- En ubegrænset kontekstlængde betyder en mere personlig samtale med AI-modeller.
- Det er dybest set det næste skridt for AI i fuldt ud at blive nær menneske.
Microsoft har været på forkant med AI-uddannelse og AI-værktøjer generelt. Copilot kommer til Windows 11 meget snart, som en del af Windows-opdateringer. AI er på vej ind i Microsoft Teams med en intelligent opsummering, der hjælper folk med at arbejde lettere.
Bing er også et af de mest spændende AI-værktøjer, der findes, og dens funktioner giver dig mulighed for at optimere både dit arbejde og den måde, du navigerer på internettet på.
Men tidligere på ugen løftede Microsoft også sløret for det Orca 13B bliver snart open source. Orca 13B er en lille AI-model, der præsterer med samme kvalitet og hastighed som de andre AI-modeller, såsom ChatGPT.
Nu, i kampen om AI'er og AI-forskning, kommer Microsoft med LongMem, en hypotetisk ramme og AI-sprogmodel.
Ifølge denne Reddit-tråd, LongMem giver mulighed for ubegrænset kontekstlængde ved en reduceret GPU og CPU-hukommelsesbrug. Alle disse udføres med en hurtigere hastighed.
Er LongMem Microsofts svar for ubegrænset kontekstlængde?
Nå, for at forstå, hvad det vil sige at have en ubegrænset kontekstlængde, skal vi først forstå, hvad betyder kontekstlængde?
Kontekstlængde refererer til antallet af tokens (ord, tegn osv.) tilladt af en model, dens input og output, og også dit.
For eksempel har ChatGPT et begrænset antal tokens, hvilket betyder, at dens kontekstlængde også er begrænset. Så snart ChatGPT passerer denne grænse, så vil al den kontinuerlige interaktion, du havde med den indtil det tidspunkt, miste al betydning. Eller bedre sagt, den nulstilles.
Så hvis du starter en samtale med ChatGPT om emnet Windows, og den samtale varer mere end den begrænsede kontekst længde, så vil AI-værktøjet miste konteksten, og vil enten begynde at afvige fra emnet, eller hele samtalen vil Nulstil.
En ubegrænset kontekstlængde vil sikre, at det ikke sker, og AI-modellen vil fortsætte med at svare dig om emnet, samtidig med at du lærer og tilpasser information, mens du taler med den om Windows.
Det betyder, at AI-modellen også vil personliggøre samtalen i henhold til dit input, og derfor er det nødvendigt, at konteksten har en ubegrænset længde.
Hvordan virker LongMem?
Microsoft lover netop det med deres nye forskning om rammeværket, LongMem. LongMem ville gøre det muligt for store sprogmodeller at huske langsigtede sammenhænge og bruge langtidshukommelse ved den reducerede CPU-kraft.
Rammen består af en frossen stor sprogmodel som hukommelseskoderen, et resterende sidenetværk som memory retriever og læser, og en cachelagret hukommelsesbank, der gemmer nøgleværdi-par fra tidligere sammenhænge.
I forskningen udført af Microsoft viser eksperimenter, at LongMem udkonkurrerer baselines på lang tekstsprogmodellering, lang kontekstforståelse og hukommelsesforstærkede læringsopgaver i kontekst. Plus, langtidshukommelse gør det muligt at bruge flere demonstrationseksempler til bedre læring.
Og den gode nyhed er, at LongMem vil være open source. Så du vil være i stand til at studere det og lære at implementere rammerne i din egen AI-model. Du kan tjekke sin GitHub-profil her.
Og hvis du er interesseret i at læse hele forskningspapiret om rammen, gå herover og tjek det ud.
Hvad synes du om dette nye teknologiske gennembrud? Vil det revolutionere måden AI-modeller fungerer på? Sørg for at fortælle os dine tanker og meninger nedenfor.