Det senaste AI-partnerskapet lovar säkrare sätt att utveckla AI.
- Partnerskapet kommer att sammansätta en rådgivare och kommer att planera en strategi under de följande månaderna.
- Den kommer uteslutande att fokusera på frontier AI-modeller, som definieras som överlägsna de befintliga.
- Om du är en organisation som utvecklar sådana AI-modeller kan du gå med i partnerskapet.
En vecka sedan, Microsoft tillkännagav Llama 2, dess AI-partnerskap med Meta, på Microsoft Inspire 2023. Llama 2 är en stor språkmodell med öppen källkod, som du kan använda för att bygga och träna din egen AI. Detta LLM ryktas också vara den första ledtråden för att uppnå AGI, vilket i slutändan är ett av AI: s centrala mål.
Nåväl, på en vecka från tillkännagivandet har mycket hänt. Det finns också rykten om att OpenAI, företaget bakom ChatGPT, släpper sin egen öppen källkod LLM, kodnamnet G3PO. Det finns inget släppdatum för det ännu, men det kommer att ske 2023 eller 2024.
Och i en rad händelser verkar det som om Microsoft har samarbetat med Anthropic, Google och Open AI till Frontier Model Forum. Partnerskapet är ett branschorgan fokuserat på att säkerställa en säker och ansvarsfull utveckling av frontier AI-modeller,
enligt pressmeddelandet.Idag tillkännager Anthropic, Google, Microsoft och OpenAI bildandet av Frontier Model Forum, ett nytt branschorgan med fokus på att säkerställa en säker och ansvarsfull utveckling av frontier AI-modeller. Frontier Model Forum kommer att dra nytta av sina medlemsföretags tekniska och operativa expertis för att gynna hela AI-ekosystemet, som t.ex. genom att utveckla tekniska utvärderingar och riktmärken, och utveckla ett offentligt bibliotek med lösningar för att stödja branschens bästa praxis och standarder.
Frontier Model Forum
I grund och botten vill Frontier Model Forum bygga AI: er som inte är en risk för människor. Om du kommer ihåg så har en av partnerna, Anthropic, precis släppt Claude 2 AI, och modellen är känd för hur den säkert interagerar med människor. Så vi kommer att ha många AI som liknar Claude 2 AI, och förmodligen ännu bättre. Hur som helst, det är utmärkta nyheter när det kommer till den här branschen.
Vad kommer Frontier Model Forum att göra när det kommer till AI
Partnerskapet har fastställt en uppsättning kärnmål och mål, och det kommer att fungera enligt dem. Dom är:
- Avancera AI-säkerhetsforskning att främja en ansvarsfull utveckling av frontiermodeller, minimera risker och möjliggöra oberoende, standardiserade utvärderingar av kapacitet och säkerhet.
- Identifiera bästa praxis för ansvarsfull utveckling och användning av frontiermodeller, vilket hjälper allmänheten att förstå teknikens natur, kapacitet, begränsningar och effekter.
- Samarbetar med beslutsfattare, akademiker, civilsamhället och företag att dela kunskap om förtroende och säkerhetsrisker.
- Stödja arbetet med att utveckla applikationer som kan hjälpa till att möta samhällets största utmaningar, såsom begränsning och anpassning av klimatförändringar, tidig upptäckt och förebyggande av cancer, och bekämpning av cyberhot.
Partnerskapet är också öppet för samarbete med organisationer
Om du är en organisation som utvecklar frontier modell AI kan du anmäla dig för att gå med och samarbeta med Frontier Model Forum.
Experttips:
SPONSRAD
Vissa PC-problem är svåra att ta itu med, särskilt när det kommer till saknade eller skadade systemfiler och arkiv i din Windows.
Se till att använda ett dedikerat verktyg, som t.ex Fortect, som kommer att skanna och ersätta dina trasiga filer med deras nya versioner från dess arkiv.
Enligt Forum är en frontiermodell AI en storskalig maskininlärningsmodell som överträffar de möjligheter som för närvarande finns i de mest avancerade befintliga modellerna. Och den ska också kunna utföra en mängd olika uppgifter.
För att gå med i partnerskapet måste du som organisation uppfylla följande kriterier:
- Du utvecklar och distribuerar redan frontier-modeller (enligt forumets definition).
- Organisationen kan visa ett starkt engagemang för gränsmodellsäkerhet, inklusive genom tekniska och institutionella tillvägagångssätt.
- Du som organisation är villig att bidra till att främja forumets insatser inklusive genom att delta i gemensamma initiativ och stödja initiativets utveckling och funktion.
Detta är vad forumet kommer att göra när det kommer till AI
Frontier Model Forum vill stödja en säker och ansvarsfull AI-utvecklingsprocess, och det kommer att fokusera på tre nyckelområden under 2023:
- Identifiera bästa praxis: Främja kunskapsdelning och bästa praxis med fokus på säkerhetsstandarder och säkerhetspraxis för att mildra ett brett spektrum av potentiella risker.
- Avancerad AI-säkerhetsforskning: Stöd AI-säkerhetsekosystemet genom att identifiera de viktigaste öppna forskningsfrågorna om AI-säkerhet. Forumet kommer att samordna forskning för att utveckla dessa ansträngningar inom områden som motståndskraft, mekanistisk tolkning, skalbar tillsyn, oberoende forskningsåtkomst, framväxande beteenden och anomali upptäckt. Det kommer att finnas ett starkt fokus initialt på att utveckla och dela ett offentligt bibliotek med tekniska utvärderingar och riktmärken för frontier AI-modeller.
- Underlätta informationsdelning mellan företag och regeringar: Etablera pålitliga, säkra mekanismer för att dela information mellan företag, regeringar och relevanta intressenter angående AI-säkerhet och risker. Forumet kommer att följa bästa praxis för ansvarsfullt offentliggörande från områden som cybersäkerhet.
Under loppet av 2023 kommer Frontier Model-forumet att arbeta med att sätta ihop en styrelse, sedan bygga en strategi och fastställa prioriteringar. Men organisationen är redan ute efter att samarbeta med så många institutioner som möjligt, privata eller offentliga. Detta inkluderar även civila samhällen och regeringar, såväl som andra institutioner som är intresserade av AI.
Vad tycker du om detta nya partnerskap? Är du intresserad av att vara med? Eller är du nyfiken på frontier AI-modeller? Låt oss veta i kommentarsfältet nedan.