Naujausia AI partnerystė žada saugesnius būdus plėtoti AI.
- Partnerystė suburs patarėjų tarybą ir artimiausiais mėnesiais planuos strategiją.
- Jame pagrindinis dėmesys bus skiriamas tik pažangiems AI modeliams, kurie apibrėžiami kaip pranašesni už esamus.
- Jei esate organizacija, kurianti tokius AI modelius, galite prisijungti prie partnerystės.
Prieš savaitę, „Microsoft“ paskelbė „Llama 2“., jos AI partnerystė su Meta, „Microsoft Inspire 2023“. „Llama 2“ yra atvirojo kodo didelės kalbos modelis, kurį galite naudoti kurdami ir mokydami savo dirbtinį intelektą. Taip pat gandai, kad šis LLM yra pirmasis užuomina pasiekti AGI, kuris galiausiai yra vienas pagrindinių AI tikslų.
Na, per savaitę nuo paskelbimo įvyko daug dalykų. Taip pat sklando gandai, kad „ChatGPT“ kompanija „OpenAI“ išleidžia savo atvirojo kodo LLM kodiniu pavadinimu G3PO. Dar nėra jo išleidimo datos, bet tai įvyks 2023 arba 2024 m.
Be to, atrodo, kad „Microsoft“ bendradarbiauja su „Anthropic“, „Google“ ir „Open AI“ „Frontier Model Forum“. Partnerystė yra pramonės organizacija, kurios tikslas yra užtikrinti saugų ir atsakingą pažangių AI modelių kūrimą,
rašoma pranešime spaudai.Šiandien „Anthropic“, „Google“, „Microsoft“ ir „OpenAI“ praneša apie „Frontier Model Forum“ – naujos pramonės organizacijos, kurios tikslas – užtikrinti saugų ir atsakingą pažangių AI modelių kūrimą, sukūrimą. Pasienio modelių forumas remsis savo įmonių narių technine ir veiklos patirtimi, kad būtų naudinga visai dirbtinio intelekto ekosistemai, pvz. tobulinant techninius vertinimus ir gaires bei kuriant viešą sprendimų biblioteką, skirtą paremti geriausią pramonės praktiką ir standartus.
Pasienio modelių forumas
Iš esmės Frontier Model Forum nori sukurti AI, kurie nekeltų pavojaus žmonėms. Jei pamenate, vienas iš partnerių, Anthropic, ką tik paleistas Claude 2 AI, o modelis garsėja tuo, kaip saugiai bendrauja su žmonėmis. Taigi, mes turėsime daug dirbtinio intelekto, panašių į Claude 2 AI, ir tikriausiai dar geresnių. Bet kuriuo atveju tai puiki žinia, kalbant apie šią pramonę.
Ką darys Frontier Model Forum, kai kalbama apie AI
Partnerystė nustatė pagrindinių tikslų ir uždavinių rinkinį ir pagal juos veiks. Jie yra:
- DI saugos tyrimų tobulinimas skatinti atsakingą pasienio modelių kūrimą, sumažinti riziką ir sudaryti sąlygas nepriklausomiems, standartizuotiems pajėgumų ir saugos vertinimams.
- Geriausios praktikos nustatymas už atsakingą paribių modelių kūrimą ir diegimą, padedant visuomenei suprasti technologijos pobūdį, galimybes, apribojimus ir poveikį.
- Bendradarbiavimas su politikos formuotojais, mokslininkais, pilietine visuomene ir įmonėmis dalintis žiniomis apie pasitikėjimo ir saugumo rizikas.
- Remti pastangas kurti programas, kurios gali padėti įveikti didžiausius visuomenės iššūkius, pavyzdžiui, klimato kaitos švelninimas ir prisitaikymas, ankstyvas vėžio nustatymas ir prevencija bei kova su kibernetinėmis grėsmėmis.
Partnerystė taip pat atvira bendradarbiavimui su organizacijomis
Jei esate organizacija, kurianti pasienio modelio AI, galite pateikti prašymą prisijungti ir bendradarbiauti su Frontier Model Forum.
Eksperto patarimas:
REMIAMAS
Kai kurias kompiuterio problemas sunku išspręsti, ypač kai kalbama apie trūkstamus arba sugadintus sistemos failus ir „Windows“ saugyklas.
Būtinai naudokite tam skirtą įrankį, pvz Fortect, kuri nuskaitys ir pakeis jūsų sugadintus failus naujomis versijomis iš savo saugyklos.
Forumo teigimu, pasienio modelio AI yra didelio masto mašininio mokymosi modelis, viršijantis šiuo metu pažangiausių modelių galimybes. Be to, ji turėtų sugebėti atlikti įvairias užduotis.
Norėdami prisijungti prie partnerystės, jūs, kaip organizacija, turite atitikti šiuos kriterijus:
- Jau kuriate ir diegiate pasienio modelius (kaip apibrėžė forumas).
- Organizacija gali parodyti tvirtą įsipareigojimą užtikrinti pasienio modelio saugumą, įskaitant techninius ir institucinius metodus.
- Jūs, kaip organizacija, norite prisidėti prie forumo pastangų, įskaitant dalyvavimą bendrose iniciatyvose ir remiant iniciatyvos plėtrą bei veikimą.
Štai ką forumas darys, kai kalbama apie AI
„Frontier Model Forum“ nori paremti saugų ir atsakingą AI kūrimo procesą ir 2023 m. daugiausia dėmesio skirs 3 pagrindinėms sritims:
- Geriausios praktikos nustatymas: Skatinkite dalijimąsi žiniomis ir geriausia praktika, daugiausia dėmesio skirdami saugos standartams ir saugos praktikai, kad sumažintumėte daugybę galimų pavojų.
- AI saugos tyrimų tobulinimas: Palaikykite AI saugos ekosistemą nustatydami svarbiausius atviro tyrimo klausimus apie DI saugą. Forumas koordinuos mokslinius tyrimus, siekdamas tobulinti šias pastangas tokiose srityse kaip priešiškumas, mechanistinis aiškinamumas, keičiamo dydžio priežiūra, nepriklausoma prieiga prie tyrimų, atsirandantis elgesys ir anomalija aptikimas. Iš pradžių didelis dėmesys bus skiriamas pažangių AI modelių techninių vertinimų ir etalonų viešosios bibliotekos kūrimui ir dalijimuisi.
- Palengvinti keitimąsi informacija tarp įmonių ir vyriausybių: Sukurkite patikimus, saugius mechanizmus, skirtus dalytis informacija tarp įmonių, vyriausybių ir atitinkamų suinteresuotųjų šalių apie AI saugą ir riziką. Forume bus vadovaujamasi geriausios atsakingo informacijos atskleidimo praktikos pavyzdžiais tokiose srityse kaip kibernetinis saugumas.
2023 m. „Frontier Model“ forumas dirbs ties valdybos surinkimu, tada sukurs strategiją ir nustatys prioritetus. Tačiau organizacija jau dabar siekia bendradarbiauti su kuo daugiau privačių ar valstybinių institucijų. Tai taip pat apima pilietines visuomenes ir vyriausybes, taip pat kitas institucijas, kurios domisi AI.
Ką manote apie šią naują partnerystę? Ar jus domina prisijungti? O gal domitės pažangiais AI modeliais? Praneškite mums toliau pateiktame komentarų skyriuje.