Najnovšie partnerstvo AI sľubuje bezpečnejšie spôsoby rozvoja AI.
- Partnerstvo zostaví radu poradcov a naplánuje stratégiu v nasledujúcich mesiacoch.
- Zameria sa výlučne na hraničné modely AI, ktoré sú definované ako nadradené tým existujúcim.
- Ak ste organizácia, ktorá vyvíja takéto modely AI, môžete sa pripojiť k partnerstvu.
Pred týždňom, Microsoft oznámil hru Llama 2, jej partnerstvo v oblasti AI s Meta, na Microsoft Inspire 2023. Llama 2 je open-source veľký jazykový model, ktorý môžete použiť na zostavenie a trénovanie vlastnej AI. O tomto LLM sa tiež hovorí, že je prvým vodítkom na dosiahnutie AGI, čo je v konečnom dôsledku jeden z hlavných cieľov AI.
No za týždeň od oznámenia sa toho udialo naozaj veľa. Hovorí sa tiež, že OpenAI, spoločnosť za ChatGPT, vydáva svoj vlastný open-source LLM s kódovým označením G3PO. Zatiaľ nie je stanovený žiadny dátum vydania, ale stane sa to v roku 2023 alebo 2024.
A postupne sa zdá, že Microsoft sa spojil s Anthropic, Google a Open AI na Frontier Model Forum. Partnerstvo je odvetvový orgán zameraný na zaistenie bezpečného a zodpovedného vývoja hraničných modelov AI,
podľa tlačovej správy.Dnes Anthropic, Google, Microsoft a OpenAI oznamujú vytvorenie Frontier Model Forum, nového priemyselného orgánu zameraného na zaistenie bezpečného a zodpovedného vývoja hraničných modelov AI. Frontier Model Forum bude čerpať z technických a prevádzkových odborných znalostí svojich členských spoločností, aby bolo prínosom pre celý ekosystém AI, ako napr. prostredníctvom pokroku v technických hodnoteniach a benchmarkoch a rozvoja verejnej knižnice riešení na podporu osvedčených postupov v odvetví a štandardy.
Fórum hraničných modelov
Frontier Model Forum chce v podstate vybudovať AI, ktoré nepredstavujú riziko pre ľudí. Ak si pamätáte, jeden z partnerov, Antropic, práve vyšiel Claude 2 AIa model je známy tým, ako bezpečne komunikuje s ľuďmi. Takže budeme mať veľa AI podobných AI Claude 2 a pravdepodobne ešte lepšie. Či tak alebo onak, je to skvelá správa, pokiaľ ide o toto odvetvie.
Čo urobí Frontier Model Forum, pokiaľ ide o AI
Partnerstvo si stanovilo súbor základných cieľov a zámerov a podľa nich bude fungovať. Oni sú:
- Pokrok vo výskume bezpečnosti AI podporovať zodpovedný vývoj hraničných modelov, minimalizovať riziká a umožniť nezávislé, štandardizované hodnotenia spôsobilostí a bezpečnosti.
- Identifikácia osvedčených postupov za zodpovedný vývoj a nasadenie hraničných modelov, ktoré pomáhajú verejnosti pochopiť povahu, schopnosti, obmedzenia a vplyv technológie.
- Spolupráca s tvorcami politík, akademikmi, občianskou spoločnosťou a spoločnosťami zdieľať poznatky o dôvere a bezpečnostných rizikách.
- Podpora úsilia o vývoj aplikácií, ktoré môžu pomôcť čeliť najväčším výzvam spoločnosti, ako je zmierňovanie zmeny klímy a adaptácia na ňu, včasné odhalenie a prevencia rakoviny a boj proti kybernetickým hrozbám.
Partnerstvo je otvorené aj spolupráci s organizáciami
Ak ste organizácia, ktorá vyvíja hraničný model AI, môžete sa prihlásiť do fóra Frontier Model Forum a spolupracovať s ním.
Tip odborníka:
SPONZOROVANÉ
Niektoré problémy s počítačom je ťažké vyriešiť, najmä pokiaľ ide o chýbajúce alebo poškodené systémové súbory a úložiská vášho systému Windows.
Určite použite vyhradený nástroj, ako napr Fortect, ktorý naskenuje a nahradí vaše poškodené súbory ich čerstvými verziami zo svojho úložiska.
Podľa fóra je hraničný model AI rozsiahly model strojového učenia, ktorý presahuje možnosti, ktoré sú v súčasnosti prítomné v najpokročilejších existujúcich modeloch. A tiež by mal byť schopný vykonávať širokú škálu úloh.
Ak sa chcete pripojiť k partnerstvu, musíte ako organizácia spĺňať nasledujúce kritériá:
- Už vyvíjate a nasadzujete hraničné modely (ako sú definované vo fóre).
- Organizácia je schopná preukázať silný záväzok k bezpečnosti modelov na hraniciach, a to aj prostredníctvom technických a inštitucionálnych prístupov.
- Vy ako organizácia ste ochotní prispieť k napredovaniu úsilia fóra, a to aj účasťou na spoločných iniciatívach a podporou rozvoja a fungovania iniciatívy.
Toto urobí Fórum, pokiaľ ide o AI
Frontier Model Forum chce podporovať bezpečný a zodpovedný proces vývoja AI a v roku 2023 sa zameria na 3 kľúčové oblasti:
- Identifikácia osvedčených postupov: Podporovať zdieľanie znalostí a osvedčené postupy so zameraním na bezpečnostné normy a bezpečnostné postupy s cieľom zmierniť široké spektrum potenciálnych rizík.
- Pokrok vo výskume bezpečnosti AI: Podporte ekosystém bezpečnosti AI identifikáciou najdôležitejších otvorených výskumných otázok o bezpečnosti AI. Fórum bude koordinovať výskum s cieľom napredovať v týchto snahách v oblastiach, ako je odolnosť proti nepriateľom, mechanistická interpretovateľnosť, škálovateľný dohľad, nezávislý prístup k výskumu, vznikajúce správanie a anomália detekcia. Spočiatku sa bude dôrazne zameriavať na vývoj a zdieľanie verejnej knižnice technických hodnotení a referenčných hodnôt pre hraničné modely AI.
- Uľahčenie zdieľania informácií medzi spoločnosťami a vládami: Vytvorte dôveryhodné a bezpečné mechanizmy na zdieľanie informácií medzi spoločnosťami, vládami a príslušnými zainteresovanými stranami, pokiaľ ide o bezpečnosť a riziká AI. Fórum sa bude riadiť osvedčenými postupmi zodpovedného zverejňovania z oblastí, ako je kybernetická bezpečnosť.
V priebehu roku 2023 bude fórum Frontier Model pracovať na zostavení rady, následne na vytvorení stratégie a stanovení priorít. Organizácia sa však už snaží spolupracovať s čo najväčším počtom inštitúcií, súkromných alebo verejných. Patria sem aj občianske spoločnosti a vlády, ako aj ďalšie inštitúcie, ktoré sa zaujímajú o AI.
Čo si myslíte o tomto novom partnerstve? Máte záujem sa pridať? Alebo ste zvedaví na hraničné modely AI? Dajte nám vedieť v sekcii komentárov nižšie.