Nejnovější partnerství AI slibuje bezpečnější způsoby rozvoje AI.
- Partnerství sestaví radu poradců a naplánuje strategii v následujících měsících.
- Zaměří se výhradně na hraniční modely umělé inteligence, které jsou definovány jako nadřazené těm stávajícím.
- Pokud jste organizace, která takové modely umělé inteligence vyvíjí, můžete se k partnerství připojit.
Před týdnem, Microsoft oznámil Llama 2, její partnerství v oblasti AI se společností Meta, na Microsoft Inspire 2023. Llama 2 je open-source velký jazykový model, který můžete použít k sestavení a trénování vlastní AI. O tomto LLM se také říká, že je prvním vodítkem k dosažení AGI, což je nakonec jeden z hlavních cílů AI.
No, za týden od vyhlášení se toho stalo hodně. Objevují se také zvěsti, že OpenAI, společnost stojící za ChatGPT, vydává svůj vlastní open-source LLM s kódovým označením G3PO. Zatím neexistuje žádné datum vydání, ale stane se tak v roce 2023 nebo 2024.
A v obratu událostí se zdá, že Microsoft se spojil s Anthropic, Google a Open AI na Frontier Model Forum. Toto partnerství je průmyslovým orgánem zaměřeným na zajištění bezpečného a odpovědného vývoje hraničních modelů umělé inteligence,
podle tiskové zprávy.Společnosti Anthropic, Google, Microsoft a OpenAI dnes oznamují vytvoření Frontier Model Forum, nového průmyslového orgánu zaměřeného na zajištění bezpečného a odpovědného vývoje hraničních modelů umělé inteligence. Frontier Model Forum bude čerpat z technických a provozních odborných znalostí svých členských společností, aby bylo přínosné pro celý ekosystém umělé inteligence, jako je např. prostřednictvím pokrokových technických hodnocení a benchmarků a rozvojem veřejné knihovny řešení na podporu osvědčených postupů v odvětví a standardy.
Fórum hraničních modelů
Frontier Model Forum chce v zásadě budovat AI, které nepředstavují riziko pro lidi. Pokud si vzpomínáte, jeden z partnerů, Anthropic, právě propuštěn Claude 2 AIa model je proslulý tím, jak bezpečně interaguje s lidmi. Takže budeme mít spoustu AI podobných Claude 2 AI a pravděpodobně ještě lepší. Ať tak či onak, je to skvělá zpráva, pokud jde o toto odvětví.
Co udělá Frontier Model Forum, pokud jde o AI
Partnerství si stanovilo soubor hlavních cílů a záměrů a podle nich bude fungovat. Oni jsou:
- Pokrok ve výzkumu bezpečnosti AI podporovat odpovědný vývoj hraničních modelů, minimalizovat rizika a umožnit nezávislé, standardizované hodnocení schopností a bezpečnosti.
- Identifikace osvědčených postupů za odpovědný vývoj a nasazení hraničních modelů, které pomáhají veřejnosti porozumět povaze, schopnostem, omezením a dopadu technologie.
- Spolupráce s tvůrci politik, akademiky, občanskou společností a společnostmi sdílet znalosti o důvěře a bezpečnostních rizicích.
- Podpora úsilí o vývoj aplikací, které mohou pomoci čelit největším výzvám společnosti, jako je zmírňování změny klimatu a přizpůsobování se jí, včasná detekce a prevence rakoviny a boj proti kybernetickým hrozbám.
Partnerství je také otevřené spolupráci s organizacemi
Pokud jste organizace, která vyvíjí hraniční model AI, můžete se přihlásit a spolupracovat na fóru Frontier Model Forum.
Tip odborníka:
SPONZOROVÁNO
Některé problémy s PC je těžké řešit, zejména pokud jde o chybějící nebo poškozené systémové soubory a úložiště vašeho Windows.
Ujistěte se, že používáte vyhrazený nástroj, jako je např Fortect, který naskenuje a nahradí vaše poškozené soubory jejich čerstvými verzemi ze svého úložiště.
Podle fóra je hraniční model umělé inteligence rozsáhlým modelem strojového učení, který přesahuje možnosti, které v současnosti nabízejí nejpokročilejší existující modely. A také by měl být schopen plnit širokou škálu úkolů.
Chcete-li se připojit k partnerství, musíte jako organizace splnit následující kritéria:
- Již vyvíjíte a nasazujete hraniční modely (jak jsou definovány na fóru).
- Organizace je schopna prokázat silný závazek k bezpečnosti hraničních modelů, a to i prostřednictvím technických a institucionálních přístupů.
- Vy, jako organizace, jste ochotni přispět k pokroku v úsilí Fóra, včetně účasti na společných iniciativách a podpoře rozvoje a fungování iniciativy.
To je to, co fórum udělá, pokud jde o AI
Frontier Model Forum chce podporovat bezpečný a zodpovědný proces vývoje AI a v roce 2023 se zaměří na 3 klíčové oblasti:
- Určení osvědčených postupů: Podporovat sdílení znalostí a osvědčené postupy se zaměřením na bezpečnostní normy a bezpečnostní postupy s cílem zmírnit širokou škálu potenciálních rizik.
- Pokrok ve výzkumu bezpečnosti AI: Podpořte ekosystém bezpečnosti umělé inteligence identifikací nejdůležitějších otevřených výzkumných otázek o bezpečnosti umělé inteligence. Fórum bude koordinovat výzkum s cílem pokročit v tomto úsilí v oblastech, jako je odolnost proti nepřátelům, mechanická interpretovatelnost, škálovatelný dohled, nezávislý přístup k výzkumu, emergentní chování a anomálie detekce. Zpočátku bude důraz kladen na vývoj a sdílení veřejné knihovny technických hodnocení a měřítek pro hraniční modely umělé inteligence.
- Usnadnění sdílení informací mezi společnostmi a vládami: Vytvořte důvěryhodné a bezpečné mechanismy pro sdílení informací mezi společnostmi, vládami a příslušnými zainteresovanými stranami ohledně bezpečnosti a rizik AI. Fórum se bude řídit osvědčenými postupy odpovědného zveřejňování z oblastí, jako je kybernetická bezpečnost.
V průběhu roku 2023 bude fórum Frontier Model pracovat na sestavení rady, poté na vytvoření strategie a stanovení priorit. Organizace se však již snaží spolupracovat s co největším počtem institucí, soukromých nebo veřejných. Patří sem také občanské společnosti a vlády, stejně jako další instituce, které se zajímají o AI.
Co si myslíte o tomto novém partnerství? Máte zájem se přidat? Nebo jste zvědaví na hraniční modely AI? Dejte nám vědět v sekci komentářů níže.