Най-новото AI партньорство обещава по-безопасни начини за разработване на AI.
- Партньорството ще събере борд от съветници и ще планира стратегия през следващите месеци.
- Той ще се фокусира изключително върху гранични AI модели, които се определят като по-добри от съществуващите.
- Ако сте организация, която разработва такива AI модели, можете да се присъедините към партньорството.

Преди една седмица, Microsoft обяви Llama 2, неговото AI партньорство с Meta, на Microsoft Inspire 2023. Llama 2 е голям езиков модел с отворен код, който можете да използвате, за да изградите и обучите свой собствен AI. Говори се, че този LLM също е първата следа за постигане на AGI, което в крайна сметка е една от централните цели на AI.
Е, за седмица след обявяването се случиха много неща. Има също слухове, че OpenAI, компанията зад ChatGPT, пуска свой собствен LLM с отворен код, с кодово име G3PO. Все още няма дата за пускане на пазара, но това ще се случи през 2023 или 2024 г.
И в обрат на събитията, изглежда, че Microsoft си партнира с Anthropic, Google и Open AI към форума на Frontier Model. Партньорството е индустриален орган, фокусиран върху осигуряването на безопасно и отговорно развитие на гранични AI модели,
според прессъобщението.Днес Anthropic, Google, Microsoft и OpenAI обявяват създаването на Frontier Model Forum, нов индустриален орган, фокусиран върху осигуряването на безопасно и отговорно разработване на гранични AI модели. Frontier Model Forum ще черпи от техническия и оперативен опит на своите компании-членки, за да облагодетелства цялата AI екосистема, като напр. чрез усъвършенстване на технически оценки и бенчмаркове и разработване на публична библиотека от решения в подкрепа на най-добрите практики в индустрията и стандарти.
Форум на Frontier Model
По принцип Frontier Model Forum иска да изгради AI, които не представляват риск за хората. Ако си спомняте, един от партньорите, Anthropic, току-що излезе Клод 2 AI, а моделът е известен с начина, по който безопасно взаимодейства с хората. И така, ще имаме много AI, подобни на AI на Claude 2 и вероятно дори по-добри. Така или иначе, това е отлична новина, когато става въпрос за тази индустрия.
Какво ще направи Frontier Model Forum, когато става въпрос за AI
Партньорството е установило набор от основни цели и задачи и ще работи в съответствие с тях. Те са:
- Напредък в изследванията за безопасност на AI за насърчаване на отговорното развитие на гранични модели, минимизиране на рисковете и позволяване на независими, стандартизирани оценки на способностите и безопасността.
- Идентифициране на най-добрите практики за отговорното разработване и внедряване на гранични модели, помагайки на обществеността да разбере природата, възможностите, ограниченията и въздействието на технологията.
- Сътрудничество с политици, академици, гражданско общество и компании да споделят знания за доверието и рисковете за безопасността.
- Подкрепа на усилията за разработване на приложения, които могат да помогнат за справяне с най-големите предизвикателства на обществото, като смекчаване на изменението на климата и адаптиране към него, ранно откриване и превенция на рака и борба с кибер заплахите.
Партньорството е отворено и за сътрудничество с организации
Ако сте организация, която разработва граничен модел AI, можете да подадете заявка за присъединяване и сътрудничество с Frontier Model Forum.
Експертен съвет:
СПОНСОРИРАНА
Някои проблеми с компютъра са трудни за справяне, особено когато става въпрос за липсващи или повредени системни файлове и хранилища на вашия Windows.
Не забравяйте да използвате специален инструмент, като напр Фортект, който ще сканира и замени повредените ви файлове с техните нови версии от своето хранилище.
Според Форума граничният модел AI е широкомащабен модел за машинно обучение, който надхвърля възможностите, налични в момента в най-модерните съществуващи модели. Освен това трябва да може да изпълнява голямо разнообразие от задачи.
За да се присъедините към партньорството, вие като организация трябва да отговаряте на следните критерии:
- Вие вече разработвате и внедрявате гранични модели (както е дефинирано от Форума).
- Организацията е в състояние да демонстрира силен ангажимент към безопасността на граничния модел, включително чрез технически и институционални подходи.
- Вие, като организация, желаете да допринесете за напредъка на усилията на Форума, включително чрез участие в съвместни инициативи и подкрепа за развитието и функционирането на инициативата.
Това е, което форумът ще направи, когато става въпрос за AI
Frontier Model Forum иска да подкрепи безопасен и отговорен процес на разработка на AI и ще се фокусира върху 3 ключови области през 2023 г.:
- Идентифициране на най-добри практики: Насърчаване на споделянето на знания и най-добри практики с акцент върху стандартите за безопасност и практиките за безопасност за смекчаване на широк спектър от потенциални рискове.
- Напредък в изследванията за безопасност на ИИ: Подкрепете екосистемата за безопасност на AI, като идентифицирате най-важните отворени изследователски въпроси относно безопасността на AI. Форумът ще координира изследванията за постигане на напредък в тези усилия в области като устойчивост на състезание, механистична интерпретируемост, мащабируем надзор, достъп до независими изследвания, възникващи поведения и аномалии откриване. Първоначално ще има силен фокус върху разработването и споделянето на публична библиотека от технически оценки и показатели за гранични модели на ИИ.
- Улесняване на обмена на информация между компании и правителства: Създайте надеждни, сигурни механизми за споделяне на информация между компании, правителства и съответните заинтересовани страни относно безопасността и рисковете от ИИ. Форумът ще следва най-добрите практики за отговорно разкриване на информация в области като киберсигурността.
През 2023 г. форумът на Frontier Model ще работи върху сглобяването на дъска, след което ще изгради стратегия и ще установи приоритети. Но организацията вече се стреми да си сътрудничи с възможно най-много институции, частни или обществени. Това включва и граждански общества и правителства, както и други институции, които се интересуват от ИИ.
Какво мислите за това ново партньорство? Интересувате ли се да се присъедините? Или сте любопитни за граничните AI модели? Уведомете ни в секцията за коментари по-долу.