Следващото AI партньорство на Microsoft иска AI да не наранява хората

Най-новото AI партньорство обещава по-безопасни начини за разработване на AI.

  • Партньорството ще събере борд от съветници и ще планира стратегия през следващите месеци.
  • Той ще се фокусира изключително върху гранични AI модели, които се определят като по-добри от съществуващите.
  • Ако сте организация, която разработва такива AI модели, можете да се присъедините към партньорството.
Форум на Frontier Model

Преди една седмица, Microsoft обяви Llama 2, неговото AI партньорство с Meta, на Microsoft Inspire 2023. Llama 2 е голям езиков модел с отворен код, който можете да използвате, за да изградите и обучите свой собствен AI. Говори се, че този LLM също е първата следа за постигане на AGI, което в крайна сметка е една от централните цели на AI.

Е, за седмица след обявяването се случиха много неща. Има също слухове, че OpenAI, компанията зад ChatGPT, пуска свой собствен LLM с отворен код, с кодово име G3PO. Все още няма дата за пускане на пазара, но това ще се случи през 2023 или 2024 г.

И в обрат на събитията, изглежда, че Microsoft си партнира с Anthropic, Google и Open AI към форума на Frontier Model. Партньорството е индустриален орган, фокусиран върху осигуряването на безопасно и отговорно развитие на гранични AI модели,

според прессъобщението.

Днес Anthropic, Google, Microsoft и OpenAI обявяват създаването на Frontier Model Forum, нов индустриален орган, фокусиран върху осигуряването на безопасно и отговорно разработване на гранични AI модели. Frontier Model Forum ще черпи от техническия и оперативен опит на своите компании-членки, за да облагодетелства цялата AI екосистема, като напр. чрез усъвършенстване на технически оценки и бенчмаркове и разработване на публична библиотека от решения в подкрепа на най-добрите практики в индустрията и стандарти.

Форум на Frontier Model

По принцип Frontier Model Forum иска да изгради AI, които не представляват риск за хората. Ако си спомняте, един от партньорите, Anthropic, току-що излезе Клод 2 AI, а моделът е известен с начина, по който безопасно взаимодейства с хората. И така, ще имаме много AI, подобни на AI на Claude 2 и вероятно дори по-добри. Така или иначе, това е отлична новина, когато става въпрос за тази индустрия.

Какво ще направи Frontier Model Forum, когато става въпрос за AI

Партньорството е установило набор от основни цели и задачи и ще работи в съответствие с тях. Те са:

  1. Напредък в изследванията за безопасност на AI за насърчаване на отговорното развитие на гранични модели, минимизиране на рисковете и позволяване на независими, стандартизирани оценки на способностите и безопасността.
  2. Идентифициране на най-добрите практики за отговорното разработване и внедряване на гранични модели, помагайки на обществеността да разбере природата, възможностите, ограниченията и въздействието на технологията.
  3. Сътрудничество с политици, академици, гражданско общество и компании да споделят знания за доверието и рисковете за безопасността.
  4. Подкрепа на усилията за разработване на приложения, които могат да помогнат за справяне с най-големите предизвикателства на обществото, като смекчаване на изменението на климата и адаптиране към него, ранно откриване и превенция на рака и борба с кибер заплахите.

Партньорството е отворено и за сътрудничество с организации

Ако сте организация, която разработва граничен модел AI, можете да подадете заявка за присъединяване и сътрудничество с Frontier Model Forum.

Експертен съвет:

СПОНСОРИРАНА

Някои проблеми с компютъра са трудни за справяне, особено когато става въпрос за липсващи или повредени системни файлове и хранилища на вашия Windows.
Не забравяйте да използвате специален инструмент, като напр Фортект, който ще сканира и замени повредените ви файлове с техните нови версии от своето хранилище.

Според Форума граничният модел AI е широкомащабен модел за машинно обучение, който надхвърля възможностите, налични в момента в най-модерните съществуващи модели. Освен това трябва да може да изпълнява голямо разнообразие от задачи.Форум на Frontier Model

За да се присъедините към партньорството, вие като организация трябва да отговаряте на следните критерии:

  • Вие вече разработвате и внедрявате гранични модели (както е дефинирано от Форума).
  • Организацията е в състояние да демонстрира силен ангажимент към безопасността на граничния модел, включително чрез технически и институционални подходи.
  • Вие, като организация, желаете да допринесете за напредъка на усилията на Форума, включително чрез участие в съвместни инициативи и подкрепа за развитието и функционирането на инициативата.

Това е, което форумът ще направи, когато става въпрос за AI

Frontier Model Forum иска да подкрепи безопасен и отговорен процес на разработка на AI и ще се фокусира върху 3 ключови области през 2023 г.:

  • Идентифициране на най-добри практики: Насърчаване на споделянето на знания и най-добри практики с акцент върху стандартите за безопасност и практиките за безопасност за смекчаване на широк спектър от потенциални рискове.
  • Напредък в изследванията за безопасност на ИИ: Подкрепете екосистемата за безопасност на AI, като идентифицирате най-важните отворени изследователски въпроси относно безопасността на AI. Форумът ще координира изследванията за постигане на напредък в тези усилия в области като устойчивост на състезание, механистична интерпретируемост, мащабируем надзор, достъп до независими изследвания, възникващи поведения и аномалии откриване. Първоначално ще има силен фокус върху разработването и споделянето на публична библиотека от технически оценки и показатели за гранични модели на ИИ.
  • Улесняване на обмена на информация между компании и правителства: Създайте надеждни, сигурни механизми за споделяне на информация между компании, правителства и съответните заинтересовани страни относно безопасността и рисковете от ИИ. Форумът ще следва най-добрите практики за отговорно разкриване на информация в области като киберсигурността.

През 2023 г. форумът на Frontier Model ще работи върху сглобяването на дъска, след което ще изгради стратегия и ще установи приоритети. Но организацията вече се стреми да си сътрудничи с възможно най-много институции, частни или обществени. Това включва и граждански общества и правителства, както и други институции, които се интересуват от ИИ.

Какво мислите за това ново партньорство? Интересувате ли се да се присъедините? Или сте любопитни за граничните AI модели? Уведомете ни в секцията за коментари по-долу.

Първият ред на отборите има нови изисквания: Всичко, което трябва да знаете за тях

Първият ред на отборите има нови изисквания: Всичко, което трябва да знаете за тяхMicrosoftекипи на Microsoft

Последните говорители ще заемат централната сцена, освен ако не са поставени правилните изисквания.Новите изисквания ще позволят на организаторите да планират среща на екипи по-подробно.Те също так...

Прочетете още
PDF четецът на Edge вече превежда избран текст в реално време

PDF четецът на Edge вече превежда избран текст в реално времеMicrosoftРъб, край

Това може да е една от най-полезните функции на Edge. Функцията е на живо на Edge Canary. Edge Dev обаче все още го няма.Възможно е скоро да бъде пуснат в стабилната версия на Edge.Ако е така, това...

Прочетете още
Събитие на Microsoft OneDrive: къде да гледате и какво да очаквате?

Събитие на Microsoft OneDrive: къде да гледате и какво да очаквате?MicrosoftOnedrive

Microsoft ще представи изобилие от AI функции, идващи в OneDrive следващата седмица.Microsoft OneDrive ще се проведе виртуално на 3 октомври.Ще има и сесия за въпроси и отговори, базирана на чат на...

Прочетете още