Следващото AI партньорство на Microsoft иска AI да не наранява хората

Най-новото AI партньорство обещава по-безопасни начини за разработване на AI.

  • Партньорството ще събере борд от съветници и ще планира стратегия през следващите месеци.
  • Той ще се фокусира изключително върху гранични AI модели, които се определят като по-добри от съществуващите.
  • Ако сте организация, която разработва такива AI модели, можете да се присъедините към партньорството.
Форум на Frontier Model

Преди една седмица, Microsoft обяви Llama 2, неговото AI партньорство с Meta, на Microsoft Inspire 2023. Llama 2 е голям езиков модел с отворен код, който можете да използвате, за да изградите и обучите свой собствен AI. Говори се, че този LLM също е първата следа за постигане на AGI, което в крайна сметка е една от централните цели на AI.

Е, за седмица след обявяването се случиха много неща. Има също слухове, че OpenAI, компанията зад ChatGPT, пуска свой собствен LLM с отворен код, с кодово име G3PO. Все още няма дата за пускане на пазара, но това ще се случи през 2023 или 2024 г.

И в обрат на събитията, изглежда, че Microsoft си партнира с Anthropic, Google и Open AI към форума на Frontier Model. Партньорството е индустриален орган, фокусиран върху осигуряването на безопасно и отговорно развитие на гранични AI модели,

според прессъобщението.

Днес Anthropic, Google, Microsoft и OpenAI обявяват създаването на Frontier Model Forum, нов индустриален орган, фокусиран върху осигуряването на безопасно и отговорно разработване на гранични AI модели. Frontier Model Forum ще черпи от техническия и оперативен опит на своите компании-членки, за да облагодетелства цялата AI екосистема, като напр. чрез усъвършенстване на технически оценки и бенчмаркове и разработване на публична библиотека от решения в подкрепа на най-добрите практики в индустрията и стандарти.

Форум на Frontier Model

По принцип Frontier Model Forum иска да изгради AI, които не представляват риск за хората. Ако си спомняте, един от партньорите, Anthropic, току-що излезе Клод 2 AI, а моделът е известен с начина, по който безопасно взаимодейства с хората. И така, ще имаме много AI, подобни на AI на Claude 2 и вероятно дори по-добри. Така или иначе, това е отлична новина, когато става въпрос за тази индустрия.

Какво ще направи Frontier Model Forum, когато става въпрос за AI

Партньорството е установило набор от основни цели и задачи и ще работи в съответствие с тях. Те са:

  1. Напредък в изследванията за безопасност на AI за насърчаване на отговорното развитие на гранични модели, минимизиране на рисковете и позволяване на независими, стандартизирани оценки на способностите и безопасността.
  2. Идентифициране на най-добрите практики за отговорното разработване и внедряване на гранични модели, помагайки на обществеността да разбере природата, възможностите, ограниченията и въздействието на технологията.
  3. Сътрудничество с политици, академици, гражданско общество и компании да споделят знания за доверието и рисковете за безопасността.
  4. Подкрепа на усилията за разработване на приложения, които могат да помогнат за справяне с най-големите предизвикателства на обществото, като смекчаване на изменението на климата и адаптиране към него, ранно откриване и превенция на рака и борба с кибер заплахите.

Партньорството е отворено и за сътрудничество с организации

Ако сте организация, която разработва граничен модел AI, можете да подадете заявка за присъединяване и сътрудничество с Frontier Model Forum.

Експертен съвет:

СПОНСОРИРАНА

Някои проблеми с компютъра са трудни за справяне, особено когато става въпрос за липсващи или повредени системни файлове и хранилища на вашия Windows.
Не забравяйте да използвате специален инструмент, като напр Фортект, който ще сканира и замени повредените ви файлове с техните нови версии от своето хранилище.

Според Форума граничният модел AI е широкомащабен модел за машинно обучение, който надхвърля възможностите, налични в момента в най-модерните съществуващи модели. Освен това трябва да може да изпълнява голямо разнообразие от задачи.Форум на Frontier Model

За да се присъедините към партньорството, вие като организация трябва да отговаряте на следните критерии:

  • Вие вече разработвате и внедрявате гранични модели (както е дефинирано от Форума).
  • Организацията е в състояние да демонстрира силен ангажимент към безопасността на граничния модел, включително чрез технически и институционални подходи.
  • Вие, като организация, желаете да допринесете за напредъка на усилията на Форума, включително чрез участие в съвместни инициативи и подкрепа за развитието и функционирането на инициативата.

Това е, което форумът ще направи, когато става въпрос за AI

Frontier Model Forum иска да подкрепи безопасен и отговорен процес на разработка на AI и ще се фокусира върху 3 ключови области през 2023 г.:

  • Идентифициране на най-добри практики: Насърчаване на споделянето на знания и най-добри практики с акцент върху стандартите за безопасност и практиките за безопасност за смекчаване на широк спектър от потенциални рискове.
  • Напредък в изследванията за безопасност на ИИ: Подкрепете екосистемата за безопасност на AI, като идентифицирате най-важните отворени изследователски въпроси относно безопасността на AI. Форумът ще координира изследванията за постигане на напредък в тези усилия в области като устойчивост на състезание, механистична интерпретируемост, мащабируем надзор, достъп до независими изследвания, възникващи поведения и аномалии откриване. Първоначално ще има силен фокус върху разработването и споделянето на публична библиотека от технически оценки и показатели за гранични модели на ИИ.
  • Улесняване на обмена на информация между компании и правителства: Създайте надеждни, сигурни механизми за споделяне на информация между компании, правителства и съответните заинтересовани страни относно безопасността и рисковете от ИИ. Форумът ще следва най-добрите практики за отговорно разкриване на информация в области като киберсигурността.

През 2023 г. форумът на Frontier Model ще работи върху сглобяването на дъска, след което ще изгради стратегия и ще установи приоритети. Но организацията вече се стреми да си сътрудничи с възможно най-много институции, частни или обществени. Това включва и граждански общества и правителства, както и други институции, които се интересуват от ИИ.

Какво мислите за това ново партньорство? Интересувате ли се да се присъедините? Или сте любопитни за граничните AI модели? Уведомете ни в секцията за коментари по-долу.

Microsoft се отървава от запасите си за Windows 10 Lumia

Microsoft се отървава от запасите си за Windows 10 LumiaЛумияMicrosoftWindows 10

Това е съвсем нова година, но 2017 също означава край на телефоните Lumia на Microsoft с Windows 10 Mobile. Изглежда софтуерният гигант за неопределено време спря да продава семейството на смартфон...

Прочетете още
Приложението PowerLauncher за подобряване на Windows 10 Search

Приложението PowerLauncher за подобряване на Windows 10 SearchMicrosoftWindows 10

Microsoft разработва приложението PowerLauncher, за да позволи на потребителите на Windows 10 да намират приложения и файлове много по-бързо. Помощната програма вероятно ще замени или подобри функц...

Прочетете още
HoloLens 3 поддържа безкрайно зрително поле, предлага нов патент

HoloLens 3 поддържа безкрайно зрително поле, предлага нов патентХололенс 3Microsoft

Microsoft показа нова смесена реалност Слушалки HoloLens 2 на Mobile World Congress през февруари 2019 г.Въпреки това, въпреки че е забележително подобрение на оригиналния HoloLens, HL 2 не постигн...

Прочетете още