Новейшее партнерство с ИИ обещает более безопасные способы разработки ИИ.
- Партнерство соберет совет консультантов и спланирует стратегию в ближайшие месяцы.
- Он будет сосредоточен исключительно на передовых моделях ИИ, которые определены как превосходящие существующие.
- Если вы являетесь организацией, разрабатывающей такие модели ИИ, вы можете присоединиться к партнерству.

Неделю назад, Microsoft анонсировала Ламу 2, партнерство с Meta, на выставке Microsoft Inspire 2023. Llama 2 — это большая языковая модель с открытым исходным кодом, которую вы можете использовать для создания и обучения собственного ИИ. Ходят слухи, что этот LLM является первой подсказкой. в достижении ОИИ, что, в конечном счете, является одной из центральных целей ИИ.
Что ж, за неделю с анонса произошло многое. Также ходят слухи, что OpenAI, компания, стоящая за ChatGPT, выпускает собственный LLM с открытым исходным кодом под кодовым названием G3PO. Даты выхода пока нет, но это произойдет в 2023 или 2024 году.
И, в свою очередь, кажется, что Microsoft объединилась с Anthropic, Google и Open AI на форуме Frontier Model. Партнерство является отраслевым органом, ориентированным на обеспечение безопасной и ответственной разработки передовых моделей искусственного интеллекта.
согласно пресс-релизу.Сегодня Anthropic, Google, Microsoft и OpenAI объявляют о создании Frontier Model Forum — новой отраслевой организации, занимающейся обеспечением безопасной и ответственной разработки передовых моделей искусственного интеллекта. Frontier Model Forum будет опираться на технический и операционный опыт своих компаний-членов, чтобы принести пользу всей экосистеме ИИ, например за счет продвижения технических оценок и тестов, а также разработки общедоступной библиотеки решений для поддержки лучших отраслевых практик и стандарты.
Форум моделей Frontier
По сути, Frontier Model Forum хочет создавать ИИ, которые не представляют опасности для людей. Если вы помните, один из партнеров, Anthropic, только что выпустил Клод 2 ИИ, и модель известна тем, как она безопасно взаимодействует с людьми. Итак, у нас будет много ИИ, похожих на ИИ Клода 2, и, возможно, даже лучше. В любом случае, это отличные новости, когда дело доходит до этой отрасли.
Что будет делать Frontier Model Forum, когда дело доходит до ИИ
Партнерство установило ряд основных целей и задач, и оно будет работать в соответствии с ними. Они есть:
- Продвижение исследований безопасности ИИ способствовать ответственной разработке пограничных моделей, минимизировать риски и обеспечивать независимую стандартизированную оценку возможностей и безопасности.
- Определение лучших практик за ответственную разработку и развертывание передовых моделей, помогая общественности понять природу, возможности, ограничения и влияние технологии.
- Сотрудничество с политиками, учеными, гражданским обществом и компаниями делиться знаниями о рисках доверия и безопасности.
- Поддержка усилий по разработке приложений, которые могут помочь решить самые большие проблемы обществатаких как смягчение последствий изменения климата и адаптация к нему, раннее выявление и профилактика рака, а также борьба с киберугрозами.
Партнерство также открыто для сотрудничества с организациями
Если вы представляете организацию, разрабатывающую пограничную модель ИИ, вы можете подать заявку на участие и сотрудничество на форуме пограничной модели.
Совет эксперта:
СПОНСОР
Некоторые проблемы с ПК трудно решить, особенно когда речь идет об отсутствующих или поврежденных системных файлах и репозиториях вашей Windows.
Обязательно используйте специальный инструмент, например Защитить, который просканирует и заменит ваши поврежденные файлы их свежими версиями из своего репозитория.
Согласно Форуму, пограничная модель ИИ — это крупномасштабная модель машинного обучения, которая превосходит возможности, присутствующие в настоящее время в самых продвинутых существующих моделях. И он также должен быть в состоянии выполнять широкий спектр задач.
Чтобы присоединиться к партнерству, вы, как организация, должны соответствовать следующим критериям:
- Вы уже разрабатываете и внедряете пограничные модели (согласно определению Форума).
- Организация способна продемонстрировать твердую приверженность пограничной модели безопасности, в том числе с помощью технических и институциональных подходов.
- Вы, как организация, готовы внести свой вклад в продвижение усилий Форума, в том числе участвуя в совместных инициативах и поддерживая развитие и функционирование инициативы.
Это то, что Форум будет делать, когда дело доходит до ИИ
Frontier Model Forum хочет поддержать безопасный и ответственный процесс разработки ИИ, и в 2023 году он сосредоточится на трех ключевых областях:
- Выявление лучших практик: Содействуйте обмену знаниями и передовым опытом, уделяя особое внимание стандартам безопасности и методам обеспечения безопасности, чтобы снизить широкий спектр потенциальных рисков.
- Продвижение исследований безопасности ИИ: Поддержите экосистему безопасности ИИ, определив наиболее важные открытые исследовательские вопросы по безопасности ИИ. Форум будет координировать исследования для продвижения этих усилий в таких областях, как устойчивость к состязаниям, механистическая интерпретируемость, масштабируемый контроль, независимый доступ к исследованиям, эмерджентное поведение и аномалии обнаружение. Первоначально основное внимание будет уделяться разработке и совместному использованию общедоступной библиотеки технических оценок и контрольных показателей для передовых моделей ИИ.
- Содействие обмену информацией между компаниями и правительствами: Создайте надежные и безопасные механизмы для обмена информацией между компаниями, правительствами и соответствующими заинтересованными сторонами о безопасности и рисках ИИ. Форум будет следовать передовым методам ответственного раскрытия информации в таких областях, как кибербезопасность.
В течение 2023 года форум Frontier Model будет работать над формированием доски, а затем выработает стратегию и расставит приоритеты. Но организация уже стремится сотрудничать с как можно большим количеством учреждений, частных или государственных. Сюда также входят гражданские общества и правительства, а также другие учреждения, заинтересованные в ИИ.
Что вы думаете об этом новом партнерстве? Вы заинтересованы в присоединении? Или вам интересны пограничные модели ИИ? Дайте нам знать в комментариях ниже.