En yeni AI ortaklığı, AI geliştirmenin daha güvenli yollarını vaat ediyor.
- Ortaklık, bir danışma kurulu oluşturacak ve önümüzdeki aylarda bir strateji planlayacak.
- Yalnızca, mevcut olanlardan daha üstün olarak tanımlanan sınır yapay zeka modellerine odaklanacaktır.
- Bu tür AI modelleri geliştiren bir kuruluşsanız, ortaklığa katılabilirsiniz.
Bir hafta önce, Microsoft, Llama 2'yi duyurdu, Microsoft Inspire 2023'te Meta ile AI ortaklığı. Llama 2, kendi yapay zekanızı oluşturmak ve eğitmek için kullanabileceğiniz açık kaynaklı bir büyük dil modelidir. Bu LLM'nin aynı zamanda ilk ipucu olduğu söyleniyor AGI'ye ulaşmak için, bu da nihayetinde yapay zekanın ana hedeflerinden biridir.
Duyurudan sonraki bir hafta içinde çok şey oldu. Ayrıca ChatGPT'nin arkasındaki şirket olan OpenAI'nin G3PO kod adlı kendi açık kaynaklı LLM'sini piyasaya sürdüğüne dair söylentiler var. Henüz bir çıkış tarihi yok, ancak 2023 veya 2024'te olacak.
Ve bir dizi olayda, Microsoft'un Anthropic, Google ve Open AI ile Frontier Model Forum'da ortaklık kurduğu görülüyor. Ortaklık, öncü yapay zeka modellerinin güvenli ve sorumlu bir şekilde geliştirilmesini sağlamaya odaklanmış bir endüstri kuruluşudur.
basın açıklamasına göre.Bugün Anthropic, Google, Microsoft ve OpenAI, sınır yapay zeka modellerinin güvenli ve sorumlu bir şekilde geliştirilmesini sağlamaya odaklanan yeni bir endüstri kuruluşu olan Frontier Model Forum'un kurulduğunu duyuruyor. Frontier Model Forum, aşağıdakiler gibi tüm AI ekosistemine fayda sağlamak için üye şirketlerinin teknik ve operasyonel uzmanlığından yararlanacak: teknik değerlendirmeleri ve kıyaslamaları ilerleterek ve endüstrinin en iyi uygulamalarını desteklemek için bir halk kütüphanesi geliştirerek ve standartlar.
Sınır Modeli Forumu
Temel olarak Frontier Model Forum, insanlar için risk oluşturmayan yapay zekalar oluşturmak istiyor. Hatırlarsanız ortaklardan biri olan Anthropic kısa süre önce piyasaya çıktı. Madde 2 AIve model, insanlarla güvenli bir şekilde etkileşime girme şekliyle ünlüdür. Yani, Claude 2 AI'ye benzer ve muhtemelen daha da iyi birçok AI'mız olacak. Her iki durumda da, bu sektör söz konusu olduğunda mükemmel bir haber.
AI söz konusu olduğunda Frontier Model Forum ne yapacak?
Ortaklık bir dizi temel amaç ve hedef belirlemiştir ve bunlara göre çalışacaktır. Bunlar:
- Gelişen yapay zeka güvenlik araştırması sınır modellerinin sorumlu bir şekilde geliştirilmesini teşvik etmek, riskleri en aza indirmek ve yetenekler ve güvenliğin bağımsız, standartlaştırılmış değerlendirmelerini sağlamak.
- En iyi uygulamaları belirleme Sınır modellerinin sorumlu bir şekilde geliştirilmesi ve uygulanması için, halkın teknolojinin doğasını, yeteneklerini, sınırlamalarını ve etkisini anlamasına yardımcı olmak.
- Politika yapıcılar, akademisyenler, sivil toplum ve şirketlerle işbirliği yapmak güven ve güvenlik riskleri hakkında bilgi paylaşmak.
- Toplumun en büyük zorluklarını aşmaya yardımcı olabilecek uygulamalar geliştirme çabalarını desteklemekiklim değişikliğinin hafifletilmesi ve adaptasyonu, kanserin erken tespiti ve önlenmesi ve siber tehditlerle mücadele gibi.
Ortaklık aynı zamanda kuruluşlarla işbirliğine de açıktır.
Frontier model AI geliştiren bir kuruluşsanız, Frontier Model Forum'a katılmak ve işbirliği yapmak için başvuruda bulunabilirsiniz.
Uzman ipucu:
SPONSORLU
Özellikle Windows'unuzun eksik veya bozuk sistem dosyaları ve depoları söz konusu olduğunda, bazı PC sorunlarının üstesinden gelmek zordur.
gibi özel bir araç kullandığınızdan emin olun. kale, bozuk dosyalarınızı deposundaki yeni sürümleriyle tarayacak ve değiştirecektir.
Forum'a göre, bir sınır modeli yapay zekası, mevcut en gelişmiş modellerde şu anda mevcut olan yetenekleri aşan büyük ölçekli bir makine öğrenimi modelidir. Ayrıca çok çeşitli görevleri yerine getirebilmelidir.
Ortaklığa katılmak için kuruluş olarak aşağıdaki kriterleri karşılamanız gerekir:
- Halihazırda sınır modelleri geliştiriyor ve dağıtıyorsunuz (Forum tarafından tanımlandığı şekilde).
- Kuruluş, teknik ve kurumsal yaklaşımlar da dahil olmak üzere sınır modeli emniyetine güçlü bir bağlılık gösterebilmektedir.
- Bir kuruluş olarak siz, ortak girişimlere katılarak ve girişimin gelişimini ve işleyişini destekleyerek Forum'un çabalarını ilerletmeye katkıda bulunmaya hazırsınız.
AI söz konusu olduğunda Forumun yapacağı şey budur
Frontier Model Forum, güvenli ve sorumlu bir AI geliştirme sürecini desteklemek istiyor ve 2023 boyunca 3 temel alana odaklanacak:
- En iyi uygulamaları belirleme: Çok çeşitli potansiyel riskleri azaltmak için güvenlik standartlarına ve güvenlik uygulamalarına odaklanarak bilgi paylaşımını ve en iyi uygulamaları teşvik edin.
- Gelişen yapay zeka güvenlik araştırması: AI güvenliği ile ilgili en önemli açık araştırma sorularını belirleyerek AI güvenlik ekosistemini destekleyin. Forum, düşmanca sağlamlık gibi alanlarda bu çabaları ilerletmek için araştırmaları koordine edecektir. mekanik yorumlanabilirlik, ölçeklenebilir gözetim, bağımsız araştırma erişimi, ortaya çıkan davranışlar ve anormallik tespit etme. Başlangıçta sınır yapay zeka modelleri için teknik değerlendirmeler ve kıyaslamalardan oluşan bir halk kitaplığı geliştirmeye ve paylaşmaya güçlü bir odaklanma olacaktır.
- Şirketler ve hükümetler arasında bilgi paylaşımını kolaylaştırmak: Yapay zeka güvenliği ve riskleri ile ilgili olarak şirketler, hükümetler ve ilgili paydaşlar arasında bilgi paylaşımı için güvenilir, güvenli mekanizmalar oluşturun. Forum, siber güvenlik gibi alanlarda sorumlu ifşaat konusunda en iyi uygulamaları takip edecektir.
2023 yılı boyunca Frontier Model forumu bir yönetim kurulu oluşturmaya, ardından bir strateji oluşturmaya ve öncelikleri belirlemeye çalışacak. Ancak kuruluş, özel veya kamuya ait mümkün olduğu kadar çok kurumla işbirliği yapmaya çalışıyor. Buna sivil toplumlar ve hükümetler ile yapay zeka ile ilgilenen diğer kurumlar da dahildir.
Bu yeni ortaklık hakkında ne düşünüyorsunuz? Katılmak ister misiniz? Yoksa sınır yapay zeka modellerini mi merak ediyorsunuz? Aşağıdaki yorumlar bölümünde bize bildirin.