تعد أحدث شراكة للذكاء الاصطناعي بطرق أكثر أمانًا لتطوير الذكاء الاصطناعي.
- ستجمع الشراكة مجلسًا من المستشارين وستخطط لاستراتيجية في الأشهر التالية.
- سيركز حصريًا على نماذج الذكاء الاصطناعي الحدودية ، والتي يتم تعريفها على أنها متفوقة على النماذج الحالية.
- إذا كنت تمثل مؤسسة تطور نماذج الذكاء الاصطناعي هذه ، فيمكنك الانضمام إلى الشراكة.
منذ أسبوع، أعلنت Microsoft عن Llama 2، شراكتها في الذكاء الاصطناعي مع Meta ، في Microsoft Inspire 2023. Llama 2 هو نموذج لغة كبير مفتوح المصدر ، يمكنك استخدامه لبناء الذكاء الاصطناعي الخاص بك وتدريبه. يشاع أيضًا أن LLM هو الدليل الأول في تحقيق الذكاء الاصطناعي العام، وهو في النهاية أحد الأهداف المركزية للذكاء الاصطناعي.
حسنًا ، في غضون أسبوع من الإعلان ، حدث الكثير. هناك أيضًا شائعات مفادها أن شركة OpenAI ، الشركة التي تقف وراء ChatGPT ، تطلق LLM الخاص بها مفتوح المصدر ، والذي يحمل الاسم الرمزي G3PO. لا يوجد أي تاريخ لإصداره حتى الآن ، لكنه سيحدث في عام 2023 أو في عام 2024.
وفي تحول الأحداث ، يبدو أن Microsoft قد دخلت في شراكة مع Anthropic و Google و Open AI إلى Frontier Model Forum. الشراكة هي هيئة صناعية تركز على ضمان التطوير الآمن والمسؤول لنماذج الذكاء الاصطناعي الحدودية ،
وفقا لبيان صحفي.اليوم ، تعلن Anthropic و Google و Microsoft و OpenAI عن تشكيل Frontier Model Forum ، وهي هيئة صناعية جديدة تركز على ضمان التطوير الآمن والمسؤول لنماذج الذكاء الاصطناعي الحدودية. سيعتمد منتدى نموذج فرونتير على الخبرة الفنية والتشغيلية للشركات الأعضاء فيه لإفادة النظام البيئي للذكاء الاصطناعي بأكمله ، مثل من خلال النهوض بالتقييمات الفنية والمعايير ، وتطوير مكتبة عامة للحلول لدعم أفضل ممارسات الصناعة و المعايير.
منتدى نموذج الحدود
في الأساس ، يريد منتدى Frontier Model Forum بناء أنظمة ذكاء اصطناعي لا تشكل خطرًا على البشر. إذا كنت تتذكر ، فقد أطلق للتو أحد الشركاء ، Anthropic كلود 2 منظمة العفو الدولية، والنموذج مشهور بالطريقة التي يتفاعل بها بأمان مع الناس. لذلك ، سيكون لدينا الكثير من أنظمة الذكاء الاصطناعي المشابهة لـ Claude 2 AI ، وربما أفضل. في كلتا الحالتين ، إنها أخبار رائعة عندما يتعلق الأمر بهذه الصناعة.
ماذا سيفعل منتدى Frontier Model Forum عندما يتعلق الأمر بالذكاء الاصطناعي
أنشأت الشراكة مجموعة من الأهداف والغايات الأساسية ، وستعمل وفقًا لها. هم:
- تطوير أبحاث السلامة بالذكاء الاصطناعي لتعزيز التطوير المسؤول للنماذج الحدودية ، وتقليل المخاطر ، وتمكين التقييمات المستقلة والموحدة للقدرات والسلامة.
- تحديد أفضل الممارسات من أجل التطوير المسؤول للنماذج الحدودية ونشرها ، مما يساعد الجمهور على فهم طبيعة التكنولوجيا وقدراتها وقيودها وتأثيرها.
- التعاون مع صانعي السياسات والأكاديميين والمجتمع المدني والشركات لتبادل المعرفة حول مخاطر الثقة والسلامة.
- دعم الجهود المبذولة لتطوير التطبيقات التي يمكن أن تساعد في مواجهة أكبر تحديات المجتمع، مثل التخفيف من آثار تغير المناخ والتكيف معه ، والكشف المبكر عن السرطان والوقاية منه ، ومكافحة التهديدات السيبرانية.
الشراكة مفتوحة أيضا للتعاون مع المنظمات
إذا كنت تمثل مؤسسة تقوم بتطوير نموذج فرعي للذكاء الاصطناعي ، فيمكنك الإرسال للانضمام والتعاون مع Frontier Model Forum.
نصيحة الخبراء:
برعاية
يصعب معالجة بعض مشكلات الكمبيوتر ، خاصةً عندما يتعلق الأمر بملفات النظام المفقودة أو التالفة ومستودعات Windows.
تأكد من استخدام أداة مخصصة ، مثل فورتكت، والتي ستقوم بمسح واستبدال الملفات المعطلة بإصداراتها الحديثة من مستودعها.
وفقًا للمنتدى ، يعد النموذج الحدودي للذكاء الاصطناعي نموذجًا للتعلم الآلي واسع النطاق يتجاوز القدرات الموجودة حاليًا في النماذج الحالية الأكثر تقدمًا. كما يجب أن يكون قادرًا على أداء مجموعة متنوعة من المهام.
للانضمام إلى الشراكة ، يتعين عليك ، كمنظمة ، تلبية المعايير التالية:
- أنت تقوم بالفعل بتطوير ونشر النماذج الحدودية (كما حددها المنتدى).
- المنظمة قادرة على إظهار التزام قوي بسلامة النماذج الحدودية ، بما في ذلك من خلال الأساليب التقنية والمؤسسية.
- أنت ، كمنظمة ، على استعداد للمساهمة في دفع جهود المنتدى بما في ذلك من خلال المشاركة في المبادرات المشتركة ودعم تطوير وعمل المبادرة.
هذا ما سيفعله المنتدى عندما يتعلق الأمر بالذكاء الاصطناعي
يريد منتدى Frontier Model Forum دعم عملية تطوير آمنة ومسؤولة للذكاء الاصطناعي ، وسيركز على 3 مجالات رئيسية خلال عام 2023:
- تحديد أفضل الممارسات: تعزيز تبادل المعرفة وأفضل الممارسات مع التركيز على معايير السلامة وممارسات السلامة للتخفيف من مجموعة واسعة من المخاطر المحتملة.
- تطوير أبحاث السلامة بالذكاء الاصطناعي: ادعم نظام أمان الذكاء الاصطناعي من خلال تحديد أهم الأسئلة البحثية المفتوحة حول أمان الذكاء الاصطناعي. سينسق المنتدى الأبحاث لإحراز تقدم في هذه الجهود في مجالات مثل القوة العدائية ، القابلية للتفسير الآلي ، والإشراف القابل للتطوير ، والوصول المستقل للبحوث ، والسلوكيات الناشئة ، والشذوذ كشف. سيكون هناك تركيز قوي في البداية على تطوير ومشاركة مكتبة عامة للتقييمات الفنية والمعايير لنماذج الذكاء الاصطناعي الحدودية.
- تسهيل تبادل المعلومات بين الشركات والحكومات: إنشاء آليات موثوقة وآمنة لمشاركة المعلومات بين الشركات والحكومات وأصحاب المصلحة المعنيين فيما يتعلق بسلامة الذكاء الاصطناعي ومخاطره. سيتبع المنتدى أفضل الممارسات في الكشف المسؤول من مجالات مثل الأمن السيبراني.
على مدار عام 2023 ، سيعمل منتدى Frontier Model على تجميع لوحة ، ثم بناء إستراتيجية وتحديد الأولويات. لكن المنظمة تتطلع بالفعل إلى التعاون مع أكبر عدد ممكن من المؤسسات ، خاصة أو عامة. وهذا يشمل أيضًا المجتمعات المدنية والحكومات ، فضلاً عن المؤسسات الأخرى المهتمة بالذكاء الاصطناعي.
ما رأيك في هذه الشراكة الجديدة؟ هل أنت مهتم بالانضمام؟ أم أنك مهتم بنماذج الذكاء الاصطناعي الحدودية؟ واسمحوا لنا أن نعرف في قسم التعليقات أدناه.