phi-1 कोडिंग के लिए Microsoft का नया भाषा मॉडल है।
- Microsoft बहुत सारे AI अनुसंधान को वित्त पोषित कर रहा है।
- यह घोषणा करने के बाद कि ओर्का खुला स्रोत होगा, फाई-1 भी यहाँ है।
- phi-1 अपने आप ही ज्ञान को समेकित करने में सक्षम है।
![माइक्रोसॉफ्ट फाई 1](/f/af31f169c3a7659f888e73d1e9ed3b22.jpg)
Microsoft वास्तव में AI विकास में एक बड़ा कदम उठा रहा है। पिछले महीने, AI माइक्रोसॉफ्ट बिल्ड कॉन्फ्रेंस में सबसे आगे था, और रेडमंड-आधारित तकनीक ने इसकी घोषणा भी की थी कोपायलट विंडोज 11 पर आ रहा है. एक देशी अंतर्निर्मित ऐप के रूप में, आपकी ज़रूरत की हर चीज़ के लिए,
AI Microsoft Teams में भी आ रहा है, इसके रिकैप एआई टूल में. और Microsoft के कई अन्य उपकरण AI का उपयोग करेंगे, जिसमें Microsoft फ़ैब्रिक भी शामिल है।
लेकिन ऐसा लगता है, माइक्रोसॉफ्ट एआई अनुसंधान को भी वित्त पोषित कर रहा है। अभी हाल ही में टेक दिग्गज ने घोषणा की ओर्का 13बी खुला स्रोत होगा. और लॉन्गमेम एआई अनुसंधान में एक और अच्छा बिंदु है: यह असीमित संदर्भ लंबाई का उत्तर है।
और अब एआई अनुसंधान में एक और बड़ी सफलता का समय आ गया है, जो निश्चित रूप से माइक्रोसॉफ्ट की ओर से आ रही है। नया 1.3बी-पैरामीटर मॉडल कोडिंग एलएलएम, जिसे फाई-1 कहा जाता है, कथित तौर पर केवल 4 दिनों के प्रशिक्षण में जीपीटी 3.5 से बेहतर प्रदर्शन कर रहा है।
फाई-1 क्या है और यह पहले से ही जीपीटी से कैसे बेहतर प्रदर्शन करता है?
फ़ि-1 कोड के लिए एक नया 1.3बी-पैरामीटर भाषा मॉडल है, प्रतिस्पर्धी मॉडलों की तुलना में काफी छोटे आकार के साथ। भाषा मॉडल को 4 दिनों के लिए प्रशिक्षित किया गया था, 7B से अधिक टोकन (कुल 50B से थोड़ा अधिक टोकन देखे गए) और उसके बाद 200M से कम टोकन पर फ़ाइनट्यूनिंग की गई।
प्रतिस्पर्धी मॉडलों की तुलना में बहुत छोटा होने के बावजूद, फाई-1 ने 50.6% प्राप्त किया [ईमेल सुरक्षित] ह्यूमनएवल पर सटीकता और 55.5% [ईमेल सुरक्षित] एमबीपीपी (ज्यादातर बेसिक पायथन प्रोग्राम) पर सटीकता, जो केवल एक एलएलएम पीढ़ी का उपयोग करके सर्वोत्तम स्व-रिपोर्ट की गई संख्याओं में से एक है।
इसके अलावा, मौजूदा मॉडलों की तुलना में बहुत कम टोकन पर प्रशिक्षित होने के बावजूद, फाई-1 में अभी भी काफी संभावनाएं हैं।
भाषा मॉडल के रूप में ह्यूमनएवल में सुधार फाई-1 की सबसे बड़ी उपलब्धियां हैं। ट्यूनिंग के बाद, phi-1 उन कार्यों को निष्पादित करने में कामयाब रहा जो फ़ाइनट्यूनिंग डेटासेट में प्रदर्शित नहीं थे। इसका मतलब है कि मॉडल ने फाइन-ट्यूनिंग प्रक्रिया को अनुकूलित और बेहतर बनाया है।
और सबसे उल्लेखनीय बात यह है कि phi-1 ने पूर्व-प्रशिक्षण के दौरान प्राप्त ज्ञान को पुनर्गठित और समेकित किया, भले ही ज्ञान पहले स्थान पर स्पष्ट रूप से मौजूद नहीं था।
छोटे शब्दों में, फाई-1 न केवल प्रशिक्षण के दौरान सीखता है बल्कि ज्ञान का विस्तार भी करता है। यह हर स्तर पर GPT 3.5 से बेहतर प्रदर्शन करने में कामयाब रहा, और यह केवल समय की बात है जब तक कि छोटा मॉडल GPT 4 जैसे बड़े मॉडल को टक्कर नहीं दे देता।
आप इस नए AI मॉडल के बारे में क्या सोचते हैं? आपको क्या लगता है AI अनुसंधान किस ओर जा रहा है? नीचे टिप्पणी अनुभाग में हमें अपनी राय बताना सुनिश्चित करें।