phi-1, Microsoft'un kodlama için yeni dil modelidir.
- Microsoft, birçok AI araştırmasını finanse ediyor.
- Orca'nın açık kaynak olacağını açıkladıktan sonra phi-1 de geldi.
- phi-1, bilgiyi kendi başına birleştirme yeteneğine sahiptir.
Microsoft, yapay zeka geliştirmeye gerçekten büyük bir adım atıyor. Geçen ay yapay zeka, Microsoft Build konferansının ön saflarında yer aldı ve Redmond tabanlı teknoloji bunu duyurdu bile. Copilot Windows 11'e geliyor. Yerel yerleşik bir uygulama olarak, ihtiyacınız olan her şey için,
AI, Microsoft Teams'e de geliyor, Recap Ai aracında. Ve Microsoft Fabric dahil olmak üzere Microsoft'un diğer birçok aracı yapay zekayı kullanacak.
Ancak görünen o ki, Microsoft aynı zamanda yapay zeka araştırmalarını da finanse ediyor. Kısa bir süre önce, teknoloji devi duyurdu Orca 13B açık kaynak olacak. Ve LongMem, AI araştırmasında bir başka iyi nokta: Sınırsız bağlam uzunluğu için cevaptır.
Ve şimdi yapay zeka araştırmasında Microsoft'tan gelen başka bir büyük atılım için zaman var elbette. LLM'yi kodlayan ve phi-1 olarak adlandırılan yeni 1.3B parametreli modelin, yalnızca 4 günlük eğitimde GPT 3.5'ten daha iyi performans gösterdiği bildiriliyor.
phi-1 nedir ve şimdiden GPT'den nasıl daha iyi performans gösteriyor?
Phi-1 kod için yeni bir 1.3B parametreli dil modelidir, rakip modellerden önemli ölçüde daha küçük bir boyuta sahip. Dil modeli 4 gün boyunca eğitildi, 7 milyardan fazla belirteç (toplamda 50 milyardan biraz fazla belirteç görüldü), ardından 200 milyondan az belirteç üzerinde ince ayar yapıldı.
Rakip modellerden çok daha küçük olmasına rağmen, phi-1 %50.6'ya ulaştı. [e-posta korumalı] HumanEval'de doğruluk ve %55,5 [e-posta korumalı] yalnızca bir LLM nesli kullanarak kendi kendine bildirilen en iyi sayılardan biri olan MBPP'de (Çoğunlukla Temel Python Programları) doğruluk.
Ayrıca, mevcut modellere kıyasla çok daha az jetonla eğitilmiş olmasına rağmen, phi-1 hala çok fazla potansiyele sahiptir.
HumanEval'deki iyileştirmeler, bir dil modeli olarak phi-1'in en büyük başarılarıdır. Ayarlamadan sonra phi-1, ince ayar veri setinde yer almayan görevleri yürütmeyi başardı. Bu, modelin ince ayar sürecini uyarladığı ve geliştirdiği anlamına gelir.
Ve en dikkat çekici şey, phi-1'in ön eğitim sırasında edinilen bilgileri, ilk etapta orada açıkça mevcut olmasa da yeniden organize etmesi ve pekiştirmesidir.
Kısacası, phi-1 sadece eğitim sırasında öğrenmekle kalmaz, aynı zamanda bilgiyi kendi kendine genişletir. Her seviyede GPT 3.5'ten daha iyi performans göstermeyi başardı ve küçük modelin GPT 4 gibi büyük modellerle rekabet etmesi an meselesi.
Bu yeni AI modeli hakkında ne düşünüyorsunuz? AI araştırmasının nereye gittiğini düşünüyorsunuz? Aşağıdaki yorumlar bölümünde görüşlerinizi bize bildirdiğinizden emin olun.