- Superkomputer baru yang dikembangkan bersama dengan OpenAI adalah sistem tunggal dengan lebih dari 285.000 inti CPU, 10.000 GPU, dan konektivitas jaringan 400 gigabit per detik untuk setiap server GPU.
- Microsoft menulis bahwa cdibandingkan dengan mesin lain yang terdaftar di superkomputer TOP500 di dunia, sistem mereka berada di peringkat lima besar.
- Acara Build tahun ini penuh dengan kejutan. Simak apa kabar dari kami Bagian Microsoft Build 2020.
- Itu Pusat Berita Microsoft adalah di mana Anda akan selalu menemukan cerita yang paling penting tentang perusahaan.
Kemitraan yang diumumkan Microsoft tahun lalu dengan startup kecerdasan buatan OpenAI telah membuahkan hasil setidaknya, karena, pada acara Build tahun ini, mereka mengumumkan bahwa mereka telah membangun komputer AI paling kuat kelima di dunia.
Apa spesifikasi teknis dari superkomputer Microsoft AI?
Superkomputer yang dikembangkan bersama dengan OpenAI adalah sistem tunggal dengan lebih dari 285.000 inti CPU, 10.000 GPU, dan konektivitas jaringan 400 gigabit per detik untuk setiap server GPU.
Microsoft tulis di postingan blog itu cdibandingkan dengan mesin lain yang terdaftar di TOP500 superkomputer di dunia, sistem mereka berada di peringkat lima besar.
Ini tentang mampu melakukan seratus hal menarik dalam pemrosesan bahasa alami sekaligus dan seratus hal menarik dalam visi komputer, dan ketika Anda mulai melihat kombinasi domain persepsi ini, Anda akan memiliki aplikasi baru yang bahkan sulit dibayangkan saat ini.
, kata CEO OpenAI Sam Altman.
Untuk apa superkomputer Microsoft AI akan digunakan?
Microsoft mengumumkan bahwa mereka akan segera mulai menawarkan model Microsoft Turing dalam sumber terbuka, dan resep untuk melatih mereka dalam Pembelajaran Mesin Azure.
Jika Anda seorang pengembang, ini akan memberi Anda akses ke keluarga model bahasa yang sama yang digunakan Microsoft untuk meningkatkan pemahaman bahasa di semua produknya.
Mereka juga akan menggunakan superkomputer dengan versi baru DeepSpeed.
Bagi mereka yang tidak terbiasa dengannya, DeepSpeed adalah perpustakaan pembelajaran dalam sumber terbuka untuk PyTorch, yang mengurangi jumlah daya komputasi yang dibutuhkan untuk pelatihan model terdistribusi besar.
Pembaruan ini jauh lebih baik daripada versi yang dirilis tiga bulan lalu. Sekarang, ini memungkinkan model pelatihan lebih dari 15 kali lebih besar dan 10 kali lebih cepat daripada melakukan hal yang sama tanpa DeepSpeed pada infrastruktur yang sama.