- Nowy superkomputer opracowany wspólnie z OpenAI to pojedynczy system z ponad 285 000 rdzeniami CPU, 10 000 GPU i 400 gigabitami na sekundę łączności sieciowej dla każdego serwera GPU.
- Microsoft pisze, że cw porównaniu z innymi maszynami wymienionymi na TOP500 superkomputerów na świecie ich system plasuje się w pierwszej piątce.
- Tegoroczna impreza Build obfitowała w niespodzianki. Sprawdź, jakie są wieści z naszego Sekcja Microsoft Build 2020.
- Centrum wiadomości Microsoft to tam zawsze znajdziesz najważniejsze historie o firmie.
Partnerstwo, które Microsoft ogłosił w zeszłym roku z startupem OpenAI zajmującym się sztuczną inteligencją, było owocne przynajmniej dlatego, że na tegorocznym wydarzeniu Build ogłosili, że zbudowali piąty najpotężniejszy komputer AI na świecie.
Jakie są specyfikacje techniczne superkomputera Microsoft AI?
Superkomputer opracowany wspólnie z OpenAI to pojedynczy system z ponad 285 000 rdzeniami CPU, 10 000 GPU i 400 gigabitami na sekundę łączności sieciowej dla każdego serwera GPU.
Microsoft pisze w poście na blogu to Cw porównaniu z innymi maszynami z TOP500 superkomputery na świecie, ich system plasuje się w pierwszej piątce.
Chodzi o to, by móc zrobić jednocześnie sto ekscytujących rzeczy w przetwarzaniu języka naturalnego i sto ekscytujących rzeczy w wizji komputerowej, a kiedy zaczniesz dostrzegać kombinacje tych domen percepcyjnych, będziesz miał nowe aplikacje, które w tej chwili trudno sobie nawet wyobrazić.
, powiedział Sam Altman, dyrektor generalny OpenAI.
Do czego będzie używany superkomputer Microsoft AI?
Microsoft ogłosił, że wkrótce zacznie oferować swoje modele Microsoft Turing w wersji open-source oraz przepisy na szkolenie ich w Azure Machine Learning.
Jeśli jesteś programistą, uzyskasz dostęp do tej samej rodziny modeli językowych, z których korzysta firma Microsoft, aby poprawić rozumienie języka we wszystkich swoich produktach.
Będą również korzystać z superkomputera z nową wersją DeepSpeed.
Dla tych, którzy nie są zaznajomieni z nią, DeepSpeed to biblioteka do głębokiego uczenia typu open source dla PyTorch, co zmniejsza ilość mocy obliczeniowej potrzebnej do uczenia dużych modeli rozproszonych.
Aktualizacja jest dużo lepsza niż wersja wydana trzy miesiące temu. Teraz umożliwia trenowanie modeli ponad 15 razy większych i 10 razy szybszych niż robienie tego samego bez DeepSpeed w tej samej infrastrukturze.