Следващата стъпка в AI технологията е тук.
- Llama 2 ще ви позволи да изградите свои собствени сложни AI модели.
- Ще можете да настроите фино и разгърнете моделите Llama 2 с параметри 7B, 13B и 70B.
- И ако сте разработчик, който използва Windows, ви очаква удоволствие.
В Microsoft Inspire 2023 Конференция, случи се нещо вълнуващо. Microsoft обедини сили с Meta за създаване на AI партньорство с Llama 2.
Днес, в Microsoft Inspire, Meta и Microsoft обявиха поддръжка за фамилията Llama 2 от големи езикови модели (LLM) на Azure и Windows. Llama 2 е проектиран да даде възможност на разработчиците и организациите да създават генеративни инструменти и преживявания, задвижвани от AI. Meta и Microsoft споделят ангажимент за демократизиране на AI и неговите предимства и ние сме развълнувани, че Meta възприема отворен подход с Llama 2. Ние предлагаме на разработчиците избор в типовете модели, върху които надграждат, поддържайки отворени и гранични модели и сме развълнувани да бъде предпочитаният партньор на Meta, тъй като те пускат новата си версия на Llama 2 за първи път на търговски клиенти време.
Microsoft
Има смисъл, тъй като първият ден от конференцията беше изцяло за AI. Microsoft обяви много неща, свързани с AI освен партньорството си с Meta AI. Услуга Azure OpenAI вече е наличен в Азия, след като наскоро беше пуснат в Северна Америка и Европа.
Bing Chat Enterprise също беше обявено и това е версията на Bing AI, но за работа. Инструментът вече е достъпен в Preview. И, Партньорска програма на Microsoft Cloud получава актуализация на AI. Вече можете да използвате AI, за да разработите своя бизнес план или маркетингова стратегия, като същевременно ги използвате за изграждане на портфолио.
Така че, когато става въпрос за AI, Microsoft е начело в него от самото начало. И сега партньорството на базирания в Редмънд технологичен гигант с Meta може да бъде следващото голямо нещо в света на ИИ.
Както беше споменато по-рано, Llama 2 дава възможност на разработчиците и организациите да създават генеративни AI инструменти и опит.
Ще можете да прецизирате и внедрите моделите Llama 2 с параметри 7B, 13B и 70B лесно и по-безопасно на Azure.
Освен това трябва да знаете, че Llama ще бъде оптимизиран да работи локално на Windows. И ако сте разработчик, който работи на Windows, ще можете да използвате Llama, като се насочите към доставчика на DirectML изпълнение чрез ONNX Runtime.
Разработчиците на Windows също ще могат лесно да създават нови изживявания, използвайки Llama 2, която може да бъде достъпна чрез GitHub Repo. С подсистемата на Windows за Linux и високопроизводителните графични процесори можете да настроите фино LLM, за да отговарят на вашите специфични нужди направо на техните компютри с Windows.
Какво мислите за това партньорство? Уведомете ни в секцията за коментари по-долу.