O próximo passo na tecnologia de IA está aqui.
- O Llama 2 permitirá que você construa seus próprios modelos complexos de IA.
- Você poderá ajustar e implantar os modelos Llama 2 de parâmetros 7B, 13B e 70B.
- E se você for um desenvolvedor que usa o Windows, terá uma surpresa.
No Microsoft Inspire 2023 Conferência, algo emocionante aconteceu. Microsoft uniu forças com a Meta para formar uma parceria de IA com o Llama 2.
Hoje, no Microsoft Inspire, a Meta e a Microsoft anunciaram o suporte para a família Llama 2 de grandes modelos de linguagem (LLMs) no Azure e no Windows. O Llama 2 foi projetado para permitir que desenvolvedores e organizações criem ferramentas e experiências generativas baseadas em IA. A Meta e a Microsoft compartilham o compromisso de democratizar a IA e seus benefícios, e estamos entusiasmados com o fato de a Meta estar adotando uma abordagem aberta com o Llama 2. Oferecemos aos desenvolvedores opções nos tipos de modelos que eles constroem, suportando modelos abertos e de fronteira e estamos entusiasmados para ser o parceiro preferencial da Meta ao lançar sua nova versão do Llama 2 para clientes comerciais pela primeira vez tempo.
Microsoft
Faz sentido, já que o primeiro dia da conferência foi sobre IA. A Microsoft anunciou muitas coisas relacionadas à IA além de sua parceria Meta AI. Serviço Azure OpenAI está agora disponível na Ásia depois de ter sido lançado recentemente na América do Norte e na Europa.
Bing Chat Enterprise também foi anunciado, e é a versão do Bing AI, mas para o trabalho. A ferramenta já está disponível em Pré-visualização. E, Programa de parceiro de nuvem da Microsoft recebe uma atualização de IA. Agora você pode usar a IA para desenvolver seu plano de negócios ou estratégia de marketing, aproveitando-a para criar um portfólio.
Portanto, quando se trata de IA, a Microsoft está na vanguarda desde o início. E agora, a parceria da gigante de tecnologia baseada em Redmond com a Meta pode ser a próxima grande novidade no mundo da IA.
Como mencionado anteriormente, o Llama 2 possibilita que desenvolvedores e organizações criem ferramentas e experiências generativas de IA.
Você poderá ajustar e implantar os modelos Llama 2 de parâmetros 7B, 13B e 70B com facilidade e segurança no Azure.
Além disso, você precisa saber que o Llama será otimizado para rodar localmente no Windows. E se você for um desenvolvedor que trabalha no Windows, poderá usar o Llama visando o provedor de execução DirectML por meio do ONNX Runtime.
Os desenvolvedores do Windows também poderão criar facilmente novas experiências usando o Llama 2, que pode ser acessado via GitHub Repo. Com o subsistema do Windows para Linux e GPUs altamente capazes, você pode ajustar os LLMs para atender às suas necessidades específicas diretamente em seus PCs com Windows.
O que você acha dessa parceria? Deixe-nos saber na seção de comentários abaixo.