A próxima parceria de IA da Microsoft quer que a IA não prejudique as pessoas

A mais nova parceria de IA promete maneiras mais seguras de desenvolver IA.

  • A parceria vai montar um conselho de assessores e traçar uma estratégia nos próximos meses.
  • Ele se concentrará exclusivamente em modelos de IA de fronteira, definidos como superiores aos existentes.
  • Se você é uma organização que desenvolve esses modelos de IA, pode participar da parceria.
Fórum Modelo de Fronteira

Uma semana atrás, Microsoft anunciou Lhama 2, sua parceria de IA com a Meta, no Microsoft Inspire 2023. O Llama 2 é um modelo de linguagem grande de código aberto, que você pode usar para construir e treinar sua própria IA. Este LLM também é rumores de ser a primeira pista para alcançar a AGI, que é, em última análise, um dos objetivos centrais da IA.

Bem, em uma semana desde o anúncio, muita coisa aconteceu. Também há rumores de que a OpenAI, a empresa por trás do ChatGPT, está lançando seu próprio LLM de código aberto, codinome G3PO. Ainda não há data de lançamento, mas será em 2023 ou 2024.

E, em uma reviravolta, parece que a Microsoft fez parceria com Anthropic, Google e Open AI para o Frontier Model Forum. A parceria é um órgão da indústria focado em garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira,

de acordo com o comunicado de imprensa.

Hoje, Anthropic, Google, Microsoft e OpenAI estão anunciando a formação do Frontier Model Forum, um novo órgão da indústria focado em garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira. O Frontier Model Forum aproveitará a experiência técnica e operacional de suas empresas membros para beneficiar todo o ecossistema de IA, como através do avanço de avaliações técnicas e benchmarks, e desenvolvimento de uma biblioteca pública de soluções para apoiar as melhores práticas da indústria e padrões.

Fórum Modelo de Fronteira

Basicamente, o Frontier Model Forum quer construir IAs que não sejam um risco para os humanos. Se você se lembra, um dos parceiros, Anthropic, acaba de lançar Claude 2 IA, e o modelo é conhecido pela forma como interage com as pessoas com segurança. Então, teremos muitos AIs semelhantes ao Claude 2 AI, e provavelmente ainda melhores. De qualquer forma, é uma excelente notícia quando se trata deste setor.

O que o Frontier Model Forum fará quando se trata de IA

A parceria estabeleceu um conjunto de metas e objetivos centrais e funcionará de acordo com eles. Eles são:

  1. Pesquisa avançada de segurança de IA para promover o desenvolvimento responsável de modelos de fronteira, minimizar riscos e permitir avaliações independentes e padronizadas de capacidades e segurança.
  2. Identificando as melhores práticas para o desenvolvimento responsável e implantação de modelos de fronteira, ajudando o público a compreender a natureza, capacidades, limitações e impacto da tecnologia.
  3. Colaborar com formuladores de políticas, acadêmicos, sociedade civil e empresas para compartilhar conhecimento sobre confiança e riscos de segurança.
  4. Apoiar os esforços para desenvolver aplicativos que possam ajudar a enfrentar os maiores desafios da sociedade, como mitigação e adaptação às mudanças climáticas, detecção e prevenção precoce do câncer e combate a ameaças cibernéticas.

A parceria também está aberta à colaboração com organizações

Se você é uma organização que desenvolve IA de modelo de fronteira, pode se inscrever para participar e colaborar com o Frontier Model Forum.

Dica de especialista:

PATROCINADAS

Alguns problemas do PC são difíceis de resolver, especialmente quando se trata de arquivos de sistema ausentes ou corrompidos e repositórios do Windows.
Certifique-se de usar uma ferramenta dedicada, como proteger, que verificará e substituirá seus arquivos quebrados por suas novas versões de seu repositório.

De acordo com o Fórum, um modelo de fronteira AI é um modelo de aprendizado de máquina em larga escala que excede os recursos atualmente presentes nos modelos existentes mais avançados. E também deve ser capaz de realizar uma ampla variedade de tarefas.Fórum Modelo de Fronteira

Para aderir à parceria, você, como organização, precisa atender aos seguintes critérios:

  • Você já desenvolve e implanta modelos de fronteira (conforme definido pelo Fórum).
  • A organização é capaz de demonstrar um forte compromisso com a segurança do modelo de fronteira, inclusive por meio de abordagens técnicas e institucionais.
  • Você, como organização, está disposto a contribuir para o avanço dos esforços do Fórum, inclusive participando de iniciativas conjuntas e apoiando o desenvolvimento e o funcionamento da iniciativa.

Isso é o que o Fórum fará quando o assunto for IA

O Frontier Model Forum deseja apoiar um processo de desenvolvimento de IA seguro e responsável e se concentrará em 3 áreas principais ao longo de 2023:

  • Identificando as melhores práticas: Promova o compartilhamento de conhecimento e as melhores práticas com foco nos padrões e práticas de segurança para mitigar uma ampla gama de riscos potenciais.
  • Pesquisa avançada de segurança de IA: Apoie o ecossistema de segurança de IA identificando as questões de pesquisa em aberto mais importantes sobre segurança de IA. O Fórum coordenará pesquisas para progredir nesses esforços em áreas como robustez adversária, interpretabilidade mecanicista, supervisão escalável, acesso independente à pesquisa, comportamentos emergentes e anomalia detecção. Haverá um forte foco inicialmente no desenvolvimento e compartilhamento de uma biblioteca pública de avaliações técnicas e benchmarks para modelos de IA de fronteira.
  • Facilitar o compartilhamento de informações entre empresas e governos: Estabeleça mecanismos confiáveis ​​e seguros para compartilhar informações entre empresas, governos e partes interessadas relevantes sobre segurança e riscos de IA. O Fórum seguirá as melhores práticas de divulgação responsável de áreas como segurança cibernética.

Ao longo de 2023, o fórum Frontier Model trabalhará na montagem de um conselho, para depois construir uma estratégia e estabelecer prioridades. Mas a organização já procura colaborar com o maior número possível de instituições, privadas ou públicas. Isso também inclui sociedades civis e governos, bem como outras instituições interessadas em IA.

O que você acha dessa nova parceria? Você está interessado em aderir? Ou você está curioso sobre os modelos de IA de fronteira? Deixe-nos saber na seção de comentários abaixo.

A Microsoft revelou acidentalmente um exploit que não foi corrigido

A Microsoft revelou acidentalmente um exploit que não foi corrigidoMicrosoftVírus

Como você provavelmente já sabe, a Microsoft acaba de lançar a terceira rodada de atualizações de Patch Tuesday para o ano de 2020, e elas são chamadas de Atualizações de atualização de terça-feira...

Consulte Mais informação
Economize $ 200 em conjuntos de realidade virtual durante a venda da Microsoft Black Friday

Economize $ 200 em conjuntos de realidade virtual durante a venda da Microsoft Black FridayMicrosoftBlack Friday

A Black Friday está se aproximando cada vez mais, e a Microsoft já revelou alguns dos itens que colocará à venda.Os jogadores podem estar interessados ​​em saber que os fones de ouvido VR também sã...

Consulte Mais informação
Microsoft melhora as ferramentas de gerenciamento de vulnerabilidade do Linux

Microsoft melhora as ferramentas de gerenciamento de vulnerabilidade do LinuxLinuxMicrosoft

Espera-se que a força de trabalho remota dobre nos próximos anos, colocando a segurança online no centro.A Microsoft recentemente habilitou o recurso de gerenciamento de ameaças e vulnerabilidades ...

Consulte Mais informação