A mais nova parceria de IA promete maneiras mais seguras de desenvolver IA.
- A parceria vai montar um conselho de assessores e traçar uma estratégia nos próximos meses.
- Ele se concentrará exclusivamente em modelos de IA de fronteira, definidos como superiores aos existentes.
- Se você é uma organização que desenvolve esses modelos de IA, pode participar da parceria.
Uma semana atrás, Microsoft anunciou Lhama 2, sua parceria de IA com a Meta, no Microsoft Inspire 2023. O Llama 2 é um modelo de linguagem grande de código aberto, que você pode usar para construir e treinar sua própria IA. Este LLM também é rumores de ser a primeira pista para alcançar a AGI, que é, em última análise, um dos objetivos centrais da IA.
Bem, em uma semana desde o anúncio, muita coisa aconteceu. Também há rumores de que a OpenAI, a empresa por trás do ChatGPT, está lançando seu próprio LLM de código aberto, codinome G3PO. Ainda não há data de lançamento, mas será em 2023 ou 2024.
E, em uma reviravolta, parece que a Microsoft fez parceria com Anthropic, Google e Open AI para o Frontier Model Forum. A parceria é um órgão da indústria focado em garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira,
de acordo com o comunicado de imprensa.Hoje, Anthropic, Google, Microsoft e OpenAI estão anunciando a formação do Frontier Model Forum, um novo órgão da indústria focado em garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira. O Frontier Model Forum aproveitará a experiência técnica e operacional de suas empresas membros para beneficiar todo o ecossistema de IA, como através do avanço de avaliações técnicas e benchmarks, e desenvolvimento de uma biblioteca pública de soluções para apoiar as melhores práticas da indústria e padrões.
Fórum Modelo de Fronteira
Basicamente, o Frontier Model Forum quer construir IAs que não sejam um risco para os humanos. Se você se lembra, um dos parceiros, Anthropic, acaba de lançar Claude 2 IA, e o modelo é conhecido pela forma como interage com as pessoas com segurança. Então, teremos muitos AIs semelhantes ao Claude 2 AI, e provavelmente ainda melhores. De qualquer forma, é uma excelente notícia quando se trata deste setor.
O que o Frontier Model Forum fará quando se trata de IA
A parceria estabeleceu um conjunto de metas e objetivos centrais e funcionará de acordo com eles. Eles são:
- Pesquisa avançada de segurança de IA para promover o desenvolvimento responsável de modelos de fronteira, minimizar riscos e permitir avaliações independentes e padronizadas de capacidades e segurança.
- Identificando as melhores práticas para o desenvolvimento responsável e implantação de modelos de fronteira, ajudando o público a compreender a natureza, capacidades, limitações e impacto da tecnologia.
- Colaborar com formuladores de políticas, acadêmicos, sociedade civil e empresas para compartilhar conhecimento sobre confiança e riscos de segurança.
- Apoiar os esforços para desenvolver aplicativos que possam ajudar a enfrentar os maiores desafios da sociedade, como mitigação e adaptação às mudanças climáticas, detecção e prevenção precoce do câncer e combate a ameaças cibernéticas.
A parceria também está aberta à colaboração com organizações
Se você é uma organização que desenvolve IA de modelo de fronteira, pode se inscrever para participar e colaborar com o Frontier Model Forum.
Dica de especialista:
PATROCINADAS
Alguns problemas do PC são difíceis de resolver, especialmente quando se trata de arquivos de sistema ausentes ou corrompidos e repositórios do Windows.
Certifique-se de usar uma ferramenta dedicada, como proteger, que verificará e substituirá seus arquivos quebrados por suas novas versões de seu repositório.
De acordo com o Fórum, um modelo de fronteira AI é um modelo de aprendizado de máquina em larga escala que excede os recursos atualmente presentes nos modelos existentes mais avançados. E também deve ser capaz de realizar uma ampla variedade de tarefas.
Para aderir à parceria, você, como organização, precisa atender aos seguintes critérios:
- Você já desenvolve e implanta modelos de fronteira (conforme definido pelo Fórum).
- A organização é capaz de demonstrar um forte compromisso com a segurança do modelo de fronteira, inclusive por meio de abordagens técnicas e institucionais.
- Você, como organização, está disposto a contribuir para o avanço dos esforços do Fórum, inclusive participando de iniciativas conjuntas e apoiando o desenvolvimento e o funcionamento da iniciativa.
Isso é o que o Fórum fará quando o assunto for IA
O Frontier Model Forum deseja apoiar um processo de desenvolvimento de IA seguro e responsável e se concentrará em 3 áreas principais ao longo de 2023:
- Identificando as melhores práticas: Promova o compartilhamento de conhecimento e as melhores práticas com foco nos padrões e práticas de segurança para mitigar uma ampla gama de riscos potenciais.
- Pesquisa avançada de segurança de IA: Apoie o ecossistema de segurança de IA identificando as questões de pesquisa em aberto mais importantes sobre segurança de IA. O Fórum coordenará pesquisas para progredir nesses esforços em áreas como robustez adversária, interpretabilidade mecanicista, supervisão escalável, acesso independente à pesquisa, comportamentos emergentes e anomalia detecção. Haverá um forte foco inicialmente no desenvolvimento e compartilhamento de uma biblioteca pública de avaliações técnicas e benchmarks para modelos de IA de fronteira.
- Facilitar o compartilhamento de informações entre empresas e governos: Estabeleça mecanismos confiáveis e seguros para compartilhar informações entre empresas, governos e partes interessadas relevantes sobre segurança e riscos de IA. O Fórum seguirá as melhores práticas de divulgação responsável de áreas como segurança cibernética.
Ao longo de 2023, o fórum Frontier Model trabalhará na montagem de um conselho, para depois construir uma estratégia e estabelecer prioridades. Mas a organização já procura colaborar com o maior número possível de instituições, privadas ou públicas. Isso também inclui sociedades civis e governos, bem como outras instituições interessadas em IA.
O que você acha dessa nova parceria? Você está interessado em aderir? Ou você está curioso sobre os modelos de IA de fronteira? Deixe-nos saber na seção de comentários abaixo.