La prossima partnership con l'IA di Microsoft vuole che l'IA non danneggi le persone

La più recente partnership AI promette modi più sicuri per sviluppare l'IA.

  • La partnership riunirà un consiglio di amministrazione e pianificherà una strategia nei mesi successivi.
  • Si concentrerà esclusivamente sui modelli di IA di frontiera, definiti superiori a quelli esistenti.
  • Se sei un'organizzazione che sviluppa tali modelli di intelligenza artificiale, puoi unirti alla partnership.
Forum del modello di frontiera

Una settimana fa, Microsoft ha annunciato Llama 2, la sua partnership AI con Meta, a Microsoft Inspire 2023. Llama 2 è un modello di linguaggio di grandi dimensioni open source, che puoi utilizzare per creare e addestrare la tua IA. Si dice anche che questo LLM sia il primo indizio nel raggiungimento dell'AGI, che è, in definitiva, uno degli obiettivi centrali dell'IA.

Bene, in una settimana dall'annuncio, sono successe molte cose. Ci sono anche voci secondo cui OpenAI, la società dietro ChatGPT, sta rilasciando il proprio LLM open source, nome in codice G3PO. Non c'è ancora una data di uscita, ma avverrà nel 2023 o nel 2024.

E in una serie di eventi, sembra che Microsoft abbia collaborato con Anthropic, Google e Open AI al Frontier Model Forum. La partnership è un organismo del settore focalizzato a garantire lo sviluppo sicuro e responsabile di modelli di IA di frontiera, secondo il comunicato stampa.

Oggi, Anthropic, Google, Microsoft e OpenAI annunciano la formazione del Frontier Model Forum, un nuovo ente del settore focalizzato a garantire uno sviluppo sicuro e responsabile dei modelli di IA di frontiera. Il Frontier Model Forum attingerà alle competenze tecniche e operative delle aziende associate a beneficio dell'intero ecosistema AI, come ad esempio attraverso l'avanzamento di valutazioni tecniche e benchmark e lo sviluppo di una libreria pubblica di soluzioni per supportare le migliori pratiche del settore e standard.

Forum del modello di frontiera

Fondamentalmente, il Frontier Model Forum vuole costruire IA che non rappresentino un rischio per l'uomo. Se ricordi, uno dei partner, Anthropic, è appena uscito Claudio 2 AIe il modello è rinomato per il modo in cui interagisce in sicurezza con le persone. Quindi, avremo molte IA simili a quelle di Claude 2, e probabilmente anche migliori. Ad ogni modo, è un'ottima notizia quando si tratta di questo settore.

Cosa farà il Frontier Model Forum quando si tratta di AI

La partnership ha stabilito una serie di scopi e obiettivi fondamentali e funzionerà in base a essi. Sono:

  1. Promuovere la ricerca sulla sicurezza dell'IA promuovere lo sviluppo responsabile di modelli di frontiera, ridurre al minimo i rischi e consentire valutazioni indipendenti e standardizzate delle capacità e della sicurezza.
  2. Identificare le migliori pratiche per lo sviluppo responsabile e l'implementazione di modelli di frontiera, aiutando il pubblico a comprendere la natura, le capacità, i limiti e l'impatto della tecnologia.
  3. Collaborare con responsabili politici, accademici, società civile e aziende condividere le conoscenze sulla fiducia e sui rischi per la sicurezza.
  4. Sostenere gli sforzi per sviluppare applicazioni che possano aiutare ad affrontare le maggiori sfide della società, come la mitigazione e l'adattamento ai cambiamenti climatici, l'individuazione precoce e la prevenzione del cancro e la lotta contro le minacce informatiche.

La partnership è aperta anche alla collaborazione con le organizzazioni

Se sei un'organizzazione che sviluppa l'IA del modello di frontiera, puoi inviare per partecipare e collaborare con il Frontier Model Forum.

Consiglio dell'esperto:

SPONSORIZZATO

Alcuni problemi del PC sono difficili da affrontare, soprattutto quando si tratta di file di sistema e repository di Windows mancanti o danneggiati.
Assicurati di utilizzare uno strumento dedicato, ad esempio Forte, che eseguirà la scansione e sostituirà i tuoi file rotti con le loro nuove versioni dal suo repository.

Secondo il Forum, un modello di frontiera AI è un modello di apprendimento automatico su larga scala che supera le capacità attualmente presenti nei modelli esistenti più avanzati. E dovrebbe anche essere in grado di eseguire un'ampia varietà di compiti.Forum del modello di frontiera

Per aderire alla partnership, tu, come organizzazione, devi soddisfare i seguenti criteri:

  • Sviluppi e distribuisci già modelli di frontiera (come definiti dal Forum).
  • L'organizzazione è in grado di dimostrare un forte impegno per la sicurezza dei modelli di frontiera, anche attraverso approcci tecnici e istituzionali.
  • Voi, come organizzazione, siete disposti a contribuire all'avanzamento degli sforzi del Forum, anche partecipando a iniziative congiunte e sostenendo lo sviluppo e il funzionamento dell'iniziativa.

Questo è ciò che farà il Forum quando si tratta di IA

Il Frontier Model Forum vuole supportare un processo di sviluppo dell'IA sicuro e responsabile e si concentrerà su 3 aree chiave nel 2023:

  • Identificare le migliori pratiche: Promuovere la condivisione delle conoscenze e le migliori pratiche con particolare attenzione agli standard di sicurezza e alle pratiche di sicurezza per mitigare un'ampia gamma di rischi potenziali.
  • Promuovere la ricerca sulla sicurezza dell'IA: Sostieni l'ecosistema della sicurezza dell'IA identificando le domande di ricerca aperte più importanti sulla sicurezza dell'IA. Il Forum coordinerà la ricerca per far progredire questi sforzi in settori quali la robustezza dell'avversario, interpretabilità meccanicistica, supervisione scalabile, accesso indipendente alla ricerca, comportamenti emergenti e anomalia rilevamento. Ci sarà un forte accento iniziale sullo sviluppo e la condivisione di una biblioteca pubblica di valutazioni tecniche e benchmark per i modelli di IA di frontiera.
  • Facilitare la condivisione delle informazioni tra aziende e governi: Stabilire meccanismi affidabili e sicuri per la condivisione delle informazioni tra aziende, governi e parti interessate in merito alla sicurezza e ai rischi dell'IA. Il forum seguirà le migliori pratiche in materia di divulgazione responsabile in settori come la sicurezza informatica.

Nel corso del 2023, il forum Frontier Model lavorerà all'assemblaggio di un consiglio, quindi costruirà una strategia e stabilirà le priorità. Ma l'organizzazione sta già cercando di collaborare con il maggior numero possibile di istituzioni, private o pubbliche. Ciò include anche le società civili e i governi, nonché altre istituzioni interessate all'IA.

Cosa ne pensi di questa nuova collaborazione? Sei interessato ad unirti? O sei curioso di conoscere i modelli di IA di frontiera? Fateci sapere nella sezione commenti qui sotto.

Microsoft porta il supporto per gli annunci riproducibili su Windows 10

Microsoft porta il supporto per gli annunci riproducibili su Windows 10MicrosoftAnnunci RiproducibiliWindows 10

Sebbene le aziende ora utilizzino diversi metodi per inviare annunci al tuo schermo, alcuni annunci possono ancora sembrare sgradevoli ad alcuni utenti. Per aiutare gli utenti a valutare se un dete...

Leggi di più
Microsoft aggiorna l'app Foto con il supporto di Windows Ink

Microsoft aggiorna l'app Foto con il supporto di Windows InkMicrosoft

Sebbene queste modifiche non siano una novità per gli utenti dell'anteprima di rilascio a cui è stato concesso l'accesso ad esse abbastanza tempo fa, Microsoft li ha resi disponibili per il pubblic...

Leggi di più
Microsoft sviluppa un bot di gioco per lo streaming di giochi online

Microsoft sviluppa un bot di gioco per lo streaming di giochi onlineMicrosoft

Secondo quanto riferito, Microsoft sta lavorando al proprio bot per i giochi che è più probabile che i giocatori accolgano a braccia aperte. Questa è una cosa piuttosto interessante, considerando c...

Leggi di più