Microsoftin seuraava tekoälykumppanuus haluaa, että tekoäly ei vahingoita ihmisiä

Uusin tekoälykumppanuus lupaa turvallisempia tapoja kehittää tekoälyä.

  • Kumppanuus kokoaa neuvottelukunnan ja suunnittelee strategian seuraavien kuukausien aikana.
  • Se keskittyy yksinomaan rajatylittäviin tekoälymalleihin, joiden on määritelty olevan parempia kuin olemassa olevat.
  • Jos olet organisaatio, joka kehittää tällaisia ​​tekoälymalleja, voit liittyä kumppanuuteen.
Frontier Model Forum

Viikko sitten, Microsoft julkisti Llama 2:n, sen tekoälykumppanuus Metan kanssa Microsoft Inspire 2023 -tapahtumassa. Llama 2 on avoimen lähdekoodin suuri kielimalli, jota voit käyttää oman tekoälyn rakentamiseen ja kouluttamiseen. Tämän LLM: n huhutaan myös olevan ensimmäinen vihje AGI: n saavuttamiseen, joka on viime kädessä yksi tekoälyn keskeisistä tavoitteista.

No, viikon sisällä ilmoituksesta on tapahtunut paljon. On myös huhuja, että OpenAI, ChatGPT: n takana oleva yritys, julkaisee oman avoimen lähdekoodin LLM: n, koodinimeltään G3PO. Sille ei ole vielä julkaisupäivää, mutta se tapahtuu vuonna 2023 tai vuonna 2024.

Ja tapahtumien käänteessä näyttää siltä, ​​​​että Microsoft on tehnyt yhteistyötä Anthropicin, Googlen ja Open AI: n kanssa Frontier Model Forumissa. Kumppanuus on toimialaorganisaatio, joka keskittyy varmistamaan huippuluokan tekoälymallien turvallisen ja vastuullisen kehityksen,

lehdistötiedotteen mukaan.

Anthropic, Google, Microsoft ja OpenAI ilmoittavat tänään perustavansa Frontier Model Forumin, uuden toimialan elimen, joka keskittyy varmistamaan rajalla olevien tekoälymallien turvallisen ja vastuullisen kehityksen. Frontier Model Forum hyödyntää jäsenyritystensä teknistä ja toiminnallista asiantuntemusta hyödyttääkseen koko tekoälyekosysteemiä, mm. edistämällä teknisiä arviointeja ja vertailuarvoja ja kehittämällä julkista ratkaisukirjastoa tukemaan alan parhaita käytäntöjä ja standardit.

Frontier Model Forum

Periaatteessa Frontier Model Forum haluaa rakentaa tekoälyjä, jotka eivät ole vaaraksi ihmisille. Jos muistat, yksi kumppaneista, Anthropic, julkaisi juuri Claude 2 AI, ja malli tunnetaan tavasta, jolla se on turvallisesti vuorovaikutuksessa ihmisten kanssa. Meillä on siis paljon Claude 2 AI: n kaltaisia ​​tekoälyjä, ja luultavasti jopa parempia. Joka tapauksessa se on erinomaista uutista tälle alalle.

Mitä Frontier Model Forum tekee tekoälyn suhteen

Kumppanuus on asettanut ydintavoitteet ja tavoitteet, ja se toimii niiden mukaisesti. He ovat:

  1. Tekoälyn turvallisuustutkimuksen edistäminen Edistää rajamallien vastuullista kehittämistä, minimoida riskit ja mahdollistaa riippumattomien, standardoitujen valmiuksien ja turvallisuuden arvioinnit.
  2. Parhaiden käytäntöjen tunnistaminen äärimmäisten mallien vastuullisesta kehittämisestä ja käyttöönotosta, mikä auttaa yleisöä ymmärtämään tekniikan luonnetta, kykyjä, rajoituksia ja vaikutuksia.
  3. Yhteistyö poliittisten päättäjien, tutkijoiden, kansalaisyhteiskunnan ja yritysten kanssa jakaa tietoa luottamus- ja turvallisuusriskeistä.
  4. Tuetaan pyrkimyksiä kehittää sovelluksia, jotka voivat auttaa vastaamaan yhteiskunnan suuriin haasteisiin, kuten ilmastonmuutoksen hillitseminen ja siihen sopeutuminen, syövän varhainen havaitseminen ja ehkäisy sekä kyberuhkien torjunta.

Kumppanuus on avoin myös yhteistyölle järjestöjen kanssa

Jos olet organisaatio, joka kehittää rajamallia tekoälyä, voit liittyä Frontier Model Forumiin ja tehdä yhteistyötä sen kanssa.

Asiantuntijan vinkki:

Sponsoroitu

Joitakin PC-ongelmia on vaikea ratkaista, varsinkin kun on kyse puuttuvista tai vioittuneista Windowsin järjestelmätiedostoista ja arkistoista.
Muista käyttää erityistä työkalua, kuten Fortect, joka skannaa ja korvaa rikkinäiset tiedostosi uusilla versioilla arkistostaan.

Foorumin mukaan rajamalli AI on laajamittainen koneoppimismalli, joka ylittää edistyneimmissä olemassa olevissa malleissa tällä hetkellä olevat mahdollisuudet. Ja sen pitäisi myös pystyä suorittamaan monenlaisia ​​​​tehtäviä.Frontier Model Forum

Liittyäksesi kumppanuuteen sinun tulee organisaationa täyttää seuraavat kriteerit:

  • Kehität ja otat jo käyttöön rajamalleja (foorumin määrittelemällä tavalla).
  • Organisaatio pystyy osoittamaan vahvan sitoutumisen rajamallin turvallisuuteen, myös teknisten ja institutionaalisten lähestymistapojen avulla.
  • Olet organisaationa halukas osallistumaan foorumin ponnistelujen edistämiseen, mukaan lukien osallistumalla yhteisiin aloitteisiin ja tukemalla aloitteen kehitystä ja toimintaa.

Näin foorumi tekee tekoälyn suhteen

Frontier Model Forum haluaa tukea turvallista ja vastuullista tekoälykehitysprosessia, ja se keskittyy kolmeen avainalueeseen vuoden 2023 aikana:

  • Parhaiden käytäntöjen tunnistaminen: Edistä tiedon jakamista ja parhaita käytäntöjä keskittyen turvallisuusstandardeihin ja turvallisuuskäytäntöihin monien mahdollisten riskien vähentämiseksi.
  • Tekoälyn turvallisuustutkimuksen edistäminen: Tue tekoälyn turvallisuusekosysteemiä tunnistamalla tärkeimmät avoimet tutkimuskysymykset tekoälyn turvallisuudesta. Foorumi koordinoi tutkimusta näiden ponnistelujen edistämiseksi sellaisilla aloilla kuin vastavuoroisuus, mekaaninen tulkittavuus, skaalautuva valvonta, riippumaton tutkimusmahdollisuus, ilmenevä käyttäytyminen ja poikkeavuus havaitseminen. Aluksi keskitytään voimakkaasti kehittämään ja jakamaan julkisen kirjaston teknisiä arviointeja ja vertailuarvoja äärimmäisille tekoälymalleille.
  • Tietojen jakamisen helpottaminen yritysten ja hallitusten välillä: Luo luotettavia ja suojattuja mekanismeja tekoälyn turvallisuutta ja riskejä koskevien tietojen jakamiseen yritysten, hallitusten ja asiaankuuluvien sidosryhmien kesken. Foorumi noudattaa vastuullisen julkistamisen parhaita käytäntöjä esimerkiksi kyberturvallisuuden alalla.

Vuoden 2023 aikana Frontier Model -foorumi pyrkii kokoamaan hallituksen, rakentamaan sitten strategian ja määrittelemään prioriteetteja. Mutta organisaatio pyrkii jo tekemään yhteistyötä mahdollisimman monen yksityisen tai julkisen laitoksen kanssa. Tämä sisältää myös kansalaisyhteiskunnat ja hallitukset sekä muut instituutiot, jotka ovat kiinnostuneita tekoälystä.

Mitä mieltä olet tästä uudesta kumppanuudesta? Oletko kiinnostunut liittymään? Tai oletko utelias rajatuista tekoälymalleista? Kerro meille alla olevassa kommenttiosassa.

OpenAI on vaarassa, sillä yli 500 työntekijää uhkaa irtisanoutua, ellei Sam Altman palaa

OpenAI on vaarassa, sillä yli 500 työntekijää uhkaa irtisanoutua, ellei Sam Altman palaaMicrosoftOpenai

Sam Altman ei kuitenkaan ehkä palaa OpenAI: hen.Teknologiamaailma on yllättynyt viime päivinä, kun OpenAI: n toimitusjohtaja Sam Altman erotettiin yhtiön hallitukselta, vain muutama viikko yritykse...

Lue lisää
Tulevat Windows-versiot saattavat tarjota useiden laitteiden välisiä kokemuksia, jotka ovat yhteensopivia muiden käyttöjärjestelmien kanssa

Tulevat Windows-versiot saattavat tarjota useiden laitteiden välisiä kokemuksia, jotka ovat yhteensopivia muiden käyttöjärjestelmien kanssaMicrosoftWindows

Tekniikka on kuvattu Microsoftin äskettäin jättämässä patentissa.Monien laitteiden käyttökokemukset ovat uusi normi teknologiamaailmassa, Samsungin ja viime aikoina Qualcommin, tasoittaa uusia tapo...

Lue lisää
OpenAI: n draama päättyy, kun Microsoft jakaa muistiin, joka rauhoittaa tekoälykumppanuutta

OpenAI: n draama päättyy, kun Microsoft jakaa muistiin, joka rauhoittaa tekoälykumppanuuttaMicrosoftOpenai

Sam Altman on palautettu OpenAI-yhtiön toimitusjohtajaksi.On turvallista sanoa, että Sam Altam on tullut jäädäkseen. Kyllä, se on typerä johdanto, mutta koko OpenAI-tilanne, jossa hallitus erotti t...

Lue lisää