Uusin tekoälykumppanuus lupaa turvallisempia tapoja kehittää tekoälyä.
- Kumppanuus kokoaa neuvottelukunnan ja suunnittelee strategian seuraavien kuukausien aikana.
- Se keskittyy yksinomaan rajatylittäviin tekoälymalleihin, joiden on määritelty olevan parempia kuin olemassa olevat.
- Jos olet organisaatio, joka kehittää tällaisia tekoälymalleja, voit liittyä kumppanuuteen.
Viikko sitten, Microsoft julkisti Llama 2:n, sen tekoälykumppanuus Metan kanssa Microsoft Inspire 2023 -tapahtumassa. Llama 2 on avoimen lähdekoodin suuri kielimalli, jota voit käyttää oman tekoälyn rakentamiseen ja kouluttamiseen. Tämän LLM: n huhutaan myös olevan ensimmäinen vihje AGI: n saavuttamiseen, joka on viime kädessä yksi tekoälyn keskeisistä tavoitteista.
No, viikon sisällä ilmoituksesta on tapahtunut paljon. On myös huhuja, että OpenAI, ChatGPT: n takana oleva yritys, julkaisee oman avoimen lähdekoodin LLM: n, koodinimeltään G3PO. Sille ei ole vielä julkaisupäivää, mutta se tapahtuu vuonna 2023 tai vuonna 2024.
Ja tapahtumien käänteessä näyttää siltä, että Microsoft on tehnyt yhteistyötä Anthropicin, Googlen ja Open AI: n kanssa Frontier Model Forumissa. Kumppanuus on toimialaorganisaatio, joka keskittyy varmistamaan huippuluokan tekoälymallien turvallisen ja vastuullisen kehityksen,
lehdistötiedotteen mukaan.Anthropic, Google, Microsoft ja OpenAI ilmoittavat tänään perustavansa Frontier Model Forumin, uuden toimialan elimen, joka keskittyy varmistamaan rajalla olevien tekoälymallien turvallisen ja vastuullisen kehityksen. Frontier Model Forum hyödyntää jäsenyritystensä teknistä ja toiminnallista asiantuntemusta hyödyttääkseen koko tekoälyekosysteemiä, mm. edistämällä teknisiä arviointeja ja vertailuarvoja ja kehittämällä julkista ratkaisukirjastoa tukemaan alan parhaita käytäntöjä ja standardit.
Frontier Model Forum
Periaatteessa Frontier Model Forum haluaa rakentaa tekoälyjä, jotka eivät ole vaaraksi ihmisille. Jos muistat, yksi kumppaneista, Anthropic, julkaisi juuri Claude 2 AI, ja malli tunnetaan tavasta, jolla se on turvallisesti vuorovaikutuksessa ihmisten kanssa. Meillä on siis paljon Claude 2 AI: n kaltaisia tekoälyjä, ja luultavasti jopa parempia. Joka tapauksessa se on erinomaista uutista tälle alalle.
Mitä Frontier Model Forum tekee tekoälyn suhteen
Kumppanuus on asettanut ydintavoitteet ja tavoitteet, ja se toimii niiden mukaisesti. He ovat:
- Tekoälyn turvallisuustutkimuksen edistäminen Edistää rajamallien vastuullista kehittämistä, minimoida riskit ja mahdollistaa riippumattomien, standardoitujen valmiuksien ja turvallisuuden arvioinnit.
- Parhaiden käytäntöjen tunnistaminen äärimmäisten mallien vastuullisesta kehittämisestä ja käyttöönotosta, mikä auttaa yleisöä ymmärtämään tekniikan luonnetta, kykyjä, rajoituksia ja vaikutuksia.
- Yhteistyö poliittisten päättäjien, tutkijoiden, kansalaisyhteiskunnan ja yritysten kanssa jakaa tietoa luottamus- ja turvallisuusriskeistä.
- Tuetaan pyrkimyksiä kehittää sovelluksia, jotka voivat auttaa vastaamaan yhteiskunnan suuriin haasteisiin, kuten ilmastonmuutoksen hillitseminen ja siihen sopeutuminen, syövän varhainen havaitseminen ja ehkäisy sekä kyberuhkien torjunta.
Kumppanuus on avoin myös yhteistyölle järjestöjen kanssa
Jos olet organisaatio, joka kehittää rajamallia tekoälyä, voit liittyä Frontier Model Forumiin ja tehdä yhteistyötä sen kanssa.
Asiantuntijan vinkki:
Sponsoroitu
Joitakin PC-ongelmia on vaikea ratkaista, varsinkin kun on kyse puuttuvista tai vioittuneista Windowsin järjestelmätiedostoista ja arkistoista.
Muista käyttää erityistä työkalua, kuten Fortect, joka skannaa ja korvaa rikkinäiset tiedostosi uusilla versioilla arkistostaan.
Foorumin mukaan rajamalli AI on laajamittainen koneoppimismalli, joka ylittää edistyneimmissä olemassa olevissa malleissa tällä hetkellä olevat mahdollisuudet. Ja sen pitäisi myös pystyä suorittamaan monenlaisia tehtäviä.
Liittyäksesi kumppanuuteen sinun tulee organisaationa täyttää seuraavat kriteerit:
- Kehität ja otat jo käyttöön rajamalleja (foorumin määrittelemällä tavalla).
- Organisaatio pystyy osoittamaan vahvan sitoutumisen rajamallin turvallisuuteen, myös teknisten ja institutionaalisten lähestymistapojen avulla.
- Olet organisaationa halukas osallistumaan foorumin ponnistelujen edistämiseen, mukaan lukien osallistumalla yhteisiin aloitteisiin ja tukemalla aloitteen kehitystä ja toimintaa.
Näin foorumi tekee tekoälyn suhteen
Frontier Model Forum haluaa tukea turvallista ja vastuullista tekoälykehitysprosessia, ja se keskittyy kolmeen avainalueeseen vuoden 2023 aikana:
- Parhaiden käytäntöjen tunnistaminen: Edistä tiedon jakamista ja parhaita käytäntöjä keskittyen turvallisuusstandardeihin ja turvallisuuskäytäntöihin monien mahdollisten riskien vähentämiseksi.
- Tekoälyn turvallisuustutkimuksen edistäminen: Tue tekoälyn turvallisuusekosysteemiä tunnistamalla tärkeimmät avoimet tutkimuskysymykset tekoälyn turvallisuudesta. Foorumi koordinoi tutkimusta näiden ponnistelujen edistämiseksi sellaisilla aloilla kuin vastavuoroisuus, mekaaninen tulkittavuus, skaalautuva valvonta, riippumaton tutkimusmahdollisuus, ilmenevä käyttäytyminen ja poikkeavuus havaitseminen. Aluksi keskitytään voimakkaasti kehittämään ja jakamaan julkisen kirjaston teknisiä arviointeja ja vertailuarvoja äärimmäisille tekoälymalleille.
- Tietojen jakamisen helpottaminen yritysten ja hallitusten välillä: Luo luotettavia ja suojattuja mekanismeja tekoälyn turvallisuutta ja riskejä koskevien tietojen jakamiseen yritysten, hallitusten ja asiaankuuluvien sidosryhmien kesken. Foorumi noudattaa vastuullisen julkistamisen parhaita käytäntöjä esimerkiksi kyberturvallisuuden alalla.
Vuoden 2023 aikana Frontier Model -foorumi pyrkii kokoamaan hallituksen, rakentamaan sitten strategian ja määrittelemään prioriteetteja. Mutta organisaatio pyrkii jo tekemään yhteistyötä mahdollisimman monen yksityisen tai julkisen laitoksen kanssa. Tämä sisältää myös kansalaisyhteiskunnat ja hallitukset sekä muut instituutiot, jotka ovat kiinnostuneita tekoälystä.
Mitä mieltä olet tästä uudesta kumppanuudesta? Oletko kiinnostunut liittymään? Tai oletko utelias rajatuista tekoälymalleista? Kerro meille alla olevassa kommenttiosassa.