Het volgende AI-partnerschap van Microsoft wil dat AI mensen geen schade toebrengt

Het nieuwste AI-partnerschap belooft veiligere manieren om AI te ontwikkelen.

  • Het partnerschap zal een raad van adviseurs samenstellen en in de komende maanden een strategie uitstippelen.
  • Het zal zich uitsluitend richten op grensverleggende AI-modellen, die worden gedefinieerd als superieur aan de bestaande.
  • Bent u een organisatie die dergelijke AI-modellen ontwikkelt, dan kunt u zich aansluiten bij het samenwerkingsverband.
Frontier-modelforum

Een week geleden, Microsoft heeft Llama 2 aangekondigd, zijn AI-partnerschap met Meta, op Microsoft Inspire 2023. Llama 2 is een open-source groot taalmodel dat u kunt gebruiken om uw eigen AI te bouwen en te trainen. Het gerucht gaat dat deze LLM ook de eerste aanwijzing is om AGI te bereiken, wat uiteindelijk een van de centrale doelen van AI is.

Nou, in een week na de aankondiging is er veel gebeurd. Er gaan ook geruchten dat OpenAI, het bedrijf achter ChatGPT, zijn eigen open-source LLM uitbrengt, codenaam G3PO. Er is nog geen releasedatum voor, maar het gaat gebeuren in 2023 of in 2024.

En het lijkt erop dat Microsoft samenwerkt met Anthropic, Google en Open AI voor het Frontier Model Forum. Het partnerschap is een brancheorganisatie die zich richt op het waarborgen van de veilige en verantwoorde ontwikkeling van grensverleggende AI-modellen, volgens het persbericht.

Vandaag kondigen Anthropic, Google, Microsoft en OpenAI de oprichting aan van het Frontier Model Forum, een nieuw brancheorgaan dat zich richt op het waarborgen van een veilige en verantwoorde ontwikkeling van frontier AI-modellen. Het Frontier Model Forum zal gebruikmaken van de technische en operationele expertise van de aangesloten bedrijven om het hele AI-ecosysteem ten goede te komen, zoals door het bevorderen van technische evaluaties en benchmarks, en het ontwikkelen van een openbare bibliotheek met oplossingen ter ondersteuning van best practices in de branche en normen.

Frontier-modelforum

Kortom, het Frontier Model Forum wil AI's bouwen die geen risico vormen voor mensen. Als je het je herinnert, is een van de partners, Anthropic, net vrijgelaten Claude 2 AI, en het model staat bekend om de manier waarop het veilig met mensen omgaat. We zullen dus veel AI's hebben die vergelijkbaar zijn met Claude 2 AI, en waarschijnlijk zelfs beter. Hoe dan ook, het is uitstekend nieuws als het gaat om deze branche.

Wat gaat het Frontier Model Forum doen op het gebied van AI

Het partnerschap heeft een reeks kerndoelen en doelstellingen vastgesteld en zal daarnaar werken. Zij zijn:

  1. Opmars van AI-veiligheidsonderzoek om verantwoorde ontwikkeling van frontier-modellen te bevorderen, risico's te minimaliseren en onafhankelijke, gestandaardiseerde evaluaties van capaciteiten en veiligheid mogelijk te maken.
  2. Best practices identificeren voor de verantwoorde ontwikkeling en inzet van grensverleggende modellen, om het publiek te helpen de aard, mogelijkheden, beperkingen en impact van de technologie te begrijpen.
  3. Samenwerken met beleidsmakers, academici, maatschappelijke organisaties en bedrijven om kennis over vertrouwen en veiligheidsrisico's te delen.
  4. Ondersteuning van inspanningen om toepassingen te ontwikkelen die kunnen helpen de grootste uitdagingen van de samenleving aan te gaan, zoals beperking van en aanpassing aan klimaatverandering, vroegtijdige opsporing en preventie van kanker en bestrijding van cyberdreigingen.

Het samenwerkingsverband staat ook open voor samenwerking met organisaties

Als u een organisatie bent die frontiermodel-AI ontwikkelt, kunt u zich aanmelden om lid te worden van en samen te werken met het Frontier Model Forum.

Expert-tip:

GESPONSORD

Sommige pc-problemen zijn moeilijk aan te pakken, vooral als het gaat om ontbrekende of beschadigde systeembestanden en opslagplaatsen van uw Windows.
Zorg ervoor dat u een speciale tool gebruikt, zoals Fortect, die uw kapotte bestanden scant en vervangt door hun nieuwe versies uit de repository.

Volgens het Forum is een frontiermodel AI een grootschalig machine learning-model dat de mogelijkheden van de meest geavanceerde bestaande modellen overstijgt. En het moet ook een grote verscheidenheid aan taken kunnen uitvoeren.Frontier-modelforum

Om lid te worden van het partnerschap, moet u als organisatie aan de volgende criteria voldoen:

  • U ontwikkelt en implementeert al grensmodellen (zoals gedefinieerd door het Forum).
  • De organisatie kan blijk geven van een sterk engagement voor de veiligheid van frontiermodellen, onder meer door middel van technische en institutionele benaderingen.
  • U, als organisatie, bent bereid bij te dragen aan het bevorderen van de inspanningen van het Forum, onder meer door deel te nemen aan gezamenlijke initiatieven en de ontwikkeling en werking van het initiatief te ondersteunen.

Dit is wat het Forum gaat doen als het om AI gaat

Het Frontier Model Forum wil een veilig en verantwoord AI-ontwikkelingsproces ondersteunen en zal zich in 2023 concentreren op 3 belangrijke gebieden:

  • Best practices identificeren: Het delen van kennis en best practices bevorderen met een focus op veiligheidsnormen en veiligheidspraktijken om een ​​breed scala aan potentiële risico's te beperken.
  • Opmars van AI-veiligheidsonderzoek: Ondersteun het AI-veiligheidsecosysteem door de belangrijkste openstaande onderzoeksvragen over AI-veiligheid te identificeren. Het forum zal onderzoek coördineren om deze inspanningen voort te zetten op gebieden als vijandige robuustheid, mechanistische interpreteerbaarheid, schaalbaar toezicht, onafhankelijke onderzoekstoegang, opkomend gedrag en anomalie detectie. Er zal in eerste instantie een sterke focus liggen op het ontwikkelen en delen van een openbare bibliotheek met technische evaluaties en benchmarks voor grensverleggende AI-modellen.
  • Faciliteren van informatiedeling tussen bedrijven en overheden: Stel betrouwbare, veilige mechanismen in voor het delen van informatie tussen bedrijven, overheden en relevante belanghebbenden met betrekking tot de veiligheid en risico's van AI. Het Forum volgt best practices op het gebied van verantwoorde openbaarmaking op het gebied van bijvoorbeeld cyberbeveiliging.

In de loop van 2023 zal het Frontier Model-forum werken aan het samenstellen van een bord, vervolgens een strategie opstellen en prioriteiten vaststellen. Maar de organisatie is al op zoek naar samenwerking met zoveel mogelijk instellingen, privé of publiek. Dit omvat ook maatschappelijke organisaties en overheden, evenals andere instellingen die geïnteresseerd zijn in AI.

Wat vind je van deze nieuwe samenwerking? Heb je interesse om mee te doen? Of ben je benieuwd naar frontier AI-modellen? Laat het ons weten in de comments hieronder.

Microsoft zal naar verluidt open source Orca 13B

Microsoft zal naar verluidt open source Orca 13BMicrosoft

Je kunt het bestuderen en je eigen AI-model bouwen.Uit onderzoek van Microsoft blijkt hoe kleine AI-modellen de grote kunnen evenaren.Orca is een klein AI-model dat al snel uitgroeide tot ChatGPT.H...

Lees verder
Xbox Studios-roadmap: welke games je kunt verwachten in 2023 en 2024

Xbox Studios-roadmap: welke games je kunt verwachten in 2023 en 2024MicrosoftXbox

Verwacht een aantal geweldige titels die naar Xbox komen.In 2023 en 2024 komen er veel nieuwe titels naar Xbox.Fable, Everwild en Age of Mythology: Retold zijn er enkele van.Er staat ook een projec...

Lees verder
Wat is een Microsoft Xbox Research-console?

Wat is een Microsoft Xbox Research-console?MicrosoftXbox

De Microsoft Research Xbox is een Xbox 360-variant.Het werd gebouwd en uitgebracht in 2012. Het wordt geleverd met een bijbehorende functie en u kunt het op andere apparaten aansluiten.Je kunt het ...

Lees verder