Die neueste KI-Partnerschaft verspricht sicherere Wege zur Entwicklung von KI.
- Die Partnerschaft wird in den folgenden Monaten einen Beirat zusammenstellen und eine Strategie planen.
- Es wird sich ausschließlich auf Frontier-KI-Modelle konzentrieren, die den bestehenden Modellen überlegen sein sollen.
- Wenn Sie eine Organisation sind, die solche KI-Modelle entwickelt, können Sie der Partnerschaft beitreten.
Vor einer Woche, Microsoft hat Llama 2 angekündigt, seine KI-Partnerschaft mit Meta, auf der Microsoft Inspire 2023. Llama 2 ist ein großes Open-Source-Sprachmodell, mit dem Sie Ihre eigene KI erstellen und trainieren können. Gerüchten zufolge soll dieser LLM auch der erste Hinweis sein um AGI zu erreichen, was letztlich eines der zentralen Ziele der KI ist.
Nun, in einer Woche nach der Ankündigung ist viel passiert. Es gibt auch Gerüchte, dass OpenAI, das Unternehmen hinter ChatGPT, sein eigenes Open-Source-LLM mit dem Codenamen G3PO veröffentlicht. Es gibt noch keinen Veröffentlichungstermin dafür, aber es wird 2023 oder 2024 erscheinen.
Und es scheint, dass Microsoft sich mit Anthropic, Google und Open AI für das Frontier Model Forum zusammengetan hat. Die Partnerschaft ist ein Branchenverband, der sich auf die Gewährleistung der sicheren und verantwortungsvollen Entwicklung bahnbrechender KI-Modelle konzentriert. laut Pressemitteilung.
Heute geben Anthropic, Google, Microsoft und OpenAI die Gründung des Frontier Model Forums bekannt, einer neuen Branchenorganisation, die sich auf die Gewährleistung einer sicheren und verantwortungsvollen Entwicklung von Frontier-KI-Modellen konzentriert. Das Frontier Model Forum wird auf das technische und betriebliche Fachwissen seiner Mitgliedsunternehmen zurückgreifen, um dem gesamten KI-Ökosystem zu helfen, wie z durch die Weiterentwicklung technischer Bewertungen und Benchmarks sowie die Entwicklung einer öffentlichen Bibliothek von Lösungen zur Unterstützung von Best Practices der Branche und Standards.
Frontier Model Forum
Grundsätzlich möchte das Frontier Model Forum KIs bauen, die für den Menschen kein Risiko darstellen. Wenn Sie sich erinnern, wurde einer der Partner, Anthropic, gerade veröffentlicht Claude 2 AI, und das Modell ist bekannt für die Art und Weise, wie es sicher mit Menschen interagiert. Wir werden also viele KIs haben, die der KI von Claude 2 ähneln und wahrscheinlich sogar noch besser sind. In jedem Fall sind es hervorragende Neuigkeiten für diese Branche.
Was wird das Frontier Model Forum zum Thema KI tun?
Die Partnerschaft hat eine Reihe von Kernzielen festgelegt und wird danach arbeiten. Sie sind:
- KI-Sicherheitsforschung vorantreiben Förderung einer verantwortungsvollen Entwicklung von Grenzmodellen, Minimierung von Risiken und Ermöglichung unabhängiger, standardisierter Bewertungen von Fähigkeiten und Sicherheit.
- Best Practices identifizieren für die verantwortungsvolle Entwicklung und den Einsatz von Grenzmodellen, um der Öffentlichkeit zu helfen, die Natur, Fähigkeiten, Grenzen und Auswirkungen der Technologie zu verstehen.
- Zusammenarbeit mit politischen Entscheidungsträgern, Wissenschaftlern, der Zivilgesellschaft und Unternehmen Wissen über Vertrauen und Sicherheitsrisiken auszutauschen.
- Unterstützung der Bemühungen zur Entwicklung von Anwendungen, die dazu beitragen können, die größten Herausforderungen der Gesellschaft zu meistern, wie etwa Eindämmung und Anpassung an den Klimawandel, Früherkennung und Prävention von Krebs sowie die Bekämpfung von Cyber-Bedrohungen.
Die Partnerschaft ist auch offen für die Zusammenarbeit mit Organisationen
Wenn Sie eine Organisation sind, die Frontier-Modell-KI entwickelt, können Sie sich als Mitglied des Frontier Model Forums anmelden und mit ihm zusammenarbeiten.
Expertentipp:
GESPONSERT
Einige PC-Probleme sind schwer zu lösen, insbesondere wenn es um fehlende oder beschädigte Systemdateien und Repositorys Ihres Windows geht.
Stellen Sie sicher, dass Sie ein spezielles Werkzeug verwenden, z Festung, das Ihre beschädigten Dateien scannt und durch die neuen Versionen aus dem Repository ersetzt.
Nach Angaben des Forums handelt es sich bei einer Grenzmodell-KI um ein groß angelegtes maschinelles Lernmodell, das die derzeit in den fortschrittlichsten vorhandenen Modellen vorhandenen Fähigkeiten übertrifft. Und es sollte auch vielfältige Aufgaben erfüllen können.
Um der Partnerschaft beizutreten, müssen Sie als Organisation die folgenden Kriterien erfüllen:
- Sie entwickeln und implementieren bereits Grenzmodelle (wie vom Forum definiert).
- Die Organisation ist in der Lage, ein starkes Engagement für die Sicherheit von Grenzmodellen zu demonstrieren, auch durch technische und institutionelle Ansätze.
- Als Organisation sind Sie bereit, einen Beitrag zur Weiterentwicklung der Bemühungen des Forums zu leisten, unter anderem durch die Teilnahme an gemeinsamen Initiativen und die Unterstützung der Entwicklung und Funktionsweise der Initiative.
Dies wird das Forum tun, wenn es um KI geht
Das Frontier Model Forum möchte einen sicheren und verantwortungsvollen KI-Entwicklungsprozess unterstützen und wird sich im Jahr 2023 auf drei Schlüsselbereiche konzentrieren:
- Best Practices identifizieren: Fördern Sie den Wissensaustausch und bewährte Verfahren mit Schwerpunkt auf Sicherheitsstandards und Sicherheitspraktiken, um ein breites Spektrum potenzieller Risiken zu mindern.
- KI-Sicherheitsforschung vorantreiben: Unterstützen Sie das KI-Sicherheitsökosystem, indem Sie die wichtigsten offenen Forschungsfragen zur KI-Sicherheit identifizieren. Das Forum wird die Forschung koordinieren, um diese Bemühungen in Bereichen wie gegnerischer Robustheit, mechanistische Interpretierbarkeit, skalierbare Aufsicht, unabhängiger Forschungszugang, neu auftretende Verhaltensweisen und Anomalien Erkennung. Zunächst wird ein starker Fokus auf der Entwicklung und Weitergabe einer öffentlichen Bibliothek technischer Bewertungen und Benchmarks für Grenz-KI-Modelle liegen.
- Erleichterung des Informationsaustauschs zwischen Unternehmen und Regierungen: Richten Sie vertrauenswürdige und sichere Mechanismen für den Informationsaustausch zwischen Unternehmen, Regierungen und relevanten Interessengruppen in Bezug auf KI-Sicherheit und -Risiken ein. Das Forum wird Best Practices für verantwortungsvolle Offenlegung aus Bereichen wie der Cybersicherheit verfolgen.
Im Laufe des Jahres 2023 wird das Frontier Model-Forum daran arbeiten, ein Gremium zusammenzustellen, dann eine Strategie zu entwickeln und Prioritäten festzulegen. Die Organisation ist jedoch bereits auf der Suche nach einer Zusammenarbeit mit möglichst vielen privaten oder öffentlichen Institutionen. Dazu gehören auch Zivilgesellschaften und Regierungen sowie andere Institutionen, die sich für KI interessieren.
Was denken Sie über diese neue Partnerschaft? Sind Sie an einer Mitarbeit interessiert? Oder sind Sie neugierig auf bahnbrechende KI-Modelle? Lassen Sie es uns im Kommentarbereich unten wissen.