KI-Titanen schenken KI-Sicherheitsforschern (winzige) Aufmerksamkeit: Sie werden nie erraten, wie sehr!

Ein neuer Forschungsfonds zur Bewertung von KI-Modellen

Das Frontier Model Forum, eine Branchenorganisation, die sich auf die Erforschung von "Grenz"-KI-Modellen wie GPT-4 und ChatGPT konzentriert, gab heute bekannt, dass sie 10 Millionen US-Dollar für einen neuen Fonds bereitstellen wird, der die Forschung zu den besten Tools für die Bewertung von KI-Modellen vorantreiben soll.

Finanzielle Unterstützung für Forscher

Der Fonds wird laut dem Frontier Model Forum - zu dessen Mitgliedern Anthropic, Google, Microsoft und OpenAI gehören - Forscher unterstützen, die mit akademischen Institutionen, Forschungseinrichtungen und Start-ups verbunden sind. Die Anfangsfinanzierung wird sowohl vom Frontier Model Forum als auch von seinen philanthropischen Partnern, der Patrick J. McGovern Foundation, der David and Lucile Packard Foundation, dem ehemaligen Google-Chef Eric Schmidt und dem estnischen Milliardär Jaan Tallinn stammen.

Verwaltung des Fonds

Der Fonds wird vom Meridian Institute, einer gemeinnützigen Organisation mit Sitz in Washington, D.C., verwaltet, die laut Frontier Model Forum "in den nächsten Monaten" eine Aufforderung zur Einreichung von Vorschlägen veröffentlichen wird. Die Arbeit des Instituts wird von einem Beirat aus externen Experten, Experten aus KI-Unternehmen und "Personen mit Erfahrung in der Projektfinanzierung" unterstützt, fügte das Frontier Model Forum hinzu, ohne zu sagen, wer genau diese Experten und Personen sind oder wie groß der betreffende Beirat ist.

Ein Aufruf zur Einreichung von Beiträgen

"Wir erwarten zusätzliche Beiträge von anderen Partnern", heißt es in einer Pressemitteilung, die das Frontier Model Forum auf mehreren offiziellen Blogs veröffentlicht hat. "Das Hauptziel des Fonds wird es sein, die Entwicklung neuer Bewertungen und Modellierungstechniken zu unterstützen ... um Bewertungstechniken für die potenziell gefährlichen Fähigkeiten von Grenzsystemen zu entwickeln und zu testen."

Vergleich mit kommerziellen Investitionen

In der Tat sind 10 Millionen US-Dollar nicht unerheblich. (Genauer gesagt handelt es sich um 10 Millionen Dollar an Zusagen - die David and Lucile Packard Foundation hat noch keine offizielle Finanzierungszusage gemacht). Im Kontext der Forschung zur KI-Sicherheit erscheint dies jedoch eher, nun ja, konservativ - zumindest im Vergleich zu dem, was die Mitglieder des Frontier Model Forum für ihre kommerziellen Aktivitäten ausgegeben haben.

Allein in diesem Jahr hat Anthropic Milliarden von Dollar von Amazon aufgebracht, um einen KI-Assistenten der nächsten Generation zu entwickeln, nachdem Google 300 Millionen Dollar investiert hatte. Microsoft hat OpenAI 10 Milliarden US-Dollar zugesagt, und OpenAI - mit einem Jahresumsatz von weit über 1 Milliarde US-Dollar - soll sich in Gesprächen über den Verkauf von Aktien befinden, wodurch seine Bewertung auf fast 90 Milliarden US-Dollar steigen würde.

Vergleich mit anderen KI-Sicherheitszuschüssen

Der Fonds ist auch im Vergleich zu anderen Zuschüssen für KI-Sicherheit klein. Open Philanthropy, die von Facebook-Gründer Dustin Moskovitz mitgegründete Finanzierungs- und Forschungsstiftung, spendete laut einer Analyse auf dem Blog Less Wrong rund 307 Millionen US-Dollar für KI-Sicherheit. The Survival and Flourishing Fund, eine gemeinnützige Gesellschaft, die hauptsächlich von Tallinn finanziert wird, spendete rund 30 Millionen US-Dollar für Projekte zur KI-Sicherheit. Und die National Science Foundation der USA erklärte, dass sie in den nächsten zwei Jahren 20 Millionen US-Dollar für die Forschung im Bereich KI-Sicherheit ausgeben werde, unterstützt durch Zuschüsse von Open Philanthropy.

Die hohen Kosten der Forschung zur Sicherheit von KI

Forscher im Bereich der KI-Sicherheit werden nicht unbedingt Modelle der Stufe GPT-4 von Grund auf trainieren. Aber selbst kleinere und weniger leistungsfähige Modelle, die sie vielleicht testen möchten, wären mit der heutigen Ausrüstung teuer zu entwickeln, wobei die Kosten von Hunderttausenden bis zu Millionen Dollar reichen. Dabei sind andere Gemeinkosten, wie z. B. die Gehälter der Forscher, noch nicht berücksichtigt. (Datenwissenschaftler sind nicht billig).

Größeres Fondspotenzial in der Zukunft

Das Frontier Model Forum deutet an, dass es in Zukunft einen größeren Fonds geben wird. Wenn es dazu kommt, könnte er eine Chance haben, die Forschung zur KI-Sicherheit voranzutreiben - vorausgesetzt, die Förderer des gewinnorientierten Fonds verzichten auf eine unangemessene Einflussnahme auf die Forschung. Aber wie dem auch sei, die anfängliche Tranche scheint viel zu gering zu sein, um viel zu erreichen.

Teilen Sie Ihre Meinung mit

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..