Die neueste KI von DeepMind löst Geometrieprobleme auf unglaubliche Weise!

DeepMind enthüllt AlphaGeometry, ein KI-System, das geometrische Probleme löst

DeepMind, das KI-Forschungslabor von Google, glaubt, dass der Schlüssel zu leistungsfähigeren KI-Systemen darin liegen könnte, neue Wege zur Lösung komplexer geometrischer Probleme zu finden.

So hat DeepMind heute AlphaGeometry enthüllt - ein System, das nach Angaben des Labors so viele Geometrieprobleme lösen kann wie ein durchschnittlicher Goldmedaillengewinner der Internationalen Mathematikolympiade. Der Quellcode von AlphaGeometry wurde heute Morgen veröffentlicht. Das System löst 25 Geometrieprobleme der Olympiade in der vorgegebenen Zeit und übertrifft damit die 10 Probleme, die das vorherige, hochmoderne System gelöst hat.

"Geometrische Probleme auf Olympia-Niveau zu lösen, ist ein wichtiger Schritt in der Entwicklung vertieften mathematischen Denkens auf dem Weg zu fortgeschritteneren und allgemeineren KI-Systemen", schrieben Trieu Trinh und Thang Luong, KI-Forscher bei Google, in einem heute Morgen veröffentlichten Blogbeitrag. "[Wir] hoffen, dass ... AlphaGeometry neue Möglichkeiten in den Bereichen Mathematik, Wissenschaft und KI eröffnet."

Warum sollte man sich auf Geometrie konzentrieren?

DeepMind behauptet, dass das Beweisen mathematischer Theoreme oder das logische Erklären, warum ein Theorem (wie der Satz des Pythagoras) wahr ist, sowohl logisches Denken als auch die Fähigkeit erfordert, aus einer Reihe von möglichen Schritten zu einer Lösung auszuwählen. Dieser Problemlösungsansatz könnte sich, wenn DeepMind Recht hat, in KI-Systemen für den allgemeinen Gebrauch als nützlich erweisen.

"Der Nachweis, dass eine bestimmte Vermutung wahr oder falsch ist, stellt die Fähigkeiten selbst der fortschrittlichsten KI-Systeme von heute auf die Probe", heißt es in den DeepMind-Presseunterlagen, die wir mit uns geteilt haben. "In dieser Hinsicht ist die Fähigkeit, mathematische Theoreme zu beweisen ... ein wichtiger Schritt, da sie die Beherrschung des logischen Denkens und die Fähigkeit, neues Wissen zu entdecken, demonstriert."

Die Herausforderungen beim Training eines KI-Systems zur Lösung von Geometrieproblemen

Ein KI-System darauf zu trainieren, geometrische Probleme zu lösen, stellt einzigartige Herausforderungen dar.

Aufgrund der Komplexität der Übersetzung von Beweisen in ein maschinenverständliches Format besteht ein Mangel an brauchbaren Geometrie-Trainingsdaten. Darüber hinaus sind viele der heutigen hochmodernen generativen KI-Modelle zwar außergewöhnlich gut darin, Muster und Beziehungen in den Daten zu erkennen, es fehlt ihnen jedoch die Fähigkeit, logisch über Theoreme zu argumentieren.

Die Lösung von DeepMind war zweifach.

Die Konzeption von AlphaGeometry

Um AlphaGeometry zu entwerfen, hat das Labor ein Modell einer "neuronalen Sprache" - ein architektonisch ähnliches Modell wie ChatGPT - mit einer "symbolischen Deduktionsmaschine" kombiniert, einer Maschine, die Regeln (z. B. mathematische Regeln) verwendet, um Lösungen für Probleme abzuleiten. Symbolische Engines können unflexibel und langsam sein, insbesondere wenn sie große oder komplexe Datensätze verarbeiten. DeepMind hat diese Probleme jedoch gemildert, indem das neuronale Modell die Deduktionsmaschine durch die möglichen Antworten auf die gegebenen Geometrieprobleme "führt".

In Ermangelung von Trainingsdaten erstellte DeepMind seine eigenen synthetischen Daten und generierte 100 Millionen "synthetische Theoreme" und Beweise von unterschiedlicher Komplexität. Das Labor trainierte AlphaGeometry dann von Grund auf mit den synthetischen Daten und bewertete es anhand von Geometrieproblemen aus der Olympiade.

Die Geometrieaufgaben der Olympiade basieren auf Diagrammen, denen man "Konstrukte" hinzufügen muss, bevor man sie lösen kann, z. B. Punkte, Linien oder Kreise. Angewandt auf diese Probleme sagt das neuronale Modell von AlphaGeometry voraus, welche Konstruktionen nützlich sein könnten, um sie hinzuzufügen - Vorhersagen, die die symbolische Engine von AlphaGeometry nutzt, um Rückschlüsse auf die Diagramme zu ziehen, um ähnliche Lösungen zu identifizieren.

Die Debatte über symbolische und neuronale Ansätze

Die Problemlösungsergebnisse von AlphaGeometry, die diese Woche in einer Studie in der Zeitschrift Nature veröffentlicht wurden, dürften die langjährige Debatte darüber anheizen, ob KI-Systeme auf Symbolmanipulation - also der Handhabung von Symbolen, die Wissen mithilfe von Regeln darstellen - oder auf neuronalen Netzen, die der Funktionsweise des Gehirns näher kommen, aufgebaut werden sollten.

Die Befürworter des Ansatzes der neuronalen Netze argumentieren, dass intelligentes Verhalten - von der Spracherkennung bis zur Bilderzeugung - aus nichts anderem als riesigen Datenmengen und Berechnungen hervorgehen kann. Im Gegensatz zu symbolischen Systemen, die Aufgaben lösen, indem sie Sätze von Regeln für die Handhabung von Symbolen definieren, die bestimmten Aufgaben gewidmet sind (wie das Bearbeiten einer Zeile in einem Textverarbeitungsprogramm), versuchen neuronale Netze, Aufgaben durch statistische Annäherung und Lernen aus Beispielen zu lösen.

Neuronale Netze sind der Grundstein für leistungsstarke KI-Systeme wie OpenAIs DALL-E 3 und GPT-4. Nach Ansicht der Befürworter der symbolischen KI sind sie jedoch kein Allheilmittel; die symbolische KI könnte besser geeignet sein, das Wissen der Welt effizient zu kodieren, in komplexen Szenarien zu argumentieren und zu "erklären", wie sie zu einer Antwort gekommen ist.

AlphaGeometry: ein symbolisch-neuronaler Hybridansatz

Als symbolisch-neuronales Netz-Hybridsystem ähnlich wie AlphaFold 2 und AlphaGo von DeepMind zeigt AlphaGeometry vielleicht, dass beide Ansätze - Symbolmanipulation und neuronale Netze - in Kombination der beste Weg auf der Suche nach einer verallgemeinerbaren KI sind.

"Unser langfristiges Ziel bleibt es, KI-Systeme zu bauen, die in der Lage sind, in allen mathematischen Bereichen zu verallgemeinern, indem sie anspruchsvolle Problemlösungs- und Denkfähigkeiten entwickeln, auf die allgemeine KI-Systeme angewiesen sein werden, während sie die Grenzen des menschlichen Wissens erweitern", schreiben Trinh und Luong. "Dieser Ansatz könnte die Art und Weise prägen, wie die KI-Systeme der Zukunft neues Wissen entdecken, in der Mathematik und darüber hinaus."

Teilen Sie Ihre Meinung mit

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..