Was genau ist passiert?
Price, so sagte er gegenüber Scientific American, war nicht einmal bewusst, um welches Problem es ging. "Ich beschäftige mich nur gelegentlich mit Erdős’ Problemen," gestand er und gab zu, dass er die KI einfach ausprobieren wollte. Und dann, voilà—die KI lieferte eine scheinbar korrekte Lösung. Das Erdős-Problem #1196 ist jetzt auf erdosproblems.com offiziell als gelöst eingestuft, wobei der Beweis von einem Beweisassistenten, genannt Lean, verifiziert wurde. Ein bemerkenswerter Prozess, nicht wahr?
Innerhalb der Mathematik: Die Struktur primitiver Mengen verstehen
Was hat Price dabei bewiesen? Im Zentrum dieser Diskussion steht eine Vermutung von Paul Erdős, András Sárközy und Endre Szemerédi. Dabei geht es um die Struktur primitiver Mengen. Eine primitive Menge beinhaltet ganze Zahlen größer als 1, zum Beispiel—kein Element teilt ein anderes. Solche Mengen, die als primitiv gelten, haben eine charakteristische Summe—oft als „Erdős-Summe“ bekannt. Sie wird definiert als:
Wenn man sich dem Erdős-Problem #1196 zuwendet, beschäftigt man sich mit primitiven Mengen, deren Elemente alle größer als ein Parameter x sind. Eine bemerkenswerte Diskussion, wobei man sich fragt: Was genau liefert die Erdős-Vermutung? Sie besagt, zusammengefasst, dass die Erdős-Summe solcher Mengen asymptotisch nicht größer als 1 wird.
Der Durchbruch mit GPT-5.4 Pro
Die Neuigkeit hier ist—Price konnte zeigen, dass für jede primitive Menge A aus [x, ∞) eine schärfere Schranke gültig ist, die tatsächlich asymptotisch gegen 1 konvergiert. Diese Erkenntnis bietet eine explizite Konvergenzrate: Der Abstand zur Schranke 1 verringert sich mindestens proportional zu 1/log x. Eine elegante Lösung, die die Mathematikwelt aufhorchen lässt.
Methoden: Die Brücke zwischen Theorie und Praxis
Die originale Idee für den Beweis überrascht. GPT-5.4 Pro hat einen Zugang über Markov-Ketten vorgeschlagen. Dies ist ein kreativer Ansatz; die ganzen Zahlen werden als zufälliger Prozess betrachtet. Primfaktoren werden schrittweise aus einer Zahl n herausgezogen—ein originelles Konzept. Tools der Wahrscheinlichkeitstheorie helfen bei dieser Analyse.
Die Verbindung zwischen analytischer Zahlentheorie und stochastischer Prozess-Theorie—pure Mathematik, die die Gedanken der renommierten Forscher Terence Tao inspiriert hat, um das Thema klarer zu definieren. Komplex und dennoch faszinierend.
Ein Unterschied, der Neues erahnen lässt
Dieser Beweis stellt jedoch etwas Einzigartiges dar. Im Herbst 2025 sorgte eine Reihe angeblicher KI-Lösungen von OpenAI für Aufregung. Die Ernüchterung kam—terrifiziert! Terence Tao und Thomas Bloom klärten auf, dass diese Modelle keine neuen Beweise gefunden hatten. Sie hatten lediglich vorhandene Resultate entdeckt—aber diesmal ist das nicht passiert.
"Die Fachliteratur hat sich auf einen suboptimalen Ansatz konzentriert" stellte Tao fest. Das zeigt, wie essenziell es ist, den richtigen Blickwinkel zu setzen. Die KI-Läufe blieben in der diskreten Welt—allerdings eine interessante Strategie, die zu neuen Lösungen führte.
Das Ergebnis des KI-geführten Beweises war jedoch mühsam. Laut Lichtman war die Rohausgabe von GPT-5.4 Pro nicht publikationsreif. Es braucht einen Experten, um zu verstehen, was das Modell tatsächlich gemeint hat. Lichtman und Tao haben den Beweis bearbeitet und klargestellt. Die Einsicht des Sprachmodells blitzt klarer hervor—dass KI zur Verstärkung menschlicher Forschung eingesetzt wird, ist bemerkenswert.
Kann KI tatsächlich neues Wissen entdecken?
Dies führt zur grundlegenden Debatte, die im Raum steht: Können große Sprachmodelle wirklich neues Wissen in der Mathematik schaffen? Eine notwendige Frage. Zehn führende Mathematiker haben diese Fragestellung bereits untersucht. Sie sind jedoch zu ernüchternden Ergebnissen gelangt, die die KI-Kreativität in Frage stellen. Tao mahnt zur Vorsicht—bei der Betrachtung der Erdős-Probleme sieht man, wie vielschichtig die Herausforderungen tatsächlich sind. Erfolgreiche Fälle werden oft beim Namen genannt.