Der Mathematiker präsentierte eine Lösung der Riemann-Hypothese. Warum kritisiert ihn die wissenschaftliche Gemeinschaft?

Der berühmte britische Mathematiker Michael Atiyah, Professor an den Instituten Oxford, Cambridge und Edinburgh und Gewinner von fast einem Dutzend prestigeträchtiger Preise auf dem Gebiet der Mathematik, legte einen Beweis für die Vermutung vor, eines der „Millenniumsprobleme“. Der Beweis umfasst nur 15 Zeilen und zusammen mit der Einleitung und dem Literaturverzeichnis fünf Seiten. Text von Atiyah Gesendet auf dem Drive-Dienst.

Die Hypothese über die Nullstellenverteilung der Riemannschen Zetafunktion wurde 1859 vom Mathematiker Bernhard Riemann formuliert.

Es beschreibt, wie Primzahlen auf der Zahlengeraden liegen.

Während kein Muster gefunden wurde, das die Verteilung der Primzahlen unter den natürlichen Zahlen beschreibt, entdeckte Riemann, dass die Anzahl der Primzahlen, die x nicht überschreiten – die Primzahlenverteilungsfunktion mit der Bezeichnung π(x) – durch die Verteilung der sogenannten ausgedrückt wird „nichttriviale Nullstellen“ » Zetafunktionen.

Die Riemann-Hypothese besagt, dass alle nichttrivialen Nullstellen der Zeta-Funktion auf der vertikalen Linie Re=0,5 der komplexen Ebene liegen. Die Riemann-Hypothese ist nicht nur für die reine Mathematik wichtig – die Zeta-Funktion taucht immer wieder in praktischen Problemen mit Primzahlen auf, beispielsweise in der Kryptographie.

Laut Atiyah fand er die Lösung, indem er mit der Feinstrukturkonstante experimentierte – einer grundlegenden physikalischen Konstante, die die Stärke der elektromagnetischen Wechselwirkung charakterisiert. Es bestimmt die Größe einer sehr kleinen Änderung der Größe (Aufspaltung) der Energieniveaus eines Atoms und damit die Bildung einer Feinstruktur – einer Reihe schmaler und nahe beieinander liegender Frequenzen in seinen Spektrallinien.

Die Riemann-Hypothese ist eines der sieben „Millennium-Probleme“, für deren Lösung das Clay Mathematics Institute in den USA jeweils eine Belohnung von einer Million US-Dollar zahlen muss.

Wenn der Beweis bestätigt wird, erhält Atiyah eine Belohnung.

Das Clay Mathematics Institute gab am 19. März 2010 seine Entscheidung bekannt, Perelman den Preis zu verleihen. Die Arbeiten, für die der Mathematiker den Preis erhielt, wurden 2002 von ihm verfasst und in einem Archiv elektronischer Vorabdrucke veröffentlicht und nicht in einer von Experten begutachteten wissenschaftlichen Zeitschrift veröffentlicht. Mit seinen Berechnungen vervollständigte Perelman den Beweis der Geometrisierungsvermutung von Thurston, die in direktem Zusammenhang mit der Poincaré-Vermutung steht.

Im Jahr 2005 wurde Perelman für diese Arbeit mit der Fields-Medaille ausgezeichnet, die oft als Nobelpreis für Mathematiker bezeichnet wird. Auch diese Auszeichnung lehnte der russische Mathematiker ab.

Im Jahr 2014 löste ein Mathematiker aus Kasachstan, Mukhtarbai Otelbaev, ein weiteres „Millenniumsproblem“ – er fand die Bedingungen für das System der Navier-Stokes-Gleichungen, unter denen es für jeden Parametersatz eine eindeutige Lösung gibt. Die Navier-Stokes-Gleichungen sind ein System partieller Differentialgleichungen, die die Bewegung einer viskosen Newtonschen Flüssigkeit beschreiben. Die Navier-Stokes-Gleichungen gehören zu den wichtigsten in der Hydrodynamik und werden bei der mathematischen Modellierung vieler Naturphänomene und technischer Probleme verwendet.

Um Otelbaevs Entscheidung als richtig anzuerkennen, muss die wissenschaftliche Gemeinschaft sie überprüfen. Bisher sind die Ergebnisse des Tests unbekannt.

Im Jahr 2010 löste der indisch-amerikanische Mathematiker Vinay Deolalikar ein weiteres Problem des Jahrtausends – er fand einen Beweis für die Ungleichheit der Komplexitätsklassen P und NP.

Dieses Problem ist wie folgt: Wenn eine positive Antwort auf eine Frage schnell überprüft werden kann (in Polynomzeit), dann stimmt es, dass die Antwort auf diese Frage schnell gefunden werden kann (in Polynomzeit und unter Verwendung des Polynomspeichers), d. h. Ist das Problem wirklich wahr? Ist es einfacher zu überprüfen als zu lösen?

Es gibt noch keine Beweise dafür, dass die wissenschaftliche Gemeinschaft die Beweise als richtig akzeptiert hat.

Ich wollte ausführlicher über Henri Poincarés scheinbar kürzlich bewiesene Vermutung sprechen, beschloss dann aber, „das Problem zu erweitern“ und „alles“ in komprimierter Form zu erzählen. So identifizierte das Clay Institute of Mathematics in Boston im Jahr 2000 die „sieben Jahrtausendprobleme“ und vergab für die Lösung jedes dieser Probleme Preise in Höhe von einer Million Dollar. Hier sind sie:

1. Poincaré-Vermutung
2. Riemann-Hypothese
3. Navier-Stokes-Gleichung
4. Cooks Vermutung
5. Hodge-Vermutung
6. Yang-Millis-Theorie
7. Birch-Swinnerton-Dyer-Hypothese

Wir werden das nächste Mal über die Poincaré-Vermutung sprechen, jetzt werden wir allgemein über andere Probleme sprechen

Riemann-Hypothese (1859)

Jeder weiß, was Primzahlen sind – das sind Zahlen, die durch 1 und sich selbst teilbar sind. Diese. 1, 2, 3, 5, 7, 11, 13, 17, 19 usw. Interessant ist jedoch, dass es bisher unmöglich war, ein Muster in ihrer Platzierung zu erkennen.
Daher wird angenommen, dass in der Umgebung einer ganzen Zahl x der durchschnittliche Abstand zwischen aufeinanderfolgenden Primzahlen proportional zum Logarithmus von x ist. Allerdings sind die sogenannten gepaarten Primzahlen (Zwillingsprimzahlen, deren Differenz 2 beträgt, zum Beispiel 11 und 13, 29 und 31, 59 und 61) schon lange bekannt. Manchmal bilden sie ganze Cluster, zum Beispiel 101. 103, 107, 109 und 113. Wenn solche Cluster im Bereich sehr großer Primzahlen gefunden werden, kann die Stärke der derzeit verwendeten kryptografischen Schlüssel plötzlich in Frage gestellt werden.
Riemann schlug seine eigene Version vor, die zur Identifizierung großer Primzahlen geeignet ist. Ihm zufolge könnte die Art der Verteilung von Primzahlen erheblich von den derzeit angenommenen abweichen. Riemann entdeckte, dass die Anzahl P(x) der Primzahlen, die x nicht überschreitet, durch die Verteilung nichttrivialer Nullstellen der Riemannschen Zetafunktion Z(s) ausgedrückt wird. Riemann stellte die bislang weder bewiesene noch widerlegte Hypothese auf, dass alle nichttrivialen Nullstellen der Zeta-Funktion auf der Geraden R(z) = (1/2) liegen. (Tut mir leid, aber ich weiß nicht, wie ich die Kodierung ändern kann, um griechische Buchstaben anzuzeigen.)
Im Allgemeinen wird es durch den Beweis der Riemann-Hypothese (wenn überhaupt möglich) und die Wahl des geeigneten Algorithmus möglich sein, viele Passwörter und Geheimcodes zu knacken.

Navier-Stokes-Gleichung. (1830)

Nichtlineares Difur, das die thermische Konvektion von Flüssigkeiten und Luftströmen beschreibt. Es ist eine der Schlüsselgleichungen in der Meteorologie.

p – Druck
F – äußere Kraft
r (rho) - Dichte
n (nu) – Viskosität
v - komplexe Geschwindigkeit

Wahrscheinlich ist seine genaue analytische Lösung aus rein mathematischer Sicht interessant, es gibt jedoch schon seit langem Näherungslösungsverfahren. Wie in solchen Fällen üblich, wird das nichtlineare Difur in mehrere lineare unterteilt; außerdem erwies sich die Lösung des Systems der linearen Difur als ungewöhnlich empfindlich gegenüber den Anfangsbedingungen. Dies wurde deutlich, als mit der Einführung von Computern die Verarbeitung großer Datenmengen möglich wurde. So stellte 1963 ein amerikanischer Meteorologe vom Massachusetts Institute of Technology, Edward Lorenz, die Frage: Warum führte die rasche Verbesserung der Computer nicht zur Verwirklichung des Traums der Meteorologen – einer zuverlässigen mittelfristigen (2-3 Wochen in Voraussichtliche Wettervorhersage? Edward Lorenz schlug das einfachste Modell zur Beschreibung der Luftkonvektion vor, das aus drei gewöhnlichen Differentialgleichungen bestand, berechnete es am Computer und erzielte ein erstaunliches Ergebnis. Dieses Ergebnis – dynamisches Chaos – ist eine komplexe nichtperiodische Bewegung, die in deterministischen Systemen (d. h. in solchen, in denen die Zukunft eindeutig durch die Vergangenheit bestimmt wird) einen endlichen Prognosehorizont hat. So wurde der seltsame Attraktor entdeckt. Der Grund für die Unvorhersehbarkeit des Verhaltens dieses und anderer ähnlicher Systeme liegt nicht darin, dass der mathematische Satz über die Existenz und Einzigartigkeit einer Lösung unter gegebenen Anfangsbedingungen nicht wahr ist, sondern vielmehr in der außerordentlichen Empfindlichkeit der Lösung gegenüber diesen Anfangsbedingungen. Enge Anfangsbedingungen führen mit der Zeit zu einem völlig anderen Endzustand des Systems. Darüber hinaus wächst der Unterschied im Laufe der Zeit oft exponentiell, also extrem schnell.

Cooks Hypothese (1971)

Wie schnell Sie eine bestimmte Antwort überprüfen können, ist ein ungelöstes Problem in der Logik und in Computerberechnungen! Stephen Cook formulierte es wie folgt: „Kann die Überprüfung der Richtigkeit einer Lösung für ein Problem unabhängig vom Verifizierungsalgorithmus länger dauern als das Erhalten der Lösung selbst?“ Die Lösung dieses Problems könnte die Grundlagen der Kryptographie bei der Datenübertragung und -speicherung revolutionieren und die Entwicklung des sogenannten Algorithmus vorantreiben. „Quantencomputer“, die wiederum dazu beitragen, den Algorithmus zur Lösung von Problemen im Zusammenhang mit Brute-Force-Codes zu beschleunigen (z. B. das gleiche Knacken von Passwörtern).
Gegeben sei eine Funktion von 10000 Variablen: f (x 1 ... x 10000), der Einfachheit halber nehmen wir an, dass die Variablen die Werte 0 oder 1 annehmen können, das Ergebnis der Funktion ist auch 0 oder 1. Das gibt es ein Algorithmus, der diese Funktion für jeden gegebenen Satz von Argumenten in relativ kurzer Zeit berechnet (sagen wir für t=0,1 Sek.).
Wir müssen herausfinden, ob es eine Menge von Argumenten gibt, bei denen der Wert der Funktion gleich 1 ist. In diesem Fall ist die Menge der Argumente selbst, bei denen die Funktion gleich 1 ist, für uns nicht von Interesse. Wir müssen nur wissen, ob er da ist oder nicht. Was wir tun können? Am einfachsten ist es, die gesamte Folge von 1 bis 10000 in allen Kombinationen zu nehmen und dummerweise durchzugehen und dabei den Wert der Funktion für verschiedene Mengen zu berechnen. Im schlimmsten Fall werden wir dafür 2 tN oder 2 1000 Sekunden aufwenden, was einem Vielfachen des Alters des Universums entspricht.
Aber wenn wir die Natur der Funktion f kennen, dann
Sie können die Suche reduzieren, indem Sie Sätze von Argumenten verwerfen, für die die Funktion offensichtlich gleich 0 ist. Bei vielen realen Problemen können sie dadurch in akzeptabler Zeit gelöst werden. Gleichzeitig gibt es Probleme (sog. NP-vollständige Probleme), bei denen auch nach Reduzierung der Suche die Gesamtlösungszeit inakzeptabel bleibt.

Nun zur physischen Seite. Es ist bekannt, dass Quanten
kann sich mit einiger Wahrscheinlichkeit im Zustand 0 oder 1 befinden. Und das Interessante ist, dass Sie herausfinden können, in welchem ​​Zustand es sich befindet:

A: 0 mit Wahrscheinlichkeit 1
B: 1 mit Wahrscheinlichkeit 1
C: 0 mit Wahrscheinlichkeit p, 1 mit Wahrscheinlichkeit 1-p

Der Kern von Berechnungen auf einem Quantencomputer besteht darin, 1000 Quanten im Zustand C zu nehmen und sie dem Eingang der Funktion f zuzuführen. Wenn am Ausgang ein Quant im Zustand A erhalten wird, bedeutet dies, dass f = 0 auf allen möglichen Mengen ist. Nun, wenn die Ausgabe ein Quantum im Zustand erzeugt
B oder C, das bedeutet, dass es eine Menge gibt, auf der f=1 ist.
Offensichtlich. dass ein „Quantencomputer“ Aufgaben im Zusammenhang mit dem Sortieren von Daten erheblich beschleunigen wird, jedoch hinsichtlich der Beschleunigung des Schreibens oder Lesens von Daten unwirksam sein wird.

Yang-Mills-Theorie

Dies ist wahrscheinlich das einzige der sieben identifizierten Probleme, das von wirklich grundlegender Bedeutung ist. Die Lösung wird die Schaffung einer „einheitlichen Feldtheorie“, d. h. Identifizierung einer deterministischen Verbindung zwischen vier bekannten Arten von Interaktionen

1. Gravitation
2. Elektromagnetisch
3. Stark
4. Schwach

Im Jahr 1954 schlugen Yang Zhenning (ein Mitglied der gelben Wurzelrasse) und Robert Mills eine Theorie vor, die die elektromagnetischen und schwachen Kräfte vereinte (Glashow, Weinberg, Salam – Nobelpreis 1979). Darüber hinaus dient es immer noch als Grundlage der Quantenfeldtheorie. Aber hier hat der mathematische Apparat bereits begonnen zu versagen. Tatsache ist, dass sich „Quantenteilchen“ in der Newtonschen Physik völlig anders verhalten als „große Körper“. Und obwohl es Gemeinsamkeiten gibt, erzeugt beispielsweise ein geladenes Teilchen ein elektromagnetisches Feld und ein Teilchen mit einer Masse ungleich Null ein Gravitationsfeld; oder ein Partikel entspricht beispielsweise einer Reihe von Feldern, die es erzeugt, da jede Interaktion mit anderen Partikeln über diese Felder erfolgt; Aus physikalischer Sicht ist die Betrachtung der von einem Teilchen erzeugten Felder dasselbe wie die Betrachtung des Teilchens selbst.
Aber das ist sozusagen „eine erste Annäherung“.
Im Quantenansatz kann das gleiche Teilchen auf zwei verschiedene Arten beschrieben werden: als Teilchen mit einer bestimmten Masse und als Welle mit einer bestimmten Länge. Eine einzelne Teilchenwelle wird nicht durch ihre Position im Raum, sondern durch eine Wellenfunktion (normalerweise als Y bezeichnet) beschrieben, und ihre Position ist probabilistischer Natur – die Wahrscheinlichkeit, ein Teilchen an einem bestimmten Punkt x zu einer bestimmten Zeit t zu finden ist Y = P(x,t)^2 . Es scheint nichts Ungewöhnliches zu sein, aber auf der Ebene von Mikropartikeln entsteht der folgende „unangenehme“ Effekt: Wenn mehrere Felder gleichzeitig auf ein Partikel einwirken, kann ihre kombinierte Wirkung nicht mehr in die Wirkung jedes einzelnen von ihnen zerlegt werden, das klassische Prinzip der Überlagerung funktioniert nicht. Dies liegt daran, dass in dieser Theorie nicht nur Materieteilchen voneinander angezogen werden, sondern auch die Feldlinien selbst. Dadurch werden die Gleichungen nichtlinear und das gesamte Arsenal mathematischer Techniken zur Lösung linearer Gleichungen kann nicht auf sie angewendet werden. Lösungen zu finden und sogar deren Existenz nachzuweisen, wird zu einer ungleich schwierigeren Aufgabe.
Deshalb ist es wahrscheinlich unmöglich, es „frontal“ zu lösen; Theoretiker haben einen anderen Weg gewählt. Basierend auf den Schlussfolgerungen von Young und Mills entwickelte Murray Gell-Mann die Theorie der starken Wechselwirkung (Nobelpreis).
Das Hauptmerkmal der Theorie ist die Einführung von Teilchen mit gebrochener elektrischer Ladung – Quarks.

Doch um elektromagnetische, starke und schwache Wechselwirkungen mathematisch miteinander zu „verknüpfen“, müssen drei Bedingungen erfüllt sein:

1. Das Vorhandensein einer „Lücke“ im Massenspektrum, auf Englisch – Massenlücke
2. Quark-Einschluss: Quarks sind in Hadronen eingeschlossen und können grundsätzlich nicht in freier Form erhalten werden
3. Symmetrieverletzungen

Experimente haben gezeigt, dass diese Bedingungen im wirklichen Leben erfüllt sind, es gibt jedoch keinen strengen mathematischen Beweis. Diese. Tatsächlich ist es notwendig, die I-M-Theorie an einen vierdimensionalen Raum anzupassen, der die drei angegebenen Eigenschaften aufweist. Für mich kostet diese Aufgabe weit mehr als eine Million. Und obwohl kein einziger anständiger Physiker an der Existenz von Quarks zweifelt, konnten sie experimentell nicht nachgewiesen werden. Es wird davon ausgegangen, dass auf einer Skala von 10 -30 zwischen der elektromagnetischen, starken und schwachen Wechselwirkung jeglicher Unterschied verloren geht (die sogenannte „Große Vereinigung“), außerdem beträgt die für solche Experimente benötigte Energie (mehr als 10 16). GeV) kann an Beschleunigern nicht gewonnen werden. Aber keine Sorge – die Große Vereinigung wird in den kommenden Jahren auf die Probe gestellt, es sei denn natürlich, dass der Menschheit irgendwelche unnötigen Probleme auferlegt werden. Physiker haben bereits ein Testexperiment zur Protoneninstabilität (eine Folge der J-M-Theorie) entwickelt. Aber dieses Thema sprengt den Rahmen unserer Botschaft.

Denken wir daran, dass das noch nicht alles ist. Die letzte Bastion bleibt – die Schwerkraft. Wir wissen wirklich nichts darüber, außer dass „alles angezogen wird“ und „die Raumzeit gekrümmt ist“. Es ist klar, dass alle Kräfte der Welt auf eine Supermacht oder, wie sie sagen, „Supervereinigung“ hinauslaufen. Aber was ist das Prinzip der Supervereinigung? Alik Einstein glaubte, dass dieses Prinzip geometrisch sei, genau wie das Prinzip der Allgemeinen Relativitätstheorie. Es kann durchaus sein. Diese. Physik ist auf ihrer grundlegendsten Ebene nur Geometrie.

Birch- und Swinnerton-Dyer-Vermutung

Erinnern Sie sich an Fermats letzten Satz, der 1994 scheinbar von einem Engländer bewiesen wurde? Es hat 350 Jahre gedauert! Jetzt geht das Problem also weiter – wir müssen alle Lösungen in ganzen Zahlen beschreiben
x, y, z algebraische Gleichungen, also Gleichungen mehrerer Variablen
mit ganzzahligen Koeffizienten. Ein Beispiel für eine algebraische Gleichung ist die Gleichung
x 2 + y 2 = z 2 . Euklid gab eine vollständige Beschreibung
Lösungen für diese Gleichung, für komplexere Gleichungen jedoch das Erhalten einer Lösung
wird extrem schwierig (zum Beispiel der Beweis der Abwesenheit ganzer Zahlen).
Lösungen der Gleichung x n + y n = z n).
Birch und Swinnerton-Dyer schlugen vor, dass die Anzahl der Lösungen durch den Wert der Zeta-Funktion ζ(s) bestimmt wird, die der Gleichung an Punkt 1 zugeordnet ist: Wenn der Wert der Zeta-Funktion ζ(s) an Punkt 1 0 ist, dann es gibt unendlich viele Lösungen, und umgekehrt, wenn ungleich 0, dann gibt es nur endlich viele solcher Lösungen. Hier hat das Problem übrigens etwas mit der Riemann-Hypothese gemeinsam, nur wurde dort die Verteilung nichttrivialer Nullstellen der Zeta-Funktion ζ(s) untersucht

Hodge-Vermutung
Wahrscheinlich das abstrakteste Thema.
Um die Eigenschaften komplexer geometrischer Objekte zu beschreiben, werden bekanntlich deren Eigenschaften angenähert. Nun, zum Beispiel kann man sich einen Ball (obwohl es überhaupt nicht kompliziert ist) als eine Oberfläche vorstellen, die aus kleinen Quadraten besteht. Wenn es jedoch komplexere Oberflächen gibt, stellt sich die Frage, inwieweit wir die Form eines bestimmten Objekts durch Zusammenkleben einfacher Körper mit zunehmender Dimension annähern können? Diese Methode erwies sich bei der Beschreibung verschiedener in der Mathematik vorkommender Objekte als wirksam, in einigen Fällen war es jedoch erforderlich, Teile hinzuzufügen, die keine geometrische Interpretation hatten.
Ich habe Gelfand-Manins abstruses Buch zu diesem Thema durchgesehen, es beschreibt Hodges Theorie für glatte, nicht kompakte Formationen, aber um ehrlich zu sein, habe ich nicht viel verstanden, ich verstehe analytische Geometrie im Allgemeinen nicht wirklich. Der Punkt ist, dass Integrale über einige Zyklen mithilfe von Residuen berechnet werden können, und moderne Computer sind darin gut.
Die Hodge-Vermutung selbst besteht darin, dass für bestimmte Arten von Räumen sogenannte projektive algebraische Varietäten, die sogenannten. Hodge-Zyklen sind Kombinationen von Objekten, die eine geometrische Interpretation haben – algebraische Zyklen.

Antwort des Herausgebers

Michael Francis Atiyah, Professor an den Universitäten Oxford, Cambridge und Edinburgh und Gewinner von fast einem Dutzend prestigeträchtiger Mathematikpreise, präsentierte einen Beweis der Riemann-Hypothese, eines der sieben „Millenniumsprobleme“, das beschreibt, wie Primzahlen sind liegt auf dem Zahlenstrahl.

Atiyahs Beweis ist kurz; zusammen mit der Einleitung und der Bibliographie nimmt er fünf Seiten ein. Der Wissenschaftler behauptet, dass er eine Lösung für die Hypothese gefunden habe, indem er Probleme im Zusammenhang mit der Feinstrukturkonstante analysierte und die Todd-Funktion als Werkzeug verwendete. Wenn die wissenschaftliche Gemeinschaft den Beweis für richtig hält, erhält der Brite dafür eine Million Dollar vom Clay Mathematics Institute in Cambridge, Massachusetts.

Auch andere Wissenschaftler konkurrieren um den Preis. Im Jahr 2015 verkündete er die Lösung der Riemann-Hypothese Professor für Mathematik Opeyemi Enoch aus Nigeria und legte 2016 seinen Beweis für die Hypothese vor Der russische Mathematiker Igor Turkanow. Laut Vertretern des Instituts für Mathematik ist für die Anerkennung der Leistung eine Veröffentlichung in einer renommierten internationalen Fachzeitschrift und eine anschließende Bestätigung des Nachweises durch die wissenschaftliche Gemeinschaft erforderlich.

Was ist der Kern der Hypothese?

Die Hypothese wurde bereits 1859 von dem Deutschen formuliert Mathematiker Bernhard Riemann. Er definierte eine Formel, die sogenannte Zeta-Funktion, für die Anzahl der Primzahlen bis zu einem bestimmten Grenzwert. Der Wissenschaftler fand heraus, dass es kein Muster gibt, das beschreibt, wie oft Primzahlen in einer Zahlenreihe vorkommen, und er entdeckte, dass die Anzahl der Primzahlen nicht größer ist X wird durch die Verteilung der sogenannten „nichttrivialen Nullstellen“ der Zeta-Funktion ausgedrückt.

Riemann war von der Richtigkeit der abgeleiteten Formel überzeugt, konnte jedoch nicht feststellen, auf welcher einfachen Aussage diese Verteilung vollständig beruhte. Infolgedessen stellte er die Hypothese auf, dass alle nicht trivialen Nullstellen der Zeta-Funktion einen Realteil gleich ½ haben und auf der vertikalen Linie Re=0,5 der komplexen Ebene liegen.

Der Beweis oder die Widerlegung der Riemann-Hypothese sei für die Theorie der Primzahlenverteilung sehr wichtig, sagt er Doktorand der Fakultät für Mathematik der Higher School of Economics Alexander Kalmynin. „Die Riemann-Hypothese ist eine Aussage, die einer Formel für die Anzahl der Primzahlen entspricht, die eine bestimmte Zahl nicht überschreitet X. Mit der Hypothese können Sie beispielsweise schnell und genau die Anzahl der Primzahlen berechnen, die beispielsweise 10 Milliarden nicht überschreiten. Dies ist nicht der einzige Wert der Hypothese, da sie auch eine Reihe recht weitreichender Verallgemeinerungen aufweist. die als verallgemeinerte Riemann-Hypothese, erweiterte Riemann-Hypothese und große Riemann-Hypothese bekannt sind. Sie sind für verschiedene Zweige der Mathematik noch wichtiger, aber zunächst einmal wird die Bedeutung der Hypothese durch die Theorie der Primzahlen bestimmt“, sagt Kalmynin.

Laut dem Experten lassen sich mit der Hypothese eine Reihe klassischer Probleme der Zahlentheorie lösen: das Gaußsche Problem über quadratische Körper (das zehnte Diskriminanzproblem), das Eulersche Problem über bequeme Zahlen, die Vinogradov-Vermutung über quadratische Nichtreste usw. In In der modernen Mathematik wird diese Hypothese verwendet, um Aussagen über Primzahlen zu beweisen. „Wir gehen sofort davon aus, dass eine starke Hypothese wie die Riemann-Hypothese wahr ist, und sehen, was passiert. Wenn es uns gelingt, stellen wir die Frage: Können wir dies beweisen, ohne eine Hypothese vorauszusetzen? Und obwohl eine solche Aussage immer noch über dem liegt, was wir erreichen können, wirkt sie wie ein Leuchtturm. Aufgrund der Tatsache, dass es eine solche Hypothese gibt, können wir überlegen, wohin wir gehen sollten“, sagt Kalmynin.

Der Nachweis einer Hypothese kann ebenfalls Einfluss auf die Verbesserung haben Informationstechnologien, da Verschlüsselungs- und Verschlüsselungsprozesse heute von der Effizienz verschiedener Algorithmen abhängen. „Wenn wir zwei einfache große Zahlen mit jeweils vierzig Ziffern nehmen und multiplizieren, erhalten wir eine große achtzigstellige Zahl. Wenn Sie sich die Aufgabe stellen, diese Zahl zu faktorisieren, handelt es sich um ein sehr komplexes Rechenproblem, auf dem viele Fragen der Informationssicherheit basieren. Bei allen geht es darum, unterschiedliche Algorithmen zu entwickeln, die mit derartigen Komplexitäten umgehen“, sagt Kalmynin.

Am 8. August 1900 formulierte einer der größten Mathematiker unserer Zeit, David Hilbert, auf dem 2. Internationalen Mathematikerkongress in Paris 23 Probleme, die die Entwicklung der Mathematik im 20. Jahrhundert weitgehend vorgaben. Im Jahr 2000 entschieden Experten des Clay Mathematics Institute, dass es eine Sünde wäre, in das neue Jahrtausend zu gehen, ohne ein neues Entwicklungsprogramm zu skizzieren, zumal nur noch zwei von Hilberts 23 Problemen übrig blieben [Zwei weitere wurden als zu vage oder nicht mathematisch angesehen , eine andere wurde teilweise gelöst, und bezüglich einer anderen – der berühmten Kontinuumshypothese – wurde noch kein Konsens erzielt ()].

Als Ergebnis erschien eine berühmte Liste von sieben Problemen, für deren vollständige Lösung jeweils eine Million Dollar aus einem eigens eingerichteten Fonds versprochen wurden. Um das Geld zu erhalten, müssen Sie die Entscheidung veröffentlichen und zwei Jahre warten; Wenn es innerhalb von zwei Jahren niemand widerlegt (seien Sie versichert, sie werden es versuchen), erhalten Sie eine Million begehrter grüner Zettel.
Ich werde versuchen, das Wesentliche einer dieser Aufgaben zu skizzieren und auch (nach besten Kräften) versuchen, ihre Komplexität und Bedeutung zu erklären. Ich empfehle dringend, die offizielle Website des Wettbewerbs zu besuchen: www.claymath.org/millennium; Die dort veröffentlichten Beschreibungen der Probleme sind vollständig und interessant und wurden beim Verfassen des Artikels zur Hauptquelle.

Riemann-Hypothese

Eines Tages begann einer meiner wissenschaftlichen Betreuer, der herausragende St. Petersburger Algebraist Nikolai Alexandrowitsch Wawilow, seinen Spezialkurs mit der Formel

1 + 2 + 3 + 4 + 5 + … = –1/12.

Nein, die Lektion war nicht der Riemann-Hypothese gewidmet, und ich habe sie auch nicht von Nikolai Alexandrowitsch erfahren. Aber die Formel hat dennoch den direktesten Bezug zur Hypothese. Und das Überraschende ist, dass diese scheinbar absurde Gleichheit tatsächlich wahr ist. Genauer gesagt ist es nicht ganz so, aber auch der Teufel der Details wird bald befriedigt sein.

Im Jahr 1859 veröffentlichte Bernhard Riemann einen Artikel (oder, wie sie es nannten, eine Abhandlung), der ein sehr langes Leben haben sollte. Darin stellte er eine völlig neue Methode zur asymptotischen Schätzung der Verteilung von Primzahlen vor. Die Methode basierte auf einer Funktion, deren Zusammenhang mit Primzahlen von Leonhard Euler entdeckt wurde, die aber dennoch den Namen des Mathematikers erhielt, der sie auf die gesamte komplexe Ebene erweiterte: die sogenannte Riemannsche Zetafunktion. Es ist ganz einfach definiert:

ς (s) = 1/1 s + 1/2 s + 1/3 s + 1/3 s + … .

Jeder Student, der einen Kurs in mathematischer Analysis belegt hat, wird sofort sagen, dass diese Reihe für alle reellen s > 1 konvergiert. Darüber hinaus konvergiert sie auch für komplexe Zahlen, deren Realteil größer als eins ist. Darüber hinaus ist die Funktion ς (s) in dieser Halbebene analytisch.

Die Betrachtung der Formel für negative s scheint ein schlechter Scherz zu sein: Was bringt es, zum Beispiel alle positiven ganzen Zahlen oder insbesondere ihre Quadrate oder Kubikzahlen zu addieren? Allerdings ist die komplexe Analyse eine hartnäckige Wissenschaft, und die Eigenschaften der Zeta-Funktion sind so, dass sie auf die gesamte Ebene ausgedehnt werden kann. Dies war eine von Riemanns Ideen, die er 1859 in seinen Memoiren darlegte. Die resultierende Funktion hat nur einen singulären Punkt (Pol): s = 1, und beispielsweise ist die Funktion an negativen reellen Punkten vollständig definiert. Es ist der Wert der analytisch erweiterten Zeta-Funktion am Punkt –1, der durch die Formel ausgedrückt wird, mit der ich diesen Abschnitt begonnen habe.

(Besonders für Patrioten und Menschen, denen die Geschichte der Wissenschaft nicht gleichgültig ist, möchte ich in Klammern anmerken, dass Bernard Riemanns Memoiren zwar viele neue Ideen in die Zahlentheorie einbrachten, er jedoch nicht der erste war, der sich mit der Verteilung von Primzahlen beschäftigte Dies wurde erstmals von unserem Landsmann Pafnutiy Lvovich Chebyshev untersucht, der am 24. Mai 1848 in der St. Petersburger Akademie der Wissenschaften einen Bericht las, in dem er die mittlerweile klassischen asymptotischen Schätzungen für die Anzahl der Primzahlen darlegte. )

Aber kehren wir zu Riemann zurück. Er konnte zeigen, dass die Verteilung von Primzahlen – ein zentrales Problem der Zahlentheorie – davon abhängt, wo die Zeta-Funktion verschwindet. Es gibt sogenannte triviale Nullstellen – in geraden negativen Zahlen (–2, –4, –6, …). Die Herausforderung besteht darin, alle anderen Nullstellen der Zeta-Funktion zu beschreiben.

Die talentiertesten Mathematiker der Welt haben es seit anderthalb Jahrhunderten nicht mehr geschafft, diese Nuss zu knacken.

Zwar zweifeln nur wenige daran, dass die Riemann-Hypothese richtig ist. Erstens sind numerische Experimente mehr als überzeugend; Die letzte davon wird in einem Artikel von Xavier Gourdon beschrieben, dessen Titel für sich spricht: „Die ersten 10 13 Nullstellen der Riemannschen Zeta-Funktion und die Berechnung von Nullstellen in sehr großer Höhe“ (zweiter Teil des Titels). bedeutet, dass eine Methode vorgeschlagen wird, um nicht nur die ersten Nullstellen, sondern auch einige, wenn auch nicht alle, weiter entfernte Nullstellen zu berechnen, bis hin zu Nullstellen mit einer Zahl um 10 24). Diese Arbeit krönt bisher mehr als ein Jahrhundert an Versuchen, die Riemann-Hypothese auf eine bestimmte Anzahl führender Nullen zu testen. Natürlich wurden keine Gegenbeispiele zur Riemann-Hypothese gefunden. Darüber hinaus wurde strikt nachgewiesen, dass mehr als 40 % der Nullstellen der Zeta-Funktion die Hypothese erfüllen.

Das zweite Argument erinnert an einen der von Immanuel Kant widerlegten Beweise für die Existenz Gottes. Wenn Riemann tatsächlich einen Fehler gemacht hat, werden viele schöne und plausible mathematische Berechnungen, die auf der Annahme beruhen, dass die Riemann-Hypothese richtig ist, falsch. Ja, dieses Argument hat kein wissenschaftliches Gewicht, aber dennoch... Mathematik ist eine Wissenschaft, in der Schönheit eine Schlüsselrolle spielt. Ein schöner, aber falscher Beweis erweist sich oft als nützlicher als ein richtiger, aber hässlicher. Aus erfolglosen Versuchen, Fermats großen Satz zu beweisen, ist beispielsweise mehr als eine Richtung der modernen Algebra hervorgegangen. Und noch eine ästhetische Anmerkung: Ein der Riemann-Hypothese ähnliches Theorem wurde in der algebraischen Geometrie bewiesen. Der daraus resultierende Satz von Deligne gilt zu Recht als eines der komplexesten, schönsten und wichtigsten Ergebnisse der Mathematik des 20. Jahrhunderts.
Die Riemann-Hypothese scheint also wahr zu sein – aber nicht bewiesen. Wer weiß, vielleicht wird diese Zeitschrift jetzt von einer Person gelesen, die durch den Beweis der Riemannschen Hypothese in die Geschichte der Mathematik eingehen wird. Auf jeden Fall gilt, wie bei allen anderen tollen Aufgaben auch, eine Warnung: Probieren Sie diese Tricks nicht zu Hause aus. Mit anderen Worten: Versuchen Sie nicht, große Probleme zu lösen, ohne die sie umgebende Theorie zu verstehen. Sparen Sie sich und Ihren Mitmenschen Nerven.

Zum Nachtisch noch ein paar interessante Informationen zur Zeta-Funktion. Es stellt sich heraus, dass es praktische Anwendungen und sogar eine physikalische Bedeutung hat. Darüber hinaus hat die Riemann-Hypothese (genauer gesagt ihre Verallgemeinerung, die als ebenso komplex gilt wie sie selbst) direkte praktische Konsequenzen. Eine der wichtigen Rechenaufgaben besteht beispielsweise darin, Zahlen auf Primalität zu prüfen (bei einer gegebenen Zahl muss man sagen, ob es sich um eine Primzahl handelt oder nicht). Der derzeit theoretisch schnellste Algorithmus zur Lösung dieses Problems – der Miller-Rabin-Test – läuft in der Zeit O(log 4 n), wobei n eine gegebene Zahl ist (bzw. log n die Eingabelänge des Algorithmus). Der Beweis, dass es so schnell funktioniert, beruht jedoch auf der Riemann-Hypothese.

Allerdings ist der Primzahltest aus komplexitätstheoretischer Sicht kein sehr schwieriges Problem (im Jahr 2002 wurde ein von der Riemann-Hypothese unabhängiger Algorithmus entwickelt, der langsamer als der Miller-Rabin-Test, aber auch polynomial ist). Viel interessanter ist die Zerlegung von Zahlen in Primfaktoren (und es gibt direkte kryptografische Anwendungen – die Stärke des RSA-Schemas hängt davon ab, ob die Zahl schnell in Primfaktoren zerlegt werden kann), und auch hier ist die Riemann-Hypothese eine notwendige Voraussetzung zum Nachweis von Schätzungen der Laufzeit einiger schneller Algorithmen.

Wenden wir uns der Physik zu. Im Jahr 1948 sagte der niederländische Wissenschaftler Hendrik Casimir den Effekt voraus, der heute seinen Namen trägt [Der Casimir-Effekt ist lange Zeit nur eine elegante theoretische Idee geblieben; jedoch konnten Steve K. Lamoreaux, Umar Mohideen und Anushri Roy 1997 Experimente durchführen, die die vorherige Theorie bestätigten. Es stellt sich heraus, dass zwei ungeladene Metallplatten, wenn man sie auf einen Abstand von mehreren Atomdurchmessern näher bringt, aufgrund der Schwankungen des zwischen ihnen befindlichen Vakuums voneinander angezogen werden – es entstehen ständig Teilchen- und Antiteilchenpaare. Dieser Effekt erinnert ein wenig an die Anziehungskraft von Schiffen, die im Ozean zu nahe beieinander fahren (er erinnert noch mehr an Stephen Hawkings Theorie, dass Schwarze Löcher immer noch Energie aussenden – es ist jedoch schwer zu sagen, wer wem ähnelt). Berechnungen des physikalischen Modells dieses Prozesses zeigen, dass die Kraft, mit der die Platten angezogen werden, proportional zur Summe der Frequenzen der zwischen den Platten entstehenden stehenden Wellen sein muss. Sie haben es erraten – diese Summe ergibt die Summe 1+2+3+4+…. Und außerdem beträgt der korrekte Wert dieser Summe zur Berechnung des Casimir-Effekts genau –1/12.

Aber das ist nicht alles. Einige Forscher glauben, dass die Zeta-Funktion eine wichtige Rolle spielt ... in der Musik! Vielleicht [Ich schreibe „vielleicht“, weil die einzige Quelle, die ich finden konnte, Korrespondenz in der Usenet-Konferenz sci.math war. Wenn Sie (Leser) seriösere Quellen finden können, würde es mich sehr interessieren, davon zu hören], entsprechen die Maxima der Zeta-Funktion Frequenzwerten, die als gute Grundlage für die Konstruktion einer Musikskala dienen können (z. B unsere Angestelten). Nun ja, Hermann Hesse hat in seinem „Spiel mit den Glasperlen“ nicht umsonst erklärt, das Spiel sei eine Kombination aus Mathematik und Musik: Es gibt wirklich viele Gemeinsamkeiten zwischen ihnen ...

Enzyklopädisches YouTube

    1 / 5

    ✪ #170. DIE RIEMAN-HYPOTHESE IST DAS PROBLEM DES JAHRTAUSENDS!

    ✪ Wissenschaftsshow. Ausgabe 30. Riemann-Hypothese

    ✪ Riemann-Hypothese. Das Millennium-Problem ist gelöst (aber das ist nicht sicher) | Trushin wird #031 + antworten

    ✪ Riemann-Hypothese. Das Problem des Jahrtausends ist gelöst (aber das ist nicht sicher). Teil II | Trushin wird #032 + antworten

    ✪ Was hat Grigory Perelman bewiesen?

    Untertitel

    Wenn eine natürliche Zahl nur zwei Teiler hat – sich selbst und einen, dann heißt sie Primzahl. Die kleinste Primzahl ist zwei, drei ist auch nur durch sich selbst und durch eins teilbar, aber zwei-zwei ist vier, und diese Zahl ist zusammengesetzt, aus fünf Quadraten kann man nur ein Rechteck mit den Seiten 5 und 1 machen, sechs Quadrate jedoch schon nicht nur einreihig, sondern auch im 2x3-Rechteck gebaut werden. Das Interesse an Primzahlen reicht bis in die Antike zurück: Die ersten uns bekannten Aufzeichnungen zu diesem Thema stammen aus dem zweiten Jahrtausend v. Chr. – die alten Ägypter wussten viel über Mathematik. Euklid bewies in der Antike, dass es unendlich viele Primzahlen gibt, und darüber hinaus hatte er eine Vorstellung vom Grundsatz der Arithmetik. Eratosthenes wiederum entwickelte (oder korrigierte) zumindest einen Algorithmus zum Finden von Primzahlen. Das ist ein sehr cooles Ding namens Sieb des Eratosthenes. Sehen Sie: Jetzt werden wir es schnell verwenden, um alle Primzahlen in den ersten hundert natürlichen Zahlen zu bestimmen. Eins ist per Definition keine Primzahl, zwei ist die erste Primzahl: Wir streichen alle Zahlen durch, die ein Vielfaches davon sind, weil sie notwendigerweise zusammengesetzt sind. Na ja, es gibt schon halb so viele Kandidaten! Nehmen Sie die nächste Primzahl – drei – und streichen Sie alle Zahlen durch, die ein Vielfaches von drei sind. Beachten Sie, dass fünf nicht so viele Zahlen ausschaltet, da sich viele bereits als Vielfache von zwei oder drei herausgestellt haben. Am überraschendsten ist jedoch, dass unser Algorithmus bei der Zahl sieben enden kann! Denken Sie darüber nach, warum das so ist! Und wenn Sie es erraten haben, schreiben Sie in die Kommentare, bei welcher Zahl Sie den Vorgang beenden können, wenn Sie mit den ersten zehntausend natürlichen Zahlen arbeiten! Insgesamt haben wir also im ersten Hundert fünfundzwanzig Primzahlen. Hmm... wie viele Primzahlen gibt es in den ersten tausend oder sagen wir mal einer Million? Diese Frage beunruhigte die klügsten Köpfe der Menschheit ernsthaft; niemand brauchte damals die praktischen Vorteile der Kryptographie umsonst: Mathematik ist eher wie ein Gespräch mit Gott oder zumindest eine der Möglichkeiten, es zu hören. Nun, Primzahlen sind wie Atome in der Chemie und wie das Alphabet in der Literatur. Okay, näher am Thema! Jahrhunderte später übernahm ganz Europa die Leitung der antiken griechischen Wissenschaftler: Pierre Fermat entwickelte die Zahlentheorie, Leonard Euler leistete einen großen Beitrag und natürlich wer auch immer riesige Tabellen mit Primzahlen zusammenstellte. Es ist jedoch nicht möglich, ein Muster im Aussehen unserer Sonderzahlen unter den zusammengesetzten Zahlen zu erkennen. Erst Ende des 18. Jahrhunderts schlugen Gauß und Legendre vor, dass die bemerkenswerteste Funktion π(x), die die Anzahl der Primzahlen zählt, die kleiner oder gleich der reellen Zahl x sind, wie folgt strukturiert ist: π(x). )=x/lnx. Übrigens, wie viele Primzahlen haben wir in den ersten hundert? Fünfundzwanzig, oder? Selbst für solch kleine Werte liefert die Funktion eine Ausgabe, die der Wahrheit entspricht. Obwohl es sich eher um den Grenzwert des Verhältnisses π(x) und x/lnx handelt: Im Unendlichen ist er gleich Eins. Diese Aussage ist der Satz über die Verteilung von Primzahlen. Unser Landsmann Pafnutiy Lvovich Chebyshev hat einen wesentlichen Beitrag zu seinem Beweis geleistet, und wir könnten das Thema abschließen, indem wir Ihnen abschließend sagen, dass dieser Satz bereits 1896 unabhängig von Jacques Hadamard und Vallée-Poussin bewiesen wurde. Ja...wenn da nicht ein „aber“ wäre! In ihrer Begründung stützten sie sich auf die These eines Kollegen-Vorgängers. Und dieser Wissenschaftler war, wenn man die Tatsache berücksichtigt, dass Einstein noch nicht geboren war, Bernhard Riemann. Hier ist eine Aufnahme von Riemanns Originalmanuskript. Wissen Sie, warum er sich dieses spezielle Thema ausgedacht hat? Der Grund ist so alt wie unser Bildungssystem: Riemanns wissenschaftlicher Berater Carl Friedrich Gauß, übrigens der König der Mathematik, studierte Primzahlen! Hier ist die alte gedruckte Version des Berichts in deutscher Sprache. Ich hatte das Glück, eine russische Übersetzung zu finden, aber selbst nach dem Entstauben sind einige der Formeln schwer zu erkennen, daher werden wir die englische Version verwenden. Mal sehen! Bernhard geht von Eulers Ergebnissen aus: Rechts wird mit dem großen griechischen Buchstaben Sigma die Summe aller natürlichen Zahlen geschrieben, und links wird mit dem Großbuchstaben und nicht weniger als dem griechischen Buchstaben Pi das Produkt angegeben, außerdem wird Der kleine Buchstabe p geht durch alle Primzahlen. Das ist ein sehr schönes Verhältnis – denken Sie darüber nach! Als nächstes wird die Zeta-Funktion eingeführt und damit verbundene Ideen entwickelt. Und dann führt die Geschichte über den dornigen Weg der mathematischen Analyse zum aufgestellten Satz über die Verteilung von Primzahlen, wenn auch aus einem etwas anderen Blickwinkel. Schauen wir uns nun Folgendes an: eine Gleichung, in der links die xi-Funktion steht, die eng mit Zeta verwandt ist, und rechts die Nullstelle. Riemann schreibt: „Wahrscheinlich sind alle Nullstellen der xi-Funktion reell, auf jeden Fall wäre es wünschenswert, einen schlüssigen Beweis für diesen Satz zu finden.“ Dann fügt er hinzu, dass er sie nach mehreren vergeblichen, nicht sehr hartnäckigen Versuchen, eines zu finden, vorübergehend aufgegeben habe, da dies für weitere Zwecke nicht erforderlich sei. Nun, so entstand die Riemann-Hypothese! Auf moderne Weise und mit allen Klarstellungen klingt es so: Alle nicht trivialen Nullstellen der Zeta-Funktion haben einen Realteil gleich ½. Es gibt natürlich auch andere äquivalente Formulierungen. Im Jahr 1900 nahm David Hilbert die Riemann-Hypothese in seine berühmte Liste der 23 ungelösten Probleme auf. Finden Sie es übrigens nicht merkwürdig, dass Hilbert zu seiner Zeit am selben Lehrstuhl der Universität Göttingen arbeitete wie Riemann? Wenn dies ein Ausdruck von Landsmanntum war, dann füge ich hier guten Gewissens noch einmal nacheinander Aufnahmen der Birke und von Tschebyschew hinzu. Großartig! Wir können weitermachen. Im Jahr 2000 zählte das Clay Institute die Riemann-Hypothese zu den sieben offenen Problemen des Jahrtausends und belohnt nun 10⁶ ($) für die Lösung. Ja, ich verstehe, dass Sie als echte Mathematiker kein großes Interesse an Geld haben, aber dennoch ist dies ein guter Grund, das Wesen der Riemann-Hypothese zu verstehen. Gehen! Alles ist sehr einfach und klar! Zumindest war es bei Riemann so. Hier ist die Zeta-Funktion in expliziter Form. Wie immer konnten wir die Nullstellen der Funktion sehen, wenn wir sie grafisch darstellten. Hmm... Okay, lass es uns versuchen! Wenn wir statt des Arguments s eine Zwei nehmen, erhalten wir das berühmte Baseler Problem – wir müssen die Summe einer Reihe inverser Quadrate berechnen. Aber das macht nichts, Euler hat die Aufgabe schon vor langer Zeit erledigt: Es war ihm sofort klar, dass diese Summe gleich π²/6 ist. Okay, dann nehmen wir s=4 – und Euler hat das übrigens auch berechnet! Offensichtlich π⁴/90. Im Allgemeinen verstehen Sie bereits, wer die Werte der Zeta-Funktion an den Punkten 6, 8, 10 usw. berechnet hat. Also, was ist das? Riemannsche Zetafunktion von Eins? Werfen wir einen Blick darauf! Ah-ah-ah, das ist also eine harmonische Reihe! Was ist Ihrer Meinung nach die Summe dieser Serie? Die Terme sind klein, klein, aber immer noch größer als in einer Reihe umgekehrter Quadrate, oder? Klicken Sie auf Pause, denken Sie einen Moment nach und geben Sie Ihre Schätzung ab. Na, wie viele sind hier? Zwei? Oder vielleicht drei? Trommelwirbel... die harmonische Reihe divergiert! Dieser Betrag fliegt ins Unendliche, verstehst du, nicht wahr?! Schauen Sie, wir nehmen eine Reihe, in der jeder der Terme die entsprechenden Terme der harmonischen Reihe nicht überschreitet. Und wir sehen: ½, dann noch ½, noch einmal ½ und so weiter bis ins Unendliche! Worauf hinaus will ich? Die Zeta-Funktion von Eins ist nicht definiert! Nun scheint klar zu sein, wie der Zeta-Graph aussieht. Eines ist nicht klar: Wo liegen die Nullstellen der Zeta-Funktion? Nun, zeigen Sie mir, wo die nicht-trivialen Nullstellen der Zeta-Funktion sind und auch der Realteil, der der Hälfte entspricht! Wenn wir schließlich ½ als Argument der Zeta-Funktion nehmen, dann sind alle Terme der resultierenden Reihe nicht kleiner als der harmonische, was Traurigkeit, Divergenz, Unendlichkeit bedeutet. Das heißt im Allgemeinen, dass die Reihe für alle reellen Zahlen kleiner oder gleich eins divergiert. Und natürlich erscheint Zeta mit s = -1 als Summe aller natürlichen Zahlen und ist keiner bestimmten Zahl gleich. Ja... es gibt nur ein „aber“! Wenn mein kluger Freund gebeten wird, die Zeta-Funktion am Punkt -1 zu berechnen, dann wird er, da er ein seelenloses Stück Hardware ist, den Wert -1/12 angeben. Und im Allgemeinen ist sein Zeta für alle Argumente außer einem definiert, und sogar Nullen werden erreicht – sogar bei negativen Werten! Ja, wir sind angekommen, womit könnte das zusammenhängen? Ach, gut, dass Sie ein Lehrbuch zur Funktionstheorie einer komplexen Variablen zur Hand haben: Hier wird es wahrscheinlich eine Antwort geben. So ist es, so ist es! Es stellt sich heraus, dass einige Funktionen eine analytische Fortsetzung haben! Wir sprechen von Funktionen, die beliebig oft differenziert und zu einer Taylor-Reihe erweitert werden können. Erinnern Sie sich daran? Sie haben übrigens eine Fortsetzung in Form einer anderen Funktion, der einzigen. Und insbesondere kann unsere native Zeta-Funktion für ein reales Argument, sofern sie alle Bedingungen erfüllt, nach dem Prinzip der analytischen Fortsetzung auf die gesamte komplexe Ebene erweitert werden. Und Riemann hat es mit Bravour gemeistert! Ich sage gleich, dass alle möglichen Werte eines komplexen Arguments nur auf einer Ebene dargestellt werden könnten. Aber wenn das Argument durch die Punkte der Ebene verläuft, wie lassen sich dann die Werte der Funktion darstellen? Auf einer Ebene können Sie sich auf die Nullstellen der Funktion beschränken oder die dritte Dimension berücksichtigen, obwohl Sie für Zeta im guten Sinne vier davon benötigen. Nun, Sie können es auch mit Farbe versuchen. Überzeugen Sie sich selbst! Der Realteil des Arguments wird auf der Abszissenachse und der Imaginärteil auf der Ordinatenachse aufgetragen. Nun, halten Sie die Augen offen: Alle nicht trivialen Nullstellen der Zeta-Funktion haben einen Realteil gleich ½. Hier endet das Märchen, und wer zugehört hat – gut gemacht! Die Hausaufgabe besteht darin, die Riemann-Hypothese zu beweisen oder zu widerlegen, und versuchen Sie nicht einmal, von Atiyah zu kopieren! Kritisch denken, Mathe machen, Spaß haben! [Musik läuft]

Formulierung

Äquivalente Formulierungen

Überlegungen zur Wahrheit der Hypothese

Unter den Daten, die auf die Richtigkeit der Vermutung hinweisen, kann man den erfolgreichen Beweis ähnlicher Vermutungen hervorheben (insbesondere der Riemann-Hypothese über Mannigfaltigkeiten über endlichen Körpern). Dies ist das stärkste theoretische Argument dafür, dass die Riemannsche Bedingung für alle gilt Zeta-Funktionen im Zusammenhang mit automorphen Abbildungen (Englisch) Russisch, die die klassische Riemann-Hypothese beinhaltet. Der Wahrheitsgehalt einer ähnlichen Hypothese wurde bereits für die Selberg-Zeta-Funktion bewiesen (Englisch) Russisch, in mancher Hinsicht ähnlich der Riemann-Funktion und für die Goss-Zeta-Funktion (Englisch) Russisch(analog zur Riemannschen Zetafunktion für Funktionskörper).

Andererseits einige von Epsteins Zeta-Funktionen (Englisch) Russisch erfüllen nicht die Riemannsche Bedingung, obwohl sie auf der kritischen Geraden unendlich viele Nullstellen haben. Diese Funktionen werden jedoch nicht durch Euler-Reihen ausgedrückt und stehen nicht in direktem Zusammenhang mit automorphen Abbildungen.

Zu den „praktischen“ Argumenten für die Wahrheit der Riemannschen Hypothese gehört ein rechnerischer Test einer großen Anzahl nichttrivialer Nullstellen der Zeta-Funktion im Rahmen des ZetaGrid-Projekts.

Verwandte Themen

Zwei Hardy-Littlewood-Hypothesen

  1. Für jeden ε > 0 (\displaystyle \varepsilon >0) existiert T 0 = T 0 (ε) > 0 (\displaystyle T_(0)=T_(0)(\varepsilon)>0), so dass wann und H = T 0 , 25 + ε (\displaystyle H=T^(0(,)25+\varepsilon )) Das Intervall enthält eine Nullstelle ungerader Ordnung der Funktion.
  2. Für jeden ε > 0 (\displaystyle \varepsilon >0) es gibt solche T 0 = T 0 (ε) > 0 (\displaystyle T_(0)=T_(0)(\varepsilon)>0) Und c = c (ε) > 0 (\displaystyle c=c(\varepsilon)>0), Das bei T ⩾ T 0 (\displaystyle T\geqslant T_(0)) und die Ungleichung ist wahr N 0 (T + H) − N 0 (T) ⩾ c H (\displaystyle N_(0)(T+H)-N_(0)(T)\geqslant cH).

A. Selbergs Hypothese

Im Jahr 1942 untersuchte Atle Selberg das Hardy-Littlewood-Problem 2 und hat das für jeden bewiesen ε > 0 (\displaystyle \varepsilon >0) existieren T 0 = T 0 (ε) > 0 (\displaystyle T_(0)=T_(0)(\varepsilon)>0) Und c = c (ε) > 0 (\displaystyle c=c(\varepsilon)>0), so dass für T ⩾ T 0 (\displaystyle T\geqslant T_(0)) Und H = T 0 , 5 + ε (\displaystyle H=T^(0(,)5+\varepsilon )) Ungleichheit ist wahr N (T + H) − N (T) ⩾ c H log ⁡ T (\displaystyle N(T+H)-N(T)\geqslant cH\log T).

Atle Selberg wiederum stellte die Hypothese auf, dass es möglich sei, den Exponenten zu reduzieren a = 0 , 5 (\displaystyle a=0(,)5) für den Wert H = T 0 , 5 + ε (\displaystyle H=T^(0(,)5+\varepsilon )).

Im Jahr 1984 bewies A. A. Karatsuba dies für eine festgelegte Bedingung 0 < ε < 0,001 {\displaystyle 0<\varepsilon <0{,}001} , groß genug T (\displaystyle T) Und H = T a + ε (\displaystyle H=T^(a+\varepsilon )), a = 27 82 = 1 3 − 1 246 (\displaystyle a=(\tfrac (27)(82))=(\tfrac (1)(3))-(\tfrac (1)(246))) Intervall (T , T + H) (\displaystyle (T,T+H)) enthält mindestens c H ln ⁡ T (\displaystyle cH\ln T) reelle Nullstellen der Riemannschen Zetafunktion ζ (1 2 + i t) (\displaystyle \zeta (\Bigl ()(\tfrac (1)(2))+it(\Bigr))). Damit bestätigte er Selbergs Hypothese.

Die Schätzungen von A. Selberg und A. A. Karatsuba liegen in der Reihenfolge des Wachstums bei T → + ∞ (\displaystyle T\to +\infty ).

Im Jahr 1992 bewies A. A. Karatsuba, dass es ein Analogon gibt Selbergs Hypothesen gilt für „fast alle“ Intervalle (T , T + H ] (\displaystyle (T,T+H]), H = T ε (\displaystyle H=T^(\varepsilon )), Wo ε (\displaystyle \varepsilon)- eine beliebig kleine feste positive Zahl. Die von Karatsuba entwickelte Methode ermöglicht es, die Nullstellen der Riemannschen Zetafunktion auf „ultrakurzen“ Intervallen der kritischen Linie, also auf den Intervallen, zu untersuchen (T , T + H ] (\displaystyle (T,T+H]), Länge H (\displaystyle H) der langsamer wächst als jeder noch so kleine Grad T (\displaystyle T). Insbesondere bewies er dies für beliebige gegebene Zahlen ε (\displaystyle \varepsilon), ε 1 (\displaystyle \varepsilon _(1)) unter der Vorraussetzung 0 < ε , ε 1 < 1 {\displaystyle 0<\varepsilon ,\varepsilon _{1}<1} fast alle Intervalle (T , T + H ] (\displaystyle (T,T+H]) bei H ⩾ exp ⁡ ( (ln ⁡ T) ε ) (\displaystyle H\geqslant \exp (\((\ln T)^(\varepsilon )\))) mindestens enthalten H (ln ⁡ T) 1 − ε 1 (\displaystyle H(\ln T)^(1-\varepsilon _(1))) Funktionsnullstellen ζ (1 2 + i t) (\displaystyle \zeta (\bigl ()(\tfrac (1)(2))+it(\bigr))). Diese Schätzung kommt dem, was aus der Riemann-Hypothese folgt, sehr nahe.

siehe auch

Anmerkungen

  1. Weisstein, Eric W. Riemann Hypothese (englisch) auf der Wolfram MathWorld-Website.
  2. Regeln für die Millenniumspreise
  3. Was seitdem etwas ungewöhnlich ist lim sup n → ∞ σ (n) n log ⁡ log ⁡ n = e γ . (\displaystyle \limsup _(n\rightarrow \infty )(\frac (\sigma (n))(n\ \log \log n))=e^(\gamma ).)
    Ungleichheit wird verletzt, wenn N= 5040 und einige kleinere Werte, aber Guy Robin zeigte 1984, dass sie genau dann für alle größeren ganzen Zahlen gilt, wenn die Riemann-Hypothese wahr ist.