Studiengeschichte der Physik. Zusammenfassung: Geschichte der Physik. Die Geburt der theoretischen Physik

Die gesamte Entwicklungsgeschichte der Physik sowie der Naturwissenschaften lässt sich in drei Phasen einteilen – Vorklassik, Klassik und Moderne.

Stufe der vorklassischen Physik manchmal auch als vorwissenschaftlich bezeichnet. Dieser Name kann jedoch nicht als gerechtfertigt angesehen werden: Die grundlegenden Samen der Physik und der Naturwissenschaften im Allgemeinen wurden in der Antike gesät. Diese Etappe ist die längste: Sie umfasst den Zeitraum von der Zeit des Aristoteles (IV. Jahrhundert v. Chr.) bis zum Ende des 16. Jahrhunderts.

Der Beginn der Phase der klassischen Physik verbunden mit den Werken des italienischen Wissenschaftlers Galileo Galilei, einem der Begründer der exakten Naturwissenschaften, und den Werken des englischen Mathematikers, Mechanikers, Astronomen und Physikers Isaac Newton, dem Begründer der klassischen Physik. Die zweite Phase dauerte etwa drei Jahrhunderte bis zum Ende des 19. Jahrhunderts.

Zu Beginn des 20. Jahrhunderts. Es wurden experimentelle Ergebnisse erzielt, die im Rahmen des klassischen Wissens schwer zu erklären waren. Daher wurde ein völlig neuer Ansatz vorgeschlagen - Quantum, basierend auf einem diskreten Konzept. Die Quantenhypothese wurde erstmals im Jahr 1900 vom deutschen Physiker Max Planck aufgestellt, der als einer der Begründer der Quantentheorie in die Entwicklungsgeschichte der Physik einging. Mit der Einführung des Quantenkonzepts beginnt die dritte Stufe in der Entwicklung der Physik – Stufe der modernen Physik , Dazu gehören nicht nur Quantenkonzepte, sondern auch klassische Konzepte.

Stufe der vorklassischen Physik eröffnet Aristoteles‘ geozentrisches System der Weltsphären, das auf dem von seinen Vorgängern vorbereiteten ideologischen Boden entstand. Der Übergang vom Egozentrismus – einer Haltung gegenüber der Welt, die durch die Konzentration auf das eigene individuelle „Ich“ gekennzeichnet ist – zum Geozentrismus ist der erste und vielleicht schwierigste Schritt auf dem Weg zur Entstehung der Naturwissenschaften. Die direkt sichtbare Hemisphäre des Himmels, begrenzt durch den lokalen Horizont, wurde durch eine ähnliche unsichtbare Hemisphäre wie die gesamte Himmelssphäre ergänzt. Die Welt wurde vollständiger, blieb aber auf die himmlische Sphäre beschränkt. Dementsprechend begann man, die Erde selbst als kugelförmig zu betrachten, da sie im Gegensatz zum Rest des (himmlischen) kugelförmigen Universums ständig eine besondere, zentrale Position einnahm und absolut bewegungslos war. Wir mussten nicht nur die Möglichkeit der Existenz von Antipoden – Bewohner diametral entgegengesetzter Teile der Erde – erkennen, sondern auch die grundsätzliche Gleichheit aller irdischen Bewohner der Welt. Solche Vorstellungen, die überwiegend spekulativer Natur waren, wurden erst viel später bestätigt – in der Zeit der ersten Weltreisen und großen geographischen Entdeckungen an der Wende vom 15. zum 16. Jahrhundert, als Aristoteles‘ sehr geozentrische Lehre mit dem kanonischen System des Ideals entstand Gleichförmig rotierende Himmelskugeln, die durch Rotation ihrer Achsen miteinander verbunden sind, mit grundlegend unterschiedlicher Physik oder Mechanik für Erd- und Himmelskörper, erlebten ihre letzten Jahre.

Fast eineinhalbtausend Jahre trennen das fertiggestellte geozentrische System des antiken griechischen Astronomen Claudius Ptolemäus (ca. 90–ca. 160) vom ziemlich perfekten heliozentrischen System des polnischen Mathematikers und Astronomen Nicolaus Copernicus. Im Zentrum des heliozentrischen Systems steht nicht die Erde, sondern die Sonne. Der Höhepunkt des heliozentrischen Systems sind die Gesetze der Planetenbewegung, die vom deutschen Astronomen Johannes Kepler, einem der Begründer der modernen Naturwissenschaften, entdeckt wurden.

Die astronomischen Entdeckungen von Galileo Galilei, seine physikalischen Experimente und die von Isaac Newton formulierten Grundgesetze der Mechanik legten den Grundstein Stufe der klassischen Physik, die nicht durch eine klare Grenze von der ersten Stufe getrennt werden kann. Physik und Naturwissenschaften im Allgemeinen zeichnen sich durch eine fortschreitende Entwicklung aus: Die Keplerschen Gesetze sind die Krone des heliozentrischen Systems mit einer sehr langen Geschichte, die in der Antike begann; Den Gesetzen Newtons gingen die Gesetze Keplers und die Werke Galileis voraus; Kepler entdeckte die Gesetze der Planetenbewegung als Ergebnis eines logisch und historisch natürlichen Übergangs vom Geozentrismus zum Heliozentrismus, jedoch nicht ohne die heuristischen Ideen der aristotelischen Mechanik. Die Mechanik des Aristoteles wurde in irdische und himmlische, d.h. hatte nicht die eigentliche grundlegende Einheit: Der aristotelische gegenseitige Gegensatz von Erde und Himmel ging mit einem grundsätzlichen Gegensatz der sie betreffenden Gesetze der Mechanik einher, die sich dadurch insgesamt als innerlich widersprüchlich und unvollkommen erwiesen. Galilei widerlegte den aristotelischen Gegensatz zwischen Erde und Himmel. Er schlug vor, die Idee der Trägheit des Aristoteles, die die gleichmäßige Bewegung von Himmelskörpern um die Erde charakterisiert, auf Erdkörper anzuwenden, wenn sie sich frei in horizontaler Richtung bewegen.

Kepler und Galilei kamen zu ihren eigenen kinematischen Gesetzen, die die Newtonsche Mechanik vorgaben, die für Erd- und Himmelskörper grundsätzlich gleich war. Keplers Gesetze und Newtons Gesetz der universellen Gravitation dienten als Grundlage für die Entdeckung neuer Planeten. Dies geht aus den Ergebnissen von Beobachtungen von Abweichungen in der Bewegung des Planeten Uranus hervor, die 1781 vom englischen Astronomen William Herschel (1738-1822), dem englischen Astronomen und Mathematiker John Adams (1819-1892) und dem französischen Astronomen entdeckt wurden

Ben Le Verrier (1811–1877) sagte unabhängig und fast gleichzeitig theoretisch die Existenz eines posturanischen Planeten voraus, der 1846 vom deutschen Astronomen Johann Halle (1812–1910) entdeckt wurde. Es heißt Neptun. Im Jahr 1915 berechnete und organisierte der amerikanische Astronom Percival Lovell (1855-1916) eine Suche nach einem anderen Planeten. Es wurde 1930 von einem jungen amerikanischen Astronomie-Enthusiasten, Clyde Tombaugh, entdeckt. Dieser Planet wurde Pluto genannt.

Die Phase der klassischen Physik ist durch große Errungenschaften nicht nur in der klassischen Mechanik, sondern auch in anderen Bereichen gekennzeichnet: Thermodynamik, Molekularphysik, Optik, Elektrizität, Magnetismus usw. Nennen wir die wichtigsten davon:

  • * experimentelle Gasgesetze wurden aufgestellt;
  • * eine Gleichung für die kinetische Theorie von Gasen wurde vorgeschlagen;
  • * formulierte das Prinzip der gleichmäßigen Energieverteilung über Freiheitsgrade, den ersten und zweiten Hauptsatz der Thermodynamik;
  • * die Gesetze von Coulomb, Ohm und elektromagnetischer Induktion wurden entdeckt;
  • * Entwicklung der elektromagnetischen Theorie;
  • * Die Phänomene Interferenz, Beugung und Polarisation von Licht erhielten eine Welleninterpretation;
  • * Die Gesetze der Absorption und Streuung von Licht werden formuliert.

Natürlich können wir andere ebenso wichtige naturwissenschaftliche Errungenschaften nennen. Nimmt in der Physik einen besonderen Platz ein elektromagnetische Theorie, entwickelt vom herausragenden englischen Physiker J.K. Maxwell, Schöpfer der Theorie der klassischen Elektrodynamik, einer der Begründer der statistischen Physik. Er ermittelte auch die nach ihm benannte statistische Geschwindigkeitsverteilung von Molekülen. Die Theorie des elektromagnetischen Feldes (Maxwell-Gleichungen) erklärte viele damals bekannte Phänomene und sagte die elektromagnetische Natur des Lichts voraus. Maxwells elektromagnetische Theorie lässt sich kaum mit einer anderen bedeutenderen Theorie der klassischen Physik vergleichen. Allerdings erwies sich diese Theorie als nicht allmächtig.

Ende des 19. Jahrhunderts. Während einer experimentellen Untersuchung des Strahlungsspektrums eines absolut schwarzen Körpers wurde ein Muster der Energieverteilung festgestellt. Die resultierenden Verteilungskurven wiesen ein charakteristisches Maximum auf, das sich mit zunehmender Temperatur zu kürzeren Wellen verschob. Solche experimentellen Ergebnisse konnten im Rahmen der klassischen Maxwellschen Elektrodynamik nicht erklärt werden. Dieses Problem wurde benannt „Ultraviolett-Katastrophe“.

Eine experimentelle Erklärung wurde 1900 von Max Planck vorgeschlagen. Warum musste er die allgemein akzeptierte Position der klassischen Physik aufgeben, dass sich die Energie eines Systems nur kontinuierlich ändert, d.h. nimmt alle beliebig nahen Werte an. Gemäß der von Planck aufgestellten Quantenhypothese emittieren Atomoszillatoren Energie nicht kontinuierlich, sondern in bestimmten Portionen – Quanten, und die Energie des Quants ist proportional zur Frequenz.

Ein charakteristisches Merkmal des Stadiums der modernen Physik ist, dass sich neben den klassischen auch Quantenkonzepte entwickeln. Auf der Grundlage der Quantenmechanik werden viele Mikroprozesse im Atom, Kern und Elementarteilchen erklärt – neue Zweige der modernen Physik sind entstanden: Quantenelektrodynamik, Quantentheorie von Festkörpern, Quantenoptik und viele andere.

In einem seiner Artikel schrieb M. Planck darüber, dass ein angesehener Professor in seiner Jugend (um 1880) davon abgeraten habe, Physik zu studieren, da er glaubte, dass in der Physik nur noch der Staub von den vorhandenen physikalischen Instrumenten abgewischt werden müsse, da die Hauptsache darin bestand, Physik zu studieren Das Ding war bereits gemacht. Jetzt ist klar: Der Professor lag mit seinen Prognosen falsch – das 20. Jahrhundert brachte viele große Entdeckungen in der Physik, die viele vielversprechende Richtungen für die Entwicklung verschiedener Zweige der Naturwissenschaften vorgaben.

Spielte eine wichtige Rolle bei der Bildung quantenmechanischer Konzepte Quantentheorie des photoelektrischen Effekts, vorgeschlagen von A. Einstein im Jahr 1905. Für diese Arbeit und seinen Beitrag zur theoretischen Physik und nicht für die Relativitätstheorie wurde ihm 1921 der Nobelpreis für Physik verliehen.

Einen wesentlichen Beitrag zur Entwicklung der modernen Physik leisteten herausragende Wissenschaftler, darunter der dänische Physiker Niels Bohr (1885-1962), der die Quantentheorie des Atoms entwickelte, und der deutsche theoretische Physiker Werner Heisenberg (1901-1976), der formulierte das Unschärfeprinzip und schlug eine Matrixversion der Quantenmechanik vor, der finnische theoretische Physiker Erwin Schrödinger (1887-1961), der die Wellenmechanik entwickelte und ihre Grundgleichung (Schrödinger-Gleichung) vorschlug, der englische Physiker Paul Dirac, der die relativistische Elektronentheorie entwickelte Bewegung und sagte auf dieser Grundlage die Existenz des Positrons voraus, der englische Physiker Ernest Rutherford (1871-1937), der die Lehre von der Radioaktivität und der Struktur des Atoms entwickelte, und viele andere.

In den ersten Jahrzehnten des 20. Jahrhunderts. Die Radioaktivität wurde untersucht und Ideen über die Struktur des Atomkerns entwickelt. 1938 wurde eine wichtige Entdeckung gemacht: Die deutschen Radiochemiker O. Hahn und F. Strassmann entdeckten die Spaltung von Urankernen bei Bestrahlung mit Neutronen. Diese Entdeckung trug zur rasanten Entwicklung der Kernphysik, zur Entwicklung von Atomwaffen und zur Geburt der Kernenergie bei.

Bei der Untersuchung nuklearer Prozesse spielen Teilchendetektoren eine wichtige Rolle, darunter der Cherenkov-Zähler, dessen Funktionsprinzip auf der Cherenkov-Vavilov-Lichtstrahlung basiert, die entsteht, wenn sich geladene Teilchen in einer Substanz mit einer Geschwindigkeit bewegen, die die Phasengeschwindigkeit von überschreitet Licht darin. Diese Strahlung wurde 1934 von unserem Landsmann, dem Physiker P.A., entdeckt. Cherenkov (1904-1990), Nobelpreisträger 1958, unter der Leitung des Akademikers SI. Vavilov (1891–1951), Begründer der wissenschaftlichen Schule für physikalische Optik.

Eine der größten Errungenschaften der Physik des 20. Jahrhunderts. - das ist natürlich 1947 entstanden. Transistor Die herausragenden amerikanischen Physiker D. Bardeen, W. Brattain und W. Shockley erhielten 1956 den Nobelpreis für Physik. Mit der Entwicklung der Halbleiterphysik und der Schaffung des Transistors wurde eine neue Technologie geboren – der Halbleiter und damit ein vielversprechender, sich schnell entwickelnder Zweig der Naturwissenschaften – die Mikroelektronik. 1958 wurde der erste integrierte Schaltkreis in Form eines Silizium-Einkristallwafers mit einer Fläche von mehreren Quadratzentimetern zusammengebaut, auf dem sich zwei Transistoren und RC-Schaltungen befanden. Ein moderner Mikroprozessor mit einer Größe von 1,8 cm enthält etwa 8 Millionen Transistoren. Während die Abmessungen der Elemente der ersten Transistoren Bruchteile eines Millimeters betrugen, betragen sie heute 0,35 Mikrometer. Dies ist ein modernes technologisches Niveau. Kürzlich wurde eine Technologie zur Bildung nanometergroßer Elemente entwickelt.

Schaffung Quantengeneratoren basierend auf der stimulierten Emission von Atomen und Molekülen – eine weitere wichtige Errungenschaft der Physik des 20. Jahrhunderts. Der erste Quantengenerator auf Basis von Ammoniakmolekülen – einer Quelle elektromagnetischer Strahlung im Mikrowellenbereich (Maser) – wurde 1954 vom russischen Physiker N.G. entwickelt. Basov, A.M. Prochorow und der amerikanische Wissenschaftler C. Townes. Für diese Arbeit erhielten sie 1964 den Nobelpreis für Physik. Bis heute wurden viele Modifikationen von Quantengeneratoren entwickelt, darunter auch optische Quantengeneratoren Laser, haben breite praktische Anwendung gefunden. Es sind einzigartige Laser aufgetaucht – chemische, atomare und andere, die vielversprechende Bereiche der Lasertechnologie eröffnen.

Hochtemperatursupraleitung, 1986 von dem deutschen Physiker G. Bednorz und dem Schweizer Wissenschaftler A. Müller entdeckt, die 1987 mit dem Nobelpreis ausgezeichnet wurden, ist zweifellos eine herausragende Errungenschaft der modernen Naturwissenschaften. Die Schaffung einer einheitlichen Theorie grundlegender Wechselwirkungen, die Kontrolle der Kernfusion – diesen und vielen anderen Problemen der modernen Physik wird große Aufmerksamkeit geschenkt und Wissenschaftler aus vielen Ländern beteiligen sich an ihrer Lösung.

(aus dem Altgriechischen. Fusis « Die Natur „) ist ein Bereich der Naturwissenschaften, eine Wissenschaft, die die allgemeinsten und grundlegendsten Gesetze untersucht, die die Struktur und Entwicklung der materiellen Welt bestimmen. Die Gesetze der Physik liegen allen Naturwissenschaften zugrunde.

Der Begriff „Physik“ tauchte erstmals in den Schriften eines der größten Denker der Antike auf – Aristoteles, der im 4. Jahrhundert v. Chr. lebte. Ursprünglich waren die Begriffe „Physik“ und „Philosophie“ synonym, da beide Disziplinen versuchen, die Gesetze der Funktionsweise des Universums zu erklären. Infolge der wissenschaftlichen Revolution des 16. Jahrhunderts entstand jedoch die Physik als eigenständige wissenschaftliche Richtung.

Das Wort „Physik“ wurde von Michail Wassiljewitsch Lomonossow in die russische Sprache eingeführt, als er das erste aus dem Deutschen übersetzte Physiklehrbuch in Russland veröffentlichte. Das erste russische Lehrbuch mit dem Titel „Ein kurzer Überblick über die Physik“ wurde vom ersten russischen Akademiker Strachow verfasst.

In der modernen Welt ist die Bedeutung der Physik äußerst groß. Alles, was die moderne Gesellschaft von der Gesellschaft vergangener Jahrhunderte unterscheidet, ist das Ergebnis der praktischen Anwendung physikalischer Entdeckungen. So führten Forschungen auf dem Gebiet des Elektromagnetismus zur Entstehung von Telefonen, Entdeckungen in der Thermodynamik ermöglichten die Entwicklung eines Autos und die Entwicklung der Elektronik führte zur Entstehung von Computern.

Das physikalische Verständnis der in der Natur ablaufenden Prozesse entwickelt sich ständig weiter. Die meisten neuen Entdeckungen finden bald Anwendung in Technik und Industrie. Neue Forschungen werfen jedoch immer wieder neue Rätsel auf und entdecken Phänomene, für deren Erklärung neue physikalische Theorien erforderlich sind. Trotz des enormen Wissensreichtums ist die moderne Physik noch weit davon entfernt, alle Naturphänomene zu erklären.

Die allgemeinen wissenschaftlichen Grundlagen physikalischer Methoden werden in der Erkenntnistheorie und Methodologie der Wissenschaften erarbeitet.

Fach Physik.

Physik ist die Naturwissenschaft im allgemeinsten Sinne (Teil der Naturgeschichte). Es untersucht Materie und Energie sowie die grundlegenden Wechselwirkungen der Natur, die die Bewegung der Materie steuern.

Einige Gesetze gelten für alle materiellen Systeme, zum Beispiel die Energieerhaltung – sogenannte physikalische Gesetze. Die Physik wird manchmal als „Grundlagenwissenschaft“ bezeichnet, weil andere Naturwissenschaften (Biologie, Geologie, Chemie usw.) nur eine bestimmte Klasse materieller Systeme beschreiben, die den Gesetzen der Physik gehorchen. Beispielsweise untersucht die Chemie Atome, aus ihnen gebildete Stoffe und die Umwandlung eines Stoffes in einen anderen. Die chemischen Eigenschaften einer Substanz werden eindeutig durch die physikalischen Eigenschaften von Atomen und Molekülen bestimmt, die in Bereichen der Physik wie Thermodynamik, Elektromagnetismus und Quantenphysik beschrieben werden.

Die Physik ist eng mit der Mathematik verbunden: Die Mathematik stellt den Apparat zur Verfügung, mit dem sich physikalische Gesetze präzise formulieren lassen. Physikalische Theorien werden fast immer in mathematischen Begriffen formuliert, wobei komplexere Mathematik verwendet wird, als es in anderen Wissenschaften üblich ist. Umgekehrt wurde die Entwicklung vieler Bereiche der Mathematik durch die Bedürfnisse physikalischer Theorien stimuliert.

Theoretische und experimentelle Physik.

1) Im Kern ist die Physik eine experimentelle Wissenschaft: Alle ihre Gesetze und Theorien basieren auf experimentellen Daten. Allerdings sind es oft neue Theorien, die Experimente motivieren und damit neuen Entdeckungen zugrunde liegen. Daher ist es üblich, zwischen experimenteller und theoretischer Physik zu unterscheiden.

Die Experimentalphysik untersucht Naturphänomene unter vorher vorbereiteten Bedingungen. Zu seinen Aufgaben gehört die Entdeckung bisher unbekannter Phänomene sowie die Bestätigung oder Widerlegung physikalischer Theorien. Viele Fortschritte in der Physik wurden durch die experimentelle Entdeckung von Phänomenen erzielt, die nicht durch bestehende Theorien beschrieben werden (z. B. führte die experimentell entdeckte Absolutheit der Lichtgeschwindigkeit zur Entstehung der speziellen Relativitätstheorie).

2) Zu den Aufgaben der theoretischen Physik gehört die Formulierung allgemeiner Naturgesetze und die Erklärung verschiedener Phänomene auf der Grundlage dieser Gesetze sowie die Vorhersage bisher unbekannter Phänomene. Die Genauigkeit jeder physikalischen Theorie wird experimentell überprüft: Wenn die experimentellen Ergebnisse mit den Vorhersagen der Theorie übereinstimmen, gilt sie als angemessen (sie beschreibt das gegebene Phänomen ziemlich genau).

Bei der Untersuchung eines Phänomens sind die Rollen der experimentellen und theoretischen Physik gleichermaßen wichtig.

Grundlegende Theorien.

Obwohl sich die Physik mit einer Vielzahl von Systemen befasst, sind einige physikalische Theorien auf weite Bereiche der Physik anwendbar. Solche Theorien gelten vorbehaltlich zusätzlicher Einschränkungen als allgemein wahr. Beispielsweise ist die klassische Mechanik korrekt, wenn die Größe der untersuchten Objekte viel größer ist als die Größe der Atome, die Geschwindigkeiten deutlich geringer als die Lichtgeschwindigkeit sind und die Gravitationskräfte gering sind. Diese Theorien werden immer noch aktiv erforscht; Beispielsweise wurde ein Aspekt der klassischen Mechanik wie die Chaostheorie erst im 20. Jahrhundert entdeckt. Sie bilden die Grundlage aller physikalischen Forschungen.

Einführung

Physikalische Konzepte der Antike und des Mittelalters

Entwicklung der Physik in der Neuzeit

Der Übergang von klassischen zu relativistischen Konzepten in der Physik

Moderne Physik der Makro- und Mikrowelt

Abschluss


Einführung

Die Physik war in der gesamten modernen und jüngeren Geschichte führend im wissenschaftlichen Fortschritt. Ihre Konzepte und Methoden dienten als Vorbild für andere Wissenschaften, das heißt, sie war gewissermaßen ein Paradigma der naturwissenschaftlichen Erkenntnis insgesamt. Und erst in der zweiten Hälfte des 20. Jahrhunderts führte die Entwicklung anderer Gebiete dazu, dass die Physik ihre absolute Führungsrolle zu verlieren begann. Aber auch heute noch basiert der wissenschaftliche und technische Fortschritt in vielerlei Hinsicht auf grundlegenden physikalischen Konzepten und den damit verbundenen Entwicklungen besonderer Fragestellungen.

Verallgemeinernde physikalische Theorien streben zu Recht danach, die tiefsten Grundlagen eines noch größeren Spektrums von Phänomenen aufzudecken, aber das Denken der Physiker gibt sich damit nicht zufrieden und strebt sozusagen durch Trägheit einer konkreten physikalischen Erklärung der Struktur der gesamten Welt zu als Ganzes. Und mehr als einmal schien es, als sei dieses Ziel bereits erreicht – zunächst in Form der klassischen Mechanik, dann in Form der Thermodynamik, nun in Form verallgemeinernder Feld- und Elementarteilchentheorien. Doch die Zeit und neue Entdeckungen zwingen uns unweigerlich dazu, die Unerfüllbarkeit solcher Hoffnungen einzugestehen. Bezogen auf die ganze Welt muss man sich nur mit philosophischen Überlegungen und Verallgemeinerungen begnügen, nur mit der allgemeinen Theorie der Dialektik, nur mit qualitativen Einschätzungen und nicht mit quantitativen Berechnungen.

1. Physikalische Konzepte der Antike und des Mittelalters

Der Begriff „Physik“ taucht im antiken philosophischen und wissenschaftlichen Denken des 6.-5. Jahrhunderts v. Chr. auf. Physiker waren damals jene Denker, die versuchten, ein mehr oder weniger ganzheitliches Bild der Welt um den Menschen zu zeichnen. Gleichzeitig schenkten sie der Frage, wie und mit welchen Methoden und kognitiven Verfahren dieses Wissen entsteht, kaum Beachtung. Darüber hinaus hielten sie das von ihnen entwickelte Weltbild für die absolute Wahrheit, die keiner weiteren Klärung bedarf. Und doch brachten sie, fast ohne Bezug auf reale Erfahrungen, eine Reihe grundlegender Ideen vor, die später in der modernen Physik entwickelt wurden und sogar die Grundlage für deren weiteren Fortschritt bildeten.

Die grundlegendste Idee in dieser Hinsicht war das Prinzip des Atomismus, das es Demokrit und Epikur ermöglichte, die Entstehung der Vielfalt in der umgebenden Welt qualitativ zu erklären und zu zeigen, dass hierfür relativ einfache Modelle ausreichen. Somit lässt sich der Unterschied zwischen zwei beliebigen Dingen vollständig durch nur drei Eigenschaften erklären: die Anzahl der Atome, aus denen sie bestehen; die Form dieser Atome, die durch die Geometrie ausreichend beschrieben wird; Beziehungen zwischen Atomen.

Jede Veränderung einer Sache, sowohl quantitativ als auch qualitativ, hängt von einer Veränderung dieser drei Merkmale und ihrer Beziehung ab. Dieses Verständnis der physischen Realität führte zur Idee der Unendlichkeit der Welt und gleichzeitig zur Behauptung, dass die Grundlage der physischen Realität, also die Atome, absolut unveränderlich sind und daher außerhalb der Zeit existieren . Damit wurde das Prinzip der Unerschaffbarkeit und Unzerstörbarkeit von Materie und Materie formuliert. Für Atomisten existierte die Materie zwar in zwei Formen: als Atome oder vollständig und als Leere.

So erhielt der abstrakte Widerspruch der bewegten Materie, den Heraklit als die Einheit von Sein und Nichtsein formulierte, als Verhältnis von Fülle und Leere eine konkrete physische Form. Voll ist Existenz, leer ist Nichtexistenz. Die Gegensätze erwiesen sich als völlig getrennt, was die Entwicklung physikalischer Paradigmen für lange Zeit vorgab. Hier wurde ein weiteres Problem gestellt, nämlich das Problem der Elementarität, das heißt, Atome sind absolut elementar. Schließlich geben sie ihre innere Struktur in keiner Weise preis, sie sind absolut unteilbar.

Auch dieses Modell der physikalischen Realität nutzte Paradigmen, die in der weiteren Geschichte der Physik weiterhin eine wichtige Rolle spielten; ihre radikale Überarbeitung erfolgte im Wesentlichen erst im 20. Jahrhundert, da erst mit der Entwicklung der Quantenmechanik und der Elementarteilchenforschung die Konzepte von Vakuum und elementar.

Obwohl antike Denker verschiedene Aspekte des Verständnisses physikalischer Phänomene entwickelten, berührten sie nicht das eigentliche Wesen der physikalischen Realität. Drei Konzepte waren für die Weiterentwicklung der Physik und der gesamten Naturwissenschaft von entscheidender Bedeutung. Dies ist der Atomismus von Demokrit und Epikur, das Konzept der Entstehung von Ordnung aus dem Chaos von Empedokles und Anaxagoras und die Physik von Aristoteles, in der er versuchte, Bewegung auf der Grundlage der Prinzipien seiner Philosophie zu beschreiben. Aristoteles glaubte in Anlehnung an Platon, dass nur das logisch ausgedrückt werden könne, was keinen Widerspruch enthält. Aber Veränderung, Bewegung sind widersprüchlich, daher zielt die Erkenntnis darauf ab, was die Ursache von Bewegung, Veränderung ist. Ein solcher Grund ist nach Aristoteles die Form, also ein System allgemeiner Eigenschaften. Form ist zugleich Ursache der Bewegung, Veränderung und Ziel des Prozesses. Da die Form unveränderlich ist, folgt die Schlussfolgerung, dass Bewegung nur insoweit stattfindet, als ihre Ursache wirksam ist. Durch die Beseitigung der Ursache wird auch die Bewegung selbst beseitigt. Diese Aussage des Aristoteles wurde vorherrschend in der mittelalterlichen Physik, die an europäischen Universitäten entwickelt wurde und im Wesentlichen im Rahmen der Philosophie blieb. Und obwohl Versuche unternommen wurden, dieses aristotelische Paradigma zu revidieren, dominierte es weiterhin die physikalischen Vorstellungen bis zum 17. Jahrhundert.

Galilei versetzte diesem physikalischen Paradigma den ersten schweren Schlag. Die Einführung des Trägheitsprinzips zeigte, dass ein Körper, der sich geradlinig und gleichmäßig bewegt, diesen Zustand auch dann beibehält, wenn keine Kraft auf ihn einwirkt. So wurde in Bezug auf die mechanische Bewegung das Prinzip der Identität der Gegensätze formuliert. Es stellte sich heraus, dass der Zustand der gleichmäßigen und geradlinigen Bewegung und der Ruhezustand so identisch sind, dass im Inneren des Systems kein mechanisches Experiment erkennen kann, ob es sich bewegt oder ruht.

Es waren diese Paradigmen, die die erste Entwicklungsstufe der modernen Physik bestimmten.


Die spätere Entwicklung der Physik, insbesondere die von Newton, war nur eine Weiterentwicklung der grundlegenden Entdeckung Galileis. Gleichzeitig wurden jedoch einige paradigmatische Ideen in die Physik eingeführt. Erstens. Newton versteht im Wesentlichen den Atomismus oder das Korpuskularkonzept der Materie, möglicherweise beeinflusst durch die Arbeit von Boyle, erweitert dies jedoch auf die Lichttheorie und betrachtet Licht als einen Strom von Korpuskeln. Gleichzeitig lässt Newton explizit oder implizit zwei sehr bedeutsame Idealisierungen zu. Zweitens, sofortige Wirkung und Wirkung über große Entfernungen, zumindest für Gravitationskräfte. Dies führt zur Annahme der Existenz eines zeitlosen Prozesses. Denn sowohl die unmittelbare Wirkung als auch die Wirkung über große Entfernungen schließen die Zeitcharakteristik der Wechselwirkung aus. Drittens schlug Newton vor, dass Raum und Zeit unabhängige, von der Materie unabhängige Einheiten seien. Alle physikalischen Prozesse laufen in Zeit und Raum ab, interagieren aber nicht mit ihnen.

Auf der Grundlage dieser Vorstellungen über die physikalische Realität erstellte Newton das erste kosmologische Modell. Nach diesem Modell sind Sterne relativ gleichmäßig im unendlichen Raum verteilt, und es gibt auch unendlich viele von ihnen. Wenn der Raum endlich wäre oder die Anzahl der Sterne endlich wäre, würden die Gravitationskräfte alle Sterne in einen einzigen Körper ziehen. Die Stabilität des Kosmos basiert somit auf der Unendlichkeit des Weltraums, der unendlichen Anzahl von Sternen und der relativen Gleichmäßigkeit der Verteilung dieser Sterne im Weltraum.

Die Erfolge der Mechanik im 17.-18. Jahrhundert führten sowohl die Physiker selbst als auch die materialistischen Philosophen zu einer methodischen Installation paradigmatischer Natur: Etwas zu wissen bedeutet, ein mechanisches Modell des untersuchten Fachgebiets zu erstellen und es so auf die Gesetze der Mechanik zu reduzieren. Diese Gesetze sind die grundlegendsten, und jedes andere Gesetz ist nur eine Spezifikation der Gesetze der Mechanik. Diese Einstellung hat sich so tief in den Köpfen der Physiker verankert, dass selbst Maxwell, der Erfinder der Theorie des elektromagnetischen Feldes, zunächst versuchte, sie mit mechanischen Modellen zu erklären. Noch im Jahr 1900 argumentierte die allgemein anerkannte Autorität der damaligen Physik, Thompson, alias Lord Kelvin, dass grundlegend neue Entdeckungen in der Physik nicht zu erwarten seien, alle derartigen Entdeckungen seien bereits gemacht worden – das seien die Gesetze der Mechanik. Im Zusammenhang mit der Erforschung elektromagnetischer Phänomene zeichnet sich in der Physik eine neue paradigmatische Struktur ab. Zunächst wird natürlich versucht, diese Phänomene im gleichen Paradigmensystem zu betrachten, das die Mechanik den Physikern beigebracht hat. Anstelle gravitierender Massen werden nun elektrische Ladungen betrachtet, die sich nach einem dem Schwerkraftgesetz ähnlichen Gesetz anziehen oder abstoßen. Es wurde jedoch bald klar, dass elektromagnetische Phänomene mit Mustern verbunden waren, mit denen sich die klassische Mechanik nicht befasste. Daher war es notwendig, die eigentliche Substanz physikalischer Phänomene zu überdenken. Die Untersuchung des Lichts zeigte, dass das Korpuskularmodell, das Newton selbst verwendete, unzureichend war. Das Wellenmodell erwies sich als geeigneter. Doch damit sich Wellen ausbreiten können, braucht es ein Medium, und als solches wurde der Äther postuliert. Somit sind Atome und Äther zwei Substanzen, die es ermöglichen sollten, alle physikalischen Phänomene auf die Gesetze der Mechanik zu reduzieren. In seinen neuesten Arbeiten gab Maxwell jedoch mechanische Modelle und abgeleitete Gleichungen zugunsten der Theorie des elektromagnetischen Feldes auf. Untersuchungen dieser Theorie haben gezeigt, dass sie überhaupt keine Mechanik erfordert und dass sie sich auf ihr eigenes empirisches Material in der gleichen Weise bezieht wie die klassische Mechanik auf ihr eigenes. Dabei handelt es sich um zwei unabhängige Theorien, die qualitativ unterschiedliche Prozesse beschreiben.

Das Paradigma, das noch immer die Physik beherrschte, erforderte jedoch die Reduzierung einiger Gesetze auf andere. Anstelle eines mechanischen Weltbildes wird daher versucht, ein elektromagnetisches Weltbild einschließlich einer Erklärung mechanischer Phänomene zu konstruieren. Somit war die Schaffung der Theorie des elektromagnetischen Feldes der Abschluss eines Prozesses, der die paradigmatische Struktur des physikalischen Denkens erheblich veränderte. Elektromagnetische Prozesse finden in jeder Umgebung statt, auch im Vakuum, und daher ist das Vakuum, in dem diese Prozesse stattfinden, keine absolute Leere mehr.

Da dank elektromagnetischer Modelle die Einheit scheinbar heterogener Prozesse wie Elektrizität, Magnetismus und Licht offenbart wurde, war es natürlich zu erwarten, dass die Grundlage all dieser Prozesse dieselbe Substanz ist, nämlich der Äther. Inzwischen zeigte ein Vergleich der Experimente von Fizeau und Michelson-Morley, dass das Konzept des Äthers widersprüchlich ist. Es muss gleichzeitig von der Erdbewegung erfasst und nicht erfasst werden. Ein widersprüchliches Konzept kann jedoch nicht die Grundlage theoretischer Modelle sein. Die Entdeckung des photoelektrischen Effekts zeigte, dass Licht, also eine elektromagnetische Schwingung, gleichzeitig Wellen- und Korpuskularcharakter hat. Somit erwies sich der Äther als unnötig, da er die Doppelnatur elektromagnetischer Prozesse nicht erklären kann.

Der Übergang von mechanischen Modellen physikalischer Prozesse zu elektromagnetischen Modellen verändert grundlegend eines der grundlegenden Paradigmen, das aus der antiken Atomistik stammt. Für die gesamte Physik von der Antike bis zur zweiten Hälfte des 19. Jahrhunderts war das vorherrschende Paradigma, dass Teilchen, Korpuskeln usw. Träger von Eigenschaften, Subjekt der physikalischen Realität seien. Nun stellt sich heraus, dass ein solcher Träger und dementsprechend ein Subjekt ein Feld ist. Aber das Feld ist im Gegensatz zu Korpuskeln kontinuierlich. Nach der mathematischen Definition ist ein Feld im Gegensatz zur Materie ein System mit unendlich vielen Freiheitsgraden.

3. Übergang von klassischen zu relativistischen Konzepten in der Physik

Der Feldbegriff wurde in der Relativitätstheorie entwickelt. Die Werke von Poincaré und Einstein legten den Grundstein für ein neues Verständnis der physikalischen Realität. Wenn wir mit einer Situation konfrontiert sind, in der die uns bekannten physikalischen Gesetze empirische Fakten nicht mehr erklären können, gibt es laut Poincaré zwei Möglichkeiten, das Problem zu lösen: Wir können erstens die Gesetze selbst ändern und zweitens den Raum und Zeit. In diesem Fall erhalten wir identische Lösungen für das Problem. Allerdings ist es einfacher, die Eigenschaften von Raum und Zeit zu transformieren. Lorentz zeigte, wie dies mathematisch erfolgen konnte, und Minkowski konstruierte zu diesem Zweck eine mathematische Darstellung der Raumzeit, die ihren untrennbaren Zusammenhang offenbarte.

Diese mathematischen Konstruktionen basierten auf einer Verallgemeinerung einer Idee, die aus Galileis Relativitätsprinzip stammte. Wie bereits erwähnt, ist es nach diesem Prinzip im Inneren eines Systems unmöglich, durch ein mechanisches Experiment herauszufinden, ob sich dieses System bewegt oder ruht, vorausgesetzt, das System ist träge, also in einem Ruhe- oder Gleichförmigkeitszustand und lineare Bewegung.

Dieses Prinzip identifiziert Bewegung und Ruhe nur aus der Sicht der mechanischen Bewegung. Doch bereits zu Beginn des 20. Jahrhunderts beschäftigte sich die Physik mit qualitativ unterschiedlichen Prozessen. Daher die natürliche Verallgemeinerung des Galileo-Prinzips: Da man sich in einem Inertialsystem befindet, kann kein physikalisches Experiment erkennen, ob es sich bewegt oder ruht. Folglich wird die Identität von Ruhe und Bewegung in Bezug auf jeden physikalischen Prozess verallgemeinert. Um jedoch eine spezielle Relativitätstheorie aufzustellen, ist ein zweites Postulat erforderlich, und es wurde das Ergebnis des Michelson-Morley-Experiments verwendet, wonach die Lichtgeschwindigkeit im Vakuum nicht von der Geschwindigkeit der Lichtquelle abhängt als solches Postulat. Im Vakuum ist dieser Wert konstant und stellt im Allgemeinen die Geschwindigkeitsgrenze für alle physikalischen Wechselwirkungen dar. Durch die Anwendung des mathematischen Apparats von Lorentz und Minkowski und die Einführung einer Reihe erkenntnistheoretischer Annahmen auf der Grundlage eines Gedankenexperiments kann dies gezeigt werden. Erstens gibt es keine universelle Möglichkeit, die Gleichzeitigkeit von Ereignissen zu erkennen, da hierfür der Austausch von Signalen erforderlich ist und die Geschwindigkeit der Signalübertragung endlich ist. Folglich erhalten zwei Beobachter, die sich relativ zueinander bewegen, unterschiedliche Ergebnisse, wenn sie versuchen, die Gleichzeitigkeit desselben Ereignisses festzustellen. Zweitens erhält man bei getrennter Messung des räumlichen und zeitlichen Abstands je nach Bezugssystem unterschiedliche Werte. Nur das Raum-Zeit-Intervall hat einen vom Beobachter unabhängigen Absolutwert.

Trotz des revolutionären Charakters dieses Konzepts von Raum und Zeit als Grundlage für das Verständnis aller physikalischen Prozesse wird es oft der klassischen Physik zugeordnet. Tatsache ist, dass die Relativitätstheorie das für die klassische Physik paradigmatische Verständnis des Determinismus beibehielt, während mit der Schaffung der Quantenmechanik der Determinismus von Laplace revidiert wurde. Es wurde durch die Idee der probabilistischen Bestimmung und Unsicherheit als integrales Merkmal jeder physikalischen Interaktion ersetzt.

In der Speziellen Relativitätstheorie wurde die Identität von Ruhe und Bewegung in verallgemeinerter Form dargestellt, da sie sich nicht nur auf mechanische Wechselwirkungen, sondern auf alle physikalischen Experimente und damit auf die Tatsache bezieht, dass alle physikalischen Gesetze in Inertialsystemen invariant sind . Aber selbst eine solche Verallgemeinerung ist unvollständig. Schließlich sprechen wir nur von Inertialsystemen.

Der nächste Schritt, die Verallgemeinerung des Prinzips der Identität von Ruhe und Bewegung in physikalischen Prozessen, hätte darin bestehen sollen, es auf beschleunigte Bewegung auszudehnen. Dies geschah in der Allgemeinen Relativitätstheorie. Darin heißt es, dass kein physikalisches Experiment innerhalb eines Systems feststellen kann, ob das System ruht oder sich bewegt, unabhängig davon, um welche Bewegung es sich handelt. Mit anderen Worten: Es wurde das Prinzip der Identität von schwerer und träger Masse eingeführt.

Diese Formulierung des Problems der Bewegung und der körperlichen Interaktion im Allgemeinen führte zu einer Veränderung des Verständnisses von Raum und Zeit. Die Schwerkraft könnte als Krümmung des Raums dargestellt werden, abhängig von der Verteilung der gravitierenden Massen darin. Die von Einstein und Infeld bewiesene Schlussfolgerung, dass die allgemeine Relativitätstheorie die dritte und letzte Stufe in der Entwicklung der Bewegungstheorie sei, schien ganz natürlich. Schließlich erhielt das Prinzip der Identität von Ruhe und Bewegung seine endgültige Verallgemeinerung.

Die Schaffung der Allgemeinen Relativitätstheorie ermöglichte es, das Problem der Erstellung kosmologischer Modelle auf eine neue Art und Weise zu stellen. Obwohl die Astronomen bis ins 20. Jahrhundert vom Newtonschen Modell des Universums ausgingen, wurde bereits im 19. Jahrhundert klar, dass dieses Modell einen Widerspruch zu den beobachteten Tatsachen enthielt. Am deutlichsten kommt dies in den sogenannten Photometrie- und Gravitationsparadoxen zum Ausdruck. Wie Olbers zeigte, sollte, wenn der Raum unendlich und gleichmäßig mit Sternen gefüllt ist, ihr Licht summiert werden und daher der Nachthimmel mit der Helligkeit der Sonne leuchten, da die Sonne in ihrer Leuchtkraft ein durchschnittlicher Stern ist. Dies wird jedoch nicht beobachtet. Daher ist etwas in den Annahmen, auf denen dieses Modell basiert, falsch. Später bewies Zeileger das sogenannte Gravitationsparadoxon. Nach diesem Paradoxon summieren sich die Gravitationskräfte, wenn es unendlich viele Körper im Raum gibt, und die Beschleunigung an jedem Punkt im Raum unter dem Einfluss dieser Kräfte wird unendlich groß sein.

Die einzige Möglichkeit, diese Paradoxien loszuwerden und gleichzeitig den Frieden im Weltraum aufrechtzuerhalten, besteht darin, bestimmte Beziehungen zwischen Sternen und Sternensystemen zu akzeptieren. Wenn diese Abstände in einer konvergierenden D'Alembert-Reihe aneinandergereiht werden, verschwinden die Paradoxien, aber gleichzeitig tendiert die Materiemenge im Raum gegen Null. Da das Newtonsche Modell auf der Grundlage der klassischen Mechanik aufgebaut wurde, wurde es mit der Schaffung der relativistischen Mechanik, also der Mechanik der Relativitätstheorie, möglich, ein grundlegend neues kosmologisches Modell aufzubauen. Unter der Annahme einer bestimmten Materiedichte im Universum, etwas größer als Gramm pro zehn bis minus neunundzwanzigste Potenz pro Kubikzentimeter, erhielt Einstein ein kosmologisches Modell des Universums in Form einer vierdimensionalen Reihe von Ereignissen in der Form ein Zylinder mit endlichem Radius und unendlicher Zeitachse. Dabei betrachtete er nur die Lösung der Gleichungen, die das stationäre Modell beschrieben.

Wie Friedman später zeigte, haben auch diese Gleichungen eine instationäre Lösung. In diesem Fall wird der Raum entweder kleiner oder größer. Bei positiver Krümmung, wenn die Massendichte höher als die kritische ist, ist die Krümmung positiv und das „Universum“ zieht sich zusammen; bei einer Dichte unter der kritischen Dichte ist die Krümmung negativ und das „Universum“ dehnt sich aus. Als Hubble 1929 eine Rotverschiebung in den Spektren entfernter Galaxien entdeckte, interpretierte er diese nach dem Doppler-Prinzip, wonach mit zunehmender Entfernung der Schwingungsquelle die Frequenz der von ihr ausgehenden Schwingungen abnimmt, was für Licht a bedeutet Verschiebung zur roten Seite des Spektrums. Dies wurde als Bestätigung von Friedmans Schlussfolgerung über die instationäre Natur des Universums gewertet, oder genauer gesagt, dass sich das Universum ausdehnt.

Die Relativitätstheorie revolutionierte zunächst das Verständnis der Megawelt und erst später wurde klar, dass die darin formulierten Gesetze auch auf der Ebene der Mikrowelt gelten.

Chaos relativistische Physik Anaxagoras

4. Moderne Physik der Makro- und Mikrowelt

Das grundlegendste Ergebnis, das eines der wichtigsten Paradigmen der Physik veränderte, war die Schlussfolgerung, dass alle grundlegenden physikalischen Gesetze statistischer Natur sind. Von entscheidender Bedeutung war die Entdeckung der Heisenbergschen Unschärferelation. Nach diesem Prinzip ist Delta X mal Delta P größer als gleich H.

Wenn einer dieser Fehler abnimmt, nimmt der zweite zu und somit erweist sich der Zustand des Elementarteilchens immer als unsicher. Wenn der Anfangszustand jedoch nicht genau bestimmt werden kann, ist der spätere Zustand des Teilchens noch unsicherer. Es ist wichtig, dass eine solche Unsicherheit nicht nur der Position des Teilchens im Raum, sondern auch seinem Energiezustand innewohnt. Folglich erweist sich Unsicherheit aus physikalischer Sicht als integrale Eigenschaft jeder physikalischen Interaktion in allen Formen ihrer Erscheinungsform.

Die Entwicklung der Theorie der Elementarteilchen und der Quantenmechanik ermöglichte es, eine Reihe grundlegender physikalischer und philosophischer Probleme zu stellen. Erstens geht es um die Frage nach der Unerschöpflichkeit der physikalischen Realität in der Tiefe. So wie Einstein und Infeld den Satz bewiesen, nach dem die allgemeine Relativitätstheorie eine so vollständige Beschreibung der Bewegung liefert, dass auf diesem Gebiet kein weiterer qualitativer Fortschritt mehr möglich ist, so bewies von Neumann den Satz über verborgene Parameter. Nach diesem Theorem sind die Gesetze der Quantenmechanik der letzte Schritt bei der Beschreibung physikalischer Wechselwirkungen in der Mikrowelt. Eine tiefere Beschreibung könnte es nicht geben. Wenn versteckte Parameter vorhanden sind, können diese nicht angezeigt werden. Daher können die Gesetze der Quantenmechanik nicht auf anderen physikalischen Gesetzen basieren, sondern nur auf den Gesetzen der großen Zahlen, also auf einer mathematischen Struktur. An diesem Punkt schien die Physik wieder zur pythagoräischen Begründung der physikalischen Realität zurückzukehren.

Mittlerweile zielte die Forschung auf dem Gebiet der Elementarteilchen darauf ab, eine tiefere Organisationsebene der Elementarteilchen zu finden. Lange Zeit schien es, als sei der Satz von Neumann in gewisser Weise durch Experimente bestätigt. Diese Bestätigung wurde darin gesehen, dass beim Versuch, die Struktur eines Elementarteilchens zu identifizieren und die Teilchen zu finden, aus denen es besteht, jedes Mal eine paradoxe Situation auftrat, die sich qualitativ von der Interaktion auf Mikroebene unterschied. Unter ausreichend starker äußerer Einwirkung zerfallen Makrokörper in die Teile, aus denen sie bestehen. Wenn wir dagegen auf ein Elementarteilchen sogar eine solche Energie anwenden, die seine eigene übersteigt, also E = M*C2, wobei M die Masse des betroffenen Teilchens ist, wird es nicht zerstört, sondern erzeugt Teilchen desselben Ebene. Daher begannen sie zu sagen, dass die Unerschöpflichkeit der physikalischen Realität auf der Ebene der Mikrowelt nicht in der Tatsache liegt, dass es eine tiefere, subtilere Organisationsebene gibt, sondern in der Tatsache, dass die Vielfalt der Elementarteilchen eine unerschöpfliche Menge bildet von Eigenschaften und Beziehungen.

Und doch bleibt der Wunsch bestehen, eine tiefere Strukturebene der Organisation der Materie zu finden. Auf diesem Weg entstanden mehrere Theorien, die teilweise im Experiment bestätigt wurden. Dies ist zum Beispiel die Theorie der Quarks, die Theorie der Partonen, also der Teilteilchen, die außerhalb des Ganzen, also außerhalb ihres Teilchens, nicht existieren. Obwohl heute bereits Hunderte von Elementarteilchen entdeckt wurden, haben die meisten von ihnen eine sehr kurze Lebensdauer und nur wenige Teilchen sind stabil, beispielsweise das Elektron, das Proton, das Photon, das Neutrino.

Jede Wechselwirkung auf der Ebene der Elementarteilchen erfolgt über virtuelle Teilchen. Sie verbinden Elementarteilchen miteinander. Beispielsweise interagieren Protonen über Pi-Mesonen mit Neutronen und machen so Atomkerne stabil. Virtuelle Teilchen sind noch immer nicht vollständig verstanden und sehr rätselhaft. Einerseits existieren sie wirklich, denn ohne sie gäbe es keine Wechselwirkung, Atomkerne würden auseinanderfallen und Elektronen könnten sich nicht auf Atombahnen drehen. Andererseits erkennen viele Theoretiker ihre unbedingte Existenz nicht an, da in diesem Fall der Energieerhaltungssatz verletzt wird. Daher müssen wir Heraklit folgen, um zu behaupten, dass beide gleichzeitig existieren und nicht existieren.

Dank der Forschung auf dem Gebiet der Quantenmechanik und der Elementarteilchen ist es möglich geworden, das Vakuum aus einer neuen Perspektive zu betrachten. Es stellte sich heraus, dass im Vakuum Teilchen und Antiteilchen ständig paarweise auftauchen und verschwinden. Allerdings ist ihre Lebensdauer so kurz, dass es unmöglich ist, sie experimentell nachzuweisen. Der Nachweis solcher Teilchen würde dem Heisenbergschen Unschärfeprinzip widersprechen. Gerade wegen der kurzen Existenz von Vakuumteilchen erfahren darin bewegte Körper praktisch keinen Widerstand. Spezielle Experimente, die auf mathematischen Modellen basieren, können jedoch indirekt das Erscheinen und Verschwinden virtueller Teilchen-Antiteilchen-Paare nachweisen. Auch hier haben wir die Situation, dass Teilchen im Vakuum vorhanden sind und gleichzeitig nicht da sind.

Bereits in den 1930er Jahren wurde klar, dass allen physikalischen Phänomenen vier Arten von Wechselwirkungen zugrunde liegen. Dabei handelt es sich um die Gravitation, die auf der Makro- und Megaebene der Organisation der physischen Realität von entscheidender Bedeutung ist; elektromagnetisch, manifestiert sich auf Mikro- und Makroebene; starke Wechselwirkungen, die intranukleare Kräfte bestimmen; schwache Wechselwirkungen, die den Zerfall von Protonen bestimmen. Gleichzeitig stellte sich sofort die Frage: Können diese Kräfte auf eine Art Einheit reduziert werden, d. h. es stellte sich das Problem, eine einheitliche Feldtheorie zu schaffen. Natürlich versuchten sie zunächst, den Weg zu gehen, der immer zu guten Ergebnissen führte, das heißt, einige Gesetze auf andere zu reduzieren. So versuchte Einstein viele Jahre lang, eine einheitliche Feldtheorie zu schaffen und versuchte, drei weitere Wechselwirkungen aus der Allgemeinen Relativitätstheorie abzuleiten. Das Scheitern, das ihm auf diesem Weg widerfuhr, lag darin begründet, dass man das eine nur dann erfolgreich vom anderen ableiten kann, wenn es einen objektiven Zusammenhang widerspiegelt. Mittlerweile sind alle vier Interaktionen eine Folge einer allgemeineren anfänglichen Interaktion. Der Erfolg stellte sich erst ein, als die Notwendigkeit, den Urknall zu erklären, uns dazu zwang, dieses Problem evolutionär anzugehen und vom Einfachsten auszugehen – vom Vakuum. Genau so entwickelt sich dieses Problem in Urknallmodellen. Wenn zunächst angenommen wurde, dass der Anfangszustand der Entwicklung unseres Universums eine besondere, superdichte Verdichtung von Materie und Energie sei, dann begann dank eines explosiven Prozesses die Synthese von Elementarteilchen und dadurch entstand der Anfangszustand in der die vier uns bekannten physikalischen Wechselwirkungen bereits wirksam waren, wird in der modernen Kosmologie das Vakuum als Ausgangszustand angenommen.

Der Urknall gilt als Vakuumschwankung, bei der das relative Gleichgewicht der Anziehungs- und Abstoßungskräfte gestört wurde, was zu einer kolossalen Energiefreisetzung führte.

Somit entsteht unser Universum aus dem, was in der modernen physischen Realität äußerst einfach ist, nämlich aus einem Vakuum oder aus „Nichts“. Hegel argumentierte in seiner Logik, dass die Entwicklung vom Nichts über etwas zum Nichts verläuft. IN UND. Diese Aussage erschien Lenin zweifelhaft; er schrieb darüber, dass etwas aus dem Nichts kommt, aber nichts aus dem Nichts entsteht. Aber aus der Sicht des Urknallmodells entsteht unser Universum aus „nichts“. Schließlich ist der Begriff des „Nichtseins“ in Hegels Philosophie relativ, da er mit dem Begriff des „Seins“ identisch ist. Deshalb hat die Frage, ob man vom Sein oder Nichtsein ausgeht, in dieser Philosophie keine grundsätzliche Bedeutung. Jedes dieser Konzepte wandelt sich direkt in ein anderes um und ergibt so das Konzept des „Werdens“. Und durch das Werden entsteht bestehende Existenz, also eine Gewissheit, in der Qualität bereits gegeben ist. Im kosmologischen Modell des Urknalls ist die Situation ungefähr die gleiche. Der dem Vakuum innewohnende innere Widerspruch führt zu einem Prozess, und das Ergebnis dieses Prozesses ist die Gewissheit der Gesetze der physikalischen Realität.

Abschluss

Die Bildung eines wissenschaftlichen Weltbildes im Zeitalter der Entstehung und Entwicklung der klassischen Naturwissenschaften hing in hohem Maße von dem sich schnell verändernden Verhältnis zwischen naturphilosophischem Wissen und Wissen auf der Grundlage experimenteller Forschung ab. Der immer stärker werdende Stellenwert wissenschaftlicher Erkenntnisse und die damit verbundene verstärkte Aufmerksamkeit für methodische und erkenntnistheoretische Probleme führten dazu, dass das naturphilosophische Weltbild durch Naturvorstellungen ersetzt wurde, in deren Mittelpunkt die Grundlagenbereiche der Naturwissenschaft standen Naturwissenschaft für eine bestimmte Epoche.

Gleichzeitig war der Prozess der Bildung eines wirklich wissenschaftlichen Weltbildes recht widersprüchlich. Obwohl Naturphilosophie und Humanismus also einen zerstörerischen Einfluss auf die mittelalterliche Scholastik hatten, konnten sie das Weltbild noch nicht vollständig von Elementen des scholastischen Peripatismus und der Mystik verdrängen. Erst mit dem Aufkommen der klassischen Mechanik und Astronomie, basierend auf der Axiomatik und der entwickelten Mathematik, erhielt das Weltbild die wesentlichen Merkmale einer wissenschaftlichen Weltanschauung. Eine herausragende Rolle in diesem Prozess spielten das neue heliozentrische Paradigma des Kopernikus, das galiläische Wissenschaftsbild und die Newtonsche Methodik beim Aufbau des Weltsystems. Es wurde möglich, ein wissenschaftliches Bild der Welt zu entwerfen, das auf empirisch fundiertem Wissen basierte.

Derzeit hat die Wissenschaft eine große Vielfalt an materiellen Objekten etabliert, die die Mikro-, Makro- und Megawelt repräsentieren. Es bleibt jedoch die Frage offen, ob diese Entdeckungen alles erschöpfen, was überhaupt existiert. Die Vielfalt der Materie und ihrer Bewegung ist nicht nur quantitativ, sondern auch qualitativ unendlich. Das Prinzip der qualitativen Unendlichkeit der Natur bedeutet die Anerkennung der unbegrenzten Vielfalt struktureller Formen der Materie, die sich in den grundlegendsten Gesetzen der Existenz unterscheiden.

Liste der verwendeten Literatur

1.Einführung in die Geschichte und Philosophie der Wissenschaft. M.: Akademisches Projekt, 2005 -407 S.

.Voitov, A.G. Geschichte und Philosophie der Wissenschaft: Lehrbuch für Doktoranden – M.: Dashkov i K, 2007 – 691 S.

.Gorelov A. A. Konzepte der modernen Naturwissenschaft. - M.: Mitte, 2007. -226 S.

.Guseikhanov M. K., Radjabov O. R. Konzepte der modernen Naturwissenschaft. -M.: ITK „Dashkov und K°“, 2008. - 378 S.

.Nebel B. Umweltwissenschaften. Wie die Welt funktioniert. - M.: Mir, 2010. - 280 S.

Der Ursprung und die Entwicklung der Physik als Wissenschaft. Die Physik ist eine der ältesten Naturwissenschaften. Die ersten Physiker waren griechische Denker, die versuchten, beobachtete Naturphänomene zu erklären. Der größte der antiken Denker war Aristoteles (384-322 v. Chr.), der das Wort „<{>vai?“, („fusis“)

Was bedeutet Natur auf Griechisch? Aber denken Sie nicht, dass Aristoteles‘ „Physik“ in irgendeiner Weise modernen Physiklehrbüchern ähnelt. Nein! Darin finden Sie keine einzige Beschreibung eines Experiments oder Geräts, keine einzige Zeichnung oder Zeichnung, keine einzige Formel. Es enthält philosophische Überlegungen über Dinge, über Zeit, über Bewegung im Allgemeinen. Alle Werke wissenschaftlicher Denker der Antike waren gleich. So beschreibt der römische Dichter Lucretius (ca. 99-55 S. v. Chr.) die Bewegung von Staubpartikeln in einem Sonnenstrahl in dem philosophischen Gedicht „Über die Natur der Dinge“: Vom antiken griechischen Philosophen Thales (624-547 S. Chr. ) entsteht unser Wissen über Elektrizität und Magnetismus, Demokrit (460-370 S. v. Chr.) ist der Begründer der Lehre vom Aufbau der Materie, er war es, der vorschlug, dass alle Körper aus den kleinsten Teilchen – Atomen – bestehen, Euklid (III Jahrhundert v. Chr.) führte wichtige Forschungen auf dem Gebiet der Optik durch – er formulierte als erster die Grundgesetze der geometrischen Optik (das Gesetz der geradlinigen Ausbreitung des Lichts und das Gesetz der Reflexion) und beschrieb die Wirkung flacher und sphärischer Spiegel .

Unter den herausragenden Wissenschaftlern und Erfindern dieser Zeit nimmt Archimedes (287–212 v. Chr.) den ersten Platz ein. Aus seinen Werken „Über das Gleichgewicht der Ebenen“, „Über schwimmende Körper“ und „Über Hebel“ beginnen sich Zweige der Physik wie Mechanik und Hydrostatik zu entwickeln. Das brillante technische Talent von Archimedes zeigte sich in den von ihm entworfenen mechanischen Geräten.

Aus der Mitte des 16. Jahrhunderts. Eine qualitativ neue Etappe in der Entwicklung der Physik beginnt – Experimente und Experimente beginnen in der Physik eingesetzt zu werden. Eines der ersten ist Galileis Erlebnis, eine Kanonenkugel und eine Kugel vom Schiefen Turm von Pisa zu werfen. Dieses Experiment wurde berühmt, weil es als „Geburtstag“ der Physik als experimentelle Wissenschaft gilt.

Die wissenschaftlichen Arbeiten von Isaac Newton wurden zu einem starken Impuls für die Entstehung der Physik als Wissenschaft. In seinem Werk „Mathematische Grundlagen der Naturphilosophie“ (1684) entwickelt er einen mathematischen Apparat zur Erklärung und Beschreibung physikalischer Phänomene. Die sogenannte klassische (Newtonsche) Mechanik basierte auf den von ihm formulierten Gesetzen.

Schnelle Fortschritte in der Erforschung der Natur, die Entdeckung neuer Phänomene und Naturgesetze trugen zur Entwicklung der Gesellschaft bei. Seit dem Ende des 18. Jahrhunderts führte die Entwicklung der Physik zu einer rasanten Entwicklung der Technologie. Zu dieser Zeit erschienen Dampfmaschinen, die verbessert wurden. Aufgrund ihrer weit verbreiteten Verwendung in Produktion und Transport wird dieser Zeitraum als „Alter des Paares“ bezeichnet. Gleichzeitig werden thermische Prozesse eingehend untersucht und ein neuer Abschnitt in der Physik hervorgehoben – die Thermodynamik. Den größten Beitrag zur Erforschung thermischer Phänomene leisten S. Carnot, R. Clausius, D. Joule, D. Mendeleev, D. Kelvin und viele andere.

Hintergrund der Physik. Beobachtung von körperlichen Phänomene traten in der Antike auf. Zu dieser Zeit war der Prozess der Anhäufung von Faktenwissen noch nicht differenziert: physikalische, geometrische und astronomische Konzepte entwickelten sich gemeinsam.

Die systematische Ansammlung von Fakten und Versuche, sie zu erklären und zu verallgemeinern, die der Entstehung der Physik (im modernen Sinne des Wortes) vorausgingen, fand besonders intensiv statt Ära der griechisch-römischen Kultur(6. Jahrhundert v. Chr. – 2. Jahrhundert n. Chr.). In dieser Zeit entstanden die ersten Ideen zu Atomstruktur der Materie(Demokrit, Epikur, Lucretius), ein geozentrisches System der Welt wurde geschaffen (Ptolemaios), die Anfänge eines heliozentrischen Systems erschienen (Aristarch von Samos), einige einfache Gesetze der Statik(Hebelwirkung, Schwerpunkt), erste gewonnene Ergebnisse Angewandte Optik(Spiegel wurden hergestellt, das Gesetz der Lichtreflexion wurde entdeckt, das Phänomen der Brechung wurde entdeckt), die einfachsten Prinzipien wurden entdeckt Hydrostatik(Gesetz des Archimedes). Die einfachsten Phänomene des Magnetismus und der Elektrizität waren bereits in der Antike bekannt.

Lehren Aristoteles (389 – 322 v. Chr.) fasste das Wissen der Vorperiode zusammen 1. Die von der Kirche kanonisierten Lehren des Aristoteles erwiesen sich als Bremse für die Weiterentwicklung der Naturwissenschaften. Nach Tausenden von Jahren der Stagnation und Unfruchtbarkeit erlebte die Physik erst im 15. und 16. Jahrhundert eine Wiederbelebung. im Kampf gegen die scholastische Philosophie. Die Wiederbelebung der Wissenschaft wurde hauptsächlich durch die Produktionsbedürfnisse während der Herstellungszeit bestimmt. Große geographische Entdeckungen, insbesondere die Entdeckung Amerikas, trugen zur Anhäufung vieler neuer Beobachtungen und zum Sturz alter Vorurteile bei. Die Entwicklung von Handwerk, Schifffahrt und Artillerie schuf Anreize für wissenschaftliche Forschung. Das wissenschaftliche Denken konzentrierte sich auf Probleme der Konstruktion, Hydraulik und Ballistik, und das Interesse an Mathematik nahm zu. Die Entwicklung der Technologie hat Möglichkeiten zum Experimentieren geschaffen. Leonardo da Vinci stellte eine ganze Reihe physikalischer Fragen und versuchte, diese durch Experimente zu lösen. Von ihm stammt das Sprichwort: „Erfahrung täuscht nie, nur unsere Urteile täuschen“ .

Im 15.-16. Jahrhundert wurden jedoch einzelne physikalische Beobachtungen und experimentelle Studien durchgeführt zufälliger Natur. Erst das 17. Jahrhundert begann systematische Anwendung der experimentellen Methode in der Physik und das kontinuierliche Wachstum des physikalischen Wissens seitdem.

Die erste Entwicklungsperiode der Physik , genannt klassisch, beginnt mit den Werken Galileo Galilei (1564 – 1642) . genau Galileo war der Erfinder der experimentellen Methode in der Physik. Ein sorgfältig durchdachtes Experiment, die Trennung sekundärer Faktoren vom Hauptfaktor des untersuchten Phänomens, der Wunsch, genaue quantitative Beziehungen zwischen den Parametern des Phänomens herzustellen – das ist Galileis Methode. Mit dieser Methode legte Galilei den ersten Grundstein Lautsprecher. Galilei widerlegte die falschen Aussagen der Mechanik des Aristoteles: Insbesondere er konnte zeigen, dass nicht Geschwindigkeit, sondern Beschleunigung eine Folge äußerer Einflüsse auf den Körper ist. In meiner Arbeit „Gespräche und mathematische Beweise über zwei neue Zweige der Wissenschaft ...“ (1638) Galilei untermauert überzeugend diese Schlussfolgerung, die die erste Formulierung darstellt Trägheitsgesetz, beseitigt sichtbare Widersprüche. Das beweist er durch Erfahrung Die Beschleunigung des freien Falls von Körpern hängt nicht von ihrer Dichte und Masse ab. Betrachtet man die Bewegung eines geschleuderten Körpers, findet Galilei Gesetz der Addition von Bewegungen und drückt im Wesentlichen die Position zur Unabhängigkeit der Kraftwirkung aus. Die „Gespräche“ geben auch Auskunft über die Stärke von Körpern. Er formulierte auch Ideen dazu Relativität der Bewegung(Relativitätsprinzip), Bewegung von Körpern entlang einer schiefen Ebene ( tatsächlich entdeckte er die ersten beiden Newtonschen Gesetze).

In den Werken von Galileo und Blaise Pascal Der Grundstein wurde gelegt Hydrostatik. Galilei machte wichtige Entdeckungen in anderen Bereichen der Physik. Zum ersten Mal bestätigt er experimentell das erst viel später untersuchte Phänomen der Oberflächenspannung. Galileo bereichert Angewandte Optik sein Teleskop und sein Thermometer führten dazu quantitative Untersuchung thermischer Phänomene.

In der 1. Hälfte des 17. Jahrhunderts entstand die physikalische Gaslehre, die große praktische Bedeutung hatte. Schüler von Galileo E. Torricelli entdeckt die Existenz von Luftdruck und erzeugt den ersten Barometer. O. Guericke erfindet eine Luftpumpe und widerlegt endgültig die aristotelische Aussage über die „Angst vor der Leere“. R. Boyle und etwas später E. Marriott Sie erforschen die Elastizität von Gasen und entdecken das unter ihrem Namen bekannte Gesetz. V. Snellius (Holland) und R. Descartes (Frankreich) entdecken das Gesetz der Lichtbrechung. Die Entstehung des Mikroskops geht auf die gleiche Zeit zurück. Beobachtungen an Magneten (in der Schifffahrt) und zur Elektrifizierung bei Reibung liefern wertvolle Informationen auf dem Gebiet der Elektrostatik und Magnetostatik, deren Begründer der englische Naturforscher ist W. Gilbert .

Die 2. Hälfte des 17. Jahrhunderts war noch ereignisreicher. Galileis „Gespräche“ legten den Grundstein für die Forschung Grundlagen der Mechanik. Untersuchung der krummlinigen Bewegung ( X. Huygens ) bereitete die Eröffnung vor Grundgesetz der Mechanik- der Zusammenhang zwischen Kraft, Masse und Beschleunigung, erstmals formuliert I. Newton in seinem „Mathematische Prinzipien der Naturphilosophie“ (1687) . Newton begründete auch das Grundgesetz der Systemdynamik (Gleichheit von Aktion und Reaktion), in dem frühere Studien zur Wirkung von Körpern (H. Huygens) ihre Verallgemeinerung fanden. Zum ersten Mal kristallisieren sich die Grundkonzepte der Physik heraus – Konzepte von Raum und Zeit.

Basierend auf den von Kepler aufgestellten Gesetzen der Planetenbewegung formulierte Newton erstmals in seinen Principia Gesetz der universellen Gravitation, was viele Wissenschaftler des 17. Jahrhunderts zu finden versuchten. Newton bestätigte dieses Gesetz, indem er die Beschleunigung des Mondes in seiner Umlaufbahn auf der Grundlage des in den 70er Jahren des 17. Jahrhunderts gemessenen Werts der Erdbeschleunigung berechnete. Er erklärte auch die Störungen in der Bewegung des Mondes und die Ursache für Ebbe und Flut des Meeres. Die Bedeutung dieser Entdeckung von Newton kann nicht hoch genug eingeschätzt werden. Es zeigte den Zeitgenossen die Macht der Wissenschaft. Es veränderte das gesamte bisherige Bild des Universums.

Zur gleichen Zeit, X. Huygens und G. Leibniz formulieren Gesetz der Impulserhaltung ((zuvor von Descartes in ungenauer Form ausgedrückt) und das Gesetz der Erhaltung der Lebenskräfte. Huygens entwickelt die Theorie eines physikalischen Pendels und konstruiert eine Uhr mit Pendel. Einer der vielseitigsten Wissenschaftler des 17. Jahrhunderts R. Hooke (England) eröffnet unter seinem Namen bekannt Gesetz der Elastizität. M. Mersenne (Frankreich) legt den Grundstein physikalische Akustik; Er untersucht den Klang einer Saite und misst die Schallgeschwindigkeit in der Luft.

In diesen Jahren entwickelte sich die geometrische Optik aufgrund der zunehmenden Verwendung von Spektiven rasant weiter Grundlagen der physikalischen Optik. F. Grimaldi (Italien) entdeckt 1665 die Lichtbeugung. Newton entwickelt seine Theorie der Streuung und Interferenz von Licht. Er stellt die Hypothese der Lichtkörperchen auf. Die Spektroskopie hat ihren Ursprung in Newtons optischen Studien. O. Römer (Dänemark) misst 1672 die Lichtgeschwindigkeit. Newtons Zeitgenosse Huygens entwickelt das Original weiter Grundlagen der Wellenoptik, formuliert das unter seinem Namen bekannte Prinzip der Ausbreitung von Wellen (Licht), erforscht und erklärt das Phänomen der Doppelbrechung in Kristallen 2.

Auf diese Weise, Im 17. Jahrhundert wurden die Grundlagen der Mechanik geschaffen und die Forschung begann in den wichtigsten Bereichen der Physik – in der Erforschung von Elektrizität und Magnetismus, Wärme, physikalischer Optik und Akustik.

Im 18. Jahrhundert Die Weiterentwicklung aller Bereiche der Physik geht weiter. Die Newtonsche Mechanik wird zu einem umfassenden Wissenssystem, das die Bewegungsgesetze von Erd- und Himmelskörpern abdeckt. Durch Arbeit L. Euler , Französisch Wissenschaftler A. Clairaut usw. wird erstellt Himmelsmechanik, in höchste Perfektion gebracht P. Laplace. In ihrer ausgereiften Form wurde die Mechanik zur Grundlage der damaligen Maschinentechnik, insbesondere der Hydraulik.

In anderen Zweigen der Physik kam es im 18. Jahrhundert zu einer weiteren Anhäufung experimenteller Daten und zur Formulierung einfachster Gesetze. V. Franklin formuliert Gesetz der Ladungserhaltung. Mitte des 18. Jahrhunderts entstand es erster elektrischer Kondensator(Leydener Krug von P. Muschenbroek in Holland), der die Ansammlung großer elektrischer Ladungen ermöglichte, was das Studium des Gesetzes ihrer Wechselwirkung erleichterte. Dieses Gesetz, das die Grundlage der Elektrostatik bildet, wurde unabhängig entdeckt G. Cavendish Und J. Priestley (England) und Sh. Anhänger (Frankreich). Entstanden Lehre von der atmosphärischen Elektrizität. W. Franklin im Jahr 1752 und ein Jahr später M. V. Lomonossow Und G. V. Richman untersuchte Blitzentladungen und bewies die elektrische Natur von Blitzen.

Die Photometrie begann in der Optik zu entstehen: englische Wissenschaftler V. Herschel Und W. Wollaston geöffnet Infrarotstrahlen, und der deutsche Wissenschaftler I. Ritter - Ultraviolett. Die Entwicklung der Chemie und Metallurgie stimulierte die Entwicklung Lehren über Wärme: Das Konzept der Wärmekapazität wurde formuliert, die Wärmekapazitäten verschiedener Stoffe gemessen und die Kalorimetrie begründet. Lomonosov sagte die Existenz des absoluten Nullpunkts voraus. Die Forschung begann mit der Wärmeleitfähigkeit und Wärmestrahlung sowie mit der Untersuchung der Wärmeausdehnung von Körpern. Im gleichen Zeitraum entstand es und begann sich zu verbessern Dampfmaschine.

Zwar stellte man sich Wärme in Form einer besonderen schwerelosen Flüssigkeit vor – Kalorienreich In ähnlicher Weise wurde die Elektrifizierung von Körpern mit der Hypothese der elektrischen Flüssigkeit und magnetische Phänomene mit der magnetischen Flüssigkeit erklärt. Im Allgemeinen drangen im 18. Jahrhundert Modelle unwägbarer Flüssigkeiten in alle Bereiche der Physik ein. Die überwiegende Mehrheit der Forscher hatte keinen Zweifel an ihrer Existenz! Dies war eine Folge der Überzeugung, dass verschiedene physikalische Phänomene – thermische, elektrische, magnetische, optische – nicht miteinander in Zusammenhang stehen und nicht unabhängig voneinander sind. Man glaubte, dass jedes Phänomen seinen eigenen „Träger“, eine besondere Substanz, habe. Nur wenige fortschrittliche Geister, darunter Euler und Lomonossow, leugneten die Existenz schwereloser Materie und sahen in thermischen Phänomenen und den Eigenschaften von Gasen die verborgene, aber unaufhörliche Bewegung kleinster Teilchen. In dieser Meinungsverschiedenheit lag ein Unterschied physische „Bilder der Welt“ - Newtonian Und Kartesisch, die bereits im 17. Jahrhundert entstand.

Die Anhänger von Descartes (Cartesius) betrachteten alle physikalischen Phänomene als verschiedene Bewegungen derselben Primärmaterie, deren einzige Eigenschaften Ausdehnung und Trägheit sind. Er glaubte, dass durch verschiedene Bewegungen und Kollisionen von Teilen der Primärmaterie Materieteilchen (Körperchen) unterschiedlicher Volumina und Formen entstehen, zwischen denen sich Teilchen der raffiniertesten Materieform – Äther – bewegen. Die Anhänger von Descartes sahen die Aufgabe der Physik darin Erstellung rein mechanischer Modelle von Phänomenen. Universelle Schwerkraft, elektrische und magnetische Wechselwirkungen, chemische Reaktionen – alles wurde durch verschiedene Wirbel im Äther erklärt, die Materieteilchen verbinden oder trennen.

Allerdings stieß dieses Weltbild bereits Mitte des 17. Jahrhunderts auf Einwände. Seine Unbefriedigung wurde am überzeugendsten von Newton in „Principia“ gezeigt. Newton bewies, dass die von den Cartesianern gegebene Erklärung der universellen Gravitation den Tatsachen widerspricht: Wirbel im Äther, die nach Descartes das gesamte Sonnensystem vollständig ausfüllen und die Planeten mit sich führen, schließen die Möglichkeit eines freien Durchgangs von Kometen durch das Sonnensystem aus Sonnensystem, ohne ihre Bewegung zu verlieren.

Newtons Weltbild basiert auf der Idee, dass Atome durch die Leere getrennt sind und durch die Leere sofort mit Anziehungs- oder Abstoßungskräften interagieren (Fernwirkung). Befugnisse, laut Newton, sind die primäre, ursprüngliche Eigenschaft bestimmter Teilchenarten; Eine Kraft wie die Schwerkraft ist für alle Materieteilchen charakteristisch. Im Gegensatz zu den Kartesianern hielt Newton es für möglich, dass mechanische Bewegung in der Natur nicht konserviert werden könne. Newton sah Die Hauptaufgabe der Physik besteht darin, die Wechselwirkungskräfte zwischen Körpern zu ermitteln. Er schloss die Existenz von Äther nicht aus, sondern betrachtete ihn als ein dünnes elastisches Gas, das die Poren von Körpern füllt und mit Materie interagiert.

Der Kampf zwischen newtonschen und kartesischen Ideen dauerte fast zwei Jahrhunderte. Dieselben Naturgesetze wurden von Anhängern dieser beiden Richtungen unterschiedlich interpretiert. Im 18. Jahrhundert Newtons Ansichten triumphierten in der Physik und hatte großen Einfluss auf seine weitere Entwicklung. Sie haben dazu beigetragen Implementierung mathematischer Methoden in der Physik. Gleichzeitig stärkten sie sich um 100 Jahre die Idee der Fernwirkung. In der 2. Hälfte des 19. Jahrhunderts lebten kartesische Tendenzen wieder auf, nach der Entstehung der Wellentheorie des Lichts, der Entdeckung des elektromagnetischen Feldes und des Energieerhaltungssatzes.

Zweite Periode der Geschichte der Physik beginnt im ersten Jahrzehnt des 19. Jahrhunderts. Im 19. Jahrhundert wurden die wichtigsten Entdeckungen und theoretischen Verallgemeinerungen gemacht, die der Physik ihren Charakter gaben eine einzige ganzheitliche Wissenschaft. Die Einheit verschiedener physikalischer Prozesse drückt sich in aus Gesetz der Energieerhaltung. Die entscheidende Rolle bei der experimentellen Vorbereitung dieses Gesetzes spielte Öffnung von elektrischem Strom und das Studium seiner vielfältigen Wirkungen sowie das Studium der gegenseitigen Umwandlungen von Wärme und mechanischer Arbeit. Im Jahr 1820 H. K. Ørsted (Dänemark) entdeckte die Wirkung von elektrischem Strom auf eine Magnetnadel. Oersteds Erfahrung diente als Anstoß für die Forschung A. Ampera, D. Arago usw. Das von Ampere gefundene Gesetz der Wechselwirkung zweier elektrischer Ströme wurde zur Grundlage Elektrodynamik. Durch die rege Beteiligung anderer Forscher fand Ampere es schnell heraus Zusammenhang zwischen magnetischen und elektrischen Phänomenen, wodurch der Magnetismus letztendlich auf die Wirkung von Strömen reduziert wird. Also Die Idee magnetischer Flüssigkeiten existierte nicht mehr. Im Jahr 1831 entdeckte Faraday die elektromagnetische Induktion und verwirklichte damit seinen Plan: „Magnetismus in Elektrizität umzuwandeln“.

In diesem Entwicklungsstadium Die gegenseitige Beeinflussung von Physik und Technik hat deutlich zugenommen. Die Entwicklung der Dampftechnik stellte die Physik vor zahlreiche Probleme. Physikalische Studien zur gegenseitigen Umwandlung von mechanischer Energie und Wärme, Abschluss Schaffung Thermodynamik, diente als Grundlage für die Verbesserung von Wärmekraftmaschinen. Nach der Entdeckung des elektrischen Stroms und seiner Gesetze begann die Entwicklung von Elektrotechnik(die Erfindung des Telegraphen, der Elektroformung, des Dynamos), die wiederum zum Fortschritt beitrug Elektrodynamik.

In der 1. Hälfte des 19. Jahrhunderts die Vorstellung von schwerelosen Substanzen bricht zusammen. Dieser Prozess verlief langsam und mit großen Schwierigkeiten. Das erste Loch in der damals vorherrschenden physischen Weltanschauung entstand durch Wellentheorie des Lichts(englischer Wissenschaftler T. Jung , Französisch Wissenschaftler O. Fresnel und D. Arago ) 3 . Die Gesamtheit der Phänomene der Interferenz, Beugung und Polarisation des Lichts, insbesondere das Phänomen der Interferenz polarisierter Strahlen, ließ sich aus korpuskularer Sicht nicht theoretisch interpretieren und fand gleichzeitig in der Wellentheorie eine vollständige Erklärung Bei diesem Licht handelt es sich um Transversalwellen, die sich in einem Medium (in der Luft) ausbreiten. So wurde die leichte Materie bereits im zweiten Jahrzehnt des 19. Jahrhunderts abgelehnt.

Haltbarer, im Vergleich zu leichter Materie und magnetischer Flüssigkeit, Es stellte sich heraus, dass es sich um die Idee von Kalorien handelte. Obwohl Experimente B. Rumfoord , die die Möglichkeit bewiesen, durch mechanische Arbeit eine unbegrenzte Wärmemenge zu gewinnen, standen in klarem Widerspruch zur Idee einer besonderen thermischen Substanz, letztere hielt bis zur Mitte des Jahrhunderts an; es schien, dass nur mit seiner Hilfe die latente Schmelz- und Verdunstungswärme erklärt werden konnte. Der Verdienst für die Entwicklung der kinetischen Theorie, deren Anfänge bis in die Zeit von Lomonossow und D. Bernoulli zurückreichen, gebührt englischen Wissenschaftlern J. Joule, W. Thomson (Kelvin) und der deutsche Wissenschaftler R. Clausius .

So wurde als Ergebnis vielseitiger und langwieriger Experimente unter den Bedingungen eines schwierigen Kampfes mit veralteten Vorstellungen die gegenseitige Veränderlichkeit verschiedener physikalischer Prozesse und damit die Einheit aller damals bekannten physikalischen Phänomene nachgewiesen.

Direkte Beweis der Energieerhaltung für etwaige physikalische und chemische Umwandlungen wurde in den Werken angegeben Yu. Mayer (Deutschland), J. Joule Und G. Helmholtz . Nachdem das Energieerhaltungsgesetz in den 50er Jahren des 19. Jahrhunderts allgemeine Anerkennung erlangte, wurde es zum Grundstein der modernen Naturwissenschaft. Der Energieerhaltungssatz und das Prinzip der Entropieänderung [R. Clausius, W. Thomson (Kelvin)] bildete die Grundlage Thermodynamik; Sie werden üblicherweise als erster und zweiter Hauptsatz der Thermodynamik formuliert.

Der Beweis der Äquivalenz von Wärme und Arbeit bestätigte die Ansicht von Wärme als ungeordnete Bewegung von Atomen und Molekülen. Durch die Werke von Joule, Clausius, Maxwell, Boltzmann und anderen wurde es geschaffen Kinetische Theorie der Gase. Bereits in den ersten Stadien der Entwicklung dieser Theorie, als Moleküle noch als feste elastische Kugeln betrachtet wurden, war es möglich, die kinetische Bedeutung thermodynamischer Größen wie Temperatur und Druck aufzudecken. Die kinetische Theorie der Gase ermöglichte die Berechnung der durchschnittlichen Wegstrecke von Molekülen, der Größe von Molekülen und ihrer Anzahl pro Volumeneinheit.

Die Idee der Einheit aller physikalischen Prozesse führte in der 2. Hälfte des 19. Jahrhunderts zu einer radikalen Umstrukturierung der gesamten Physik, zu ihrer Vereinheitlichung zwei große Abschnitte- Physik der Materie Und Feldphysik. Die erste Grundlage war die kinetische Theorie, die zweite die Lehre vom elektromagnetischen Feld.

Kinetische Theorie arbeitet erstmals mit Durchschnittswerten führte Methoden der Wahrscheinlichkeitstheorie in die Physik ein. Es diente als Ausgangspunkt statistische Physik- eine der allgemeinsten physikalischen Theorien. Die Grundlagen der statistischen Physik wurden bereits zu Beginn des 20. Jahrhunderts von dem amerikanischen Wissenschaftler systematisiert J. Gibbs .

Von ebenso grundlegender Bedeutung war Entdeckung des elektromagnetischen Feldes und seiner Gesetze. Der Schöpfer der Lehre vom elektromagnetischen Feld war M. Faraday . Er war der erste, der die Idee zum Ausdruck brachte, dass elektrische und magnetische Effekte nicht direkt von einer Ladung auf eine andere übertragen werden, sondern sich über ein Zwischenmedium ausbreiten. Faradays Ansichten auf dem Feld waren mathematisch von Maxwell entwickelt in den 60er Jahren des 19. Jahrhunderts, dem es gelang, ein vollständiges Gleichungssystem für das elektromagnetische Feld anzugeben. Die Feldtheorie wurde so konsistent wie die Newtonsche Mechanik.

Die Theorie des elektromagnetischen Feldes führt zu die Idee einer endlichen Ausbreitungsgeschwindigkeit elektromagnetischer Einwirkungen, ausgedrückt von Maxwell (noch früher von Faraday vorweggenommen). Diese Idee ermöglichte es Maxwell, die Existenz vorherzusagen Elektromagnetische Wellen. Auch Maxwell kam zu dem Schluss elektromagnetische Natur des Lichts. Die elektromagnetische Lichttheorie vereinte Elektromagnetismus und Optik.

Die Theorie des elektromagnetischen Feldes wurde jedoch erst nach dem deutschen Physiker allgemein anerkannt G. Hertz entdeckte experimentell elektromagnetische Wellen und bewies, dass sie den gleichen Gesetzen der Brechung, Reflexion und Interferenz folgen wie Lichtwellen.

In der 2. Hälfte des 19. Jahrhunderts nahm die Rolle der Physik in der Technik deutlich zu. Elektrizität findet nicht nur Anwendung als Kommunikationsmittel (Telegraf, Telefon), sondern auch als Mittel zur Übertragung und Verteilung von Energie sowie als Beleuchtungsquelle. Ende des 19. Jahrhunderts wurden elektromagnetische Wellen zur drahtlosen Kommunikation genutzt ( A. S. Popov, Marconi ), was den Beginn der Funkkommunikation markierte. Die technische Thermodynamik trug zur Entwicklung von Verbrennungsmotoren bei. Entstanden Niedertemperaturtechnologie. Im 19. Jahrhundert wurden alle Gase verflüssigt, mit Ausnahme von Helium, das erst 1908 in flüssigem Zustand gewonnen wurde (niederländischer Physiker). G. Kammerling-Onnes ).

Den Zeitgenossen schien die Physik am Ende des 19. Jahrhunderts nahezu abgeschlossen zu sein. Das Konzept steht mechanistischer Determinismus Laplace basiert auf der Möglichkeit, das Verhalten eines Systems zu jedem Zeitpunkt eindeutig zu bestimmen, wenn die Anfangsbedingungen bekannt sind. Vielen schien es, dass physikalische Phänomene auf die Mechanik von Molekülen und Äther reduziert werden könnten, denn physikalische Phänomene zu erklären bedeutete damals, sie auf mechanische Modelle zu reduzieren, die auf der Grundlage alltäglicher Erfahrungen leicht zugänglich waren. Mechanische Wärmetheorie, elastischer (oder Wirbel-)Äther als Modell elektromagnetischer Phänomene – so sah es bis zum Ende des 19. Jahrhunderts aus physisches Bild der Welt. Der Äther schien in einer Reihe seiner Eigenschaften der Materie zu ähneln, war aber im Gegensatz zur Materie schwerelos oder fast schwerelos (einige Berechnungen ergaben, dass das Gewicht einer Ätherkugel, deren Volumen dem der Erde entspricht, bei 13 liegt kg).

Allerdings stießen mechanische Modelle auf umso größere Widersprüche, je detaillierter sie entwickelt und angewendet werden sollten. Die zur Erklärung alternierender Felder erstellten ätherischen Wirbelröhrenmodelle waren zur Erklärung konstanter elektrischer Felder ungeeignet. Im Gegenteil erklärten verschiedene Konstantfeldmodelle nicht die Möglichkeit der Ausbreitung elektromagnetischer Wellen. Schließlich konnte kein einziges Modell des Äthers den Zusammenhang des Feldes mit diskreten Ladungen klar erklären. Auch verschiedene mechanische Modelle von Atomen und Molekülen (zum Beispiel das von W. Thomson vorgeschlagene Wirbelmodell des Atoms) erwiesen sich als unbefriedigend.

Unmöglichkeit, alle physikalischen Prozesse auf mechanische zu reduzieren löste bei einigen Physikern und Chemikern im Allgemeinen den Wunsch aus weigern sich, die Realität von Atomen und Molekülen anzuerkennen, lehnen die Realität des elektromagnetischen Feldes ab. E. Mach erklärte die Aufgabe der Physik in der „reinen Beschreibung“ von Phänomenen. Deutscher Wissenschaftler V. Ostwald lehnte die kinetische Theorie und den Atomismus zugunsten der sogenannten ab Energie -- universelle, rein phänomenologische Thermodynamik als einzig mögliche Theorie physikalischer Phänomene.

Dritte (moderne) Periode in der Geschichte der Physik , synchronisiert nichtklassisch oder Quantenrelativistische Physik, beginnt in den letzten Jahren des 19. Jahrhunderts. Das Die Periode ist durch die Richtung der Forschung gekennzeichnet, die tief in die Materie und ihre Mikrostruktur hineingedacht wurde. Eine neue Ära in der Geschichte der Physik beginnt mit Elektronendetektion und Erforschung seiner Wirkung und Eigenschaften (engl. Wissenschaftler J. Thomson , niederländischer Wissenschaftler G. Lorenz ).

Die wichtigste Rolle spielten Untersuchungen zu elektrischen Entladungen in Gasen. Es stellte sich heraus, dass ein Elektron ein Elementarteilchen einer bestimmten Masse ist, das die kleinste elektrische Ladung besitzt und Teil eines Atoms eines chemischen Elements ist. Das bedeutete das Ein Atom ist nicht elementar, sondern ein komplexes System. Es ist erwiesen, dass die Anzahl der Elektronen in einem Atom und ihre Verteilung auf Schichten und Gruppen die elektrischen, optischen, magnetischen und chemischen Eigenschaften des Atoms bestimmen; Die Polarisierbarkeit eines Atoms, sein magnetisches Moment, seine optischen und Röntgenspektren sowie seine Wertigkeit hängen von der Struktur der Elektronenhülle ab.

Die Dynamik von Elektronen und ihre Wechselwirkung mit dem Strahlungsfeld ist mit der Entstehung der allgemeinsten Theorien der modernen Physik verbunden – Relativitätstheorie und Quantenmechanik.

Die Untersuchung der Bewegungen schneller Elektronen in elektrischen und magnetischen Feldern führte zu dem Schluss, dass die klassische Newtonsche Mechanik auf sie nicht anwendbar ist. Es stellte sich heraus, dass eine solche grundlegende Eigenschaft eines materiellen Teilchens wie die Masse nicht konstant, sondern je nach Bewegungszustand des Elektrons variabel ist. Es war der Zusammenbruch der in der Physik verwurzelten Konzepte der Bewegung und Eigenschaften von Teilchen.

Ein Ausweg aus den Widersprüchen wurde gefunden A. Einstein , der (1905) eine neue physikalische Theorie von Raum und Zeit entwickelte, Relativitätstheorie. Später wurde es von Einstein geschaffen (1916) Allgemeine Relativitätstheorie, was die alte Lehre von der Schwerkraft veränderte

Eine ebenso wichtige und wirksame Verallgemeinerung physikalischer Tatsachen und Gesetze war Quantenmechanik, entstanden am Ende des ersten Viertels des 20. Jahrhunderts als Ergebnis von Studien zur Wechselwirkung von Strahlung mit Materieteilchen und der Untersuchung der Zustände intraatomarer Elektronen. Das ist die Ausgangsidee der Quantenmechanik Alle Mikropartikel haben eine duale Teilchenwellennatur.

Diese radikal neuen Ideen zu Mikropartikeln haben sich als äußerst fruchtbar und wirkungsvoll erwiesen. Die Quantentheorie konnte die Eigenschaften von Atomen und die in ihnen ablaufenden Prozesse, die Bildung und Eigenschaften von Molekülen, die Eigenschaften eines Festkörpers und die Muster elektromagnetischer Strahlung erklären.

Das zwanzigste Jahrhundert. in der Physik gefeiert kraftvolle Entwicklung experimentelle Forschungsmethoden Und Messtechnik. Nachweis und Zählung einzelner Elektronen, Kern- und kosmischer Teilchen, Bestimmung der Anordnung von Atomen und Elektronendichte in Kristallen und in einem einzelnen Molekül, Messung von Zeitintervallen in der Größenordnung von 10 -10 Sekunden, Beobachtung der Bewegung radioaktiver Atome in Materie - all dies kennzeichnet den Sprung in der Messtechnik in den letzten Jahrzehnten.

Es wurden Forschungs- und Produktionsmittel angestrebt, die in Leistung und Umfang beispiellos waren Studium nuklearer Prozesse. Die letzten 25 Jahre der Kernphysik, eng verbunden mit der kosmischen Strahlung und dann mit der Schaffung leistungsstarker Beschleuniger, haben zu einer technischen Revolution geführt und neue, äußerst subtile Forschungsmethoden nicht nur in der Physik, sondern auch in Chemie, Biologie und Geologie geschaffen und in den unterschiedlichsten Bereichen der Technik und Landwirtschaft.

Dementsprechend stark wuchs die physikalische Forschung und ihr Einfluss auf andere Naturwissenschaften und Technik Die Zahl der Physikzeitschriften und Bücher hat zugenommen. Ende des 19. Jahrhunderts erschien in Deutschland, England, den USA und Russland neben akademischen nur eine einzige Physikzeitschrift. Derzeit werden mehr als zwei Dutzend Zeitschriften in Russland, den USA, England und Deutschland (in jedem Land) veröffentlicht.

Umso mehr die Zahl der Forschungseinrichtungen und Wissenschaftler ist gestiegen. Wurde die wissenschaftliche Forschung im 19. Jahrhundert hauptsächlich von den Physikabteilungen der Universitäten betrieben, so traten sie im 20. Jahrhundert in allen Ländern auf und begannen, an Zahl und Umfang zuzunehmen. physikalische Forschungsinstitute oder in seinen einzelnen Richtungen. Einige Institute, insbesondere im Bereich der Kernphysik, verfügen über Geräte, deren Umfang und Kosten den Umfang und die Kosten von Fabriken übersteigen.