Statistische Theorie. Große Enzyklopädie über Öl und Gas. Allgemeine Theorie der Statistik

ALLGEMEINE THEORIE DER STATISTIK

1.1. Thema, Methode, Ziele und Organisation

Statistiken ist eine Wissenschaft, die die quantitative Seite von Massenphänomenen in untrennbarem Zusammenhang mit ihrer qualitativen Seite, dem quantitativen Ausdruck der Gesetze der gesellschaftlichen Entwicklung, untersucht.

Statistik als Wissenschaft hat fünf Merkmale.

Erstes Feature Bei der Statistik handelt es sich nicht um die Untersuchung einzelner Fakten, sondern um sozioökonomische Massenphänomene und -prozesse, die als eine Reihe individueller Fakten fungieren, die sowohl individuelle Merkmale als auch allgemeine Merkmale aufweisen. Das Problem der statistischen Forschung besteht darin, allgemeine Indikatoren zu erhalten und Muster des gesellschaftlichen Lebens unter bestimmten Orts- und Zeitbedingungen zu identifizieren, die sich nur in einer großen Masse von Phänomenen manifestieren, indem die den einzelnen Elementen innewohnende Zufälligkeit überwunden wird.

Zweites Feature Statistik besteht darin, dass sie in erster Linie die quantitative Seite sozialer Phänomene und Prozesse untersucht, aber im Gegensatz zur Mathematik unter bestimmten örtlichen und zeitlichen Bedingungen, d.h. Gegenstand der Statistik sind die Größe und quantitativen Zusammenhänge sozioökonomischer Phänomene, die Muster ihrer Verbindung und Entwicklung. Gleichzeitig wird die qualitative Gewissheit einzelner Phänomene in der Regel von verwandten Wissenschaften bestimmt.

Drittes Feature Statistik besteht darin, dass sie die Struktur charakterisiert, d.h. interne Struktur von Massenphänomenen (statistischer Satz) anhand statistischer Indikatoren.

Viertes Merkmal Statistik ist die Untersuchung von Veränderungen sozialer Phänomene in Raum und Zeit. Veränderungen im Raum (d. h. in der Statik) werden durch die Analyse der Struktur eines sozialen Phänomens aufgedeckt, und Veränderungen in der Zeit (d. h. in der Dynamik) werden durch die Untersuchung der Ebene und Struktur des Phänomens aufgedeckt.

Fünftes Feature Statistik besteht darin, Ursache-Wirkungs-Beziehungen einzelner Phänomene des gesellschaftlichen Lebens zu ermitteln.

Unter statistische Methodik wird als ein System von Techniken, Methoden und Methoden verstanden, die darauf abzielen, quantitative Muster zu untersuchen, die sich in der Struktur, Dynamik und Wechselbeziehung sozioökonomischer Phänomene manifestieren.

1.2. Statistische Beobachtung

Der gesamte Zyklus der statistischen Forschung umfasst die folgenden Phasen:

1) Sammlung primärer Informationen (Methode der statistischen Beobachtung);

2) vorläufige Datenverarbeitung (Gruppierungsmethode, grafische Methode);

3) Berechnung und Interpretation individueller und zusammenfassender Indikatoren (Niveau, Struktur und Variation, Beziehungen und Dynamik);

4) Modellierung und Vorhersage der Beziehung und Dynamik der untersuchten Prozesse und Phänomene.

Statistische Beobachtung ist eine systematische, systematische, wissenschaftlich fundierte Sammlung von Daten zu Phänomenen und Prozessen des gesellschaftlichen Lebens durch Erfassung ihrer wichtigsten Merkmale entsprechend dem Beobachtungsprogramm.

Der statistische Beobachtungsplan umfasst programmatische, methodische und organisatorische Teile. Der Programm- und Methodenteil gibt an: Zweck, Ziele und Programm der Beobachtung, Gegenstand und Einheit der Beobachtung, eine Reihe von Merkmalen der Beobachtungseinheit und Beobachtungsinstrumente (Anweisungen zur Durchführung der Beobachtung und ein statistisches Formular mit dem Programm und den Ergebnissen von Überwachung). Der organisatorische Teil gibt an: Ort und Zeit der Beobachtung; eine Liste der Institutionen und Organisationen, die für die Organisation und Durchführung von Beobachtungen, Schulungen und Personalvermittlung zuständig sind; Auswahl der Methoden und Registrierung von Informationen, Liste der vorbereitenden Aktivitäten usw.

Statistische Beobachtungen werden nach Form, Art und Methode der Beobachtung klassifiziert.

Die gebräuchlichsten Formen der statistischen Beobachtung sind: Berichterstattung (von Unternehmen, Organisationen, Institutionen usw.) und speziell organisierte Beobachtungen zur Gewinnung von Informationen, die nicht in der Berichterstattung enthalten sind (Volkszählungen, Umfragen, einmalige Aufzeichnungen).

Beobachtungsarten werden unterschieden: nach dem Zeitpunkt der Beobachtung (kontinuierlich, periodisch und einmalig) und nach der Vollständigkeit der Abdeckung von Einheiten der statistischen Grundgesamtheit (kontinuierlich und nicht kontinuierlich).

Nach den Methoden der statistischen Beobachtung werden unterschieden: direkte, dokumentarische Beobachtung und Befragung. In der Statistik werden folgende Arten von Befragungen verwendet: mündliche (expeditionelle), Selbstregistrierung (wenn die Formulare von den Befragten selbst ausgefüllt werden), Korrespondenten-, Fragebogen- und Personenbefragungen unter Verwendung moderner Computertechnologie.

Die in der wirtschaftsstatistischen Analyse verwendeten Indikatoren charakterisieren bestimmte Kategorien und Konzepte, und die Berechnung solcher Indikatoren sollte durch eine theoretische Analyse des untersuchten Phänomens erfolgen. Daher wird in jedem spezifischen Anwendungsbereich der Statistik ein eigenes System statistischer Indikatoren entwickelt.

1.3. Methoden der kontinuierlichen und selektiven Beobachtung sozioökonomischer Phänomene und Prozesse

Die Aufgabe kontinuierliche Beobachtung besteht darin, Informationen über alle untersuchten Bevölkerungseinheiten zu erhalten. Daher besteht eine wichtige Aufgabe bei der kontinuierlichen Beobachtung darin, eine Liste der zu untersuchenden Zeichen zu erstellen. Davon hängt letztlich die Qualität und Verlässlichkeit der Umfrageergebnisse ab.

Bis vor Kurzem beruhte die russische Statistik vor allem auf kontinuierlicher Beobachtung. Allerdings hat diese Art der Beobachtung gravierende Nachteile: der hohe Aufwand für die Beschaffung und Verarbeitung der gesamten Informationsmenge; hohe Arbeitskosten; unzureichende Effizienz der Informationen, da deren Sammlung und Verarbeitung viel Zeit in Anspruch nimmt. Und schließlich deckt in der Regel keine einzige kontinuierliche Beobachtung ausnahmslos alle Bevölkerungseinheiten vollständig ab. Sowohl bei der Durchführung einmaliger Erhebungen als auch bei der Gewinnung von Informationen durch eine Beobachtungsform wie die Berichterstattung bleibt zwangsläufig eine größere oder kleinere Anzahl von Einheiten unbeobachtet.

Beispielsweise gingen bei der Durchführung einer umfassenden statistischen Erhebung über Kleinunternehmen auf Basis der Arbeitsergebnisse im Jahr 2000 von 61 % der Unternehmen, an die Fragebögen verschickt wurden, Blankoformulare (Fragebögen) ein. Die Gründe für die Nichtbeantwortung sind in der Tabelle zusammengefasst. 1.

Tabelle 1

Die Anzahl und der Anteil der nicht erfassten Einheiten hängen von vielen Faktoren ab: der Art der Befragung (per Post, durch mündliche Befragung); Typ der Berichtseinheit; Qualifikationen des Standesbeamten; der Inhalt der im Beobachtungsprogramm vorgesehenen Fragen; Tageszeit oder Jahr der Befragung usw.

Bei einer Teilerhebung wird zunächst davon ausgegangen, dass nur ein Teil der untersuchten Bevölkerungseinheiten befragt wird. Bei der Durchführung muss im Vorfeld festgelegt werden, welcher Teil der Bevölkerung beobachtet werden soll und wie die zu befragenden Einheiten auszuwählen sind.

Einer der Vorteile nichtkontinuierlicher Beobachtungen ist die Möglichkeit, Informationen in kürzerer Zeit und mit weniger Ressourcen zu erhalten als bei kontinuierlicher Beobachtung. Dies ist auf ein geringeres Volumen der gesammelten Informationen und damit auf geringere Kosten für deren Erfassung, Überprüfung, Verarbeitung und Analyse zurückzuführen.

Es gibt viele Arten unvollständiger Beobachtung. Einer von ihnen - Probenbeobachtung, bei dem Merkmale in einzelnen Einheiten der untersuchten Bevölkerung erfasst, mit speziellen Methoden ausgewählt und die bei der Befragung erzielten Ergebnisse mit einer bestimmten Wahrscheinlichkeit auf die gesamte Ausgangspopulation ausgedehnt werden.

Der Vorteil der selektiven Beobachtung wird gewährleistet durch:

1) Einsparung finanzieller Ressourcen für die Datenerfassung und -verarbeitung,

2) Einsparung materieller und technischer Ressourcen (Schreibwaren, Bürogeräte, Verbrauchsmaterialien, Transportdienstleistungen usw.),

3) Einsparung von Arbeitsressourcen in allen Phasen der Probenbeobachtung,

4) Reduzierung des Zeitaufwands sowohl für die Beschaffung von Primärinformationen als auch für deren anschließende Verarbeitung bis zur Veröffentlichung der endgültigen Materialien.

Das Hauptproblem bei der Durchführung einer Stichprobenstudie besteht darin, wie sicher man die tatsächlichen Eigenschaften der Gesamtbevölkerung anhand der Eigenschaften der ausgewählten Objekte beurteilen kann. Daher hat ein solches Urteil zwangsläufig einen probabilistischen Charakter, und die Aufgabe besteht darin, die größtmögliche Wahrscheinlichkeit eines korrekten Urteils sicherzustellen.

Die Grundgesamtheit, aus der ausgewählt wird, wird aufgerufen allgemein. Die ausgewählten Daten sind Stichprobenpopulation oder Probe. Damit eine Stichprobe die Eigenschaften der Grundgesamtheit vollständig und angemessen abbilden kann, muss sie repräsentativ sein bzw Vertreter. Die Repräsentativität der Stichprobe ist nur bei objektiver Datenauswahl gewährleistet.

Es gibt zwei Arten der selektiven Beobachtung: wiederholte und nicht wiederholte Probenahme.

Bei wiederholt Auswahl bleibt die Wahrscheinlichkeit, dass jede einzelne Einheit in die Stichprobe aufgenommen wird, konstant, weil Nach der Auswahl wird die ausgewählte Einheit an die Bevölkerung zurückgegeben und kann erneut ausgewählt werden – das „Return-Ball-Schema“.

Bei wiederholbar Während der Auswahl kommt die ausgewählte Einheit nicht zurück, die Wahrscheinlichkeit, dass die verbleibenden Einheiten in die Stichprobe gelangen, ändert sich ständig – das „unwiederbringliche Ballschema“.

Dabei werden unterschieden: Wege Auswahl von Einheiten aus der Allgemeinbevölkerung:

A) Individuell Auswahl, wenn einzelne Einheiten für die Stichprobe ausgewählt werden,

B) Gruppe Auswahl, wenn die Stichprobe qualitativ homogene Gruppen oder Reihen untersuchter Einheiten umfasst,

V) kombiniert Auswahl, die eine Kombination der ersten beiden Methoden ist.

Folgendes ist möglich Methoden Auswahl von Einheiten zur Bildung einer Stichprobenpopulation:

1) zufällig(unbeabsichtigte) Auswahl, wenn die Stichprobenpopulation per Los oder anhand einer Zufallszahlentabelle ausgewählt wird,

2) mechanisch Auswahl, wenn die Stichprobenpopulation aus der in gleiche Intervalle (Gruppen) aufgeteilten Gesamtbevölkerung bestimmt wird,

3) typisch Auswahl (geschichtet, geschichtet) mit vorläufiger Einteilung der Gesamtbevölkerung in qualitativ homogene typische Gruppen (nicht unbedingt gleich),

4) Serien- oder Clusterauswahl, wenn nicht einzelne Einheiten, sondern Serien aus der Gesamtpopulation ausgewählt werden und innerhalb jeder in die Stichprobe einbezogenen Serie ausnahmslos alle Einheiten untersucht werden.

1.4. Statistische Gruppierungen

Eine der wichtigsten und gebräuchlichsten Methoden zur Verarbeitung und Analyse primärer statistischer Informationen ist die Gruppierung. Das Konzept der statistischen Gruppierung im weiteren Sinne des Wortes umfasst eine ganze Reihe statistischer Operationen. Dazu gehört zunächst einmal die Zusammenfassung der bei der Beobachtung erfassten Einzelfälle zu auf die eine oder andere Weise ähnlichen Gruppen, da die ganzheitlichen Merkmale der Bevölkerung mit den Merkmalen ihrer Hauptteile, Klassen etc. kombiniert werden müssen. Die Ergebnisse der Zusammenfassung und Gruppierung statistischer Beobachtungsdaten werden in statistischer Form dargestellt Vertriebsreihe Und Tische.

Die Bedeutung von Gruppierungen liegt darin, dass diese Methode erstens eine Systematisierung und Verallgemeinerung der Beobachtungsergebnisse ermöglicht und zweitens die Gruppierungsmethode die Grundlage für den Einsatz anderer Methoden der statistischen Analyse der Hauptaspekte und charakteristischen Merkmale der Phänomene bildet studiert werden.

Der Zweck der statistischen Gruppierung besteht darin, Bevölkerungseinheiten in mehrere Gruppen einzuteilen, um verallgemeinernde Gruppenindikatoren zu berechnen und zu analysieren, die es ermöglichen, eine Vorstellung von der Zusammensetzung, Struktur und den Beziehungen des untersuchten Objekts oder Phänomens zu erhalten.

Verallgemeinernde statistische Indikatoren, die jede ausgewählte Gruppe charakterisieren, können in Form von absoluten, relativen und Durchschnittswerten dargestellt werden.

In der Tabelle 2 fasst verschiedene Arten statistischer Gruppierungen zusammen, die sich je nach Gruppierungsaufgabe unterscheiden:

Tabelle 2

Grundlage der Gruppierung sind die Gruppierungsmerkmale, anhand derer Einheiten der untersuchten Bevölkerung bestimmten Gruppen zugeordnet werden. Erfolgt die Gruppierung nach einem Merkmal, so wird dieses berücksichtigt einfach, wenn nach zwei oder mehr Merkmalen – dann kombinatorisch(oder kombiniert).

Primär bezeichnet eine Gruppe, die auf der Grundlage von Primärdaten gebildet wird, die im Rahmen der statistischen Beobachtung gesammelt wurden.

Sekundär Die Gruppierung wird auf der Grundlage von Primärdaten durchgeführt, wenn eine kleinere Anzahl, aber größere Gruppen benötigt werden oder nach Intervallgröße gruppierte Daten zum Zwecke eines möglichen Vergleichs in eine vergleichbare Form gebracht werden sollen.

Die Klassifizierung und Merkmale der Gruppierungsmerkmale sind in der Tabelle dargestellt. 3.

Die Aufgaben der typologischen Gruppierung, bei der es sich in der Regel um die Aufteilung einer heterogenen Population in qualitativ homogene Gruppen handelt, stehen in engem Zusammenhang mit zwei anderen Gruppierungsaufgaben: der Untersuchung der Struktur und der strukturellen Veränderungen in der untersuchten homogenen Population und der Identifizierung der Beziehung zwischen einzelne Merkmale des darin untersuchten Phänomens.

Beispiele für typologische Gruppierungen sind die Gruppierung von Wirtschaftsobjekten nach der Eigentumsart, die Einteilung der Erwerbsbevölkerung in Erwerbstätige und Arbeitslose sowie der Arbeitnehmer in überwiegend körperlich und geistig arbeitende Personen.

Die Methodik typologischer Gruppierungen wird dadurch bestimmt, wie deutlich sich die qualitativen Unterschiede in den untersuchten Phänomenen manifestieren. Zum Beispiel bei der Gruppierung von Branchen nach Wirtschaftszweigen

Tisch 3

Prinzip der Klassifizierung Arten von Zeichen Eigenschaften
Nach Inhalt (Wesen) Essentiell Drücken Sie den Hauptinhalt der untersuchten Phänomene aus
Unerheblich Wichtig für die Eigenschaften der untersuchten Phänomene, aber nicht als signifikant eingestuft
Wenn möglich, quantitative Messung Quantitativ, einschließlich: a) diskret (diskontinuierlich) b) kontinuierlich Eine Eigenschaft eines Phänomens widerspiegeln, die gemessen werden kann. Wird nur als ganze Zahl ausgedrückt. Wird sowohl als Ganzes als auch als Bruch ausgedrückt
Attributiv (qualitativ), einschließlich Alternative Das Merkmal ist nicht quantitativ messbar und wird in Textform geschrieben. Nur in zwei sich gegenseitig ausschließenden Optionen (entweder – oder) zu finden

Nach dem Verwendungszweck der Produkte werden Industrien unterschieden, die Produktionsmittel herstellen, und Industrien, die Konsumgüter herstellen; in der Makrostruktur des Einzelhandelsumsatzes werden Produktions- und Nichtproduktionsgüter unterschieden. In den meisten Fällen treten qualitative Unterschiede zwischen Phänomenen nicht so deutlich in Erscheinung. Beispielsweise ist die Unterscheidung zwischen großen, mittleren und kleinen Unternehmen in Branchen ein methodisch recht komplexes Problem.

1.5. Methoden zur Verarbeitung und Analyse statistischer Informationen

Im Rahmen der statistischen Beobachtung werden Daten über die Werte bestimmter Merkmale gewonnen, die jede untersuchte Bevölkerungseinheit charakterisieren. Zur Charakterisierung der Bevölkerung als Ganzes oder ihrer Teile werden Daten zu einzelnen Bevölkerungseinheiten zusammengefasst und daraus verallgemeinerte Indikatoren gewonnen, die die Erkenntnisse der Kenntnis der quantitativen Seite der untersuchten Phänomene widerspiegeln.

Statistischer Indikator wird als verallgemeinernder quantitativer und qualitativer Wert bezeichnet, der sozioökonomische Phänomene und Prozesse charakterisiert.

Einzelne Werte einer Population stellen Merkmale dar, und ein quantitativ-qualitatives Merkmal einer beliebigen Eigenschaft einer Population (Gruppe) ist ein statistischer Indikator. Beispielsweise ist die durchschnittliche Leistung eines bestimmten Studenten ein Indikator, die durchschnittliche Leistung von Universitätsstudenten ist ein Indikator.

Es können zusammenfassende Indikatoren dargestellt werden absolut, relativ Und Durchschnitt Größen, die häufig bei der Planung und Analyse der Aktivitäten von Unternehmen und Firmen, Industrien und der gesamten Wirtschaft verwendet werden.

Absolute Indikatoren werden durch Summieren der Primärdaten erhalten. Sie können individuell und allgemein (insgesamt) sein. Einzelne absolute Werte drücken die Größe quantitativer Merkmale in einzelnen Einheiten der untersuchten Bevölkerung aus. Allgemeine und Gruppenabsolutwerte sind die endgültigen und gruppenbezogenen quantitativen Merkmale von Merkmalen. Anhand des Absolutwerts werden die absoluten Dimensionen der untersuchten Phänomene charakterisiert: Volumen, Masse, Fläche, Länge usw. Absolute Indikatoren sind immer benannte Zahlen (haben Maßeinheiten), die natürlich, bedingt natürlich (zum Vergleich homogener Zahlen) sein können , aber Produkte unterschiedlicher Qualität der Einheit physikalischer Größen werden mithilfe spezieller Koeffizienten in konventionelle Einheiten und in Kosteneinheiten (monetäre) umgewandelt.

Zum Vergleich, Vergleich absoluter Werte untereinander in Zeit, Raum und anderen Beziehungen werden relative Werte verwendet, d.h. verallgemeinernde Indikatoren, die das quantitative Verhältnis zweier Absolutwerte zueinander ausdrücken.

Relative Werte können das Ergebnis eines Vergleichs sein:

- gleichnamige statistische Indikatoren (mit der vergangenen Periode – relative Werte der Dynamik und Planziele; mit einem Plan – relative Werte der Planumsetzung; Teile und das Ganze oder Teile untereinander – relative Werte der Struktur bzw. Koordination; im Raum - relative Werte der Sichtbarkeit);

– verschiedene statistische Indikatoren (relative Intensitätswerte).

1.5.1. Durchschnittsmethode

Durchschnittswert ist ein verallgemeinerter Indikator, der ein typisches, d. h. Niveau, das für die meisten Merkmale charakteristisch ist. Mit der Durchschnittsmethode können Sie eine große Anzahl unterschiedlicher Werte eines Merkmals durch einen gemittelten Wert ersetzen.

Es gibt Durchschnittswerte: Leistung und Struktur.

Formeln zur Berechnung von Leistungsdurchschnitten sind in der Tabelle dargestellt. 4.

In der Tabelle 4 Es werden folgende Bezeichnungen verwendet: der Wert des Merkmals der Einheit der Grundgesamtheit oder der Variante des Merkmals für den gewichteten Durchschnitt; Bevölkerungszahl; Gewicht der Attributvariante; Anzahl der gemittelten Varianten des Merkmals.

Die Verwendung von ungewichteten (einfachen) und gewichteten Durchschnittswerten hängt von der Wiederholbarkeit der Feature-Option ab:

Tabelle 4

Blick in die Mitte Formel zur Berechnung des Durchschnitts
Ungewichtet Gewichtet
Arithmetisches Mittel
Harmonische Mittel
Geometrisches Mittel
Quadratischer Mittelwert
Durchschnittlicher Kubikmeter

– in Ermangelung solcher Wiederholungen oder im Falle einer Wiederholung nur individuell Möglichkeit begrenzte Anzahl von Malen anwenden ungewichtet Durchschnitt;

- bei Wiederholung jeder oder fast jeder Möglichkeit viele Male anwenden gewichtet Durchschnitt.

Die Berechnung von Durchschnittswerten wird verwendet, wenn:

– Bewertung der Merkmale eines typischen Niveaus für eine bestimmte Population;

– Vergleich typischer Werte für zwei oder mehr Populationen;

– Berechnung der Norm bei der Festlegung von Planzielen und vertraglichen Verpflichtungen.

In der Praxis wird am häufigsten das arithmetische Mittel verwendet. Der harmonische Mittelwert wird in Fällen verwendet, in denen der Zähler bekannt ist, der Nenner des ursprünglichen Mittelwertverhältnisses jedoch unbekannt ist. Grundsätzlich dient das geometrische Mittel dazu, einzelne Indikatoren über die Zeit zu mitteln. Leistungsmittelwerte zweiter und höherer Ordnung werden bei der Berechnung von Indikatoren für Variation, Korrelation, strukturelle Veränderungen, Asymmetrie und Kurtosis verwendet.

Strukturelle Durchschnittswerte umfassen zwei Hauptmerkmale der Variationsreihe einer Verteilung – Modus und Median.

Mode– Dies ist der Wert des Attributs, das in einer bestimmten Population am häufigsten vorkommt, d. h. spiegelt den Wert des Attributs wider, das am typischsten, vorherrschendsten und dominantesten ist. Bei einer großen Anzahl von Beobachtungen kann eine Population durch zwei oder mehr Modaloptionen charakterisiert werden.

Median- Dies ist eine Variante des untersuchten Merkmals, das die geordnete Datenreihe in zwei gleiche Teile teilt: 50 % der untersuchten Bevölkerungseinheiten weisen charakteristische Werte auf, die unter dem Median liegen, und 50 % weisen charakteristische Werte auf Werte größer als der Median.

Wenn Sie den Median aus nicht gruppierten (Primär-)Daten ermitteln, müssen Sie diese zunächst in aufsteigender Reihenfolge (Rang) anordnen. Dann müssen Sie die „Position“ des Medians bestimmen oder die Nummer der Einheit bestimmen, deren Attributwert dem Median entspricht:

Wo ist die Anzahl der Einheiten in der untersuchten Population?

1.5.2. Variationsanalyse

Variation– Dies ist der Unterschied in den individuellen Werten (Änderungen) von Merkmalen innerhalb der untersuchten Population. Mit Variationsindikatoren können wir Folgendes bewerten:

Streuung von Attributwerten zwischen Einheiten einer statistischen Grundgesamtheit;

Stabilität der Entwicklung der untersuchten Prozesse im Laufe der Zeit;

Der Einfluss eines Faktormerkmals auf Änderungen des Leistungsmerkmals;

Verschiedene Arten von Risiken (Versicherung, System usw.).

Es gibt absolute und relative Variationsindikatoren. Zu den absoluten Variationsmaßen gehören: Variationsbereich, durchschnittliche lineare Abweichung, Streuung und Standardabweichung. Die Kennzahlen zur Berechnung dieser Indikatoren sind in der Tabelle zusammengefasst. 5.

Tabelle 5

Indikatoren Berechnungsformeln
für nicht gruppierte Daten für gruppierte Daten
Variationsbereich (Oszillationen)
Durchschnittliche lineare Abweichung
Streuung
Standardabweichung

wobei: Attributwert; und dementsprechend der maximale und minimale Wert des Attributs im Aggregat; arithmetisches Mittel; Bevölkerungszahl; Gewicht der Attributvariante.

Die Bestimmung des Variationsumfangs ist ein notwendiger Schritt bei der Gruppierung primärer statistischer Informationen. Dieser Variationsindikator hat zwei wesentliche Nachteile: a) er hängt stark von den maximalen anomalen Werten des Merkmals ab und b) er berücksichtigt nicht die „interne“ Variation zwischen den durch die Maximal- und Minimalwerte bestimmten Grenzen. Daher erfolgt keine erschöpfende Beschreibung der Variation.

Der Indikator der durchschnittlichen linearen Abweichung liefert ein verallgemeinertes Merkmal des Streuungsgrades eines Merkmals im Aggregat, wird jedoch im Vergleich zu Streuung und Standardabweichung seltener verwendet, da man bei der Berechnung von a falsche Maßnahmen ergreifen muss mathematischer Sicht und verstoßen gegen die Gesetze der Algebra.

Die Streuung wird in quadratischen Einheiten dargestellt, in denen das registrierte Merkmal gemessen wird, sodass die Interpretation dieses Indikators recht schwierig ist. In diesem Zusammenhang wurde der Standardabweichungsindikator eingeführt, der in denselben Maßeinheiten gemessen wird wie der Einzelwert des Attributs.

Relative Variationsindikatoren werden als Prozentsätze berechnet (relativ zum arithmetischen Mittel oder Median der Reihe). Die folgenden relativen Variationsmaße werden in der Statistik verwendet:

1) Schwingungskoeffizient

zeigt die relative Streuung der Extremwerte von Merkmalen um das arithmetische Mittel;

2) relative lineare Abweichung

charakterisiert den Anteil des Durchschnittswerts der absoluten Abweichungen vom arithmetischen Mittel;

3) der Variationskoeffizient

am häufigsten verwendet, da es den Grad der Homogenität der Bevölkerung charakterisiert. Die Population gilt als homogen, wenn der Variationskoeffizient 33 % nicht überschreitet (bei Verteilungen nahe der Normalität).

1.5.3. Korrelationsanalyse

Die wichtigste Aufgabe der allgemeinen Statistiktheorie besteht darin, objektiv bestehende Zusammenhänge zwischen Phänomenen zu untersuchen. Im Prozess der statistischen Forschung werden Ursache-Wirkungs-Beziehungen zwischen Phänomenen geklärt, wodurch Faktoren (Zeichen) identifiziert werden können, die einen erheblichen Einfluss auf die Variation der untersuchten Phänomene und Prozesse haben.

In der Statistik wird zwischen funktionalem Zusammenhang und stochastischer Abhängigkeit unterschieden. Funktional ist eine Beziehung, bei der ein bestimmter Wert eines Faktormerkmals genau einem Wert des resultierenden Merkmals entspricht. Dieser Zusammenhang zeigt sich in allen Beobachtungsfällen und für jede spezifische untersuchte Bevölkerungseinheit.

Tritt ein kausaler Zusammenhang nicht in jedem Einzelfall, sondern generell im Durchschnitt über eine Vielzahl von Beobachtungen auf, so spricht man von einem solchen Zusammenhang stochastisch. Ein Sonderfall der Stochastik ist Korrelation eine Beziehung, bei der eine Änderung des Durchschnittswerts eines resultierenden Merkmals auf eine Änderung der Faktormerkmale zurückzuführen ist.

Bei der Untersuchung spezifischer Abhängigkeiten wirken einige Merkmale als Faktoren, die Veränderungen anderer Merkmale bestimmen. Die Zeichen der ersten Gruppe werden aufgerufen Fakultät und die Zeichen, die das Ergebnis des Einflusses dieser Faktoren sind Wirksam.

Statistiken erfordern nicht immer quantitative Bewertungen der Beziehung; oft ist es wichtig, nur ihre Richtung und Art zu bestimmen, um die Form des Einflusses einiger Faktoren auf andere zu identifizieren. Eine der Hauptmethoden zum Identifizieren des Vorhandenseins einer Verbindung ist korrelativ eine Methode, die darauf abzielt, die Nähe der Beziehung zwischen zwei Merkmalen (in einer paarweisen Beziehung) und zwischen den resultierenden und mehreren Faktormerkmalen (in einer multifaktoriellen Beziehung) zu quantifizieren.

Korrelation ist eine statistische Beziehung zwischen Zufallsvariablen, die keinen streng funktionalen Charakter haben, bei der eine Änderung einer der Zufallsvariablen zu einer Änderung der mathematischen Erwartung der anderen führt.

In der Statistik werden folgende Abhängigkeitsmöglichkeiten unterschieden:

1) Paarkorrelation – eine Verbindung zwischen zwei Merkmalen (resultativ und Faktor oder zwei Faktoren);

2) Teilkorrelation – die Abhängigkeit zwischen den resultierenden und einem Faktormerkmal mit einem festen Wert anderer Faktormerkmal;

3) Mehrfachkorrelation – die Abhängigkeit des Resultierenden von zwei oder mehr in die Studie einbezogenen Faktormerkmalen.

Die wichtigste Methode zur Identifizierung des Vorliegens einer Korrelation ist die Methode der analytischen Gruppierung und der Bestimmung von Gruppendurchschnitten. Es besteht darin, dass alle Einheiten der Bevölkerung entsprechend dem Wert des Faktormerkmals in Gruppen eingeteilt werden und für jede Gruppe der Durchschnittswert des resultierenden Merkmals ermittelt wird.

Allgemeine Theorie der Statistik

Statistiken . Dieses Wort kommt von den lateinischen Wörtern stato und status und bedeutet Zustand, Lage und Zustand von Phänomenen im Staat, weshalb Statistik vor einigen hundert Jahren mit Staatswissenschaft übersetzt wurde. Im Mittelalter wurde das Wort statista (Statistiker) für eine Person verwendet, die über Kenntnisse auf dem Gebiet der Politik verfügte und sich über verschiedene Staaten und Völker auskennte. Als wissenschaftliche Disziplin wurde der Begriff „Statistik“ 1743 vom deutschen Wissenschaftler G. Achenwal eingeführt, um den Wissensbestand über den Staat zu bezeichnen. Er war es, der an der Universität Göttingen begann, Statistik zu unterrichten, wo die sogenannte diskrete (beschreibende) Schule der Statistik gegründet wurde.

Im Italien der Renaissance verbreitete sich das Wissen über Politik und bildete eine spezielle Disziplin namens Ragione di Stato. Das Wort stato oder statu entsprach dem Begriff „Staat“. Eine politisch versierte Person, ein Experte in verschiedenen Staaten, wurde als Statista bezeichnet. Achenval führte das Wort statistica ein, das den Wissensumfang bezeichnete, den Politiker und Kaufleute benötigen. So begann die Entstehung der Statistik als Wissenschaft der Wirtschafts- und Verwaltungsbuchhaltung.

Zur gleichen Zeit gab es in England eine weitere wissenschaftliche Schule der „politischen Arithmetik“, die von V. Petty gegründet und nach seinem berühmten Buch (1690) benannt wurde. Die politische Arithmetik schien ihm ein Werkzeug der gesellschaftlichen Erkenntnis zu sein, die nicht auf der Grundlage von Ideen, sondern auf der Grundlage gesammelter realer Fakten und der Verwendung quantitativer Merkmale erfolgte. All dies entsprach den Vorstellungen der Naturwissenschaft, die auf Beobachtung basiert, wie wir sie in der modernen Statistik sehen.

Bekanntlich waren V. Petit und die Englische Schule die ersten, die das Nationalvermögen und das Nationaleinkommen berechneten und die Stichprobenmethode anwendeten.

Tatsächlich basierten die Statistiken auf diesen beiden Schulen. Von der diskreten (deskriptiven) Statistik erhielt sie eine Methodik zur quantitativen Beschreibung und von den politischen Arithmetikern eine statistische Methodik zur Untersuchung der quantitativen Eigenschaften von Massenphänomenen.

In der einen oder anderen Form wird Statistik Studierenden aller Bildungsformen und fast aller Fachrichtungen beigebracht. Derzeit ist ein drittes Element hinzugekommen, das die Statistik zu einer universellen Methode gemacht hat. Sie basiert auf der Wahrscheinlichkeitstheorie und der mathematischen Statistik und unterscheidet sich dadurch deutlich von der Statistik des 19. Jahrhunderts.

In der Geschichte der russischen Statistik existierten alle bekannten Schulen und Richtungen. Tatishchev V.N. (1686 - 1750) und Lomonosov M.V. (1711 - 1765) Vertreter der russischen beschreibenden Schule. Bernoulli D. (1700 – 1782) und Kraft L. (1743 – 1814) sind typische politische Arithmetiker. Der russische Mathematiker Chebyshev P.P. (1821 – 1894), Markov N.A. (1856 – 1922), Lyapunov A.M.

(1857 – 1919) trug zur weltweiten mathematischen Statistik bei. Wenn wir die Lebens- und Arbeitsjahre russischer Statistiker vergleichen, können wir den Schluss ziehen, dass sie sich in Russland parallel zu globalen Trends entwickelt haben.

Derzeit wird der Begriff „Statistik“ in drei Bedeutungen verwendet.

Unter Substatistik wird zunächst ein besonderer Zweig der praktischen Tätigkeit von Menschen verstanden, der darauf abzielt, Daten zu sammeln, zu verarbeiten und zu analysieren, die die sozioökonomische Entwicklung des Landes, seiner Regionen, Wirtschaftszweige und einzelner Unternehmen charakterisieren.

Zweitens ist Statistik die Wissenschaft, die sich mit der Entwicklung theoretischer Prinzipien und Methoden für die statistische Praxis befasst. Es besteht ein enger Zusammenhang zwischen statistischer Wissenschaft und statistischer Praxis.

Drittens gelten als Statistiken statistische Daten, die in den Berichten von Unternehmen, Organisationen, Wirtschaftszweigen sowie in Sammlungen, Nachschlagewerken und Zeitschriften veröffentlicht werden und das Ergebnis statistischer Arbeiten darstellen.

Im Laufe der historischen Entwicklung der statistischen Wissenschaft entstanden innerhalb ihrer Zusammensetzung eine Reihe eigenständiger statistischer Disziplinen; Dies wird durch das Vorhandensein eines bestimmten Forschungsgegenstandes und eines speziellen Systems statistischer Indikatoren zu seiner Charakterisierung erklärt. Die Struktur der Statistikwissenschaft lässt sich wie folgt darstellen (Abb. 1)


Daher ist es in der Statistikwissenschaft traditionell, die folgenden Teile zu unterscheiden: Allgemeine Theorie der Statistik, Wirtschaftsstatistik und ihre Zweige, Sozialstatistik und ihre Zweige, wie zum Beispiel 1 – Finanzstatistik, 2 – Industriestatistik, 3 – Agrarstatistik, 4 – Statistik der Forstwirtschaft, 4 – Staatshaushaltsstatistik, 5 – Preisstatistik usw. können unbegrenzt detailliert werden, zum Beispiel kann die Industrie in Leicht- und Schwerindustrie, Bergbau und verarbeitendes Gewerbe und dergleichen unterteilt werden. Darüber hinaus haben alle statistischen Wissenschaften, und zwar nicht nur die Wirtschafts-, sondern auch die Naturwissenschaften, eine gemeinsame Grundlage – die mathematische Statistik.

Allgemeine Theorie der Statistik entwickelt allgemeine Prinzipien und Methoden der statistischen Erforschung von Prozessen und Phänomenen, die allgemeinsten Kategorien, Zeichen, Messgeräte, statistische Indikatoren sowie die Organisation der Sammlung, Verarbeitung, Analyse und Präsentation von Informationen.

Die Aufgabe der Wirtschaftsstatistik ist die Entwicklung und Analyse synthetischer Indikatoren, die den Zustand der Volkswirtschaft, die Wechselbeziehungen der Industrien, Merkmale des Standorts der Produktionskräfte, die Verfügbarkeit von Material, Arbeitskräften und finanziellen Ressourcen sowie den erreichten Grad ihrer Nutzung widerspiegeln.

Zweige der Wirtschaftsstatistik Gleichzeitig gibt es in der russischen Statistik eine von der sowjetischen Statistikschule überlieferte Tradition, die das Vorhandensein getrennter Disziplinen mit eigenem Fach voraussetzt – Statistik der Industrie, Landwirtschaft, Bauwesen, Verkehr, Kommunikation, Arbeit, natürliche Ressourcen , Umweltschutz usw. d.; ihre Aufgabe Entwicklung und Analyse statistischer Indikatoren für die Entwicklung relevanter Branchen.

Sozialstatistik bildet ein Indikatorensystem zur Charakterisierung des Lebensstils der Bevölkerung und verschiedener Aspekte sozialer Beziehungen. Ihre Branche Statistiken über Bevölkerung, Politik, Gesundheitswesen, Wissenschaft, Bildung, Recht.

Branchenstatistiken werden auf der Grundlage von Indikatoren der Wirtschafts- oder Sozialstatistik erstellt, und beide basieren wiederum auf Kategorien (Indikatoren) und Analysemethoden, die von der allgemeinen Statistiktheorie entwickelt wurden.

In „Allgemeine Theorie der Statistik“ Berücksichtigt werden die Hauptkategorien und Methoden der Statistikwissenschaft, die Natur statistischer Aggregate, die kognitiven Eigenschaften statistischer Indikatoren und die Bedingungen für ihre Anwendung unter Einsatz moderner Computertechnologie. Mit seiner Hilfe wird eine Grundlage für die Aneignung und qualifizierte Anwendung statistischer Methoden zum Verständnis der Entwicklungsmuster sozioökonomischer Phänomene unter den Bedingungen der modernen Wirtschaft geschaffen.

Im Ausland werden in der Regel alle statistischen Disziplinen in einem Studiengang zusammengefasst, die sich in unterschiedlichen Komplexitätsstufen unterscheiden: „Statistik 1“ umfasst die deskriptive (diskretionäre) Statistik und grundlegende Verteilungsgesetze sowie die Grundlagen der Stichprobenmethode, „ „Statistik 2“ umfasst statistische Inferenz (Testen statistischer Hypothesen und statistischer Auswertung, Korrelation – Regressions- und Varianzanalyse, Zeitreihenanalyse), „Statistik 3“ – multivariate statistische Analyse.

Statistiken sind für einen Ökonomen in erster Linie notwendig, um Entscheidungen zu rechtfertigen und auf der Grundlage von Analysen Fehlentscheidungen zu widerlegen.

Statistische Methodik ist eine Reihe allgemeiner Regeln (Prinzipien) und spezieller Techniken und Methoden der statistischen Forschung. Die allgemeinen Regeln der statistischen Forschung basieren auf den Bestimmungen der sozioökonomischen Theorie und dem Prinzip der dialektischen Erkenntnismethode. Sie bilden die theoretische Grundlage der Statistik . Basierend auf einer theoretischen Grundlage wendet die Statistik spezifische Methoden der numerischen oder quantitativen Beleuchtung eines Phänomens an , die ihren Ausdruck in den vier Stufen (Stufen) der statistischen Forschung finden :

1. Massenwissenschaftlich organisierte Beobachtung, mit deren Hilfe Primärinformationen über einzelne Einheiten (Faktoren) des untersuchten Phänomens gewonnen werden.

2. Gruppierung und Zusammenfassung des Materials, die die Aufteilung der gesamten Fallmasse (Einheiten) in homogene Gruppen und Untergruppen darstellt, die Berechnung der Ergebnisse für jede Gruppe und Untergruppe und die Aufzeichnung der Ergebnisse in Form einer statistischen Tabelle.

3. Verarbeitung der bei der Zusammenfassung und Analyse der Ergebnisse gewonnenen statistischen Indikatoren, um fundierte Schlussfolgerungen über den Zustand des untersuchten Phänomens und die Muster seiner Entwicklung zu erhalten.

Darstellung der gewonnenen Analyseergebnisse in benutzerfreundlicher Form auf Basis verschiedener Informationsmedien. E

Gegenstand der Statistik als Wissenschaft ist die Untersuchung der quantitativen Seite gesellschaftlicher Massenphänomene in untrennbarem Zusammenhang mit ihren qualitativen Merkmalen. Aus dieser Definition lassen sich drei Hauptmerkmale der Statistik identifizieren:

1. die quantitative Seite von Phänomenen wird erforscht;

2. Massenprozesse und -phänomene werden untersucht;

3. Es erfolgt eine quantitative Beschreibung von Massenprozessen und -phänomenen auf der Grundlage der Untersuchung qualitativer Parameter.

Wir können also sagen, dass sich die Statistik mit der Erhebung, Verarbeitung, Analyse und Darstellung von Informationen befasst und dass der Gegenstand der Statistik die statistische Grundgesamtheit ist.

Statistische Bevölkerung- Dies ist eine Masse von Einheiten, die durch eine einzige qualitative Basis vereint sind, sich jedoch in einer Reihe unterschiedlicher (verändernder) Merkmale voneinander unterscheiden . Der Begriff „Variation“ ist in verschiedenen Wissensgebieten, in lebendigen und wissenschaftlichen Sprachen weithin bekannt und bedeutet überall Veränderung oder Variabilität innerhalb bestimmter Grenzen oder um einen bestimmten Standard herum, zum Beispiel eine Variation eines Themas in der Musik, beim Kochen von Speisen in Suppe, Waräger – Menschen unterschiedlicher Herkunft, die Fluss- und Seehandel und (oder) Piraterie betrieben, und schließlich das altslawische Wort – varum, was ein schwankendes (veränderliches) Meer bedeutet. Variation (Änderung) von Merkmalen (normalerweise quantitativ) kann in der Zeit, im Raum, in der gegenseitigen Veränderung eines Merkmals von einem anderen auftreten. Beispielsweise hängt die Höhe des Gehalts eines Arbeiters von der Menge der von ihm produzierten Produkte ab.

Im Landesstandard, in den Programmen der meisten Wirtschaftsuniversitäten, besteht die Statistik aus zwei Teilen – der allgemeinen Statistiktheorie und der sozioökonomischen Statistik. Erst nachdem Sie beide Teile studiert haben, werden Sie in der Lage sein:

1. theoretische Kenntnisse und praktische Fähigkeiten auf dem Gebiet der statistischen Methodik und vor allem in der Organisation statistischer Beobachtungen erwerben.

2. dieses Wissen in unterschiedlichsten Produktions- und Wirtschaftssituationen zur Entscheidungsfindung nutzen;

3. Führen Sie eine umfassende wirtschaftliche und statistische Analyse von Indikatoren durch und bewerten Sie dadurch objektiv die Ergebnisse der Aktivitäten Ihres Unternehmens, Staates oder Unternehmens.

4. Statistische Daten interpretieren und Planungs- und Prognoseindikatoren organisieren.

Der gesamte Kurs besteht aus Abschnitten, ist thematisch gegliedert und enthält Aufgaben und Tests, die Ihnen dabei helfen, statistisches Denken zu entwickeln und eine aktive Aneignung des behandelten Stoffes sicherzustellen. Die Festigung des erworbenen theoretischen Wissens zu Themen erfolgt mit Hilfe von Testaufgaben, die Sie selbstständig bearbeiten (zur Überprüfung der Richtigkeit der Lösungen finden Sie Antworten am Ende beider Teile des Lehrbuchs).

Statistik als universelle Methodik zur Arbeit mit quantitativen Merkmalen von Untersuchungsobjekten ist die Grundlage fast aller spezifischen Wirtschaftsdisziplinen und vor allem der Ökonometrie.

Beim Schreiben eines Lehrbuchs weicht der Autor manchmal bewusst von der traditionellen Art der Stoffpräsentation ab, versucht, anschaulichere Beispiele zu geben und manchmal anzugeben, was durch eine Formel in Worte gefasst werden kann. Wenn man den aktuellen Stand der Ausbildung der Studenten bedenkt, wo einerseits mit alarmierender Häufigkeit junge Menschen anzutreffen sind, die im zweiten Jahr keine Ahnung haben, wie sie an einen Prozentsatz kommen, und andererseits Studenten, die es wissen Wenn jemand fast beruflich mit wissenschaftlicher Kreativität zu tun hat und zum Beispiel einen Computer auf Systemebene als Administrator besitzt, möchte ich zumindest einen Teil des Lehrbuchs dem allgemeinen Leser zugänglich machen, ohne ihn zu verlieren, aber der Inhalt ist ziemlich schwer zu verstehen.

Darüber hinaus ist das Lehrbuch auch praxisorientiert.

Reis. 1a Der Prozess des Zerfalls der Schallenergie

Grundbestimmungen. In der statistischen Theorie werden akustische Prozesse in einem Raum als allmähliche Abnahme der Energie von Wellen betrachtet, die wiederholt von Barrieren im Raum reflektiert werden. Dieser Abfall tritt auf, nachdem die Schallquelle aufgehört hat. Durch Idealisierung wird dieser Prozess in erster Näherung als kontinuierlich angesehen. Dann kann es im linearen Maßstab als Exponentialwert (Abb. 1, a) und im halblogarithmischen Maßstab als Gerade (Abb. 1, b) dargestellt werden. Voraussetzung für eine solche Betrachtung ist die Erfüllung zweier Bedingungen: Alle Richtungen der Wellenbewegung sind gleich wahrscheinlich und die Schallenergiedichte e = E/V ist an jedem Punkt im Raumraum gleich.

Reis. 1b. Der Prozess des Zerfalls der Schallenergie im halblogarithmischen Maßstab

Bevor der Prozess des Zerfalls der Schallenergie in einem Raum analysiert wird, muss erklärt werden, warum in der Architekturakustik nicht dem stationären Prozess (dem Prozess stationärer Schwingungen), sondern dem Übergangsprozess (instationär) mehr Aufmerksamkeit geschenkt wird. eins. Letzteres beginnt nach dem Verschwinden der Schallquelle, besteht aus einem allmählichen Schallabfall aufgrund des Verlusts der Schallenergie und wird Echo oder Nachhall genannt.

Der Nachhall beeinflusst die Qualität von Sprache und Musik erheblich. Eine zu lange Nachhalldauer führt dazu, dass neue Sprachsilben vor dem Hintergrund vorheriger verblassender Silben erklingen. Die Sprachverständlichkeit verschlechtert sich. Bei einem kurzen Echo ist die Sprachverständlichkeit durchaus zufriedenstellend, die eigentümliche „Leblosigkeit“, „Sterilität“ eines solchen Klangs wird jedoch insbesondere beim künstlerischen Lesen als Mangel empfunden. Noch wichtiger ist der Echoprozess beim Musikhören. Jede musikalische Phrase ist eine Folge von Klangimpulsen. Ein anhaltendes Echo stört die Ästhetik der Musikwahrnehmung, und zwar umso stärker, je schneller das Tempo der Darbietung ist, da die Klänge „ineinanderlaufen“. Im Gegenteil, bei einer sehr kurzen Ansprache oder keiner Ansprache (bei Aufführung im Freien) klingt die Musik trocken. Die Kohärenz des Klangs geht verloren. Erst mit einer bestimmten Reaktionszeit, die für jeden Aufführungsstil ganz spezifisch ist, entsteht die notwendige Kohärenz des Klangs und das beste ästhetische Ergebnis.

Betrachten wir die Prozesse, die im Raum ablaufen, wenn die Quelle I beschallt wird (Abb. 2). Am Empfangspunkt Pr, an dem sich die Ohren oder das Mikrofon des Zuhörers befinden, gelangt zunächst direkter Schall über Weg 1, dann über Weg 2 werden Schall von den Oberflächen reflektiert, die der Quelle am nächsten liegen, und dann über Weg 3 Schall, der von entfernteren Oberflächen reflektiert wird . Später kommen Geräusche hinzu, die auf Weg 4 doppelt reflektiert wurden usw. Die Anzahl der Reflexionen pro Zeiteinheit steigt proportional zur zweiten Potenz der Zeit. Der Raum wird nach und nach mit Klangenergie gefüllt. Nachdem die Quelle aufhört zu klingen, beginnt der Echoprozess. In der gleichen Reihenfolge wie zu Beginn des Schalls treffen relativ seltene Erstreflexionen zuerst am Empfangspunkt ein. Darüber hinaus nimmt die Dichte verzögerter Impulse zu und ihre Energie nimmt allmählich ab (Abb. 3).


Die statistische Theorie beschäftigt sich genau mit diesem zweiten Teil des Echos, mit einer mit der Zeit zunehmenden Impulsdichte und einer abnehmenden Energie. Direktschall und anfängliche relativ seltene Reflexionen werden von der statistischen Theorie nicht berücksichtigt.

Reis. 3. Struktur früher Reflexionen der Nachhallreaktion

Das von W. Sabin vorgeschlagene Verfahren basiert auf einem Modell eines idealen Raumes, in dem das Schallfeld nach dem Ende des Schallsignals auf Basis einer statistischen Betrachtung des Schalldämpfungsprozesses berechnet werden kann. Es wird davon ausgegangen, dass die Amplituden und Phasen der reflektierten Schallwellen chaotisch verteilt sind, d. h. in der Wellenbewegung herrschen keine vorherrschenden Strömungsrichtungen und keine Symmetrie in der Amplitudenverteilung vor. Die akzeptierte Annahme lässt uns davon ausgehen, dass die Durchschnittswerte der Schallenergie in verschiedenen Richtungen gleich sind, das heißt, das Schallfeld ist isotrop und auch die zeitliche Durchschnittsdichte der Schallenergie an jedem Punkt im Raum ist gleich . Dieses Schallfeld wird diffus genannt. Seine Berücksichtigung ermöglichte es, Interferenzphänomene zu vernachlässigen und die Energiesummierung in Berechnungen anzuwenden. Dieser Ansatz ähnelt dem der kinetischen Gastheorie und basiert auf der mathematischen Wahrscheinlichkeitstheorie. L. Brekhovskikh zeigte, dass für Räume, deren lineare Abmessungen im Vergleich zur Wellenlänge groß sind, recht zufriedenstellende Ergebnisse erzielt werden.

Mit den Methoden der mathematischen Statistik im Diffusfeld wird die mittlere Weglänge eines Schallstrahls zwischen zwei Reflexionen ermittelt. Für einen Raum in Form eines rechteckigen Parallelepipeds mit linearen Abmessungen nahe dem „Goldenen Schnitt“ (Länge verhält sich zu Breite und Höhe wie 2:20,5:1, nach einer anderen Definition 5:3:2) ist der statistisch ermittelte Mittelwert frei Weg ist Schallstrahl

Dabei ist V das Raumvolumen, S die Gesamtfläche aller Begrenzungsflächen (Boden, Decke, Wände).

Anschließend wurde festgestellt, dass die erhaltene Abhängigkeit sowohl für Räume, deren lineare Abmessungen vom „Goldenen Schnitt“ abweichen, als auch für Räume mit komplexerer Form annähernd erhalten bleibt.

Bei jeder Reflexion wird ein Teil der einfallenden Energie von Hindernissen absorbiert und in Wärme umgewandelt. W. Sabin nannte den Prozess der allmählichen Abnahme der Dichte der Schallenergie Nachhall (Nachhall bedeutet in der Übersetzung „Reflexion“, „Echo“). In Deutschland wird für diesen Vorgang das Wort Nachhall verwendet, das ins Russische mit „Echo“, „Echo“, „Antwort“ übersetzt wird. Der Begriff „Echo“ wurde zuvor in der russischen Fachliteratur gefunden.

Als Dauer des Nachhallvorgangs – Nachhallzeit – wurde der Zeitraum angesehen, in dem die Schallenergiedichte um das 106-fache, der Schalldruck um das 103-fache und der Schalldruckpegel um 60 dB abnimmt.

Es gibt keine direkten Erklärungen für die Gründe für die Wahl einer Pegelabsenkung von 60 dB. Versuchen wir, vernünftige Gründe zu finden. Fortissimo-Orchester entspricht einem Schalldruckpegel von 90-100 dB und Pianissimo - 35-40 dB. Dann betragen die Durchschnittspegel 63-70 dB und die per Definition akzeptierte Nachhallzeit (Abnahme um 60 dB) entspricht ungefähr der Dauer des Abfalls der Durchschnittspegel bis zur Hörschwelle. Vielleicht war dieser Umstand der Grund für die Wahl dieser Definition der Nachhallzeit.

Dies alles gilt natürlich, sofern keine akustischen Störungen vorliegen. Bei einem Geräuschpegel von beispielsweise 30-40 dB, der sowohl für ein Wohnzimmer als auch für einen Konzertsaal typisch ist, wird ein erheblicher Teil des Echos durch Lärm überdeckt und das hörbare Echo dauert weniger als die Hälfte der Nachhallzeit .

Berechnungsverhältnisse. Um die Nachhallzeit experimentell zu bestimmen, nutzte Sabin einfachste Geräte: Orgelpfeifen als Schallquelle und eine Stoppuhr. Er fand heraus, dass die Nachhallzeit T direkt proportional zum Raumvolumen V und umgekehrt proportional zum Produkt aus dem durchschnittlichen Absorptionskoeffizienten aср und der Fläche aller Barrieren S ist:

Durchschnittlicher Absorptionskoeffizient:

wobei a1, a2,... Absorptionskoeffizienten verschiedener Materialien sind;

S = S1 + S2 + ... – Gesamtfläche der Hindernisse; n ist die Anzahl der verschiedenen Hindernisse.

Aus diesem Ausdruck können wir schließen, dass der durchschnittliche Absorptionskoeffizient einem einzelnen Material entspricht, das alle Oberflächen der Raumbarrieren bedecken und gleichzeitig die Gesamtschallabsorption A = aсрS beibehalten könnte. Als Absorptionseinheit gilt 1 m2 einer offenen Öffnung, die die gesamte auf sie einfallende Energie vollständig absorbiert (ohne Berücksichtigung der Beugung). Diese Einheit wurde Sabin (Sb) genannt.

Basierend auf Messungen der Nachhallzeit in fünf verschiedenen Räumen in Form eines rechteckigen Parallelepipeds und Volumina von 96 bis 1960 m3 nahm W. Sabin den Wert = 0,164 an (diese Zahl entspricht ungefähr dem wohlbekannten Bruchteil 1/6). . Bei der theoretischen Ableitung der Formel zur Berechnung der Nachhallzeit ergab sich der Wert k = 0,161, der in den meisten Lehrbüchern angegeben ist. Um die physikalischen Dimensionen auf der linken und rechten Seite der Formel zu harmonisieren, wurde beschlossen, dem k-Koeffizienten die Dimension s/m zu geben.

Später wurde entdeckt, dass k für Räume unterschiedlicher Form unterschiedlich ist. Die Messwerte von k sind in der Tabelle angegeben.

Raumform k

Im Grundriss kreuzförmig, mit gewölbter Decke 0,177

Nahe am „Goldenen Schnitt“ 0,164

Trapezförmig im Grundriss, Theatertyp 0,160

Kubisch 0,157

Sehr breiter Grundriss, mit einer niedrigen Decke von 0,152

Aus den obigen Beispielen geht klar hervor, dass es sich um Nachhall handelt, obwohl dies nicht aus der Struktur der Formel von W. Sabin selbst folgt. Tatsache ist, dass die durchschnittliche Weglänge zwischen zwei Reflexionen lcr vom Verhältnis der linearen Abmessungen abhängt, daher hängt auch die Nachhallzeit T davon ab.

Die theoretische Herleitung der Sabin-Formel basiert auf der Annahme einer diffusen, gleichmäßigen Verteilung der Schallenergie im gesamten Raum und der kontinuierlichen Absorption von Energie durch Hindernisse während des Nachhallvorgangs.

Diese Annahme führt zu einer relativ geringen Abweichung des berechneten Werts von T vom gemessenen Wert, wenn der durchschnittliche Absorptionskoeffizient klein ist und daher die Anzahl der Reflexionen groß genug ist, um die Diskretion dieses Prozesses zu vernachlässigen.

Tatsächlich wird Schallenergie von Barrieren nicht kontinuierlich, sondern sprunghaft absorbiert, wenn die Welle eine bestimmte Oberfläche erreicht. Daher wird es nicht zu einer völlig gleichmäßigen Füllung des gesamten Raumvolumens mit Energie kommen.

Genauere Nachhallstudien wurden 1929 von Schuster und Wetzmann und 1930 von Karl Eyring durchgeführt. Eyrings Formel sieht so aus:

Wenn wir den Ausdruck ln(1-a) zu einer Reihe erweitern und aufgrund der Kleinheit von a nur den ersten Term darin belassen, stellen wir fest, dass sich die Eyring-Formel für kleine Werte von a in die Sabin-Formel verwandelt. Wirklich,

Lassen Sie uns die Bedeutung des Minuszeichens im Nenner der Formel erklären. Der Logarithmus von Zahlen kleiner als eins hat einen negativen Wert. Das Minuszeichen wird eingeführt, um die physikalische Inkonsistenz zu beseitigen – den negativen Wert von T. Der Ausdruck im Nenner ist das Äquivalent der Gesamtabsorption A = acðS, die in der Formel von Sabin enthalten ist.

Beim Vergleich der Sabin- und Eyring-Formeln kommen wir zu dem Schluss, dass die Sabin-Näherung einen überschätzten Wert von T ergibt. Die Diskrepanz nimmt mit zunehmendem acð zu: acð 0,2 0,5 0,8

Überschätzung von T, % 11 37 100

Mit dem Wert acð = 1 erhält man ein physikalisch unrealistisches Ergebnis: T = V/6S, obwohl es in diesem Fall T = 0 sein müsste.

Die Sabin- und Eyring-Formeln können angewendet werden, wenn die schallabsorbierenden Materialien so gleichmäßig über die den Raum umschließenden Flächen verteilt sind, dass das Konzept eines durchschnittlichen Absorptionskoeffizienten angewendet werden kann.

Um die akustischen Bedingungen in Konzertsälen zu optimieren, wird acð = 0,19 empfohlen. Daher ist es in diesem Fall durchaus akzeptabel, die Nachhallzeit mithilfe der Sabin-Formel zu berechnen.

Bei der Ableitung der Formel von Sabin und Eyring wurden einige Annahmen getroffen, die in der Literatur zur Akustik selten erwähnt werden. Sabins Formel wurde unter der Annahme ermittelt, dass Wellen in jedem Winkel auf Hindernisse fallen, und bei der Ableitung von Eyrings Formel wurde angenommen, dass Wellen in Winkeln nahe der Normalen auf Hindernisse fallen. Daher sollten streng genommen die Werte des Absorptionskoeffizienten, die in einem diffusen Feld in einer Hallkammer bestimmt werden, in die Sabin-Formel und in die Eyring-Formel eingesetzt werden – die Werte des Absorptionskoeffizienten, die in einem flachen Feld bei gemessen werden normale Inzidenz, d.h. im Rohr.

Wenn die Verteilung der Gesamtabsorption sehr ungleichmäßig ist, kann es sein, dass das mit der Eyring-Formel berechnete Ergebnis weit vom gemessenen Ergebnis abweicht. Millington erläuterte den Grund für diese Diskrepanz. Eyring glaubte, dass die Anzahl der Reflexionen von verschiedenen Oberflächen mit den Flächen S1, S2,... gleich ist. Tatsächlich gilt: Je größer die Oberfläche selbst, desto größer ist die Wahrscheinlichkeit der Anzahl der Reflexionen von einer bestimmten Oberfläche. Basierend auf diesen Überlegungen leitete Millington eine weitere Formel zur Berechnung der Nachhallzeit ab:

wobei Si die Fläche von Materialien mit Absorptionskoeffizienten ai ist.

Der Nachteil der Millington-Formel ist folgender: Der berechnete Wert der Nachhallzeit ist gleich Null, wenn mindestens ein Element des Hindernisses, egal wie klein, acð = 1 hat. Offenbar wurde bei der Ableitung der Formel eine zweifelhafte Annahme getroffen . Das paradoxe Ergebnis lässt sich jedoch leicht vermeiden, indem man akzeptiert, dass kein Absorptionskoeffizient gleich eins ist.

Die Praxis hat gezeigt, dass für Räume mit kleinem ASR (Theater- und Konzertsäle, Klassenzimmer usw.) alle drei Formeln gleichermaßen zufriedenstellende Ergebnisse liefern. Bei Räumen mit durchschnittlichen Dämpfungskoeffizienten (z. B. Studios) liegen die nach der Eyring-Formel berechneten Nachhallzeitwerte näher an den gemessenen. Wenn die Materialien sehr unterschiedliche ai aufweisen und die Materialien selbst ungleichmäßig über die Oberflächen verteilt sind, liegen die nach der Millington-Formel berechneten T-Werte näher an den gemessenen. Unter Verwendung der oben genannten Formeln müssen diejenigen a akzeptiert werden, die bei der Verarbeitung des in der Schallmesskammer erhaltenen Versuchsmaterials mit denselben Formeln berechnet wurden.

Bestimmung des Absorptionskoeffizienten. Die Absorptionskoeffizienten von Materialien werden durch Messungen in einer „dröhnenden“ (Nachhall-)Kammer bestimmt. Bezeichnen wir das Volumen der Kammer mit V und ihre Nachhallzeit mit T0. Nach dem Einbringen des Untersuchungsmaterials mit einer Fläche SM in die Kammer verringert sich die Nachhallzeit auf TM. Dann:

Wenn die Fläche des untersuchten Objekts (z. B. ein Tisch, ein Stuhl usw.) nicht in einer bestimmten Zahl ausgedrückt werden kann, ermitteln Sie die Absorption des Objekts

Mit den oben genannten Formeln von Sabin und Eyring lösen sie also das umgekehrte Problem: Bestimmen Sie a oder A aus der gemessenen Nachhallzeit.

Eines der drängendsten Probleme der modernen Naturwissenschaften und insbesondere der Physik bleibt die Frage nach der Natur der Kausalität und der Kausalzusammenhänge in der Welt. Genauer gesagt wird diese Frage in der Physik im Problem der Beziehung zwischen dynamischen und statistischen Gesetzen und objektiven Gesetzen formuliert. Bei der Lösung dieses Problems entstanden zwei philosophische Richtungen – Determinismus und Indeterminismus, die direkt entgegengesetzte Positionen einnehmen.
Determinismus - die Lehre von der kausalen materiellen Bedingtheit natürlicher, sozialer und mentaler Phänomene. Das Wesen des Determinismus ist die Idee, dass alles, was auf der Welt existiert, auf natürliche Weise aufgrund der Wirkung bestimmter Ursachen entsteht und zerstört wird.
Indeterminismus - eine Lehre, die die objektive Kausalität von Naturphänomenen, der Gesellschaft und der menschlichen Psyche leugnet.
In der modernen Physik drückt sich die Idee des Determinismus in der Anerkennung der Existenz objektiver physikalischer Gesetze aus und findet ihre vollständigere und allgemeinere Widerspiegelung in grundlegenden physikalischen Theorien.
Grundlegende physikalische Theorien (Gesetze) stellen den Kern des wesentlichsten Wissens über physikalische Gesetze dar. Dieses Wissen ist nicht erschöpfend, spiegelt aber heute die physikalischen Prozesse in der Natur am besten wider. Auf der Grundlage bestimmter grundlegender Theorien werden wiederum private physikalische Gesetze wie das Archimedische Gesetz, das Ohmsche Gesetz, das Gesetz der elektromagnetischen Induktion usw. formuliert.
Wissenschaftler sind sich einig, dass die Grundlage jeder physikalischen Theorie aus drei Hauptelementen besteht:
1) eine Reihe physikalischer Größen, mit deren Hilfe die Objekte einer gegebenen Theorie beschrieben werden (zum Beispiel in der Newtonschen Mechanik - Koordinaten, Impulse, Energie, Kräfte); 2) der Staatsbegriff; 3) Bewegungsgleichungen, also Gleichungen, die die Entwicklung des Zustands des betrachteten Systems beschreiben.
Darüber hinaus ist zur Lösung des Kausalitätsproblems die Unterteilung physikalischer Gesetze und Theorien in dynamische und statistische (probabilistische) wichtig.

DYNAMISCHE GESETZE UND THEORIEN UND MECHANISCHER DETERMINISMUS

Ein dynamisches Gesetz ist ein physikalisches Gesetz, das ein objektives Muster in Form einer eindeutigen Verbindung zwischen quantitativ ausgedrückten physikalischen Größen widerspiegelt. Eine dynamische Theorie ist eine physikalische Theorie, die eine Reihe dynamischer Gesetze darstellt. Historisch gesehen war Newtons klassische Mechanik die erste und einfachste Theorie dieser Art. Es behauptete, mechanische Bewegung, also die zeitliche Bewegung von Körpern oder Körperteilen relativ zueinander, im Raum mit einiger Genauigkeit zu beschreiben.
Die von Newton formulierten Gesetze der Mechanik beziehen sich direkt auf einen physischen Körper, dessen Abmessungen vernachlässigt werden können, einen materiellen Punkt. Aber jeder Körper makroskopischer Dimensionen kann immer als eine Ansammlung materieller Punkte betrachtet werden und daher können seine Bewegungen ziemlich genau beschrieben werden.
Daher wird in der modernen Physik unter klassischer Mechanik die Mechanik eines materiellen Punktes oder Systems materieller Punkte und die Mechanik eines absolut starren Körpers verstanden.
Um Bewegungen zu berechnen, muss die Abhängigkeit der Wechselwirkung zwischen Teilchen von ihren Koordinaten und Geschwindigkeiten bekannt sein. Basierend auf den gegebenen Werten der Koordinaten und Impulse aller Teilchen des Systems zum Anfangszeitpunkt ermöglicht das zweite Newtonsche Gesetz dann die eindeutige Bestimmung der Koordinaten und Impulse zu jedem späteren Zeitpunkt. Dies erlaubt uns zu behaupten, dass die Koordinaten und Impulse der Teilchen des Systems seinen Zustand in der Mechanik vollständig bestimmen. Jede für uns interessante mechanische Größe (Energie, Drehimpuls usw.) wird durch Koordinaten und Impuls ausgedrückt. Somit sind alle drei Elemente der grundlegenden Theorie, der klassischen Mechanik, bestimmt.
Ein weiteres Beispiel für eine grundlegende physikalische Theorie dynamischer Natur ist Maxwells Elektrodynamik. Hier ist das Untersuchungsobjekt das elektromagnetische Feld. Die Maxwellschen Gleichungen sind dann die Bewegungsgleichungen für die elektromagnetische Form der Materie. Darüber hinaus wiederholt die Struktur der Elektrodynamik im allgemeinsten Sinne die Struktur der Newtonschen Mechanik. Maxwells Gleichungen ermöglichen es, das elektromagnetische Feld zu jedem späteren Zeitpunkt anhand gegebener Anfangswerte der elektrischen und magnetischen Felder innerhalb eines bestimmten Volumens eindeutig zu bestimmen.
Andere grundlegende Theorien dynamischer Natur haben die gleiche Struktur wie die Newtonsche Mechanik und die Maxwellsche Elektrodynamik. Dazu gehören: Kontinuumsmechanik, Thermodynamik und allgemeine Relativitätstheorie (Schwerkrafttheorie).
Die metaphysische Philosophie glaubte, dass alle objektiven physikalischen Gesetze (und nicht nur physikalische) genau den gleichen Charakter haben wie dynamische Gesetze. Mit anderen Worten, es wurden keine anderen Arten objektiver Gesetze erkannt, außer dynamischen Gesetzen, die eindeutige Verbindungen zwischen physischen Objekten ausdrücken und diese durch bestimmte physikalische Größen absolut genau beschreiben. Das Fehlen einer solchen vollständigen Beschreibung wurde als Mangel an unseren kognitiven Fähigkeiten interpretiert.
Die Verabsolutierung dynamischer Gesetze und damit des mechanischen Determinismus wird üblicherweise mit P. Laplace in Verbindung gebracht, der die berühmte, bereits von uns zitierte Aussage besitzt, dass, wenn es einen ausreichend großen Geist gäbe, dieser für jeden Moment alle Kräfte kennen würde, die auf alle Körper wirken des Universums (von seinen größten Körpern bis zu den kleinsten Atomen) sowie deren Standort, wenn er diese Daten in einer einzigen Bewegungsformel analysieren könnte, gäbe es nichts mehr, was unzuverlässig wäre, und zwar sowohl die Vergangenheit als auch die Zukunft des Universums.
Nach dem von Laplace verkündeten Prinzip sind alle Phänomene in der Natur mit „eiserner“ Notwendigkeit vorbestimmt. Zufälligkeit als objektive Kategorie hat in dem von Laplace gezeichneten Weltbild keinen Platz. Nur die Einschränkungen unserer kognitiven Fähigkeiten zwingen uns dazu, einzelne Ereignisse in der Welt als zufällig zu betrachten. Aus diesen Gründen wird der klassische mechanische Determinismus neben der Bedeutung von Laplace auch als harter Determinismus oder Laplace-Determinismus bezeichnet.
Die Notwendigkeit, den klassischen Determinismus in der Physik aufzugeben, wurde offensichtlich, nachdem klar wurde, dass dynamische Gesetze nicht universell und nicht eindeutig sind und dass die tieferen Naturgesetze keine dynamischen, sondern statistische Gesetze sind, die in der zweiten Hälfte von entdeckt wurden XIX Jahrhundert, insbesondere nachdem die statistische Natur der Gesetze der Mikrowelt klar wurde.
Aber selbst bei der Beschreibung der Bewegung einzelner makroskopischer Körper ist die Umsetzung des idealen klassischen Determinismus praktisch unmöglich. Dies wird deutlich an der Beschreibung sich ständig verändernder Systeme deutlich. Im Allgemeinen können die Anfangsparameter mechanischer Systeme nicht mit absoluter Genauigkeit festgelegt werden, daher nimmt die Genauigkeit der Vorhersage physikalischer Größen mit der Zeit ab. Für jedes mechanische System gibt es einen bestimmten kritischen Zeitpunkt, ab dem es unmöglich ist, sein Verhalten genau vorherzusagen.
Es besteht kein Zweifel daran, dass Laplaces Determinismus mit einem gewissen Grad an Idealisierung die reale Bewegung von Körpern widerspiegelt und in dieser Hinsicht nicht als falsch angesehen werden kann. Aber seine Verabsolutierung als völlig zutreffendes Abbild der Realität ist inakzeptabel.
Mit der Etablierung der dominanten Bedeutung statistischer Gesetze in der Physik verschwindet die Idee des allwissenden Bewusstseins, für das das Schicksal der Welt absolut präzise und eindeutig bestimmt ist, das Ideal, das der Wissenschaft durch das Konzept des absoluten Determinismus vorgegeben wurde .

STATISTISCHE GESETZE UND THEORIEN UND PROBABILISTISCHER DETERMINISMUS

Die oben beschriebenen dynamischen Gesetze sind universeller Natur, das heißt, sie gelten ausnahmslos für alle untersuchten Objekte. Eine Besonderheit dieser Art von Gesetzen besteht darin, dass die auf ihrer Grundlage gewonnenen Vorhersagen zuverlässig und eindeutig sind.
Damit einhergehend wurden in der Naturwissenschaft Mitte des letzten Jahrhunderts Gesetze formuliert, deren Vorhersagen nicht eindeutig, sondern nur wahrscheinlich sind. Diese Gesetze erhielten ihren Namen von der Art der Informationen, die zu ihrer Formulierung verwendet wurden. Sie wurden als probabilistisch bezeichnet, weil sich die darauf basierenden Schlussfolgerungen nicht logisch aus den verfügbaren Informationen ergeben und daher nicht zuverlässig und eindeutig sind. Da die Informationen selbst statistischer Natur sind, werden solche Gesetze oft auch als statistisch bezeichnet, und dieser Name hat in der Naturwissenschaft eine viel größere Verbreitung gefunden.
Die Idee von Gesetzen besonderer Art, bei denen die Zusammenhänge zwischen den in der Theorie enthaltenen Größen nicht eindeutig sind, wurde erstmals 1859 von Maxwell eingeführt. Er war der erste, der dies verstand, wenn er Systeme betrachtete, die aus einer großen Anzahl von Teilchen bestanden , ist es notwendig, das Problem völlig anders zu stellen, als es in der Newtonschen Mechanik der Fall war. Zu diesem Zweck führte Maxwell das Konzept der Wahrscheinlichkeit in die Physik ein, das zuvor von Mathematikern bei der Analyse zufälliger Phänomene, insbesondere des Glücksspiels, entwickelt wurde.
Zahlreiche physikalische und chemische Experimente haben gezeigt, dass es grundsätzlich unmöglich ist, nicht nur Änderungen des Impulses oder der Position eines Moleküls über einen großen Zeitraum zu verfolgen, sondern auch den Impuls und die Koordinaten aller Moleküle eines Gases bzw. Gases genau zu bestimmen anderer makroskopischer Körper zu einem bestimmten Zeitpunkt. Immerhin liegt die Anzahl der Moleküle bzw. Atome in einem makroskopischen Körper in der Größenordnung von 1023. Aus den makroskopischen Bedingungen, in denen sich das Gas befindet (eine bestimmte Temperatur, ein bestimmtes Volumen, ein bestimmter Druck usw.), ergeben sich bestimmte Werte der Impulse und Koordinaten der Moleküle folgen nicht unbedingt. Sie sind als Zufallsvariablen zu betrachten, die unter gegebenen makroskopischen Bedingungen unterschiedliche Werte annehmen können, so wie beim Würfeln beliebig viele Punkte von 1 bis 6 erscheinen können. Es ist unmöglich vorherzusagen, wie viele Punkte in erscheinen werden ein gegebener Würfelwurf. Aber die Würfelwahrscheinlichkeit, zum Beispiel 5, kann berechnet werden.
Diese Wahrscheinlichkeit hat einen objektiven Charakter, da sie die objektiven Beziehungen der Realität zum Ausdruck bringt und ihre Einführung nicht nur auf unsere Unkenntnis der Einzelheiten des Ablaufs objektiver Prozesse zurückzuführen ist. Bei einem Würfel ist die Wahrscheinlichkeit, eine beliebige Punktzahl von 1 bis 6 zu erhalten, also gleich /6, was nicht von der Kenntnis dieses Prozesses abhängt und daher ein objektives Phänomen ist.
Vor dem Hintergrund vieler zufälliger Ereignisse zeigt sich ein bestimmtes Muster, ausgedrückt durch eine Zahl. Diese Zahl – die Wahrscheinlichkeit eines Ereignisses – ermöglicht die Ermittlung statistischer Durchschnittswerte (die Summe der Einzelwerte aller Größen dividiert durch deren Anzahl). Wenn Sie also 300 Mal würfeln, beträgt die durchschnittliche Anzahl der Fünfer, die Sie erhalten, 300. „L = 50 Mal. Außerdem macht es keinen Unterschied, ob man mit den gleichen Würfeln wirft oder mit 300 gleichen Würfeln gleichzeitig.
Es besteht kein Zweifel, dass das Verhalten von Gasmolekülen in einem Gefäß viel komplexer ist als das eines geworfenen Würfels. Aber auch hier lassen sich bestimmte quantitative Muster finden, die es ermöglichen, statistische Durchschnittswerte zu berechnen, wenn man das Problem nur auf die gleiche Weise stellt wie in der Spieltheorie und nicht wie in der klassischen Mechanik. Es ist beispielsweise notwendig, das unlösbare Problem der Bestimmung des genauen Wertes des Impulses eines Moleküls zu einem bestimmten Zeitpunkt aufzugeben und zu versuchen, die Wahrscheinlichkeit eines bestimmten Wertes dieses Impulses zu ermitteln.
Maxwell hat es geschafft, dieses Problem zu lösen. Das statistische Gesetz der Verteilung von Molekülen über Impulse erwies sich als einfach. Aber Maxwells Hauptverdienst lag nicht in der Lösung, sondern in der Formulierung des neuen Problems. Er erkannte klar, dass das zufällige Verhalten einzelner Moleküle unter gegebenen makroskopischen Bedingungen einem bestimmten probabilistischen (oder statistischen) Gesetz unterliegt.
Nach den Impulsen von Maxwell begann sich die molekularkinetische Theorie (oder die statistische Mechanik, wie sie später genannt wurde) rasch zu entwickeln.
Statistische Gesetze und Theorien weisen die folgenden charakteristischen Merkmale auf.
1. In statistischen Theorien ist jeder Zustand ein probabilistisches Merkmal des Systems. Das bedeutet, dass der Zustand in statistischen Theorien nicht durch die Werte physikalischer Größen bestimmt wird, sondern durch die statistischen (Wahrscheinlichkeits-)Verteilungen dieser Größen. Dies ist eine grundsätzlich andere Charakteristik des Zustandes als in dynamischen Theorien, wo der Zustand durch die Werte der physikalischen Größen selbst spezifiziert wird.
2. In statistischen Theorien, die auf einem bekannten Ausgangszustand basieren, werden dadurch nicht die Werte physikalischer Größen selbst eindeutig bestimmt, sondern die Wahrscheinlichkeiten dieser Werte innerhalb vorgegebener Intervalle. Auf diese Weise werden die Durchschnittswerte physikalischer Größen eindeutig bestimmt. Diese Durchschnittswerte spielen in statistischen Theorien die gleiche Rolle wie die physikalischen Größen selbst in dynamischen Theorien. Die Ermittlung von Durchschnittswerten physikalischer Größen ist die Hauptaufgabe der statistischen Theorie.
Die probabilistischen Eigenschaften eines Zustands in statistischen Theorien unterscheiden sich völlig von den Eigenschaften eines Zustands in dynamischen Theorien. Dennoch weisen die dynamischen und statistischen Theorien in den wesentlichsten Punkten eine bemerkenswerte Einheit auf. Die Entwicklung eines Zustands wird in statistischen Theorien wie in dynamischen Theorien ausschließlich durch die Bewegungsgleichungen bestimmt. Basierend auf einer gegebenen statistischen Verteilung (mit einer gegebenen Wahrscheinlichkeit) zum Anfangszeitpunkt bestimmt die Bewegungsgleichung eindeutig die statistische Verteilung (Wahrscheinlichkeit) zu jedem nachfolgenden Zeitpunkt, wenn die Energie der Wechselwirkung von Teilchen untereinander und mit externen Körper ist bekannt. Die Durchschnittswerte aller physikalischen Größen werden jeweils eindeutig bestimmt. Hinsichtlich der Einzigartigkeit der Ergebnisse besteht hier kein Unterschied zu dynamischen Theorien. Schließlich drücken statistische Theorien ebenso wie dynamische Theorien die notwendigen Zusammenhänge in der Natur aus, und sie können im Allgemeinen nicht anders als durch einen eindeutigen Zustandszusammenhang ausgedrückt werden.
Auf der Ebene statistischer Gesetze und Muster stoßen wir auch auf Kausalität. Aber der Determinismus in statistischen Gesetzen stellt eine tiefere Form des Determinismus in der Natur dar. Im Gegensatz zum harten klassischen Determinismus kann er als probabilistischer (oder moderner) Determinismus bezeichnet werden.
Statistische Gesetze und Theorien sind eine fortgeschrittenere Form der Beschreibung physikalischer Gesetze; jeder derzeit bekannte Prozess in der Natur wird durch statistische Gesetze genauer beschrieben als durch dynamische. Der eindeutige Zusammenhang von Zuständen in statistischen Theorien weist auf ihre Gemeinsamkeit mit dynamischen Theorien hin. Der Unterschied zwischen ihnen besteht in einem Punkt: der Methode zur Aufzeichnung (Beschreibung) des Systemzustands.
Die wahre, umfassende Bedeutung des probabilistischen Determinismus wurde nach der Schaffung der Quantenmechanik offensichtlich – einer statistischen Theorie, die Phänomene auf atomarer Skala beschreibt, also die Bewegung von Elementarteilchen und aus ihnen bestehenden Systemen (andere statistische Theorien sind: die statistische Theorie). von Nichtgleichgewichtsprozessen, elektronische Theorie, Quantenelektrodynamik). Obwohl sich die Quantenmechanik erheblich von klassischen Theorien unterscheidet, bleibt hier die den Grundtheorien gemeinsame Struktur erhalten. Physikalische Größen (Koordinaten, Impulse, Energie, Drehimpuls usw.) bleiben im Allgemeinen die gleichen wie in der klassischen Mechanik. Die Hauptgröße, die den Zustand charakterisiert, ist die komplexe Wellenfunktion. Wenn Sie es wissen, können Sie die Wahrscheinlichkeit berechnen, einen bestimmten Wert nicht nur einer Koordinate, sondern auch einer anderen physikalischen Größe zu erkennen, sowie die Durchschnittswerte aller Größen. Die Grundgleichung der nichtrelativistischen Quantenmechanik – die Schrödinger-Gleichung – bestimmt eindeutig die zeitliche Entwicklung des Systemzustands.

ZUSAMMENHANG DYNAMISCHER UND STATISTISCHER GESETZE

Unmittelbar nach dem Aufkommen des Konzepts eines statistischen Gesetzes in der Physik stellte sich das Problem der Existenz statistischer Gesetze und ihrer Beziehung zu dynamischen Gesetzen.
Mit der Entwicklung der Wissenschaft änderte sich die Herangehensweise an dieses Problem und sogar seine Formulierung. Im Mittelpunkt des Korrelationsproblems stand zunächst die Frage nach der Begründung der klassischen statistischen Mechanik auf der Grundlage der Newtonschen Dynamikgesetze. Die Forscher versuchten herauszufinden, wie sich die statistische Mechanik, deren wesentliches Merkmal die probabilistische Natur der Vorhersage der Werte physikalischer Größen ist, mit den Newtonschen Gesetzen mit ihren eindeutigen Verbindungen zwischen den Werten aller Größen verhalten sollte.
Statistische Gesetze als eine neue Art der Musterbeschreibung wurden ursprünglich auf der Grundlage der dynamischen Gleichungen der klassischen Mechanik formuliert. Dynamische Gesetze galten lange Zeit als die wichtigste und primäre Art der Reflexion physikalischer Gesetze und statistische Gesetze galten weitgehend als Folge der Einschränkungen unserer kognitiven Fähigkeiten.
Doch heute weiß man, dass die Verhaltensmuster von Objekten in der Mikrowelt und die Gesetze der Quantenmechanik statistischer Natur sind. Damals stellte sich die Frage: Ist die statistische Beschreibung von Mikroprozessen die einzig mögliche oder gibt es dynamische Gesetze, die die Bewegung von Elementarteilchen tiefer bestimmen, aber unter dem Schleier der statistischen Gesetze der Quantenmechanik verborgen sind? ?
Die Entstehung und Entwicklung der Quantentheorie führte nach und nach zu einer Überarbeitung der Vorstellungen über die Rolle dynamischer und statistischer Gesetze bei der Widerspiegelung der Naturgesetze. Die statistische Natur des Verhaltens einzelner Elementarteilchen wurde entdeckt. Gleichzeitig wurden keine dynamischen Gesetze hinter den Gesetzen der Quantenmechanik entdeckt, die dieses Verhalten beschreiben. Daher vertreten bedeutende Wissenschaftler wie N. Bohr, W. Heisenberg, M. Born, P. Langevin und andere die These über den Vorrang statistischer Gesetze. Zwar war die Akzeptanz dieser These zu diesem Zeitpunkt schwierig, da einige der oben genannten Wissenschaftler die Position zum Primat statistischer Gesetze mit Indeterminismus in Verbindung brachten. Da das übliche Modell des Determinismus in der Mikrowelt unerreichbar war, kamen sie zu dem Schluss, dass es in der Mikrowelt überhaupt keine Kausalität gebe. Die meisten Wissenschaftler waren jedoch mit dieser Schlussfolgerung nicht einverstanden und begannen, auf der Notwendigkeit zu bestehen, dynamische Gesetze zur Beschreibung der Mikrowelt zu finden, wobei sie statistische Gesetze als eine Zwischenstufe wahrnahmen, die es ermöglicht, das Verhalten einer Reihe von Mikroobjekten zu beschreiben, dies jedoch noch nicht tut bieten die Möglichkeit, das Verhalten einzelner Mikroobjekte genau zu beschreiben.
Als klar wurde, dass die Rolle statistischer Gesetze bei der Beschreibung physikalischer Phänomene nicht geleugnet werden kann (alle experimentellen Daten stimmten vollständig mit theoretischen Berechnungen überein, die auf Wahrscheinlichkeitsberechnungen basierten), wurde die Theorie der „Gleichheit“ statistischer und dynamischer Gesetze aufgestellt. Diese und andere Gesetze wurden als gleichberechtigte Gesetze betrachtet, die sich jedoch auf unterschiedliche Phänomene bezogen, wobei jedes seinen eigenen Anwendungsbereich hatte, nicht auf das andere reduziert werden konnte, sondern sich gegenseitig ergänzte.
Diese Sichtweise berücksichtigt nicht die unbestreitbare Tatsache, dass alle grundlegenden statistischen Theorien der modernen Physik (Quantenmechanik, Quantenelektrodynamik, statistische Thermodynamik usw.) entsprechende dynamische Theorien als ihre Näherungen enthalten. Daher neigen viele prominente Wissenschaftler heute dazu, statistische Gesetze als die tiefste und allgemeinste Form der Beschreibung aller physikalischen Gesetze zu betrachten.
Es gibt keinen Grund, eine Schlussfolgerung über den Indeterminismus in der Natur zu ziehen, da die Gesetze der Mikrowelt grundsätzlich statistischer Natur sind. Da der Determinismus auf der Existenz objektiver Gesetze besteht, muss Indeterminismus das Fehlen solcher Gesetze bedeuten. Dies ist sicherlich nicht der Fall. Statistische Muster sind nicht weniger objektiv als dynamische und spiegeln die Verbindung von Phänomenen in der materiellen Welt wider. Die vorherrschende Bedeutung statistischer Gesetze bedeutet einen Übergang zu einer höheren Ebene des Determinismus und nicht eine völlige Ablehnung desselben.
Wenn wir die Beziehung zwischen dynamischen und statistischen Gesetzen betrachten, stoßen wir auf zwei Aspekte dieses Problems.
In dem zuerst historisch entstandenen Aspekt stellt sich die Beziehung zwischen dynamischen und statistischen Gesetzen wie folgt dar: Gesetze, die das Verhalten einzelner Objekte widerspiegeln, sind dynamisch, und Gesetze, die das Verhalten einer großen Sammlung dieser Objekte beschreiben, sind statistisch. Dies ist beispielsweise die Beziehung zwischen klassischer Mechanik und statistischer Mechanik. Wesentlich für diesen Aspekt ist, dass hier dynamische und statistische Gesetze verschiedene Bewegungsformen der Materie beschreiben, die nicht aufeinander reduzierbar sind. Sie haben unterschiedliche Beschreibungsobjekte, und daher lässt die Analyse von Theorien nicht erkennen, was in ihrer Beziehung zueinander wesentlich ist. Dieser Aspekt kann bei der Analyse ihrer Beziehung nicht als Hauptaspekt angesehen werden.
Der zweite Aspekt des Problems untersucht die Beziehung zwischen dynamischen und statistischen Gesetzen, die dieselbe Bewegungsform der Materie beschreiben. Beispiele hierfür sind Thermodynamik und statistische Mechanik, Maxwellsche Elektrodynamik und Elektronentheorie usw.
Vor dem Aufkommen der Quantenmechanik glaubte man, dass das Verhalten einzelner Objekte immer dynamischen Gesetzen gehorcht und das Verhalten einer Sammlung von Objekten immer statistischen Gesetzen folgt; Die niedrigeren, einfachsten Bewegungsformen unterliegen dynamischen Gesetzen und die höheren, komplexeren Formen unterliegen statistischen Gesetzen. Mit dem Aufkommen der Quantenmechanik wurde jedoch festgestellt, dass sowohl „niedere“ als auch „höhere“ Formen der Materiebewegung sowohl durch dynamische als auch durch statistische Gesetze beschrieben werden können. Quantenmechanik und Quantenstatistik beschreiben beispielsweise verschiedene Formen von Materie, aber beide sind statistische Theorien.
Nach der Entstehung der Quantenmechanik können wir zu Recht behaupten, dass dynamische Gesetze die erste, niedrigere Stufe des Wissens über die Welt um uns herum darstellen und dass statistische Gesetze die objektiven Beziehungen in der Natur besser widerspiegeln, da sie eine höhere Stufe des Wissens darstellen. Im Laufe der Entwicklungsgeschichte der Wissenschaft sehen wir, wie die zunächst aufkommenden dynamischen Theorien, die ein bestimmtes Spektrum von Phänomenen abdecken, im Laufe der Wissenschaft durch statistische Theorien ersetzt werden, die dasselbe Spektrum von Themen aus einem neuen, tieferen Blickwinkel beschreiben .
Die Ersetzung dynamischer Theorien durch statistische Theorien bedeutet nicht, dass die alten dynamischen Theorien obsolet und vergessen sind. Ihr praktischer Wert wird in gewissen Grenzen durch die Schaffung neuer statistischer Theorien keineswegs gemindert. Wenn wir von einem Theorienwandel sprechen, meinen wir in erster Linie die Ersetzung weniger tiefgreifender physikalischer Vorstellungen durch tiefergreifende Vorstellungen über das Wesen von Phänomenen. Gleichzeitig mit der Veränderung physikalischer Konzepte erweitert sich der Anwendungsbereich von Theorien. Statistische Theorien erstrecken sich auf ein breiteres Spektrum von Phänomenen, die für dynamische Theorien unzugänglich sind. Statistische Theorien stimmen quantitativ besser mit Experimenten überein als dynamische. Aber unter bestimmten Voraussetzungen führt die statistische Theorie zu den gleichen Ergebnissen wie die einfachere dynamische Theorie (das Korrespondenzprinzip kommt ins Spiel – wir werden es weiter unten diskutieren).
Der Zusammenhang zwischen dem Notwendigen und dem Zufälligen kann im Rahmen dynamischer Gesetze nicht aufgedeckt werden, da sie das Zufällige außer Acht lassen. Das dynamische Gesetz zeigt das durchschnittlich notwendige Ergebnis, zu dem der Prozessablauf führt, spiegelt jedoch nicht die Komplexität der Bestimmung dieses Ergebnisses wider. Wenn man ein recht breites Spektrum an Fragestellungen betrachtet und die Abweichungen vom geforderten Durchschnittswert vernachlässigbar sind, ist eine solche Beschreibung der Prozesse durchaus zufriedenstellend. Aber auch in diesem Fall kann es als ausreichend angesehen werden, sofern wir uns nicht für die komplexen Zusammenhänge interessieren, die zu den notwendigen Zusammenhängen führen, und uns darauf beschränken, nur diese Zusammenhänge darzustellen. Wir müssen uns darüber im Klaren sein, dass es in der Natur einfach keine absolut präzisen und eindeutigen Verbindungen zwischen den physikalischen Größen gibt, von denen dynamische Theorien sprechen. In realen Prozessen treten zwangsläufig immer Abweichungen von den geforderten Durchschnittswerten auf – zufällige Schwankungen, die nur unter bestimmten Voraussetzungen keine nennenswerte Rolle spielen und möglicherweise nicht berücksichtigt werden.
Dynamische Theorien sind nicht in der Lage, Phänomene zu beschreiben, wenn die Schwankungen signifikant sind, und können nicht vorhersagen, unter welchen Bedingungen wir das Notwendige nicht mehr isoliert vom Zufall betrachten können. In dynamischen Gesetzen erscheint die Notwendigkeit in einer Form, die ihren Zusammenhang mit dem Zufall vergröbert. Doch gerade letzterem Umstand tragen die statistischen Gesetze Rechnung. Daraus folgt, dass statistische Gesetze reale physikalische Prozesse tiefer widerspiegeln als dynamische. Es ist kein Zufall, dass statistische Gesetze nach dynamischen gelernt werden.
Zurück zu den Problemen der Kausalität können wir schlussfolgern, dass dynamische und probabilistische Kausalität auf der Grundlage dynamischer und statistischer Gesetze entsteht. Und so wie statistische Gesetze die objektiven Zusammenhänge der Natur tiefer widerspiegeln als dynamische, so ist die probabilistische Kausalität allgemeiner und die dynamische Kausalität nur ihr Sonderfall.

Seminar-Unterrichtsplan (2 Stunden)

1. Dynamische Gesetze und mechanischer Determinismus.
2. Statistische Gesetze und probabilistischer Determinismus.
3. Zusammenhang zwischen dynamischen und statistischen Gesetzen.

Themen von Berichten und Abstracts

LITERATUR

1. Myakishev G.Ya. Dynamische und statistische Muster in der Physik. M„ 1973.
2. Svechnikov G.A. Kausalität und Zusammenhang von Zuständen in der Physik. M., 1971.
3. Philosophische Probleme der Naturwissenschaft. M., 1985.

Grundlagen statistischer Theorien

Wie bereits erwähnt, herrschte in der klassischen Naturwissenschaft die Überzeugung, dass das grundlegendste Wissen in die Form einer dynamischen Theorie gekleidet werden sollte – genau, eindeutig, keine Unsicherheit zulassend. Die ersten statistischen Theorien wurden bis zur Entwicklung „strengerer“ Methoden nur als vorübergehend akzeptable Näherungen betrachtet.

Doch mit der Zeit wurden neue, immer wirksamere wissenschaftliche Theorien entwickelt – und es stellte sich heraus, dass fast alle davon statistischer Natur waren. In der Physik entstand zu Beginn des 20. Jahrhunderts die letzte grundlegende dynamische Theorie – die Allgemeine Relativitätstheorie. Ähnlich verhielt es sich in der Chemie und Biologie.

Da sich Wissen vorwärts und nicht rückwärts bewegt, wurde klar, dass die These über die grundlegende Natur dynamischer Theorien und die untergeordnete Rolle statistischer Theorien einer Revision bedarf. Es hat sich eine Kompromisssicht herausgebildet, wonach dynamische und statistische Theorien gleichermaßen grundlegend sind, die Realität jedoch aus unterschiedlichen Blickwinkeln beschreiben und sich gegenseitig ergänzen. Derzeit herrscht jedoch die Vorstellung vor, dass statistische Theorien am grundlegendsten sind, d. h. die Realität am gründlichsten und vollständigsten beschreiben.

Die überzeugendsten Argumente für dieses Konzept beruhen auf Prinzip der Korrespondenz(Ziffer 2.3.5).

Für jede der grundlegenden physikalischen Theorien dynamisch irgendwie existiert statistisch ein Analogon, das den gleichen Bereich von Phänomenen beschreibt: für die klassische Mechanik – Quantenmechanik, für die Thermodynamik – statistische Mechanik, für die Elektrodynamik und die spezielle Relativitätstheorie – Quantenelektrodynamik... Die einzige Ausnahme ist die allgemeine Relativitätstheorie, das statistische Analogon wovon – die Quantentheorie der Gravitation – noch nicht erstellt wurde, da sich Quantengravitationseffekte unter Bedingungen manifestieren müssen, die praktisch unmöglich in einem Labor zu erzeugen oder irgendwo im modernen Universum zu finden sind.

Andererseits gibt es für eine Reihe grundlegender statistischer Theorien keine dynamischen Analogien und es wird auch nicht erwartet, dass sie über solche verfügen. Dazu gehören beispielsweise die Quantenchromodynamik (eine Disziplin, die stark wechselwirkende Teilchen untersucht) oder die darwinistische Evolutionstheorie. Durch Entfernen des Zufallsfaktors aus Letzterem erhält man Lamarcks Theorie (Abschnitt 4.2), deren Irrtum nun außer Zweifel steht.

Noch bedeutsamer ist, dass die statistische Theorie in jedem der aufgeführten Paare ausnahmslos ein breiteres Spektrum von Phänomenen beschreibt und eine vollständigere und detailliertere Beschreibung dieser Phänomene liefert als ihr dynamisches Analogon. Beispielsweise gelten in der MCT die gleichen Gasgesetze von Boyle-Mariotte, Charles, Gay-Lussac wie in der Thermodynamik, jedoch Außerdem, es beschreibt auch Viskosität, Wärmeleitfähigkeit und Diffusion, was die Thermodynamik nicht zulässt. Mit Hilfe der Quantenmechanik können wir auf Wunsch die Bewegung makroskopischer Körper beschreiben: Nach Vereinfachungen erhalten wir die gleichen Bewegungsgleichungen wie in der Newtonschen Mechanik. Aber das Verhalten von Mikroobjekten – zum Beispiel Elektronen in Atomen – lässt sich beschreiben nur quantenmechanisch; Versuche, die klassische Mechanik anzuwenden, führen zu bedeutungslosen und widersprüchlichen Ergebnissen.

Die dynamische Theorie spielt immer die Rolle einer Näherung, einer Vereinfachung der entsprechenden statistischen Theorie.

Die statistische Theorie berücksichtigt und berücksichtigt Schwankungen, zufällige Abweichungen vom Durchschnitt. Wenn die Situation so ist, dass diese Abweichungen unbedeutend sind, dann erhalten wir, wenn wir sie vernachlässigen ungefähr eine Theorie, die das Verhalten von Durchschnittswerten beschreibt – und diese Theorie wird bereits dynamisch sein.

Wenn wir uns beispielsweise für den Luftdruck auf einer Fensterscheibe interessieren, können wir mit guter Genauigkeit davon ausgehen, dass sich alle Moleküle mit der gleichen Geschwindigkeit bewegen. Abweichungen in b Ö Wenn sich die Stöße unzähliger Moleküle aufgrund des Drucks auf das Glas addieren, heben sie sich mehr und weniger gegenseitig auf. Hier gilt die Thermodynamik. Wenn uns jedoch die Geschwindigkeit interessiert, mit der Planeten ihre Atmosphäre verlieren, dann wird ein statistischer Ansatz notwendig, denn die schnellsten Moleküle entweichen in den Weltraum, deren Geschwindigkeit über dem Durchschnitt liegt – und hier können wir nicht auf eine statistische Analyse der Schwankungen verzichten .

Der charakteristische Wert von Quantenfluktuationen wird durch das Plancksche Wirkungsquantum bestimmt ħ . Auf den uns bekannten makroskopischen Skalen ist dieser Wert zu klein, sodass Quantenfluktuationen vernachlässigt werden können und die Bewegung von Körpern dynamisch mit den Newtonschen Gesetzen beschrieben werden kann. Auf Skalen, in denen das Plancksche Wirkungsquantum nicht klein ist, gibt die Newtonsche Mechanik jedoch nach – sie kann die signifikant werdenden Quantenfluktuationen nicht berücksichtigen. Mit anderen Worten: Die klassische Mechanik ist nur dann geeignet, wenn man sie ohne große Fehler setzen kann ħ = 0.