Wahrscheinlichkeitstheorie und ihre technischen Anwendungen. Probleme und Übungen zur Wahrscheinlichkeitstheorie. Ventzel E.S., Ovcharov L.A.

HOCHSCHULBILDUNG

E. S. VENTZEL, L. A. OVCHAROV

Probleme und Übungen zur Wahrscheinlichkeitstheorie

als Lehrmittel für Studierende höherer technischer Studiengänge Bildungsinstitutionen

5. Auflage, überarbeitet

UDC 519.21(075.8) BBK22.171ya73

Gutachter - Direktor des Instituts für Informationsübertragungsprobleme der Russischen Akademie der Wissenschaften, Akademiker N.A. Kuznetsov

Ventzel E. S.

In 29 Probleme und Übungen der Wahrscheinlichkeitstheorie: Lehrbuch. Handbuch für Studierende Hochschulen / E. S. Ventzel, L. A. Ovcharov. - 5. Aufl., rev. - M.: Verlagszentrum "Academy", 2003. - 448 S.

ISBN 5-7695-1054-4

Dieses Handbuch ist eine systematische Auswahl von Problemen und Übungen zur Wahrscheinlichkeitstheorie. Für alle Probleme gibt es Antworten und für die meisten sogar Lösungen. Am Anfang jedes Kapitels gibt es eine Zusammenfassung der wichtigsten theoretische Bestimmungen und Formeln, die zur Lösung von Problemen erforderlich sind.

Für Studierende höherer technischer Bildungseinrichtungen. Kann von Lehrern, Ingenieuren und Wissenschaftlern verwendet werden, die sich für Mastering interessieren Wahrscheinlichkeitsmethoden für Lösungen praktische Probleme.

VORWORT

Dieses Lehrbuch wurde auf der Grundlage langjähriger Erfahrung in der Lehre der Wahrscheinlichkeitstheorie an einer höheren technischen Bildungseinrichtung sowie Erfahrung in der Anwendung probabilistischer Methoden zur Lösung praktischer Probleme verfasst. Zu Beginn jedes Kapitels des Buches wird eine kurze Zusammenfassung der theoretischen Informationen und Formeln gegeben, die zur Lösung der in dem Kapitel enthaltenen Probleme erforderlich sind.

Die Aufgaben im Handbuch variieren stark in ihrem Schwierigkeitsgrad: Bei einigen geht es darum, Fähigkeiten im Umgang mit vorgefertigten Formeln und Theoremen zu erwerben, bei anderen ist etwas Einfallsreichtum erforderlich. Dabei werden einfache Probleme nur mit Antworten versorgt, komplexere – mit detaillierten Lösungen. In einigen Fällen enthalten Lösungen Original methodische Techniken, die bei der Lösung von in der Praxis auftretenden Problemen hilfreich sein können, da sie recht allgemeiner Natur sind. Aufgaben erhöhter Schwierigkeitsgrad mit einem Sternchen gekennzeichnet. Die Nummern der Abbildungen und Formeln für Probleme entsprechen den Nummern der Probleme.

Ein Merkmal, das dieses Buch von ähnlichen Veröffentlichungen unterscheidet, ist der größere Umfang an Problemlösungen und -analysen im Vergleich zu den Texten der Probleme selbst. In dieser Hinsicht nimmt das Handbuch eine Art Zwischenstellung zwischen einem gewöhnlichen Sommeraufgabenbuch und einem Lehrbuch ein. Um die Lesbarkeit zu erleichtern, haben sich die Autoren von der traditionellen Unterteilung des Textes in „Probleme“ und „Antworten“ darauf zurückgezogen und es vorgezogen, die Antwort oder Lösung für jedes Problem direkt nach seiner Formulierung zu geben. Dies hindert einen gewissenhaften Leser nicht daran, jedes der vorgeschlagenen Probleme selbst zu lösen und sich nur im Falle eines Misserfolgs an die Lösung zu wenden.

Das Handbuch richtet sich an Personen, die mit der Wahrscheinlichkeitstheorie im Band vertraut sind, beispielsweise mit dem Lehrbuch von E.S. Ventzel „Theory of Probability“ sowie den Lehrbüchern von E.S. Ventzel, L.A. Ovcharova „The Theory of Probability and Its Engineering Applications“. “ und „Theorie zufälliger Prozesse und ihre technischen Anwendungen“. Einige zusätzliche Informationen, die zur Lösung einzelner Probleme erforderlich sind, werden im Text gegeben.

Die Autoren danken dem Rezensenten der ersten Auflage des Buches, Professor B.V. Gnedenko, der eine Reihe nützlicher Kommentare abgegeben hat, aufrichtig wissenschaftlicher Redakteur Bücher an außerordentlichen Professor L.Z. Rumshisky, der die schwierige Aufgabe übernahm, die Lösungen für alle Probleme zu überprüfen und dadurch dazu beitrug, einige Fehler zu beseitigen.

Das Buch wurde erstmals 1969 veröffentlicht und 1973, 2000 und 2002 nachgedruckt. In der vierten Auflage, Kap. 10 und ein neues Kapitel wurde eingeführt. Und basierend auf dem Buch der Autoren.

Insgesamt wurde das Buch zehnmal veröffentlicht, darunter Ausgaben auf Englisch, Französisch und zweimal auf Deutsch und Spanisch.

GRUNDLEGENDES KONZEPT. DIREKTE WAHRSCHEINLICHKEITSBERECHNUNG

Ein Ereignis (oder „zufälliges Ereignis“) ist jede Tatsache, die aufgrund der Erfahrung eintreten kann oder nicht.

Wahrscheinlichkeit des Ereignisses wird als numerisches Maß für den Grad der objektiven Möglichkeit dieses Ereignisses bezeichnet.

Die Wahrscheinlichkeit des Ereignisses A wird mit P(A), Reeler, bezeichnet.

Ein Ereignis, das aufgrund der Erfahrung mit Sicherheit eintritt, wird als zuverlässig bezeichnet.

Ein Ereignis, das aufgrund der Erfahrung nicht eintreten kann, wird als unmöglich bezeichnet.

P(V) = 0.

Die Wahrscheinlichkeit eines Ereignisses A liegt zwischen null und eins: 0<Р(А) < 1.

Vollständige Veranstaltungsgruppe Mehrere Ereignisse werden so genannt, dass mindestens eines davon zwangsläufig als Ergebnis des Experiments eintreten muss.

Mehrere Ereignisse in einem bestimmten Experiment gelten als inkompatibel, wenn keine zwei von ihnen gleichzeitig auftreten können.

Mehrere Ereignisse in diesem Experiment werden aufgerufen gleichermaßen möglich, wenn es unter den Bedingungen der Symmetrie der Erfahrung keinen Grund gibt, eine davon für möglicher zu halten als jede andere.

Wenn mehrere Veranstaltungen: 1) eine vollständige Gruppe bilden; 2) inkompatibel; 3) gleichermaßen möglich sind, dann nennt man sie Fälle („Chancen“).

Der Fall heißt glückverheißendes Ereignis wenn der Eintritt dieses Falles den Eintritt eines Ereignisses mit sich bringt.

Reduziert man die Ergebnisse des Experiments auf ein Fallschema, so wird die Wahrscheinlichkeit des Ereignisses A anhand der Formel berechnet

Dabei ist n die Gesamtzahl der Fälle; m ist die Anzahl der Fälle, die für Ereignis A günstig sind.

1.1. Bilden die folgenden Ereignisgruppen eine vollständige Gruppe: a) Erlebnis – Münzwurf; Ereignisse: A x - Erscheinen des Wappens;

A 2 – das Erscheinen einer Zahl; b) Experiment – ​​zwei Münzen werfen; Ereignisse:B x - das Erscheinen von zwei

Wappen; In 2 - das Erscheinen von zwei Ziffern; c) Erfahrung – zwei Schüsse auf ein Ziel; Ereignisse: A 0 – keine

Treffer; A x – ein Treffer; A 2 – zwei Treffer; d) Erfahrung – zwei Schüsse auf ein Ziel; Ereignisse: C x - mindestens eines

Schlag; C 2 – mindestens ein Fehlschlag;

e) Erfahrung – Entfernen einer Karte vom Stapel; Ereignisse: D x – Erscheinen einer Karte der roten Farbe; D 2 – Erscheinen einer Karte der Karo-Farbe; D 3 – Erscheinen einer Karte der Kreuz-Farbe?

UM t v e t: a) ja; b) nein; c) ja; d) ja; d) nein.

1.2. Sind die folgenden Ereignisse nicht kompatibel:

a) Experiment – ​​Münzwurf; Ereignisse: A x – Aussehen des Wappens; A 2 – Aussehen der Zahl;

b) Experiment – ​​zwei Münzen werfen; Ereignisse: B x – das Erscheinen des Wappens auf der ersten Münze; B 2 – das Erscheinen einer Zahl auf der zweiten Münze;

c) Erfahrung – zwei Schüsse auf ein Ziel; Ereignisse: C 0 – keine Treffer; C x – ein Treffer; C 2 – zwei Treffer;

d) Erfahrung – zwei Schüsse auf ein Ziel; Ereignisse: D x – mindestens ein Treffer; D 2 – mindestens ein Fehlschuss;

e) Erfahrung – Entfernen von zwei Karten aus dem Stapel; Ereignisse: E x – das Erscheinen zweier schwarzer Karten; E 2 – das Erscheinen eines Asses; E 3 – das Erscheinen einer Dame?

UM t v e t: a) ja; b) nein; c) ja; d) nein; d) nein.

1.3. Sind folgende Ereignisse gleichermaßen möglich:

a) Experiment – ​​Werfen einer symmetrischen Münze; Ereignisse: A x – Aussehen des Wappens; A 2 – Aussehen der Zahl;

b) Experiment – ​​Werfen einer falschen (verbogenen) Münze; Ereignisse: B x – Aussehen des Wappens; B 2 – Aussehen der Zahl;

c) Erfahrung – Schießen auf ein Ziel; Ereignisse: C x – Treffer; C 2 – Fehlschuss;

d) Experiment – ​​zwei Münzen werfen; Ereignisse: D x – Erscheinen zweier Wappen; D 2 – Erscheinen zweier Zahlen; D 3 – Erscheinen eines Wappens und einer Zahl;

e) Erfahrung – Herausnehmen einer Karte aus dem Stapel; Ereignisse: E x – Erscheinen einer Karte der roten Farbe; E 2 – Erscheinen einer Karte der Karo-Farbe; E 3 – Erscheinen einer Karte der Kreuz-Farbe;

f) Erfahrung – Würfeln; Ereignisse: F x - Auftreten von mindestens drei Punkten; F 2 - Auftreten von nicht mehr als vier Punkten?

ANTWORT: a) ja; b) nein; V) Allgemeiner Fall Nein; d) nein; d) ja; Essen.

1.4. Sind die folgenden Gruppen von Ereignissen Fälle:

a) Experiment – ​​Münzwurf; Ereignisse: A x – Aussehen des Wappens; A 2 – Aussehen der Zahl;

b) Experiment – ​​zwei Münzen werfen; Ereignisse: B x – das Erscheinen zweier Wappen; B 2 – das Erscheinen zweier Zahlen; B 3 – das Erscheinen eines Wappens und einer Zahl;

c) Erfahrung – Würfeln; Ereignisse: C x – das Erscheinen von nicht mehr als zwei Punkten; C 2 – das Erscheinen von drei oder vier Punkten; C ъ – das Erscheinen von mindestens fünf Punkten;

d) Erfahrung – Schießen auf ein Ziel; Ereignisse: D x – Treffer; D 2 – Fehlschuss;

e) Erfahrung – zwei Schüsse auf ein Ziel; Ereignisse: E 0 – keine Treffer; E x – ein Treffer; E 2 v – zwei Treffer;

f) Erfahrung – Entfernen von zwei Karten aus dem Stapel; Ereignisse: F x – Erscheinen von zwei roten Karten; F 2 – Erscheinen von zwei schwarzen Karten?

UM t v e t: a) ja; b) nein; c) ja; d) nein; d) nein; e) nein.

1.5. Nenne Beispiele:

a) drei Ereignisse, die eine Fallgruppe bilden; b) drei Ereignisse, die gleichermaßen möglich und unvereinbar sind, aber nicht

Vollständige Gruppenmitglieder; c) zwei Ereignisse, die inkompatibel sind und eine vollständige Gruppe bilden,

aber nicht gleichermaßen möglich; d) zwei Ereignisse, die gleichermaßen möglich sind und eine vollständige Gruppe bilden

pfui, aber Joint.

UM t v e t: a) siehe 1.4 c); b) siehe 1.3 d); c) siehe 1.3 c); d) siehe 1.3 f).

1.6. Die Urne enthält etwa weiße und schwarze Kugeln. Aus der Urne wird zufällig eine Kugel gezogen. Bestimmen Sie die Wahrscheinlichkeit, dass dieser Ball weiß ist.

a + b - 1

1.8. In der Urne befinden sich weiße und schwarze Kugeln. Eine Kugel wurde aus der Urne genommen und ohne hinzusehen beiseite gelegt. Danach wurde eine weitere Kugel aus der Urne genommen. Es stellte sich heraus, dass er weiß war. Bestimmen Sie die Wahrscheinlichkeit, dass der erste zur Seite gelegte Ball ebenfalls weiß ist.

a + b

1.11. In einer Urne befinden sich eine weiße und sechs schwarze Kugeln(a > 2). Zwei Kugeln werden gleichzeitig aus der Urne genommen. Bestimmen Sie die Wahrscheinlichkeit, dass beide Kugeln weiß sind.

R Lösung: Gesamtzahl der Fälle

n (a + b)(a + b - 1)

1.12. In der Urne befinden sich a weiße Kugeln und b schwarze Kugeln (a > 2, 6 > 3). Aus der Urne werden auf einmal fünf Kugeln entnommen. Bestimmen Sie die Wahrscheinlichkeit, dass zwei davon weiß und drei schwarz sind.

Lösung.

_ (a + b)(a + b - 1)(o + b -2)(o 4- b- 3)(o +

P " ° a+b

t = Sa b -

1 0 a (a - 1) 6 (6 - 1) (6 - 2)

(a + 6)(a + 6 - 1)(a + 6 -

2)(a + 6 - 3)(a + 6 -

1.13. In einer Charge bestehend aus k Produkten gibt es I fehlerhafte Produkte. Aus der Charge werden Produkte zur Inspektion ausgewählt. Es ist wahrscheinlich, dass einige der Produkte fehlerhaft sein werden.

R e p p =ctcizt

1.14. Der Würfel wird einmal gewürfelt. Ermitteln Sie die Wahrscheinlichkeit der folgenden Ereignisse: A – das Auftreten einer geraden Anzahl von Punkten; B – das Auftreten von mindestens 5 Punkten; C – das Auftreten von nicht mehr als 5 Punkten.

O t v e t. P(A) = \; P(5) = 1; R(S)=L.

1.15. Der Würfel wird zweimal geworfen. Bestimmen Sie die Wahrscheinlichkeit p, dass es beide Male auftritt selbe Nummer Punkte.

Lösung n = 6; m = 6; p = - = - .

S. 6 (Eine andere Lösung. Die erforderliche Wahrscheinlichkeit ist die Wahrscheinlichkeit

dass beim zweiten Wurf die gleiche Anzahl an Punkten erscheint, die

Schwarm wird beim ersten Wurf abgeworfen: n = 6, r = 1, p = -.) 6

1.16. Es werden zwei Würfel gleichzeitig geworfen. Finden Sie die Wahrscheinlichkeiten der folgenden Ereignisse:

A - die Summe der gezogenen Punkte beträgt 8;

IN - das Produkt der gewürfelten Punkte ist 8;

C – die Summe der gewürfelten Punkte ist größer als ihr Produkt.

O t e t. R(L) = -;

1.17. Es werden zwei Münzen geworfen. Welches der folgenden Ereignisse ist wahrscheinlicher:

A – die Münzen liegen auf den gleichen Seiten;

F: Werden die Münzen auf verschiedenen Seiten landen?

Antwort: P(L) = P(£).

1.18. Die Urne enthält a weiße und b schwarze Kugeln (a > 2; b > 2). Aus der Urne werden gleichzeitig zwei Kugeln gezogen. Welches Ereignis ist wahrscheinlicher:

A – gleichfarbige Kugeln;

B - Bälle verschiedene Farben?

°2 a+C ?

Lösung. R(L)=

a C 2 a+b

° - (fl + b)(a +

Cl+b

Wenn wir die Zähler dieser Brüche vergleichen, finden wir

P(A)< Р(В) при а (а -1) + 6(6 - 1) < 2аЬ.

diese. (a-b)2<а + 6; Р(Л) = Р(В) при (а - б)2 = а + 6;

P(A) > P(5) für (o - b)2 > a + b.

1.19. Drei Spieler spielen Karten. Jedem von ihnen wurden 10 Karten ausgeteilt und zwei Karten blieben in der Ziehung übrig. Einer der Spieler sieht, dass er 6 Karten mit Karo und 4 Karten ohne Karo auf der Hand hat. Er wirft zwei dieser vier Karten ab und zieht selbst. Bestimmen Sie die Wahrscheinlichkeit, dass er zwei Diamanten kauft.

R Lösung: Von 32 Karten kennt der Spieler 10, die restlichen 22 jedoch nicht. Das Nehmen von 2 Karten aus einer gezogenen Karte ist dasselbe wie das Nehmen von 22 Karten. Unter den 22 Karten sind zwei Karo. Die Wahrscheinlichkeit des Ereignisses ist

1 _ 1

S 2 2 2~23G

1.20. Aus einer Urne mit n nummerierte Kugeln, alle darin befindlichen Kugeln werden nach dem Zufallsprinzip herausgenommen, eine nach der anderen. Bestimmen Sie die Wahrscheinlichkeit, dass die Anzahl der gezogenen Kugeln in der folgenden Reihenfolge ist: 1, 2,...,p.

Antwort. -. P!

1.21. Dieselbe Urne wie in der vorherigen Aufgabe, aber nachdem jede Kugel herausgenommen wurde, wird sie wieder hineingelegt, mit anderen vermischt und ihre Nummer wird notiert. Bestimmen Sie die Wahrscheinlichkeit, dass eine natürliche Zahlenfolge geschrieben wird: 1, 2,..., p.

S

1.22. Ein komplettes Kartenspiel (52 Blatt) wird nach dem Zufallsprinzip in zwei gleiche Pakete zu je 26 Blatt aufgeteilt. Finden Sie die Wahrscheinlichkeiten der folgenden Ereignisse:

A – jede Packung enthält zwei Asse;

IN - Eines der Pakete enthält kein einziges Ass und das andere nicht alle vier.

S-eines der Pakete wird ein Ass haben und das andere wird drei haben.

Lösung: Gesamtzahl der Fälle n = SC. Die Anzahl der für das Ereignis günstigen Fälle A = C\C 2 ^.

Р(Л)=°4 °26 48

C b2

Ereignis B kann auf zwei Arten eintreten: Entweder sind im ersten Paket alle vier Asse und im zweiten keines, oder umgekehrt:

2CJC22 48

Ab 26

E.S. Ventzel LAOvcharov Wahrscheinlichkeitstheorie und ihre technischen Anwendungen ZWEITE AUFLAGE, STEREOTYPISCH Empfohlen vom Bildungsministerium der Russischen Föderation als Lehrbuch für Studenten höherer technischer Bildungseinrichtungen Moskauer „Higher School“ 2000 UDC 519.21 BBK 22.171 B 29 Rezensent, Direktor der Institut für Informationsübertragungsprobleme RAS-Akademiker NA. Kuznetsov Ventzel E.S., Ovcharov L.A. In 29 Wahrscheinlichkeitstheorie und ihre technischen Anwendungen. Lehrbuch Handbuch für Hochschulen. - 2. Aufl., Ster. - M.: Höher. Schule, 2000.-480 S.: Abb. ISBN 5-06-003830-0 Das Buch bietet eine systematische Darstellung der Grundlagen der Wahrscheinlichkeitstheorie unter dem Gesichtspunkt ihrer praktischen Anwendung in den Fachgebieten: Kybernetik, angewandte Mathematik, Computer, automatisierte Steuerungssysteme, Theorie der Mechanismen, Funktechnik , Zuverlässigkeitstheorie, Transport, Kommunikation usw. d. Trotz der Vielfalt der Anwendungsbereiche sind sie alle von einem einzigen durchdrungen methodische Grundlage. Die erste Auflage erschien 1988. Für Studierende höherer technischer Bildungseinrichtungen. Es kann für Lehrer, Ingenieure und Forscher unterschiedlicher Profile nützlich sein, die in ihrem praktische Tätigkeiten stehen vor der Aufgabe, Probleme im Zusammenhang mit der Analyse zufälliger Prozesse zu stellen und zu lösen. UDC 519,21 BBK 22,171 Bildungspublikation Ventzel Elena Sergeevna Ovcharov Lev Aleksandrovich Wahrscheinlichkeitstheorie und ihre technischen Anwendungen Herausgeber TA. Rykova Kunstredakteurin Yu.E. Ivanova LR Nr. 010146 vom 25.12.96. Ed. Nr. FM-204. Subp. zum Drucken 27 01.2000 Format 60x88 1/16 Papier. Zeitungen Schrift „Ordinary“ Offsetdruck Band 29,40 konventioneller Druck. l, 29,40 konventionell kr.-oiT., 25.21 akademische Ausgabe. l Auflage 10.000 Exemplare. Bestell-Nr. 461 Staatlicher Einheitsunternehmensverlag „Higher School“, 101430, Moskau, Neglinnaja Str., 29/14 Gedruckt im Staatlichen Einheitsunternehmen IPK „Druckerei Uljanowsk“, 432601, Uljanowsk, Str. Goncharova, 14 ISBN 5-06-003830-0 © State Unitary Enterprise Publishing House „Higher School“, 2000 Das Originallayout dieser Publikation ist Eigentum des Verlags „Higher School“ und ihre Reproduktion (Reproduktion) ist in keiner Weise gestattet die Zustimmung des Verlages ist untersagt. VORWORT Das Buch ist eine systematische Darstellung der Grundlagen der Wahrscheinlichkeitstheorie unter dem Gesichtspunkt ihrer praktischen ingenieurtechnischen Anwendung. Die Interessen dieser Anwendungen bestimmen die Auswahl des Materials, den Präsentationsstil und seine methodische Grundlage. Das Buch enthält zahlreiche Beispiele für die Lösung praktischer Probleme, die den Einsatz probabilistischer Methoden erfordern und sich auf eine Vielzahl von Fachgebieten beziehen: Kybernetik, angewandte Mathematik, Computer, automatisierte Steuerungssysteme, Theorie der Mechanismen, Funktechnik, Zuverlässigkeitstheorie, Transport, Kommunikation usw. Trotz der Vielfalt der Anwendungsgebiete sind sie alle von einer einzigen methodischen Grundlage, einem einzigen System von Ansätzen durchdrungen. Dieses relativ kleine Buch basiert auf Vorlesungen über Wahrscheinlichkeitstheorie, die die Autoren in den letzten Jahrzehnten an verschiedenen Hochschulen gehalten haben. Es richtet sich an Ingenieure und Wissenschaftler unterschiedlichen Profils, die in ihrer praktischen Tätigkeit mit der Notwendigkeit konfrontiert sind, Probleme im Zusammenhang mit Zufallsphänomenen zu stellen und zu lösen, die einen probabilistischen Ansatz erfordern. Das Buch richtet sich an einen breiten Leserkreis und kann auch in verwendet werden Bildungsprozess Studierende und Lehrende höherer Bildungseinrichtungen sowie als Leitfaden für die Selbstbildung. Die Präsentation wird auf einem Niveau präsentiert, das einem Leser zugänglich ist, der mit Mathematik im Rahmen eines regulären Hochschulkurses vertraut ist. Wo unterwegs auf komplexere Konzepte zurückgegriffen werden muss, werden diese erläutert. Der Schwerpunkt liegt nicht auf den Feinheiten des mathematischen Apparats, sondern auf der methodischen Seite der Fragestellung und auf direkten praktischen Anwendungen. Die langjährige Erfahrung der Autoren in der Lehre der Wahrscheinlichkeitstheorie und verwandter Disziplinen an Hochschulen sowie umfangreiche Erfahrung in der Anwendung probabilistischer Methoden in verschiedenen Bereichen der Ingenieurpraxis zeigen, dass es sich dabei genau um dies handelt und nicht um einen formalen Ansatz zur Darstellung der Theorie Wahrscheinlichkeitstheorie, die am besten für diejenigen geeignet ist, für die das Studium der Wahrscheinlichkeitstheorie kein Selbstzweck, sondern ein Mittel zur Lösung spezifischer technischer Probleme und Beispiele ist. Das Ende der Lösung eines Beispiels oder Problems ist mit dem Zeichen > gekennzeichnet. Dabei haben die Autoren keine Kompromisse bei der Präzision der Formulierungen und der gebotenen mathematischen Strenge eingegangen und das Material dem modernen Entwicklungsstand entsprechend dargestellt die Wissenschaft der Zufallsphänomene. Das Buch beinhaltet nicht die Theorie der Zufallsprozesse, die Theorie Schlange stehen, Sonderkapitel mathematische Statistik und ihre technischen Anwendungen. Die begrenzte Materialauswahl in diesem Buch ist darauf zurückzuführen, dass die Autoren beabsichtigen, für jeden der oben genannten Abschnitte ein eigenes Handbuch zu schreiben, wobei, wie hier, das Hauptaugenmerk auf technische Anwendungen gelegt wird. Die Autoren danken dem Akademiker der Akademie der Wissenschaften der UdSSR V. S. Pugachev und Professor V. N. Tutubalin zutiefst für die wertvollen Ratschläge und die Unterstützung, die sie bei der Ausarbeitung des Buches gegeben haben; Korrespondierendes Mitglied der Akademie der Wissenschaften der UdSSR N.A. Kuznetsov, der sich freundlicherweise bereit erklärte, das Manuskript zu überprüfen und eine Reihe nützlicher Kommentare abzugeben; Außerordentlicher Professor G. V. Danilov, der den Autoren bei der Vorbereitung des Buches und der Veröffentlichung große Hilfe geleistet hat, sowie Doktor der physikalischen und mathematischen Wissenschaften A. D. Ventsel für eine Reihe wertvoller Anregungen. E.S. Wentzel, LA. Ovcharov „Du kannst“, fuhr Germain fort, „das Glück meines Lebens machen, und es kostet dich nichts: Ich weiß, dass du drei Karten hintereinander erraten kannst … A. S. Puschkin „Die Pik-Dame“ EINLEITUNG Wahrscheinlichkeitstheorie heißt mathematische Wissenschaft, das Muster in Zufallsphänomenen untersucht.“ Lassen Sie uns uns darauf einigen, was wir unter „Zufallsphänomen“ verstehen. Wann wissenschaftliche Studie und die Welt um uns herum beschreibend, begegnen wir oft spezieller Typ Phänomene, die gemeinhin als Zufall bezeichnet werden. Sie zeichnen sich durch ein höheres Maß an Unsicherheit und Unvorhersehbarkeit aus als andere. Ein Zufallsphänomen ist ein Phänomen, das bei mehrmaliger Wiederholung derselben Erfahrung (Test, Experiment) jedes Mal etwas anders verläuft. Lassen Sie uns einige Beispiele für zufällige Phänomene geben. 1. Derselbe Körper wird mehrmals auf präzisen (analytischen) Waagen gewogen; Die Ergebnisse wiederholter Wägungen weichen etwas voneinander ab. Warum passiert das? Aufgrund des Einflusses vieler kleiner, unbedeutender Faktoren, die das Wiegen begleiten, wie z. B. Körperhaltung und Gewichte auf der Waage; Gerätevibrationen; Verschiebung des Kopfes und Auges des Beobachters usw. 2. An Fabrikprodukten werden eine Reihe von Tests durchgeführt bestimmter Typ B. ein Relais, für die Dauer des störungsfreien Betriebs. Das Testergebnis bleibt nicht von Zeit zu Zeit konstant, es ändert sich. Diese Veränderungen werden durch den Einfluss einer Reihe unbedeutender, subtiler Faktoren verursacht, wie zum Beispiel Mikrodefekte im Metall; unterschiedliche Temperaturbedingungen; unterschiedliche Bedingungen Lagerung und Transport des Produkts; Spannungsabweichungen vom Nennwert usw. 3. Eine Reihe von Schüssen wird mit derselben Waffe auf dasselbe Ziel abgefeuert. Die Schussbedingungen (Art des Projektils, Montagewinkel der Waffe) sind gleich. Allerdings zeigen B EINFÜHRUNGEN weniger als die Auftreffpunkte von Projektilen eine Streuung (sog. „Streuung“). Theoretisch fallen die Flugbahnen der Projektile zusammen; In der Praxis unterscheiden sie sich aufgrund so unbedeutender, schwer fassbarer Faktoren wie: Fehler bei der Herstellung von Granaten; Abweichung des Ladungsgewichts vom Nennwert; die Heterogenität seiner Struktur, ganz zu schweigen von den Wetterbedingungen, die von Aufnahme zu Aufnahme variieren können. 4. Ein Flugzeug eines bestimmten Typs fliegt in einer bestimmten Höhe; Theoretisch sollte es horizontal, gleichmäßig und gerade fliegen. Tatsächlich geht der Flug mit Abweichungen des Massenschwerpunkts des Flugzeugs von der Horizontalen und Schwingungen des Flugzeugs um den Massenschwerpunkt einher. Diese Abweichungen und Schwankungen sind zufällig und stehen im Zusammenhang mit atmosphärischen Turbulenzen und Pilotenfehlern. 5. Runde, richtige Form Die Münze wird mit einem Klick geworfen, dreht sich in der Luft und fällt auf den Tisch, wobei eine der Seiten zum Vorschein kommt: „Wappen“ oder „Zahl“. Der Versuch wird mehrmals wiederholt. Egal wie sehr man versucht, die Bedingungen gleich zu halten (Wurfhöhe, Anfangsgeschwindigkeit und Rotationsmoment), das Ergebnis variiert von Zeit zu Zeit: Manchmal fällt das „Wappen“ heraus, manchmal „Schwänze“. “. Das Ergebnis des Experiments – „Wappen“ oder „Schwänze“ – wird durch viele kleine, subtile Gründe bestimmt, darunter beispielsweise unebene Oberflächen des Tisches. 6. Betrachtet wird der kontinuierliche Betrieb eines Computers zwischen zwei aufeinanderfolgenden Fehlern bei der Lösung eines Problems. Alle kontrollierten Betriebsbedingungen des Computers: Temperatur, Luftfeuchtigkeit, Spannung, die Art des zu lösenden Problems bleiben unverändert. Indem wir dieses Experiment mehrmals wiederholen, sind wir überzeugt, dass die Betriebszeit des Computers zwischen zwei aufeinanderfolgenden Ausfällen unterschiedlich (zufällig) sein wird. Dies wird erklärt durch verschiedene Elemente Computer unterliegen geringfügigen, unkontrollierten Änderungen. Alle aufgeführten Beispiele werden hier aus dem gleichen Blickwinkel betrachtet: Zufällige Variationen werden hervorgehoben, ungleiche Ergebnisse einer Reihe von Experimenten, deren Grundbedingungen unverändert bleiben. Diese Schwankungen sind immer mit dem Vorhandensein einiger kleinerer Faktoren verbunden, die das Ergebnis des Experiments beeinflussen, aber nicht zu den Hauptbedingungen gehören. Die Grundbedingungen der Erfahrung, die ihren Verlauf im Großen und Ganzen bestimmen, bleiben unverändert; sekundäre - verändern-» EINFÜHRUNG 7 von Erfahrung zu Erfahrung und führen zufällige Unterschiede in ihren Ergebnissen ein. Es liegt auf der Hand, dass es in der Natur kein einziges Phänomen gibt, bei dem nicht in dem einen oder anderen Ausmaß Zufallselemente vorhanden wären. Unabhängig davon, wie genau und detailliert die Bedingungen des Experiments aufgezeichnet werden, kann nicht sichergestellt werden, dass die Ergebnisse bei einer Wiederholung vollständig und genau übereinstimmen. Zufällige Abweichungen begleiten zwangsläufig jedes Naturphänomen. Dennoch können diese Zufallselemente bei einer Reihe praktischer Probleme durch Berücksichtigung vernachlässigt werden echtes Phänomen sein vereinfachtes Schema, „Modell“, und unter der Annahme, dass das Phänomen unter gegebenen experimentellen Bedingungen auf ganz bestimmte Weise auftritt. Gleichzeitig werden aus den unzähligen Tatsachen, die das Phänomen beeinflussen, die wichtigsten, grundlegendsten und entscheidendsten herausgegriffen; Der Einfluss anderer, unbedeutender Faktoren wird einfach vernachlässigt. Dieses Schema zur Untersuchung von Phänomenen (das wir „deterministisch“ nennen werden) wird in der Physik, Mechanik und Technologie ständig verwendet. Nach diesem Schema wird bei der Lösung eines Problems zunächst der Hauptumfang der berücksichtigten Bedingungen identifiziert und ermittelt, welche Parameter des Problems davon betroffen sind; dann wird der eine oder andere mathematische Apparat angewendet (zum Beispiel werden Differentialgleichungen, die das Phänomen beschreiben, zusammengestellt und gelöst); Somit ist das Grundmuster inhärent dieses Phänomen und es ermöglicht, das Ergebnis eines Experiments entsprechend den gegebenen Bedingungen vorherzusagen. Mit der Weiterentwicklung der Wissenschaft wird die Zahl der berücksichtigten Faktoren immer größer wissenschaftliche Prognose- alles ist präziser. Dies ist das klassische Schema der sogenannten „exakten Wissenschaften“ – von den Bedingungen des Experiments bis zu seinem eindeutigen Ergebnis. Allerdings erweist sich ein solches Schema zur Lösung einer Reihe von Problemen als wenig geeignet. Dabei handelt es sich um Aufgaben, bei denen das Ergebnis des uns interessierenden Experiments maßgeblich von so vielen Faktoren abhängt, dass es praktisch unmöglich ist, sie alle zu erfassen und zu berücksichtigen. Bei diesen Problemen hängen zahlreiche eng miteinander verflochtene Sekundärfaktoren so eng mit dem Ergebnis des Experiments zusammen, dass eine scheinbar unbedeutende Änderung an ihnen einen Unterschied machen kann. entscheidende Rolle, bestimmen Sie den „Erfolg“ oder „Misserfolg“ des Experiments. In solchen Fällen erweist sich das klassische Schema der exakten Wissenschaften – deterministisch – als ungeeignet. 8 EINLEITUNG Kehren wir zu den obigen Beispielen zufälliger Phänomene zurück, insbesondere zu Beispiel 3 (Schuss aus einer Waffe). Wenn wir ein Zielgerät entwerfen, ist das klassische, „deterministische“ Schema völlig ausreichend. Durch die Integration der Bewegungsgleichungen des Projektils können wir dessen Flugbahn, den Auftreffpunkt, bestimmen. Nehmen wir aber an, dass ein Ziel beschossen wird, dessen Größe kleiner ist als die Ausbreitungszone der Projektile, und uns interessieren die Fragen: Wie viel Prozent der abgefeuerten Projektile werden das Ziel im Durchschnitt treffen? Wie viele Granaten müssen abgefeuert werden, um das Ziel mit ausreichender Zuverlässigkeit zu treffen? Welche Maßnahmen sollten ergriffen werden, um den Muschelverbrauch zu reduzieren? Usw. Um solche (und ähnliche) Fragen zu beantworten, erweist sich das übliche Schema der exakten Wissenschaften als unzureichend. Diese Fragen hängen organisch mit der Zufälligkeit des Phänomens zusammen; Um sie zu beantworten, kann man die Zufälligkeit natürlich nicht einfach ignorieren, es ist notwendig, das Phänomen der Projektilstreuung von der Seite der ihr inhärenten Muster genau als Zufallsphänomen zu untersuchen. Es ist notwendig, das Gesetz zu studieren, nach dem die Auftreffpunkte von Projektilen verteilt sind; Identifizieren Sie zufällige Ursachen, die eine Streuung verursachen, vergleichen Sie sie hinsichtlich ihrer Wichtigkeit usw. Betrachten wir ein anderes Beispiel. Ein technisches Gerät (z. B. ein automatisches Steuerungssystem) löst ein bestimmtes Problem unter Bedingungen, in denen es ständig durch zufälliges Rauschen beeinträchtigt wird. Infolgedessen löst das System das Problem mit einigen Fehlern, die manchmal über der akzeptablen Grenze liegen. Es stellt sich die Frage: Wie oft treten solche Fehler auf? Welche Maßnahmen sollten ergriffen werden, um ihre Möglichkeit praktisch auszuschließen? Usw. Um solche Fragen zu beantworten, ist es notwendig, die Art und Struktur zufälliger Störungen, die das System beeinflussen, zu untersuchen, die Reaktion des Systems auf diese Störungen zu untersuchen und den Einfluss der Entwurfsparameter des Systems auf die Art der Reaktion herauszufinden. Ähnliche Aufgaben , deren Zahl in Physik, Technik und Ingenieurwesen extrem groß ist, erfordern das Studium nicht nur der grundlegenden Hauptgesetze, die das Phänomen allgemein definieren, sondern auch die Analyse zufälliger Störungen und Verzerrungen, die mit dem Vorhandensein sekundärer Faktoren verbunden sind und dem Ergebnis des Experiments unter gegebenen Bedingungen ein gewisses Maß an Unsicherheit zu verleihen. Welche Möglichkeiten und Methoden gibt es, Zufallsphänomene zu untersuchen? Aus rein theoretischer Sicht unterscheiden sich die Faktoren, die wir herkömmlicherweise „zufällig“ nennen, im Prinzip nicht von denen, die wir als „grundlegend“ identifiziert haben. Theoretisch ist es möglich, die Genauigkeit der Problemlösung unter Berücksichtigung immer neuer Faktoren unbegrenzt zu steigern. In der Praxis würde der Versuch, den Einfluss aller Faktoren, von denen das Phänomen abhängt, gleichermaßen detailliert und sorgfältig zu analysieren, jedoch nur dazu führen, dass sich die Lösung aufgrund ihrer übermäßigen Sperrigkeit und Komplexität als praktisch unmöglich erweisen würde Darüber hinaus hätte sie keinen kognitiven Wert und beziehe sich nur auf einen engen Bereich schlecht kontrollierter Zustände. Es muss einen grundsätzlichen Unterschied in den Methoden zur Berücksichtigung der Hauptfaktoren geben, die im Allgemeinen den Verlauf und das Ergebnis eines Phänomens bestimmen, und sekundärer, untergeordneter Faktoren, die es als „Fehler“ oder „Störungen“ beeinflussen. Das den Zufallsphänomenen innewohnende Element der Unsicherheit, Komplexität und Multikausalität erfordert spezielle? Methoden, um sie zu studieren. Solche Methoden werden in der Wahrscheinlichkeitstheorie entwickelt. Sein Thema sind spezifische Muster, die in zufälligen Phänomenen beobachtet werden. Die Praxis zeigt, dass wir, wenn wir Massen homogener Zufallsphänomene in ihrer Gesamtheit beobachten, oft eine Art Stabilität in ihnen entdecken. Wenn Sie beispielsweise eine Münze viele Male hintereinander werfen, gleicht sich die Häufigkeit des Erscheinens eines Wappens (das Verhältnis der Anzahl der fallengelassenen Wappen zur Gesamtzahl der Würfe) allmählich aus, stabilisiert sich und nähert sich a ganz bestimmte Zahl, nämlich 1/2. Die gleiche Eigenschaft der Frequenzstabilität wird bei wiederholter Wiederholung einer Reihe anderer Experimente mit bisher unbekanntem, ungewissem Ausgang beobachtet. Beispielsweise erweist sich in einer etablierten Produktion der Anteil qualitativ hochwertiger Produkte als stabil. Langzeitbeobachtungen zeigen, dass die Geburtenhäufigkeit von Jungen für eine Vielzahl geografischer und klimatischer Bedingungen sehr stabil ist (ungefähr 0,51). Frequenzstabilität wird auch bei so unvorhersehbaren Phänomenen wie Straßenunfällen beobachtet (diese Stabilität ermöglicht die Planung der Arbeit medizinischer Einrichtungen und Rettungsdienste). Frequenzstabilität wird in Fällen beobachtet, in denen es sich um eine Masse homogener Experimente handelt, bei denen der Einflussmechanismus zufälliger Faktoren ähnlich ist. Phänomene mit ungewissem Ausgang, bei denen die Bedingungen eindeutig heterogen und sogar unvergleichbar sind, verfügen nicht über die Eigenschaft der Frequenzstabilität. Es macht beispielsweise keinen Sinn, von einer stabilen „Häufigkeit von Kriegen“ zu sprechen ( historischer Prozess charakteristische Merkmale der Einzigartigkeit, Entwicklungsrichtung). Es macht auch keinen Sinn, über die stabile Frequenz zu sprechen, sagen wir, richtig gelöst Wissenschaftliche Probleme oder das Erscheinen brillanter Kunstwerke. Die Wahrscheinlichkeitstheorie befasst sich nur mit Phänomenen mit ungewissem Ausgang, für die das Vorhandensein einer Frequenzstabilität angenommen wird. Für solche Phänomene werden bestimmte Muster etabliert, die für die Masse der Zufallsphänomene charakteristisch sind. Ein einzelnes Zufallsphänomen bleibt in seinem Ergebnis ungewiss, unvorhersehbar; Nur in der Masse der Zufallsphänomene treten spezifische Muster auf, die umso genauer und strenger erfüllt werden, je umfangreicher das Spektrum der untersuchten Phänomene ist. Bei einer sehr großen Anzahl solcher Phänomene verschwinden Zufälligkeit und Unvorhersehbarkeit praktisch. Lassen Sie uns dies anhand eines Beispiels veranschaulichen. Das Gefäß enthält ein bestimmtes Gasvolumen, das aus einer großen Anzahl von Molekülen besteht. Jedes von ihnen erfährt pro Sekunde viele Kollisionen mit anderen Molekülen, wobei sich Geschwindigkeit und Bewegungsrichtung immer wieder ändern; Die Flugbahn jedes einzelnen Moleküls ist zufällig. Es ist bekannt, dass der Druck eines Gases auf die Wand eines Gefäßes auf die Kombination von Stößen von Molekülen auf diese Wand zurückzuführen ist. Es scheint, dass sich der Druck auf die Wand auf zufällige und unvorhersehbare Weise ändern sollte, wenn die Flugbahn jedes einzelnen Moleküls zufällig ist und nicht bekannt ist, an welchem ​​Punkt und mit welcher Geschwindigkeit es auf die Wand trifft. Dies ist jedoch nicht der Fall. Wenn die Anzahl der Moleküle groß genug ist, hängt der Gasdruck praktisch nicht von den Flugbahnen einzelner Moleküle ab und gehorcht ganz eindeutig]! und ein sehr einfaches physikalisches Muster. Die der Bewegung jedes einzelnen Moleküls innewohnenden Zufallsmerkmale heben sich gegenseitig auf und kompensieren sich in der Masse. Dadurch entsteht trotz der Komplexität und Komplexität eines einzelnen Zufallsphänomens ein einfaches Muster, das für die Masse der Zufallsphänomene gültig ist. Beachten wir, dass es der Massencharakter zufälliger Phänomene ist, der die Erfüllung dieses Musters gewährleistet (bei einer begrenzten Anzahl von Molekülen im Volumen beginnen zufällige Abweichungen vom Muster, sogenannte Fluktuationen, Wirkung zu zeigen). Betrachten wir ein anderes Beispiel: Auf Analysenwaagen wird eine Reihe von Wägungen desselben Körpers durchgeführt. Jedes Mal wird das Wiegeergebnis aufgezeichnet. Obwohl die Anzahl der Wägungen gering ist, erscheinen die Ergebnisse zunächst chaotisch und ungeordnet. Mit zunehmender Anzahl der Wägungen zeichnet sich jedoch in der Gesamtheit der Ergebnisse ein ganz bestimmtes Muster ab; es macht sich umso deutlicher bemerkbar, je mehr Wägungen durchgeführt werden. Es wird deutlich, dass sich die Ergebnisse nahezu symmetrisch um einen Mittelwert gruppieren; V Zentralregion Sie liegen dichter als an den Rändern und ihre Dichte nimmt nach einem ganz bestimmten Gesetz (dem sogenannten „normalen“ Gesetz) mit der Entfernung vom Zentrum ab großartige Aufmerksamkeit wird später besprochen). Regelmäßigkeiten dieser Art (man nennt sie „statistisch“) entstehen, wenn wir Anordnungen homogener Zufallsphänomene im Aggregat beobachten. Sie erweisen sich als praktisch unabhängig von den individuellen Eigenschaften einzelner im Array enthaltener Zufallsphänomene; diese Merkmale scheinen sich gegenseitig aufzuheben, auszugleichen; Um es im übertragenen Sinne auszudrücken: „Aus einer Vielzahl von Unordnungen entsteht Ordnung.“ Das durchschnittliche Massenergebnis vieler Zufallsphänomene erweist sich als praktisch nicht mehr zufällig und vorhersehbar. Dies ist nicht die Grundlage dafür praktische Anwendung probabilistische (statistische) Forschungsmethoden. Die Methoden der Wahrscheinlichkeitstheorie heben die Zufälligkeit, die Unvorhersehbarkeit des Ergebnisses eines einzelnen Experiments, nicht auf oder beseitigen sie nicht, sondern ermöglichen es, mit einer gewissen Näherung den Durchschnitt vorherzusagen Gesamtergebnis Massen homogener Zufallsphänomene. Je mehr homogene Zufallsphänomene in einem Problem auftreten, desto klarer werden ihre spezifischen Gesetze offenbart, desto mehr mehr Vertrauen und genau! Es ist möglich, eine wissenschaftliche Prognose durchzuführen. Der Zweck probabilistischer (statistischer) Methoden besteht darin, sich unter Umgehung der zu komplexen (und oft praktisch unmöglichen) Untersuchung eines einzelnen Zufallsphänomens direkt den Gesetzen zuzuwenden, die die Massen solcher Phänomene regeln. Das Studium dieser Gesetze ermöglicht nicht nur eine Prognose im Bereich der Zufallsphänomene, sondern auch eine gezielte Beeinflussung des Verlaufs dieser Phänomene, deren Kontrolle, die Begrenzung des Wirkungsspielraums des Zufalls und die Einschränkung seines Einflusses auf die Praxis. Wenn wir beginnen, die Wahrscheinlichkeitstheorie mit ihrem spezifischen Untersuchungsgegenstand (zufällige, d. h. unvorhersehbare Phänomene) zu studieren, müssen wir uns darüber im Klaren sein, dass die Vorhersagen, die mit den Methoden dieser Wissenschaft gegeben werden, ihrer Natur nach etwas anders sind als die Vorhersagen der „exakten Wissenschaften“. “, die uns bekannt sind. Ohne einen genauen Hinweis darauf zu geben, was genau unter diesen oder jenen Bedingungen passieren wird, ist eine probabilistische Prognose nur annähernd; es gibt nur die Grenzen an, innerhalb derer, mit ausreichend hochgradig Zuverlässigkeit, die Parameter, die uns interessieren, werden einbezogen. Je größer das Spektrum der untersuchten Zufallsphänomene ist, je enger diese Grenzen sind, desto genauer und eindeutiger wird die probabilistische Vorhersage. Charakteristisch für den gegenwärtigen Entwicklungsstand der Wissenschaft ist die zunehmende Verbreitung probabilistischer Methoden in allen ihren Bereichen. Dies hat zwei Gründe. Erstens erfordert das tiefergehende Studium der Phänomene der umgebenden Welt nicht nur die Identifizierung grundlegender Muster, sondern auch möglicher zufälliger Abweichungen davon. Zweitens wird die Wissenschaft zunehmend in Bereiche der Praxis eingeführt, in denen die Präsenz und großer Einfluss Gerade die Zufälligkeit ist nicht zu bezweifeln, manchmal sogar entscheidend. Derzeit gibt es praktisch keinen Wissenschaftsbereich, in dem probabilistische Methoden nicht in dem einen oder anderen Ausmaß eingesetzt werden. In einigen Wissenschaften aufgrund der Besonderheiten des Fachs und historische Bedingungen, diese Methoden finden früher Anwendung, in anderen - später. Historisch gesehen entstanden die ersten Beispiele probabilistischer Methoden mit dem entsprechenden, noch recht primitiven mathematischen Apparat im 17. Jahrhundert, während der Entwicklung der Theorie Glücksspiel zum Zweck der Anleitung EINFÜHRUNG für 13 Spieler. Dann wurden diese Methoden in der Praxis von Versicherungsunternehmen eingesetzt, um angemessene Versicherungsprämien festzulegen. Nach und nach erweiterte sich der Anwendungsbereich probabilistischer Methoden. Heutzutage werden diese Methoden immer weiter verbreitet. Ganze Teile der modernen Physik (insbesondere die Kernphysik) basieren auf dem mathematischen Apparat der Wahrscheinlichkeitstheorie. Wahrscheinlichkeitsmethoden werden häufig in der modernen Elektrotechnik, Funktechnik, Kommunikationstheorie, Theorie der automatischen Steuerung, Kybernetik, Computertechnik und der Theorie automatisierter Steuerungssysteme (automatisierte Steuerungssysteme) verwendet. Dies ist selbstverständlich, da der Betrieb moderner automatisierter Systeme unter Bedingungen zufälliger Einflüsse erfolgt, ohne deren Berücksichtigung es unmöglich ist, solche Systeme rational zu entwerfen und ihre Entwurfsparameter auszuwählen. Jeder Vorgang zur Steuerung von irgendetwas (einem technischen Gerät, einer Gruppe von Geräten, einem Mensch-Maschine-Komplex) findet unter bisher unbekannten, zufälligen Bedingungen statt und wird zwangsläufig begleitet von zufällige Fehler Messungen bestimmter Parameter, Befehlsausführungsfehler usw.; Eine Analyse des Betriebs eines solchen Systems ist ohne Berücksichtigung zufälliger Faktoren praktisch unmöglich. Meteorologische Vorhersagen, die für die Volkswirtschaft so wichtig sind, können nicht ohne Berücksichtigung der Zufälligkeit der in der Atmosphäre ablaufenden Prozesse erstellt werden. Die Vertrautheit mit den Methoden der Wahrscheinlichkeitstheorie ist heute für jeden kompetenten Ingenieur notwendig. Und nicht nur der Ingenieur. Biologie, Physiologie, Medizin und Soziologie nutzen zunehmend probabilistische Methoden. Auch solche „ursprünglichen Geisteswissenschaften“ wie Psychologie, Linguistik, Literaturkritik und sogar Ästhetik schrecken nicht davor zurück. Egal wie umfangreich die Liste ist wissenschaftliche Disziplinen, wo heute probabilistische Methoden verwendet werden, leidet sie immer noch zwangsläufig an Unvollständigkeit. Zusammenfassend lässt sich sagen, dass es keinen Wissensbereich gibt, in dem diese Forschungsmethoden nicht zum Tragen kommen könnten. Sollte die Wahrscheinlichkeitstheorie als ein Spezialzweig der Mathematik oder als eine der Naturwissenschaften betrachtet werden? Beide. Die mathematischen Gesetze der Wahrscheinlichkeitstheorie spiegeln objektiv reale statistische Gesetze wider bestehende Muster in der Masse zufällige 14 EINLEITUNG Naturphänomene. Zur Untersuchung dieser Phänomene wird die Wahrscheinlichkeitstheorie herangezogen mathematische Methode und in ihrer Methode ist sie einer der Zweige der Mathematik, ebenso präzise und streng wie andere mathematische Wissenschaften. Für einen Ingenieur, der die Wahrscheinlichkeitstheorie in seiner praktischen Arbeit anwendet, sind nicht die mathematischen Feinheiten dieser Theorie das Wichtigste, sondern die Fähigkeit, ihre probabilistischen Merkmale in einem realen Problem zu erkennen, ein Experiment aufzubauen und gegebenenfalls intelligent zu verarbeiten Ermitteln Sie die Ergebnisse und erarbeiten Sie Empfehlungen, was zu tun ist, um dies zu erreichen erwünschtes Ergebnis mit minimalem Aufwand an Aufwand und Geld. Diese Fähigkeit lässt sich am besten durch die Betrachtung konkreter Beispiele aus der Ingenieurpraxis erwerben. In unserem Buch wird es viele solcher Beispiele geben. KAPITEL 1 GRUNDKONZEPTE DER WAHRSCHEINLICHKEITSTHEORIE 1.1. Zufälliges Ereignis. Seine Wahrscheinlichkeit Jede Wissenschaft, die eine allgemeine Theorie einer beliebigen Reihe von Phänomenen entwickelt, enthält eine Reihe grundlegender Konzepte, auf denen sie basiert. Dies sind beispielsweise in der Geometrie die Konzepte eines Punktes, einer Geraden, einer Linie; in der Mechanik - die Konzepte von Kraft, Masse, Geschwindigkeit, Beschleunigung. Natürlich lassen sich nicht alle Grundbegriffe streng definieren, denn einen Begriff zu „definieren“ bedeutet, ihn auf andere, bekanntere zu reduzieren. Offensichtlich muss der Prozess der Definition einiger Konzepte durch andere irgendwo enden und die grundlegendsten Konzepte erreichen, auf die alle anderen reduziert werden und die selbst nicht definiert, sondern nur erklärt werden. Solche Konzepte gibt es auch in der Wahrscheinlichkeitstheorie. Hier werden wir uns einige davon ansehen. Unter Erfahrung (Experiment, Test) verstehen wir einen bestimmten reproduzierbaren Satz von Bedingungen, unter denen dieses oder jenes Phänomen beobachtet und dieses oder jenes Ergebnis aufgezeichnet wird. Beachten Sie, dass die „Erfahrung“ nicht von einer Person vermittelt werden muss; es kann unabhängig davon ablaufen; In diesem Fall fungiert die Person als Beobachter oder Aufzeichner des Geschehens. Von ihm hängt nur die Entscheidung ab: Was genau zu beobachten und welche Parameter aufzuzeichnen sind. Wenn das Ergebnis eines Experiments bei der Wiederholung variiert, spricht man von einem Experiment mit zufälligem Ausgang. Genau solche Experimente werden wir hier betrachten und den Zusatz „mit zufälligem Ausgang“ der Kürze halber weglassen. Die Tatsache, dass bei der Wiederholung des Experiments seine Grundbedingungen erhalten bleiben und wir daher das Recht haben, Stabilität der Frequenzen zu erwarten, werden wir auch nicht jedes Mal festlegen. Ein zufälliges Ereignis (oder, kurz gesagt, nur ein Ereignis) ist jede Tatsache, die in einem Experiment mit einem zufälligen Ergebnis eintreten kann oder nicht. Wir werden Veranstaltungen benennen in Großbuchstaben Lateinisches Alphabet. 16 GL. 1, GRUNDKONZEPTE DER WAHRSCHEINLICHKEITSTHEORIE Betrachten wir einige Beispiele für Ereignisse. 1. Erfahrung – Münzwurf; Ereignis A – das Erscheinen des Wappens. 2. Erfahrung – Drei Münzen werfen; Ereignis B – das Erscheinen von drei Wappen. 3. Erfahrung – Übertragung einer Gruppe von n Signalen über einen Kommunikationskanal; Ereignis C-Verzerrung von mindestens einem von ihnen. 4. Erfahrung – Schießen auf ein Ziel; Ereignis Z) - Treffer. 5. Erfahrung – zufällig eine Karte aus dem Stapel nehmen; Ereignis E – das Erscheinen eines Asses. 6. Das gleiche Erlebnis wie in Beispiel 5; Ereignis F – das Erscheinen einer Karte der roten Farbe. 7. Erfahrung (Beobachtung) – Messung der Niederschlagsmenge, die an einem bestimmten geografischen Ort für einen bestimmten Monat fällt; Ereignis G – mehr als N Millimeter Niederschlag. 8. Erfahrung – Behandlung einer Gruppe von Patienten mit einem bestimmten Medikament; Ereignis I – deutliche Verbesserung bei mehr als der Hälfte davon. Alle genannten Beispiele begannen mit der Beschreibung einer Erfahrung, bei der ein Ereignis auftritt oder nicht. Im Allgemeinen ist dies nicht notwendig; Erfahrungen können nach Angabe des Ereignisses erwähnt werden; zum Beispiel: A – das Aussehen des Wappens beim Werfen einer Münze; B – das Erscheinen von drei Wappen beim Werfen von drei Münzen usw. Betrachtet man die in unseren Beispielen aufgeführten Ereignisse A, B, ..., Z, sehen wir, dass jedes von ihnen einen gewissen Grad an Möglichkeit hat – einige größer, andere weniger , und für einige von ihnen können wir sofort entscheiden, welche davon mehr und welche weniger möglich sind. Es ist beispielsweise sofort klar, dass Ereignis A möglicher (wahrscheinlicher) ist als B1 und Ereignis F möglicher als E. Solche Schlussfolgerungen können nicht sofort für andere Ereignisse auf unserer Liste gezogen werden; Hierzu werden die Versuchsbedingungen nicht ausreichend detailliert beschrieben. Auf die eine oder andere Weise hat jedes zufällige Ereignis eine gewisse Wahrscheinlichkeit, die im Prinzip numerisch gemessen werden kann. Um Ereignisse entsprechend dem Grad ihrer Möglichkeit miteinander zu vergleichen, muss man jedem von ihnen eine bestimmte Zahl zuordnen, die umso größer ist, je wahrscheinlicher das Ereignis ist. Wir nennen diese Zahl die Wahrscheinlichkeit des Ereignisses. 1.1. ZUFÄLLIGES EREIGNIS. SEINE WAHRSCHEINLICHKEIT 17 Beachten wir, dass wir beim Vergleich verschiedener Ereignisse nach dem Grad der Möglichkeit dazu neigen, diejenigen Ereignisse als wahrscheinlicher zu betrachten, die häufiger auftreten, und weniger wahrscheinlich – diejenigen, die weniger häufig auftreten; unwahrscheinlich – solche, die fast nie passieren. Beispielsweise ist das Ereignis „Regen in Moskau am 1. Juni des kommenden Jahres“ wahrscheinlicher als „Schnee in Moskau am selben Tag“ und das Ereignis „ein Erdbeben in Moskau mit einer Stärke von mehr als 3 im kommenden Jahr“. äußerst unwahrscheinlich (obwohl ein solches Erdbeben bereits 1977 beobachtet wurde). , und Statistiken besagen, dass solche Ereignisse etwa alle 100 Jahre auftreten. Somit ist der Begriff der Wahrscheinlichkeit eines Ereignisses von Anfang an eng mit dem Begriff seiner Häufigkeit verknüpft (auf diesen Grundbegriff wird weiter unten näher eingegangen, siehe Abschnitt 1.3). Bei der Charakterisierung der Wahrscheinlichkeiten von Ereignissen mit Zahlen ist es notwendig, eine Art Maßeinheit festzulegen. Als solche Einheit nimmt man natürlich die Wahrscheinlichkeit eines zuverlässigen Ereignisses, also eines Ereignisses, das aufgrund der Erfahrung zwangsläufig eintreten muss. Ein Beispiel für ein zuverlässiges Ereignis ist ein Wurf von nicht mehr als sechs Punkten beim Würfeln*). Ein weiteres Beispiel für ein zuverlässiges Ereignis: „Ein von Hand nach oben geworfener Stein kehrt zur Erde zurück und wird nicht zu ihrem künstlichen Satelliten.“ Das Gegenteil eines bestimmten Ereignisses ist ein unmögliches Ereignis – eines, das in einer bestimmten Erfahrung überhaupt nicht passieren kann. Beispiel: „12 Punkte würfeln, wenn man einen Würfel wirft.“ Es ist natürlich, einem unmöglichen Ereignis Wahrscheinlichkeit zuzuschreiben, gleich Null. Wenn wir einem zuverlässigen Ereignis eine Wahrscheinlichkeit gleich Eins und einem unmöglichen Ereignis eine Wahrscheinlichkeit gleich Null zuweisen, werden alle anderen Ereignisse – mögliche, aber nicht zuverlässige – durch Wahrscheinlichkeiten gekennzeichnet, die zwischen Null und Eins liegen und einen Bruchteil davon ausmachen eins. Damit wurde die Maßeinheit der Wahrscheinlichkeit festgelegt – die Wahrscheinlichkeit eines zuverlässigen Ereignisses und der Bereich der Wahrscheinlichkeitsänderungen – Zahlen von Null bis Eins. Welches Ereignis A wir auch nehmen, seine Wahrscheinlichkeit P(A) *) Der „Würfel“ heißt kubpk, auf dessen sechs Seiten 1, 2, 3, 4, 5, 6 Punkte (Punkte) markiert sind, 18 g i. Grundkonzepte der Theorie von perogtnogltp erfüllt die Bedingung: 0<Р(Л)<1. A.1.1) Очень большую роль в применении вероятностных методов играют практически достоверные и практически невозможные события. Событие А называется практически невозможным, если его вероятность не в точности равна нулю, но очень близка к нулю: Р {А)« 0. Пример. Опыт: 32 буквы разрезной азбуки смешаны между собой; наугад вынимается одна карточка, стоящая на ней буква записывается, карточка возвращается обратно и смешивается с другими. Такой опыт производится 25 раз. Событие А состоит в том, что после 25 выниманий мы запишем первую строчку «Евгения Онегина»: «Мой дядя самых честных правил». Событие А не является физически невозможным; в дальнейшем (см. п. 2.3) мы даже подсчитаем его вероятность, которая равна (&) ". Она настолько мала, что событие с такой вероятностью смело можно считать практически невозможным. >Ebenso wird ein Ereignis, dessen Wahrscheinlichkeit nicht genau gleich eins, aber sehr nahe bei eins ist, als praktisch sicher bezeichnet: Lassen Sie uns ein neues wichtiges Konzept einführen: das entgegengesetzte Ereignis. Das Gegenteil von Ereignis A heißt Ereignis JJ und besteht im Nichteintreten von Ereignis A. Beispiel. Erfahrung: ein Schuss auf ein Ziel. Event A – Erreichen der Top Ten. Das entgegengesetzte Ereignis A ist das Scheitern unter den Top Ten. > Kehren wir zu praktisch unmöglichen und praktisch sicheren Ereignissen zurück. Wenn ein Ereignis A praktisch unmöglich ist, dann ist sein Gegenteil A praktisch sicher und umgekehrt. Praktisch unmögliche (und praktisch sichere) damit einhergehende Ereignisse spielen in der Wahrscheinlichkeitstheorie eine große Rolle: Ihr gesamter kognitiver Wert basiert auf ihnen. Keine einzige Prognose im Bereich der Zufallsphänomene ist und kann vollständig 1.1 sein. ZUFÄLLIGES EREIGNIS SEINE WAHRSCHEINLICHKEIT 19 zuverlässig; es kann nur praktisch und zuverlässig sein, das heißt, mit sehr viel Aufwand durchgeführt werden hohe Wahrscheinlichkeit . Die Anwendung aller mit der Wahrscheinlichkeitstheorie gewonnenen Schlussfolgerungen und Empfehlungen basiert auf dem Prinzip der praktischen Gewissheit, das wie folgt formuliert werden kann: Wenn die Wahrscheinlichkeit des Ereignisses A in einem bestimmten Experiment sehr gering ist, dann (wenn das Experiment einmal durchgeführt wird) man kann sich so verhalten, als sei Ereignis A grundsätzlich unmöglich, man könne also nicht mit seinem Eintreten rechnen. Im Alltag greifen wir ständig (wenn auch unbewusst) auf dieses Prinzip zurück. Wenn wir beispielsweise mit dem Taxi irgendwohin fahren, rechnen wir nicht mit der Möglichkeit, bei einem Verkehrsunfall ums Leben zu kommen, obwohl die Wahrscheinlichkeit eines solchen Ereignisses immer noch (sehr gering) ist. Wenn wir im Sommer in den Kaukasus oder auf die Krim reisen, nehmen wir keine Winteroberbekleidung mit, obwohl die (sehr geringe) Wahrscheinlichkeit, dass uns Frost überkommt, immer noch nicht Null ist. Achten wir bei der Formulierung des Prinzips der praktischen Gewissheit auf die Worte „bei einmaliger Durchführung des Experiments“. Tatsache ist, dass wir durch die Durchführung vieler Experimente, bei denen die Wahrscheinlichkeit des Ereignisses A jeweils vernachlässigbar ist, die Wahrscheinlichkeit erhöhen, dass Ereignis A in der Masse der Experimente mindestens einmal auftritt. Stellen Sie sich tatsächlich eine Lotterie vor, bei der es nur einen Gewinn pro Million Tickets gibt. Jemand kauft ein Einzelticket. Die Gewinnwahrscheinlichkeit beträgt für ihn 0,000001, also vernachlässigbar, und ein Gewinn kann als nahezu unmöglich angesehen werden. Stellen Sie sich nun vor, dass alle 1.000.000 Tickets ausverkauft sind. Einer derjenigen, die gekauft haben, erhält einen Gewinn, d. h. für ihn wird ein fast unmögliches Ereignis eintreten. Wegen was? Aufgrund der Tatsache, dass das Erlebnis (Kauf eines Tickets) schon oft gemacht wurde. Ähnlich verhält es sich mit der Zuverlässigkeit komplexer Einheiten. Das Aggregat bestehe aus einer großen Anzahl N von Elementen. Jeder von ihnen scheitert (fehlschlägt) mit einer vernachlässigbaren Wahrscheinlichkeit. Aufgrund der Vielzahl der Elemente liegt die Wahrscheinlichkeit, dass mindestens eines davon ausfällt, jedoch nicht mehr nahe bei Null (siehe Beispiel 16, Abschnitt 2.4). Kommen wir zur subtilsten und schwierigsten Frage: Wie gering sollte die Wahrscheinlichkeit von 20 Kapiteln sein? ich. Grundkonzepte der Wahrscheinlichkeitstheorie eines Ereignisses, so dass es als praktisch unmöglich angesehen werden kann? Die Antwort auf diese Frage geht über den Rahmen der mathematischen Theorie hinaus und wird im Einzelfall aus praktischen Erwägungen entschieden, entsprechend der Bedeutung, die das gewünschte Ergebnis des Experiments für uns hat. Je gefährlicher der mögliche Vorhersagefehler ist, desto näher muss die Wahrscheinlichkeit eines Ereignisses bei Null liegen, damit es als praktisch unmöglich gilt. Wenn wir beispielsweise auf der Grundlage probabilistischer Berechnungen vorhersagen, dass das durchschnittliche Ergebnis von N Wägungen nicht um mehr als einen bestimmten Wert e vom tatsächlichen Körpergewicht abweichen wird, ist die Wahrscheinlichkeit, dass die Abweichung größer als e ist, gleich bis 0,01 können wir immer noch in Einklang bringen. Vor diesem Hintergrund ist es praktisch unmöglich, Ereignis A – „der Fehler ist größer als e“ – zu berücksichtigen. Was riskieren wir in diesem Fall? Etwas falsche Vorhersage. Ganz anders verhält es sich mit der Wahrscheinlichkeit einer Explosion Weltraumrakete Wenn es beginnt, ist es gleich 0,01. Das Risiko ist groß, die Verantwortung ist groß; Unter solchen Bedingungen ist es unbedingt erforderlich, eine um mehrere Größenordnungen niedrigere „Ausfallwahrscheinlichkeit“ zu erreichen. Die Größe der akzeptablen „Risikowahrscheinlichkeit“ wird immer vom Forscher auf der Grundlage des Gefährdungsgrades des Risikos festgelegt. Es wird mehr oder weniger willkürlich gewählt. Daher tragen alle Prognosen, die mit Methoden der Wahrscheinlichkeitstheorie erstellt werden, immer den Eindruck einer „anfänglichen Willkür“, die mit der Wahl einer ausreichend kleinen „Risikowahrscheinlichkeit“ verbunden ist – der Wahrscheinlichkeit, dass die Prognose nicht eintrifft. Dieser Umstand mindert den Wert probabilistischer Forschungsmethoden keineswegs. Eine „indikative Prognose“ ist immer noch besser als eine „keine Prognose“, die sich aus der Anforderung ergeben würde, dass die „Risikowahrscheinlichkeit“ genau Null sein muss. Um die Nützlichkeit probabilistischer Vorhersagemethoden zu überprüfen, laden wir den Leser (sofern er nicht faul und neugierig ist) ein, ein grundlegendes Experiment durchzuführen: Werfen Sie eine Münze eines beliebigen Nennwerts N = 1000 Mal (der Einfachheit halber können Sie 10 Mal auf einmal werfen). Schütteln Sie sie gründlich in der Schachtel) und zählen Sie die Anzahl der erscheinenden Wappenmünzen Basierend auf probabilistischen Methoden kann mit praktischer Sicherheit (in diesem Fall mit einer Wahrscheinlichkeit von etwa 0,997) angegeben werden, dass die Anzahl der gezogenen Münzen 1,2 beträgt. DIREKTE BERECHNUNG DER WAHRSCHEINLICHKEITEN von 21 Wappen wird nicht über D53-5-547)*) hinausgehen. Keine sehr genaue Vorhersage, oder? Aber ohne die Verwendung probabilistischer Methoden könnten wir nur eine absolut zuverlässige, aber triviale Vorhersage machen: Die Anzahl der gezeichneten Wappen wird innerhalb der Grenzen von @-M000 liegen. 1.2. Direkte Berechnung von Wahrscheinlichkeiten Es gibt eine Klasse von Experimenten, bei denen die Wahrscheinlichkeiten ihrer möglichen Ergebnisse direkt auf der Grundlage der Experimentbedingungen selbst berechnet werden können. Dazu ist es notwendig, dass die unterschiedlichen Ergebnisse des Experiments symmetrisch sind und daher objektiv gleichermaßen möglich sind. Denken Sie zum Beispiel an das Erlebnis, einen Würfel zu werfen. Wenn der Würfel symmetrisch und „richtig“ hergestellt ist (der Schwerpunkt wird nicht auf eine der Flächen verlagert), kann man natürlich davon ausgehen, dass jede der sechs Flächen genauso oft herausfällt wie jede der anderen. Da das verlässliche Ereignis „Eine der Seiten fällt aus“ eine Wahrscheinlichkeit von eins hat und in sechs gleich mögliche Optionen (A, 2, 3, 4, 5 oder 6 Punkte) zerfällt, ist es naheliegend, sie jeder zuzuordnen von ihnen eine Wahrscheinlichkeit von 1/6. Für jede Erfahrung, die eine Symmetrie möglicher Ergebnisse aufweist, kann eine ähnliche Technik angewendet werden, die als direkte Berechnung von Wahrscheinlichkeiten bezeichnet wird. Die Symmetrie möglicher Ergebnisse wird am häufigsten in künstlich organisierten Experimenten beobachtet, bei denen besondere Maßnahmen ergriffen werden, um dies sicherzustellen (z. B. das Mischen von Karten oder Dominosteinen, das so durchgeführt wird, dass jedes von ihnen mit der gleichen Wahrscheinlichkeit ausgewählt werden kann; oder Techniken dafür). zufällige Auswahl einer Gruppe von Produkten zur Qualitätskontrolle in der Fabrikpraxis). Bei solchen Experimenten ist die Berechnung der Wahrscheinlichkeiten von Ereignissen am einfachsten. Es ist kein Zufall, dass die Wahrscheinlichkeitstheorie ihre erste Entwicklung (bereits im 17. Jahrhundert) auf dem Material des Glücksspiels erhielt, das über Generationen hinweg genau so entwickelt wurde, dass *) Wie solche Vorhersagen getroffen werden, finden Sie im Kapitel. 10, Absatz 10.2, Beispiel 12. 22 CH. 1. GRUNDKONZEPTE DER WAHRSCHEINLICHKEITSTHEORIE Das Ergebnis des Experiments hing nicht von seinen kontrollierbaren Bedingungen (Roulette, Würfel, Kartenspiele) ab. Die Technik der direkten Wahrscheinlichkeitsrechnung, die historisch zusammen mit der mathematischen Theorie zufälliger Phänomene entstand, war die Grundlage der sogenannten „klassischen“ Wahrscheinlichkeitstheorie und galt lange Zeit als universell. Experimente, die keine Symmetrie möglicher Ergebnisse aufwiesen, wurden künstlich auf das „klassische“ Schema reduziert. Trotz des begrenzten praktischen Anwendungsbereichs dieses Schemas ist es dennoch von gewissem Interesse, da es der einfachste Weg ist, sich mit den Eigenschaften von Wahrscheinlichkeiten vertraut zu machen. Bevor wir Methoden zur direkten Berechnung von Wahrscheinlichkeiten angeben, führen wir einige Hilfskonzepte ein. 1. Komplette Veranstaltungsgruppe. Mehrere Ereignisse in einem bestimmten Erlebnis bilden dann eine vollständige Gruppe, wenn mindestens eines von ihnen zwangsläufig als Ergebnis des Erlebnisses auftreten muss. Beispiele für Ereignisse, die eine vollständige Gruppe bilden: 1) „Herausfallen eines Wappens“ und „Herausfallen eines Schwanzes“ beim Münzwurf *); 2) das Erscheinen der Punkte „1“, „2“, „3“, „4“, „5“, „6“ beim Würfeln; 3) „zwei Treffer“, „zwei Fehlschüsse“ und „ein Treffer, ein Fehlschuss“ mit zwei Schüssen auf das Ziel; 4) „Erscheinen einer weißen Kugel“ und „Erscheinen einer schwarzen Kugel“ bei der Entnahme einer Kugel aus einer Urne mit 2 weißen und 3 schwarzen Kugeln **); 5) „das Erscheinen von mindestens einer weißen Kugel“ und „das Erscheinen von mindestens einer schwarzen Kugel“, wenn zwei Kugeln aus derselben Urne entnommen werden. Achten wir besonders auf das letzte Beispiel. Es ergeben sich zwei Ereignisse, die sich nicht gegenseitig ausschließen: Tatsächlich erscheinen beide, wenn man eine weiße und eine schwarze Kugel herausnimmt. Aber nicht umsonst sagten wir bei der Definition der gesamten Ereignisgruppe „unvermeidlich“ ¦) Wir lehnen das Ergebnis „die Münze wird auf der Kante landen“ als vernachlässigbar unwahrscheinlich (praktisch unmöglich) ab. *) Bei allen „pa urpa“-Aufgaben hier und im Folgenden gehen wir davon aus, dass die Kugeln gründlich gemischt sind. 1.2. Aber mindestens einer von ihnen muss vorkommen“ („mindestens einer“ bedeutet „einer oder mehrere“). Wenn Ereignisse eine vollständige Gruppe bilden, kann die Erfahrung nicht über sie hinaus enden. Zu der vollständigen Gruppe von Ereignissen können Sie beliebige andere Ereignisse und Ergebnisse der Erfahrung hinzufügen. Dadurch geht die Vollständigkeit der Ereignisgruppe nicht verloren. 2. Inkompatible Ereignisse. Mehrere Ereignisse in einem bestimmten Experiment werden als inkompatibel bezeichnet, wenn keine zwei von ihnen gleichzeitig auftreten können. Beispiele für unvereinbare Ereignisse: 1) „Herausfallen eines Wappens“ und „Herausfallen eines Schwanzes“ beim Werfen einer Münze; 2) „zwei Treffer“ und „zwei Fehlschüsse“ mit zwei Schüssen; 3) „Zwei würfeln“, „Drei würfeln“ und „Fünf würfeln“ Punkte beim einmaligen Würfeln; 4) „das Erscheinen eines Asses“, „das Erscheinen einer Zehn“ und „das Erscheinen einer Karte mit einem Bild“ (König, Dame oder Bube) beim Entfernen einer Karte aus dem Stapel; 5) „das Erscheinen von drei“ und „das Erscheinen von mehr als drei“ Punkten beim Würfeln; 6) Verzerrung von „genau fünf“, „genau zwei“ und „mindestens sechs“ Zeichen bei der Übertragung einer Nachricht mit etwa 10 Zeichen. Denken Sie daran, dass beliebige andere Ereignisse zu einer vollständigen Ereignisgruppe hinzugefügt werden könnten, ohne die Vollständigkeit zu beeinträchtigen. Was inkompatible Ereignisse betrifft, kann jedes davon eliminiert werden (solange mindestens zwei übrig bleiben), ohne die Eigenschaft der Inkompatibilität zu verletzen. 3. Ebenso mögliche Ereignisse. Mehrere Ereignisse in einem bestimmten Experiment werden als gleichermaßen möglich bezeichnet, wenn aufgrund der Symmetriebedingungen Grund zu der Annahme besteht, dass keines von ihnen objektiv möglicher ist als das andere. Beachten Sie, dass gleichermaßen mögliche Ereignisse nur in Experimenten auftreten können, bei denen die möglichen Ergebnisse symmetrisch sind. Unsere Unwissenheit darüber, was wahrscheinlicher ist, ist keine Grundlage dafür, Ereignisse als gleichermaßen möglich zu betrachten. Beispiele für gleichermaßen mögliche Ereignisse: 1) „Herausfallen eines Wappens“ und „Herausfallen eines Schwanzes“ beim Werfen einer symmetrischen, „richtigen“ Münze; Kapitel 24 ich. Grundkonzepte der Wahrscheinlichkeitstheorie 2) der Verlust von „drei“, „vier“, „fünf“ und „sechs“ Punkten beim Werfen eines symmetrischen, „normalen“ Würfels; 3) das Erscheinen einer Kugel mit den Nummern „1“, „2“, „4“ und „5“, wenn eine Kugel zufällig aus einer Urne mit 10 nummerierten Kugeln gezogen wird; 4) das Erscheinen von Kugeln mit den Nummern „2 und 3“, „3 und 4“, „5 und 8“, wenn zwei Kugeln aus derselben Urne entnommen werden; 5) das Erscheinen einer Karte „mit dem Buchstaben a“, „mit dem Buchstaben f“ und „mit dem Buchstaben u“ beim Herausnehmen einer der sorgfältig gemischten Kinder-Alphabetkarten; 6) das Erscheinen einer Karte mit den Farben „Herzen“, „Karo“, „Kreuz“ oder „Pik“, wenn eine Karte aus dem Stapel entfernt wird. Beachten wir, dass die gleiche Wahrscheinlichkeit der Ereignisse in jedem dieser Experimente durch besondere Maßnahmen (symmetrische Herstellung von Knochen; Mischen von Karten; gründliches Mischen von Kugeln in der Kugel usw.) sichergestellt wird. Aus einer Gruppe, die mehr als zwei gleich mögliche Ereignisse enthält, können Sie jedes (außer den letzten beiden) ausschließen, ohne deren Gleichmöglichkeit zu verletzen. Erfahrungen, die eine Symmetrie möglicher Ergebnisse aufweisen, sind mit besonderen Gruppen von Ereignissen verbunden, die alle drei Eigenschaften aufweisen: Sie bilden eine vollständige Gruppe, sind inkompatibel und gleichermaßen möglich. Die Ereignisse, die eine solche Gruppe bilden, werden Fälle (auch „Chancen“ genannt) genannt. Beispiele für Fälle: 1) das Erscheinen eines „Wappens“ und einer „Zahl“ beim Werfen einer Münze; 2) das Erscheinen der Punkte „1“, „2“, „3“, „4“, „5“ und „6“ beim Würfeln; 3) das Erscheinen einer Kugel mit den Nummern „1“, „2“, ..., wenn eine Kugel aus einer Urne mit n nummerierten Kugeln entnommen wird; 4) das Erscheinen einer Karte mit den Farben „Herzen“, „Karo“, „Kreuz“ und „Pik“, wenn eine Karte aus einem Stapel mit 36 ​​Blättern entnommen wird. Wenn Erfahrung eine Symmetrie möglicher Ergebnisse aufweist, dann stellen Fälle eine erschöpfende Menge ihrer gleichermaßen möglichen und sich gegenseitig ausschließenden Ergebnisse dar. Über ein solches Experiment heißt es, dass es sich auf ein Fallschema reduziert (andernfalls auf ein „Urnenschema“, da jedes probabilistische Problem für ein solches Experiment durch ein äquivalentes Problem ersetzt werden kann, bei dem Urnen mit Kugeln von der einen oder anderen Seite auftauchen Farben). Für solche Experimente ist eine direkte Berechnung von Wahrscheinlichkeiten möglich, basierend auf der Berechnung des Anteils sogenannter günstiger Fälle an ihrer Gesamtzahl. Ein Fall wird für Ereignis A als günstig (oder „günstig“) bezeichnet, wenn der Eintritt dieses Falles den Eintritt dieses Ereignisses mit sich bringt. Zum Beispiel beim Würfeln aus sechs Fällen („1“, „2“, „3“, „4“, „5“, „6“ Punkte) Ereignis A – „das Erscheinen einer geraden Anzahl von Punkten“ Drei Fälle sind günstig: „2“, „4“, „6“ und die anderen drei sind nicht günstig. Ereignis B – „das Erscheinen von mindestens 5 Punkten“ ist in den Fällen „5“, „6“ günstig und die anderen vier sind nicht günstig. Wenn die Erfahrung auf ein Fallschema reduziert wird, kann die Wahrscheinlichkeit des Ereignisses A in einem gegebenen Experiment als Anteil der günstigen Fälle an der Gesamtzahl berechnet werden: m A РD)--^, A.2.1) wobei wA der ist Anzahl der für Ereignis A günstigen Fälle; n ist die Gesamtzahl der Fälle. Formel A.2.1), die sogenannte „klassische Formel“ zur Berechnung von Wahrscheinlichkeiten, vorgeschlagen bereits im 17. Jahrhundert, als das Hauptanwendungsgebiet der Wahrscheinlichkeitstheorie das Glücksspiel war (bei dem die Symmetrie möglicher Ergebnisse durch spezielle Maßnahmen sichergestellt wird) , erschien lange Zeit (bis zum 19. Jahrhundert) in der Literatur als „Definition der Wahrscheinlichkeit“; diejenigen Probleme, bei denen es kein Fallschema gibt, wurden mit künstlichen Methoden darauf reduziert. Derzeit gibt es keine formale Definition der Wahrscheinlichkeit (dieses Konzept gilt als „primär“ und ist nicht definiert), und seine Erklärung basiert auf anderen Prinzipien, die es direkt mit dem Konzept der Ereignishäufigkeit verbinden (siehe Abschnitt 1.3). Es wird auch eine axiomatische, mengentheoretische Konstruktion der Wahrscheinlichkeitstheorie verwendet, die auf den allgemeinen Bestimmungen der Mengenlehre und einer kleinen Anzahl von Axiomen basiert (siehe Abschnitte 1.4, 1.5). Die Formel A.2.1) wird jetzt nur noch für die Berechnung der Wahrscheinlichkeiten von Ereignissen in Experimenten mit Symmetrie möglicher Ergebnisse beibehalten. Hier sind einige Anwendungsbeispiele. 26 GL. 1. GRUNDLEGENDE KONZEPTE DER WAHRSCHEINLICHKEITSTHEORIE Beispiel 1. In einer Urne befinden sich 5 Kugeln, davon 2 weiß und 3 schwarz. Aus der Urne wird zufällig eine Kugel gezogen. Bestimmen Sie die Wahrscheinlichkeit, dass dieser Ball weiß ist. Lösung. Bezeichnen wir mit A das für uns interessante Ereignis: A = (Erscheinen einer weißen Kugel) *). Gesamtzahl der Fälle n = 5; zwei davon sind günstig für Ereignis A: mA = 2. Nach Formel A.2.1) ist P(^) = 2/5. > Beispiel 2. In einer Urne befinden sich 7 Kugeln: 4 weiße und 3 schwarze. Daraus werden zwei Kugeln entnommen (gleichzeitig oder nacheinander). Bestimmen Sie die Wahrscheinlichkeit, dass beide weiß sind: B = (beide Kugeln sind weiß). Bei der Lösung dieses und ähnlicher Probleme werden wir elementare kombinatorische Formeln verwenden, insbesondere die Formel für die Zahlenkombination it. Die Anzahl der Kombinationen von k Elementen durch / ist die Anzahl der Möglichkeiten, mit denen / verschiedene Elemente aus k ausgewählt werden können. Sie wird mit Ck bezeichnet und nach der Formel berechnet: ri *(*-1) ¦ .(/; - /-!- 1) Oder, unter Verwendung des Fakultätszeichens (!), L: (L- - 1) ...(*- /+ 1) *I Die Anzahl der Kombinationen hat die folgenden Eigenschaften: Unter Verwendung der Formel A. 2.2), Beispiel 2 lösen. Lösung. Die Gesamtzahl der Fälle in Beispiel 2 ist gleich der Anzahl der Möglichkeiten, auf denen man zwei von sieben Bällen auswählen kann; und die Anzahl der Fälle, die für Ereignis 5 günstig sind, ist die Anzahl der Möglichkeiten, auf denen man zwei weiße Bälle auswählen kann 4: *) Hier und im Folgenden verwenden wir eine ähnliche Bezeichnung für Ereignisse, indem wir ihre verbale Beschreibung in geschweifte Klammern setzen. 1.2. DIREKTE WAHRSCHEINLICHKEITSBERECHNUNG 27 Daher P(B) -±- 2 b Beispiel 3. In einer Charge von K Produkten sind M defekt. Die Chargengröße wird zur Steuerung von k Produkten (k) ausgewählt<К). Найти вероятность того, что среди них будет ровно т дефектных (т ^ к). Решение. Общее число случаев п = Ск* Найдем mD - число случаев, благоприятных событию D = {ровно т дефектных изделий в контрольной партии). Найдем сперва число способов, какими из М дефектных изделий можно выбрать т для контрольной партии; оно равно C™i- Но ото еще не все: к каждой комбинации дефектных изделий пужно присоединить комбинацию из fe - m доброкачественных; это можно сделать CjfJlj способами. Каждая комбинация из т дефектных изделий может сочетаться с каждой комбинацией пз k - m доброкачественных; число тех и других комбинаций надо перемножить. Поэтому число благоприятных событию D случаев равно nip = C^"CkIIm и Р(В)-СТгСкК--УСкК. > A,2.3) Beispiel 4. Jemand wählt zufällig 6 „Sportloto“-Zellen F S. 49). Ermitteln Sie die Wahrscheinlichkeit, dass er die Anzahl der 6 Gewinnzahlen richtig errät: A = (genau drei), B = (genau vier), C = = (genau fünf), D = (alle sechs). Lösung. Es ist nicht schwer zu überprüfen, ob die Struktur des Problems vollständig mit der vorherigen übereinstimmt, wenn wir die Gewinnzahlen als „defekt“ und die nicht gewinnenden Zahlen als „gut“ betrachten. Wenn wir die Formel A.2.3 anwenden und dabei LG = 49, M = 6 und m – nacheinander gleich 3, 4, 5, 6 – annehmen, erhalten wir: c. C ^ p (A) - -±^ "1.765.1(Gr, P (R) - -5-12 " 9.686- 10~\ C C4 "~8" > 28 KAPITEL 1. GRUNDLEGENDE KONZEPTE DER WAHRSCHEINLICHKEITSTHEORIE Beispiel 5 . Das Experiment besteht darin, zwei Münzen gleichzeitig (oder nacheinander) zu werfen. Bestimmen Sie die Wahrscheinlichkeit des Ereignisses A = (mindestens eine Münze zeigt ein Wappen). Lösung. Auf den ersten Blick mag es einem leichtfertigen und hastigen Leser so erscheinen In diesem Problem gibt es drei Fälle: A! = (zwei Wappen); das erste wird das erste in der Zeit sein; wenn gleichzeitig, dann zum Beispiel das, dessen Mittelpunkt im Norden liegt). Die Folgende Ereignisse werden die Fälle sein: 2?i = (auf der ersten Münze ist ein Wappen, auf der zweiten Münze), B2 = "(auf der ersten Münze ist ein Schwanz, auf der zweiten Münze), Bz * (auf der ersten Münze ein Wappen, auf der zweiten Zahl), ^ - (auf der ersten Münze ein Zahl, auf der zweiten Münze). Finden wir P(A). Von den vier Fällen ist das Ereignis A günstig für alle außer B2; Dies bedeutet mA = 3 und PD) = 3/4. Das Ereignis As = (Wappen und Frack) wird durch die letzten beiden Fälle B3 und /?4 begünstigt, woraus P (^3) = 2/4 «* 1/2, d. h. Ereignis A3 ist jeweils doppelt so wahrscheinlich der Ereignisse Av und A2. > 1.3. Häufigkeit oder statistische Wahrscheinlichkeit eines Ereignisses Wie wir bereits wissen, ist die Formel A.2.1) zur direkten Berechnung von Wahrscheinlichkeiten nur dann anwendbar, wenn die Erfahrung, aufgrund derer das für uns interessante Ereignis auftreten kann, eine Symmetrie möglicher Ergebnisse aufweist. Offensichtlich ist dies nicht immer der Fall, und es gibt eine große Klasse von Ereignissen, deren Wahrscheinlichkeiten nicht mit der „klassischen“ Formel berechnet werden können. Nehmen wir zum Beispiel eine falsch gefertigte Matrize (mit verschobenem Schwerpunkt). Ereignis A (5 Punkte würfeln) hat nicht länger eine Wahrscheinlichkeit von 1/6. Aber welcher? Und wie findet man es? Die Antwort ist intuitiv klar: Sie müssen „versuchen“, genügend Würfel zu werfen – i.3. Häufigkeit oder statistische Wahrscheinlichkeit 29 genau viele Male und sehen Sie, wie oft Ereignis A auftritt. Offensichtlich sind die Wahrscheinlichkeiten von Ereignissen wie B = (Treffen des Ziels beim Abfeuern), C = (Ausfall des integrierten Schaltkreises innerhalb einer Betriebsstunde), D = (bei der Inspektion der Produkte werden genau t fehlerhafte Produkte pro Tag festgestellt), kann ebenfalls nicht nach Formel A gezahlt werden. 2.1) - Die entsprechenden Experimente lassen sich nicht auf ein Fallschema reduzieren. Dennoch liegt es nahe, anzunehmen, dass jeder von ihnen ein gewisses Maß an objektiver Möglichkeit besitzt, was sich bei mehrmaliger Wiederholung der entsprechenden Experimente in der relativen Häufigkeit der Ereignisse widerspiegelt. Wir gehen davon aus, dass jedes der zufälligen Ereignisse (ob die Erfahrung auf ein Muster von Fällen reduziert wird oder nicht, solange sie unendlich reproduzierbar ist) eine Wahrscheinlichkeit zwischen null und eins hat. Für Experimente, die sich auf ein Fallschema reduzieren, werden die Wahrscheinlichkeiten (direkt oder indirekt) nach Formel A.2.1) berechnet. Bei denselben Experimenten, die sich nicht auf ein Fallschema reduzieren lassen, ist die Situation komplizierter: Die direkte oder indirekte Bestimmung der Wahrscheinlichkeiten von Ereignissen hat ihre Wurzeln in der Datenerhebung, Statistik und Massenexperimenten. Lassen Sie uns eines davon vorstellen die wichtigsten Konzepte Wahrscheinlichkeitstheorie – das Konzept der Häufigkeit eines zufälligen Ereignisses. Wenn eine Reihe von n Experimenten durchgeführt wird, in denen jeweils Ereignis A auftreten kann oder nicht, dann ist die Häufigkeit von Ereignis A in dieser Versuchsreihe das Verhältnis der Anzahl der Experimente, in denen Ereignis A auftrat, zur Gesamtzahl n der durchgeführten Experimente. Die Häufigkeit eines Ereignisses wird oft als seine statistische Wahrscheinlichkeit bezeichnet (im Gegensatz zur zuvor eingeführten „mathematischen“ Wahrscheinlichkeit). Wir betonen, dass es zur Berechnung der Häufigkeit eines Ereignisses nicht ausreicht, die experimentellen Bedingungen zu kennen; man muss auch über statistische Daten verfügen. Die Häufigkeit ist eine erfahrene, experimentelle Eigenschaft. Lassen Sie uns vereinbaren, die Häufigkeit (statistische Wahrscheinlichkeit) von Ereignis A mit dem Zeichen P*(-4) zu bezeichnen (hier und in Zukunft zeigt das Sternchen neben dem Buchstaben die statistische Natur des entsprechenden Parameters an). Gemäß der Definition wird die Häufigkeit von Ereignis A nach der Formel berechnet: m p * (A) = -^r A.3.1), wobei n die Anzahl der durchgeführten Experimente ist (nicht zu verwechseln mit der Anzahl der Fälle in „ klassisches Schema„!), MA ist die Anzahl der Experimente, in denen Ereignis A auftrat. Wenn n klein ist, ist die Häufigkeit des Ereignisses weitgehend zufällig. Das Erlebnis sei zum Beispiel das Werfen einer Münze, Ereignis A = (Erscheinen eines Wappens). Die Wahrscheinlichkeit dieses Ereignisses beträgt gemäß Formel A.2.1 P(L) = - 1/2. Was die Frequenz P* (A) betrifft, muss sie nicht gleich 1/2 oder auch nur annähernd gleich sein. Beispielsweise ist es bei fünf Würfen (n = 5) durchaus möglich, dass das Wappen nur einmal erscheint: P* (A) =* 1/5; Weniger wahrscheinlich, aber auch möglich ist, dass es nicht einmal auftritt: P*(A) = 0, oder alle fünf Male: P*(A) = 1. Kurz gesagt, mit einer kleinen Anzahl von Experimenten die Häufigkeit des Ereignisses ist unvorhersehbar, zufällig. Mit einer großen Anzahl von Experimenten n verliert die Häufigkeit jedoch zunehmend ihren zufälligen Charakter: Sie tendiert dazu, sich zu stabilisieren und nähert sich mit geringfügigen Schwankungen einem Durchschnitt konstanter Wert*). Wenn beispielsweise eine Münze mehrmals geworfen wird, weicht die Häufigkeit des Erscheinens des Wappens nur geringfügig von 1/2 - 0,5 ab. Zur Veranschaulichung in der Tabelle. In Abb. 1.3.1 zeigt die Ergebnisse einer Reihe von n = G00-Münzwürfen (der Einfachheit halber ist das Experiment in 60 „Untersicheln“ unterteilt, in denen jeweils 10 sorgfältig geschüttelte Münzen gleichzeitig geworfen wurden und die Anzahl der fallengelassenen Münzen angegeben wurde Embleme wurde gezählt). Zur Veranschaulichung in Abb. Abbildung 1.3.1 zeigt die Abhängigkeit der Häufigkeit P*(L) des Erscheinens des Wappens von der Anzahl der Experimente l. Aus diesem Diagramm geht klar hervor, dass sich die Frequenz mit zunehmendem n tendenziell stabilisiert und sich durch eine Reihe zufälliger Abweichungen einer Konstante nähert. *) Dies gilt natürlich nur für zufällige Phänomene, die die Eigenschaft der Frequenzstabilität aufweisen (siehe Einleitung). , sondern nur solche Phänomene und befasst sich mit der Wahrscheinlichkeitstheorie. 1.3. HÄUFIGKEIT ODER STATISTISCHE WAHRSCHEINLICHKEIT 31 Wert, den wir gleich 0,5 setzen werden (das ist genau die Wahrscheinlichkeit P (A) für das Erscheinen eines Wappens in einem Experiment). Aus Betrachtung der Tabelle. 1.3.1 und Grafiken Abb. 1.3.1 können wir eine Reihe aufschlussreicher Schlussfolgerungen ziehen. 1. Mit zunehmender Anzahl der Experimente n nähert sich die Häufigkeit eines Ereignisses tendenziell seiner Wahrscheinlichkeit an. Tabelle 1.3.1 Anzahl der EXPERIMENTE?1 10 20 30 40 50 60 70 80 90 - 100 110 120 130 140 150 100 170 180 190 200 P* (A) 0,600 0,650 0,600 0,575 0,540 0,550 0,528 0,512 0,588 0,490 0,550 0,492 0,523 0,500 0,493 0,475 0,471 0,472 0,463 0,465 n 210 220 230 240 250 260 270 280 290 300 310 320 330 340 350 36 0 370 380 390 400 R* U) 0,462 0,472 0,470 0,479 0,484 0,477 0,489 0,482 0,493 0,497 0,500 0,503 0,497 0,506 0,497 0,497 0,495 0,492 0,500 0,498 p 410 420 430 440 450 460 470 480 490 500 510 520 530 540 550 560 570 580 590 600 R* U) 0,502 0, 512 0,512 0,514 0,519 0 .515 0,515 0,510 0,508 0,510 0,506 0,516 0,513 0,515 0,513 0,511 0,512 0,509 0,507 0,505 2. Diese Annäherung ist ziemlich langsam (viel langsamer als uns lieb ist!), ist aber im experimentellen Material deutlich sichtbar. 3. Frequenzschwankungen um die Wahrscheinlichkeit sind zufällig und unregelmäßig. Wenn wir dasselbe wiederholen würden Massenerlebnis(Wenn weitere 600 Münzwürfe durchgeführt worden wären), dann hätte die Kurve der Abhängigkeit der Häufigkeit P*(A) von der Anzahl der Experimente n eine andere spezifische Form gehabt, aber offenbar würde die allgemeine Tendenz, sich 0,5 anzunähern, der Fall sein sind erhalten geblieben. Fragen wir uns nun: Können wir sagen, dass mit zunehmendem n die Häufigkeit P*(^4) im üblichen mathematischen Sinne des Wortes zur Wahrscheinlichkeit P(A) tendiert? Nein, das kann man gerade im Zusammenhang mit dem Approximationsprozess nicht sagen. Könnte es beispielsweise theoretisch passieren, dass das Wappen alle 600 Mal herausfiel und sich herausstellte, dass P* (A) gleich eins war? Theoretisch wäre das möglich, in der Praxis jedoch nicht. Die Wahrscheinlichkeit, dass das Wappen alle 600 Mal erscheint, ist so gering (später (siehe Kapitel 2, Abschnitt 2.4) werden wir sie berechnen und sicherstellen, dass sie gleich A/2N00 ist), dass die Möglichkeit eines solchen Zufalls bestehen kann vernachlässigt. Berechnungen zeigen 0,650 0,500 0,550- 100 200 300 Abb. 1.3.1 Ts-00 500 600 l, dass auch wesentlich kleinere Abweichungen der Häufigkeit von der Wahrscheinlichkeit bei n = 600 praktisch nicht auftreten. Mit Blick auf die Zukunft (siehe Kapitel I) werden wir den Leser darüber informieren, dass bei sechshundert Würfen einer Münze die Häufigkeit des Erscheinens des Wappens mit ziemlicher Sicherheit nicht mehr als 0,06 von 0,5 abweichen wird (in Zukunft werden Sie erfahren). Um solche Grenzen unabhängig zu finden, jenseits derer es mit ziemlicher Sicherheit nicht zu Abweichungen des numerischen Ergebnisses des Experiments vom zuvor vorhergesagten oder gewünschten Wert kommt (siehe Kapitel 11)). Das Muster, das uns in einem konkreten Beispiel aufgefallen ist, hat eine allgemeinere Bedeutung. Wenn nämlich dasselbe Experiment mit einem zufälligen Ergebnis ausreichend oft wiederholt wird, wobei Ereignis A auftreten kann oder nicht, beträgt die Häufigkeit P*(A) dieses Ereignisses 1,3. HÄUFIGKEIT ODER STATISTISCHE WAHRSCHEINLICHKEIT 33 neigt dazu, sich zu stabilisieren und nähert sich durch eine Reihe zufälliger Abweichungen einer konstanten Zahl; Es liegt nahe, anzunehmen, dass diese Zahl die Wahrscheinlichkeit des Ereignisses darstellt. Natürlich können wir eine solche Annahme nur für Ereignisse überprüfen, deren Wahrscheinlichkeiten direkt mit der Formel A.2.1 berechnet werden können, also für Experimente, die sich auf das Fallschema beziehen. Zahlreiche Massenexperimente verschiedener Personen seit der Entstehung der Wahrscheinlichkeitstheorie bestätigen diese Annahme: Die Häufigkeit eines Ereignisses nähert sich mit zunehmender Anzahl der Experimente tatsächlich seiner Wahrscheinlichkeit an. Es liegt nahe, anzunehmen, dass für Experimente, die nicht auf ein Fallschema reduziert werden können, das gleiche Gesetz in Kraft bleibt und dass konstanter Wert, dem sich die Häufigkeit des Ereignisses mit zunehmender Anzahl der Experimente annähert, ist nichts anderes als die Wahrscheinlichkeit des Ereignisses. Dann kann die Häufigkeit des Ereignisses bei ausreichend großer Anzahl von Experimenten als Näherungswert für die Wahrscheinlichkeit herangezogen werden. Die Kenntnis der Gesetze der Wahrscheinlichkeitstheorie ermöglicht es uns, den Fehler dieser ungefähren Gleichheit abzuschätzen und die Anzahl der Experimente /r zu ermitteln, bei denen wir vernünftigerweise erwarten können, dass der Fehler diesen Wert nicht überschreitet. Besonders hervorzuheben ist, dass sich die Art der Annäherung der Häufigkeit an die Wahrscheinlichkeit mit zunehmender Anzahl von Experimenten deutlich vom „Streben an die Grenze“ im mathematischen Sinne des Wortes unterscheidet. Wenn wir in der Mathematik sagen, dass die Variable xn mit zunehmendem n zu einem konstanten Grenzwert a tendiert, bedeutet dies, dass die Differenz xn - a\ für alle Werte von n ab einem bestimmten Wert kleiner als jedes positive e wird. Bezüglich Häufigkeit und Wahrscheinlichkeit lässt sich eine solche kategorische Aussage nicht treffen. Es ist physikalisch nicht unmöglich, dass die Häufigkeit eines Ereignisses bei einer großen Anzahl von Experimenten stark von seiner Wahrscheinlichkeit abweicht, aber eine solche Abweichung erweist sich als praktisch unmöglich – so unwahrscheinlich, dass sie ignoriert werden kann. Mit zunehmender Anzahl der Experimente n nähert sich also die Häufigkeit eines Ereignisses seiner Wahrscheinlichkeit an, jedoch nicht mit völliger Sicherheit, sondern mit hoher Wahrscheinlichkeit, je größer die Anzahl der durchgeführten Experimente ist. Diese Methode zur Annäherung einiger Größen an andere findet sich sehr häufig in der Wahrscheinlichkeitstheorie; sie liegt in 2 Wahrscheinlichkeitstheorie und ihre technischen Anwendungen 34 Kap. ich. Die Grundkonzepte der Wahrscheinlichkeitstheorie liegen den meisten ihrer Schlussfolgerungen und Empfehlungen zugrunde und haben einen besonderen Namen: „Konvergenz der Wahrscheinlichkeit“. Sie sagen, dass der Wert A"n in der Wahrscheinlichkeit gegen den Wert a konvergiert, wenn, egal wie klein e ist, die Wahrscheinlichkeit der Ungleichung \Xn - a\< г с увеличением п неограниченно приближается к единице. Применяя этот термин, можно сказать, что при увеличении числа опытов п частота события не «стремится» к его вероятности, а «сходится к ней по вероятности». Таким образом, вводя поиятие частоты события и пользуясь связью между нею и вероятностью, мы получаем возможность приписать определенные вероятности, заключенные между нулем и единицей, не только событиям, для которых применима схема случаев, но и тем событиям, которые к этой схеме не сводятся; достаточно, чтобы опыт обладал свойством устойчивости частот, иными словами, мог быть неограниченно воспроизводим в практически одинаковых условиях. Тогда можпо, производя достаточно große Nummer Experimente setzen die gewünschte Wahrscheinlichkeit eines Ereignisses näherungsweise gleich seiner Häufigkeit. Später werden wir sehen, dass es relativ selten notwendig ist, seine Häufigkeit direkt aus einer Reihe von Experimenten zu ermitteln, um die Wahrscheinlichkeit eines Ereignisses in einem Experiment zu bestimmen, das sich nicht auf ein Muster von Fällen reduzieren lässt. Die Wahrscheinlichkeitstheorie verfügt über Methoden, die es ermöglichen, die Wahrscheinlichkeiten von Ereignissen nicht direkt, sondern indirekt über die Wahrscheinlichkeiten anderer damit verbundener Ereignisse zu ermitteln. Im Wesentlichen bilden solche indirekten Methoden den Hauptinhalt der Wahrscheinlichkeitstheorie. Aber auch bei der Verwendung indirekter Methoden (wenn die Erfahrung nicht auf ein Fallmuster reduziert wird) muss man am Ende immer noch auf experimentelle Daten zurückgreifen. Lassen Sie uns einige Eigenschaften von Frequenzen ableiten, die nicht nur für eine große Anzahl von Experimenten, sondern für eine beliebige Anzahl von Experimenten gelten. 1. Die Additionsregel ist chasyut. Wenn zwei Ereignisse A und B inkompatibel sind, dann ist die Häufigkeit von Ereignis C, die darin besteht, dass A oder B auftritt (egal welches), gleich der Summe der Häufigkeiten dieser Ereignisse: P* (C) - P* (A oder B) - P * (A) + P* (B). A.3.2) In der Tat, wenn die Anzahl der Experimente, bei denen Ereignis A auftrat, gleich MA ist und die Anzahl der Experimente, bei denen 1,3. HÄUFIGKEIT ODER STATISTISCHE WAHRSCHEINLICHKEIT 35 Ereignis B auftritt, gleich Mv ist und Ereignisse A und B inkompatibel sind, dann P* (C) = A^4^ = ^ + ^ = P* (A) + P*(I). 2. Frequenzmultiplikationsregel. Für zwei beliebige Ereignisse A und B wird die Häufigkeit des Ereignisses D, bestehend aus der Tatsache, dass beide Ereignisse auftreten (D = U und B), gleich der Häufigkeit des einen von ihnen multipliziert mit der „bedingten Häufigkeit“ des anderen berechnet unter der Annahme, dass das erste stattgefunden hat: P* (?>) = P*(L und V)-P*(A)-P*(B\A)% A.3.3) wobei P* (B | A) ist die Häufigkeit des Ereignisses #, berechnet nur für die Experimente, bei denen Ereignis A auftrat (es wird angenommen, dass MAF). Lassen Sie Ereignis A tatsächlich in MA-Experimenten auftreten; In MD-Experimenten ging es mit dem Auftreten von Ereignis B einher, d. h. Ereignis D = (A und B) trat auf. Dann ist die Häufigkeit von Ereignis D (aber der zweite Faktor in Formel A.3.4) nichts anderes als die Häufigkeit von Ereignis B, berechnet nur für die Experimente, in denen Ereignis A auftrat (wir nennen es „die bedingte Häufigkeit von Ereignis B in“. Anwesenheit von A“ und bezeichnen P*( B\A)). Beachten Sie, dass die bedingte Häufigkeit von Ereignis B in Gegenwart von A auch basierend auf P*(D) mithilfe der Formel berechnet werden kann: P*(B\A)-P*(D)/P*(A), A. 3.5) d. h. die bedingte Häufigkeit von Ereignis B in Gegenwart von A kann erhalten werden, indem die Häufigkeit von Ereignis D = (A und B] durch die Häufigkeit von Ereignis A dividiert wird. Später werden wir sehen, dass ähnliche Regeln für Addition und Multiplikation gelten für Ereigniswahrscheinlichkeiten. Das Konzept der Ereignishäufigkeit ist in der Wahrscheinlichkeitstheorie von grundlegender Bedeutung. Sie können das gesamte Gebäude auf der Grundlage des Grundkonzepts von Frequenz und Post-36 GL bauen. 1. GRUNDLEGENDE KONZEPTE DER WAHRSCHEINLICHKEITSTHEORIE, die die Eigenschaften nicht von Wahrscheinlichkeiten, sondern von Häufigkeiten beschreiben (diese Konstruktion der Wahrscheinlichkeitstheorie wurde von R. Mises zu Beginn des 20. Jahrhunderts vorgeschlagen; und auch heute noch bevorzugen einige Autoren die Darstellung der Theorie von Wahrscheinlichkeiten auf Häufigkeitsbasis). Aus unserer Sicht ist der axiomatische mengentheoretische Ansatz, der mit den Ideen von A. N. Kolmogorov verbunden ist, der modernste (und vor allem den Traditionen der Präsentation der Wahrscheinlichkeitstheorie an Universitäten entsprechende) Ansatz; Diesem Ansatz werden wir in Zukunft folgen. KAPITEL 2 Axiomatik der Wahrscheinlichkeitstheorie. Regeln für die Addition und Multiplikation von Wahrscheinlichkeiten und deren Folgen 2.1. Grundlegende Informationen aus der Mengenlehre. Erinnern wir diejenigen, die sie kennen, und informieren wir diejenigen, die ihnen zum ersten Mal begegnen, an die Grundkonzepte dieser mathematischen Wissenschaft. Eine Menge ist eine beliebige Sammlung von Objekten beliebiger Natur, von denen jedes als Element der Menge bezeichnet wird. Beispiele für Mengen: 1) eine Gruppe von Studenten, die an einer bestimmten Universität studieren; 2) eingestellt natürliche Zahlen, nicht mehr als 100; 3) eine Menge von Punkten auf einer Ebene, die innerhalb oder auf der Grenze eines Kreises mit dem Radius r und einem Mittelpunkt im Ursprung liegt; 4) eine Menge von Punkten auf der Zahlenachse, deren Abstand zum Punkt mit der Abszisse a d nicht überschreitet. Wir werden Mengen unterschiedlich bezeichnen: entweder eine Großbuchstabe oder eine Auflistung seiner Elemente in geschweiften Klammern; oder durch Angabe (in denselben geschweiften Klammern) die Regel, nach der das Element zur Menge gehört. Beispielsweise kann die Menge M der natürlichen Zahlen von 1 bis 100 in der Form geschrieben werden: M = And, 2, ..., 100) – U – ganze Zahl; 1<К 100} - -{f-1, ..., 100}. Множество точек на числовой оси, расстояние от которых до точки с абсциссой а не превосходит d, может быть записано в виде S = {\z-a\^d) или S = {x: |*.-a| Die Beziehung zwischen einer Teilmenge und einer Menge kann mithilfe einer geometrischen Interpretation (Abb. 2.1.1) visuell dargestellt werden, wobei die Elemente von Mengen Punkte auf der Ebene sind; Jeder Punkt von Abbildung B gehört zu 2.1. INFORMATIONEN AUS DER SETTHEORIE 39 leben auch von Figur A; Die Vereinigung (Summe) der Mengen A und B ist die Menge C = A + B, bestehend aus allen Elementen von A und allen Elementen von B (einschließlich derjenigen, die sowohl zu A als auch zu B gehören). Kurz gesagt: Die Vereinigung zweier Mengen ist Abb. 2.1.1 eine Menge von Elementen, die zu mindestens einem von ihnen gehören. Die Vereinigung der Mengen A und B wird oft mit A U Bx bezeichnet. Da wir die Vereinigung von Ereignissen normalerweise als Summe bezeichnen, ist es für uns bequemer, diese Operation mit dem „+“-Zeichen zu kennzeichnen. Offensichtlich, wenn B^4, dann A + A. Beispiele: 1) (1, 2, ..., 100) + (50, 51, ..., 200) -(1, 2, ..., 200 ); 2) A, 2, ..., 100) + (1, 2 1000) ~<1, 2, ..., 1000}; 3) {х2 + у2<2) + {х2 + у2<4}{2 + У2<4). Геометрическая интерпретация объединения двух множеств А и В дана на рис. 2.1.2, где А и В - множества точек, входящих соответственно в фигуры А и 5. Аналогично объединению двух множеств определяется объединение (сумма) нескольких мпожеств, а именно п Ах + А2+ ... + Лп - 2 Аг есть множество всех элементов, входящих хотя бы в одно из множеств Аи А2, ..., Ап- Рассматриваются также объединения бесконечного (счетного) числа множеств, например: A, 2} + {2, 3} + C, 4) + ... + {п - 1, и) + ... - «{1,2,3,...,/г, ...}. 40 ГЛ 2. АКСИОМАТИКА ТЕОРИИ ВЕРОЯТНОСТЕЙ Пересечением (произведением) множеств А и В называется множество D = А В, состоящее из элементов, входящих одновременно и в А и в В. Пересечение множеств А и В часто обозначают А Л В, но мы (опять-таки в целях удобства) будем обозначать эту операцию знаком произведения « » или «X», а иногда, как принято в алгебре, и совсем опуская этот знак. Очевидно, что если Bs^, то АВ = В. Примеры: {1, 2, ..., 100) X Х{50, 51, ..., 200) -E0, 51, ... ..., 100}; A, 2 100} -И, 2, ... Рис. 2^.3 ^ " 50} = {1, 2, ..., 50}. Геометрическая интерпретация пересечения (произведения) двух множеств А и В дана на рис. 2.1.3. Аналогично определяется пересечение нескольких п множеств; множество A1»AZ-... -Ап= JJ Ах состоит из i = l элементов, входящих одновременно во все множества Аи Л2, ..., Ап. Определение распространяется и на беско- ОО нечное (счетное) число множеств: Д Аг есть множество, г=1 состоящее из элементов, входящих одновременно во все множества Аи Аг, ..., Л„, ... Операции объединения (сложения) и пересечения (умножения) множеств обладают рядом свойств, аналогичных свойствам обычных сложения и умножения чисел: 1. Переместительное свойство: А+В = В + А\ А В = ВА. 2. Сочетательное свойство: (А+В) + С = А +(В + С)\ (АВ)С = А (ВС). 3. Распределительное свойство: А (В + С) Операции прибавления пустого множества и умножения на пустое множество также аналогичны соответствующим операциям над числами, если считать нуль за пустое множество: Л + 0-Л; А.0-0. 2.2. АКСИОМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 41 Однако некоторые операции над множествами не имеют аналогов в обычных операциях над числами; в частности для множеств А+А =А; А А=А. Пользуясь вышеизложенными элементарными сведениями по теории множеств, дадим теоретико-множественную схему построения теории вероятностей и ее аксиоматику. 2.2. Аксиомы теории вероятностей и их следствия. Правило сложения вероятностей В этом пункте мы изложим теоретико-множественный подход к основным понятиям теории вероятностей и сформулируем ее аксиомы. Пусть производится некоторый опыт (эксперимент, испытание) со случайным исходом (см. п. 1.1). Рассмотрим множество Q всех возможных исходов опыта; каждый его элемент со ^ Q будем называть элементарным событием, а все множество Q - пространством элементарных событий. Любое событие А в теоретико-множественной трактовке есть некоторое подмножество множества Q: A s Q. Если множество А распадается на несколько непересекающихся подмножеств А = A t + А2 + ... ... + Аа {Ах-А^0 при *¦*/), то будем называть события Аь А2у..., Ап «вариантами» события А (на рис. 2.2.1 событие А распадается на три варианта: Аи А21 А3). Примеры. 1) Опыт -бросание игральной кости; прост- Рпс. 2.2.1 ранство элементарных событий?2 = {1, 2, 3, 4, 5, 6). Каждое из указанных чисел очков - элементарное событие. Событие А = {выпадение четного числа очков)={2, 4, 6); варианты события А: 4,-Ш, Л2 = {4); А3 = Ш; А^А, + А2 + А3. 2) Опыт - выстрел по мишени, представляющей собой круг радиуса г с центром в начале координат (рис. 2.2.2). Элементарное событие со - попадание в любую точку с координатами (х, у)\ пространство элемен- 42 ГЛ. 2. АКСИОМАТИКА ТЕОРИИ ВЕРОЯТНОСТЕЙ тарных событий - вся плоскость хОу. Событие А = (попадание в мишень} «¦ {х2 + уг< г] есть подмножество пространства Q: A s Q. Варианты события Л: Л! = (попадание в правую половину мишени}; Л2 = (попадание в левую половину}; А, = {х2 + у2 < г2; х >0); L2 - (i2 + zu U + x in mehrere nicht überlappende Abschnitte, zum Beispiel in zwei :); Unter den Ereignissen, die Teilmengen der Menge Q sind, können wir Q selbst betrachten (schließlich ist jede Menge ihre eigene Teilmenge); es wird als zuverlässiges Ereignis bezeichnet (siehe die Definition eines zuverlässigen Ereignisses in Abschnitt 1.2). Die leere Menge 0 wird auch zum gesamten Raum Q der Elementarereignisse hinzugefügt; 2.2. AXIOMEN DER WAHRSCHEINLICHKEITSTHEORIE 43 Diese Menge wird auch als Ereignis betrachtet und als unmögliches Ereignis bezeichnet (siehe Abschnitt 1.2). Beachten Sie, dass Elementarereignisse im selben Experiment auf unterschiedliche Weise angegeben werden können; Wenn beispielsweise ein Punkt zufällig auf eine Ebene geworfen wird, kann die Position des Punktes entweder durch ein Paar kartesischer Koordinaten (x, y) oder durch ein Paar polarer Koordinaten (p, cp) angegeben werden. Lassen Sie uns die Eigenschaften von Ereignissen, die wir in Abschnitt 1.2 betrachtet haben, mengentheoretisch interpretieren. Mehrere Ereignisse A und A2, ..., An bilden eine vollständige n-Gruppe, wenn 2 ^ = 2. d. h. ihre Summe (Vereinigung) ist ein zuverlässiges Ereignis. Zwei Ereignisse A, B heißen inkompatibel, wenn sich die entsprechenden Mengen nicht schneiden, also AB = 0. Mehrere Ereignisse A und A2, ..., An heißen paarweise inkompatibel (oder einfach inkompatibel), wenn das Auftreten eines von ihnen das ausschließt Vorkommen von jedem von ihnen der Rest: A\Ai ^ 0 (für i Ф /). Da es sich bei Ereignissen um Mengen handelt, sind für sie die Operationen der Addition (Vereinigung) und Multiplikation (Schnittmenge) genauso definiert wie für Mengen im Allgemeinen, und die Operationen selbst haben dieselben Eigenschaften. Angesichts der Bedeutung dieser Operationen auf Ereignisse geben wir ihre Definitionen an: Die Summe zweier Ereignisse A und B ist das Ereignis C, das aus der Ausführung von Ereignis A oder Ereignis 5 oder beiden Ereignissen zusammen besteht (siehe Abb. 2.1.2). Die Summe mehrerer Ereignisse ist ein Ereignis, das aus der Erfüllung mindestens eines dieser Ereignisse besteht. Das Produkt zweier Ereignisse A und B wird Ereignis D genannt, das aus der gemeinsamen Ausführung von Ereignis A und Ereignis B besteht (Abb. 2.1.3). Das Produkt mehrerer Ereignisse ist ein Ereignis, das aus dem gemeinsamen Auftreten aller dieser Ereignisse besteht. Reis. 2.2.4 Das Gegenteil von Ereignis A ist das Ereignis A, das im Nichteintreten von A besteht und es daher zu Q ergänzt (Abb. 2.2.4). Basierend auf der obigen Interpretation von Ereignissen als Mengen formulieren wir die Axiome der Wahrscheinlichkeitstheorie. 2. Axiomatik der Wahrscheinlichkeitstheorie aber damit. Jedem Ereignis A sei eine bestimmte Zahl zugeordnet, die sogenannte Wahrscheinlichkeit des Ereignisses. Wir bezeichnen die Wahrscheinlichkeit des Ereignisses A als P(A)*). Da jedes Ereignis eine Menge ist, ist die Wahrscheinlichkeit eines Ereignisses eine Funktion der Menge. Wir werden verlangen, dass die Wahrscheinlichkeiten von Ereignissen die folgenden Axiome erfüllen: 1. Die Wahrscheinlichkeit eines Ereignisses liegt zwischen Null und Eins: 2. Wenn A und B inkompatible Ereignisse sind (AB - 0), dann B.2.1) Axiom B.2.1 ) lässt sich leicht verallgemeinern (unter Verwendung der Kombinationseigenschaften der Addition) für eine beliebige Anzahl von Ereignissen: wenn AiAi*=0 bei GF], dann PI V A. I V ð/1\ /о о о\ d. h. die Wahrscheinlichkeit der Summe von inkompatible Ereignisse ist gleich der Summe der Wahrscheinlichkeiten dieser Ereignisse. Das Axiom der Addition von Wahrscheinlichkeiten (B.2.2) wird manchmal als „Additionssatz“ bezeichnet (für Experimente, die sich auf ein Schema von Fällen reduzieren lassen, kann es bewiesen werden), ebenso wie die Regel der Addition von Wahrscheinlichkeiten (wir verwenden vorzugsweise das Letzterer Begriff).**) 3. Wenn es eine abzählbare Menge inkompatibler Ereignisse Ai, Ai..., An, ... gibt (AiAj = 0 für iФ]), dann RU 1 У D/l\ /OO Q \ Das dritte Axiom muss separat eingeführt werden, da es nicht aus dem zweiten abgeleitet wird. Kehren wir zu den Konzepten „vollständige Gruppe von Ereignissen“, „inkompatiblen Ereignissen“, „gleichermaßen möglichen Ereignissen“ über Co- zurück. ¦) Wenn ein Ereignis (eine Menge) nicht durch einen Buchstaben, sondern durch seine verbale Beschreibung bezeichnet wird, oder eine Formel oder einfach die Auflistung der Elemente der Menge, die wir haben werden. Verwenden Sie für Wahrscheinlichkeitsdatensätze beispielsweise geschweifte Klammern anstelle von runden ¦) Erinnern wir uns daran, dass die Häufigkeiten von Ereignissen (Abschnitt 1.3) ebenfalls dieser Regel folgen. 2.2 AXIOME DER WAHRSCHEINLICHKEITSTHEORIE 45, die wir in Abschnitt 1.2 besprochen haben, und werden ihnen eine mengentheoretische Formulierung geben. Das Konzept der „inkompatiblen Ereignisse“ haben wir bereits untersucht: Die Ereignisse Ai A2, ..., An sind inkompatibel, wenn A(A) = *0 für i Ф /. Ereignisse Li, A2, ..., An bilden eine vollständige Gruppe, wenn 2 Ar = a. B.2.4) Ereignisse Aiy A2i..., An sind gleichermaßen möglich, wenn...-P(^). B.2.5) Wenn eine Gruppe von Ereignissen alle drei Eigenschaften – Vollständigkeit, Inkonsistenz und gleiche Möglichkeit – aufweist, dann werden sie Fälle genannt. Leiten wir aus dem Additionsaxiom B.2.2) die „klassische“ Formel A.2.1) zur direkten Berechnung von Wahrscheinlichkeiten ab. Lassen Sie die Ergebnisse des Experiments in vpde n Fällen L„ Ar% ..., An präsentieren. Der Fall A( ist für das Ereignis A günstig, wenn er eine Teilmenge von A (A,^A) ist, andernfalls ist er eine Variante des Ereignisses A. Da die Fälle Ac Ar, ..., An eine vollständige Gruppe bilden, dann 2 A, - Q. Da die Fälle A und Ar, ..., An inkonsistent sind, gilt für sie die Regel der Addition von Wahrscheinlichkeiten: Da die Fälle A und A2, ..., AL gleichermaßen möglich sind, dann P(AX)-P(A%)~ ... -PDp) -1/p. Günstige Fälle von Ereignis A ergeben sich aus der Anzahl seiner Varianten; Da die Wahrscheinlichkeit für jeden von ihnen gleich 1/u ist, ist dies gemäß der Additionsregel seit a die „klassische Formel“ A.2, die uns bereits bekannt ist. 1). 46 GL. 2. AXIOMATIK DER WAHRSCHEINLICHKEITSTHEORIE Die Axiome der Wahrscheinlichkeitstheorie ermöglichen es uns, die Wahrscheinlichkeiten beliebiger Ereignisse (Teilmengen des Raums Q) anhand der Wahrscheinlichkeiten elementarer Ereignisse (sofern es eine endliche oder abzählbare Anzahl davon gibt) zu berechnen. Die Frage, woher die Wahrscheinlichkeiten elementarer Ereignisse kommen, wird nicht berücksichtigt. In der Praxis werden sie entweder direkt durch die Bedingungen des Experiments bestimmt (wenn es eine Symmetrie der möglichen Ergebnisse aufweist) oder auf der Grundlage experimenteller statistischer Daten (wenn es keine solche Symmetrie aufweist, was viel häufiger vorkommt). Die Regel zum Addieren von Wahrscheinlichkeiten hat eine Reihe wichtiger Konsequenzen. Als einer von ihnen werden wir beweisen, dass die Summe der Wahrscheinlichkeiten der gesamten Gruppe inkompatibler Ereignisse gleich eins ist, das heißt, wenn n 2 Ai = Q; AiAj= 0 für i f /, dann n 2P (AL - \ /o ofi\ Da die Ereignisse A und A2, ..., An inkompatibel sind, gilt für sie tatsächlich die Additionsregel: / n \ n 24 - 2 U-l I i=l Wenn insbesondere zwei Ereignisse A und A entgegengesetzt sind, dann bilden sie eine vollständige Gruppe inkompatibler Ereignisse, und das heißt, die Summe der Wahrscheinlichkeiten entgegengesetzter Ereignisse ist gleich eins. Diese Eigenschaft entgegengesetzter Ereignisse wird in der Wahrscheinlichkeitstheorie sehr häufig verwendet. Es ist oft einfacher, die Wahrscheinlichkeit des entgegengesetzten Ereignisses A% zu berechnen als die Wahrscheinlichkeit des Ereignisses A, das uns interessiert. Berechnen Sie dann P(A), subtrahieren Sie es von der Einheit und finden Sie: P( A)-1-P(A). B.2.7); Wir werden diese Technik in Zukunft sehr oft anwenden. 2 2. AXIOME DER WAHRSCHEINLICHKEITSTHEORIE 47 Lassen Sie uns eine weitere Konsequenz der Additionsregel ableiten. Wenn die Ereignisse A und B gemeinsam sind (AVF 0), dann ist P (A + B) = P (A) + P (B) – P (AB). B.2.8) Lass es uns beweisen. Stellen wir uns das Ereignis A + B als Summe dreier inkompatibler Optionen vor (siehe Abb. 2.2.5) A + B = (A, aber nicht B) + (B, aber nicht A) + AB = „Nach der Additionsregel P (A + B) - P (AB) + P (BA) + P (AB). B.2.9) Aber A = AB~+AB; P(A) = P(AB) + P(AB); B = BA + AB; P(B) = P(VA) + P(AB); von wo A. B.2.10) Abb. 2.2.5 Durch Einsetzen der Ausdrücke B.2.10) in B.29) erhalten wir P(A + R) = - P (A) - P (AB) + P (B) - P (LV) + + P (AB) - P (L) + P (V) - P (L?), was bewiesen werden musste. Formeln wie B.2.9) lassen sich für mehr als zwei gemeinsame Ereignisse ableiten, wir gehen hierauf aber nicht weiter ein. Wir laden den Leser ein, unabhängig die Formel für die Wahrscheinlichkeit der Summe der drei gemeinsamen Ereignisse A, B und C abzuleiten (Abb. 2.2.6): + P (B) + P (C) – P (AB) – P ( AS) - P (BC) + R (ABC). Beachten Sie, dass die Methode zur direkten Berechnung von Wahrscheinlichkeiten A.2.1) manchmal auf den Fall ausgeweitet werden kann, dass die Menge der Elementarereignisse überzählig ist, zum Beispiel handelt es sich um eine Ansammlung von Punkten auf einer Ebene innerhalb einer bestimmten Region J (Abb. 2.2.7). Die Erfahrung ist, dass innerhalb der Region Q " nach dem Zufallsprinzip" Punkt U wird geworfen. Der Ausdruck "Fall- Kap. 2. AXIOMATIK DER WAHRSCHEINLICHKEITSTHEORIE „bedeutet in diesem Fall, dass alle Punkte der Fläche Q hinsichtlich des dort fallenden zufälligen Punktes U „gleich“ sind – er wird „zufällig“ geworfen, ohne dass eine Position gegenüber einer anderen bevorzugt wird. Dann ist es natürlich anzunehmen, dass die Trefferwahrscheinlichkeit Abb. 2.2.7 Punkt JJ ​​zu einer Fläche A (Teilmenge Q) ist proportional zur Fläche dieser Fläche: P (A) - P (U e A) - SA/SQf B.2.11), wobei 5A die Fläche ist der Fläche A, „So -Fläche der gesamten Figur Q. Dies ist die Grundlage für die Berechnung von Wahrscheinlichkeiten bei einigen Problemen (manchmal auch „geometrisch“ genannt). Lassen Sie uns einige Beispiele nennen. Beispiel 1. Zwei Personen – 4 und B – einigten sich darauf, sich an einem bestimmten Ort zu treffen, und vereinbarten lediglich, dass alle jederzeit zwischen 13:00 und 13:30 Uhr dort erscheinen würden. und wartet 15 Minuten. Ist der Partner zu diesem Zeitpunkt noch nicht eingetroffen oder hat er den vereinbarten Ort bereits verlassen, findet das Treffen nicht statt. Ermitteln Sie die Wahrscheinlichkeit, dass das Treffen stattfindet. Lösung. Ein Elementarereignis с wird durch zwei Parameter charakterisiert: Wählen wir 13 Stunden als Ausgangspunkt und 1 Stunde als Maßeinheit und konstruieren wir den Raum der Elementarereignisse Q auf der xOy-Ebene. Dies ist ein Quadrat mit einer Seitenlänge von 0,5 (Abb. 2.2.8), 2,2 . AXIOME DER WAHRSCHEINLICHKEITSTHEORIE 49 Ereignis C = (Treffen) tritt ein, wenn die Differenz zwischen x und y im absoluten Wert 0,25 Stunden und 5 Minuten nicht überschreitet. Region C, „günstig“ für dieses Ereignis, in Abb. 2.2.8 ist schattiert. Seine Fläche ist gleich der Fläche des gesamten Quadrats SQ - 0,52 ¦ = 0,25 ohne die Summe der Flächen der beiden in Abb. nicht schattierten Eckdreiecke. 2.2.8: So - SQ - 2 .A/2) 0,252 - 0,1875. Daher 0,25 0,5 X Abb. 2.2.8, dass diese Teile zur Bildung von Beispiel 2 verwendet werden können. Ein Stab mit einer Längeneinheit wird willkürlich in drei Teile x, y und z zerlegt (Abb. 2.2.9). Finden Sie die Wahrscheinlichkeit eines Dreiecks. Lösung. Das Elementarereignis с ist durch zwei Parameter hnu gekennzeichnet, denn z ¦¦ 1 - (x + y). Sie unterliegen Einschränkungen: i > 0, y > 0, x + y< < 1. Пространство элементарных событий Q есть внутренняя часть прямоугольного треугольника с катетами, равными единице (рис. 2.2.10). Его площадь Sq ¦-1/2. Условие А, чтобы из отрезков х, у, 1 - - {х + у) можно было составить треугольник, сводится к следую- X У Рис. 2.2.9 0,6 1 а? Рис. 2.2.10 щим: 1) сумма любых двух сторон больше третьей; 2) разность любых двух сторон меньше третьей. Этим условиям соответствует треугольная область А, заштрихованная на рис. 2.2.10 с площадью 5А - A/2) A/4); отсюда Р(А)=* -Sa/Sq-Щ. >Beispiel 3. Buffons Problem. Die Ebene wird auf parallelen Linien im Abstand L voneinander dargestellt* (Abb. 2.2.11). Eine Nadel der Länge I wird zufällig auf das Flugzeug geworfen< L. Найти вероятность того, что игла пересечет одну из прямых, 50 ГЛ 2 АКСИОМАТИКА ТЕОРИИ ВЕРОЯТНОСТЕЙ Решение. Исход опыта (положепие иглы на плоскости) будем описывать двумя координатами: я-абсцисса центра иглы относительно ближайшей прямой слева и ф -угол, который составляет игла с прямыми (рис. 2.2.12). Очевидно, что все значения х и ф равно- возможны (в этом и проявляется бросание иглы «наугад»). Очевидно, можно (не теряя общности) ограничить V 1/2 Л/2 L L L Рис. 2.2.11 X L Рис. 2.2.12 1/2 ос Рис. 2.2.13 возможные значения х участком от 0 до L/2, а ф-от О до я/2, рассматривая возможность пересечения только с одной (ближайшей левой) прямой. Прямоугольник па плоскости хОу со сторонами LI2 и я/2 (рис. 2.2.13) представляет пространство элементарных событий Й; SQ =* = Zji/4. Если абсцисса х центра иглы будет меньше, чем -7j- sin ф, то игла пересечет прямую, интересующее нас Л Л f ^ * " \ , * событие A = j?<-7psin ф| (см. заштрихованную область на рис. 2.2.13). Площадь этой области л/а I . / 21 -тр sin yd ф = -?-; Р (А) «» S^/S^ = ^у. > o -I 2.3. Bedingte Wahrscheinlichkeit eines Ereignisses. WahrschLassen Sie ein Experiment mit einem zufälligen Ergebnis durchführen, wodurch einige Ereignisse A und B eintreten (oder nicht eintreten) können. Die bedingte Wahrscheinlichkeit des Ereignisses B in Gegenwart von A ist der Wert P(B\ A) = P(AB)/P (A) B.3.1) (dies setzt voraus, dass 2 3 BEDINGTE WAHRSCHEINLICHKEIT EINES EREIGNISSES 51 Erinnern wir uns daran, wie wir in Absatz 1.3 die bedingte Häufigkeit von Ereignis B in Gegenwart von A bestimmt haben; eins Eine Möglichkeit, dies zu bestimmen, bestand darin, die Häufigkeit des Ereignisses AB durch die Häufigkeit des Ereignisses A zu dividieren. Die bedingte Häufigkeit hat eine andere Bedeutung: Sie ist die Häufigkeit des Ereignisses B, berechnet unter der Bedingung, dass Ereignis A eingetreten ist. Auf die gleiche Weise , kann die bedingte Wahrscheinlichkeit P(B\A) als die Wahrscheinlichkeit von Ereignis 5 interpretiert werden, berechnet unter der Bedingung (unter der Annahme), dass Ereignis A eingetreten ist. In der Praxis wird Formel B.3.1) normalerweise „in umgekehrter Reihenfolge“ gelesen. , für die es in der Form geschrieben wird: P\AB) = P(A).P(B\A), B.3.2), d. h. die Wahrscheinlichkeit des Produkts (Schnittpunkt, Kombination) zweier Ereignisse ist gleich der Wahrscheinlichkeit eines von ihnen multipliziert mit der bedingten Wahrscheinlichkeit des zweiten in Gegenwart des ersten. Wir nennen die formulierte Regel die Regel der Wahrscheinlichkeitsmultiplikation*). Ihr statistisches Analogon – die Frequenzmultiplikationsregel – haben wir bereits in Abschnitt 1.3 betrachtet. Es liegt auf der Hand, dass es keine Rolle spielt, welches Ereignis man als erstes und welches als zweites wählt. Daher kann die Regel zur Multiplikation von Wahrscheinlichkeiten auch in der Form P(B).P(A\B) B.3.3) geschrieben werden (es wird angenommen, dass P(B)fO). Wenn Ereignis A zuverlässig ist (A = th), dann ist offensichtlich Q > B = B und P(Q.?) = PB?). Beispiel 1. Aus einer Urne mit 4 weißen und 3 schwarzen Kugeln werden zwei Kugeln gezogen (gleichzeitig oder nacheinander). Bestimmen Sie die Wahrscheinlichkeit, dass beide Kugeln weiß sind. Lösung. Stellen wir uns das Ereignis C = (beide Kugeln sind weiß) als Produkt zweier Ereignisse vor: wobei A = (die erste Kugel ist weiß), B = (die zweite Kugel ist weiß). *) Manchmal wird diese Regel als Wahrscbezeichnet. 52 KAPITEL 2 AXIOMATIK DER WAHRSCHEINLICHKEITSTHEORIE Lassen Sie uns die Wahrscheinlichkeit des Ereignisses C mithilfe der Formel B.3.2 ermitteln: Offensichtlich ist P (-A) = 4/7. Finden wir P(B\A). Gehen Sie dazu davon aus, dass Ereignis A bereits eingetreten ist, d. h. die erste Kugel war weiß. Danach sind noch 6 Kugeln in der Urne, davon 3 weiß: p (jS | L) - 3/6 - 1/2. Daher P(O-D/7)-A/2)-2/7. Übrigens haben wir in Beispiel 2 von Abschnitt 1.2 genau die gleiche Wahrscheinlichkeit dafür erhalten, dass zwei weiße Kugeln auf unterschiedliche Weise erscheinen. > Beispiel 2. In der Urpa befinden sich 5 weiße und 2 schwarze Kugeln. Daraus werden nacheinander zwei Kugeln entnommen. Ermitteln Sie die Wahrscheinlichkeit, dass sie unterschiedliche Farben haben. Lösung: Das Ereignis C = (Bälle unterschiedlicher Farbe) zerfällt in die Summe zweier inkompatibler Optionen: C-d + d, wobei Cr = (der erste Ball ist weiß, der zweite ist schwarz), Cr = (der erste Ball ist schwarz, der zweite ist weiß). Wir ermitteln die Wahrscheinlichkeit jeder Option mithilfe der Multiplikationsregel. Ohne spezielle Buchstabenbezeichnungen für die Ereignisse einzuführen, deren Produkt die Option C bildet, berechnen wir ihre Wahrscheinlichkeit sofort mithilfe der Multiplikationsregel: Wir multiplizieren die Wahrscheinlichkeit, dass die erste Kugel weiß ist, mit der bedingten Wahrscheinlichkeit, dass die zweite Kugel schwarz ist, vorausgesetzt, dass die erste Kugel weiß ist weiß: P( C1)-E/7).B/6)-5/21. Wir berechnen auch die Wahrscheinlichkeit der zweiten Option: P(C1)-B/7).E/b)-5/21. Daher gilt nach der Regel der Addition von Wahrscheinlichkeiten ¦) Wir haben bereits gesagt, dass es keinen Unterschied macht, ob die Kugeln nacheinander oder gleichzeitig gezogen werden; im zweiten Fall können Sie sie beliebig umnummerieren. 2.3 BEDINGTE WAHRSCHEINLICHKEIT DES EREIGNISSES 53 Die Regel zur Multiplikation von Wahrscheinlichkeiten B.3.2) lässt sich leicht auf den Fall verallgemeinern irgendeine Nummer Ereignisse: P(AxA2...An) = - P(Ax) P(A%\A1)P(Ar\A1A%)... P(Ap\AxA2...An_x), B.3.4) t. h. die Wahrscheinlichkeit des Eintretens mehrerer Ereignisse ist gleich dem Produkt der Wahrscheinlichkeiten dieser Ereignisse, und die Wahrscheinlichkeit jedes nachfolgenden Ereignisses wird berechnet, vorausgesetzt, dass alle vorherigen Ereignisse stattgefunden haben. Beispiel 3. In der Urne befinden sich 5 neu nummerierte Kugeln mit den Nummern 1, 2, 3, 4, 5. Alle 5 Kugeln werden einzeln aus der Urne genommen. Ermitteln Sie die Wahrscheinlichkeit, dass ihre Zahlen in aufsteigender Reihenfolge vorliegen. Lösung. Ereignis A = (1, 2, 3, 4, 5). Gemäß Formel B.3.4) P(A) - A/5).A/4).A/3).A/2) - 1/120. > Die Regel zur Multiplikation von Wahrscheinlichkeiten nimmt eine besonders einfache Form an, wenn die Ereignisse, die das Produkt bilden, unabhängig sind. Ereignis A heißt unabhängig von Ereignis B, wenn seine Wahrscheinlichkeit nicht davon abhängt, ob B eingetreten ist oder nicht, d. h. P (A\B) = P (A), andernfalls, wenn P(A\B)FR( A) Y Ereignis A hängt von B ab. Die Abhängigkeit und Unabhängigkeit von Ereignissen sind immer gegenseitig: Wenn A von B abhängt, dann hängt auch B von A ab und umgekehrt. Lass es uns beweisen. Das Ereignis A hänge nicht von B ab: P (A | B) » P (A). Schreiben wir die Multiplikationsregel in zwei Formen: p (AB) - P (A) P (B | A) « P (B) P (A | B). B.3.5) Wenn wir also die bedingte Wahrscheinlichkeit P(A\B) im letzten Ausdruck durch die „unbedingte“ Wahrscheinlichkeit P(A) ersetzen, erhalten wir: P(A)P(B\A) = P(B)P( A). Oder man nimmt an, dass P(A)fO, und dividiert beide Seiten der Gleichheit durch P(A), d. h. das Ereignis B hängt nicht von A ab, was bewiesen werden musste. 54 KAPITEL 2. AXIOMATIK DER WAHRSCHEINLICHKEITSTHEORIE In diesem Zusammenhang können wir eine neue Definition unabhängiger Ereignisse geben: Zwei Ereignisse werden als unabhängig bezeichnet, wenn das Eintreten eines von ihnen die Wahrscheinlichkeit des Eintretens des anderen nicht ändert. Beispiel 4. Das Experiment besteht darin, zwei Münzen nacheinander zu werfen; Folgende Ereignisse werden berücksichtigt: A = (Erscheinen des Wappens auf der ersten Münze), B = (Erscheinen des Wappens auf der zweiten Münze). Aus physikalischen Überlegungen ist klar, dass das Erscheinen eines Wappens auf einer der Münzen keinerlei Einfluss auf die Wahrscheinlichkeit des Erscheinens eines Wappens auf der anderen Münze hat: P(A); P(B\A) = P(B). Die Ereignisse A und B sind unabhängig. > Beispiel 5. In der Urne befinden sich 2 weiße und 3 schwarze Kugeln; Zwei Personen nehmen jeweils eine Kugel aus der Urne. Folgende Ereignisse werden berücksichtigt: A = (das Erscheinen einer weißen Kugel durch die erste Person), B = (das Erscheinen einer weißen Kugel durch die zweite Person), die Ereignisse A und B sind abhängig. > Für unabhängige Ereignisse hat die Regel zur Multiplikation von Wahrscheinlichkeiten eine besonders einfache Form: P(AB) = P(A)P(B), B.3.6), d. h. die Wahrscheinlichkeit des Produkts zweier unabhängiger Ereignisse ist gleich dem Produkt der Wahrscheinlichkeiten dieser Ereignisse. Aus Formel B.3.6) lässt sich leicht eine Folgerung ableiten: Wenn die Ereignisse A und B unabhängig sind, dann sind auch die Ereignisse A und B, A und B, A und B unabhängig. Beweisen wir zum Beispiel, dass A und B unabhängig sind (für andere Paare wird der Beweis ähnlich sein). Stellen wir uns Ereignis A als Summe zweier Optionen vor: Nach der Additionsregel: 2.3. BEDINGTE WAHRSCHEINLICHKEIT DES EREIGNISSES 55 V P(AB) = P (A) - P (AB) = P(A) - P (A).P(B) = = P(A)C-P(B)] = P( A) .P(B), was zeigt, dass die Ereignisse A und B unabhängig sind. Mehrere Ereignisse A(, A2j ..., An heißen unabhängig, wenn eines von ihnen nicht von einer Kombination (Produkt) einer beliebigen Anzahl anderer abhängt. Für unabhängige Ereignisse hat die Multiplikationsregel die Form: P(AGA%.. .. -An) - P(Ag).P(A2).... -P(An) B.3.7) oder kurz gesagt mit dem Produktzeichen: Das heißt, die Wahrscheinlichkeit, mehrere unabhängige Ereignisse hervorzurufen, ist gleich zum Produkt der Wahrscheinlichkeiten dieser Ereignisse. Beachten Sie, dass bei mehreren Ereignissen Ai A2, ..., A ihre paarweise Unabhängigkeit (d. h. die Unabhängigkeit zweier beliebiger Ereignisse Ai und A mit unterschiedlichen Indizes) nicht ihre Unabhängigkeit im Aggregat bedeutet. Lassen Sie uns dies an einem konkreten Beispiel überprüfen. Beispiel 6. Angenommen, es gäbe einen Computer, in dem Informationen in Form von Nullen und Einsen gespeichert sind; Diese Informationen müssen von Zeit zu Zeit von einem Ort zum anderen gesendet werden. Bei der Übertragung kommt es zwar zu Fehlern, wenn auch selten. Um sie zu bekämpfen, tun sie Folgendes: Sie senden nicht jeweils ein 0- oder 1-Zeichen (Bit), sondern drei gleichzeitig: #o, X\y Xr. Davon sind xi xg diejenigen Zeichen, die uns interessieren und die wir senden müssen, und x0 ist ein zusätzliches Zeichen, das Kontrollzwecken dient und von der Maschine automatisch erstellt wird, sodass die Summe xo + + Xi + x2 gerade ist. Nach jeder Überweisung wird dieser Betrag auf Gleichmäßigkeit überprüft; Stellt sich heraus, dass es ungerade ist, wird ein Fehlersignal ausgegeben. Nehmen wir an, dass die x2 Zeichen, die wir senden möchten, mit einer Wahrscheinlichkeit von 1/2 und unabhängig voneinander den Wert 0 oder 1 annehmen. Betrachten Sie die Ereignisse: 56 CH. 2. AXIOMATIK DER WAHRSCHEINLICHKEITSTHEORIE Finden wir die Wahrscheinlichkeiten dieser Ereignisse, ihre paarweisen Produkte A0Al1 AQA2, AtA2, sowie das Produkt aller drei: A0A(A2. Nach Bedingung P (Ax) = P (A2) =* 1 /2, P (AgA2) - P (L J.P (A2) ". 1/4. Finden wir P (Ao). Das Ereignis Lo tritt auf, wenn ^i = x2 = 0 oder X! = ^2 = 1, d. h. es zerfällt in zwei Optionen: Lo = AiA2 + Rdg, woraus 12) + P(LHL2) - A/2)-A/2) + A/2).A/2) - 1/2. Bei den Ereignissen A*A und A0A2, A0AxAg handelt es sich um ein und dasselbe Ereignis, das mit AХА2 zusammenfällt: Jedes von ihnen tritt genau dann auf, wenn xx = xr = 0. Ihre Wahrscheinlichkeiten: Von hier aus ist klar, dass die Ereignisse Lo und Ar sind unabhängig, da die Wahrscheinlichkeit ihres Produkts gleich dem Produkt der Wahrscheinlichkeiten ist: P (AOAX) - 1/4 - A/2). A/2) - P (Lo) P (Lx). Es ist klar, dass aus dem gleichen Grund die Ereignisse Ao und A2 unabhängig sind. Folglich sind die Ereignisse Ao, Aif Ar paarweise unabhängig. Nun wollen wir sehen, ob sie in ihrer Gesamtheit unabhängig sind? Offensichtlich nicht, da die Wahrscheinlichkeit ihres Produkts nicht gleich dem Produkt der Wahrscheinlichkeiten ist: P (A0AxA2) - 1/4 F P (Lo) P (Ax) P (A2) - 1/8. Daher sind wir davon überzeugt, dass die paarweise Unabhängigkeit von Ereignissen nicht ihre Unabhängigkeit im Aggregat bedeutet. Das betrachtete Beispiel ist im Vergleich zur Realität bewusst vereinfacht: In realen Computern werden Bits nicht in Tripletts, sondern in großen Portionen („Bytes“) gesendet. > Die Unabhängigkeit von Ereignissen basiert auf ihrer physischen Unabhängigkeit, die darauf hinausläuft, dass sich die Mengen zufälliger Faktoren, die zu dem einen oder anderen Ergebnis der Erfahrung führen, nicht überschneiden (oder fast nicht überschneiden). Zum Beispiel, wenn die Erfahrung darin besteht, dass zwei Personen zu zweit sind verschiedene Städte sie werfen eine Münze, dann die Ereignisse A = (das Wappen der ersten Person fällt heraus) und B =» 2.3. BEDINGTE WAHRSCHEINLICHKEIT DES EREIGNISSES 57 „= (das zweite Wappen fällt heraus) kann getrost als unabhängig betrachtet werden. Besteht die Erfahrung darin, dass jemand n-mal auf ein Ziel schießt, jedes Mal aufs Neue und ohne Korrektur eines zuvor begangenen Fehlers, dann sind die Ereignisse A und A2, ..., An, wobei Ai = (Treffer bei Ich habe geschossen) kann als unabhängig betrachtet werden. Wenn in einem Schuss mit einer automatischen Waffe geschossen wird und das Zielen einmal vor dem gesamten Schuss erfolgt, sind die gleichen Ereignisse bereits abhängig, da der Zielfehler ein gemeinsamer Zufallsfaktor ist, der sich auf alle Schüsse auswirkt. Wir wissen, dass es in der Natur keine absolut unabhängigen Phänomene gibt, wohl aber praktisch unabhängige. Ähnlich verhält es sich mit Ereignissen: Bei einigen von ihnen ist die Abhängigkeit so schwach, dass man sie in Berechnungen als unabhängig annehmen und bei der Berechnung der Wahrscheinlichkeit ihres Eintretens einfach die Wahrscheinlichkeiten dieser Ereignisse multiplizieren kann. Eng verwandt mit dem Konzept der „unabhängigen Ereignisse“ ist das Konzept der „unabhängigen Erfahrungen“. Mehrere Experimente werden als unabhängig bezeichnet, wenn ihre Ergebnisse unabhängige Ereignisse sind. Ein Beispiel für unabhängige Experimente: n Münzwürfe, bei denen jeweils ein „Wappen“ oder „Zahl“ vorkommen kann. Ein Beispiel für abhängige Experimente: An n Tagen hintereinander wird die Lufttemperatur t° am gleichen Punkt zur gleichen Tageszeit gemessen; Als Ergebnis jedes Experiments können Ereignisse A = U° auftreten oder auch nicht< 0}; В = {0 < Г < 10°С} и С = {*° > 10°C). Es ist ganz offensichtlich, dass die Erfahrungen abhängig sind. Beispiel 7. Kehren wir zu Absatz 1.1 zurück und berechnen Sie die Wahrscheinlichkeit, dass wir als Ergebnis der beschriebenen 25 Experimente die erste Zeile von „Eugen Onegin“ schreiben werden. Lösung. 25 Experimente im Beispiel von Abschnitt 1.1 sind unabhängig; Wenn wir die Multiplikationsregel für unabhängige Ereignisse anwenden, erhalten wir: d. h. die Wahrscheinlichkeit von Ereignis A ist so gering, dass es mit Sicherheit als nahezu unmöglich angesehen werden kann. > Beispiel 8. Berechnen Sie die Wahrscheinlichkeit des Ereignisses B = *= (bei N = 600 Münzwürfen erscheint das Wappen alle 600 Mal). 58 KAPITEL 2. AXIOMATIK DER WAHRSCHEINLICHKEITSTHEORIE Lösung. Nach der Multiplikationsregel für unabhängige Ereignisse P(R)==A/2N00 «2,4(M(Gsh), was immer noch deutlich kleiner ist als die Wahrscheinlichkeit des Ereignisses A im vorherigen Beispiel. > 2.4. Beispiele für die Anwendung der Grundregeln der Wahrscheinlichkeitstheorie Die Additionsregel und die Regel Wahwerden selten getrennt verwendet, normalerweise werden sie zusammen verwendet. Am typischsten ist das folgende Schema: Das Ereignis A, dessen Wahrscheinlichkeit ermittelt werden muss, wird als Summe mehrerer Optionen dargestellt . Jede der Optionen wird als Produkt einiger Ereignisse dargestellt. Die Wahrscheinlichkeit jeder Option wird gemäß der Multiplikationsregel berechnet, dann werden die Wahrscheinlichkeiten der Optionen addiert. Es gibt auch komplexere Schemata, bei denen die Wahrscheinlichkeit jeder Option berechnet wird Die Ereignisse, deren Produkt die Option bildet, werden wiederum über die Additionsregel usw. berechnet. Nachfolgend geben wir einige Beispiele für die Anwendung der Grundregeln der Wahrscheinlichkeitstheorie. Beispiel 1. Es gibt zwei Urnen, die Die erste enthält 2 weiße und 3 schwarze Kugeln, die zweite enthält 4 weiße und 2 schwarze. Aus jeder Urne wird eine Kugel gezogen. Finden Sie die Wahrscheinlichkeit, dass sie die gleiche Farbe haben. Lösung. Das Ereignis A = (beide Kugeln haben die gleiche Farbe) kann als Summe zweier Optionen dargestellt werden: Die Kugeln sind weiß); Ar = (obj ball black); Jede der Optionen ist das Produkt zweier Ereignisse: ili-Bi-D,; А, -С, -С„ wobei 2?i« (eine weiße Kugel wird aus der ersten Urne entnommen), 2?2 = (eine weiße Kugel wird aus der zweiten Urne entnommen), C, «=* (eine schwarze Kugel wird aus der ersten Urne entnommen), Cr „¦ (eine schwarze Kugel wird aus der zweiten Urne entnommen), 2 4. ANWENDUNGEN DER REGELN DER WAHRSCHEINLICHKEITSTHEORIE 59 Ereignisse Vi B2 sind unabhängig voneinander; auch Ereignisse C, C2. Unter Anwendung der Multiplikationsregel für unabhängige Ereignisse (B.3.7) erhalten wir: P (A,) - P (Br) P (B2) - B/5).D/6) - 4/15; p (A2) = P (Cx) P (C2) - C/5). B/6) = 1/5. Da die Optionen At und Ar inkompatibel sind, gilt nach der Additionsregel p (A) ~ P (Ar) + P (A2) = 4/15 + 1/5 – 7/15. > Beispiel 2. Ermitteln Sie unter den Bedingungen des vorherigen Beispiels die Wahrscheinlichkeit, dass die Kugeln unterschiedliche Farben haben: D = (Bälle unterschiedlicher Farbe). Lösung: Es wäre natürlich möglich, D wie im vorherigen Beispiel als Summe zweier Optionen darzustellen: Dx = (aus der ersten Urne wird eine weiße Kugel gezogen, aus der zweiten eine schwarze), Z>2 = (aus der ersten Urne wird eine schwarze Kugel gezogen, aus der zweiten eine weiße), aber es wird viel einfacher sein, das Problem mit den Ergebnissen des vorherigen Beispiels zu lösen; tatsächlich ist Ereignis D das Gegenteil von Ereignis A im vorherigen Beispiel: D = A, woraus P (D) « 1 – P (A) = 8/15. > Beispiel 3. Drei unabhängige Schüsse werden auf ein Ziel abgefeuert; Die Wahrscheinlichkeiten, das Ziel mit dem ersten, zweiten und dritten Schuss zu treffen, sind gleich, Ri Pr, Pz. Bestimmen Sie die Wahrscheinlichkeit, dass genau zwei Treffer auf das Ziel fallen. Lösung. Stellen wir das Ereignis A = (genau zwei Treffer) als Summe von drei inkompatiblen Optionen dar: A = (Treffer beim ersten, Treffer beim zweiten und Fehlschuss beim dritten Schuss) + + (Treffer beim ersten, Fehlschuss beim dritten Schuss). Zweiter und Treffer beim dritten Schuss) + + (Fehltreffer beim ersten, Treffer beim zweiten und Treffer beim dritten Schuss). Die Fehlschusswahrscheinlichkeiten für den ersten, zweiten und dritten Schuss betragen 1 – ri 1 – /?2 bzw. 1 – p3. 60 GL. 2. AXIOMATIK DER WAHRSCHEINLICHKEITSTHEORIE Wenn wir die Multiplikationsregel für unabhängige Ereignisse anwenden und die Wahrscheinlichkeiten der Optionen addieren, erhalten wir Plp2(l - p3) + Pi(l - Pr)P3 + A - Pi) Beispiel 4. Unter den Bedingungen von Ermitteln Sie im vorherigen Beispiel die Wahrscheinlichkeit von mindestens einem Treffer. Lösung. Es wäre möglich, das Ereignis C = (mindestens ein Treffer) als Summe von drei Optionen darzustellen: Ct = (genau ein Treffer); C2 = (genau zwei Treffer) und C8 = (alle drei Treffer) und ermitteln Sie die Wahrscheinlichkeit für jeden von ihnen auf die gleiche Weise wie oben beschrieben. Aber es wird viel einfacher sein, von Ereignis C zum entgegengesetzten Ereignis zu gelangen: C = (kein einziger Treffer). Ereignis C ist das Produkt von drei unabhängigen Ereignissen: C „(Fehlschlag beim ersten Schuss) (Fehlschlag beim zweiten Schuss) (Fehlschlag beim dritten Schuss). Gemäß der Multiplikationsregel für unabhängige Ereignisse haben wir wo Warum in in diesem Beispiel Erwies es sich als vorteilhaft, auf das entgegengesetzte Ereignis C umzuschalten? Weil es nur eine Option (alle drei Fehlschüsse) anstelle der drei Optionen C, C2, C3 darstellt. > In diesem Zusammenhang lässt sich eine praktische Empfehlung formulieren: Wenn in einem gegebenen Problem das Gegenereignis A in eine kleinere Anzahl von Optionen zerfällt als die, an der wir interessiert sind, dann ist es sinnvoll, wann zum Gegenereignis überzugehen Berechnung der Wahrscheinlichkeit. Beispiel 5. Aus einem Kartenspiel mit 32 Blättern werden zufällig 4 Karten gezogen. Ermitteln Sie die Wahrscheinlichkeit, dass sich darunter mindestens ein Ass befindet. Lösung. Bei der Ermittlung der Wahrscheinlichkeit des Ereignisses A "(mindestens ein Ass) ist es eindeutig profitabler, zum entgegengesetzten Ereignis A = (kein einziges Ass) =" A\ A2 X X Ar A4, 2,4 überzugehen. ANWENDUNGEN DER REGELN DER WAHRSCHEINLICHKEITSTHEORIE 61 wobei A( = (die erste Karte ist kein Ass), R2 = (die zweite Karte ist kein Ass), R* = (die dritte Karte ist kein Ass), R4 = ( die vierte Karte ist kein Ass). nicht Asse 32-4 = 28. Unter Berücksichtigung dessen haben wir: R (L) - B8/32) B7/31). B6/30) B5/29) « 0,568, woraus R (L) - 1 - R (L) « 0,432. »> Beispiel 6. Im Schrank befinden sich neun identische Geräte. Zu Beginn des Experiments sind sie alle neu (nie benutzt). Für den vorübergehenden Betrieb werden drei Geräte nach dem Zufallsprinzip ausgewählt; Nach Gebrauch werden sie wieder in den Schrank zurückgelegt. Optisch unterscheidet sich ein Gebrauchtgerät nicht von einem Neugerät. Diese Art von Operation wird dreimal durchgeführt. Ermitteln Sie die Wahrscheinlichkeit, dass nach dreimaliger Auswahl und Nutzung noch mindestens ein neues Gerät im Schrank verbleibt. Lösung. Ab dem Ereignis А = (mindestens ein neues Gerät) ist es profitabler, zum Gegenteil zu wechseln: А =» ¦- (kein einziges neues Gerät). Ereignis A kann auf eine einzige Art eintreten: Beim ersten, zweiten und dritten Mal werden neue Geräte aus dem Schrank entnommen. Beim ersten Mal ist dies garantiert; daher P (L) - 1. F/9). E/8). D/7). C/9) B/8). A/7) * 0,0028, woraus P (L) & 1 - 0,0028 & 0,997. Ereignis A hat also eine hohe Wahrscheinlichkeit von 0,997 und kann möglicherweise als praktisch zuverlässig angesehen werden (bei seiner Vorhersage werden wir uns in etwa 0,3 % der Fälle irren). > Beispiel 7. Eine Anlage produziert Produkte, von denen jedes mit der Wahrscheinlichkeit r (unabhängig von den anderen) fehlerhaft ist. Zur Steuerung werden n Produkte zufällig aus der Produktion der Anlage ausgewählt. Bei der Inspektion wird der Mangel, sofern vorhanden, festgestellt

Probleme und Übungen zur Wahrscheinlichkeitstheorie. Ventzel E.S., Ovcharov L.A.

5. Aufl., rev. - M.: Akademie, 2003.- 448 S..

Dieses Handbuch ist eine systematische Sammlung von Problemen und Übungen zur Wahrscheinlichkeitstheorie. Für alle Probleme gibt es Antworten und für die meisten sogar Lösungen. Am Anfang jedes Kapitels gibt es eine Zusammenfassung der wichtigsten theoretischen Prinzipien und Formeln, die zur Lösung von Problemen erforderlich sind.

Für Studierende höherer technischer Bildungseinrichtungen. Kann von Lehrern, Ingenieuren und Wissenschaftlern verwendet werden, die daran interessiert sind, probabilistische Methoden zur Lösung praktischer Probleme zu beherrschen.

Format: pdf

Größe: 7 MB

yandex.disk

Format: djvu/zip

Größe: 4,03 MB

/Download-Datei


INHALTSVERZEICHNIS
Vorwort 3
Kapitel 1. Grundkonzepte. Direkte Berechnung von Wahrscheinlichkeiten 4
Kapitel 2. Sätze der Addition und Multiplikation von Wahrscheinlichkeiten 19
Kapitel 3. Formel volle Wahrscheinlichkeit und Bayes-Formel 49
Kapitel 4. Wiederholungsexperimente 70
Kapitel 5. Zufallsvariablen. Verteilungsgesetze. Numerische Eigenschaften von Zufallsvariablen 85
Kapitel 6. Systeme von Zufallsvariablen (Zufallsvektoren) 124
Kapitel 7. Numerische Eigenschaften von Funktionen von Zufallsvariablen 152
Kapitel 8. Gesetze der Verteilung von Funktionen zufälliger Variablen. Grenzwertsätze Wahrscheinlichkeitstheorie 207
Kapitel 9. Zufallsfunktionen 261
Kapitel 10. Ereignisströme. Markov-Zufallsprozesse 317
Kapitel 11. Warteschlangentheorie 363
Anwendungen 428
Referenzen 440

Name: Wahrscheinlichkeitstheorie und ihre technischen Anwendungen. 2000.

Das Buch bietet eine systematische Darstellung der Grundlagen der Wahrscheinlichkeitstheorie aus der Perspektive ihrer praktischen Anwendung in den folgenden Fachgebieten: Kybernetik, angewandte Mathematik, Computer, automatisierte Steuerungssysteme, Mechanismustheorie, Funktechnik, Zuverlässigkeitstheorie, Transport, Kommunikation usw. Trotz der Vielfalt der Bereiche, auf die sich die Anwendungen beziehen, basieren sie alle auf einer einzigen methodischen Grundlage. Die erste Ausgabe erschien 1988.
Für Studierende höherer technischer Bildungseinrichtungen. Es kann für Lehrer, Ingenieure und Forscher verschiedener Profile nützlich sein, die in ihrer praktischen Tätigkeit mit der Notwendigkeit konfrontiert sind, Probleme im Zusammenhang mit der Prozessanalyse zu stellen und zu lösen.

Die Wahrscheinlichkeitstheorie ist eine mathematische Wissenschaft, die Muster in zufälligen Phänomenen untersucht. Lassen Sie uns vereinbaren, was wir unter „zufälligem Phänomen“ verstehen.
Wenn wir die Welt um uns herum wissenschaftlich untersuchen und beschreiben, stoßen wir oft auf eine besondere Art von Phänomenen, die üblicherweise als Zufall bezeichnet werden. Sie zeichnen sich durch ein höheres Maß an Unsicherheit und Unvorhersehbarkeit aus als andere. Ein Zufallsphänomen ist ein Phänomen, das bei mehrmaliger Wiederholung derselben Erfahrung (Test, Experiment) jedes Mal etwas anders verläuft.

INHALTSVERZEICHNIS
Vorwort 3
Einleitung 5
Kapitel 1. Grundkonzepte der Wahrscheinlichkeitstheorie 15
1.1. Zufälliges Ereignis. Seine Wahrscheinlichkeit beträgt 15
1.2. Direkte Berechnung von Wahrscheinlichkeiten 21
1.3. Häufigkeit ODER statistische Wahrscheinlichkeit eines Ereignisses 28
Kapitel 2. Axiomatik der Wahrscheinlichkeitstheorie. Regeln für die Addition und Multiplikation von Wahrscheinlichkeiten und ihre Konsequenzen 37
2.1. Elementare Informationen aus der Mengenlehre 37
2.2. Axiome der Wahrscheinlichkeitstheorie und ihre Konsequenzen. W41
2.3. Bedingte Wahrscheinlichkeit eines Ereignisses. Wahrsch50
2.4. Anwendungsbeispiele der Grundregeln der Wahrscheinlichkeitstheorie 58
2.5. Gesamtwahrscheinlichkeitsformel 69
2.6. Hypothesensatz (Boyes-Formel) 76
Kapitel 3. Zufallsvariablen. Ihre Verteilungsgesetze 82
3.1. Das Konzept einer Zufallsvariablen. Verteilungsgesetz. Verteilungsreihe einer diskreten Zufallsvariablen 82
3.2. Verteilungsfunktion einer Zufallsvariablen. Seine Eigenschaften 87
3.3. Verteilungsfunktion einer diskreten Zufallsvariablen. Ereignisanzeige 92
3.4. Kontinuierliche Zufallsvariable. Verteilungsdichte 94
3.5. Gemischte Zufallsvariable 104
Kapitel 4. Numerische Eigenschaften von Zufallsvariablen 107
4.1. Die Rolle und der Zweck numerischer Merkmale. Mathematischer Erwartungswert der Zufallsvariablen 107
4.2. Momente. Streuung. Durchschnitt Standardabweichung 115
Kapitel 5. Einige für die Praxis wichtige Verteilungen diskreter Zufallsvariablen 129
5.1. Binomialverteilung 129
5.2. Poisson-Verteilung 135
5.3. Geometrische Verteilung 146
5.4. Hypergeometrische Verteilung 150
Kapitel 6. Einige für die Praxis wichtige Verteilungen kontinuierlicher Zufallsvariablen 153
6.1. Gleichmäßige Verteilung 153
6.2. Exponentielle Verteilung 158
6.3. Normalverteilung 161
6.4. Gammaverteilung und Erlang-Verteilung 173
Kapitel 7. Systeme von Zufallsvariablen (Zufallsvektoren) 177
7.1. Das Konzept eines Systems von Zufallsvariablen 177
7.2. Verteilungsfunktion eines Systems aus zwei Zufallsvariablen 179
7.3. System aus zwei diskreten Zufallsvariablen. Verteilungsmatrix 183
7.4. System aus zwei kontinuierlichen Zufallsvariablen. Fugenverteilungsdichte 190
7.5. Abhängige und unabhängige Zufallsvariablen. Bedingte Verteilungsgesetze 194
7.6. Numerische Eigenschaften eines Systems aus zwei Zufallsvariablen. Kovarianz- und Korrelationskoeffizient 213
7.7. Bedingte numerische Eigenschaften des Systems der Zufallsvariablen (X, Y). Regression 220
7.8. Verteilungsgesetz und numerische Eigenschaften eines n-dimensionalen Zufallsvektors 223
7.9. Bivariate Normalverteilung 230
7.10. Multivariate Normalverteilung 243
Kapitel 8. Numerische Eigenschaften von Funktionen von Zufallsvariablen 258
8.1. Mathematischer Erwartungswert und Varianz einer Funktion 258
8.2. Sätze über numerische Eigenschaften von Funktionen von Zufallsvariablen 267
8.3. Anwendung von Theoremen über numerische Eigenschaften zur Lösung technischer Probleme 276
8.4. Numerische Eigenschaften von Funktionen von Zufallsvariablen, die in der Ingenieurpraxis häufig vorkommen 291
8.5. Numerische Eigenschaften der Summe einer zufälligen Anzahl zufälliger Terme 298
8.6. Numerische Eigenschaften des Minimums und Maximums zweier Zufallsvariablen 306
8.7. Numerische Eigenschaften von Funktionsmodulen von Zufallsvariablen 312
8.8. Komplexe Zufallsvariablen 318
8.9. Charakteristische Funktion einer Zufallsvariablen und ihre Eigenschaften 321
8.10. Methode zur Linearisierung von Funktionen von Zufallsvariablen 328
Kapitel 9. Gesetze der Verteilung von Funktionen von Zufallsvariablen 336
9.1. Gesetz der Verteilung einer Funktion eines Zufallsarguments 336
9.2. Erhalten einer Zufallsvariablen mit einer gegebenen Verteilung durch funktionale Transformation 347
9.3. Gesetz der Verteilung einer Funktion zweier Zufallsargumente 353
9.4. Das Verteilungsgesetz der Summe zweier Zufallsvariablen. Zusammensetzung zweier Verteilungsgesetze 357
9.5. Verteilungsgesetz einer Funktion mehrerer Zufallsvariablen. Zusammensetzung mehrerer Verteilungsgesetze 302
9.6. Das Verteilungsgesetz des Minimums (Maximums) zweier Zufallsvariablen. Gesetz der Verteilung der Ordnungsstatistik 372
9.7. Gesetze der Verteilung von Funktionen aus normalverteilten Zufallsvariablen 380
9.8. Wahrscheinlichkeitsmischung von Verteilungen. Verteilungsgesetz der Summe einer zufälligen Anzahl zufälliger Terme 388
Kapitel 10. Grenzwertsätze der Wahrscheinlichkeitstheorie 399
10.1. Gesetz große Zahlen 399
10.2. Zentraler Grenzwertsatz 413
Kapitel 11. Elemente der mathematischen Statistik 430
11.1. Gegenstand und Aufgaben der mathematischen Statistik 430
11.2. Primär statistische Bevölkerung. Seine Bestellung. Statistische Verteilungsfunktion 432
11.3. Gruppiert statistische Reihe. Histogramm 437
11.4. Ausrichtung statistischer Verteilungen 440
11.5. Zustimmungskriterium 445
11.6. Schätzung numerischer Eigenschaften von Zufallsvariablen basierend auf einer begrenzten Anzahl von Experimenten 451
11.7. Genauigkeit und Zuverlässigkeit von Schätzungen numerischer Merkmale einer Zufallsvariablen 458
11.8. Wahrscheinlichkeitsschätzung nach Häufigkeit 462
11.9. Testen der Signifikanz von Unterschieden zwischen zwei Mittelwerten 467
Anwendungen 471
Referenzen 477
Grundlegende Abkürzungen 477

Kostenfreier Download E-Book in einem praktischen Format, sehen und lesen Sie:
Laden Sie das Buch Probability Theory and Its Engineering Applications – Ventzel E.S., Ovcharov L.A. herunter. - fileskachat.com, schneller und kostenloser Download.

Größe: px

Beginnen Sie mit der Anzeige auf der Seite:

Transkript

1 E.S. Wentzel, L.A. OVCHAROV THEORIE ZUFÄLLIGER PROZESSE und ihre technischen Anwendungen. Empfohlen vom Ministerium für Bildung und Wissenschaft der Russischen Föderation als Lehrbuch für Studenten höherer technischer Bildungseinrichtungen. Fünfte Auflage, stereotyp KNORUS MOSKAU 16

2 UDC 519. BBK.171 B9-Rezensent N.A. Kuznetsov, Direktor des Instituts für Informationsübertragungsprobleme der Russischen Akademie der Wissenschaften, Akademiker B9 Ventzel E.S. Theorie zufälliger Prozesse und ihre technischen Anwendungen: Lehrbuch / E. S. Ventzel, L. A. Ovcharov. 5. Aufl., gelöscht. M.: KNORUS, S. ISBN Das Buch bietet eine systematische Darstellung der Grundlagen der Theorie zufälliger Prozesse in den folgenden Fachgebieten: Kybernetik, angewandte Mathematik, automatisierte Steuerungssysteme und Informationsverarbeitung, Automatisierung technologischer Prozesse, Verkehr. Es ist eine logische Fortsetzung des Buches „Probability Theory and Its Engineering Applications“ derselben Autoren. Die erste Auflage erschien 1991. Für Studierende höherer technischer Bildungseinrichtungen. Es kann für Lehrer, Ingenieure und Wissenschaftler unterschiedlichen Profils nützlich sein, die in ihrer praktischen Tätigkeit mit der Notwendigkeit konfrontiert sind, Probleme im Zusammenhang mit der Analyse zufälliger Prozesse zu stellen und zu lösen. UDC 519. BBK.171 Ventzel Elena Sergeevna Ovcharov Lev Aleksandrovich Theorie zufälliger Prozesse und ihre technischen Anwendungen Konformitätszertifikat ROSS RU.AG51.N38 vom Verlag Format 6 9/16. Headset „NewonC“. Offsetdruck. Bedingt Ofen l. 8,. Uch. Hrsg. l. 7.6. Auflage 15 Exemplare. Bestellung 1. KnoRus Publishing House LLC, Moskau, st. Kedrova, 14, Gebäude. Tel.: E-Mail: hp:// Gedruckt von der JSC Moskauer Druckerei. 1985, Moskau, Mira Ave., 15. Ventzel E.S. (Erben), Ovcharov L.A., 16 ISBN KnoRus Publishing House LLC, 16

3 Inhalt Vorwort Einleitung Kapitel 1. Grundbegriffe der Theorie zufälliger Prozesse 1.1. Definition eines Zufallsprozesses. Klassifikation zufälliger Prozesse Verteilungsgesetze und Hauptmerkmale zufälliger Prozesse Kapitel. Ereignisflüsse, ihre Eigenschaften und Klassifizierung.1. Ereignisflüsse Einige Eigenschaften von Palm-Flows Erlang-Flows Grenzwertsätze der Flusstheorie Kapitel 3. Markov-Prozesse mit diskreten Zuständen. Markov-Ketten 3.1. Zustandsdiagramm. Klassifizierung der Bedingungen. Zustandswahrscheinlichkeiten Markov-Zufallsprozesse mit diskreten Zuständen und diskreter Zeit (Markov-Ketten) Stationärer Modus für eine Markov-Kette Kapitel 4. Markov-Prozesse mit diskreten Zuständen und kontinuierlicher Zeit 4.1. Beschreibung eines Markov-Prozesses mit diskreten Zuständen und kontinuierlicher Zeit. Kolmogorov-Gleichungen Homogene Markov-Zufallsprozesse mit diskreten Zuständen und kontinuierlicher Zeit. Stationärer Modus, Gleichungen für Grenzwahrscheinlichkeiten von Zuständen Verteilungsgesetz und numerische Eigenschaften der einzelnen Aufenthaltszeit eines Markov-Zufallsprozesses mit kontinuierlicher Zeit und diskreter Zustände in einer beliebigen Teilmenge von Zuständen U Kapitel 5. Markov-Prozesse von Tod und Reproduktion mit kontinuierlicher Zeit 5.1 . Definition des Markov-Prozesses von Tod und Fortpflanzung mit kontinuierlicher Zeit, seinem beschrifteten Zustandsgraphen, Bedingungen für die Existenz eines stationären Regimes, Grenzwahrscheinlichkeiten Staaten Verteilungsgesetz und numerische Merkmale der Zeit, die der Prozess des Todes und der Fortpflanzung in einer beliebigen Untergruppe von Staaten verbringt

4 4 Inhalt 5.3. Methode der Pseudozustände Differentialgleichungen für die Merkmale des Markov-Prozesses von Tod und Reproduktion ohne Beschränkungen der Anzahl der Zustände Differentialgleichungen für die Merkmale des Markov-Prozesses von Tod und Reproduktion mit einer begrenzten Anzahl von Zuständen Kapitel 6. Stochastisch abhängige Prozesse wie z Tod und Fortpflanzung 6.1. Grundlegende Konzepte und Definitionen Forschung Gegenseitiger Einfluss Merkmale zweier Zufallsprozesse von Tod und Reproduktion Erweiterung zufälliger Prozesse von Tod und Reproduktion Erweiterung ganzzahliger Zufallsprozesse Methode der Dynamik von Durchschnittswerten. Gleichungen für mathematische Erwartungen, Streuungen und Korrelationsfunktionen einzelner Komponenten, die homogene Erweiterungen der Sterbe- und Reproduktionsprozesse sind. Methode der Momentendynamik. Gleichungen für mathematische Erwartungen, Varianzen und Korrelationsfunktionen einzelner Komponenten, die homogene Entwicklungen ganzzahliger Zufallsprozesse sind Kapitel 7. Transformationen zufälliger Prozesse 7.1. Kanonische Erweiterungen und integrale kanonische Darstellungen zufälliger Prozesse. Lineare und nichtlineare Transformationen zufälliger Prozesse Lineare Form Vektor-Zufallsprozess. Addition von Zufallsprozessen Komplexe Zufallsprozesse Kapitel 8. Stationäre Zufallsprozesse 8.1. Definition eines stationären Zufallsprozesses, ergodische Eigenschaft Spektralzerlegung eines stationären Zufallsprozesses. Spektrale Dichte Lineare Transformationen stationärer Zufallsprozesse Transformation eines stationären Zufallsprozesses durch ein stationäres lineares System Anhang Grundlegende Abkürzungen Referenzen Index

5 Vorwort Das Buch ist eine Fortsetzung des Buches des Autors „The Theory of Probability and Its Engineering Applications“ (M.: KNORUS, 1) und ist eine systematische Darstellung der Grundlagen der Theorie zufälliger Prozesse aus der Sicht von ihre praktischen Anwendungen in verschiedenen Bereichen der Ingenieurpraxis. Die Auswahl des Materials sowie der Stil seiner Präsentation erfolgt in erster Linie auf Basis dieser Anwendungen. Dies wird durch die Analyse zahlreicher im Buch enthaltener Probleme und Beispiele erleichtert, die sich auf verschiedene Bereiche der Ingenieurtätigkeit beziehen: automatisierte Steuerungssysteme, Automatisierung technologischer Prozesse und Produktion, angewandte Mathematik, Technische Informatik, Transport, Kommunikation usw. Alle ingenieurwissenschaftlichen Anwendungen der Theorie zufälliger Prozesse werden von denselben methodischen Standpunkten aus präsentiert, basierend auf einem einheitlichen System von Ansätzen. Dies ermöglicht es, anhand derselben zu zeigen, wie es geht mathematisches Modell kann verschiedene Probleme untersuchen und lösen, die in technischen Anwendungen auftreten. Das Buch basiert auf Vorlesungen, die die Autoren in den letzten Jahrzehnten an verschiedenen Universitäten in den Fachgebieten „ Angewandte Mathematik„, „Automatisierte Informationsverarbeitungs- und Steuerungssysteme“, „Automatisierung technologischer Prozesse“ usw. Es richtet sich in erster Linie an Ingenieure und Wissenschaftler unterschiedlicher Fachrichtungen, die in ihrer praktischen Tätigkeit mit Aufgaben im Zusammenhang mit der Auswirkung zufälliger Prozesse auf konfrontiert sind verschiedene technische Geräte in der Dynamik ihrer Funktionsweise. Die allgemeinen theoretischen Teile des Buches richten sich an einen breiten Leserkreis; es kann auch im Bildungsprozess von Studierenden und Lehrenden relevanter Fachrichtungen an Hochschulen sowie als Handbuch für die Selbstbildung verwendet werden. Der in dem Buch verwendete mathematische Apparat basiert hauptsächlich auf dem üblichen Hochschulstudium der höheren Mathematik und einer soliden Kenntnis der Grundlagen der Wahrscheinlichkeitstheorie. Da es sich bei diesem Buch um eine Fortsetzung des Buches „Probability Theory and Its Engineering Applications“ des Autors handelt, werden darin Verweise auf dieses Buch verwendet und die Verweise selbst sind mit einem Sternchen gekennzeichnet. Beispielsweise bedeutet Abschnitt 7.3*, dass es einen Link zu Abschnitt 7.3 des Buches gibt; (7.3.3)* bedeutet, dass ein Link zur Formel (7.3.3) des Buches besteht.

6 6 Vorwort Wie im ersten Buch liegt das Hauptaugenmerk nicht auf den Feinheiten des mathematischen Apparats der Theorie zufälliger Prozesse, sondern auf der Einheitlichkeit des methodischen Ansatzes, veranschaulicht durch zahlreiche Anwendungen. Unsere tiefe Überzeugung, basierend auf langjähriger Erfahrung in der Lehre der Theorie zufälliger Prozesse an Universitäten und der Anwendung dieser Theorie in der wissenschaftlichen Forschung, ist, dass dieser Ansatz zum Studium der Theorie zufälliger Prozesse für diejenigen am nützlichsten ist, die sich darauf festlegen Ziel ist es, spezifische technische Probleme zu lösen. (Das Ende der Lösung eines Problems oder Beispiels wird im Text durch ein Zeichen gekennzeichnet.) Trotz dieser Herangehensweise an die Darstellung des Buchinhalts achteten die Autoren darauf, dass dadurch die Richtigkeit der Formulierungen und die Sachlichkeit nicht beeinträchtigt werden Genauigkeit des verwendeten mathematischen Apparats. Das Buch umfasst nicht: Warteschlangentheorie, die ein Zweig der Theorie zufälliger Prozesse ist, statistische Verarbeitung zufälliger Prozesse, Optimierung von Systemen unter dem Einfluss zufälliger Prozesse und ihre technischen Anwendungen. Diese Materialauswahl in diesem Buch erklärt sich aus der Tatsache, dass die Autoren beabsichtigen, für jeden dieser Abschnitte ein eigenes Handbuch zu verfassen, wobei, wie hier, das Hauptaugenmerk auf verschiedene technische Anwendungen gelegt wird. Die Autoren danken den Akademikern B. S. Pugachev und B. V. Gnedenko, dem RAS-Akademiker N. A. Kuznetsov, Professor A. D. Ventzel für eine Reihe wertvoller Anregungen sowie M. A. Ovcharova, die den Autoren große Hilfe bei der Vorbereitung des Manuskripts für die Veröffentlichung geleistet haben, zutiefst. E. S. Ventzel, L. A. Ovcharov

7 Einleitung So früh am Morgen fliegt ein Fragment einer Gewitterwolke, das in der azurblauen Stille schwarz wird, allein, ohne es zu wagen, irgendwo zu bleiben, ohne Ziel und Spur, Gott weiß, woher und wohin! M. Yu. Lermontov. Dämon Die Theorie zufälliger Prozesse ist eine mathematische Wissenschaft, die die Muster zufälliger Phänomene in der Dynamik ihrer Entwicklung untersucht. Die Theorie zufälliger Prozesse (in anderer Terminologie Theorie). Zufallsfunktionen) ist ein relativ neuer Zweig der Wahrscheinlichkeitstheorie, der sich besonders schnell entwickelt letzten Jahrzehnte in Verbindung mit der ständig wachsenden Bandbreite seiner praktischen Anwendungen. Bei der Untersuchung der Phänomene der umgebenden Welt stoßen wir häufig auf Prozesse, deren Ablauf sich im Voraus nicht genau vorhersagen lässt. Diese Unsicherheit (Unvorhersehbarkeit) wird durch den Einfluss zufälliger Faktoren verursacht, die den Prozessverlauf beeinflussen. Lassen Sie uns einige Beispiele für solche Prozesse geben. 1. Die Spannung im Stromnetz, nominell konstant und gleich V, ändert sich tatsächlich im Laufe der Zeit und schwankt um den Nennwert unter dem Einfluss zufälliger Faktoren wie der Anzahl und Art der an das Netzwerk angeschlossenen Geräte und den Zeitpunkten ihrer Umschaltung ein- und ausschalten usw. Die Bevölkerung der Stadt (oder Region) verändert sich im Laufe der Zeit auf zufällige (unvorhersehbare) Weise unter dem Einfluss von Faktoren wie Fruchtbarkeit, Sterblichkeit, Migration usw. 3. Der Wasserstand in einem Fluss (oder in einem Stausee) ändert sich im Laufe der Zeit zufällig, abhängig vom Wetter, der Niederschlagsmenge, der Schneeschmelze, der Intensität der Bewässerungsaktivitäten usw. 4. Partikeltun Brownsche Bewegung im Sichtfeld des Mikroskops verändert seine Position durch Kollisionen mit Flüssigkeitsmolekülen zufällig. 5. Es gibt einen Flug einer Weltraumrakete, die zu einem bestimmten Zeitpunkt zu einem bestimmten Punkt im Raum mit einer bestimmten Richtung und einem bestimmten Absolutwert des Geschwindigkeitsvektors abgefeuert werden muss. Die tatsächliche Bewegung der Rakete stimmt aufgrund zufälliger Faktoren wie atmosphärischer Turbulenzen, Treibstoffheterogenität, Fehler bei der Verarbeitung von Befehlen usw. nicht mit der berechneten überein.

8 8 Einführung 6. Während des Betriebs kann ein Computer zufällig von Zustand zu Zustand wechseln, zum Beispiel: s 1 funktioniert ordnungsgemäß; s Es liegt ein Fehler vor, der jedoch nicht erkannt wurde. s 3 Es wurde eine Fehlfunktion erkannt und die Ursache wird gesucht. s 4 wird repariert usw. Zustandsübergänge erfolgen unter dem Einfluss zufälliger Faktoren, wie Spannungsschwankungen im Computer-Stromversorgungsnetz, Ausfall einzelner Elemente, Zeitpunkt der Fehlererkennung, Zeitpunkt ihrer Beseitigung usw. Streng genommen gibt es in der Natur keine völlig nichtzufälligen, genau deterministischen Prozesse, sondern es gibt Prozesse, bei denen Zufallsfaktoren einen so geringen Einfluss haben, dass sie bei der Untersuchung des Phänomens vernachlässigt werden können (Beispiel: der Prozess der Planetenrevolution um die Erde). Sonne). Es gibt jedoch auch Prozesse, bei denen der Zufall eine große Rolle spielt (Beispiel: der oben diskutierte Prozess der Brownschen Bewegung eines Teilchens). Zwischen den beiden Extremen liegt ein ganzes Spektrum von Prozessen, bei denen der Zufall eine mehr oder weniger große Rolle spielt. Ob die Zufälligkeit des Prozesses berücksichtigt werden soll oder nicht, hängt auch davon ab, welches praktische Problem wir lösen. Wenn beispielsweise Flugzeuge zwischen zwei Punkten eingeplant werden, können ihre Flugbahnen als geradlinig und ihre Bewegung als gleichmäßig betrachtet werden; Die gleichen Annahmen gelten nicht, wenn das Problem der Entwicklung eines Autopiloten zur Steuerung des Fluges eines Flugzeugs gelöst werden soll. Ein zufälliger Prozess, der jederzeit auftritt physikalisches System S stellt zufällige Übergänge des Systems von Zustand zu Zustand dar. Der Zustand des Systems kann mithilfe einiger numerischer Variablen charakterisiert werden; im einfachsten Fall einer, in komplexeren Fällen mehrere. Kehren wir zu den oben besprochenen Beispielen zurück. In Beispiel 1 wird der Prozess durch eine zeitlich zufällig variierende Variable (Spannung U) beschrieben, die eine Funktion der Zeit U() ist. In ähnlicher Weise ändert sich im Beispiel die Population N im Laufe der Zeit zufällig: N(). Auch in Beispiel 3 wird der Zufallsprozess durch eine Funktion H() charakterisiert, wobei H der Wasserstand im Fluss ist. Alle drei dieser Funktionen sind Zufallsfunktionen der Zeit. Achten wir auf die Tatsache, dass sich jede von ihnen bei ihrer Festlegung in eine gewöhnliche Zufallsvariable verwandelt, die aus dem Buch des Autors bekannt ist. Als Ergebnis des Experiments (wenn es bereits durchgeführt wurde) dreht sich die Zufallsfunktion

9 Einführung 9 in die gewöhnliche nichtzufällige Funktion. Wenn Sie beispielsweise die Spannung im Netzwerk kontinuierlich über die Zeit messen, erhalten Sie eine nicht zufällige Funktion u(), die um den Wert u oszilliert (Abb. 1). u u() u() Abb..1 In Beispiel 4 ist die Situation etwas komplizierter: Der Zustand des Partikels wird nicht durch eine, sondern durch zwei Zufallsfunktionen X() und Y() charakterisiert, die Koordinaten des Partikels in das Sichtfeld des Mikroskops. Ein solcher Zufallsprozess wird Vektorprozess genannt; er wird durch einen variablen Zufallsvektor beschrieben, dessen Komponenten X(), Y() sich im Laufe der Zeit ändern. Für einen festen Wert des Arguments verwandelt sich der Zufallsprozess in ein System aus zwei Zufallsvariablen X(), Y(), dargestellt durch einen Zufallspunkt (Zufallsvektor Q()) auf der xy-Ebene (Abb.). Wenn sich das Argument ändert, bewegt sich der Punkt Q() entlang der xy-Ebene, wie beispielsweise in Abb. 3 für die Zeiten 1, 3, y y i Q() Y() X() x Abb. n x gezeigt Abb..3 Bei Beispiel 5 ist die Situation noch komplizierter. Der Zustand der Rakete zu einem bestimmten Zeitpunkt wird nicht nur durch die drei Koordinaten X(), Y(), Z() des Massenschwerpunkts der Rakete charakterisiert, sondern auch durch die drei Komponenten seiner Geschwindigkeit (wir werden für sie keine speziellen Bezeichnungen einführen), drei Winkel der Raketenausrichtung und Winkelgeschwindigkeiten um das Zentrum

10 1 Eingabe von Masse, Treibstoffreserve usw. Hier haben wir ein Beispiel für einen mehrdimensionalen Zufallsprozess: Das Wandern eines Punktes, der den Zustand des Systems zu einem bestimmten Zeitpunkt beschreibt, findet statt mehrdimensionaler Raum. Die mit der Untersuchung solcher Prozesse verbundenen Schwierigkeiten nehmen mit zunehmender Dimensionalität zu. in einem riesigen Ausmaß. In diesem Buch werden wir kaum auf multidimensionale Prozesse eingehen. Unter den oben betrachteten Beispielen nimmt Beispiel 6 eine Sonderstellung ein. In diesem Beispiel wird der Zustand des Systems nicht durch einen numerischen Wert (oder Vektor) charakterisiert, sondern in Worten beschrieben („qualitativ“) und der Zufallsprozess auf reduziert „Durch Staaten wandern.“ Natürlich kann dieser Prozess künstlich auf einen Prozess der zufälligen Änderung eines Parameters X reduziert werden, indem ihm (rein bedingt) ein numerischer Wert zugewiesen wird, der der Zustandsnummer entspricht: 1, 3, ; Aber die Künstlichkeit einer solchen Technik fällt sofort ins Auge: Schließlich können die Zustände in beliebiger Reihenfolge nummeriert werden, und eine Reduzierung des Prozesses auf eine solche numerische Form ist überhaupt nicht notwendig. Zukünftig werden wir häufig auf zufällige Prozesse dieser Art (Prozesse mit „qualitativen Zuständen“) stoßen und für sie spezielle Methoden zur Beschreibung und Analyse entwickeln. Bei einem festen Wert des Arguments wird der zufällige Zustand des Systems zu einem Analogon eines zufälligen Ereignisses, einem der möglichen Zustände, in denen sich das System zu einem bestimmten Zeitpunkt befinden kann. Die Menge solcher Zustände ist in der Regel diskret (endlich oder abzählbar). Die Theorie zufälliger Prozesse hat ein breites Feld technischer Anwendungen. Da sich unser Wissen über die Welt um uns herum vertieft und verfeinert und technische Geräte immer komplexer werden, müssen immer mehr Prozesse als zufällig betrachtet werden, wobei nicht nur ihr Verhalten „im Durchschnitt“ berücksichtigt wird, sondern auch zufällige Abweichungen von diesem Durchschnitt. Dementsprechend gewinnt die Theorie zufälliger Prozesse zunehmend an Bedeutung. Die moderne Periode der technologischen Entwicklung ist durch den weit verbreiteten Einsatz von Computern (Computern) gekennzeichnet. automatisierte Steuerung Produktionsprozesse sowie automatisierte und automatische Steuerungssysteme. Der Betrieb eines solchen Systems ist mit zufälligen Variationen der darin ablaufenden Prozesse verbunden, d.h. mit der Entstehung eines zufälligen Prozesses darin. Für eine sinnvolle Gestaltung solcher Systeme und die Analyse ihres Betriebs muss der Ingenieur die Grundlagen der Theorie zufälliger Prozesse kennen. Derzeit gibt es praktisch keine Bereiche der Ingenieurstätigkeit, die nicht mit zufälligen Prozessen verbunden wären.

11 Einleitung 11 selbst und die Notwendigkeit, sie zu studieren. Jedes in Betrieb befindliche technische Gerät wird durch zufällige Faktoren beeinflusst, meist oder in geringerem Maße Auswirkungen auf die Betriebsart haben. Ausnahmslos alle meteorologischen Eigenschaften (Temperatur, Druck, Luftfeuchtigkeit, Windgeschwindigkeit, Richtung usw.) sind Zufallsprozesse. Auch die Entwicklung und Interaktion verschiedener biologischer Populationen weist Merkmale zufälliger Prozesse auf. Alle Arten menschlicher Wirtschaftstätigkeit hängen auch von Zufallsfaktoren ab (Wetter, zufällige Schwankungen von Angebot und Nachfrage, Anzahl der an der Produktion beteiligten Personen usw.) und werden daher durch den einen oder anderen Zufallsprozess beschrieben. Der Betrieb eines automatisierten Kontrollsystems (ACS) ist ein zufälliger Prozess, der durch zufällige Momente des Empfangs von Informationen und Anfragen sowie zufällige Momente des Ausfalls komplexer Elemente verursacht wird technische Mittel, Bedienfehler usw. Bevölkerungswachstum, das bei der Neugestaltung berücksichtigt werden muss Wohngebiete ist ebenfalls ein Zufallsprozess. Daraus folgt nicht, dass die Theorie der Zufallsprozesse die einzige ist mathematischer Apparat, geeignet für die Untersuchung solcher Phänomene. Daneben kann ein herkömmlicher, „deterministischer“ Apparat verwendet werden, bei dem Zufallsfaktoren nicht berücksichtigt werden. Bei der Verwendung darf jedoch nicht vergessen werden, dass es nur eine ungefähre, schematische Beschreibung des Prozesses, eines Teils seines „durchschnittlichen“ Verlaufs und der möglichen Abweichungen gibt. Bei vertiefendes Studium Im Prozess müssen solche Abweichungen in der Regel berücksichtigt werden, wofür auf den Apparat der Theorie zufälliger Prozesse zurückgegriffen wird. Bisher haben wir nur über zufällige Funktionen der Zeit gesprochen. In einer Reihe praktischer Probleme gibt es Zufallsfunktionen, die nicht von der Zeit, sondern von einem anderen Argument abhängen. Beispielsweise kann sich der Gasdruck P in einer Gasleitung zufällig ändern, wenn sich der Abstand l von der Quelle, die die Gasleitung speist, zu dem Punkt ändert, an dem der Druck gemessen wird, und ist eine zufällige Funktion des Arguments l. Der Druck P(l) neigt dazu, mit zunehmendem l abzunehmen (z. B. wie in Abb. 4 dargestellt). Unter dem Einfluss zufälliger Faktoren (Verstopfung der Gasleitung, Unebenheiten ihrer Innenoberfläche usw.) Temperaturregime in verschiedenen Bereichen) ändert sich der Druck abhängig von l auf zufällige, unregelmäßige Weise. Ein weiteres Beispiel: Die Festigkeitseigenschaften eines Stabes sind zufällige Funktionen der Abszisse x Querschnitt des Stabes.

12 1 Einführung P() P(i) P(i) i Abb..4 i Streng genommen sollte nur eine zeitabhängige Zufallsfunktion als Zufallsprozess bezeichnet werden; Das Konzept der „Zufallsfunktion“ ist weiter gefasst als das Konzept des „Zufallsprozesses“. Eine solche Aufteilung werden wir nicht vornehmen. Der Einfachheit halber verwenden wir in allen Fällen den Begriff „zufälliger Prozess“, unabhängig von der physikalischen Natur des im Buchstaben angegebenen Arguments. In den meisten praktischen Problemen ist das Argument der darin vorkommenden Zufallsfunktionen genau die Zeit. Bei einigen praktischen Problemen kann es vorkommen, dass Sie auf Zufallsfunktionen stoßen, die nicht von einem, sondern von mehreren Argumenten abhängen.

13 Kapitel 1 Grundbegriffe der Theorie zufälliger Prozesse 1.1. Definition eines Zufallsprozesses. Klassifizierung von Zufallsprozessen Der Begriff eines Zufallsprozesses (r.p.) wurde bereits in der Einleitung allgemein dargelegt. Hier werden wir dieses Konzept klären und ihm eine mathematische Formulierung geben. Beschränken wir uns vorerst auf eindimensionale s. usw., deren Verlauf auf einen numerischen Parameter X() reduziert wird, der sich im Laufe der Zeit zufällig ändert. Das Konzept eines Zufallsprozesses ist eine Verallgemeinerung des bereits aus dem Buch bekannten Konzepts einer Zufallsvariablen (r.v.). Erinnern wir uns daran, wie dort die Zufallsvariable ermittelt wurde (siehe Absatz). Eine Zufallsvariable ist ein Wert, der als Ergebnis eines Experiments mit zufälligem Ausgang den einen oder anderen Wert annimmt. Als nächstes geben wir eine formale, mengentheoretische Definition von s. V. als Funktion eines Elementarereignisses ω, das als Ergebnis der Erfahrung auftritt und im Raum der Elementarereignisse Ω (ω Ω) enthalten ist. In diesem Fall sind die möglichen Werte von x c. V. X gehören zur Menge Ξ (x Ξ). Lassen Sie uns nun die Definition eines Zufallsprozesses geben. Ein Zufallsprozess X() ist ein Prozess, dessen Wert für jedes feste = eine Zufallsvariable X() 1 ist. Die Zufallsvariable X(), zu der c wechselt. n. für =, wird als Querschnitt des entsprechenden Zufallsprozesses bezeichnet gegebener Wert Streit. In Zukunft über den Abschnitt mit sprechen. usw., wir werden den Wert des Arguments, dem es entspricht, nicht immer mit einem Nullindex markieren, sondern wir werden bei Bedarf über denselben Ausdruck entweder als Zufallsprozess (für einen variablen Prozess) oder als Zufallsvariable sprechen (für einen festen). 1 Bei einem Prozess mit „qualitativen Zuständen“ spielt der „zufällige Zustand des Systems“, in dem der Prozess abläuft, die Rolle einer Zufallsvariablen, d. h. einer von vielen möglichen Zuständen zu einem Zeitpunkt.

14 14 Kapitel 1. Grundkonzepte der Theorie zufälliger Prozesse Ähnlich wie wir es aufgeschrieben haben p. V. in Form einer Funktion eines als Ergebnis der Erfahrung auftretenden Elementarereignisses ω ist es möglich mit. geschrieben als Funktion zweier Zeitargumente und eines Elementarereignisses ω: ω Ω, T, X() Ξ, (1.1.1) wobei ω ein Elementarereignis ist, Ω der Raum elementarer Ereignisse ist, T die Region ( Menge) von Werten des Funktionsarguments X() , Ξ ist die Menge möglicher Werte des Zufallsprozesses X(). Nehmen wir an, dass das Experiment, bei dem s. usw. verläuft auf die eine oder andere Weise, wurde bereits produziert, d. h. ein Elementarereignis ω Ω eingetreten ist. Das bedeutet, dass s. p. ist nicht mehr zufällig und seine Abhängigkeit von hat eine ganz bestimmte Form angenommen: Dies ist bereits eine gewöhnliche, nicht zufällige Funktion des Arguments. Wir nennen es die Implementierung des Zufallsprozesses X() in einem gegebenen Experiment. Die Implementierung eines Zufallsprozesses X() ist also eine nichtzufällige Funktion x(), in die sich der Zufallsprozess X() aufgrund der Erfahrung verwandelt; mit anderen Worten, die spezifische Form, die s. angenommen hat. Element X(), das in einem bestimmten Zeitintervall von bis τ (Abb. 1) beobachtet wurde eine Funktion ϕ eines Arguments, das innerhalb der Menge T für ein festes Elementarereignis ω = ω : (T) variiert. (1.1.) Erkenntnisse S. Elemente werden bei jedem Schritt in der Praxis angetroffen. Jede Realisierung des Zufallsprozesses x() gehört zur Menge Ξ möglicher Werte des Zufallsprozesses X(): x() Ξ. Beispielsweise kann man mit einem Gerät die Computer-Versorgungsspannung U als Funktion der Zeit im Abschnitt (, τ) nach Kleinbuchstaben des lateinischen Alphabets aufzeichnen.

15 1.1. Definition eines Zufallsprozesses. Klassifizierung zufälliger Prozesse 15 Lassen Sie uns die Implementierung von u() p finden. S. U() (siehe Abb. 1.1., wobei u die Nennversorgungsspannung ist). Wenn wir die Lufttemperatur Θ in Abhängigkeit von der Tageszeit erfassen, erhalten wir die Implementierung ϑ() с. Element in Θ() (Abb.). Im Allgemeinen ist jede Aufnahme eines Rekorders eine Implementierung des einen oder anderen s. p. u() u τ 1 4 Abb Abb Wenn nicht ein Experiment durchgeführt wird, sondern mehrere, als Ergebnis wird bei jedem von ihnen eine gewisse Realisierung von s beobachtet. Punkt x i () (i Nummer des Experiments), dann erhalten wir mehrere verschiedene Implementierungen des Zufallsprozesses: x 1 (), x (), x 3 () oder eine Familie von Implementierungen (Abb.). x i () x 1 () x () Abb. x i () Die Familie der Implementierung eines Zufallsprozesses ist das wichtigste experimentelle Material, auf dessen Grundlage Eigenschaften erhalten werden können. usw., wir werden später sehen. Implementierungsfamilie c. p. ähnlich der Gesamtheit der beobachteten Werte von c. V. X mit dem Unterschied, dass hier nicht Zahlenwerte beobachtet werden, sondern Funktionen. Schauen wir uns einige Beispiele an, um die eingeführten Konzepte zu veranschaulichen. 1. Es werden n Experimente durchgeführt, bei denen jeweils die dem Computer zugeführte Eingangsspannung U() für eine Zeit τ kontinuierlich gemessen wird; Spannung U() mit einem Nennwert u ist eigentlich ein Zufallsprozess. Für jeden festen Zeitpunkt = ist die Spannung eine Zufallsvariable U() im Querschnitt des Zufallsprozesses bei =. Das Ergebnis von n Experimenten ist eine Familie von Implementierungen u 1 (), u (), u i (), u n (), dargestellt in Abb. Abschnitt U() p. n. U() at = ist eine beobachtete Zufallsvariable

16 16 Kapitel 1. Grundkonzepte der Theorie zufälliger Prozesse, deren Datenwerte durch Punkte auf einer durch den Punkt gezogenen vertikalen Linie markiert werden: u 1 (), u i (), u n ().. n Experimente werden durchgeführt, in denen jeweils die Nummer X() aufgezeichnet wird Computerausfälle (Ausfälle) vom Betriebsbeginn bis zum Zeitpunkt. Beobachtungen werden im Zeitintervall von bis τ durchgeführt. Der Zufallsprozess X() nimmt ganzzahlige Werte (1, 3) an und speichert sie zwischen Sprüngen, die auftreten, wenn der nächste Fehler auftritt. sein Abschnitt X() für jede feste diskrete Zufallsvariable, deren Menge möglicher Werte Ξ = (, 1, 3, ) ist. Die Implementierung x i () des Zufallsprozesses Die Implementierungen x 1 (), x (), x i (), x n () unterscheiden sich voneinander (die Zeitpunkte der Sprünge fallen im allgemeinen Fall nicht zusammen); Es ist schwierig, eine Familie von Implementierungen in einem Diagramm darzustellen (der Leser wird gebeten, gedanklich n Stufenkurven des in Abb. gezeigten Typs übereinander zu legen, die sich in den Momenten der Sprünge, aber nicht in ihrer Größe unterscheiden. was immer gleich eins ist). u u() u n () u 1 () u i () u n () u () u i () u 1 () x i () τ i1 i i3 i4 τ Abb Abb n Experimente werden durchgeführt, in denen jeweils die Lufttemperatur Θ ( h) in einer Höhe h über einem gegebenen Punkt Erdoberfläche, zu einer festen Tageszeit (zum Beispiel um 19 Uhr). In diesem Beispiel ist das Argument der Zufallsfunktion Θ(h) nicht die Zeit, sondern die Höhe h; Es besteht jedoch kein grundsätzlicher Unterschied zu den vorherigen Beispielen. Der Querschnitt der Funktion Θ(h) für ein festes h ist eine kontinuierliche Zufallsvariable. Die Abbildung zeigt die Familie der Implementierungen der Zufallsfunktion Θ(h): ϑ 1 (h), ϑ (h), ϑ i (h),..., ϑ n (h). Im Allgemeinen nimmt die Temperatur mit zunehmendem h tendenziell ab, manchmal steigt sie jedoch auch an (sogenannte „Inversionen“).

17 1.1. Definition eines Zufallsprozesses. Klassifikation zufälliger Prozesse 17 ϑ i (h) h ϑ i (h) ϑ n (h) ϑ (h) ϑ 1 (h) Abb Kehren wir nun zum eigentlichen Konzept eines Zufallsprozesses zurück und geben einige Erklärungen. Das wissen wir bereits. n. X() ist eine Funktion, die aus irgendeinem Grund eine Zufallsvariable (ein Querschnitt eines Zufallsprozesses) ist. Das Konzept eines Zufallsprozesses ist eine Verallgemeinerung des Konzepts einer Zufallsvariablen auf den Fall, dass die experimentellen Bedingungen nicht konstant sind, sondern sich ändern (insbesondere die Zeit „fließt“). Die Zufallsvariable X entspricht einem Zufallsphänomen quasi „in der Statik“ (bei konstanten Versuchsbedingungen), der Zufallsprozess Jeder Abschnitt mit. item X() vorausgesetzt, es gibt c. c., und die Menge aller Abschnitte für alle möglichen ist s. Element X(). Dies bedeutet, dass ein Zufallsprozess nichts anderes als ein System von Zufallsvariablen aller Abschnitte dieses Prozesses ist. Wie viele Abschnitte gibt es? Im Allgemeinen eine unendliche (unzählige) Menge. Betrachten Sie ein solches System in seiner Gesamtheit. V. sehr schwierig, wenn nicht unmöglich. Es ist ganz natürlich, sich irgendwie einzuschränken, um die Aufgabe beherrschbar zu machen. Wir wissen, dass jedes Argument der Funktion f() (das in der realen Praxis und nicht in speziell erfundenen Beispielen vorkommt) näherungsweise durch eine Folge seiner Werte an Punkten dargestellt werden kann (Abb.). Je größer die Anzahl der k Punkte 1, k, desto genauer wird die Funktion f() durch eine Folge von Werten f(1), f(), f(k) ersetzt. Ähnlich verhält es sich mit s. Element X(). Es kann näherungsweise durch eine Menge (System) von Zufallsvariablen X(1), X(), X(k) seiner Abschnitte an den Punkten 1, k ersetzt werden. Je mehr Querschnitte wir betrachten, desto detaillierter werden wir den Zufallsprozess verstehen. Im Grenzfall muss die Anzahl der Abschnitte (die Anzahl der Zufallsvariablen im System oder die Anzahl der Komponenten eines Zufallsvektors) unendlich sein. Das Studium von Systemen mit einer unendlichen (unzähligen) Anzahl von Zufallsvariablen ist eine enorm schwierige Aufgabe.

18 18 Kapitel 1. Grundbegriffe der Theorie zufälliger Prozesse; In der Praxis muss man es immer vereinfachen und durch ein leichter zugängliches ersetzen. Beispiele für solche Vereinfachungen werden wir später noch sehen. Wenn wir die Eigenschaften eines Zufallsprozesses untersuchen, die uns interessieren, sollten wir versuchen, so wenige Abschnitte wie möglich zu verwenden. F() 1 3 k Abb In der Theorie zufälliger Prozesse ist es üblich, sie nach dem einen oder anderen Merkmal zu klassifizieren, wobei die Glätte oder Abruptheit der Umsetzung, die feste oder zufällige Natur der Zeitpunkte, zu denen Sprünge möglich sind, berücksichtigt werden auftreten usw., die Art des Verteilungsgesetzes eines separaten Abschnitts des Prozesses oder der Festlegung seiner Abschnitte usw. Machen wir uns mit der elementarsten Klassifizierung zufälliger Prozesse „nach Zeit“ und „nach Zuständen“ vertraut. Ein Zufallsprozess X() wird als zeitdiskreter Prozess bezeichnet, wenn das System, in dem er auftritt, seine Zustände nur zu den Zeitpunkten 1, j ändern kann, deren Anzahl endlich oder abzählbar ist. Die Menge T ist diskret. Beispiele für Prozesse mit diskreter Zeit: 1) der Betriebsprozess eines Computers, der seine Zustände zu den Zeitpunkten 1, j ändern kann, die durch den Zyklus der Maschine bestimmt werden;) der Betriebsprozess eines technischen Geräts, das inspiziert wird Momente 1 und wird als Ergebnis der Inspektion von einer Kategorie in eine andere übertragen; 3) der Prozess des Beschusses eines Ziels in Moment 1, in dem das Ziel seinen Zustand ändern kann (nicht beschädigt, teilweise deaktiviert, nicht mehr funktionsfähig, vollständig zerstört usw.). Betrachten wir einen eindimensionalen Zufallsprozess X() mit diskreter Zeit (Momente 1,), dann bilden seine Abschnitte in diesen Momenten eine Folge von Zufallsvariablen: X(), X(),. Die Nummer des Übergangszeitpunktwerts kann als Sequenzargument ausgewählt werden: X (1), X (),. Ein zufälliger Prozess

19 1.1. Definition eines Zufallsprozesses. Klassifizierung zufälliger Prozesse 19 Für einen Prozess mit kontinuierlicher Zeit ist die Menge T der Momente, in denen das System seinen Zustand ändert, überzählbar (sie füllen kontinuierlich den betrachteten Abschnitt der x-Achse). Beispiele für zufällige Prozesse mit kontinuierlicher Zeit: 1) X() die Anzahl der Ausfälle eines technischen Geräts vom Betriebsbeginn bis zum Moment;) Brownsche Bewegung eines Teilchens im Sichtfeld des Mikroskops; 3) die Anzahl N() der Fälle in einer bestimmten Stadt während der Entwicklung der Epidemie bis zum jetzigen Zeitpunkt. Ein eindimensionaler Zufallsprozess . Ebenso wird ein mehrdimensionaler (Vektor-)Zufallsprozess als Prozess mit kontinuierlichen Zuständen bezeichnet, wenn für jeden die Menge möglicher Werte des Zufallsvektors, der den Zustand des Systems S bestimmt, in dem der Prozess abläuft, überzählbar ist. Beispiele S. Elemente mit kontinuierlichen Zuständen: 1) Spannung U() der Computerversorgung im Moment;) Gasdruck P() in einem bestimmten Reservoir im Moment; 3) Koordinaten eines Teilchens, das im Moment die Brownsche Bewegung X(), Y() ausführt (zweidimensionaler Zufallsprozess mit kontinuierlichen Zuständen); 4) Parameter, die im Moment den Zustand einer Weltraumrakete charakterisieren, die in die Umlaufbahn gebracht wird (ein mehrdimensionaler Zufallsprozess mit kontinuierlichen Zuständen). Ein zufälliger Prozess, der in einem System S auftritt, heißt ein Prozess mit diskreten Zuständen, wenn zu jedem Zeitpunkt die Menge seiner Zustände Ξ endlich oder abzählbar ist; mit anderen Worten, wenn sein Abschnitt zu irgendeinem Zeitpunkt durch eine diskrete Zufallsvariable X() gekennzeichnet ist (im mehrdimensionalen Fall mehrere diskrete). zufällige Variablen). Natürlich gehören alle Zufallsprozesse mit „qualitativen“ Zuständen zur Kategorie der Prozesse mit diskreten Zuständen; Der Querschnitt eines solchen Prozesses ist ein Zufallsereignis, ein Analogon einer diskreten Zufallsvariablen (siehe Einleitung). Abhängig von der Art der Menge T von Argumentwerten, in die Übergänge des Systems von Zustand zu Zustand möglich sind, sowie der Menge Ξ der Zustände selbst können alle Zufallsprozesse in vier Klassen eingeteilt werden: 1a . Prozesse mit diskreten Zuständen und diskreter Zeit. 1b. Prozesse mit diskreten Zuständen und kontinuierlicher Zeit. A. Prozesse mit kontinuierlichen Zuständen und diskreter Zeit. B. Prozesse mit kontinuierlichen Zuständen und kontinuierlicher Zeit.

20 Kapitel 1. Grundbegriffe der Theorie zufälliger Prozesse Beispiele für Prozesse unterschiedlicher Art: 1a. Jemand hat m Tickets gekauft Darlehen gewinnen, welches vorab gewonnen und eingelöst werden kann berühmte Momente Ziehungen 1, Zufallsprozess X() Anzahl der bisher gewonnenen Tickets. 1b. Ein technisches Gerät besteht aus n Knoten, die im Betrieb des Gerätes ausfallen können. Der Zufallsprozess X() ist die Anzahl der bisher ausgefallenen Knoten. Ein weiteres Beispiel für einen Prozess vom Typ 1b: Ein technisches Gerät kann sich unter dem Einfluss zufälliger Faktoren in einem der folgenden Zustände befinden: s 1 funktioniert ordnungsgemäß; s funktioniert zeitweise; s 3 gestoppt, Fehlerbehebung ist im Gange; s 4 wird repariert; s 5 scheiterte völlig und wurde abgeschrieben. Der Querschnitt eines solchen Prozesses ist, wie bei jedem Prozess mit „qualitativen Zuständen“, eine verallgemeinerte Zufallsvariable diskreten Typs, deren „mögliche Werte“ nicht numerisch, sondern verbal beschrieben werden. A. Zu bestimmten Zeitpunkten 1 wird die Lufttemperatur Θ() an einem bestimmten Punkt im Raum aufgezeichnet. Die Wertefolge dieser Größe ist ein Zufallsprozess Θ() mit kontinuierlichen Zuständen und diskreter Zeit. B. Der Prozess der Spannungsänderung U() im Computer-Stromversorgungsnetz ist ein zufälliger Prozess mit kontinuierlichen Zuständen und kontinuierlicher Zeit. Für verschiedene Arten Es entwickelten sich zufällige Prozesse verschiedene Methoden ihre Studien und Beschreibungen, mit denen wir uns später vertraut machen werden. Bei einer Reihe von Problemen ist es praktisch, Zufallsprozesse durch die einfachsten (oder „elementaren“) Zufallsfunktionen auszudrücken. Eine elementare Zufallsfunktion (e.s.f.) wird als solche Argumentfunktion bezeichnet, wobei die Abhängigkeit von durch eine gewöhnliche, nichtzufällige Funktion dargestellt wird, die eine oder mehrere gewöhnliche, unabhängige Zufallsvariablen als Parameter enthält. Schauen wir uns einige Beispiele an. Mit. F. Für jeden von ihnen werden wir eine Familie von Implementierungen erstellen und der im Beispiel vorkommenden Zufallsvariablen (oder Zufallsvektor) eine Reihe von Werten zuweisen. In jedem der Beispiele, z. Mit. F. bezeichnet mit Y(), seine Implementierungen y 1 (), y (), Beispiel 1. E. s. F. hat die Form, wobei X eine kontinuierliche Zufallsvariable ist, die gleichmäßig im Intervall (1, 1) verteilt ist.

21 1.1. Definition eines Zufallsprozesses. Klassifizierung zufälliger Prozesse 1 Familie der Implementierung e. Mit. F. Y() ist in Abb. dargestellt; jede von ihnen ist eine Exponentialkurve mit Ordinaten proportional zu den Ordinaten der Kurve e (dicke Linie); Einzelne Implementierungen (dünne Linien) unterscheiden sich im Maßstab entlang der Ordinatenachse voneinander. Wenn s. V. X nimmt einen negativen Wert an, die entsprechende Realisierung liegt unterhalb der x-Achse. Beispiel. E. s. F. hat die Form (1.1.3), wobei X eine Zufallsvariable ist, die nur akzeptiert positive Werte. Familie der Implementierung e. Mit. F. (1.1.3) ist in Abb. dargestellt. Jede dieser Implementierungen ist eine Exponentialkurve, die durch den Punkt mit den Koordinaten (, 1) verläuft; Sie unterscheiden sich voneinander in der Geschwindigkeit, mit der sie gegen Null tendieren. y i () y i () 1 e =y 1 () 1 y i () y () y 3 () y 1 () 1 e =y () y i () Abb Abb Beispiel 3. Y() = a + X, Dabei ist X eine Zufallsvariable und eine nichtzufällige Variable. Jede Implementierung (Abbildung) ist eine Gerade mit einem Winkelkoeffizienten a, parallel zur Geraden y = a; die Implementierungen unterscheiden sich in ihren anfänglichen Ordinaten. Beispiel 4. Y() = X + a, wobei Y eine Zufallsvariable und eine nichtzufällige Variable ist. Jede der Implementierungen ist eine gerade Linie, die durch den Punkt (, a) verläuft (Abb.). Die Implementierungen variieren Winkelkoeffizienten. Beispiel 5. Y() = X cos a, wobei X eine Zufallsvariable und eine nichtzufällige Variable ist. Die Implementierungsfamilie ist in Abb. dargestellt; Jeder von ihnen ist eine Kosinuswelle, deren Ordinaten mit dem einen oder anderen Zufallskoeffizienten multipliziert werden. Erkenntnisse unterscheiden sich voneinander in der Amplitude, d.h. Skalierung entlang der Ordinatenachse.

22 Kapitel 1. Grundbegriffe der Theorie zufälliger Prozesse y i () y i () y i () y 3 ()=a y i () x i x y () y 1 () a y 1 () y () y 3 () x 1 Abb Abb y i ( ) y 1 () y () y i () Abb. Beispiel 6. Y() = cos U, wobei U eine Zufallsvariable ist, die positive Werte annimmt. Die Familie der Implementierungen ist in Abb. dargestellt; jeder von ihnen geht durch den Punkt (, 1). Die Häufigkeit der Implementierungen variiert. 1 y i () y 1 () y i () y () 1 Abb. Beispiel 7. Y() = cos(ω + X), wobei X eine zufällige Phase von Schwingungen ist, die gleichmäßig im Intervall (π; π) verteilt sind. Familie der Implementierung e. Mit. F. dargestellt in Abb. Beispiel 8. Y() = U cos a + V sin a, wobei (U, V) ein System von Zufallsvariablen und eine nichtzufällige Variable ist. Die Familie der Implementierungen ist in Abb. dargestellt. Jede Implementierung ist harmonische Schwingung bei der Frequenz a mit zufälliger Amplitude und zufälliger Phase.

23 1.1. Definition eines Zufallsprozesses. Klassifizierung zufälliger Prozesse 3 y i () 1 y 1 () y () 1 y i () y () y i () y 1 () Abb y i () Abb Beispiel 9. Y() = a + U + V, wobei ( U, V) ein System aus zwei Zufallsvariablen, aber eine nicht zufällige Variable. Die Familie der Implementierungen ist in Abb. dargestellt. Jede Implementierung durchläuft den Punkt (, a). Im Extremfall, z. Mit. F. kann in eine nichtzufällige Funktion y() = ψ() (Abb) entarten (dann stimmen alle ihre Implementierungen untereinander und mit der Funktion ψ() überein oder gehen sogar allgemein in einen nichtzufälligen Wert a über: y = a; Alle Implementierungen fallen in diesem Fall mit der Geraden a zusammen. y i () y 1 () a y () y() y()=ψ() y i () Abb Abb

24 4 Kapitel 1. Grundbegriffe der Theorie zufälliger Prozesse 1.. Verteilungsgesetze und grundlegende Eigenschaften zufälliger Prozesse Wir wissen (siehe Kapitel 3* in), dass ein vollständiges, erschöpfendes Merkmal einer Zufallsvariablen ihr Verteilungsgesetz ist. Für diskrete s. V. es kann durch eine Verteilungsreihe für ein kontinuierliches c gegeben werden. V. Verteilungsdichte (d.p.). Eine universelle umfassende Beschreibung aller s. V. Ob X diskret, stetig oder gemischt ist, ist seine Verteilungsfunktion (df) F(x) = P (X< х), т.е. вероятность того, что с. в. Х примет значение, меньшее заданного х. Пусть имеется с. п. X(). Мы знаем, что сечение с. п. X() при любом фиксированном значении аргумента представляет собой случайную величину, которая имеет закон распределения { } F(, x) = P X() < x. (1..1) Эта функция зависит от двух аргументов: во-первых, от значения, для которого берется сечение; во-вторых, от значения х, меньше которого должна быть с. в. X() (рис. 1..1). Функция (1..1) называется одномерным законом распределения с. п. X(). x X() X() X() Рис Итак, перед нами функция двух аргументов (1..1). Является ли функция (1..1) полной, исчерпывающей характеристикой случайного процесса X()? Очевидно, нет. Эта функция характеризует только свойства одного отдельно взятого сечения с. п. X(), но не дает понятия о совместном распределении двух (или более) сечений с. п. В самом деле, можно представить себе два случайных процесса с одинаковым распределением в каждом сечении, но совершенно различных по своей структуре. Первый представлен совокупностью своих реализации на рис. 1.., второй на рис Первый процесс имеет плавный характер, второй более резкий, «нервный». Для первого процесса характерна более тесная зависимость между сечениями

25 1.. Verteilungsgesetze und Hauptmerkmale zufälliger Prozesse 5 S. P.; Zum anderen nimmt diese Abhängigkeit mit zunehmendem Abstand zwischen den Abschnitten recht schnell ab. Offensichtlich kann das eindimensionale Verteilungsgesetz (1..1) nicht als vollständiges, erschöpfendes Merkmal von s dienen. Element X(). Es liegt auch auf der Hand, dass eine umfassendere (aber noch nicht erschöpfende) Beschreibung erforderlich wäre zweidimensionales Gesetz Verteilung, dargestellt durch die gemeinsame Verteilungsfunktion zweier Abschnitte c. p., jeweils für die Momente 1 und: ( ) F(, x, x) = P X()< x, X() < x. (1..) x() x() Рис. 1.. Рис Это функция уже не двух, а четырех аргументов: двух моментов времени, для которых берутся сечения, и двух значений х 1 и x (рис. 1..4). Функция четырех аргументов это уже неприятно! Однако и двумерный закон распределения (1..) еще не является исчерпывающей характеристикой с. п. Х (); еще более полной характеристикой будет трехмерный закон и т.д. F(, ; x, x, x) = X() < x, X() < x, X() < x P { } X() x x 1 1 X(1) X() Рис Очевидно, теоретически можно неограниченно увеличивать число сечений и получать при этом все более Gesamte Beschreibung Mit. usw. Der Betrieb mit solch umständlichen Eigenschaften hängt jedoch davon ab

26 6 Kapitel 1. Grundkonzepte der Theorie zufälliger Prozesse ist äußerst unbequem; Darüber hinaus wächst der Umfang des zu ihrer Gewinnung benötigten Versuchsmaterials mit zunehmender Schnittzahl extrem schnell. Daher werden in der Praxis äußerst selten mehr als zweidimensionale Verteilungsgesetze verwendet. In ingenieurwissenschaftlichen Anwendungen beschränken sie sich meist auf ein eindimensionales, manchmal auch zweidimensionales Verteilungsgesetz. n. Oft reicht das aus. In vielen Fällen der Ingenieurspraxis können in Systemen ablaufende Prozesse (exakt oder näherungsweise) als Markov-Prozesse (oder „Prozesse ohne Nachwirkungen“, siehe Kapitel 4, 5) dargestellt werden. Für solche Prozesse wird das zweidimensionale Gesetz (1..) ein erschöpfendes Merkmal sein. Es gibt eine große Klasse von Prozessen, die sogenannten Normal- oder Gaußschen Zufallsprozesse, bei denen auch das zweidimensionale Verteilungsgesetz (1..) ein erschöpfendes Merkmal sein wird. Bei der Untersuchung zufälliger Prozesse werden die Gesetze der Verteilung von c jedoch aus praktischen Gründen meist ganz aufgegeben. p., aber verwenden Sie seine Hauptmerkmale, die s beschreiben. n. nicht vollständig, aber teilweise. Wir wissen (siehe Kapitel 8*), dass viele Probleme der Wahrscheinlichkeitstheorie gelöst werden können, ohne überhaupt auf die Verteilungsgesetze von Zufallsvariablen zurückzugreifen, sondern nur unter Verwendung ihrer numerischen Eigenschaften, wie etwa mathematischer Erwartungswert (M.O.), Streuung, Kovarianz, Anfangswert und zentrale Momente unterschiedlicher Ordnung usw. Ähnlich verhält es sich mit Zufallsprozessen, nur dass bei ihnen die Hauptmerkmale nicht mehr Zahlen sind, sondern Funktionen des Arguments, von dem c abhängt. item X(), oder zwei (normalerweise nicht mehr) Werte dieses Arguments. Zuerst und das wichtigste Merkmal Mit. n. X() ist sein mathematischer Erwartungswert, d.h. „durchschnittliche“ Funktion, um die es eine Streuung der Implementierungen gibt. p. (siehe die dicke Linie m x () in Abb. 1..5, wobei dünne Linien Implementierungen des p. anzeigen). Beachten Sie, dass diese Funktion, die den „durchschnittlichen“ Wert eines Zufallsprozesses charakterisiert, selbst bereits nicht zufällig ist. Bezeichnen wir es mit m x (). Der mathematische Erwartungswert eines Zufallsprozesses X() ist also eine nichtzufällige Funktion m x (), die für jeden Wert des Arguments gleich dem mathematischen Erwartungswert des entsprechenden Abschnitts des Zufallsprozesses ist: m () M X() 1. (1..3) x = 1 Wir gehen von der Annahme aus, was m.o. Es existiert ein zufälliger Prozess, ohne dass er jedes Mal ausdrücklich angegeben wird.

27 1.. Verteilungsgesetze und Hauptmerkmale zufälliger Prozesse 7 x() m x () Abb Das eindimensionale Verteilungsgesetz kennen p. Element X() können Sie immer m x() für jeden Abschnitt finden und dessen Abhängigkeit feststellen. Aus dem Buch wissen wir bereits, wie man den mathematischen Erwartungswert nach dem Verteilungsgesetz findet (siehe Kapitel 4*): if s. V. X ist diskret, sein m.o. ergibt sich als Summe der Produkte seiner möglichen Werte und ihrer Wahrscheinlichkeiten: m = x p ; x i i i wenn es stetig ist und die Dichte f(x) m.o. hat. als Integral berechnet: m x = x f(x) dx. Erwartung gemischt mit. V. X ergibt sich als Summe der Produkte der Werte von c. c., mit Wahrscheinlichkeiten ungleich Null, zu diesen Wahrscheinlichkeiten plus einem auf Abschnitte der Stetigkeit der Verteilungsfunktion F(x) erweiterten Integral (siehe (4.1.4)*). Auf genau die gleiche Weise kann man durch Fixieren und Übergang von einem Zufallsprozess zu einer Zufallsvariablen (ihrem Querschnitt) das m.o. berechnen. dieser Prozess. Wenn beispielsweise Abschnitt c. n. X() stellt hierfür ein diskretes s dar. V. mit der Verteilungsreihe X x1() x() p() p() xi() p() dann ist ihr m.o. kann mit der Formel i......, (*) m M X() x () p() berechnet werden. (1..4) = = x i i i Hier x 1 (), x (), x i (), der erste, zweite, i-te, Werte, die die Zufallsvariable X() Abschnitt c annehmen kann. P.

28 8 Kapitel 1. Grundbegriffe der Theorie zufälliger Prozesse für ein Gegebenes; p 1 (), p (),. p i (), die entsprechenden Wahrscheinlichkeiten: p 1 () = P (X () = x 1 ()), p i () = P (X () = x i ()), Ein sehr häufiger Fall ist, wenn die Werte von c. V. X() hängen nicht von ihrer Wahrscheinlichkeit ab, sondern nur von ihrer; in diesem Fall hat die Verteilungsreihe die Form X(): x1 x... xi... p() p ()... p()... 1 i (**) In diesen Beispielen zufälliger Prozesse Bei diskreten Zuständen, die wir in Abschnitt 1.1 angegeben haben, waren die Werte x 1, x, x i, nicht abhängig von und waren einfach ganze Zahlen, 1, i,. Wenn der Abschnitt c ist. n. X() hierfür ist ein stetiges c. V. mit der Dichte f(, x), seinem m.o. kann mit der Formel mx() = M [ X() ]= xf(, x) dx berechnet werden. (1..5) Für den Fall einer gemischten Zufallsvariablen X() wird die m.o. wie üblich als Summe plus Integral berechnet (siehe (4.1.4)*); Auf die Beschreibung der entsprechenden Formeln wird hier verzichtet, da diese vergleichsweise umständlich sind. Die Dimension der Funktion m x () ist gleich der Dimension c. Element X(). In der Praxis ist der mathematische Erwartungswert meist m x () s. p. wird nicht nach seinem eindimensionalen Verteilungsgesetz berechnet, sondern durch eine ungefähre Schätzung ersetzt, die aus experimentellen Daten ermittelt werden kann (siehe Abschnitt 11.6*). Lassen Sie uns das Konzept eines zentrierten Zufallsprozesses einführen. es ähnelt dem Konzept eines zentrierten s. V. (siehe (4..6)*). Ein zentrierter Zufallsprozess X() ist der Prozess, der aus c resultiert. Element X() subtrahiere sein m.o.: ο X X m x ο ()= () (). (1..6) Aus der Definition (1..4), (1..5) der mathematischen Erwartung p. Daraus folgt, dass m.o. zentriert s. n. X () ist identisch gleich Null, d.h. ο ο ο M X () = M X () mx (). (1..7) Realisierungen xi() zentriert s. S. X () stellen Abweichungen von dar. Element X () aus seiner mathematischen Erwartung; diese Abweichungen

29 1.. Verteilungsgesetze und Hauptmerkmale zufälliger Prozesse 9 haben sowohl positive als auch negative Werte und im Durchschnitt gleich Null (Abb. 1..6). Feige Außer m.o. in der Theorie zufälliger Prozesse werden auch deren andere Eigenschaften berücksichtigt, ähnlich den numerischen Eigenschaften von c. V. (mit dem Unterschied, dass es sich nicht mehr um Zahlen, sondern um Funktionen handelt): Anfangs- und Zentralmomente. Der Anfangszeitpunkt der k-ten Ordnung des Zufallsprozesses X() wird m.o. genannt. k-ter Grad des entsprechenden Abschnitts c. p.: α k k = M X ()., (1..8) () und das Zentralmoment der k-ten Ordnung des m.o. k-ter Grad zentriert c. p.: k ο k µ k ()= M (X ()) = M (X () mx ()). (1..9) Von den Anfangsmomenten wird neben der mathematischen Erwartung (das erste Anfangsmoment) am häufigsten das zweite verwendet Startmoment: M [(X())] (in einer anderen Notation: M [ X ()]); aus den zentralen das zweite zentrale Moment, ansonsten die Streuung des Zufallsprozesses, die für jeden gleich der Streuung des entsprechenden Abschnitts des Zufallsprozesses ist: () ο Dx ()= D X () = M X (). (1..1) = Erinnern wir uns, wie die Varianz c ausgedrückt wird. V. durch sein zweites Anfangsmoment (siehe (4..17)*): D X M X m x, d.h. Die Varianz einer Zufallsvariablen ist gleich dem mathematischen Erwartungswert ihres Quadrats minus dem Quadrat des mathematischen Erwartungswerts. Genau die gleiche Beziehung verbindet die Varianz mit. p. mit seinem zweiten Anfangsmoment: Dx()= D X () = M X () m () x. (1..11)

30 3 Kapitel 1. Grundbegriffe der Theorie zufälliger Prozesse Daher ist die Varianz c. Element X() ist eine nichtzufällige Funktion D x(), die für jeden Wert des Arguments gleich der Streuung des entsprechenden Abschnitts des Zufallsprozesses X() ist. Kenntnis des Verteilungsgesetzes aller Abschnitte. Punkt X() (eindimensionales Verteilungsgesetz), es ist möglich durch bekannte Regeln Finden Sie die Varianz c. Element X(). Wenn der Abschnitt X() ein diskretes s ist. V. mit der Verteilungsreihe (**), dann die Varianz c. Das Element wird durch die Formel () () D ()= D X () = x m () p, (1..1) x i x i gefunden, wobei i die Zahl des möglichen Werts c ist. V. X() gegeben; p i () die Wahrscheinlichkeit dieses Wertes, oder, durch den zweiten Anfangsmoment, ()= () = () () x i i x i D D X x p m. (1..13) Wenn der Abschnitt X() ein kontinuierliches c ist. V. mit Dichte f(, x), dann die Varianz c. p. kann mit der Formel oder durch das zweite Anfangsmoment 1, (1..14) D x f, x dx m berechnet werden. (1..15) x ()= () x() Somit sind sowohl m.o. als auch Varianz c. Element X () werden durch sein eindimensionales Verteilungsgesetz bestimmt. Wenn m.o. m x () s. Punkt X () stellt eine nicht zufällige „Durchschnittsfunktion“ dar, um die herum die Implementierungen des Zufallsprozesses variieren, dann ist die Varianz c. n. D x () ist eine nicht zufällige, nicht negative Funktion, die den Grad der Streuung der Implementierung c charakterisiert. Element X () in der Nähe seines m.o. m x (), d.h. Grad der Streuung der Implementierung eines zentrierten Zufallsprozesses X Durchschnitt quadratische Abweichung(s.k.o.) σ x () s. item X() wird aufgerufen arithmetischer Wert Quadratwurzel der Varianz D x (): ο (). 1 Fall gemischt mit. V. X() wird wie oben weggelassen, da die entsprechenden Formeln relativ umständlich sind.


B A K A L A V R I A T E.S. WENTZEL, L.A. OVCHAROV-THEORIE ZUFÄLLIGER PROZESSE UND IHRE TECHNISCHEN ANWENDUNGEN Empfohlen vom Ministerium für Bildung und Wissenschaft der Russischen Föderation als Lehrmittel

E.S. Ventzel L.A. Ovcharovs Wahrscheinlichkeitstheorie und ihre technischen Anwendungen. Empfohlen vom Ministerium für Bildung und Wissenschaft der Russischen Föderation als Lehrbuch für Studierende höherer technischer Ausbildung

66 Das Konzept einer Zufallsfunktion Erinnern wir uns an die Definition einer Zufallsvariablen: Eine Zufallsvariable ist eine Größe, die als Ergebnis eines Experiments den einen oder anderen Wert annehmen kann, wobei nicht im Voraus bekannt ist, welchen

Die Warteschlangentheorie (QST) untersucht die Prozesse, in denen Anforderungen an die Erbringung bestimmter Arten von Diensten entstehen und diese Anforderungen bedient werden. Objekte (TMO) können Produktion sein

KAPITEL 5. ZUFÄLLIGE PROZESSE. Zufällige Analyse Oft während der Recherche verschiedene Phänomene Natur, Wirtschaft und technische Prozesse Wir müssen uns mit Zufallsvariablen befassen, die sich im Laufe der Zeit ändern.

UDC 6-5 Spektrale Eigenschaften linearer Funktionale und ihre Anwendungen zur Analyse und Synthese stochastischer Kontrollsysteme K.A. Rybakov Der Artikel stellt das Konzept vor spektrale Eigenschaften linear

Vorlesung NUMERISCHE EIGENSCHAFTEN EINES SYSTEMS AUS ZWEI ZUFALLSVARIABLEN -DIMENSIONALER ZUFALLSVEKTOR ZWECK DER VORlesung: Bestimmung der numerischen Eigenschaften eines Systems aus zwei Zufallsvariablen: Anfangs- und Zentralmoment-Kovarianz

Teil KLASSIFIZIERUNG ZUFÄLLIGER PROZESSE Nach der Einführung probabilistische Beschreibung Zufällige Prozesse können unter Berücksichtigung bestimmter Einschränkungen, die für ihre Wahrscheinlichkeiten gelten, klassifiziert werden

MOSKAUER STAATLICHER TRANSPORTUNIVERSITÄT (MIIT) Abteilung für Angewandte Mathematik-1 MOSKAUER STAATLICHER TRANSPORTUNIVERSITÄT (MIIT) Abteilung für Angewandte Mathematik-1 A.V. Iwanow,

STATISTISCHE MODELLE ZUFÄLLIGER PHÄNOMEN Zufallsvariablen Wahrschevon Zufallsvariablen Das einfachste Modell physikalisches Experiment Abfolge unabhängiger Experimente (Tests).

3.4. STATISTISCHE EIGENSCHAFTEN VON STICHWERTEN VON PROGNOSEMODELLEN Bisher haben wir Methoden zur Erstellung von Prognosemodellen betrachtet stationäre Prozesse, ohne ein sehr wichtiges Merkmal zu berücksichtigen.

TEIL 7 Elemente der Wahrscheinlichkeitstheorie und ihre Anwendung bei der Untersuchung automatischer Steuerungssysteme Kapitel 22 Grundinformationen aus der Wahrscheinlichkeitstheorie 22.1. Ereignis, Klassifizierung von Ereignissen, Wahrscheinlichkeit

Teil 4 Spektralzerlegungen von Zufallsprozessen 41 FOURIER-STIELTJES-INTEGRALE Für spektrale Entwicklungen von Zufallsfunktionen wird das Stieltjes-Integral verwendet. Daher stellen wir die Definition und einige Eigenschaften vor

Die Zuverlässigkeitstheorie ist ein Teilgebiet der angewandten Mathematik, in dem Methoden entwickelt werden, um den effizienten Betrieb von Produkten sicherzustellen. Unter Zuverlässigkeit im weitesten Sinne des Wortes versteht man die Leistungsfähigkeit eines technischen Gerätes

A. M. Karlov Wahrscheinlichkeitstheorie und mathematische Statistik für Wirtschaftswissenschaftler. Empfohlen von der UMO für die Ausbildung im Bereich Finanzen, Rechnungswesen und Weltwirtschaft als Lehrbuch für Studierende

MINISTERIUM FÜR BILDUNG UND WISSENSCHAFT DER RUSSISCHEN FÖDERATION Föderaler Staatshaushalt Bildungseinrichtung höher Berufsausbildung„Staatliche Luft- und Raumfahrtuniversität Samara

1 DISKRETE UND KONTINUIERLICHE ZUFALLSVARIABLEN VERTEILUNGSGESETZE Eines der wichtigsten Konzepte der Wahrscheinlichkeitstheorie ist das Konzept einer Zufallsvariablen. Eine Zufallsvariable ist eine Variable, die

Statistische Radiophysik und Informationstheorie. Einführung Radiophysik als Wissenschaftswissenschaft physikalische Phänomene unerlässlich für die Funkkommunikation, Strahlung und Ausbreitung von Funkwellen sowie den Empfang von Funksignalen. Thema

3. MARKOV-ZUFALLSPROZESSE (KOLMOGOROV-GLEICHUNG) Ein in einem System auftretender Zufallsprozess wird Markov genannt, wenn für einen beliebigen Zeitpunkt t0 die probabilistischen Eigenschaften des Prozesses in der Zukunft liegen

Vorlesung Elemente der Theorie von Warteschlangensystemen 11. Elemente der Theorie von Warteschlangensystemen Themenfragen: 1. Grundbegriffe. Klassifizierung von SMO. 2. Das Konzept eines Markov-Zufallsprozesses.

Vorlesung CHARAKTERISTISCHE FUNKTION ZWECK DER VORlesung: eine Methode zur Linearisierung von Funktionen von Zufallsvariablen zu konstruieren; das Konzept einer komplexen Zufallsvariablen einführen und ihre numerischen Eigenschaften ermitteln; Merkmal bestimmen

Ministerium für Bildung und Wissenschaft, Jugend und Sport der Ukraine Donbass State Mechanical Engineering Academy (DSMA) V. N. Chernomaz, L. V. Vasilyeva ZUFÄLLIGE PROZESSE für Studenten der Ausbildungsrichtung

Zufallsvariablen und Gesetze ihrer Verteilung. Eines der Grundkonzepte der Wahrscheinlichkeitstheorie ist das Konzept einer Zufallsvariablen. Schauen wir uns zunächst Beispiele an. Anzahl der Anrufe, die währenddessen von Teilnehmern eingegangen sind

Markov-Ketten besonderer Fall Zufallsprozess in Bezug auf die Untersuchung des Standes des ICEF-Bewertungsplans 1. Einleitung 1.1. Einführung in die Theorie zufälliger Prozesse; Klassifizierung zufälliger Prozesse; 1.2. Ketten

TEIL 6 FUNKTIONEN ZUFÄLLIGER VARIABLEN Vorlesung VERTEILUNGSGESETZ UND NUMERISCHE EIGENSCHAFTEN VON FUNKTIONEN ZUFÄLLIGER VARIABLEN ZWECK DER VORlesung: Einführung in das Konzept einer Funktion einer Zufallsvariablen und Klassifizierung der Entstehung

Vorlesung 1-2 MODELLIERUNG ZUFÄLLIGER EREIGNISSE UND PROZESSE In der Phase der Forschung und des Entwurfs von Systemen, beim Aufbau und der Implementierung von Maschinenmodellen (Analyse und Simulation) wird die Methode verwendet

Eine Standardrechnung zum Thema „Wahrscheinlichkeitstheorie“ wurde von Lehrenden des Fachbereichs entwickelt „ Höhere Mathematik» Anleitung zur Lösung einer Standardberechnung wurde von der Lehrerin Timofeeva E.G. durchgeführt. Grundlegende Definitionen und

Zufällige Variablen. Definition von SV (Zufällig ist eine Größe, die als Ergebnis von Tests den einen oder anderen Wert annehmen kann, der nicht im Voraus bekannt ist). Was sind SV? (Diskret und kontinuierlich.

Vorlesung 4.9. Systeme von Zufallsvariablen. Verteilungsfunktion eines Systems aus zwei Zufallsvariablen (SDSV). Eigenschaften der Funktion 6.4. Systeme von Zufallsvariablen In der Praxis stoßen wir häufig auf die beschriebenen Probleme

Inhalt Kapitel Zufallsprozesse Einfache homogene Markov-Kette Markov-Gleichung Einfache homogene Markov-Kette 4 Eigenschaften der Übergangsmatrix 5 Numerisches Experiment: Stabilisierung der Wahrscheinlichkeitsverteilung

DON STATE TECHNICAL UNIVERSITY, ABTEILUNG FÜR FERNLEHRE UND ENTWICKLUNG VON QUALIFIKATIONEN, Abteilung für „Angewandte Mathematik“, METHODISCHE ANWEISUNGEN für die Durchführung praktischer Kurse in der Disziplin

Vorlesung 8 VERTEILUNGEN KONTINUIERLICHER ZUFALLSVARIABLEN ZWECK DER VORlesung: Bestimmung der Dichtefunktionen und numerischen Eigenschaften von Zufallsvariablen mit einer gleichmäßigen exponentiellen Normal- und Gammaverteilung

V. K. Romanko Differenzgleichungen 3. Auflage (elektronisch) 2015 UDC 517 BBK 22.161.6 R69 R69 Romanko V. K. Differenzgleichungen [Elektronische Ressource]: Lehrbuch / V. K. Romanko. 3. Aufl. (el.).

TEIL 7 GRENZSÄTZE DER WAHRSCHEINLICHKEITSTHEORIE Vorlesung 3 DAS GESETZ DER GROSSEN ZAHLEN UND DER ZENTRALE GRENZSATZ ZWECK DER VORlesung: Beweis der Tschebyscheff-Ungleichung; formulieren und beweisen Sie das Gesetz der großen Zahlen und

Kapitel 8 Funktionen und Graphen Variablen und Abhängigkeiten zwischen ihnen. Zwei Größen heißen direkt proportional, wenn ihr Verhältnis konstant ist, also wenn =, wobei eine konstante Zahl ist, die sich bei Änderungen nicht ändert

2009 M. M. Popov Wahrscheinlichkeitstheorie Vorlesungsskript Vervollständigt von einem Studenten der Gruppe 712 FAVT A. V. Diment SPbGUKiT Ein zufälliges Ereignis ist jede Tatsache, die als Ergebnis eines Experiments eintreten kann oder nicht, und

Vorlesung 8 Thema Vergleich von Zufallsvariablen oder Merkmalen. Themeninhalt Analogie diskreter Zufallsvariablen und Stichproben Arten von Abhängigkeiten zweier Zufallsvariablen (Stichproben) Funktionelle Abhängigkeit. Regressionslinien.

SEKUNDÄRE BERUFSBILDUNG M.I. Baschmakow-Mathematik, empfohlen von der Landesinstitution „FIRO“ als Lehrbuch zur Verwendung im Bildungsprozess von Bildungseinrichtungen der beruflichen Sekundarstufe,

Skalare Hyperzufallsvariablen 4 TEIL I GRUNDLAGEN DER THEORIE KAPITEL HYPERRANDOME EREIGNISSE UND MENGEN Die Konzepte eines hyperzufälligen Ereignisses und einer hyperzufälligen Variablen werden vorgestellt. Es wurden eine Reihe von Merkmalen und Parametern vorgeschlagen

MINISTERIUM FÜR WISSENSCHAFT UND BILDUNG DER RF MOSKAUER STAATLICHE OFFENE UNIVERSITÄT, benannt nach VS Chernomyrdin KOLOMENSKY INSTITUT, ABTEILUNG FÜR HÖHERE MATHEMATIK UND PHYSIK EF KALINICHENKO VORTRÄGE ZUR BERECHNUNG SPEZIFISCHER

VORTRAG Nachrichten, Signale, Interferenzen als Zufallsphänomene Zufällige Variablen, Vektoren und Prozesse 4 SIGNALE UND INTERFERENZEN IN RTS ALS ZUFÄLLIGE PHÄNOMEN Wie oben erwähnt, ist das Hauptproblem der RTS-Theorie

Verlags- und Handelsgesellschaft Dashkov und K. K. V. Baldin, V. N. Bashlykov, A. V. Rukosuev Wahrscheinlichkeitstheorie und mathematische Statistik Lehrbuch 2. Auflage Empfohlen von GOU VPO " Staatliche Universität

Ereignisströme Poisson-Ereignisströme Stationär Einfachste Nichtstationäre Ströme mit begrenzter Nachwirkung Palm-Ströme Erlang-Ströme Service für Anwendungen des Instituts für Wirtschaftswissenschaften und Wirtschaftswissenschaften – Abteilung UlSTU. IS Evseeva O.N.

Vorlesung 1 Das Konzept eines Zufallsprozesses und seiner endlichdimensionalen Verteilungen Die Theorie der Zufallsprozesse ist Teil der Wahrscheinlichkeitstheorie. Die Besonderheit der Theorie zufälliger Prozesse besteht darin, dass sie berücksichtigt

Bundesamt für Luftverkehr, staatliche Bildungseinrichtung für höhere Berufsbildung, MOSKAU, STAATLICHE TECHNISCHE UNIVERSITÄT FÜR ZIVILLUFTFAHRT

UNTERSUCHUNG DER STATISTISCHEN REGULARITÄTEN DES RADIOAKTIVEN ZERfalls Laborarbeit 8 Zweck der Arbeit: 1. Bestätigung der zufälligen, statistischen Natur der Prozesse des radioaktiven Zerfalls von Kernen.. Einführung

Vorlesung 6 NUMERISCHE EIGENSCHAFTEN ZUFÄLLIGER VARIABLEN ZWECK DER VORlesung: Bestimmung der numerischen Eigenschaften von Positionen und Momenten kontinuierlicher und diskreter Zufallsvariablen Numerische Eigenschaften des Positionsgesetzes

Thema. Tschebyscheffs Ungleichung. Satz von Tschebyschew. Satz von Bernoulli. Zentraler Grenzwertsatz. Integralsatz von Moivre-Laplace Inhalt Grenzwertsätze der Wahrscheinlichkeitstheorie 2 Tschebyscheffs Ungleichung

R.L. Stratonovich BEDINGTE MARKOV-PROZESSE UND IHRE ANWENDUNG AUF DIE THEORIE DER OPTIMALEN KONTROLLE Das Buch ist die erste Monographie, die sich der Theorie bedingter Markov-Prozesse widmet. Diese Theorie gilt

Die Beherrschung der Disziplin „Zufällige Prozesse“ muss schrittweise Abschnitt für Abschnitt beginnen. Beginnen Sie mit der Beherrschung des Abschnitts mit theoretischen Informationen und fahren Sie dann mit der Analyse der vorgegebenen Standardlösung fort

Gleichungen der Dynamik und Statik. Linearisierung In einem bestimmten Entwicklungs- und Forschungsstadium eines automatischen Steuerungssystems erhält man dessen mathematische Beschreibung; eine Beschreibung der im System ablaufenden Prozesse

ZUFÄLLIGE VARIABLEN VERTEILUNGSGESETZE EINER ZUFÄLLIGEN VARIABLEN Das Konzept einer Zufallsvariablen Die moderne Wahrscheinlichkeitstheorie operiert, wo immer möglich, vorzugsweise nicht mit Zufallsereignissen, sondern mit Zufallsvariablen

Staatliche Haushaltsbildungseinrichtung für höhere Berufsbildung „MOSKAUER STAATLICHE TRANSPORTUNIVERSITÄT“, ABTEILUNG FÜR „MATHEMATIK“ M.V. ISHKHANYAN, A.I.

Gewöhnliche Differentialgleichungen lösen Ein Ingenieur muss sich oft mit technischen Systemen befassen und technologische Prozesse, deren Eigenschaften sich im Laufe der Zeit t kontinuierlich ändern

VORTRAG N 43 Mehrfachintegrale Konstruktionsalgorithmus Eigenschaftenberechnung in kartesischen Koordinaten Doppelintegrale 2 Beziehung zwischen gewöhnlichen und Doppelintegral 3 3Grundlegende Eigenschaften von Double und Triple

Ministerium für Bildung und Wissenschaft der Russischen Föderation, Bundesagentur für Bildung, Staatliche Technische Universität Saratow, ZUFÄLLIGE VARIABLENSYSTEME Richtlinien bis praktisch

Vorlesung 8 Wellenbewegung Ausbreitung von Schwingungen in einem homogenen elastischen Medium Longitudinal- und Transversalwellen Gleichung der Verschiebung, Geschwindigkeit und relativen Verformung einer ebenen harmonischen Wanderwelle