Das Korrelationsmoment zweier unabhängiger Zufallsvariablen ist gleich. B - die Wahl der einen oder anderen Eröffnung in einem Schachspiel

Definition:

Das Korrelationsmoment von Zufallsvariablen wird als mathematische Erwartung des Produkts der Abweichungen dieser Variablen bezeichnet

Denken Sie daran, dass der obige Ausdruck ein Element der Formel für die Varianz der Summe zweier Zufallsvariablen ist:

Kommentar:

Das Korrelationsmoment kann dargestellt werden als:

Nachweisen:

Satz:

Das Korrelationsmoment zweier unabhängiger Zufallsvariablen und ist gleich 0

Nachweisen:

Nach der Bemerkung:

Aber für unabhängige Zufallsvariablen

Dann gilt für unabhängige Zufallsvariablen und :

Definition:

Die dimensionslose Größe wird als Korrelationskoeffizient bezeichnet.

Satz:

Der Absolutwert des Korrelationsmoments zweier Zufallsvariablen überschreitet nicht das Produkt ihrer Standardabweichungen:

Nachweisen:

Wir führen die Zufallsvariable ein und finde seine Varianz:

Da jede Varianz nicht negativ ist

Ebenso führen wir eine Zufallsvariable ein und finde das:

Definition:

Zufallsvariablen und heißen unkorreliert wenn und korreliert wenn .

Satz:

Der Korrelationskoeffizient von Zufallsvariablen, die durch eine lineare Abhängigkeit verbunden sind, ist .

Nachweisen:

Finden Sie den Korrelationskoeffizienten:

Beachten wir einige Eigenschaften des Korrelationskoeffizienten.

1. Aus Beispiel 1 folgt, dass wenn es sich um unabhängige Zufallsvariablen handelt, der Korrelationskoeffizient 0 ist.

Beachten Sie, dass die Umkehrung nicht gilt.

2. Der Absolutwert des Korrelationskoeffizienten überschreitet im allgemeinen Fall nicht eins:

Der Beweis folgt aus der zuvor bewiesenen Formel für das Korrelationsmoment:

Wir dividieren beide Teile der Ungleichung durch das Produkt und erhalten

3. Der Korrelationskoeffizient charakterisiert die relative (in Anteilen) Abweichung der mathematischen Erwartung des Produkts vom Produkt der mathematischen Erwartung der Größen . Da eine solche Abweichung nur für abhängige Größen auftritt, können wir sagen, dass der Korrelationskoeffizient die Enge der Beziehung zwischen und charakterisiert.



Diese Aussage folgt aus der zuvor bewiesenen Gleichheit: . Wir bringen das Korrelationsmoment zum Korrelationskoeffizienten:


Kulikov A. A. Forex für Anfänger. Handbuch eines Aktienspekulanten - St. Petersburg: Peter, 2007; Kommersant Nr. 62 vom 13. April 2007 - Der Welthandel wird sich verlangsamen.

Bachelier L. Theorie der Spekulation. // Annales de l "Ecole Normale Superieure. 1900. V. 17. S. 21-86. Beschreibung der Ideen von L. Bushelier, ihres Schicksals und ihrer modernen Kritik sind in den Büchern enthalten: Mandelbrot B. Naughty market, fractal Revolution in Finance - Übersetzung aus dem Englischen - M.: Verlag "Williams", 2006; Sornette D. Wie man den Zusammenbruch der Finanzmärkte vorhersagt - übersetzt aus dem Französischen - M.: Verlag "I-Trade", 2008.

Cootner Paul H. Der zufällige Charakter von Börsenkursen - Cambridge, MA, MIT Press

Harry M. Markowitz, Portfolio Selection, Journal of Finance, 7, Nr. 1 (März 1952), S. 79-81.

Im vorgestellten Abschnitt werden Materialien aus den folgenden Büchern verwendet: Sharp W. F., Alexander G. J., Bailey J. V. Investments - per. aus dem Englischen. – M.: INFRA-M, 1997; Bromvich M. Analyse der Wirtschaftlichkeit von Kapitalanlagen - pro. aus dem Englischen. – M.: INFRA-M, 1996; Shiryaev VI Modelle der Finanzmärkte. Optimale Portfolios, Finanz- und Risikomanagement – ​​Lehrbuch – M.: KomKniga, 2007; Shapoval A. B. Investitionen: Mathematische Methoden - M .: FORUM: INFRA-M, 2007; Korosteleva M. V. Analysemethoden des Kapitalmarktes - St. Petersburg: Peter, 2003.

Tobin J. wies auf die Unzulänglichkeit von Indikatoren für mathematische Erwartungen und Streuung für den Vergleich von Portfolios hin (Siehe Shiryaev V.I. Models of Financial Markets ... - S. 18-19). Ihre Verwendung ist jedoch durch ihre Konstruktivität gerechtfertigt.

Siehe Askinadzi V. M. und andere Investmentgeschäft - Lehrbuch - M .: Market DS, 2007, S. 238-241 oder Shiryaev V. I. Modelle der Finanzmärkte. Optimale Portfolios, Finanz- und Risikomanagement – ​​Lehrbuch – M.: KomKniga, 2007, S. 17.

Siehe Bromwich M. Analyse der Wirtschaftlichkeit von Kapitalanlagen - per. aus dem Englischen. - M.: INFRA-M, 1996, S. 343. Eine Diskussion alternativer Risikomaße, beispielsweise der Normalisierung der sogenannten Lognormalverteilung, findet sich in dem Buch: Sharp W. F., Alexander G. J., Bailey J. B Investitionen - Spur. aus dem Englischen. - M.: INFRA-M, 1997, S. 179-181.

Siehe Bromwich M. UK. Op. Seite 342.

Es wird angenommen, dass der erste Schritt zur Erstellung einer Nützlichkeitstheorie die Formulierung des sogenannten Sankt-Petersburg-Paradoxons war. Es ist merkwürdig, dass Nikolai Bernoulli dieses Paradoxon formulierte und Daniel Bernoulli eine Erklärung dafür gab - Siehe: Bernoulli D. Erfahrung einer neuen Theorie der Losmessung / D. Bernoulli; pro. A. Nardova // Meilensteine ​​des ökonomischen Denkens / comp. und allgemein ed. V. M. Galperin. SPb., 1993. Bd. 1: Theorie des Konsumverhaltens und der Nachfrage. S. 11-27.

Nützliche Materialien zur Nutzentheorie finden sich in Büchern zur Spieltheorie, insbesondere: Lewis R.D., Rifa H. Games and Solutions - Per. aus dem Englischen. - M.: Izd-vo inostr. lit., 1961; Neumann von John, Morgenstern O. Spieltheorie und ökonomisches Verhalten - Per. aus dem Englischen. -M.: Nauka, 1970.

Siehe Anhang zum Modell von G. Markowitz

Siehe im Buch Shiryaeva VI Modelle der Finanzmärkte. Optimale Portfolios, Finanz- und Risikomanagement – ​​M.: KomKniga, 2007, S. 25-26.

Die analytische Formulierung des Markowitz-Modells findet sich in den Büchern: Shapoval A. B. Investments: Mathematische Methoden – M.: FORUM: INFRA-M, 2007, S. 21-22; Askinadzi V. M. und andere Investmentgeschäft - Lehrbuch - M .: Market DS, 2007, S. 288.

Wir haben die im Buch vorgeschlagene Formulierung verwendet: Askinadzi V. M. et al. Investment business - Textbook - M .: Market DS, 2007, S. 256-257.

Siehe im Buch: Shapoval A. B. Investments: Mathematische Methoden – M.: FORUM: INFRA-M, 2007, S. 16-18 (Abschnitt „Markowitz-Modell“).

Siehe: Sharp W. UK. op. S. 213-218, 226-228, S. 271 – zu den Beziehungen und Unterschieden zwischen dem Marktmodell und dem CAPM-Modell; auch Askinadzi V. M. et al., Uk. O., S. 278-294; Shiryaev V. V. Uk. O., S. 47-58

Siehe: Sharp W. F., Alexander G. J., Bailey J. V. Investments -per. aus dem Englischen. - M.: INFRA-M, 1997, S. 316-337.

Siehe: Unternehmensbewertung - Hrsg. Gryaznova A.G., Fedotova M.A. - M.: Finanzen und Statistik, 2007, S. 199

Siehe: Shapoval A. B. Investments: Mathematische Methoden – M.: FORUM: INFRA-M, 2007, Kapitel 3.

Siehe Mandelbrot B., Hudson R. L. Naughty Markets: A Fractal Revolution in Finance – Per. aus dem Englischen. - M.: Verlag "Williams", 2006, 187 Seiten.

Siehe ebd., S. 34-39.

Siehe: Sornette D. Wie man den Zusammenbruch der Finanzmärkte vorhersagt - pro. aus dem Französischen - M.: Verlag "I-Trade", 2008, S. 19-22.

Dieser Abschnitt basiert hauptsächlich auf den Materialien des Buches: Economic Theory (New Palgraiv) - trans. aus dem Englischen. - M.: INFRA-M, 2004, S. 263-273 - Kapitel Efficient Market Hypothesis, Autor - Berton G, Malkiel. Auf der Grundlage der Materialien dieses Artikels werden auch Verweise auf die Autoren verschiedener Studien gemacht. Siehe auch: Burton Malkiel A Random Walk Down Wall Street - trans. aus dem Englischen. - Minsk: Potpourri, 2006. Das letzte Buch ist seit 30 Jahren erschienen. Seltsamerweise kam Ende der 1990er Jahre ein weiteres Buch heraus: Andrew Lowe. Ein sachlicher Spaziergang entlang der Wall Street. B. Melkil ist im Allgemeinen ein Befürworter der Hypothese des effizienten Marktes, während Andrew Low das Gegenteil ist.

Siehe: Chebotarev Yu.N. Zufälligkeit und Nicht-Zufälligkeit von Börsenpreisen - M.: SmartBook; I-Handel, 2008, 198.

Invarianz - die Invarianz einer Größe bei Änderung physikalischer Bedingungen oder in Bezug auf einige Transformationen, z. B. Transformationen von Koordinaten und Zeit beim Übergang von einem Trägheitsbezugssystem zu einem anderen (relativistische Invarianz). Eine fast rigorose Beschreibung des „Random Walk“ in der einfachsten Version des „Wiener-Prozesses“ findet sich in dem Buch: Shapoval A.B. Geldanlagen: Mathematische Methoden – Lehrbuch – M.: FORUM: INFRA-M, 2007, S. 42-43.

Ein Zufallsprozess heißt Wiener, wenn die folgenden Bedingungen erfüllt sind:

1) Der Prozess beginnt bei Null, das heißt;

2) Die Zufallsvariable hat eine Normalverteilung ohne mathematische Erwartung und mit einer Varianz, die jedem Zeitpunkt entspricht;

3) Für beliebige sich nicht schneidende Intervalle und Zufallsvariablen und sind unabhängig.

Im Allgemeinen ist die Erlaubnis von Shapoval A.B. Wir empfehlen, sich mit den mathematischen Modellen der Portfolioanalyse und Optionsbewertung vertraut zu machen. Die Präsentation ist streng genug für die Praxis und kurz (96 Seiten), führt aber in die moderne Finanztheorie ein. Im Kapitel zur Portfolioanalyse machen wir ausgiebig Gebrauch

Siehe Material aus Wikipedia:

Eine Folge von Zufallsvariablen heißt zeitdiskretes Martingal, wenn:

Gegeben sei eine weitere Folge von Zufallsvariablen. Dann heißt eine Folge von Zufallsvariablen ein relatives Martingal oder -Martingal, wenn:

Gegeben sei eine Folge von Zufallsvariablen. Dann heißt eine Folge von Zufallsvariablen ein Sub(Super)-Martingal in Bezug auf wenn:

Dieser Effekt lässt sich durch Steuereinflüsse erklären. Am Ende des Jahres verkaufen Anleger Aktien, hauptsächlich von kleinen Unternehmen, um Verluste zu simulieren und Steuerzahlungen zu erleichtern, die Aktienkurse fallen, und im Januar kehren sie möglicherweise sogar mit einem Überschuss zurück - Siehe: Burton Malkiel. Random Walk Down Wall Street, S. 316-317.

Der Wochenendeffekt, der Montagseffekt, hat keine klare Erklärung. Der Effekt deutet darauf hin, dass die Aktienkurse am Montagabend niedriger sind als am Freitagabend. In A Random Walk Down Wall Street erläutert Burton Malkiel den Effekt: Aktienkurse sind am Montagmorgen etwas höher als am Freitagabend, und am Montagabend fallen sie, sodass die Renditen relativ negativ werden. Daher sollten Sie am Montagabend Aktien kaufen. Aber ein vom Autor an der New Yorker Börse von Mai bis Juli 2002 durchgeführter Test der Wirkung zeigte, dass die Wirkung nur an acht von dreizehn Wochenenden auftrat.

Die „Buy and Hold“-Strategie wird von den sogenannten „Indexfonds“ umgesetzt, die die Struktur ihrer Investments in Anlehnung an beliebte Aktienindizes halten. Nach Angaben des Informationsportals "Vlozhi.ru" gab es in Russland im Jahr 2007 11 Investmentfonds, die als Indexfonds fungierten. Der erste russische Indexfonds wurde 2003 gegründet. In den USA gibt es solche Fonds seit 30 Jahren. Russische Fonds orientieren sich an den MICEX- oder RTS-Indizes (nach der Änderung im Jahr 2006 begann der RTS-Index, die Liquidität von Wertpapieren zu berücksichtigen, die für den ordnungsgemäßen Betrieb des Indexfonds erforderlich ist). Natürlich können Indexfonds Indizes nicht strikt folgen, da es irrational wäre, Investitionen kontinuierlich zu ändern. Siehe Materialien zu Indexfonds auf dem Privatanlegerportal Vlozhi.ru: http://www.vlozhi.ru/

Aktiensplits reduzieren ihren Nennwert und machen sie für Kleinaktionäre zugänglicher. Die Ausweitung des Aktienmarktes kann das Interesse an ihnen erhöhen und dementsprechend die Nachfrage nach ihnen und damit den Marktwert von Aktien erhöhen.

Wertentwicklung von Investmentfonds im Vergleich zur Wertentwicklung von Indexaktien 1980-1990 siehe: Burton Malkiel. A Random Walk Down Wall Street, S. 238 Investmentfonds übertrafen den S&P 500 in den 1980er Jahren und hinkten in den 1990er Jahren hinterher. Es gibt auch andere moderne Materialien zur Wirksamkeit von Investmentfonds. Beispielsweise wurde nach Daten von 1968 bis 2002 der Anteil von Bargeld im Vermögen von Investmentfonds und der Index S&P 500 verglichen, wobei der Vergleich zeigte, dass der Anteil von Bargeld im Vermögen von Fonds gerade dort hoch war Momente, in denen der Index niedrig war, das heißt, als es im Gegenteil notwendig war, Bargeld auszugeben, um Aktien zu kaufen - S. 244-248.

Für Berechnungsergebnisse siehe: Burton Malkiel. Random Walk Down Wall Street, S. 235.

Siehe Ausgaben des Finanzmagazins für 2009-2010.

Siehe Elder A. Wie man an der Börse spielt und gewinnt: Psychologie. Technische Analyse. Kapitalkontrolle - M.: Alpina Business Book, 2007, S. 29-35.

Siehe: Damodaran A. Anlagegeschichten: Mythen über Win-Win-Aktienstrategien entlarven – per. aus dem Englischen. St. Petersburg: Peter, 2007, S. 396-428.

Siehe: Hagstrom R. J. Investment. Die letzte freie Kunst - übers. aus dem Englischen. - M .: CJSC "Olymp-Business", 2005.

Der Vergleich der durchschnittlichen jährlichen Rendite und des Risikos (quadratische Abweichung der Renditen) großer und kleiner Aktien für den Zeitraum von 1926 bis 2001 ergab, dass die durchschnittliche jährliche Rendite kleiner Aktien 17,5% und großer Aktien - 12,4 bei einem Risiko von 35,3 und beträgt 20,8 %%. Auch das durchschnittlich zu erwartende Monatseinkommen für den Zeitraum 1963-1990 zeigt eine Abhängigkeit von der Unternehmensgröße. Gleichzeitig änderte sich die Situation in den 1990er Jahren: Unternehmen mit hoher Kapitalisierung begannen, große Einnahmen zu erzielen. Der Punkt ist offenbar, dass der Anteil institutioneller Anleger, die mit Aktien großer Unternehmen arbeiten, gewachsen ist und Aktien kleiner Unternehmen einen Teil ihrer Liquidität verloren haben – siehe Burton Malkiel. Random Walk Down Wall Street, S. 265, 333-334.

Daten aus den 1980er Jahren zeigen, dass Aktien mit niedrigen Gewinnquoten (das Verhältnis des Aktienkurses zum Nettogewinn eines Unternehmens) besser abschnitten. Ebenso tendieren Aktien mit einem niedrigen Kurs-Wert-Verhältnis der Vermögenswerte des Unternehmens zu höheren Renditen – siehe Burton Malkiel. Random Walk Down Wall Street, S. 334-340.

Die Beweise basieren auf den Materialien des Buches: Michael Bromwich. Analyse der Wirtschaftlichkeit von Kapitalanlagen - M.: INFRA-M, 1996.

Siehe B.V. Gnedenko. Kurs Wahrscheinlichkeitstheorie - M.: Nauka, 1969, S. 179 (Kapitel 5. Numerische Eigenschaften von Zufallsvariablen)

Wie oft haben Sie Aussagen gehört, die besagten, dass ein Phänomen mit einem anderen korreliert?

„Hohes Wachstum korreliert mit guter Bildung und Zufriedenheit, fanden Experten des Meinungsforschungsdienstes Gallup heraus.“

"Der Ölpreis korreliert mit den Wechselkursen."

"Muskelschmerzen nach dem Training korrelieren nicht mit Muskelfaserhypertrophie."

Man hat den Eindruck, dass der Begriff „Korrelation“ nicht nur in der Wissenschaft, sondern auch im Alltag eine weite Verbreitung gefunden hat. Die Korrelation spiegelt den Grad der linearen Beziehung zwischen zwei Zufallsphänomenen wider. Wenn also die Ölpreise zu fallen beginnen, beginnt der Dollar gegenüber dem Rubel zu steigen.

Aus all dem können wir schließen, dass bei der Beschreibung von zweidimensionalen Zufallsvariablen nicht genügend bekannte Eigenschaften wie mathematischer Erwartungswert, Varianz, Standardabweichung vorhanden sind. Daher werden oft zwei weitere sehr wichtige Merkmale verwendet, um sie zu beschreiben: Kovarianz und Korrelation.

Kovarianz

Kovarianz$cov\left(X,\ Y\right)$ случайных величин $X$ и $Y$ называется математическое ожидание произведения случайных величин $X-M\left(X\right)$ и $Y-M\left(Y\right)$, also:

$$cov\left(X,\ Y\right)=M\left(\left(X-M\left(X\right)\right)\left(Y-M\left(Y\right)\right)\right). $$

Es kann praktisch sein, die Kovarianz der Zufallsvariablen $X$ und $Y$ mit der folgenden Formel zu berechnen:

$$cov\left(X,\Y\right)=M\left(XY\right)-M\left(X\right)M\left(Y\right),$$

die aus der ersten Formel unter Verwendung der Eigenschaften des mathematischen Erwartungswerts erhalten werden kann. Wir listen die wichtigsten auf Kovarianzeigenschaften.

1 . Die Kovarianz einer Zufallsvariablen mit sich selbst ist ihre Varianz.

$$cov\left(X,\ X\right)=D\left(X\right).$$

2 . Die Kovarianz ist symmetrisch.

$$cov\left(X,\ Y\right)=cov\left(Y,\ X\right).$$

3 . Wenn die Zufallsvariablen $X$ und $Y$ unabhängig sind, dann:

$$cov\links(X,\Y\rechts)=0.$$

4 . Der konstante Faktor kann aus dem Kovarianzzeichen herausgenommen werden.

$$cov\left(cX,\ Y\right)=cov\left(X,\ cY\right)=c\cdot cov\left(X,\ Y\right).$$

5 . Die Kovarianz ändert sich nicht, wenn einer der Zufallsvariablen (oder zwei gleichzeitig) ein konstanter Wert hinzugefügt wird:

$$cov\left(X+c,\ Y\right)=cov\left(X,\ Y+c\right)=cov\left(X+x,\ Y+c\right)=cov\left( X,\ Y\right).$$

6 . $cov\left(aX+b,\ cY+d\right)=ac\cdot cov\left(X,\ Y\right)$.

7 . $\left|cov\left(X,\ Y\right)\right|\le \sqrt(D\left(X\right)D\left(Y\right))$.

8 . $\left|cov\left(X,\ Y\right)\right|=\sqrt(D\left(X\right)D\left(Y\right))\Leftrightarrow Y=aX+b$.

9 . Die Varianz der Summe (Differenz) von Zufallsvariablen ist gleich der Summe ihrer Varianzen plus (minus) dem Doppelten der Kovarianz dieser Zufallsvariablen:

$$D\left(X\pm Y\right)=D\left(X\right)+D\left(Y\right)\pm 2cov\left(X,\ Y\right).$$

Beispiel 1 . Die Korrelationstabelle des Zufallsvektors $\left(X,\ Y\right)$ ist gegeben. Berechnen Sie die Kovarianz $cov\left(X,\ Y\right)$.

$\begin(array)(|c|c|)
\hline

\hline
-2 & 0,1 & 0 & 0,2 \\
\hline
0 & 0,05 & p_(22) & 0 \\
\hline
1 & 0 & 0,2 & 0,05 \\
\hline
7 & 0,1 & 0 & 0,1 \\
\hline
\end(array)$

Die Ereignisse $\left(X=x_i,\ Y=y_j\right)$ bilden eine vollständige Gruppe von Ereignissen, also muss die Summe aller in der Tabelle angegebenen Wahrscheinlichkeiten $p_(ij)$ gleich 1 sein. Dann $0, 1+0+0 ,2+0.05+p_(22)+0+0+0.2+0.05+0.1+0+0.1=1$, also $p_(22)=0.2$.

$\begin(array)(|c|c|)
\hline
X\Backslash Y & -6 & 0 & 3 \\
\hline
-2 & 0,1 & 0 & 0,2 \\
\hline
0 & 0,05 & 0,2 & 0 \\
\hline
1 & 0 & 0,2 & 0,05 \\
\hline
7 & 0,1 & 0 & 0,1 \\
\hline
\end(array)$

Mit der Formel $p_(i) =\sum _(j)p_(ij) $ finden wir die Verteilungsreihe der Zufallsvariablen $X$.

$\begin(array)(|c|c|)
\hline
X & -2 & 0 & 1 & 7 \\
\hline
p_i & 0,3 & 0,25 & 0,25 & 0,2 \\
\hline
\end(array)$

$$M\left(X\right)=\sum^n_(i=1)(x_ip_i)=-2\cdot 0.3+0\cdot 0.25+1\cdot 0.25+7\cdot 0 ,2=1.05.$ $

$$D\left(X\right)=\sum^n_(i=1)(p_i(\left(x_i-M\left(X\right)\right))^2)=0.3\cdot ( \left (-2-1,05\rechts))^2+0,25\cdot (\left(0-1,05\rechts))^2+0,25\cdot (\left(1-1, 05\rechts))^2+$$

$$+\ 0.2\cdot (\left(7-1.05\right))^2=10.1475.$$

$$\sigma \left(X\right)=\sqrt(D\left(X\right))=\sqrt(10,1475)\ca. 3.186,$$

Mit der Formel $q_(j) =\sum _(i)p_(ij) $ finden wir die Verteilungsreihe der Zufallsvariablen $Y$.

$\begin(array)(|c|c|)
\hline
Y & -6 & 0 & 3 \\
\hline
p_i & 0,25 & 0,4 & 0,35 \\
\hline
\end(array)$

$$M\left(Y\right)=\sum^n_(i=1)(y_ip_i)=-6\cdot 0.25+0\cdot 0.4+3\cdot 0.35=-0.45 .$$

$$D\left(Y\right)=\sum^n_(i=1)(p_i(\left(y_i-M\left(Y\right)\right))^2)=0.25\cdot ( \left (-6+0,45\rechts))^2+0,4\cdot (\left(0+0,45\right))^2+0,35\cdot (\left(3+0, 45\right))^2=11,9475. $$

$$\sigma \left(Y\right)=\sqrt(D\left(Y\right))=\sqrt(11,9475)\ca. 3.457,$$

Da $P\left(X=-2,\ Y=-6\right)=0.1\ne 0.3\cdot 0.25$ sind, sind die Zufallsvariablen $X,\ Y$ abhängig.

Wir definieren die Kovarianz $cov\ \left(X,\ Y\right)$ der Zufallsvariablen $X,\ Y$ durch die Formel $cov\left(X,\ Y\right)=M\left(XY\right )-M\ links(X\rechts)M\links(Y\rechts)$. Der mathematische Erwartungswert des Produkts der Zufallsvariablen $X,\ Y$ ist:

$$M\left(XY\right)=\sum_(i,\ j)(p_(ij)x_iy_j)=0,1\cdot \left(-2\right)\cdot \left(-6\right) +0,2\cdot \left(-2\right)\cdot 3+0,05\cdot 1\cdot 3+0,1\cdot 7\cdot \left(-6\right)+0,1\cdot 7\cdot 3=-1,95. $$

Dann $cov\left(X,\ Y\right)=M\left(XY\right)-M\left(X\right)M\left(Y\right)=-1.95-1.05\cdot \left(- 0,45\right)=-1,4775.$ Wenn die Zufallsvariablen unabhängig sind, dann ist ihre Kovarianz Null. In unserem Fall $cov(X,Y)\ne 0$.

Korrelation

Korrelationskoeffizient Zufallsvariablen $X$ und $Y$ werden als Zahl bezeichnet:

$$\rho \left(X,\ Y\right)=((cov\left(X,\ Y\right))\over (\sqrt(D\left(X\right)D\left(Y\right )))).$$

Wir listen die wichtigsten auf Eigenschaften des Korrelationskoeffizienten.

1 . $\rho\links(X,\X\rechts)=1$.

2 . $\rho \left(X,\ Y\right)=\rho \left(Y,\ X\right)$.

3 . $\rho \left(X,\ Y\right)=0$ für unabhängige Zufallsvariablen $X$ und $Y$.

4 . $\rho \left(aX+b,\ cY+d\right)=(sgn \left(ac\right)\rho \left(X,\ Y\right)\ )$, wobei $(sgn \left( ac\right)\ )$ ist das Vorzeichen des Produkts $ac$.

5 . $\left|\rho \left(X,\ Y\right)\right|\le 1$.

6 . $\left|\rho \left(X,\ Y\right)\right|=1\Leftrightarrow Y=aX+b$.

Früher wurde gesagt, dass der Korrelationskoeffizient $\rho \left(X,\ Y\right)$ den Grad der linearen Beziehung zwischen zwei Zufallsvariablen $X$ und $Y$ widerspiegelt.

Für $\rho \left(X,\ Y\right)>0$ können wir schlussfolgern, dass die Zufallsvariable $Y$ tendenziell ansteigt, wenn die Zufallsvariable $X$ wächst. Dies wird als positive Korrelation bezeichnet. Beispielsweise sind die Größe und das Gewicht einer Person positiv korreliert.

Für $\rho \left(X,\ Y\right)<0$ можно сделать вывод о том, что с ростом случайной величины $X$ случайная величина $Y$ имеет тенденцию к уменьшению. Это называется отрицательной корреляционной зависимостью. Например, температура и время сохранности продуктов питания связаны между собой отрицательной корреляционной зависимостью.

Für $\rho \left(X,\ Y\right)=0$ heißen die Zufallsvariablen $X$ und $Y$ unkorreliert. Zu beachten ist, dass die Unkorreliertheit der Zufallsvariablen $X$ und $Y$ nicht deren statistische Unabhängigkeit bedeutet, sondern nur bedeutet, dass zwischen ihnen kein linearer Zusammenhang besteht.

Beispiel 2 . Bestimmen wir den Korrelationskoeffizienten $\rho \left(X,\ Y\right)$ für die zweidimensionale Zufallsvariable $\left(X,\ Y\right)$ aus Beispiel 1.

Der Korrelationskoeffizient der Zufallsvariablen $X,\ Y$ ist $r_(XY) =(cov(X,Y)\over \sigma (X)\sigma (Y)) =(-1.4775\over 3.186\cdot 3.457 ) =-0.134.$ Seit $r_(XY)<0$, то с ростом $X$ случайная величина $Y$ имеет тенденцию к уменьшению (отрицательная корреляционная зависимость).

Um ein System aus zwei Zufallsvariablen zu beschreiben, werden neben den mathematischen Erwartungen und Varianzen der Komponenten auch andere Merkmale verwendet, darunter Korrelationsmoment und Korrelationskoeffizient(wurde am Ende von T.8.p.8.6 kurz erwähnt) .

Korrelationsmoment(oder Kovarianz oder Moment der Verbindung) zweier Zufallsvariablen X und Y heißt m.o. Produkte der Abweichungen dieser Größen (siehe Gleichung (5) in Abschnitt 8.6):

Folge 1. Für das Korrelationsmoment der r.v. X und Y es gelten auch die Gleichheiten:

,

wo die entsprechenden zentralisierten r.v. X und Y (Siehe Abschnitt 8.6.).

Gleichzeitig: Wenn
ein zweidimensionales d.r.v. ist, dann wird die Kovarianz durch die Formel berechnet

(8)
;

wenn
- zweidimensionales s.r.v., dann wird die Kovarianz durch die Formel berechnet

(9)

Die Formeln (8) und (9) werden auf der Grundlage der Formeln (6) S. 12.1 erhalten. Es gibt eine Rechenformel

(10)

die sich aus Definition (9) ableitet und auf den Eigenschaften von m.s. beruht, tatsächlich

Daher können die Formeln (36) und (37) umgeschrieben werden als

(11)
;

Das Korrelationsmoment dient dazu, den Zusammenhang zwischen den Größen zu charakterisieren X und Y.

Wie unten gezeigt wird, ist das Korrelationsmoment null, wenn X und Y sind unabhängig;

Wenn also das Korrelationsmoment ungleich Null ist, dannXundYsind abhängige Zufallsvariablen.

Satz 12.1.Korrelationsmoment zweier unabhängiger ZufallsvariablenXundYgleich Null ist, d.h. für unabhängige WohnmobileXundY,

Nachweisen. Als X und Y unabhängige Zufallsvariablen, dann ihre Abweichungen

und

t auch unabhängig. Verwenden der Eigenschaften der mathematischen Erwartung (die mathematische Erwartung des Produkts unabhängiger r.v. ist gleich dem Produkt der mathematischen Erwartungen der Faktoren
,
, deshalb

Kommentar. Aus diesem Satz folgt, dass wenn
dann r.v. X und Y abhängig und in solchen Fällen r.v. X und Y genannt korreliert. Allerdings wovon
folgt nicht der Unabhängigkeit von r.v. X und Y.

In diesem Fall (
Wohnmobil X und Y genannt unkorreliert daraus folgt die Unabhängigkeit Unkorreliertheit; die Umkehrung gilt im Allgemeinen nicht (siehe Beispiel 2 unten).

Betrachten wir die Haupteigenschaften des Korrelationsmoments.

CKovarianzeigenschaften:

1. Die Kovarianz ist symmetrisch, d.h.
.

Folgt direkt aus Formel (38).

2. Es gibt Gleichheiten: d.h. Streuung von r.v. ist seine Kovarianz mit sich selbst.

Diese Gleichheiten ergeben sich direkt aus der Definition der Varianz bzw. Gleichheit (38), z

3. Gültige Gleichheiten:

Diese Gleichheiten werden aus der Definition von Varianz, Kovarianz von r.v.
und , Eigenschaften 2.

Gemäß der Definition von Dispersion (unter Berücksichtigung der Zentralisierung von r.v.
) wir haben

Jetzt erhalten wir basierend auf (33) und den Eigenschaften 2 und 3 die erste (mit einem Pluszeichen versehene) Eigenschaft 3.

Ebenso wird der zweite Teil von property3 von der Gleichheit abgeleitet

4. Lassen
konstante Zahlen
dann gelten die Gleichungen:

Üblicherweise werden diese Eigenschaften in Argumenten als Eigenschaften der Homogenität erster Ordnung und Periodizität bezeichnet.

Beweisen wir die erste Gleichheit, indem wir die Eigenschaften von m.o.
.

Satz 12.2.Absoluter WertKorrelationsmoment zweier beliebiger ZufallsvariablenXundYüberschreitet nicht das geometrische Mittel ihrer Streuungen: d.h.

Nachweisen. Beachten Sie, dass für unabhängige R.V. die Ungleichung gilt (siehe Satz 12.1.). Lassen Sie also r.v. X und Y abhängig. Betrachten Sie Standard-R.V.
und
und berechnen Sie die Varianz der r.v.
unter Berücksichtigung von Eigenschaft 3 haben wir: einerseits
Andererseits

Daher unter Berücksichtigung der Tatsache, dass
und sind normalisiert (standardisiert) r.v., dann m.d. gleich Null ist und die Varianz gleich 1 ist, daher unter Verwendung der Eigenschaft von m.d.
wir bekommen

und daher, basierend auf der Tatsache, dass
wir bekommen

Daraus folgt, dass d.h.

=

Die Behauptung ist bewiesen.

Aus der Definition und den Eigenschaften der Kovarianz folgt, dass sie sowohl den Grad der Abhängigkeit von r.v. als auch ihre Streuung um einen Punkt charakterisiert
Die Dimension der Kovarianz ist gleich dem Produkt der Dimensionen der Zufallsvariablen X und Y. Mit anderen Worten, die Größe des Korrelationsmoments hängt von den Maßeinheiten der Zufallsvariablen ab. Aus diesem Grund für die gleichen zwei Mengen X und Y, Der Wert des Korrelationsmoments hat je nach den Einheiten, in denen die Werte gemessen wurden, unterschiedliche Werte.

Lassen Sie zum Beispiel X und Y wurden in Zentimetern gemessen und
; wenn gemessen X und Y dann in Millimetern
Diese Eigenschaft des Korrelationsmoments ist der Nachteil dieses numerischen Merkmals, da der Vergleich der Korrelationsmomente verschiedener Systeme von Zufallsvariablen schwierig wird.

Um diesen Mangel zu beseitigen, wird ein neues numerisches Merkmal eingeführt - - „ Korrelationskoeffizient».

Korrelationskoeffizient
zufällige Variablen
und bezeichnet das Verhältnis des Korrelationsmoments zum Produkt der Standardabweichungen dieser Größen:

(13)
.

Da die Dimension
ist gleich dem Produkt der Dimensionen der Größen
und ,
hat die Dimension der Menge
σ j hat die Dimension der Menge , dann
ist nur eine Zahl (d.h. " dimensionslose Größe"). Somit hängt der Wert des Korrelationskoeffizienten nicht von der Wahl der Maßeinheit von r.v. ab, das ist Vorteil Korrelationskoeffizient vor dem Korrelationsmoment.

In T.8. 8.3 haben wir das Konzept eingeführt normalisiert Wohnmobil
, Formel (18), und der Satz ist damit bewiesen
und
(siehe auch Satz 8.2.). Hier beweisen wir die folgende Behauptung.

Satz 12.3. Zum zwei beliebige Zufallsvariablen
und faire Gleichberechtigung
.Mit anderen Worten, der Korrelationskoeffizient
irgendwelche zwei von
.in.XundYgleich dem Korrelationsmoment ihrer jeweiligen Normierung ist Wohnmobil
und .

Nachweisen. Per Definition von normalisierten Zufallsvariablen
und

und
.

Unter Berücksichtigung der Eigenschaft mathematischer Erwartung: und Gleichheit (40) erhalten wir

Die Behauptung ist bewiesen.

Betrachten wir einige häufig anzutreffende Eigenschaften des Korrelationskoeffizienten.

Eigenschaften des Korrelationskoeffizienten:

1. Der Absolutwert des Korrelationskoeffizienten übersteigt 1 nicht, d. h.

Diese Eigenschaft folgt direkt aus Formel (41) - der Definition des Korrelationskoeffizienten und Theorem 13.5. (siehe Gleichheit (40)).

2. Wenn Zufallsvariablen
und unabhängig sind, ist der Korrelationskoeffizient gleich Null, d.h.
.

Diese Eigenschaft ist eine direkte Folge von Gleichheit (40) und Satz 13.4.

Wir formulieren die folgende Eigenschaft als eigenen Satz.

Satz 12.4.

Wenn r.v.
und sind durch einen linearen funktionalen Zusammenhang miteinander verbunden, d.h.
dann

dabei

und umgekehrt wenn
,
dann Wohnmobil
und sind durch einen linearen funktionalen Zusammenhang miteinander verbunden, d.h. es gibt dauerhaft
und
so dass die Gleichheit

Nachweisen. Lassen
dann basierend auf Eigenschaft 4 der Kovarianz haben wir

und seit daher

Folglich,
. Gleichheit in einer Richtung wird erreicht. Lass weiter
, dann

zwei Fälle sollten betrachtet werden: 1)
und 2)
Betrachten wir also den ersten Fall. Dann per Definition
und damit von der Gleichheit
, wo
. In unserem Fall
, also aus der Gleichheit (siehe Beweis von Satz 13.5.)

=
,

wir bekommen das
, meint
Konstante. Als
und seitdem
Ja wirklich,

.

Folglich,


.

Ebenso zeigt sich, dass z
Es gibt (überzeugen Sie sich selbst!)

,
.

Einige Schlussfolgerungen:

1. Wenn
und unabhängig.in., dann

2. Wenn das Wohnmobil
und stehen dann linear zueinander in Beziehung
.

3. In anderen Fällen
:

In diesem Fall sagen wir, dass der r.v.
und verbunden eine positive Korrelation wenn
in Fällen
negative Korrelation. Je näher
zur Einheit, desto mehr Grund zu der Annahme, dass s.v.
und durch eine lineare Beziehung verbunden.

Beachten Sie, dass die Korrelationsmomente und Varianzen der r.v. normalerweise gegeben Korrelationsmatrix:

.

Offensichtlich erfüllt die Determinante der Korrelationsmatrix:

Wie bereits erwähnt, wenn zwei Zufallsvariablen abhängig sind, dann können sie beides sein korreliert, so und unkorreliert. Mit anderen Worten, das Korrelationsmoment zweier abhängiger Größen kann sein nicht gleich Null, aber vielleicht gleich Null.

Beispiel 1 Das Verteilungsgesetz der diskreten r.v. ist in der Tabelle angegeben


Finde den Korrelationskoeffizienten

Lösung. Wir finden die Gesetze der Verteilung von Komponenten
und :


Jetzt berechnen wir den m.o. Komponenten:

Diese Werte konnten anhand der Verteilungstabelle von r.v.

Ebenfalls,
Finde dich selbst.

Wir berechnen die Dispersionen der Komponenten und verwenden die Berechnungsformel:

Verfassen Sie das Verteilungsgesetz
und dann finden
:

Bei der Erstellung einer Verteilungsrechtstabelle sind folgende Schritte durchzuführen:

1) Lassen Sie nur die unterschiedlichen Bedeutungen verschiedener Werke
.

2) um die Wahrscheinlichkeit eines gegebenen Wertes zu bestimmen
, brauchen

addieren Sie alle entsprechenden Wahrscheinlichkeiten, die sich am Schnittpunkt der Haupttabelle befinden, und bevorzugen Sie das Auftreten eines bestimmten Werts.

In unserem Beispiel ist der r.v. nimmt nur drei verschiedene Werte an
. Hier der erste Wert (
) entspricht dem Produkt
aus der zweiten Zeile und
aus der ersten Spalte, also gibt es an ihrem Schnittpunkt eine Wahrscheinlichkeitszahl
gleichfalls

die sich aus der Summe der an den Schnittpunkten der ersten Zeile bzw. der ersten Spalte befindlichen Wahrscheinlichkeiten (0,15; 0,40; 0,05) und einem Wert ergibt
, die sich am Schnittpunkt der zweiten Zeile und der zweiten Spalte befindet, und schließlich,
, die sich am Schnittpunkt der zweiten Zeile und der dritten Spalte befindet.

Aus unserer Tabelle finden wir:

Wir finden das Korrelationsmoment mit Formel (38):

Wir finden den Korrelationskoeffizienten mit der Formel (41)

Also eine negative Korrelation.

Eine Übung. Das Verteilungsgesetz eines diskreten r.v. durch Tabelle gegeben


Finde den Korrelationskoeffizienten

Betrachten Sie ein Beispiel, wo es zwei gibt abhängige Zufallsvariablen kann sein unkorreliert.

Beispiel 2 2D-Zufallsvariable
)
gegeben durch die Dichtefunktion

Lassen Sie uns das beweisen
und abhängig , aber unkorreliert zufällige Variablen.

Lösung. Verwenden wir die zuvor berechneten Verteilungsdichten der Komponenten
und :

Seit damals
und abhängige Mengen. Beweisen Unkorreliertheit
und , es genügt, dies zu verifizieren

Finden wir den Korrelationsmoment nach der Formel:

Da die Differentialfunktion
symmetrisch um die Achse OY, dann
gleichfalls
, aufgrund der Symmetrie
um die Achse OCHSE. Daher den konstanten Faktor herausnehmen

Das innere Integral ist gleich Null (der Integrand ist ungerade, die Integrationsgrenzen sind symmetrisch zum Ursprung), also
, d.h. abhängige Zufallsvariablen
und korrelieren nicht miteinander.

Aus der Korrelation zweier Zufallsvariablen folgt also deren Abhängigkeit, aber aus der Unkorrelation kann immer noch nicht auf die Unabhängigkeit dieser Variablen geschlossen werden.

Für normalverteilte r.v. eine solche Schlussfolgerung ist Ausnahme, diese. aus unkorreliert normal verteilt Wohnmobil folgt ihnen Unabhängigkeit.

Dieser Frage ist der nächste Absatz gewidmet.

Numerische Eigenschaften eines Systems aus zwei Zufallsvariablen. Korrelationsmoment. Korrelationskoeffizient

Wir haben die numerischen Eigenschaften einer Zufallsvariablen X in Betracht gezogen - die Anfangs- und Zentralmomente verschiedener Ordnungen. Zwei dieser Eigenschaften sind die wichtigsten: die mathematische Erwartung m x und Varianz Dx.

Ähnliche numerische Merkmale – Anfangs- und Zentralmomente unterschiedlicher Ordnung – lassen sich auch für ein System aus zwei Zufallsvariablen einführen. Das Anfangsmoment der Ordnung k, s des Systems (X, Y) ist der Erwartungswert des Produkts X k zu Y s:

M[X k Y s]

Das zentrale Moment der Ordnung k, s des Systems (X, Y) ist der mathematische Erwartungswert des Produkts der k-ten und s-ten Potenzen der entsprechenden zentrierten Größen:

In der Praxis werden meist nur das erste und das zweite Moment verwendet.

Die ersten Anfangsmomente sind uns bereits die mathematischen Erwartungen der im System enthaltenen Größen X und Y:

m x und M j

Die Menge der mathematischen Erwartungen m x, m j ist ein Merkmal der Position des Systems. Geometrisch sind dies die Koordinaten des Mittelpunkts auf der Ebene, um die der Punkt gestreut wird (X, Y).

Neben den ersten Anfangsmomenten sind die zweiten Zentralmomente des Systems in der Praxis weit verbreitet. Zwei davon sind bereits bekannte Dispersionen von X und Y.

D[X] und D[Y], die die Streuung eines zufälligen Punktes in Richtung der Achsen Ox und Oy charakterisieren.

Eine besondere Rolle als Merkmal des Systems spielt das zweite gemischte zentrale Moment:

μ 1,1 = M,

dh der Erwartungswert des Produkts zentrierter Größen. Da dieses Moment in der Theorie der Systeme von Zufallsvariablen eine wichtige Rolle spielt, wurde dafür eine besondere Bezeichnung eingeführt:

Khy \u003d M [X 0 Y 0 ] \u003d M [(X-m x)(Y-m j)].

Das Merkmal Kxy wird Korrelationsmoment (also „Verbindungsmoment“) der Zufallsvariablen X, Y genannt.

Für diskrete Zufallsvariablen wird das Korrelationsmoment durch die Formel ausgedrückt

Khu =Σ Σ(x ich-m x) (y j-m j)p ij

Lassen Sie uns die Bedeutung und den Zweck dieser Eigenschaft herausfinden. Das Korrelationsmoment ist eine Eigenschaft eines Systems von Zufallsvariablen, die neben der Streuung der X- und Y-Werte auch deren Beziehung zueinander beschreibt. Für unabhängige Zufallsvariablen ist das Korrelationsmoment Null.

Wenn also das Korrelationsmoment zweier Zufallsvariablen von Null verschieden ist, ist dies ein Zeichen für das Vorhandensein einer Beziehung zwischen ihnen.

Aus der Formel ist ersichtlich, dass das Korrelationsmoment nicht nur die Abhängigkeit der Größen, sondern auch deren Streuung charakterisiert. Wenn zum Beispiel eine der Größen (X, Y) sehr wenig von ihrer mathematischen Erwartung abweicht (fast nicht zufällig), dann wird das Korrelationsmoment klein sein, egal wie eng die Größen (X, Y) zusammenhängen . Um also den Zusammenhang zwischen den Größen (X, Y) in seiner reinen Form zu charakterisieren, gehen wir vom Moment zur dimensionslosen Kennlinie über

rxy=Kxy/σxσy

wobei σх, σу Standardabweichungen der Werte X, Y sind.Diese Eigenschaft wird genannt Korrelationskoeffizient x- und y-Werte.

Offensichtlich verschwindet der Korrelationskoeffizient gleichzeitig mit dem Korrelationsmoment; daher ist der Korrelationskoeffizient für unabhängige Zufallsvariablen null.

Zufallsvariablen, bei denen das Korrelationsmoment (und damit der Korrelationskoeffizient) gleich Null ist, werden als unkorreliert (manchmal „unreliert“) bezeichnet.

Ist das Konzept der unkorrelierten Zufallsvariablen äquivalent zum Konzept der Unabhängigkeit? Es ist bekannt, dass unabhängige Zufallsvariablen immer unkorreliert sind. Zu klären bleibt: Ist der umgekehrte Satz wahr, folgt ihre Unabhängigkeit aus der Unkorreliertheit der Größen? Es stellt sich heraus - nein. Es gibt Zufallsvariablen, die unkorreliert, aber abhängig sind. Gleich Null des Korrelationskoeffizienten ist eine notwendige, aber nicht hinreichende Bedingung für die Unabhängigkeit von Zufallsvariablen. Aus der Unabhängigkeit von Zufallsvariablen folgt ihre Unkorreliertheit; im Gegenteil, ihre Unabhängigkeit folgt nicht aus der unkorrelierten Größe. Die Bedingung der Unabhängigkeit von Zufallsvariablen ist strenger als die Bedingung der Nichtkorrelation.

Der Korrelationskoeffizient charakterisiert nicht jede Abhängigkeit, sondern nur die sogenannte lineare Abhängigkeit. Die lineare probabilistische Abhängigkeit von Zufallsvariablen liegt in der Tatsache begründet, dass mit zunehmender Zufallsvariable die andere gemäß einem linearen Gesetz tendenziell zunimmt (oder abnimmt). Diese Tendenz zu einer linearen Beziehung kann mehr oder weniger ausgeprägt sein und sich mehr oder weniger einer funktionalen, dh der nächsten linearen Beziehung annähern. Der Korrelationskoeffizient charakterisiert den Grad der Enge des linearen Zusammenhangs zwischen Zufallsvariablen. Wenn die Zufallsvariablen X und Y durch einen exakten linearen funktionalen Zusammenhang verbunden sind:

Y = aX + b, dann rxy = ±1, und das Vorzeichen "plus" oder "minus" wird genommen, je nachdem, ob der Koeffizient a positiv oder negativ ist. Im allgemeinen Fall, wenn die X- und Y-Werte durch eine willkürliche probabilistische Abhängigkeit zusammenhängen, kann der Korrelationskoeffizient einen Wert haben innerhalb von:

1 < rху < 1

Bei r > 0 spricht man bei r von einer positiven Korrelation zwischen X und Y<0 - об отрицательной корреляции. Положительная корреляция между случайными величинами озна­чает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать.

Lassen Sie uns einige Beispiele für Zufallsvariablen mit positiven und negativen Korrelationen geben.

1. Gewicht und Größe einer Person sind positiv korreliert.

2. Die Zeit, die für die Vorbereitung auf den Unterricht aufgewendet wird, und die erzielte Note sind positiv korreliert (wenn natürlich die Zeit sinnvoll eingesetzt wird). Im Gegenteil, die Zeit, die für die Vorbereitung aufgewendet wird, und die Anzahl der erhaltenen Zweien sind negativ korreliert.

3. Es werden zwei Schüsse auf das Ziel abgegeben; Der Auftreffpunkt des ersten Schusses wird aufgezeichnet, und eine Korrektur proportional zum Fehler des ersten Schusses mit entgegengesetztem Vorzeichen wird in das Visier eingeführt. Die Koordinaten der Trefferpunkte des ersten und zweiten Schusses werden negativ korreliert.

Wenn uns die Ergebnisse einer Reihe von Experimenten zu einem System von zwei Zufallsvariablen (X, Y) zur Verfügung stehen, dann ist es einfach, das Vorhandensein oder Fehlen einer signifikanten Korrelation zwischen ihnen in erster Näherung gemäß dem Diagramm zu beurteilen , die alle aus dem Experiment gewonnenen Wertepaare von Zufallsvariablen in Form von Punkten anzeigt. Zum Beispiel, wenn die beobachteten Paare von Magnitudenwerten wie folgt angeordnet sind



Korrelationsmomente, der Korrelationskoeffizient sind numerische Merkmale, die eng mit dem oben eingeführten Begriff der Zufallsvariablen bzw. einem System von Zufallsvariablen verwandt sind. Um ihre Bedeutung und Rolle einzuführen und zu bestimmen, ist es daher notwendig, das Konzept eines Systems von Zufallsvariablen und einige ihnen innewohnende Eigenschaften zu erklären.

Zwei oder mehr Zufallsvariablen, die ein Phänomen beschreiben, werden als System oder Komplex von Zufallsvariablen bezeichnet.

Ein System aus mehreren Zufallsvariablen X, Y, Z, …, W wird üblicherweise mit (X, Y, Z, …, W) bezeichnet.

Zum Beispiel wird ein Punkt in einer Ebene nicht durch eine Koordinate, sondern durch zwei und im Raum sogar durch drei beschrieben.

Die Eigenschaften eines Systems aus mehreren Zufallsvariablen sind nicht auf die Eigenschaften einzelner im System enthaltener Zufallsvariablen beschränkt, sondern umfassen auch gegenseitige Zusammenhänge (Abhängigkeiten) zwischen Zufallsvariablen. Daher sollte man bei der Untersuchung eines Systems von Zufallsvariablen auf die Art und den Grad der Abhängigkeit achten. Diese Abhängigkeit kann mehr oder weniger ausgeprägt, mehr oder weniger eng sein. Und in anderen Fällen erweisen sich Zufallsvariablen als praktisch unabhängig.

Eine Zufallsvariable Y heißt unabhängig von der Zufallsvariablen X, wenn das Verteilungsgesetz der Zufallsvariablen Y nicht vom Wert der Variablen X abhängt.

Es sei darauf hingewiesen, dass die Abhängigkeit und Unabhängigkeit von Zufallsvariablen immer ein wechselseitiges Phänomen ist: Wenn Y nicht von X abhängt, dann hängt der Wert von X nicht von Y ab. Vor diesem Hintergrund können wir die folgende Definition der Unabhängigkeit von geben zufällige Variablen.

Die Zufallsvariablen X und Y heißen unabhängig, wenn das Verteilungsgesetz der einen nicht davon abhängt, welchen Wert die andere angenommen hat. Andernfalls heißen die Größen X und Y abhängig.

Das Verteilungsgesetz einer Zufallsvariablen ist jede Beziehung, die eine Verbindung zwischen den möglichen Werten einer Zufallsvariablen und ihren entsprechenden Wahrscheinlichkeiten herstellt.

Der in der Wahrscheinlichkeitstheorie verwendete Begriff der "Abhängigkeit" von Zufallsvariablen unterscheidet sich etwas von dem in der Mathematik üblichen Begriff der "Abhängigkeit" von Variablen. Somit versteht ein Mathematiker unter „Abhängigkeit“ nur eine Art von Abhängigkeit – eine vollständige, starre, sogenannte funktionale Abhängigkeit. Zwei Größen X und Y heißen funktional abhängig, wenn es möglich ist, den Wert der anderen genau zu bestimmen, wenn man den Wert der einen kennt.

In der Wahrscheinlichkeitstheorie gibt es eine etwas andere Art von Abhängigkeit – probabilistische Abhängigkeit. Wenn der Wert von Y durch eine Wahrscheinlichkeitsabhängigkeit mit dem Wert von X in Beziehung steht, ist es bei Kenntnis des Werts von X unmöglich, den Wert von Y genau anzugeben, aber Sie können sein Verteilungsgesetz angeben, je nachdem, welchen Wert der Wert hat von X genommen hat.

Die probabilistische Abhängigkeit kann mehr oder weniger eng sein; mit zunehmender Strenge der probabilistischen Abhängigkeit nähert sie sich immer mehr der funktionalen an. Somit kann die funktionale Abhängigkeit als extremer Grenzfall der engsten probabilistischen Abhängigkeit betrachtet werden. Ein weiterer Extremfall ist die völlige Unabhängigkeit von Zufallsvariablen. Zwischen diesen beiden Extremfällen liegen alle Abstufungen probabilistischer Abhängigkeit – von der stärksten bis zur schwächsten.

Wahrscheinlichkeitsabhängigkeiten zwischen Zufallsvariablen sind in der Praxis häufig anzutreffen. Stehen die Zufallsvariablen X und Y in einer probabilistischen Abhängigkeit, so bedeutet dies nicht, dass sich bei einer Änderung des Wertes von X der Wert von Y ganz eindeutig ändert; es bedeutet nur, dass bei einer Änderung des Wertes von X der Wert von Y

tendiert auch dazu, sich zu ändern (erhöht oder verringert sich mit zunehmendem X). Dieser Trend wird nur allgemein beobachtet, Abweichungen davon sind im Einzelfall möglich.

Beispiele probabilistischer Abhängigkeit.

Wir werden zufällig einen Patienten mit Peritonitis auswählen. Zufallsvariable T - Zeit seit Beginn der Krankheit, Zufallsvariable O - Niveau der homöostatischen Störungen. Es besteht eine klare Beziehung zwischen diesen Werten, da der Wert von T einer der wichtigsten Gründe ist, die den Wert von O bestimmen.

Gleichzeitig besteht eine schwächere probabilistische Abhängigkeit zwischen der Zufallsvariablen T und der Zufallsvariablen M, was die Mortalität in dieser Pathologie widerspiegelt, da die Zufallsvariable, obwohl sie die Zufallsvariable O beeinflusst, nicht der Hauptbestimmungsfaktor ist.

Wenn wir außerdem den Wert von T und den Wert von B (das Alter des Chirurgen) berücksichtigen, sind diese Werte praktisch unabhängig.

Bisher haben wir die Eigenschaften von Systemen von Zufallsvariablen diskutiert und nur eine verbale Erklärung gegeben. Allerdings gibt es numerische Merkmale, durch die die Eigenschaften sowohl einzelner Zufallsvariablen als auch eines Systems von Zufallsvariablen untersucht werden.

Eine der wichtigsten Eigenschaften einer Zufallsvariablen einer Normalverteilung ist der mathematische Erwartungswert.

Betrachten wir eine diskrete Zufallsvariable X mit möglichen Werten X 1 , x2, ... , Xn mit Wahrscheinlichkeiten p1, p2, ... , Pn. Wir müssen die Position der Werte der Zufallsvariablen auf der x-Achse durch eine Zahl charakterisieren, wobei zu berücksichtigen ist, dass diese Werte unterschiedliche Werte haben. Dazu wird meist der sogenannte „gewichtete Durchschnitt“ der Werte herangezogen. Xi, und jeder Wert Xi bei der Mittelung sollte mit einem "Gewicht" proportional zur Wahrscheinlichkeit dieses Wertes berücksichtigt werden. Wenn wir also den „gewichteten Durchschnitt“ als M[X] bzw mx, wir bekommen

oder in Anbetracht dessen,

Der mathematische Erwartungswert einer Zufallsvariablen ist die Summe der Produkte aller möglichen Werte einer Zufallsvariablen und der Wahrscheinlichkeiten dieser Werte.

Betrachten wir zur größeren Klarheit eine mechanische Interpretation des eingeführten Konzepts. Auf der Abszissenachse seien Punkte mit Abszissen x 1 gelegen, x2, …, xn, in denen die Massen jeweils konzentriert sind p1, p2, … , Pn, Außerdem. Dann ist die mathematische Erwartung nichts anderes als die Abszisse des Schwerpunkts des gegebenen Systems materieller Punkte.

Formel (1) für den mathematischen Erwartungswert entspricht dem Fall einer diskreten Zufallsvariablen. Für einen kontinuierlichen Wert X wird der mathematische Erwartungswert natürlich nicht als Summe, sondern als Integral ausgedrückt:

wobei die Verteilungsdichte von X ist.

Formel (2) erhält man aus Formel (1), wenn man darin einzelne Werte ersetzt Xi sich kontinuierlich ändernder Parameter X, die entsprechenden Wahrscheinlichkeiten Pi Wahrscheinlichkeitselement f(x)dx, die Endsumme - Integral.

In der mechanischen Interpretation behält die mathematische Erwartung einer kontinuierlichen Zufallsvariablen dieselbe Bedeutung - die Abszisse des Schwerpunkts in dem Fall, wenn die Verteilungsmasse entlang der Abszissenachse stetig mit der Dichte f(x) ist.

Anzumerken ist, dass der mathematische Erwartungswert nicht für alle Zufallsvariablen existiert, was jedoch nach Ansicht einiger Wissenschaftler für die Praxis nicht von nennenswertem Interesse ist.

Neben der mathematischen Erwartung sind auch andere numerische Zufallsvariablen, Momente, wichtig.

Der Begriff des Moments wird in der Mechanik häufig verwendet, um die Verteilung von Massen zu beschreiben (statistische Momente, Trägheitsmomente usw.). Genau die gleichen Methoden werden in der Wahrscheinlichkeitstheorie verwendet, um die grundlegenden Eigenschaften der Verteilung einer Zufallsvariablen zu beschreiben. Am häufigsten werden in der Praxis zwei Arten von Momenten verwendet: anfänglich und zentral.

Das Anfangsmoment der s-ten Ordnung einer unstetigen Zufallsvariablen X ist die Summe der Form

Offensichtlich stimmt diese Definition mit der Definition des Anfangsmoments der Ordnung s in der Mechanik überein, wenn auf der x-Achse an den Punkten x 1, ..., xn konzentrierte Masse p1, …, Pn.

Für eine stetige Zufallsvariable X ist das Anfangsmoment s-ter Ordnung das Integral

Es ist klar, dass

diese. das Anfangsmoment der s-ten Ordnung einer Zufallsvariablen X ist nichts anderes als die mathematische Erwartung der s-ten Potenz dieser Zufallsvariablen.

Bevor wir die Definition des zentralen Moments geben, führen wir das Konzept der "zentrierten Zufallsvariablen" ein.

Es gebe eine Zufallsvariable X mit mathematischem Erwartungswert m x . Die dem Wert X entsprechende zentrierte Zufallsvariable ist die Abweichung der Zufallsvariablen X von ihrer mathematischen Erwartung

Es ist leicht zu sehen, dass der mathematische Erwartungswert einer zentrierten Zufallsvariablen gleich Null ist.

Das Zentrieren einer Zufallsvariablen entspricht dem Verschieben des Ursprungs zu einem Punkt, dessen Abszisse gleich der mathematischen Erwartung ist.

Das zentrale Ordnungsmoment s einer Zufallsvariablen X ist der mathematische Erwartungswert der s-ten Potenz der entsprechenden zentrierten Zufallsvariablen:

Für eine diskontinuierliche Zufallsvariable wird das s-te zentrale Moment durch die Summe ausgedrückt

und für kontinuierlich - integral

Das wichtigste ist das zweite zentrale Moment, das Dispersion genannt wird und mit D[X] bezeichnet wird. Für die Streuung haben wir

Die Streuung einer Zufallsvariablen ist ein Streuungsmerkmal, die Streuung der Werte einer Zufallsvariablen um ihre mathematische Erwartung. Das Wort „Dispersion“ selbst bedeutet „Streuung“.

Die mechanische Interpretation der Dispersion ist nichts anderes als das Trägheitsmoment einer gegebenen Massenverteilung um den Schwerpunkt.

In der Praxis wird der Wert auch oft verwendet

wird die Standardabweichung (sonst - der "Standard") der Zufallsvariablen X genannt.

Nun wenden wir uns der Betrachtung der Eigenschaften von Zufallsvariablensystemen zu.

Das Anfangsmoment der Ordnung k,s des Systems (X, Y) ist der Erwartungswert des Produkts X k und Y s ,

xk,s=M.

Das zentrale Moment der Ordnung k,s des Systems (X, Y) ist der mathematische Erwartungswert des Produkts der k-ten und s-ten Potenzen der entsprechenden zentrierten Größen:

Für diskontinuierliche Zufallsvariablen

wobei p ij die Wahrscheinlichkeit ist, dass das System (X, Y) die Werte ( xi, ja), und es wird die Summe über alle möglichen Werte der Zufallsvariablen X,Y betrachtet.

Für stetige Zufallsvariablen

wobei f(x,y) die Verteilungsdichte des Systems ist.

Neben den Zahlen k und s, die die Momentenordnung bezogen auf einzelne Größen charakterisieren, wird auch die Gesamtmomentenordnung k + s betrachtet, die gleich der Summe der Exponenten bei X und Y ist. Entsprechend der Gesamtreihenfolge werden die Momente in den ersten, zweiten usw. eingeteilt. In der Praxis werden normalerweise nur das erste und das zweite Moment angewendet.

Die ersten Anfangsmomente sind die mathematischen Erwartungen der im System enthaltenen X- und Y-Werte

y1.0=mx y0.1= mein.

Die Menge der mathematischen Erwartungen m x , mein ist ein Merkmal der Position des Systems. Geometrisch sind dies die Koordinaten des Mittelpunkts auf der Ebene, um die der Punkt gestreut wird (X, Y).

Auch die zweiten zentralen Momente von Systemen spielen in der Praxis eine wichtige Rolle. Zwei davon sind Dispersionen von X und Y

Charakterisierung der Streuung eines zufälligen Punktes in Richtung der Achsen Ox und Oy.

Eine besondere Rolle spielt das zweite verschobene zentrale Moment:

wird Korrelationsmoment (mit anderen Worten „Verbindungsmoment“) der Zufallsvariablen X und Y genannt.

Das Korrelationsmoment ist eine Eigenschaft eines Systems von Zufallsvariablen, die neben der Streuung der X- und Y-Werte auch deren Beziehung zueinander beschreibt. Um dies zu überprüfen, stellen wir fest, dass das Korrelationsmoment unabhängiger Zufallsvariablen gleich Null ist.

Beachten Sie, dass das Korrelationsmoment nicht nur die Abhängigkeit von Größen charakterisiert, sondern auch deren Streuung. Um die Beziehung zwischen den Größen (X; Y) in ihrer reinen Form zu charakterisieren, gehen sie daher vom Moment K xy zum Merkmal über

wo ja, jj- Standardabweichungen der X- und Y-Werte Diese Eigenschaft wird als Korrelationskoeffizient der X- und Y-Werte bezeichnet.

Aus Formel (3) ist ersichtlich, dass für unabhängige Zufallsvariablen der Korrelationskoeffizient gleich Null ist, da für solche Variablen xxy=0.

Zufallsvariablen für die rxy=0 heißen unkorreliert (nicht zusammenhängend).

Beachten Sie jedoch, dass die Nichtkorrelation von Zufallsvariablen nicht ihre Unabhängigkeit impliziert.

Der Korrelationskoeffizient charakterisiert nicht jede Abhängigkeit, sondern nur die sogenannte lineare Abhängigkeit. Die lineare probabilistische Abhängigkeit von Zufallsvariablen liegt in der Tatsache begründet, dass mit zunehmender Zufallsvariable die andere gemäß einem linearen Gesetz tendenziell zunimmt (oder abnimmt). Der Korrelationskoeffizient charakterisiert also den Grad der Enge des linearen Zusammenhangs zwischen Zufallsvariablen.

Es gibt mehrere Methoden zur Bestimmung des Korrelationskoeffizienten. Wir geben jedoch ein Beispiel unter Verwendung des Korrelationskoeffizienten für gemischte Momente nach Pearson, wo

anhand einer Datentabelle (in unserem Beispiel der relative Gehalt an T-Lymphozyten in % und der IgG-Spiegel in g / l):

Durch Einsetzen der erhaltenen Werte in Formel (4) erhalten wir

Das heißt, der Korrelationskoeffizient der Dynamik von T-Lymphozyten und Immunglobulin G bei Kindern mit Peritonitis beträgt 0,9933, was auf eine hohe Beziehung zwischen diesen Indikatoren hinweist.