Kovarianz- und Korrelationskoeffizient. Theoretische Grundlagen mathematischer und instrumenteller Methoden der Wirtschaftswissenschaften

Definition:

Das Korrelationsmoment von Zufallsvariablen ist der mathematische Erwartungswert des Produkts der Abweichungen dieser Variablen

Denken Sie daran, dass der obige Ausdruck ein Element der Formel für die Streuung der Summe zweier Zufallsvariablen ist:

Kommentar:

Das Korrelationsmoment kann wie folgt dargestellt werden:

Nachweisen:

Satz:

Das Korrelationsmoment zweier unabhängiger Zufallsvariablen ist gleich 0

Nachweisen:

Laut Bemerkung:

Aber für unabhängige Zufallsvariablen

Dann gilt für unabhängige Zufallsvariablen und:

Definition:

Die dimensionslose Größe wird Korrelationskoeffizient genannt.

Satz:

Der Absolutwert des Korrelationsmoments zweier Zufallsvariablen überschreitet nicht das Produkt ihrer Standardabweichungen:

Nachweisen:

Lassen Sie uns die Zufallsvariable einführen und finde seine Varianz:

Da jede Varianz nicht negativ ist

Ebenso führen wir eine Zufallsvariable ein und wir finden das:

Definition:

Zufallsvariablen heißen unkorrelierte if und korrelierte if.

Satz:

Der Korrelationskoeffizient von Zufallsvariablen, die durch eine lineare Abhängigkeit miteinander verbunden sind, ist gleich.

Nachweisen:

Finden wir den Korrelationskoeffizienten:

Beachten wir einige Eigenschaften des Korrelationskoeffizienten.

1. Aus Beispiel 1 folgt, dass wenn - unabhängig zufällige Variablen, dann ist der Korrelationskoeffizient 0.

Beachten Sie, dass das Gegenteil nicht der Fall ist.

2. Der Absolutwert des Korrelationskoeffizienten überschreitet im allgemeinen Fall Eins nicht:

Der Beweis folgt aus der zuvor nachgewiesenen Formel für das Korrelationsmoment:

Teilen Sie beide Seiten der Ungleichung durch das Produkt und erhalten Sie

3. Der Korrelationskoeffizient charakterisiert die relative (in Bruchteilen) Größe der Abweichung mathematische Erwartung Produkt des Produkts mathematischer Mengenerwartungen. Da eine solche Abweichung nur auftritt abhängige Größen, dann können wir sagen, dass der Korrelationskoeffizient die Nähe der Beziehung zwischen und charakterisiert.



Diese Aussage folgt aus der zuvor bewiesenen Gleichheit: . Reduzieren wir das Korrelationsmoment auf den Korrelationskoeffizienten:


Kulikov A. A. Forex für Anfänger. Handbuch des Aktienspekulanten – St. Petersburg: Peter, 2007; Kommersant Nr. 62 vom 13.04.2007 – Welthandel wird langsamer.

Bachelier L. Theorie der Spekulation. //Annales de l "Ecole Normale Superieure. 1900. V. 17. S. 21-86. Eine Beschreibung der Ideen von L. Bouchelier, ihres Schicksals und ihrer modernen Kritik sind in den Büchern enthalten: Mandelbrot B. Ungehorsam gegenüber dem Markt, die fraktale Revolution im Finanzwesen – M.: Williams Publishing House, 2006;

Cootner Paul H. Der zufällige Charakter der Börsenkurse – Cambridge, MA, MIT Press

Harry M. Markowitz, Portfolio Selection, Journal of Finance, 7, Nr. 1 (März 1952), S. 79–81.

Der vorgestellte Abschnitt verwendet Materialien aus den folgenden Büchern: Sharp W. F., Alexander G. J., Bailey J. W. Investments – trans. aus dem Englischen – M.: INFRA-M, 1997; Bromwich M. Analyse Wirtschaftlichkeit Kapitalanlagen - trans. aus dem Englischen – M.: INFRA-M, 1996; Shiryaev V.I. Modelle der Finanzmärkte. Optimale Portfolios, Finanz- und Risikomanagement – Lernprogramm– M.: KomKniga, 2007; Shapoval A. B. Investitionen: mathematische Methoden– M.: FORUM: INFRA-M, 2007; Korosteleva M. V. Methoden zur Analyse des Kapitalmarktes – St. Petersburg: Peter, 2003.

Tobin J. machte auf die Unzulänglichkeit von Indikatoren für mathematische Erwartungen und Streuung für den Vergleich von Portfolios aufmerksam (siehe Shiryaev V.I. Modelle der Finanzmärkte... - S. 18-19). Ihr Einsatz ist jedoch durch ihre Konstruktivität gerechtfertigt.

Siehe Askinadzi V.M. et al. Investmentgeschäft – M.: Market DS, 238-241 oder Shiryaev V.I. Optimale Portfolios, Finanz- und Risikomanagement – ​​Lehrbuch – M.: KomKniga, 2007, S. 17.

Siehe Bromwich M. Analyse der wirtschaftlichen Effizienz von Kapitalinvestitionen – trans. aus dem Englischen – M.: INFRA-M, 1996, S. 343. Eine Diskussion alternativer Risikomaße, zum Beispiel die Reduktion auf den Normaltyp der sogenannten Lognormalverteilung, findet sich im Buch: Sharpe W.F., Alexander G.J., Bailey J. V. Investments – trans. aus dem Englischen – M.: INFRA-M, 1997, S. 179-181.

Siehe Bromwich M. Uk. Op. Seite 342.

Es wird angenommen, dass der erste Schritt zur Schaffung einer Nützlichkeitstheorie die Formulierung des sogenannten St. Petersburger Paradoxons war. Es ist merkwürdig, dass Nikolai Bernoulli dieses Paradoxon formuliert hat und Daniel Bernoulli ihm eine Erklärung gegeben hat – siehe: D. Bernoulli Erfahrung einer neuen Theorie zur Messung von Losen / D. Bernoulli; Fahrbahn A. Nardova // Meilensteine ​​des wirtschaftlichen Denkens / comp. und allgemein Hrsg. V. M. Galperina. St. Petersburg, 1993. T. 1: Theorie Konsumenten-Verhalten und Nachfrage. S. 11-27.

Nützliche Materialien zur Nutzentheorie finden sich in Büchern zur Spieltheorie, insbesondere: R.D. Lewis, H. Raifa Games and Solutions – Trans. aus dem Englischen - M.: Ausländischer Verlag. lit., 1961; Neumann von John, Morgenstern O. Spieltheorie und ökonomisches Verhalten – Trans. aus dem Englischen - M.: Nauka, 1970.

Siehe Anhang zum Modell von G. Markowitz

Siehe das Buch „Modelle der Finanzmärkte“ von Shiryaev V.I. Optimale Portfolios, Finanz- und Risikomanagement – ​​M.: KomKniga, 2007, S. 25-26.

Die analytische Formulierung des Markowitz-Modells findet sich in den Büchern: Shapoval A. B. Investments: Mathematische Methoden – M.: FORUM: INFRA-M, 2007, S. 21-22; Askinadzi V.M. et al. Investmentgeschäft - M.: Market DS, 288.

Wir haben die im Buch vorgeschlagene Formulierung verwendet: Askinadzi V.M. et al.

Siehe im Buch: Shapoval A. B. Investments: Mathematische Methoden - M.: FORUM: INFRA-M, 2007, S. 16-18 (Abschnitt „Markowitz-Modell“).

Siehe: Sharp W. Uk. op. S. 213-218, 226-228, S. 271 – über den Zusammenhang und die Unterschiede zwischen dem Marktmodell und dem CAPM-Modell; auch Askinadzi V.M. et al. O., S. 278-294; Shiryaev V.V. Großbritannien. O., S. 47-58

Siehe: Sharp W. F., Alexander G. J., Bailey J. W. Investments – trans. aus dem Englischen – M.: INFRA-M, 1997, S. 316-337.

Siehe: Unternehmensbewertung – Hrsg. Gryaznova A.G., Fedotova M.A. – M.: Finanzen und Statistik, 2007, S. 199

Siehe: Shapoval A. B. Investments: Mathematische Methoden - M.: FORUM: INFRA-M, 2007, Kapitel 3.

Siehe Mandelbrot B., Hudson R.L. Unruly Markets: eine fraktale Revolution im Finanzwesen – trans. aus dem Englischen – M.: Williams Publishing House, 2006, 187 S.

Siehe ebd., S. 34-39.

Siehe: Sornette D. Wie man Finanzmarktcrashs vorhersagt – trans. aus dem Französischen – M.: Verlag „I-trade“, 2008, S. 19-22.

Dieser Abschnitt basiert hauptsächlich auf Materialien aus dem Buch: Wirtschaftstheorie(New Palgraiv) – trans. aus dem Englischen – M.: INFRA-M, 2004, S. 263-273 – Kapitel The Efficient Market Hypothesis, Autor – Berton G, Malkiel. Basierend auf den Materialien in diesem Artikel werden auch Links zu den Autoren verschiedener Studien hergestellt. Siehe auch: Burton Malkiel „A Random Walk Down Wall Street“ – trans. aus dem Englischen - Minsk: Potpourri, 2006. Das letzte Buch erscheint seit 30 Jahren. Es ist merkwürdig, dass Ende der 90er Jahre ein anderes Buch veröffentlicht wurde: Andrew Lowe. Ein nicht zufälliger Spaziergang entlang der Wall Street. B. Melkiel ist im Allgemeinen ein Befürworter der Hypothese eines effizienten Marktes, und Andrew Law ist das Gegenteil.

Siehe: Chebotarev Yu.N. Zufälligkeit und Nichtzufälligkeit von Börsenpreisen - M.: SmartBook; I-trade, 2008, 198.

Invarianz ist die Invarianz einer beliebigen Größe bei sich ändernden physikalischen Bedingungen oder in Bezug auf bestimmte Transformationen, beispielsweise Koordinaten- und Zeittransformationen beim Übergang von einer Inertialsystem Bezug auf einen anderen (relativistische Invarianz). Eine fast strenge Beschreibung des „Random Walk“ in der einfachsten Version des „Wiener Prozesses“ findet sich im Buch: Shapoval A.B. Investitionen: mathematische Methoden - Lehrbuch - M.: FORUM: INFRA-M, 2007, S. 42-43.

Zufälliger Prozess heißt Wiener, wenn folgende Bedingungen erfüllt sind:

1) Der Prozess beginnt bei Null, das heißt;

2) Die Zufallsvariable hat Normalverteilung mit einem mathematischen Erwartungswert von Null und einer für jeden Zeitpunkt gleichen Streuung;

3) Für beliebige nicht überlappende Intervalle und Zufallsvariablen sind sie unabhängig.

Im Allgemeinen das Handbuch von Shapoval A.B. Wir empfehlen Ihnen, sich damit vertraut zu machen Mathematische Modelle Portfolioanalyse, Optionsbewertung. Die Präsentation ist für die Praxis recht streng und kurz (96 Seiten), führt aber ein moderne Theorie Finanzen. Im Kapitel zur Portfolioanalyse machen wir intensiv Gebrauch von

Siehe Material aus Wikipedia:

Eine Folge von Zufallsvariablen heißt zeitdiskrete Martingale, wenn:

Gegeben sei eine weitere Folge von Zufallsvariablen. Dann heißt eine Folge von Zufallsvariablen ein relatives Martingal oder -Martingal, wenn:

Gegeben sei eine Folge von Zufallsvariablen. Dann wird eine Folge von Zufallsvariablen als Sub(super)martingal bezeichnet, und zwar in Bezug auf Folgendes:

Dieser Effekt lässt sich durch den Steuereffekt erklären. Am Ende des Jahres werfen Anleger Aktien ab, vor allem von kleinen Unternehmen, um Unrentabilität vorzutäuschen und Steuerzahlungen zu erleichtern, die Aktienkurse fallen und im Januar können sie sogar mit einem Überschuss zurückkehren – siehe: Burton Malkiel. A Random Walk Down Wall Street, S. 316-317.

Für den Wochenendeffekt und den Montageffekt gibt es keine eindeutige Erklärung. Der Effekt deutet darauf hin, dass die Aktienkurse am Montag niedriger sind als am Freitagabend. In A Random Walk Down Wall Street geht Burton Malkiel auf den Effekt ein: Die Aktienkurse sind am Montagmorgen etwas höher als am Freitagabend, und am Montagabend sind sie niedriger, sodass die Renditen relativ negativ sind. Daher sollten Sie am Montagabend Aktien kaufen. Doch ein Test des Effekts, den der Autor von Mai bis Juli 2002 anhand von Materialien der New Yorker Börse durchführte, zeigte, dass der Effekt nur an acht von dreizehn Wochenenden auftrat.

Die „Buy and Hold“-Strategie wird von sogenannten „Indexfonds“ umgesetzt, die die Struktur ihrer Anlagen an gängige Aktienindizes orientieren. Nach Angaben des Informationsportals „Vlozhi.ru“ gab es in Russland im Jahr 2007 11 Investmentfonds, die als Indexfonds fungierten. Der erste russische Indexfonds wurde 2003 gegründet. In den Vereinigten Staaten gibt es solche Fonds seit 30 Jahren. Russische Fonds orientieren sich an den MICEX- oder RTS-Indizes (nach der Änderung im Jahr 2006 begann der RTS-Index, die Liquidität von Wertpapieren zu berücksichtigen, die für den ordnungsgemäßen Betrieb eines Indexfonds erforderlich ist). Indexfonds können sich natürlich nicht strikt an Indizes orientieren, da es irrational wäre, kontinuierlich Änderungen an den Anlagen vorzunehmen. Materialien zu Indexfonds finden Sie auf dem privaten Anlegerportal „Vlozhi.ru“: http://www.vlozhi.ru/

Aktiensplits verringern den Nennwert der Aktien und machen sie so für kleinere Aktionäre zugänglicher. Die Ausweitung des Aktienmarktes kann das Interesse an ihnen erhöhen und dementsprechend die Nachfrage nach ihnen und damit erhöhen Marktwert Anteile

Zur Wertentwicklung von Investmentfonds im Verhältnis zur Wertentwicklung von Indexaktien für die Jahre 1980–1990 siehe: Burton Malkiel. A Random Walk Down Wall Street, Seite 238. In den 1980er Jahren übertrafen Investmentfonds den S&P 500, in den 1990er Jahren schnitten sie schlechter ab; Es gibt auch andere moderne Materialien zur Wirksamkeit von Investmentfonds. Beispielsweise wurde auf der Grundlage von Daten aus den Jahren 1968 bis 2002 der Anteil von Bargeld am Vermögen von Investmentfonds mit dem S&P 500-Index verglichen. Der Vergleich ergab, dass der Anteil von Bargeld am Vermögen der Fonds gerade bei hoch war Die Momente, in denen der Index niedrig war, das heißt, wenn es umgekehrt hätte sein sollen, Geld ausgeben, um Aktien zu kaufen – S. 244–248.

Zu den Berechnungsergebnissen siehe: Burton Malkiel. A Random Walk Down Wall Street, Seite 235.

Siehe Ausgaben des Finance-Magazins für 2009–2010.

Siehe Elder A. Wie man an der Börse spielt und gewinnt: Psychologie. Technische Analyse. Kapitalkontrolle – M.: Alpina Business Book, 2007, S. 29–35.

Siehe: Damodaran A. Investmentgeschichten: Mythen über Win-Win-Aktienstrategien aufdecken – trans. aus dem Englischen St. Petersburg: Peter, 2007, S. 396-428.

Siehe: Hagstrom R. J. Investing. Die letzte freie Kunst – trans. aus dem Englischen – M.: ZAO „Olymp-Business“, 2005.

Ein Vergleich der durchschnittlichen jährlichen Rendite und des Risikos (Standardabweichung der Rendite) von Aktien großer und kleiner Unternehmen für den Zeitraum von 1926 bis 2001 ergab, dass die durchschnittliche jährliche Rendite von Aktien kleiner Unternehmen 17,5 % und von großen 12,4 % beträgt ein Risiko von 35,3 bzw. 20,8 %. Auch das durchschnittlich erwartete Monatseinkommen für den Zeitraum 1963-1990 zeigt eine Abhängigkeit von der Unternehmensgröße. Gleichzeitig änderte sich die Situation in den 90er Jahren; Unternehmen mit großer Kapitalisierung begannen, große Gewinne zu erwirtschaften. Der Punkt ist offenbar, dass der Anteil institutioneller Anleger, die mit Aktien arbeiten, gestiegen ist Großunternehmen, und Aktien kleiner Unternehmen haben etwas an Liquidität verloren – siehe Burton Malkiel. A Random Walk Down Wall Street, S. 265, 333-334.

Daten, die bis in die 1980er Jahre zurückreichen, zeigen, dass Aktien mit niedrigen Gewinnmultiplikatoren (dem Verhältnis des Aktienkurses zum Nettoeinkommen des Unternehmens) höhere Renditen erzielten. Ebenso neigen Aktien mit einem niedrigen Kurs-zu-Vermögen-Verhältnis dazu, höhere Renditen zu erzielen – siehe Burton Malkiel. A Random Walk Down Wall Street, S. 334–340.

Die Beweise basieren auf den Materialien des Buches: Bromwich Michael. Analyse der Wirtschaftlichkeit von Kapitalinvestitionen - M.: INFRA-M, 1996.

Siehe B.V. Gnedenko. Kurs zur Wahrscheinlichkeitstheorie - M.: Nauka, 1969, S. 179 (Kapitel 5. Numerische Eigenschaften von Zufallsvariablen)

Korrelationsmomente, Korrelationskoeffizient sind numerische Merkmale, die eng mit dem oben eingeführten Konzept einer Zufallsvariablen, genauer gesagt mit einem System von Zufallsvariablen, zusammenhängen. Um ihre Bedeutung und Rolle einzuführen und zu definieren, ist es daher notwendig, das Konzept eines Systems von Zufallsvariablen und einige ihnen innewohnende Eigenschaften zu erläutern.

Zwei oder mehr Zufallsvariablen, die ein Phänomen beschreiben, werden aufgerufen

t-System oder Komplex von Zufallsvariablen.

Die ersten Anfangsmomente stellen die mathematischen Erwartungen der im System enthaltenen X- und Y-Werte dar

σ1,0=mx σ0,1=my.

Die Menge der mathematischen Erwartungen mx, my stellt ein Merkmal der Position des Systems dar. Geometrisch gesehen sind dies die Koordinaten des Mittelpunkts auf der Ebene, um die der Punkt (X, Y) gestreut ist.

Auch die zweiten zentralen Momente von Systemen spielen in der Praxis eine wichtige Rolle. Zwei davon repräsentieren die Varianzen der X- und Y-Werte

Charakterisiert die Streuung eines zufälligen Punktes in Richtung der Ox- und Oy-Achsen.

Eine besondere Rolle kommt dem zweiten Vertriebenen zu zentraler Punkt:

wird als Korrelationsmoment (ansonsten als „Verbindungsmoment“) der Zufallsvariablen X und Y bezeichnet.

Das Korrelationsmoment ist ein Merkmal eines Systems von Zufallsvariablen, das neben der Streuung der Werte X und Y auch den Zusammenhang zwischen ihnen beschreibt. Um dies sicherzustellen, beachten wir das Korrelationsmoment unabhängiger Zufallsvariablen gleich Null.

Beachten Sie, dass das Korrelationsmoment nicht nur die Abhängigkeit von Größen, sondern auch deren Streuung charakterisiert. Daher ist es notwendig, die Beziehung zwischen den Größen (X;Y) in zu charakterisieren reiner Form Bewegen Sie sich vom Moment Kxy zur Charakteristik

wobei σx, σy die Standardabweichungen der Werte X und Y sind. Dieses Merkmal wird als Korrelationskoeffizient der Werte X und Y bezeichnet.

Gemäß den Definitionen des Korrelationsmoments und des Korrelationskoeffizienten

. (6.37)

Lass es eine Probe geben. Der Stist die Schätzung des mit der Formel erhaltenen wahren Koeffizienten

. (6.38)

Hier sind Stichprobenmittelwerte und -varianzen. Der Stist eine Zufallsvariable. Daher besteht nach der Berechnung die Notwendigkeit, die Hypothese über die Signifikanz der resultierenden Schätzung zu testen. Die Hypothese, dass der allgemeine Korrelationskoeffizient gleich Null ist, wird gegen die Alternative getestet, dass der Korrelationskoeffizient ungleich Null ist. Statistiken werden verwendet, um eine Hypothese anhand einer Alternative zu testen.

Es ist bekannt, dass diese Statistik eine Student-Verteilung mit (n-2) Freiheitsgraden aufweist. Lassen Sie uns das Signifikanzniveau für die Lösung einführen und dann entscheidende Regel nimmt die Form an

. (6.40)

Hier ist das Quantil der Student-t-Verteilungsebene (1-) mit Freiheitsgraden.

Um den Zusammenhang zwischen zwei Zufallsvariablen grafisch zu beurteilen, werden sogenannte Streudiagramme erstellt

Der Korrelationskoeffizient bestimmt die Nähe der linearen Korrelation zwischen zwei Zufallsvariablen x und y. Allerdings ist die Korrelation zwischen Variablen nicht unbedingt linear. Stellen wir uns das Problem, den Korrelationszusammenhang in der allgemeinsten Form zu beschreiben. Lassen Sie uns herausfinden, ob sich eine Zufallsvariable (y) ändert, wenn sich eine andere Zufallsvariable (x) ändert. Betrachten wir die Ebene (xy), auf der diese Größen angegeben sind. Auf der x-Achse geben wir jeweils k Punkte im für uns interessanten Wertebereich an jter Punkt Von diesem Bereich messen wir das q-fache des Werts der Variablen y. Als Ergebnis erhalten wir k Bereiche (Gruppen) für den Wert y, von denen jeder q Stichproben hat. Wir werden die Werte von y innerhalb einer separaten Gruppe als unabhängige Menge betrachten und dafür den gruppeninternen Mittelwert bzw. die gruppeninterne Varianz ermitteln:

. (6.41)

(Beachten Sie, dass für die Zwecke dieses Absatzes eine Formel zur Berechnung der voreingenommenen Varianzschätzung verwendet wird.)

Lassen Sie uns das arithmetische Mittel der gruppeninternen Varianzen ermitteln

, (6.42)

sowie der Durchschnittswert über die gesamte Punktemenge

. (6.43)

Schreiben wir den Ausdruck zur Berechnung auf Intergruppenvarianz, beschreibt die Streuung der Gruppendurchschnitte relativ zum Durchschnitt über die gesamte Punktmenge

, (6.44)

und ein Ausdruck zur Berechnung der Gesamtvarianz, der die Streuung einzelner Punkte relativ zum Durchschnitt der Gesamtpopulation beschreibt

(6.45)

Wenn die Variable y durch eine funktionale Abhängigkeit mit x verknüpft ist, dann entspricht ein bestimmter Wert von x einem bestimmten Wert von y und jede Gruppe enthält q identische Zahlen. Dies bedeutet, dass die Varianz innerhalb der Gruppe Null ist und basierend auf (6.51)

Wenn die Variablen x und y durch Korrelation miteinander verbunden sind, dann

Basierend auf dieser wichtigen Eigenschaft der Beziehung zwischen Intergruppen- und Gesamtvarianzen wird ein Maß zur Beurteilung der Nähe der Korrelationsbeziehung eingeführt

In Kapitel 5 haben wir die numerischen Eigenschaften einer Zufallsvariablen betrachtet – die Anfangs- und Zentralmomente verschiedener Ordnungen. Von diesen Merkmalen sind zwei die wichtigsten: mathematische Erwartung und Streuung.

Ähnliche numerische Eigenschaften – Anfangs- und Zentralmomente unterschiedlicher Ordnung – können für ein System aus zwei Zufallsvariablen eingeführt werden.

Der Anfangsmoment der Ordnung des Systems ist die mathematische Erwartung des Produkts durch:

. (8.6.1)

Das zentrale Moment der Ordnung eines Systems ist der mathematische Erwartungswert des Produkts der th- und th-Potenzen der entsprechenden zentrierten Größen:

, (8.6.2)

Schreiben wir die Formeln auf, mit denen die Momente direkt berechnet werden. Für diskontinuierliche Zufallsvariablen

, (8.6.3)

, (8.6.4)

Wo – die Wahrscheinlichkeit, dass das System die Werte annimmt und die Summation sich über alle möglichen Werte der Zufallsvariablen erstreckt, .

Für kontinuierliche Zufallsvariablen:

, (8.6.5)

, (8.6.6)

Wo ist die Verteilungsdichte des Systems?

Neben und , die die Ordnung des Augenblicks in Bezug auf einzelne Größen charakterisieren, wird auch die Gesamtordnung des Augenblicks betrachtet, gleich der Summe Exponenten für und . Entsprechend der Gesamtreihenfolge werden die Momente in erstes, zweites usw. eingeteilt. In der Praxis werden normalerweise nur das erste und zweite Moment verwendet.

Die ersten Anfangsmomente stellen die uns bereits bekannten mathematischen Erwartungen an die im System enthaltenen Größen dar:

Die Menge der mathematischen Erwartungen ist ein Merkmal der Position des Systems. Geometrisch gesehen sind dies die Koordinaten des Mittelpunkts der Ebene, um die der Punkt gestreut ist.

Neben den ersten Anfangsmomenten werden in der Praxis auch die zweiten Zentralmomente des Systems häufig genutzt. Zwei davon stellen die uns bereits bekannte Mengenstreuung dar:

Charakterisiert die Streuung eines zufälligen Punktes in Richtung der und-Achsen.

Als Charakteristikum des Systems spielt das zweite gemischte Zentralmoment eine besondere Rolle:

,

diese. mathematische Erwartung des Produkts zentrierter Größen.

Da dieser Moment in der Theorie eine wichtige Rolle spielt, führen wir eine spezielle Notation dafür ein:

. (8.6.7)

Das Merkmal wird Korrelationsmoment (sonst „Verbindungsmoment“) von Zufallsvariablen genannt.

Für diskontinuierliche Zufallsvariablen wird das Korrelationsmoment durch die Formel ausgedrückt

, (8.6.8)

und für kontinuierliche - nach der Formel

. (8.6.9)

Lassen Sie uns die Bedeutung und den Zweck dieser Eigenschaft herausfinden.

Das Korrelationsmoment ist ein Merkmal eines Systems von Zufallsvariablen, das neben der Streuung von Variablen auch den Zusammenhang zwischen ihnen beschreibt. Um dies zu überprüfen, beweisen wir, dass das Korrelationsmoment für unabhängige Zufallsvariablen gleich Null ist.

Wir werden den Beweis für kontinuierliche Zufallsvariablen durchführen. Seien unabhängige kontinuierliche Größen mit Verteilungsdichte. In 8.5 haben wir das für die unabhängigen Größen bewiesen

. (8.6.10)

wobei , die Verteilungsdichten der Werte bzw. sind.

Wenn wir den Ausdruck (8.6.10) in die Formel (8.6.9) einsetzen, sehen wir, dass das Integral (8.6.9) zum Produkt zweier Integrale wird:

.

Integral

stellt nichts anderes als das erste Zentralmoment der Größe dar und ist daher gleich Null; aus dem gleichen Grund ist auch der zweite Faktor Null; daher für unabhängige Zufallsvariablen.

Wenn also das Korrelationsmoment zweier Zufallsvariablen von Null verschieden ist, ist dies ein Zeichen dafür, dass zwischen ihnen eine Abhängigkeit besteht.

Aus Formel (8.6.7) geht hervor, dass das Korrelationsmoment nicht nur die Abhängigkeit von Größen, sondern auch deren Streuung charakterisiert. Wenn beispielsweise eine der Größen nur sehr wenig von ihrer mathematischen Erwartung abweicht (fast nicht zufällig), ist das Korrelationsmoment klein, egal wie eng die Größen miteinander verbunden sind. Um die Beziehung zwischen Größen in ihrer reinen Form zu charakterisieren, gehen wir daher vom Moment zum dimensionslosen Merkmal über

wobei , die Standardabweichungen der Werte sind , . Dieses Merkmal wird als Korrelationskoeffizient von Mengen und bezeichnet. Offensichtlich geht der Korrelationskoeffizient gleichzeitig mit dem Korrelationsmoment auf Null; Daher ist der Korrelationskoeffizient für unabhängige Zufallsvariablen Null.

Zufallsvariablen, bei denen das Korrelationsmoment (und damit der Korrelationskoeffizient) gleich Null ist, werden als unkorreliert (manchmal auch „nicht verwandt“) bezeichnet.

Lassen Sie uns herausfinden, ob das Konzept der unkorrelierten Zufallsvariablen dem Konzept der Unabhängigkeit entspricht. Wir haben oben bewiesen, dass zwei unabhängige Zufallsvariablen immer unkorreliert sind. Es bleibt abzuwarten: Ist das Gegenteil der Fall, folgt ihre Unabhängigkeit aus der Unkorrelation der Größen? Es stellt sich heraus: Nein. Es ist möglich, Beispiele für solche Zufallsvariablen zu konstruieren, die unkorreliert, aber abhängig sind. Die Gleichheit des Korrelationskoeffizienten mit Null ist eine notwendige, aber nicht hinreichende Bedingung für die Unabhängigkeit von Zufallsvariablen. Die Unabhängigkeit von Zufallsvariablen impliziert, dass sie unkorreliert sind; im Gegenteil, die Tatsache, dass Größen nicht korreliert sind, bedeutet nicht unbedingt, dass sie unabhängig sind. Die Bedingung der Unabhängigkeit von Zufallsvariablen ist strenger als die Bedingung der Unkorrelation.

Sehen wir uns das anhand eines Beispiels an. Betrachten wir ein System von Zufallsvariablen, die mit gleichmäßiger Dichte innerhalb eines Kreises mit Radius und Mittelpunkt im Ursprung verteilt sind (Abb. 8.6.1).

Die Verteilungsdichte der Werte wird durch die Formel ausgedrückt

Vom Zustand her wir finden .

Das lässt sich leicht überprüfen in diesem Beispiel die Mengen sind abhängig. Tatsächlich ist sofort klar, dass, wenn eine Größe beispielsweise den Wert 0 annimmt, die Größe mit gleicher Wahrscheinlichkeit alle Werte von bis annehmen kann; Wenn die Größe den Wert angenommen hat, kann die Größe nur einen einzigen Wert annehmen, der genau gleich Null ist. Im Allgemeinen hängt der Bereich möglicher Werte davon ab, welcher Wert .

Mal sehen, ob diese Größen korrelieren. Berechnen wir das Korrelationsmoment. Bedenken Sie, dass wir aus Symmetriegründen erhalten:

. (8.6.12)

Um das Integral zu berechnen, teilen wir den Integrationsbereich (Kreis) in vier Sektoren entsprechend vier Koordinatenwinkeln auf. In Sektoren ist der Integrand positiv, in Sektoren ist er negativ; im absoluten Wert sind die Integrale über diese Sektoren gleich; Daher ist das Integral (8.6.12) gleich Null und die Größen sind nicht korreliert.

Wir sehen also, dass die unkorrelierte Natur von Zufallsvariablen nicht immer ihre Unabhängigkeit impliziert.

Der Korrelationskoeffizient charakterisiert keine Abhängigkeit, sondern nur die sogenannte lineare Abhängigkeit. Die lineare probabilistische Abhängigkeit von Zufallsvariablen besteht darin, dass, wenn eine Zufallsvariable zunimmt, die andere gemäß einem linearen Gesetz tendenziell zunimmt (oder abnimmt). Dieser Trend hin lineare Abhängigkeit kann mehr oder weniger ausgeprägt sein, mehr oder weniger nahe an der funktionalen, d. h. engsten linearen Abhängigkeit. Der Korrelationskoeffizient charakterisiert den Grad der Nähe der linearen Beziehung zwischen Zufallsvariablen. Wenn Zufallsvariablen durch eine exakte lineare funktionale Beziehung verknüpft sind:

dann wird das „Plus“- oder „Minus“-Zeichen verwendet, je nachdem, ob der Koeffizient positiv oder negativ ist. Im allgemeinen Fall, wenn die Größen und durch eine willkürliche probabilistische Abhängigkeit zusammenhängen, kann der Korrelationskoeffizient einen Wert innerhalb der folgenden Grenzen haben: nur der Änderungsbereich ändert sich und sein Durchschnittswert ändert sich nicht; Naturgemäß erweisen sich die Mengen als unkorreliert.

Reis. 8.6.2 Abb.8.6.3

Lassen Sie uns einige Beispiele für Zufallsvariablen mit positiver und negativer Korrelation geben.

1. Gewicht und Größe einer Person korrelieren positiv.

2. Der Zeitaufwand für die Einstellung des Geräts zur Betriebsvorbereitung und die Zeit seines störungsfreien Betriebs stehen in einem positiven Zusammenhang (sofern die Zeit natürlich sinnvoll eingesetzt wird). Im Gegenteil: Der Zeitaufwand für die Vorbereitung und die Anzahl der im Betrieb des Gerätes festgestellten Fehler korrelieren negativ.

3. Beim Abfeuern einer Salve sind die Koordinaten der Auftreffpunkte einzelner Projektile durch eine positive Korrelation miteinander verbunden (da allen Schüssen gemeinsame Zielfehler vorliegen, die jeden von ihnen gleichermaßen vom Ziel ablenken).

4. Es werden zwei Schüsse auf das Ziel abgefeuert; Der Treffpunkt des ersten Schusses wird aufgezeichnet und im Visier wird eine Korrektur vorgenommen, die proportional zum Fehler des ersten Schusses mit umgekehrtem Vorzeichen ist. Die Koordinaten der Auftreffpunkte des ersten und zweiten Schusses werden negativ korreliert.

Wenn wir über die Ergebnisse einer Reihe von Experimenten zu einem System von Zufallsvariablen verfügen, kann das Vorhandensein oder Fehlen einer signifikanten Korrelation zwischen ihnen in erster Näherung leicht anhand eines Diagramms beurteilt werden, in dem alle Wertepaare von Zufallsvariablen aufgeführt sind Die aus Experimenten gewonnenen Werte werden als Punkte dargestellt. Wenn beispielsweise die beobachteten Mengenwertepaare wie in Abb. 8.6.2, dann deutet dies auf das Vorliegen einer deutlich ausgeprägten positiven Korrelation zwischen den Größen hin. Eine noch ausgeprägtere positive Korrelation, nahe einer linearen funktionalen Abhängigkeit, ist in Abb. zu beobachten. 8.6.3. In Abb. Abbildung 8.6.4 zeigt den Fall einer relativ schwachen negativen Korrelation. Schließlich ist in Abb. 8.6.5 veranschaulicht den Fall praktisch unkorrelierter Zufallsvariablen. In der Praxis ist es immer sinnvoll, vor der Untersuchung der Korrelation von Zufallsvariablen zunächst die beobachteten Wertepaare grafisch darzustellen, um ein erstes qualitatives Urteil über die Art der Korrelation zu treffen.

Numerische Eigenschaften eines Systems aus zwei Zufallsvariablen. Korrelationsmoment. Korrelationskoeffizient

Wir haben die numerischen Eigenschaften einer Zufallsvariablen X berücksichtigt – die Anfangs- und Zentralmomente verschiedener Ordnungen. Von diesen Merkmalen sind zwei die wichtigsten: der mathematische Erwartungswert m X und Varianz Dx.

Ähnliche numerische Eigenschaften – Anfangs- und Zentralmomente unterschiedlicher Ordnung – können für ein System aus zwei Zufallsvariablen eingeführt werden. Das Anfangsmoment der Ordnung k, s des Systems (X, Y) ist der mathematische Erwartungswert des Produkts X k auf Y S:

M[X k Y S]

Das zentrale Moment der Ordnung k, s des Systems (X, Y) ist der mathematische Erwartungswert Produkte k-th Und etw. Abschluss entsprechende zentrierte Größen:

In der Praxis werden meist nur das erste und zweite Moment angewendet.

Die ersten Anfangsmomente stellen die uns bereits bekannten mathematischen Erwartungen der im System enthaltenen Werte X und Y dar:

M X und M j

Satz mathematischer Erwartungen m X, M j ist ein Merkmal der Lage des Systems. Geometrisch gesehen sind dies die Koordinaten des Mittelpunkts auf der Ebene, um die der Punkt gestreut ist (X. Y).

Neben den ersten Anfangsmomenten werden in der Praxis auch die zweiten Zentralmomente des Systems häufig genutzt. Zwei davon stellen die uns bereits bekannten Streuungen der X- und Y-Werte dar.

D[X] und D[Y] charakterisieren die Streuung eines zufälligen Punktes in Richtung der Ox- und Oy-Achsen.

Als Charakteristikum des Systems spielt das zweite gemischte Zentralmoment eine besondere Rolle:

μ 1,1 = M,

d. h. die mathematische Erwartung des Produkts zentrierter Größen. Da dieses Moment in der Theorie von Zufallsvariablensystemen eine wichtige Rolle spielt, wurde dafür eine spezielle Notation eingeführt:

Khu =M[X 0 Y 0 ]=M[(X-m X)(Y- m j)].

Das Merkmal Kxy wird als Korrelationsmoment (sonst „Verbindungsmoment“) der Zufallsvariablen X, Y bezeichnet.

Für diskrete Zufallsvariablen wird das Korrelationsmoment durch die Formel ausgedrückt

Kxy =Σ Σ(x ich-M X)(y J-M j) P ij

Lassen Sie uns die Bedeutung und den Zweck dieser Eigenschaft herausfinden. Das Korrelationsmoment ist ein Merkmal eines Systems von Zufallsvariablen, das neben der Streuung der Werte X und Y auch den Zusammenhang zwischen ihnen beschreibt. Für unabhängige Zufallsvariablen ist das Korrelationsmoment Null.

Wenn also das Korrelationsmoment zweier Zufallsvariablen von Null verschieden ist, ist dies ein Zeichen dafür, dass zwischen ihnen eine Abhängigkeit besteht.

Aus der Formel geht hervor, dass das Korrelationsmoment nicht nur die Abhängigkeit von Größen, sondern auch deren Streuung charakterisiert. Wenn beispielsweise eine der Größen (X, Y) nur sehr wenig von ihrer mathematischen Erwartung abweicht (fast nicht zufällig), ist das Korrelationsmoment klein, unabhängig davon, wie eng die Größen (X, Y) miteinander verbunden sind . Um die Beziehung zwischen den Größen (X, Y) in ihrer reinen Form zu charakterisieren, gehen wir daher vom Moment zur dimensionslosen Charakteristik über

rху=Кху/σх σу

wobei σх, σу die Standardabweichungen der Werte X, Y sind. Dieses Merkmal heißt Korrelationskoeffizient X- und Y-Werte.

Offensichtlich geht der Korrelationskoeffizient gleichzeitig mit dem Korrelationsmoment auf Null; Daher ist der Korrelationskoeffizient für unabhängige Zufallsvariablen Null.

Zufallsvariablen, bei denen das Korrelationsmoment (und damit der Korrelationskoeffizient) gleich Null ist, werden als unkorreliert (manchmal auch „nicht verwandt“) bezeichnet.

Ist das Konzept der unkorrelierten Zufallsvariablen äquivalent zum Konzept der Unabhängigkeit? Es ist bekannt, dass unabhängige Zufallsvariablen immer unkorreliert sind. Es bleibt abzuwarten: Ist das Gegenteil der Fall, folgt ihre Unabhängigkeit aus der Unkorrelation der Größen? Es stellt sich heraus: Nein. Es gibt Zufallsvariablen, die nicht korreliert, aber abhängig sind. Die Gleichheit des Korrelationskoeffizienten mit Null ist eine notwendige, aber nicht hinreichende Bedingung für die Unabhängigkeit von Zufallsvariablen. Die Unabhängigkeit von Zufallsvariablen impliziert, dass sie unkorreliert sind; im Gegenteil, ihre Unabhängigkeit ergibt sich nicht aus der unkorrelierten Natur der Größe. Die Bedingung der Unabhängigkeit von Zufallsvariablen ist strenger als die Bedingung der Unkorrelation.

Der Korrelationskoeffizient charakterisiert keine Abhängigkeit, sondern nur die sogenannte lineare Abhängigkeit. Die lineare probabilistische Abhängigkeit von Zufallsvariablen besteht darin, dass, wenn eine Zufallsvariable zunimmt, die andere gemäß einem linearen Gesetz tendenziell zunimmt (oder abnimmt). Diese Tendenz zur linearen Abhängigkeit kann mehr oder weniger ausgeprägt sein und sich mehr oder weniger der funktionalen, d. h. engsten linearen Abhängigkeit annähern. Der Korrelationskoeffizient charakterisiert den Grad der Nähe der linearen Beziehung zwischen Zufallsvariablen. Wenn die Zufallsvariablen X und Y durch eine exakte lineare funktionale Beziehung verbunden sind:

Y = aX + b, dann rxy = ±1, und das „Plus“- oder „Minus“-Zeichen wird verwendet, je nachdem, ob der Koeffizient a positiv oder negativ ist. Im allgemeinen Fall, wenn die Werte von X und Y durch eine willkürliche probabilistische Abhängigkeit zusammenhängen, kann der Korrelationskoeffizient einen Wert innerhalb der Grenzen haben:

1 < rху < 1

Im Fall von r > 0 spricht man von einer positiven Korrelation zwischen den Werten von X und Y, im Fall von r<0 - об отрицательной корреляции. Положительная корреляция между случайными величинами озна­чает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать.

Lassen Sie uns einige Beispiele für Zufallsvariablen mit positiver und negativer Korrelation geben.

1. Gewicht und Größe einer Person korrelieren positiv.

2. Die für die Unterrichtsvorbereitung aufgewendete Zeit und die erhaltene Note korrelieren positiv (sofern die Zeit natürlich sinnvoll genutzt wird). Im Gegenteil: Der Zeitaufwand für die Vorbereitung und die Anzahl der erhaltenen schlechten Noten korrelieren negativ.

3. Es werden zwei Schüsse auf das Ziel abgefeuert; Der Treffpunkt des ersten Schusses wird aufgezeichnet und im Visier wird eine Korrektur vorgenommen, die proportional zum Fehler des ersten Schusses mit umgekehrtem Vorzeichen ist. Die Koordinaten der Auftreffpunkte des ersten und zweiten Schusses werden negativ korreliert.

Wenn uns die Ergebnisse einer Reihe von Experimenten zu einem System aus zwei Zufallsvariablen (X, Y) zur Verfügung stehen, kann das Vorhandensein oder Fehlen einer signifikanten Korrelation zwischen ihnen in erster Näherung anhand einer Grafik leicht beurteilt werden Alle aus Experimenten gewonnenen Wertepaare von Zufallsvariablen werden als Punkte dargestellt. Wenn beispielsweise die beobachteten Mengenwertepaare wie folgt angeordnet sind



Kovarianz- und Korrelationskoeffizient.

Zwischen Zufallsvariablen kann ein funktionaler oder stochastischer (probabilistischer) Zusammenhang bestehen. Die stochastische Abhängigkeit manifestiert sich darin, dass sich das bedingte Verteilungsgesetz einer Zufallsvariablen abhängig von den von einer anderen Zufallsvariablen akzeptierten Werten ändert. Eines der Merkmale der stochastischen Abhängigkeit zweier Zufallsvariablen ist Kovarianz zufällige Variablen.

Kovarianz zufällige Variablen ( X,Y) ist eine Zahl, die dem mathematischen Erwartungswert des Produkts von Abweichungen von Zufallsvariablen entspricht X Und Y aus Ihren mathematischen Erwartungen:

Manchmal wird Kovarianz genannt Korrelationsmoment oder zweiter gemischter zentraler Moment zufällige Variablen ( X,Y).

Mit der Definition der mathematischen Erwartung erhalten wir:

für diskrete Verteilung

zur kontinuierlichen Verteilung

Bei Y= X Kovarianz ist dasselbe wie Varianz X.

Die Größe des Korrelationsmoments hängt von den Maßeinheiten der Zufallsvariablen ab. Dies macht es schwierig, die Korrelationsmomente verschiedener Systeme von Zufallsvariablen zu vergleichen. Um diesen Nachteil zu beseitigen, wird ein neues numerisches Merkmal eingeführt - Korrelationskoeffizient, welches ist

dimensionslose Größe.

Um es zu berechnen, ersetzen wir die Abweichungen von Zufallsvariablen von mathematischen Erwartungen durch ihre normalisierten Abweichungen, d. h.

Eigenschaften des Korrelationskoeffizienten:

Lassen T - eine Variable im Sinne der mathematischen Analyse. Betrachten Sie die Varianz der Zufallsvariablen D(Y – tX) als Funktion einer Variablen T.

Entsprechend der Dispersionseigenschaft. Die Diskriminante muss in diesem Fall kleiner oder gleich Null sein, d.h.

Woher bekommen wir es?

2. Der Modul des Korrelationskoeffizienten ändert sich bei linearen Transformationen von Zufallsvariablen nicht: , wobei , , beliebige Zahlen sind.

3. , genau dann, wenn die Zufallsvariablen X Und Y sind linear verbunden, d.h. es gibt solche Zahlen a, b, Was .

Wenn , dann ist die in Absatz 1 betrachtete Diskriminante gleich Null und daher für einen bestimmten Wert . Daher der Wert und für einige MIT die Gleichheit, die bewiesen werden musste, ist wahr.

4. Wenn X Und Y sind dann statistisch unabhängig.

Eigenschaften 2.4 werden direkt verifiziert.

4.5.2. Korrelation und Abhängigkeit eines Systems von Zufallsvariablen.

Eine notwendige Voraussetzung für die Unabhängigkeit von Zufallsvariablen X Und Y ist die Gleichheit ihres Korrelationsmoments (oder Korrelationskoeffizienten) mit Null. Allerdings ist Gleichheit (oder ) nur eine notwendige, aber nicht hinreichende Bedingung für Unabhängigkeit.

Beispiel 1.

Die Abbildung zeigt Punkte, die auf einer Parabel liegen , A .

In diesem Zusammenhang wird ein engeres Konzept unkorrelierter (if) oder korrelierter (if) Zufallsvariablen eingeführt. Deshalb Unabhängigkeit von Zufallsvariablen bedeutet auch Nichtkorrelation() umgekehrt, Korrelation () – Sucht.

Im allgemeinen Fall sind die Punkte (X,Y) um die Linie verteilt, und zwar umso enger, je größer der Wert ist. Somit charakterisiert der Korrelationskoeffizient nicht irgendein Abhängigkeit zwischen X Und Y, A Grad der Enge der linearen Beziehung zwischen ihnen.

Also insbesondere auch mit , d.h. in der völligen Abwesenheit einer linearen Beziehung zwischen X Und Y Es kann eine beliebig starke statistische und sogar nichtlineare funktionale Abhängigkeit bestehen (siehe Beispiel 1).

Wenn die Werte eine positive Korrelation zwischen anzeigen X Und Y, was bedeutet, dass beide Variablen die gleiche Tendenz haben, zuzunehmen oder zu fallen. Wenn man von einer negativen Korrelation spricht, meint man den gegenläufigen Trend bei Veränderungen der Zufallsvariablen X Und Y, d.h. der eine nimmt zu und der andere ab oder umgekehrt.

Wenn Zufallsvariablen X Und Y normalverteilt sind, dann impliziert ihre Unkorrelation ihre Unabhängigkeit, da

Wenn, dann.

Zur Berechnung des Korrelationskoeffizienten setzen wir Beispiel 2 aus §4.1 fort. Verwenden wir die Formel

.

M(X× Y)=(-200)×(-100)×0,2 + (-200)×0×0,1 + (-200)×(100)×0,05 + 0×(-100)×0,05 + 0×0×0,25 + 0 ×100×0,02 + 200×(-100)×0,01 + 200×0×0,02 + 200×100×0,3 = 8800 $;

; ;

.

Beispiel 2. Das Verteilungsgesetz eines Systems aus zwei Zufallsvariablen ist durch die Verteilungstabelle gegeben

X Y
-1 0,01 0,06 0,05 0,04
0,04 0,24 0,15 0,07
0,05 0,01 0,01 0,09

Finden Sie eindimensionale (marginale) Verteilungsgesetze X Und Y, ihre mathematischen Erwartungen, Varianzen und Korrelationskoeffizienten zwischen X Und Y.

Lösung. Wahrscheinlichkeiten möglicher Werte einer diskreten Zufallsvariablen X, im System enthalten, werden durch die Formel bestimmt

, Zu=1, 2, 3, 4.

Daher die eindimensionale Verteilung der Menge X hat die folgende Form

Mathematische Erwartungen an Zufallsvariablen X Und Y:

M(X)=1,6; M(Y)=0,18.

Varianzen von Zufallsvariablen X Und Y:

D(X)=0,84; D(Y)=0,47.

Korrelationskoeffizient zwischen X Und Y nach der Formel berechnet

; ;

; ;

Fragen zum Selbsttest.

1. Definieren Sie eine multivariate Zufallsvariable und eine Wahrscheinlichkeitsverteilungsfunktion.

2. Was nennt man die gemeinsame Verteilung einer zweidimensionalen diskreten Zufallsvariablen ( X,Y)? Wie ist es geschrieben?

3. Was die bekannte gemeinsame Verteilung einer zweidimensionalen Zufallsvariablen betrifft ( X,Y) Finden Sie die Randverteilungen der Komponenten X Und Y?

4. Was nennt man die bedingte Verteilung der Komponente? X zweidimensionale diskrete Größe ( X,Y)?

5. Was nennt man Kovarianz?

6. Was ist der Korrelationskoeffizient?

7. Geben Sie die Eigenschaften des Korrelationskoeffizienten an.

8. Wie hoch ist der Korrelationskoeffizient von Zufallsvariablen? X Und Y = 1 – 2X?

9. Welchen Wert nimmt die Kovarianz zweier Zufallsvariablen an? X Und Y, Wenn X = Y?

10. Sind die Konzepte Unabhängigkeit und Unkorrelation gleichwertig?

Aufgaben

4.1. Drei Arten von Autos werden auf zwei verschiedenen Märkten in der Stadt verkauft ( A, B, C). Nachfolgend finden Sie Daten zur Anzahl der im Laufe des Jahres verkauften Autos:



Finden Sie die folgenden Wahrscheinlichkeiten: R(ein, ein), P(a, B), P(a, C), P(b, A), P(b, B), P(b,C), P(A), P(a/A), P(A/a). Erstellen Sie eine Tabelle mit gemeinsamen Wahrscheinlichkeiten.

4.2. Urlauber in einem bestimmten Resort sind in der Regel Geschäftsleute ( B)oder Menschen aus freien Berufen ( P)(Anwälte, Künstler, Ärzte usw.). Der Besitzer eines Resorts möchte herausfinden, ob es für ihn rentabler wäre, zwei Arten von Werbung zu produzieren statt nur einer. Zu diesem Zweck beauftragte er seine Werbeabteilung, zwei Arten von Werbung zu erstellen – eine für Geschäftsleute (Typ I), die andere für Menschen freier Berufe (Typ II). Es wurden Anzeigen vorbereitet, Materialien an mögliche Kunden verschickt und 800 Bewerbungen eingegangen. Sie wurden wie folgt verteilt.

A). Finden Sie die Wahrscheinlichkeiten P(BI); P(B,II); P(I/B).