Normalisierte Korrelationsfunktion einer Zufallsvariablen der Zeit. Korrelationsfunktion eines stationären Prozesses

KORRELATIONSFUNKTION

echter Zufallsprozess - Argumente T,. definiert durch Gleichheit

Damit K. f. definiert wurde, sollte davon ausgegangen werden, dass der Prozess X(t) für alle eine endliche Sekunde hat. Der Parameter t verläuft hier durch eine Teilmenge der realen Linie und wird normalerweise als „Zeit“ interpretiert, die K.-Funktion jedoch genau so definiert. Zufallsfunktion, definiert auf einer Menge beliebiger Natur, insbesondere einer K.-Funktion. Zufallsfeld wann T - eine Teilmenge eines endlichdimensionalen Raums. Wenn es mehrdimensional ist (), dann ist es K. f. angerufen Matrixwertige Funktion

Kreuzkorrelationsfunktion von Prozessen X i(T) , X j(T).

K. f. ist ein wichtiges Merkmal eines Zufallsprozesses. Wenn X(t) - Gaußscher Prozess, dann sein K. f. IN( t, s).und Wert (d. h. das erste und das zweite Moment) bestimmen eindeutig die endlichdimensionalen Verteilungen und damit den Prozess als Ganzes. Im Allgemeinen reichen die ersten beiden Momente sicherlich nicht aus Gesamte Beschreibung zufälliger Prozess. Zum Beispiel derselbe K. f. haben eine Gaußsche Trajektorie, deren Trajektorien stetig sind und sogenannte. Das Telegraphensignal ist ein stationärer Punkt-Markov-Prozess, der zwei Werte ±1 annimmt. K. f. bestimmt die wichtigen Eigenschaften des Prozesses – die sogenannten. Eigenschaften zweiter Ordnung (d. h. ausgedrückt in zweiten Momenten). Aus diesem Grund und auch aufgrund ihrer relativen Einfachheit werden Korrelationsmethoden sowohl in der Theorie zufälliger Prozesse als auch in der statistischen Wissenschaft häufig verwendet. Anwendungen (vgl Korrelogramm).

Wenn R(t).ist zusätzlich stetig bei t= 0(was der mittleren quadratischen Kontinuität des Prozesses X(t) entspricht) , Das

Wo ist das positive Finale? hier läuft l durch die gesamte reelle Zeile if T=(der Fall von „kontinuierlicher Zeit“), oder wenn T= (. . . ,- 1, 0, 1, . . .) (der Fall der „diskreten Zeit“). Die Maßnahme heißt Spektralmaß eines Zufallsprozesses. Somit sind Korrelation und spektrale Eigenschaften Es stellt sich heraus, dass stationäre Zufallsprozesse eng miteinander verbunden sind. Beispielsweise entspricht die Abnahmerate der Korrelationen dem Grad der Glätte der spektralen Dichte usw.

In der statistischen Mechanik hat K. f. angerufen auch gemeinsames r( x 1 , ..., x t).Auffinden verschiedener Teilchen des betrachteten Systems an Punkten x 1,..., x t;Die Menge dieser Funktionen bestimmt eindeutig den entsprechenden Punkt.

Zündete.: Dub J., Probabilistische Prozesse, trans. aus Englisch, M., 1956; L o e in M., Wahrscheinlichkeitstheorie, trans. aus Englisch, M., 1962; Gikhman I.I., Skorokhod A.V., Einführung in die Theorie zufälliger Prozesse, M., 1965. A. S. Kholevo.


Mathematische Enzyklopädie. - M.: Sowjetische Enzyklopädie. I. M. Winogradow. 1977-1985.

Sehen Sie, was „KORRELATIONSFUNKTION“ in anderen Wörterbüchern ist:

    Korrelationsfunktion- NDP. Autokorrelationsfunktion Eine Funktion, die dem Durchschnittswert des Produkts aus der variablen Komponente eines Zufallssignals und derselben variablen Komponente entspricht, jedoch um eine bestimmte Zeit verzögert ist. Notiz Korrelationsfunktion charakterisiert... ... Leitfaden für technische Übersetzer

    Die Korrelationsfunktion ist eine Funktion von Zeit- oder Raumkoordinaten, die die Korrelation in Systemen mit Zufallsprozessen angibt. Die zeitabhängige Korrelation zweier Zufallsfunktionen X(t) und Y(t) ist definiert als: , wobei spitze Klammern ... ... Wikipedia

    In der statistischen Physik ist die Funktion, die die Wahrscheinlichkeit bestimmt, verwandt. Anordnung eines Komplexes beliebiger Flüssigkeits- oder Gasmoleküle; bei s=2 K.f. angerufen Paar oder binär. Das Auftreten von Korrelationen in der Anordnung der Moleküle des Mediums ist auf die Tatsache zurückzuführen, dass in naher Zukunft... Physische Enzyklopädie

    Zufällige Prozessfunktion B (s, t) = M[ X (s) MX (s)].*, s, [hier ist MX (t) das erste Moment des Prozesses, * bedeutet komplexe Konjugation; es wird angenommen dass. Im Fall eines Vektorprozesses hat K. f. namens correl... Physische Enzyklopädie- 1. Eine Funktion, die dem Durchschnittswert des Produkts aus der variablen Komponente eines Zufallssignals und derselben variablen Komponente entspricht, jedoch um eine bestimmte Zeit verzögert wird. Wird im Dokument verwendet: GOST 16465 70 Funktechnische Messsignale.… … Telekommunikationswörterbuch

    Siehe Korrelationsfunktion eines Zufallsprozesses. Geologisches Wörterbuch: in 2 Bänden. M.: Nedra. Herausgegeben von K. N. Paffengoltz et al. 1978 ... Geologische Enzyklopädie

    Korrelationsfunktion eines Zufallsprozesses- 16. Korrelationsfunktion eines Zufallsprozesses Eine Funktion zweier Variablen t und u, gleich der Kovarianzfunktion eines zentrierten Zufallsprozesses Rξ (t, u) = M([ξ(t) m1]×[ξ(u) m2]), t,uЄT Quelle ... Wörterbuch-Nachschlagewerk mit Begriffen der normativen und technischen Dokumentation

    Normalisierte Korrelationsfunktion- 25. Normalisierte Korrelationsfunktion NDP. Korrelationskoeffizient Eine Funktion, die dem Verhältnis der Korrelationsfunktion eines Zufallssignals zu seiner Varianz entspricht

Messfehler, die durch induzierte Interferenzen und Eigenrauschen elektronischer Geräte verursacht werden, werden mithilfe einer mathematischen Theorie namens „beschrieben. Theorie zufälliger Prozesse". Erinnern wir uns an die Grundkonzepte dieser Theorie, die wir in der weiteren Präsentation verwenden werden und die von GOST 8.009 [GOST] bei der Normalisierung der Zufallskomponente des Messfehlers verwendet werden.

,
.
.

Im Grenzfall, wenn die gegebenen Parameterschätzungen zu ihren wahren Werten tendieren. In den obigen Formeln werden die gleichen Notationen für die Schätzung von Parametern und die Parameter selbst verwendet, da wir im Folgenden nur Schätzungen verwenden, sofern nicht ausdrücklich etwas anderes angegeben ist.

Eine einzelne Implementierung eines Zufallsprozesses ist eine deterministische (nicht zufällige) Funktion, daher kann ihre spektrale Charakteristik mithilfe der Fourier-Transformation ermittelt werden:

Gemäß dieser Definition wird Rauschen in oder usw. gemessen. Beachten Sie, dass in der Theorie zufälliger Prozesse das Konzept der Leistung vom allgemein akzeptierten abweicht: Es wird davon ausgegangen, dass die Rauschenergie bei einem Widerstand von 1 Ohm freigesetzt wird, aber Die Dimension wird daher nicht anstelle der Leistungsdimension angegeben gebraucht , . Ebenso wird Energie nicht gemessen , und in .

Autokorrelationsfunktion und spektrale Leistungsdichte sind durch die Fourier-Transformation miteinander verknüpft ( Satz von Wiener-Khinchin[Baskakow]):

;
,

Liegt das Energiespektrum beispielsweise aufgrund der Verwendung eines Filters im Frequenzbereich von >0 bis , so können wir davon ausgehen, dass außerhalb des angegebenen Frequenzbereichs seine Werte gleich Null sind und wir dadurch die Werte ändern können Grenzen der Integration in (4.16):

.

Bei der Verwendung der Formeln (4.16) und (4.19) müssen wir bedenken, dass ein zweiseitiges Energiespektrum verwendet wird (symmetrisch relativ zum Ursprung der Ordinatenachse). Im Fall von einseitiges Spektrum , im Frequenzbereich angegeben, sollte der Koeffizient „2“ fehlen:

In ausländischen Referenzliteratur wird in Diagrammen der spektralen Rauschleistungsdichte von Transistoren, Operationsverstärkern usw. normalerweise die Quadratwurzel der spektralen Rauschleistungsdichte mit der Dimension usw. auf der Ordinatenachse aufgetragen , die Rauschspannung (Effektivwert) kann gefunden werden als

.

Für weißes Rauschen wird der vorherige Ausdruck vereinfacht:

.

Betrachten Sie die Summe zweier zufälliger Fehler und mit einer mathematischen Erwartung von Null (d. h. zentrierte Zufallsvariablen). Per Definition ist die Varianz der Summe zweier Zufallsvariablen gleich dem mathematischen Erwartungswert des Quadrats ihrer Summe:

= ,

wo und - Varianzoperatoren Und mathematische Erwartung ; , - Standardabweichungen Zufallsvariablen und . Größe

angerufen Kovarianz(„gemeinsame Variation“) von Zufallsvariablen und .

Die Kovarianz diskreter Zufallsvariablen kann aus ihrer geschätzt werden diskrete Werte Und unter Verwendung der arithmetischen Mittelformel:

.

Korrelationskoeffizient ist das Verhältnis der Kovarianz zum Produkt aus Standardabweichungen und Zufallsvariablen und:

.

Hier wird das „-“-Zeichen verwendet, wenn Zufallsvariablen subtrahiert werden, beispielsweise wenn die Spannungsdifferenz zweier Messkanäle ermittelt wird. In diesem Fall verringert das Vorhandensein einer Korrelation zwischen Kanälen teilweise den Differenzfehler.

Für den Fall, dass die Zufallsvariablen statistisch unabhängig sind (), wird der vorherige Ausdruck vereinfacht:

.

Diese Summation heißt geometrisch, da es auf ähnliche Weise funktioniert wie das Ermitteln der Hypotenuse eines rechtwinkligen Dreiecks.

Wenn der Korrelationskoeffizient ist, kann der Korrelationskoeffizient geschätzt werden als. Der Tangens der Geradensteigung wird Regressionskoeffizient genannt. Die Gleichung der Regressionsgeraden kann erhalten werden

Der statistische Zusammenhang zwischen den Fehlern von Messgeräten ist im Allgemeinen nichtlinear, diese Nichtlinearität wird jedoch normalerweise vernachlässigt.

Erwartung und Streuung sind wichtige Merkmale eines Zufallsprozesses, sie bieten jedoch keinen ausreichenden Einblick in die Natur einzelner Implementierungen eines Zufallsprozesses. Dies ist aus Abb. ersichtlich. 9.3, das die Implementierung zweier Zufallsprozesse zeigt, die in ihrer Struktur völlig unterschiedlich sind, obwohl sie dies getan haben

gleiche Werte mathematische Erwartung und Streuung. Gestrichelte Linien in Abb. Abbildung 9.3 zeigt die Werte für zufällige Prozesse.

Der in Abb. 9.3, a, von einem Abschnitt zum anderen verläuft relativ reibungslos, und der Prozess in Abb. 9.3 weist b eine starke Variabilität von Abschnitt zu Abschnitt auf. Daher ist der statistische Zusammenhang zwischen Abschnitten im ersten Fall größer als im zweiten, was jedoch weder durch die mathematische Erwartung noch durch die Streuung festgestellt werden kann.

Um die innere Struktur eines Zufallsprozesses einigermaßen zu charakterisieren, also die Beziehung zwischen den Werten eines Zufallsprozesses zu verschiedenen Zeitpunkten zu berücksichtigen oder mit anderen Worten, den Grad von zu berücksichtigen Variabilität eines Zufallsprozesses ist es notwendig, das Konzept der Korrelationsfunktion (Autokorrelationsfunktion) eines Zufallsprozesses einzuführen.

Korrelationsfunktion eines Zufallsprozesses heißt eine nichtzufällige Funktion zweier Argumente, die für jedes Paar willkürlich gewählter Werte der Argumente (Zeitpunkte) gleich dem mathematischen Erwartungswert des Produkts zweier Zufallsvariablen der entsprechenden Abschnitte des Zufalls ist Verfahren:

wo ist die zweidimensionale Wahrscheinlichkeitsdichte; - zentrierter Zufallsprozess; - mathematische Erwartung (Durchschnittswert) eines Zufallsprozesses.

Verschieden zufällige Prozesse je nachdem, wie sie sich verändern statistische Merkmale im Laufe der Zeit, unterteilt in stationär und instationär. Es wird zwischen Stationarität im engeren Sinne und Stationarität im weiteren Sinne unterschieden.

Stationär im engeren Sinne heißt ein Zufallsprozess, wenn seine n-dimensionalen Verteilungsfunktionen und Wahrscheinlichkeitsdichten für jeden Zeitpunkt nicht von der Verschiebung aller Punkte abhängen

Entlang der Zeitachse um den gleichen Betrag, d.h.

Dies bedeutet, dass die beiden Prozesse für jeden die gleichen statistischen Eigenschaften haben, d. h. die statistischen Eigenschaften eines stationären Zufallsprozesses sind über die Zeit konstant.

Ein stationärer Zufallsprozess ist eine Art Analogon eines stetigen Prozesses in deterministischen Systemen. Jeder Übergangsprozess ist nicht stationär.

Stationär im weitesten Sinne ist ein Zufallsprozess, dessen mathematische Erwartung konstant ist:

und die Korrelationsfunktion hängt nur von einer Variablen ab – den Unterschieden in den Argumenten, und die Korrelationsfunktion wird mit bezeichnet

Prozesse, die im engeren Sinne stationär sind, sind notwendigerweise im weiteren Sinne stationär; Die umgekehrte Aussage ist jedoch im Allgemeinen falsch.

Der Begriff eines im weitesten Sinne stationären Zufallsprozesses wird eingeführt, wenn nur der mathematische Erwartungswert und die Korrelationsfunktion als statistische Merkmale eines Zufallsprozesses verwendet werden. Der Teil der Theorie zufälliger Prozesse, der die Eigenschaften eines zufälligen Prozesses durch seine mathematische Erwartungs- und Korrelationsfunktion beschreibt, wird Korrelationstheorie genannt.

Für einen zufälligen Prozess mit normales Gesetz Verteilung, der mathematische Erwartungswert und die Korrelationsfunktion bestimmen vollständig ihre n-dimensionale Wahrscheinlichkeitsdichte.

Daher fallen für normale Zufallsprozesse die Konzepte der Stationarität im weiteren und im engeren Sinne zusammen.

Die Theorie stationärer Prozesse ist am weitesten entwickelt und ermöglicht relativ einfache Berechnungen für viele praktische Fälle. Daher ist es manchmal ratsam, die Annahme der Stationarität auch in den Fällen zu treffen, in denen der Zufallsprozess, obwohl er instationär ist, während der betrachteten Betriebsdauer des Systems die statistischen Eigenschaften der Signale keine Zeit haben, sich wesentlich zu ändern. Im Folgenden werden, sofern nicht anders angegeben, Zufallsprozesse betrachtet, die im weiteren Sinne stationär sind.

Bei der Untersuchung zufälliger Prozesse, die im weitesten Sinne stationär sind, können wir uns darauf beschränken, nur Prozesse mit einem mathematischen Erwartungswert (Durchschnittswert) gleich Null zu betrachten, d. h. da ein Zufallsprozess mit einem mathematischen Erwartungswert ungleich Null als Summe dargestellt wird eines Prozesses mit einem mathematischen Erwartungswert von Null und einem konstanten nicht zufälligen (regulären) Wert, der dem mathematischen Erwartungswert dieses Prozesses entspricht (siehe unten § 9.6).

Wenn der Ausdruck für die Korrelationsfunktion

In der Theorie zufälliger Prozesse werden zwei Konzepte von Durchschnittswerten verwendet. Das erste Konzept des Durchschnittswerts ist der Durchschnittswert der Menge (oder der mathematischen Erwartung), der auf der Grundlage der Beobachtung der Menge von Erkenntnissen eines Zufallsprozesses zum gleichen Zeitpunkt bestimmt wird. Der Durchschnittswert über eine Menge wird normalerweise durch eine Wellenlinie über dem Ausdruck angezeigt, der die Zufallsfunktion beschreibt:

Im Allgemeinen ist der Durchschnittswert über einen Satz eine Funktion der Zeit

Ein weiteres Konzept des Durchschnittswerts ist der Durchschnittswert über die Zeit, der auf der Grundlage der Beobachtung einer separaten Implementierung eines Zufallsprozesses über einen bestimmten Zeitraum ermittelt wird.

eine ausreichend lange Zeit T. Der Mittelwert über die Zeit wird durch eine Gerade über dem entsprechenden Ausdruck der Zufallsfunktion angezeigt und wird durch die Formel bestimmt:

wenn diese Grenze existiert.

Der Zeitdurchschnitt ist im Allgemeinen für einzelne Realisierungen der Menge, die den Zufallsprozess definiert, unterschiedlich. Im Allgemeinen sind für denselben Zufallsprozess die eingestellten Durchschnitts- und Zeitdurchschnittswerte unterschiedlich. Es gibt jedoch eine Klasse stationärer Zufallsprozesse, sogenannte ergodische Prozesse, bei denen der Durchschnitt über die Menge gleich dem Durchschnitt über die Zeit ist, d. h.

Die Korrelationsfunktion eines ergodischen stationären Zufallsprozesses nimmt im absoluten Wert unbegrenzt ab

Es muss jedoch berücksichtigt werden, dass nicht jeder stationäre Zufallsprozess ergodisch ist. Beispielsweise ist ein Zufallsprozess, dessen jede Implementierung zeitlich konstant ist (Abb. 9.4), stationär, aber nicht ergodisch. In diesem Fall stimmen die ermittelten Durchschnittswerte aus einer Implementierung und aus der Verarbeitung mehrerer Implementierungen nicht überein. Im allgemeinen Fall kann derselbe Zufallsprozess in Bezug auf einige statistische Merkmale ergodisch und in Bezug auf andere nicht-ergodisch sein. Im Folgenden gehen wir davon aus, dass die Ergodizitätsbedingungen hinsichtlich aller statistischen Merkmale erfüllt sind.

Die Ergodizitätseigenschaft ist sehr groß praktische Bedeutung. Zur Bestimmung statistische Eigenschaften Wenn es bei einigen Objekten schwierig ist, sie zu einem willkürlich gewählten Zeitpunkt gleichzeitig zu beobachten (z. B. wenn ein Prototyp vorhanden ist), kann dies durch eine Langzeitbeobachtung eines Objekts ersetzt werden. Mit anderen Worten, eine separate Implementierung des ergodischen Zufalls

Der Prozess über einen unendlichen Zeitraum bestimmt vollständig den gesamten Zufallsprozess mit seinen unendlichen Implementierungen. Tatsächlich liegt dieser Tatsache die unten beschriebene Methode zur experimentellen Bestimmung der Korrelationsfunktion eines stationären Zufallsprozesses aus einer Implementierung zugrunde.

Wie aus (9.25) ersichtlich ist, ist die Korrelationsfunktion der Durchschnittswert über die Menge. Für ergodische Zufallsprozesse kann die Korrelationsfunktion als zeitlicher Durchschnitt des Produkts definiert werden, d.h.

Wo ist eine Implementierung eines zufälligen Prozesses? x ist der Mittelwert über die Zeit, bestimmt durch (9.28).

Wenn der Mittelwert eines Zufallsprozesses Null ist, dann

Basierend auf der Ergodizitätseigenschaft kann man Dispersion [siehe. (9.19)] definiert als der zeitliche Mittelwert des Quadrats des zentrierten Zufallsprozesses, d. h.

Vergleicht man die Ausdrücke (9.30) und (9.32), kann man einen sehr wichtigen Zusammenhang zwischen der Dispersion und der Korrelationsfunktion feststellen – die Dispersion eines stationären Zufallsprozesses ist gleich dem Anfangswert der Korrelationsfunktion:

Aus (9.33) geht hervor, dass die Streuung eines stationären Zufallsprozesses konstant ist und daher die Standardabweichung konstant ist:

Die statistischen Eigenschaften des Zusammenhangs zwischen zwei Zufallsprozessen können durch eine gegenseitige Korrelationsfunktion charakterisiert werden, die für jedes Paar willkürlich gewählter Argumentwerte gleich ist

Für ergodische Zufallsprozesse können wir anstelle von (9.35) schreiben

Wo gibt es jeweils Realisierungen stationärer Zufallsprozesse?

Die Kreuzkorrelationsfunktion charakterisiert die gegenseitige statistische Beziehung zweier Zufallsprozesse zu unterschiedlichen Zeitpunkten, die durch eine Zeitspanne voneinander getrennt sind. Der Wert charakterisiert diese Beziehung zum gleichen Zeitpunkt.

Aus (9.36) folgt das

Wenn zufällige Prozesse nicht statistisch miteinander verknüpft sind und haben gleich Null Durchschnittswerte, dann ist ihre Kreuzkorrelationsfunktion für alle gleich Null. Die umgekehrte Schlussfolgerung, dass die Prozesse unabhängig sind, wenn die Kreuzkorrelationsfunktion gleich Null ist, lässt sich jedoch nur im Einzelfall (insbesondere bei Prozessen mit Normalverteilungsgesetz) ziehen, beim Umkehrgesetz jedoch nicht haben allgemeine Kraft.

Beachten Sie, dass Korrelationsfunktionen auch für nicht zufällige (reguläre) Zeitfunktionen berechnet werden können. Wenn man jedoch von der Korrelationsfunktion einer regulären Funktion spricht, wird diese einfach als Ergebnis einer formalen Funktion verstanden

Anwenden einer durch ein Integral ausgedrückten Operation auf eine reguläre Funktion:

Lassen Sie uns einige grundlegende Eigenschaften von Korrelationsfunktionen vorstellen

1. Anfangswert der Korrelationsfunktion [siehe (9.33)] ist gleich der Varianz des Zufallsprozesses:

2. Der Wert der Korrelationsfunktion kann zu keinem Zeitpunkt seinen Anfangswert überschreiten, d.h.

Um dies zu beweisen, betrachten Sie die offensichtliche Ungleichung, aus der sie folgt

Wir finden die Durchschnittswerte über die Zeit von beiden Seiten der letzten Ungleichung:

Somit erhalten wir die Ungleichung

3. Es gibt eine Korrelationsfunktion gleiche Funktion, d.h.

Dies ergibt sich bereits aus der Definition der Korrelationsfunktion. Wirklich,

Daher ist die Korrelationsfunktion im Diagramm immer symmetrisch zur Ordinate.

4. Die Korrelationsfunktion der Summe zufälliger Prozesse wird durch den Ausdruck bestimmt

Wo sind die Kreuzkorrelationsfunktionen?

Wirklich,

5. Die Korrelationsfunktion eines konstanten Wertes ist gleich dem Quadrat dieses konstanten Wertes (Abb. 9.5, a), was sich aus der Definition der Korrelationsfunktion selbst ergibt:

6. Die Korrelationsfunktion einer periodischen Funktion ist beispielsweise eine Kosinuswelle (Abb. 9-5, 5), d.h.

mit der gleichen Frequenz wie und unabhängig von der Phasenverschiebung

Um dies zu beweisen, beachten Sie, dass Sie beim Ermitteln der Korrelationsfunktionen periodischer Funktionen die folgende Gleichung verwenden können:

Wo ist die Periode der Funktion?

Die letzte Gleichheit wird erhalten, nachdem das Integral mit Grenzen von -T bis T bei T durch die Summe einzelner Integrale mit Grenzen von bis ersetzt wurde, wobei und unter Verwendung der Periodizität der Integranden.

Unter Berücksichtigung des oben Gesagten erhalten wir dann t.

7. Korrelationsfunktion einer zu einer Fourier-Reihe erweiterten Zeitfunktion:

Reis. 9,5 (siehe Scan)

Basierend auf dem oben Gesagten hat es die folgende Form:

8. Eine typische Korrelationsfunktion eines stationären Zufallsprozesses hat die in Abb. gezeigte Form. 9.6. Es kann durch den folgenden analytischen Ausdruck angenähert werden:

Mit zunehmendem Wachstum wird die Verbindung zwischen ihnen schwächer und die Korrelationsfunktion wird kleiner. In Abb. 9.5, b, c zeigen beispielsweise zwei Korrelationsfunktionen und zwei entsprechende Realisierungen eines Zufallsprozesses. Es ist leicht zu erkennen, dass die Korrelationsfunktion, die einem Zufallsprozess mit einer feineren Struktur entspricht, schneller abnimmt hohe Frequenzen in einem Zufallsprozess vorliegen, desto schneller nimmt die entsprechende Korrelationsfunktion ab.

Manchmal gibt es Korrelationsfunktionen, die durch den analytischen Ausdruck angenähert werden können

wo ist die Streuung; - Dämpfungsparameter; - Resonanzfrequenz.

Korrelationsfunktionen dieser Art weisen beispielsweise zufällige Prozesse wie atmosphärische Turbulenzen, Radarsignalschwund, Winkelflimmern eines Ziels usw. auf. Die Ausdrücke (9.45) und (9.46) werden häufig verwendet, um Korrelationsfunktionen anzunähern, die als Ergebnis der Verarbeitung erhalten werden Versuchsdaten.

9. Die Korrelationsfunktion eines stationären Zufallsprozesses, dem eine periodische Komponente mit Frequenz überlagert ist, wird auch eine periodische Komponente derselben Frequenz enthalten.

Dieser Umstand kann als eine der Möglichkeiten genutzt werden, „verborgene Periodizität“ in Zufallsprozessen zu erkennen, die bei einzelnen Aufzeichnungen über die Durchführung eines Zufallsprozesses möglicherweise nicht auf den ersten Blick erkennbar ist.

Eine ungefähre Form der Korrelationsfunktion eines Prozesses, der neben der Zufallskomponente auch eine periodische Komponente enthält, ist in Abb. dargestellt. 9.7, wo die der Zufallskomponente entsprechende Korrelationsfunktion angegeben ist. Um eine versteckte periodische Komponente zu identifizieren (dieses Problem entsteht beispielsweise bei der Identifizierung eines kleinen Nutzsignals vor dem Hintergrund großen Rauschens), ist es am besten, die Korrelationsfunktion für große Werte zu bestimmen, wenn das Zufallssignal bereits relativ schwach korreliert ist und die Zufallskomponente hat kaum Einfluss auf die Form der Korrelationsfunktion.

9. Korrelationsfunktion und ihre Haupteigenschaften.

Zur vollständigen Beschreibung zufälliger Prozesse wird das Konzept der Korrelation f-i eingeführt.

gleich dem mathematischen Erwartungswert, der Varianz und der Standardabweichung

Es wird angenommen, dass das Verteilungsgesetz normal ist. Die Diagramme zeigen einen starken Unterschied zwischen den Prozessen, trotz ihrer gleichen probabilistischen Eigenschaften.

(t)m

(T)

(t )D

(T)

(T)

(T) .

Zum Beispiel die Verfolgung eines Flugzeugs. Befindet er sich zum Zeitpunkt t auf Position 1, so ist seine mögliche Position 2 zum nächsten Zeitpunkt t 2 begrenzt, d. h. die Ereignisse (x 1 ,t 1 ) und (x 2 ,t 2 ) sind nicht unabhängig. Je träger das untersuchte Objekt ist, desto größer ist diese gegenseitige Abhängigkeit oder Korrelation. Die Corr-Funktion drückt mathematisch die Korrelation zweier Funktionen oder die Korrelation einer Funktion mit sich selbst aus (Autokorrekturfunktion). Die Funktion wird wie folgt beschrieben:

wobei t 1 und t 2 beliebige Zeitpunkte sind, also t 1 und t 2 T

Korrelation ist eine statistische Beziehung zwischen zwei oder mehr Zufallsvariablen.

Korrelationsfunktion– eine solche nichtzufällige Funktion R x (t 1 ,t 2 ) zweier Argumente, die für jedes Paar fester Werte der Argumente t 1 und t 2 gleich dem Korrelationsmoment ist, das diesen Abschnitten von Zufallsvariablen x entspricht (t 1 ) und x (t 2 ).

Die Korrelationsfunktion ist eine Funktion der Zeit, die die Korrelation in Systemen mit zufälligen Prozessen angibt.

Wenn die Zeitpunkte t 1 und t 2 zusammenfallen, ist die Korrelationsfunktion gleich der Dispersion. Die normalisierte Korrelationsfunktion wird nach folgender Formel berechnet:

) 1,

wobei x (t 1) und x (t 2) r.s.o. Zufallsfunktion x (t) mit t =t 1 bzw. t =t 2. Berechnen

Korrelationsfunktion erforderlich

Dichte (zweidimensional)

Wahrscheinlichkeiten

(x ,x

; t, t

) dx dx

Eigenschaften von Korrelationsfunktionen

1. Korrelationsfunktion R x (t 1 ,t 2 ) ist bezüglich seiner Argumente symmetrisch:

R x (t 1 ,t 2 ) =R x (t 2 ,t 1 )

gemäß der Definition der Korrelationsfunktion X(t).

2. Beim Hinzufügen zu einer Zufallsfunktion X (t) eines beliebigen, nicht zufälligen Termes

(t), Korrelationsfunktion Z (t) X (t) (t),

dann R z (t 1 ,t 2 ) =R x (t 1 ,t 2 ).

3. Bei der Multiplikation einer Zufallsfunktion X (t) mit einem beliebigen nichtzufälligen Faktor ψ(t) wird die Korrelationsfunktion R x (t 1,t 2) mit ψ(t 1)ψ(t 2) multipliziert.

06 Vorlesung.doc

Vorlesung 6. Korrelationsfunktionen zufälliger Prozesse
Planen.

1. Das Konzept der Korrelationsfunktion eines Zufallsprozesses.

2. Stationarität im engeren und weiteren Sinne.

3. Durchschnittswert für den Satz.

4. Durchschnittswert im Zeitverlauf.

5. Ergodische Zufallsprozesse.
Mathematische Erwartung und Streuung sind wichtige Merkmale eines Zufallsprozesses, sie geben jedoch keine ausreichende Vorstellung von der Natur einzelner Implementierungen eines Zufallsprozesses. Dies ist aus Abb. deutlich zu erkennen. 6.1, das die Implementierung zweier Zufallsprozesse zeigt, die in ihrer Struktur völlig unterschiedlich sind, obwohl sie die gleichen Werte für mathematische Erwartung und Streuung haben. Gestrichelte Linien in Abb. 6.1. Werte angezeigt 3 X (T) für zufällige Prozesse.
Der in Abb. 6.1, A, von einem Abschnitt zum anderen verläuft relativ reibungslos, und der Prozess in Abb. 6.1, B weist starke Schwankungen von Abschnitt zu Abschnitt auf. Daher ist der statistische Zusammenhang zwischen den Querschnitten im ersten Fall größer als im zweiten, was jedoch weder durch die mathematische Erwartung noch durch die Streuung festgestellt werden kann.

Um die innere Struktur eines Zufallsprozesses einigermaßen zu charakterisieren, also die Beziehung zwischen den Werten eines Zufallsprozesses zu verschiedenen Zeitpunkten zu berücksichtigen oder mit anderen Worten, den Grad von zu berücksichtigen Variabilität eines Zufallsprozesses ist es notwendig, das Konzept einer Korrelationsfunktion (Autokorrelationsfunktion) eines Zufallsprozesses einzuführen.

^ Korrelationsfunktion eines Zufallsprozesses X(T)Rufen Sie eine nichtzufällige Funktion mit zwei Argumenten aufR X (T 1 , T 2), die für jedes Paar willkürlich gewählter Argumentwerte (Zeitpunkte) t 1 UndT 2 gleich dem mathematischen Erwartungswert des Produkts zweier ZufallsvariablenX(T 1 ) UndX(T 2 ) entsprechende Abschnitte des Zufallsprozesses:

Wo 2 (X 1 , T 1 ; X 2 , T 2) - zweidimensionale Wahrscheinlichkeitsdichte.

Sie verwenden häufig einen anderen Ausdruck für die Korrelationsfunktion, der nicht für den Zufallsprozess selbst geschrieben ist. X(T), und für die zentrierte Zufallskomponente X(T). Die Korrelationsfunktion heißt in diesem Fall zentriert und wird aus der Beziehung bestimmt

(6.2)

Je nachdem, wie sich ihre statistischen Eigenschaften im Laufe der Zeit ändern, werden verschiedene Zufallsprozesse unterteilt stationär Und instationär. Es wird zwischen Stationarität im engeren Sinne und Stationarität im weiteren Sinne unterschieden.

^ Stationär im engeren Sinne wird als Zufallsprozess bezeichnet X(T), wenn es N-dimensionale Verteilungsfunktionen und Wahrscheinlichkeitsdichte für alle P hängen nicht von der Position des Beginns der Zeitzählung ab T, d.h.

Dies bedeutet, dass zwei Prozesse, X(T) Und X(T+), haben für alle die gleichen statistischen Eigenschaften , d. h. die statistischen Eigenschaften eines stationären Zufallsprozesses sind über die Zeit konstant. Ein stationärer Zufallsprozess ist eine Art Analogon eines stationären Prozesses in deterministischen Systemen.

^ Stationär im weitesten Sinne wird als Zufallsprozess bezeichnet X(T), deren mathematische Erwartung konstant ist:

Und die Korrelationsfunktion hängt nur von einer Variablen ab – der Differenz der Argumente =T 2 -T 1:

(6.5)

Das Konzept eines zufälligen Prozesses, stationär im weitesten Sinne. wird eingeführt, wenn nur der mathematische Erwartungswert und die Korrelationsfunktion als statistische Merkmale eines Zufallsprozesses verwendet werden. Der Teil der Theorie der Zufallsprozesse, der die Eigenschaften eines Zufallsprozesses durch seine mathematische Erwartungs- und Korrelationsfunktion beschreibt, wird aufgerufen Korrelationstheorie.

Für einen Zufallsprozess mit einem Normalverteilungsgesetz wird dieser vollständig durch die mathematische Erwartungs- und Korrelationsfunktion bestimmt N-dimensionale Wahrscheinlichkeitsdichte. Deshalb Für normale Zufallsprozesse stimmen die Konzepte der Stationarität im weiteren und im engeren Sinne überein.

Die Theorie stationärer Prozesse ist am weitesten entwickelt und ermöglicht relativ einfache Berechnungen für viele praktische Fälle. Daher ist es manchmal ratsam, die Annahme der Stationarität auch dann zu treffen, wenn der Zufallsprozess zwar instationär ist, die statistischen Eigenschaften der Signale jedoch während der betrachteten Betriebsdauer des Systems keine Zeit haben, sich zu ändern jede nennenswerte Weise. Im Folgenden werden, sofern nicht anders angegeben, Zufallsprozesse betrachtet, die im weiteren Sinne stationär sind.

In der Theorie zufälliger Prozesse werden zwei Konzepte von Durchschnittswerten verwendet. Das erste Konzept des Durchschnitts ist Durchschnittswert über den Satz(oder mathematische Erwartung), die auf der Grundlage der Beobachtung der Menge von Implementierungen eines Zufallsprozesses zum gleichen Zeitpunkt bestimmt wird. Der Durchschnittswert über eine Menge wird normalerweise durch eine Wellenlinie über dem Ausdruck angezeigt, der eine Zufallsfunktion beschreibt:

Im Allgemeinen ist der Durchschnittswert über einen Satz eine Funktion der Zeit.

Ein anderes Konzept des Durchschnitts ist Durchschnittswert über die Zeit, die auf der Grundlage der Beobachtung einer separaten Implementierung eines Zufallsprozesses bestimmt wird X{ F) für eine ziemlich lange Zeit T. Der zeitliche Mittelwert wird durch eine Gerade über dem entsprechenden Ausdruck der Zufallsfunktion angezeigt und durch die Formel bestimmt

(6.7)

Wenn diese Grenze existiert.

Der Durchschnittswert über die Zeit unterscheidet sich im Allgemeinen für einzelne Implementierungen der Menge, die den Zufallsprozess definiert.

Im Allgemeinen sind für denselben Zufallsprozess der eingestellte Durchschnitt und der zeitliche Durchschnitt unterschiedlich, bei den sogenannten ergodischen stationären Zufallsprozessen stimmt der eingestellte Durchschnitt jedoch mit dem zeitlichen Durchschnitt überein:

(6.8)

Gleichheit (6.8) folgt aus Ergodensatz, Dabei wird für einige stationäre Zufallsprozesse bewiesen, dass jedes statistische Merkmal, das durch Mittelung über eine Menge erhalten wird, mit einer Wahrscheinlichkeit, egal wie nahe bei Eins, mit dem über die Zeit gemittelten Merkmal übereinstimmt. Der Ergodensatz ist nicht für alle stationären Prozesse bewiesen, daher spricht man in den Fällen, in denen er noch nicht bewiesen wurde, davon Ergodenhypothese.

Es ist zu beachten, dass nicht jeder stationäre Prozess ergodisch ist.

In Abb. 6.2. zeigt beispielsweise einen Graphen eines stationären nichtergodischen Prozesses, für den die Gleichheit (6.8) nicht gilt. Im allgemeinen Fall kann derselbe Zufallsprozess in Bezug auf einige statistische Merkmale ergodisch und in Bezug auf andere nicht ergodisch sein. Im Folgenden gehen wir davon aus, dass die Ergodizitätsbedingungen für den mathematischen Erwartungswert und die Korrelationsfunktion erfüllt sind.

Die physikalische Bedeutung des Ergodensatzes (oder der Ergothese) ist tiefgreifend und von großer praktischer Bedeutung. Um die statistischen Eigenschaften ergodischer stationärer Prozesse zu bestimmen, kann die gleichzeitige Beobachtung vieler ähnlicher Systeme zu einem willkürlich gewählten Zeitpunkt, beispielsweise bei Vorhandensein eines Prototyps, durch eine Langzeitbeobachtung ersetzt werden ein System. Tatsächlich liegt diese Tatsache der experimentellen Bestimmung der Korrelationsfunktion eines stationären Zufallsprozesses basierend auf einer Implementierung zugrunde. Im Gegensatz dazu ist es bei einer großen Charge von Massenprodukten für ähnliche Studien möglich, alle Proben der Charge oder eine einigermaßen repräsentative Stichprobe davon gleichzeitig zu beobachten.

Wie aus (6.5) ersichtlich ist, ist die Korrelationsfunktion der Durchschnitt über die Menge. Gemäß dem Ergodensatz für einen stationären Zufallsprozess kann die Korrelationsfunktion als zeitlicher Mittelwert des Produkts definiert werden X(T) Und X(T+), d.h.

(6.9)

Wo X(T)- jede Implementierung eines zufälligen Prozesses.

Zentrierte Korrelationsfunktion eines ergodischen stationären Zufallsprozesses

(6.10

Zwischen Korrelationsfunktionen R X () Und R 0 X () besteht folgender Zusammenhang:

R X ()=R X 0 ()+(x -) 2 , (6.11)

Basierend auf der Ergodizitätseigenschaft kann die Dispersion sein D X [cm. (19)] definiert als der zeitliche Durchschnitt des Quadrats des zentrierten Zufallsprozesses, d. h.

(6.12)

Beim Vergleich der Ausdrücke (6.10) und (6.11) kann man das erkennen die Varianz eines stationären Zufallsprozesses ist gleich dem Anfangswert der zentrierten Korrelationsfunktion:

(6.13)

Unter Berücksichtigung von (6.12) können wir einen Zusammenhang zwischen der Dispersion und der Korrelationsfunktion herstellen R X (), d.h.

Aus (6.14) und (6.15) geht hervor, dass die Streuung eines stationären Zufallsprozesses konstant ist und daher die Standardabweichung konstant ist:

Statistische Eigenschaften der Verbindung zwischen zwei Zufallsprozessen X(T) Und G(T) charakterisiert werden kann KreuzkorrelationsfunktionR xg (T 1 , T 2), die für jedes Paar willkürlich gewählter Argumentwerte gilt T 1 , T 2 ist gleich

Nach dem Ergodensatz können wir anstelle von (6.18) schreiben

(6.19)

Wo X(T) Und G(T) - jede Implementierung stationärer Zufallsprozesse X(T) Und G(T) jeweils.

Kreuzkorrelationsfunktion R xg ( charakterisiert den gegenseitigen statistischen Zusammenhang zweier Zufallsprozesse X(T) Und G(T) zu verschiedenen Zeitpunkten, voneinander getrennt durch eine Zeitspanne t Bedeutung R xg(0) charakterisiert diesen Zusammenhang zum gleichen Zeitpunkt.

Aus (6.19) folgt das

(6.20)

Wenn zufällige Prozesse X(t) Und G(T) nicht statistisch miteinander in Zusammenhang stehen und Durchschnittswerte von Null haben, dann ist ihre gegenseitige Korrelationsfunktion für alle m gleich Null. Die umgekehrte Schlussfolgerung, dass die Prozesse unabhängig sind, wenn die Kreuzkorrelationsfunktion gleich Null ist, lässt sich jedoch nur im Einzelfall (insbesondere bei Prozessen mit Normalverteilungsgesetz) ziehen, beim Umkehrgesetz jedoch nicht haben allgemeine Kraft.

Zentrierte Korrelationsfunktion R° X ( für nichtzufällige Funktionen der Zeit ist identisch gleich Null. Allerdings ist die Korrelationsfunktion R X ( kann auch für nichtzufällige (reguläre) Funktionen berechnet werden. Beachten Sie jedoch, dass es sich bei der Korrelationsfunktion um eine reguläre Funktion handelt X(T), dann wird dies einfach als Ergebnis einer formalen Anwendung auf eine reguläre Funktion verstanden X(T) Operation ausgedrückt durch das Integral (6.13).