Arten von Beziehungen zwischen Variablen. Experimentelle Psychologie. Arten von Variablen nach Druzhinin

Arten von Beziehungen zwischen Merkmalen. 3

Korrelationskoeffizient. 8

Bravais-Pearson-Korrelationskoeffizient. elf

Einschränkungen bei der Verwendung des Korrelationskoeffizienten. 13

Überprüfung der Signifikanz der Korrelation. 14

Rangkorrelation. 15

Mehrfachkorrelation. 16

Bibliographische Liste. 20


Arten von Beziehungen zwischen Merkmalen

Hippokrates machte auch darauf aufmerksam, dass es einen gewissen Zusammenhang zwischen dem Körperbau und dem Temperament der Menschen, zwischen der Struktur ihres Körpers und ihrer Veranlagung für Krankheiten gebe.
Am häufigsten werden die einfachsten Situationen berücksichtigt, wenn während der Studie die Werte nur eines variierenden Merkmals der Allgemeinbevölkerung gemessen werden. Die übrigen Merkmale gelten entweder als konstant für eine bestimmte Population oder beziehen sich auf Zufallsfaktoren, die die Variation des untersuchten Merkmals bestimmen. In der Regel ist die Forschung im Sport deutlich komplexer und komplexer. Bei der Überwachung des Trainingsfortschritts wird beispielsweise das sportliche Ergebnis gemessen und gleichzeitig können eine Reihe biomechanischer, physiologischer, biochemischer und anderer Parameter beurteilt werden (Geschwindigkeit und Beschleunigung des Gesamtschwerpunkts und einzelner Teile). des Körpers, Winkel in den Gelenken, Muskelkraft, Indikatoren des Atmungs- und Kreislaufsystems, Umfang der körperlichen Aktivität und Energieverbrauch des Körpers für ihre Ausführung usw.). Dabei stellt sich häufig die Frage nach dem Zusammenhang einzelner Merkmale. Wie hängt beispielsweise ein Sportergebnis von bestimmten Elementen der Sportbewegungstechnik ab? Wie hängt der Energieverbrauch des Körpers mit der Menge an körperlicher Aktivität einer bestimmten Art zusammen? Wie genau kann man anhand der Ergebnisse einiger Standardübungen die potenziellen Fähigkeiten einer Person bei einer bestimmten Sportart beurteilen? usw. In all diesen Fällen wird die Aufmerksamkeit des Forschers auf die Beziehung zwischen verschiedenen Größen gelenkt, die die für ihn interessanten Merkmale beschreiben.

Diesem Zweck dient der mathematische Funktionsbegriff, der sich auf Fälle bezieht, in denen ein bestimmter Wert einer (unabhängigen) Variablen X aufgerufen wird Streit , entspricht einem bestimmten Wert einer anderen (abhängigen) Variablen Y, genannt Funktion . Einzigartige Beziehung zwischen Variablen Y Und X angerufen funktionell , d.h. Y = f(X)(„Y ist eine Funktion von X“).
Zum Beispiel in der Funktion Y=2X jeder Wert X entspricht dem doppelten Wert Y. In Funktion Y=2X2 jeder Wert Y entspricht 2 definierten Werten X.

Solche eindeutigen oder funktionalen Zusammenhänge zwischen Variablen werden jedoch nicht immer gefunden. Es ist beispielsweise bekannt, dass es einen positiven Zusammenhang zwischen der Körpergröße (Körperlänge) und der Masse einer Person gibt: Größere Personen haben normalerweise eine größere Masse als kleine Personen. Das Gleiche gilt auch für qualitative Merkmale: Blondinen haben in der Regel blaue Augen, Brünette braune Augen. Es gibt jedoch Ausnahmen von dieser Regel, wenn sich herausstellt, dass relativ kleine Individuen schwerer sind als große, und es in der Bevölkerung, wenn auch nicht oft, braunäugige Blondinen und blauäugige Brünetten gibt. Der Grund für solche „Ausnahmen“ liegt darin, dass jedes biologische Merkmal mathematisch gesehen eine Funktion vieler Variablen ist; Sein Wert wird durch den Einfluss genetischer und umweltbedingter Faktoren, einschließlich zufälliger Faktoren, beeinflusst, was zu Variationen in den Merkmalen führt. Daher wird die Abhängigkeit zwischen ihnen nicht funktional, sondern statistischer Natur , wenn ein bestimmter Wert eines Merkmals, das als unabhängige Variable betrachtet wird, nicht demselben numerischen Wert entspricht, sondern einem ganzen Bereich numerischer Werte eines anderen Merkmals, das als unabhängige Variable betrachtet wird und in einer Variationsreihe verteilt ist. Diese Art der Beziehung zwischen Variablen wird aufgerufen Korrelation oder Korrelation (Der Begriff „Korrelation“ kommt vom lateinischen correlatio – Verhältnis, Verbindung). Dabei Diese Art der Beziehung zwischen Merkmalen äußert sich darin, dass sich bei einer Änderung eines der Werte auch der Durchschnittswert des anderen ändert.
Wenn funktionale Zusammenhänge sowohl an Einzelobjekten als auch an Gruppenobjekten gleichermaßen leicht zu erkennen sind, kann dies nicht über Korrelationszusammenhänge gesagt werden, die nur an Gruppenobjekten mit Methoden der mathematischen Statistik untersucht werden.

· Gibt es einen Zusammenhang zwischen den untersuchten Variablen?

· Wie misst man die Nähe von Verbindungen?

Das allgemeine Diagramm der Beziehung zwischen Parametern in einer statistischen Studie ist in Abb. dargestellt. 1.

Abbildung 1. Beziehung zwischen Parametern in der statistischen Forschung

In Abbildung S ist ein Modell des untersuchten realen Objekts dargestellt. Erklärende (unabhängige Faktor-)Variablen beschreiben die Betriebsbedingungen des Objekts. Zufällige Faktoren sind Faktoren, deren Einfluss schwer zu berücksichtigen ist oder deren Einfluss derzeit vernachlässigt wird. Die resultierenden (abhängigen, erklärten) Variablen charakterisieren das Ergebnis der Funktionsweise des Objekts.

Die Wahl der Methode zur Analyse der Beziehung erfolgt unter Berücksichtigung der Art der analysierten Variablen.

Korrelation ist eine statistische Beziehung zwischen Zufallsvariablen, bei der eine Änderung einer der Zufallsvariablen zu einer Änderung der mathematischen Erwartung der anderen führt.

Es gibt paarweise, partielle und multiple Korrelationen.

Paarweise Korrelation– Hierbei handelt es sich um einen Zusammenhang zwischen zwei Merkmalen (resultativ und faktoriell bzw. zwischen zwei faktoriell).

Teilkorrelation– Dies ist die Verbindung zwischen zwei Merkmalen (resultativ und faktoriell oder zwischen zwei faktoriell) mit einem festen Wert anderer Faktormerkmale.

Mehrfachkorrelation- Dies ist der Zusammenhang zwischen dem Ergebnis und zwei oder mehr in die Studie einbezogenen Faktormerkmalen.

Abhängig von der Anzahl der im Modell enthaltenen Merkmale kann die Korrelation einfaktorig (oder gepaart) und mehrfaktorig (oder mehrfach) sein. .

Korrelationsanalyse ist ein Zweig der mathematischen Statistik, der sich der Untersuchung von Beziehungen zwischen Zufallsvariablen widmet. Die Korrelationsanalyse besteht aus quantitativer Analyse

Die Aufgabe der Korrelationsanalyse besteht darin, die Richtung und Form der Verbindung zwischen Merkmalen festzustellen, ihre Nähe zu messen und die Zuverlässigkeit von Stzu beurteilen.
Die Korrelation zwischen Zeichen kann sein linear und krummlinig (nichtlinear), positiv und negativ.

Direkter Zusammenhang spiegelt die Gleichmäßigkeit der Veränderungen der Merkmale wider: Mit einer Zunahme der Werte des ersten Merkmals nehmen die Werte des anderen zu, oder mit einer Abnahme des ersten Merkmals nimmt das zweite ab.

Inverse Korrelation zeigt eine Zunahme des ersten Merkmals bei einer Abnahme des zweiten oder eine Abnahme des ersten Merkmals bei einer Zunahme des zweiten an.
Beispielsweise ist ein größerer Sprung und mehr Training ein direkter Zusammenhang, eine Verringerung der für das Zurücklegen der Distanz aufgewendeten Zeit und mehr Training ein umgekehrter Zusammenhang.

Die Korrelation wird anhand experimenteller Daten untersucht, bei denen es sich um Messwerte handelt ( x i, y i) zwei Zeichen. Liegen nur wenige experimentelle Daten vor, wird die zweidimensionale empirische Verteilung als doppelte Wertereihe dargestellt x i Und y i. Dabei kann die Korrelationsabhängigkeit zwischen Merkmalen auf unterschiedliche Weise beschrieben werden. Die Entsprechung zwischen einem Argument und einer Funktion kann durch eine Tabelle, eine Formel, ein Diagramm usw. angegeben werden.
Die Korrelationsanalyse basiert wie andere statistische Methoden auf der Verwendung probabilistischer Modelle, die das Verhalten der untersuchten Merkmale in einer bestimmten Gesamtpopulation beschreiben, aus der die experimentellen Werte gewonnen werden x i Und y i.
Bei der Untersuchung der Korrelation zwischen quantitativen Merkmalen, deren Werte in Einheiten metrischer Skalen (Meter, Sekunden, Kilogramm usw.) genau gemessen werden können, wird sehr häufig ein zweidimensionales normalverteiltes Populationsmodell verwendet. Dieses Modell zeigt die Beziehung zwischen Variablen x i Und y i G grafisch in Form einer geometrischen Lage von Punkten in einem rechtwinkligen Koordinatensystem. Diese grafische Beziehung wird auch genannt Streudiagramm oder Korrelationsfeld .

Bei der Untersuchung von Korrelationen werden grafische und analytische Ansätze verwendet.

Die grafische Analyse beginnt mit der Konstruktion eines Korrelationsfeldes. Ein Korrelationsfeld (oder Streudiagramm) ist eine grafische Beziehung zwischen den Messergebnissen zweier Merkmale. Um es zu konstruieren, werden die Ausgangsdaten in einem Diagramm dargestellt, wobei jedes Wertepaar (xi, yi) als Punkt mit den Koordinaten xi und yi in einem rechteckigen Koordinatensystem angezeigt wird.

Die visuelle Analyse des Korrelationsfeldes ermöglicht es uns, eine Annahme über die Form und Richtung der Beziehung zwischen den beiden untersuchten Indikatoren zu treffen. Abhängig von der Form der Beziehung werden Korrelationsabhängigkeiten üblicherweise in lineare (siehe Abb. 2) und nichtlineare (siehe Abb. 3) unterteilt. Bei einer linearen Abhängigkeit ähnelt die Einhüllende des Korrelationsfeldes einer Ellipse. Die lineare Beziehung zwischen zwei Zufallsvariablen besteht darin, dass mit zunehmender Zufallsvariable die andere Zufallsvariable gemäß einem linearen Gesetz tendenziell zunimmt (oder abnimmt).

Abbildung 2. Lineare statistische Beziehung. Abbildung 3. Nichtlineare statistische Beziehung

Die Richtung der Beziehung ist positiv, wenn eine Wertsteigerung eines Attributs zu einer Wertsteigerung des zweiten führt (siehe Abb. 4) und negativ, wenn eine Wertsteigerung eines Attributs zu einer Wertminderung führt der Sekunde (siehe Abb. 5).

Abhängigkeiten, die nur positive oder nur negative Richtungen haben, werden als monoton bezeichnet.

Korrelationskoeffizient

Eine quantitative Beurteilung der Nähe des Zusammenhangs zwischen zwei Zufallsvariablen erfolgt anhand des Korrelationskoeffizienten. Die Art des Korrelationskoeffizienten und damit der Algorithmus zu seiner Berechnung hängen von der Skala ab, auf der die Messungen der untersuchten Indikatoren durchgeführt werden, und von der Form der Abhängigkeit.

Der Wert des Korrelationskoeffizienten kann im Bereich von -1 bis +1 variieren:

Der absolute Wert des Korrelationskoeffizienten zeigt die Stärke der Beziehung. Je kleiner sein absoluter Wert, desto schwächer ist die Verbindung. Wenn es Null ist, besteht überhaupt keine Verbindung. Je größer der Wert des Moduls des Korrelationskoeffizienten ist, desto stärker ist die Beziehung und desto geringer ist die Streuung der Werte für jeden festen Wert. Das Vorzeichen des Korrelationskoeffizienten bestimmt die Richtung der Beziehung: minus – negativ, plus – positiv (siehe Abb. 6).

Abb.6. Korrelationsfelder für verschiedene Werte des Korrelationskoeffizienten

Abb.7. Korrelationskoeffizienten für verschiedene Formen des Korrelationsfeldes.

Der Korrelationskoeffizient spiegelt einen linearen Zusammenhang wider und eignet sich überhaupt nicht zur Beschreibung komplexer, nichtlinearer Zusammenhänge (Fazit).

Ganz bedingt kann die folgende Einteilung der Beziehungen nach dem Wert des Korrelationskoeffizienten verwendet werden (siehe Tabelle 1).

Tabelle 1. Interpretation der Korrelationskoeffizientenwerte

Sehr oft sucht ein Vermarkter nach Antworten auf Fragen wie: „Wird der Marktanteil mit zunehmender Händlerzahl steigen?“, „Gibt es einen Zusammenhang zwischen Verkaufsvolumen und Werbung?“ Solche Zusammenhänge sind nicht immer Ursache-Wirkungs-Zusammenhänge, sondern können auch einfach statistischer Natur sein. Bei den gestellten Fragen können wir durchaus über den Einfluss eines Faktors auf einen anderen sprechen. Allerdings kann der Grad des Einflusses der untersuchten Faktoren variieren; Höchstwahrscheinlich können auch einige andere Faktoren einen Einfluss haben. Es gibt vier Arten von Beziehungen zwischen zwei Variablen: nicht monoton, monoton, linear und krummlinig.

Eine nichtmonotone Beziehung zeichnet sich dadurch aus, dass die Anwesenheit (Abwesenheit) einer Variablen systematisch mit der Anwesenheit (Abwesenheit) einer anderen Variablen verbunden ist, über die Richtung dieser Wechselwirkung (z. B. eine Zunahme einer Variablen) jedoch nichts bekannt ist (Eine Variable führt zu einer Zunahme oder Abnahme einer anderen.) Es ist beispielsweise bekannt, dass Restaurantbesucher lieber morgens Kaffee und mittags Tee bestellen.

Der nicht-monotone Zusammenhang zeigt lediglich, dass auch die Morgengäste am liebsten Eier, Sandwiches und Kekse bestellen und zur Mittagszeit eher Fleischgerichte mit Beilage bestellen.

Eine monotone Beziehung zeichnet sich durch die Fähigkeit aus, nur die allgemeine Richtung der Beziehung zwischen zwei Variablen anzugeben, ohne quantitative Merkmale zu verwenden. Es lässt sich nicht sagen, um wie viel beispielsweise ein bestimmter Anstieg einer Variablen zu einem Anstieg einer anderen Variablen führt. Es gibt nur zwei Arten solcher Verbindungen: Zunahme und Abnahme. Ein Schuhgeschäftsinhaber weiß beispielsweise, dass ältere Kinder in der Regel größere Schuhe benötigen. Allerdings lässt sich kein eindeutiger Zusammenhang zwischen einem bestimmten Alter und der genauen Schuhgröße herstellen.

Eine lineare Beziehung charakterisiert eine geradlinige Beziehung zwischen zwei Variablen. Die Kenntnis der quantitativen Merkmale einer Variablen bestimmt automatisch die Kenntnis des Wertes einer anderen Variablen:

y=a+bx, (4.3)

wobei y die geschätzte oder vorhergesagte abhängige Variable (resultatives Attribut) ist;

a ist der freie Term der Gleichung;

b ist ein Regressionskoeffizient, der das durchschnittliche Verhältnis der Abweichung des resultierenden Merkmals von seinem Durchschnittswert zur Abweichung des Faktormerkmals von seinem Durchschnittswert pro Einheit seiner Messung misst – die Variation in y pro Variationseinheit in x;

x ist eine unabhängige Variable (Faktormerkmal), die zur Bestimmung der abhängigen Variablen verwendet wird.

Die Koeffizienten a und b werden aus Beobachtungen der Größen y und x unter Verwendung der Methode der kleinsten Quadrate berechnet.

Nehmen wir an, dass ein Handelsvertreter Kinderspielzeug verkauft, indem er zufällig Wohnungen besucht. Kein Besuch einer Wohnung bedeutet keinen Verkauf, oder a = 0. Wenn durchschnittlich jeder zehnte Besuch mit einem Verkauf von 62 $ einhergeht, betragen die Verkaufskosten pro Besuch 6,2 $, oder b = 6,2.

y=0 + 6,2x.

Bei 100 Besuchen können Sie also mit einem Umsatz von 620 $ rechnen. Es muss daran erinnert werden, dass diese Bewertung nicht zwingend ist, sondern probabilistischer Natur ist.

Eine krummlinige Beziehung charakterisiert die Beziehung zwischen Variablen, die im Vergleich zu einer geraden Linie komplexerer Natur ist. Beispielsweise kann die Beziehung zwischen Variablen durch eine 5-förmige Kurve beschrieben werden (siehe Abschnitt 7.3).

Je nach Art kann eine Verbindung durch die Bestimmung von Vorhandensein (Abwesenheit), Richtung und Stärke (Festigkeit) der Verbindung charakterisiert werden.

Präsenz charakterisiert das Vorhandensein oder Fehlen einer systematischen Beziehung zwischen den beiden untersuchten Variablen; es ist statistischer Natur. Durch die Durchführung eines statistischen Signifikanztests wird festgestellt, ob zwischen den Daten ein Zusammenhang besteht. Wenn die Studienergebnisse die Nullhypothese ablehnen, deutet dies darauf hin, dass zwischen den Daten ein Zusammenhang besteht.

Bei monotonen linearen Verbindungen können diese unter dem Gesichtspunkt ihrer Richtung – in Richtung Zunahme oder Abnahme – beschrieben werden.

Die Beziehung zwischen zwei Variablen kann stark, mäßig, schwach oder nicht vorhanden sein. Eine starke Abhängigkeit zeichnet sich durch eine hohe Wahrscheinlichkeit für die Existenz eines Zusammenhangs zwischen zwei Variablen aus, eine schwache Abhängigkeit durch eine geringe Wahrscheinlichkeit.

Zur Bestimmung der oben genannten Eigenschaften von Verbindungen gibt es spezielle Verfahren. Zunächst müssen Sie entscheiden, welche Art von Beziehungen zwischen den beiden untersuchten Variablen bestehen können. Die Antwort auf diese Frage hängt von der gewählten Messskala ab.

Eine (Namens-)Skala auf niedriger Ebene kann nur ungenaue Zusammenhänge widerspiegeln, während eine Verhältnisskala oder ein Intervall sehr genaue Zusammenhänge widerspiegeln kann. Nachdem die Art des Zusammenhangs (monoton, nicht monoton) bestimmt wurde, muss festgestellt werden, ob dieser Zusammenhang für die Gesamtbevölkerung besteht. Zu diesem Zweck werden statistische Tests durchgeführt.

Sobald festgestellt wurde, dass für die Bevölkerung ein bestimmter Beziehungstyp besteht, wird dessen Richtung festgelegt. Abschließend gilt es, die Stärke (Enge) der Verbindung festzustellen.

Um festzustellen, ob eine nichtmonotone Beziehung besteht oder nicht, werden eine Kontingenztabelle aus zwei Variablen und der Chi-Quadrat-Test verwendet. Der Chi-Quadrat-Test wird in der Regel zur Analyse von Kontingenztabellen nominaler Merkmale verwendet, kann aber auch zur Analyse des Zusammenhangs von Ordinal- oder Intervallvariablen verwendet werden. Wenn beispielsweise festgestellt wird, dass zwei Variablen nicht miteinander in Zusammenhang stehen, macht es keinen Sinn, sie weiter zu untersuchen. Einige Hinweise auf einen Zusammenhang waren wahrscheinlich auf Stichprobenfehler zurückzuführen. Wenn der Chi-Quadrat-Test einen Zusammenhang anzeigt, dann besteht dieser tatsächlich für die Bevölkerung und muss möglicherweise untersucht werden. Diese Analyse gibt jedoch keinen Aufschluss über die Art der Beziehung.

Angenommen, die Loyalität gegenüber einer bestimmten Biermarke wurde bei Angestellten und Arbeitern untersucht (zwei Variablen, die auf einer Namensskala gemessen werden). Die Umfrageergebnisse sind in der folgenden Form tabellarisch dargestellt (Tabelle 4.16).

Tabelle 4.16

Häufigkeitskontingenzmatrizen

Ergebnisse der ersten Tabellierung

Ursprüngliche Prozentdaten (geteilt durch 200)

Spaltenprozentsätze

Die erste dieser Matrizen enthält beobachtete Häufigkeiten, die mit erwarteten Häufigkeiten verglichen werden, die als theoretische Häufigkeiten definiert sind, die sich aus der akzeptierten Hypothese ergeben, dass zwischen zwei Variablen keine Beziehung besteht (die Nullhypothese ist erfüllt). Die Größe der Differenz zwischen den beobachteten und den erwarteten Häufigkeiten wird mithilfe des x-Quadrat-Werts ausgedrückt. Letzterer wird mit seinem Tabellenwert für das gewählte Signifikanzniveau verglichen. Wenn der Chi-Quadrat-Wert klein ist, wird die Nullhypothese akzeptiert und daher wird davon ausgegangen, dass die beiden Variablen unabhängig sind und der Forscher keine Zeit damit verschwenden sollte, die Beziehung zwischen ihnen herauszufinden, da die Beziehung das Ergebnis eines Stichprobenfehlers ist.

Kehren wir zu unserem Beispiel zurück und berechnen die erwarteten Häufigkeiten anhand der Häufigkeitstabelle:

=

wobei f ni die beobachtete Frequenz in Zelle i ist;

f ai – erwartete Häufigkeit in Zelle i;

n ist die Anzahl der Matrixzellen.

Aus der Tabelle der kritischen Werte von x-Quadrat folgt, dass für den Freiheitsgrad gleich 1 in unserem Beispiel und das Signifikanzniveau Alpha = 0,05 der kritische Wert von x-Quadrat 3,841 beträgt. Es ist ersichtlich, dass der berechnete Wert von x-Quadrat deutlich größer als sein kritischer Wert ist. Dies weist darauf hin, dass nicht nur für diese Stichprobe, sondern auch für die Gesamtbevölkerung ein statistisch signifikanter Zusammenhang zwischen Beruf und Loyalität gegenüber der untersuchten Biermarke besteht. Aus der Tabelle geht hervor, dass der Hauptzusammenhang darin besteht, dass Arbeitnehmer im Vergleich zu Büroangestellten seltener Bier dieser Marke kaufen.

Die Stärke der Verbindung und ihre Richtung werden durch Berechnung des Korrelationskoeffizienten bestimmt, der zwischen -1 und +1 variiert. Der Absolutwert des Korrelationskoeffizienten charakterisiert die Nähe des Zusammenhangs und das Vorzeichen gibt seine Richtung an.

Zunächst wird die statistische Signifikanz des Korrelationskoeffizienten bestimmt. Unabhängig von seinem absoluten Wert ist ein Korrelationskoeffizient ohne statistische Signifikanz bedeutungslos. Die statistische Signifikanz wird mithilfe der Nullhypothese getestet, die besagt, dass die Population einen Korrelationskoeffizienten von Null hat. Wenn die Nullhypothese abgelehnt wird, bedeutet dies, dass der Korrelationskoeffizient für die Stichprobe signifikant ist und sein Wert für die Grundgesamtheit nicht Null ist. Es gibt Tabellen, mit deren Hilfe Sie für eine Stichprobe einer bestimmten Größe den kleinsten Signifikanzwert für den Korrelationskoeffizienten ermitteln können.


Tabelle 4.17

Stärke der Verbindung abhängig vom Wert des Korrelationskoeffizienten

Schauen wir uns ein Beispiel an. Es wird der mögliche Zusammenhang zwischen dem Gesamtumsatz des Unternehmens in zwanzig verschiedenen Gebieten und der Anzahl der Vermarkter untersucht, die diese Verkäufe durchführen. Es wurden durchschnittliche Verkaufswerte und Standardabweichungen berechnet. Der durchschnittliche Umsatz betrug 200 Millionen US-Dollar und die Standardabweichung betrug 50 Millionen US-Dollar. Die durchschnittliche Anzahl der Verkäufer betrug 12 mit einer Standardabweichung von 4. Um die resultierenden Zahlen für einheitliche Vergleiche zu standardisieren, werden die Verkaufsmengen in jeder Region in Standardabweichungen vom Durchschnitt für alle Regionen umgerechnet (durch Subtrahieren der Verkaufsmengen für jede Region vom Durchschnitt). für Regionen des Verkaufsvolumens und Division der resultierenden Werte durch die Standardabweichung). Die gleichen Berechnungen werden für Vermarkter durchgeführt, die verschiedene Regionen bedienen (Abb. 4.7). Aus Abb. Abbildung 4.7 zeigt, dass sich die beiden Linien auf ähnliche Weise ändern. Dies deutet auf einen positiven, sehr engen Zusammenhang zwischen den beiden untersuchten Variablen hin.

Reis. 4.7. Zusammenhang zwischen der Anzahl der Vermarkter und dem Verkaufsvolumen

Die Quelldaten im betrachteten Beispiel können auch anders dargestellt werden (Abb. 4.8). Aus Abb. 4.8 impliziert eine relativ schwache Streuung der Punkte (wenn sie alle auf einer Linie liegen würden, wäre der Korrelationskoeffizient gleich +1) und eine ziemlich große Steigung der imaginären Kurve, die durch diese Punkte gezogen wird, was auf einen starken Einfluss der Anzahl hinweist Vermarkter über das Verkaufsvolumen.

Die Hauptbestandteile eines jeden Experiments sind:

1) Fach (Fach oder Gruppe, die untersucht wird);

2) Experimentator (Forscher);

3) Stimulation (die vom Experimentator gewählte Methode zur Beeinflussung des Subjekts);

4) die Reaktion des Subjekts auf die Stimulation (seine mentale Reaktion);

5) Versuchsbedingungen (neben der Stimulation auch Einflüsse, die die Reaktionen des Probanden beeinflussen können).

Die Antwort des Subjekts ist eine äußere Reaktion, anhand derer man die in seinem inneren, subjektiven Raum ablaufenden Prozesse beurteilen kann. Diese Prozesse selbst sind das Ergebnis des Einflusses von Stimulation und experimentellen Bedingungen darauf.

Wenn Reaktion (Reaktion) des Subjekts gekennzeichnet durch das Symbol R, und Einfluss auf ihn experimentelle Situation (als eine Reihe von Stimulationseffekten und experimentellen Bedingungen) - Symbol S, dann kann ihre Beziehung durch die Formel R = f (S) ausgedrückt werden. Also Die Reaktion ist eine Funktion der Situation . Diese Formel berücksichtigt jedoch nicht die aktive Rolle der Psyche, der menschlichen Persönlichkeit (P). In Wirklichkeit wird die Reaktion eines Menschen auf eine Situation immer durch die Psyche und die Persönlichkeit vermittelt. Somit kann die Beziehung zwischen den Hauptelementen des Experiments durch die folgende Formel festgelegt werden: R = f (P, S). P. Fresse und J. Piaget unterscheiden je nach Zielsetzung der Studie drei klassische Arten von Beziehungen zwischen diesen drei Komponenten des Experiments: 1) funktionale Beziehungen; 2) strukturelle Beziehungen; 3) Differentialbeziehungen.

Funktionale Beziehungen zeichnen sich durch die Variabilität der Reaktionen (R) des Subjekts (P) mit systematischen qualitativen oder quantitativen Veränderungen der Situation (S) aus. Grafisch lassen sich diese Zusammenhänge durch das folgende Diagramm darstellen (Abb. 2).

Beispiele für in Experimenten identifizierte funktionelle Zusammenhänge: Veränderungen der Empfindungen (R) in Abhängigkeit von der Intensität der Einwirkung auf die Sinnesorgane (S); Speichervolumen (R) versus Anzahl der Wiederholungen (S); Intensität der emotionalen Reaktion (R) auf die Wirkung verschiedener emotiogener Faktoren (S); Entwicklung von Anpassungsprozessen (R) im Laufe der Zeit (S) usw.

Strukturelle Zusammenhänge werden durch ein System von Reaktionen (R 1, R 2, R n) auf verschiedene Situationen (S 1 S 2, S n) offenbart. Die Beziehungen zwischen einzelnen Antworten werden in einem System strukturiert, das die Struktur der Persönlichkeit (P) widerspiegelt. Schematisch sieht es so aus (Abb. 3).

Beispiele für strukturelle Beziehungen: ein System emotionaler Reaktionen (R 1 R 2, R n) auf die Wirkung von Stressoren (S 1, S 2, S n); Effizienz der Lösung (R 1, R 2, R n) verschiedener intellektueller Aufgaben (S 1, S 2, S n) usw.

Differentialbeziehungen werden durch die Analyse der Reaktionen (R 1, R 2, R n) verschiedener Probanden (P 1, P 2, P n) auf dieselbe Situation (S) identifiziert. Das Diagramm dieser Beziehungen ist wie folgt (Abb. 4).



Beispiele für unterschiedliche Beziehungen: Unterschiede in der Reaktionsgeschwindigkeit zwischen verschiedenen Menschen, nationale Unterschiede in der Ausdrucksäußerung von Emotionen usw.

Daher sind Komponenten der experimentellen Forschung wie der Einfluss der experimentellen Situation, die Handlungen und die Persönlichkeit des Experimentators, die beobachtbare Reaktion des Probanden und seine mentale Reaktion Faktoren, die in das Experiment einbezogen werden. Um den Zusammenhang zwischen allen Faktoren zu verdeutlichen, wurde der Begriff „Variable“ eingeführt.

VARIABLEN – ein Parameter der Realität, der in einer experimentellen Studie gemessen wird. Es gibt:

Es gibt drei Arten von Variablen: unabhängig, abhängig und komplementär.

I. Unabhängige Variablen. Der vom Experimentator selbst veränderte Faktor wird als unabhängige Variable (IV) bezeichnet: die Bedingungen, unter denen die Aktivität des Probanden ausgeführt wird; Eigenschaften von Aufgaben, die von der Testperson verlangt werden; Merkmale des Subjekts selbst (Alter, Geschlecht, andere Unterschiede zwischen den Subjekten, emotionale Zustände und andere Eigenschaften des Subjekts oder der mit ihm interagierenden Personen); prägendes Programm und andere Einflüsse. Daher ist es üblich, hervorzuheben die folgenden Arten von NP: situativ, lehrreich und persönlich.

Arten unabhängiger Variablen.

1) Situations-NPs: verschieden physikalische Parameter (Beleuchtung, Temperatur, Geräuschpegel sowie Raumgröße, Einrichtung, Geräteplatzierung usw.), sozialpsychologische Parameter (Durchführen einer experimentellen Aufgabe isoliert, in Anwesenheit eines Experimentators, eines externen Beobachters oder einer Gruppe von Personen). V.N. Druzhinin weist auf die Besonderheiten der Kommunikation und Interaktion zwischen Subjekt und Experimentator als besondere Art situativer NP hin. Diesem Aspekt wird große Aufmerksamkeit geschenkt. In der experimentellen Psychologie gibt es eine eigene Richtung namens „Psychologie des psychologischen Experiments“.



2) Lehr-NPs stehen in direktem Zusammenhang mit der experimentellen Aufgabe, ihren qualitativen und quantitativen Merkmalen sowie den Methoden ihrer Umsetzung. Der Experimentator kann den instruktiven NP mehr oder weniger frei manipulieren. Er kann den Stoff der Aufgabe (z. B. numerisch, verbal oder bildlich), die Art der Antwort des Probanden (z. B. verbal oder nonverbal), die Bewertungsskala usw. variieren. Im Weg liegen große Möglichkeiten Unterweisung der Probanden, Information über den Zweck der experimentellen Aufgabe. Der Experimentator kann die Mittel ändern, die dem Probanden zur Erledigung der Aufgabe angeboten werden, ihm Hindernisse auferlegen, während der Aufgabe ein System von Belohnungen und Bestrafungen anwenden usw.

3) Persönlicher NP repräsentieren die kontrollierten Eigenschaften des Subjekts. Typischerweise handelt es sich bei solchen Merkmalen um Zustände des Versuchsteilnehmers, die der Forscher verändern kann, beispielsweise verschiedene emotionale Zustände oder Zustände der Leistungsermüdung.

II. Abhängigen Variablen. Ein Faktor, dessen Änderung eine Folge einer Änderung einer unabhängigen Variablen ist, wird als abhängige Variable (DP) bezeichnet. Die abhängige Variable ist die Komponente innerhalb der Reaktion des Probanden, die für den Forscher von unmittelbarem Interesse ist. Als PP können physiologische, emotionale, Verhaltensreaktionen und andere psychologische Merkmale dienen, die in psychologischen Experimenten erfasst werden können.

Arten abhängiger Variablen.

1. Abhängig von die Methode, mit der Änderungen registriert werden können, POs unterscheiden: direkt beobachtet; Erfordernis physischer Ausrüstung für die Messung; erfordert eine psychologische Dimension.

A) Zum Gehalt, direkt beobachtbar Dazu gehören verbale und nonverbale Verhaltensäußerungen, die von einem externen Beobachter klar und eindeutig beurteilt werden können (Aktivitätsverweigerung, Weinen, eine bestimmte Aussage des Probanden etc.).

B) Für Bestellungen, die Folgendes benötigen physische Ausrüstung für die Registrierung Dazu zählen physiologische (Puls, Blutdruck etc.) und psychophysiologische Reaktionen (Reaktionszeit, Latenzzeit, Dauer, Wirkungsgeschwindigkeit etc.).

V) Für Bestellungen, die Folgendes benötigen psychologische Dimension Dazu gehören Merkmale wie das Anspruchsniveau, der Entwicklungs- oder Ausbildungsgrad bestimmter Qualitäten, Verhaltensformen usw. Zur psychologischen Messung von Indikatoren können standardisierte Verfahren verwendet werden – Tests, Fragebögen usw. Einige Verhaltensparameter können gemessen werden das heißt, sie werden nur von speziell geschulten Beobachtern oder Experten eindeutig erkannt und interpretiert.

2. Abhängig von Anzahl der Parameter, In der abhängigen Variablen enthalten sind eindimensionale, mehrdimensionale und fundamentale PPs.

a) Eindimensional ZP wird durch einen einzelnen Parameter dargestellt, dessen Veränderungen im Experiment untersucht werden (z. B. sensomotorische Reaktion).

b) Mehrdimensional Der AP wird durch eine Reihe von Parametern dargestellt (z. B. kann die Aufmerksamkeit anhand der Menge des angesehenen Materials, der Anzahl der Ablenkungen, der Anzahl richtiger und falscher Antworten usw. beurteilt werden). Jeder Parameter kann unabhängig festgelegt werden.

c) Grundlegend ZP ist eine komplexe Variable, deren Parameter in bestimmten bekannten Beziehungen zueinander stehen. In diesem Fall fungieren einige Parameter als Argumente und die abhängige Variable selbst fungiert als Funktion. Beispielsweise kann die grundlegende Dimension des Aggressionsniveaus als Funktion seiner individuellen Erscheinungsformen (Gesicht, verbale, körperliche usw.) betrachtet werden.

Die abhängige Variable muss eine grundlegende Eigenschaft wie Sensitivität aufweisen. Sensitivität des Gehalts ist seine Empfindlichkeit gegenüber Änderungen im Niveau der unabhängigen Variablen. Wenn sich bei einer Änderung der unabhängigen Variablen die abhängige Variable nicht ändert, ist diese nicht positiv und es macht in diesem Fall keinen Sinn, ein Experiment durchzuführen. Es sind zwei Varianten der Manifestation der Nichtpositivität des PP bekannt: der „Deckeneffekt“ und der „Bodeneffekt“. Der „Deckeneffekt“ wird beispielsweise dann beobachtet, wenn die gestellte Aufgabe so einfach ist, dass alle Probanden, unabhängig vom Alter, sie ausführen. Der „Bodeneffekt“ hingegen entsteht, wenn eine Aufgabe so schwierig ist, dass keiner der Probanden sie bewältigen kann.

Existieren zwei Hauptmethoden zur Erfassung von Gehaltsänderungen in einem psychologischen Experiment: unmittelbar und verzögert. Direkte Die Methode wird beispielsweise bei Kurzzeitgedächtnisexperimenten eingesetzt. Unmittelbar nach der Wiederholung einer Reihe von Reizen zeichnet der Experimentator die Anzahl auf, die der Proband reproduziert. Aufgeschoben Die Methode kommt dann zum Einsatz, wenn zwischen Einwirkung und Wirkung eine gewisse Zeitspanne vergeht (zum Beispiel bei der Bestimmung des Einflusses der Anzahl der gelernten Fremdwörter auf den Erfolg der Übersetzung eines Textes).

III. Zusätzliche Variablen (AP) sind begleitende Reize des Subjekts, die seine Reaktion beeinflussen. Die DP-Menge besteht in der Regel aus zwei Gruppen: äußeren Erfahrungsbedingungen und inneren Faktoren. Dementsprechend werden sie üblicherweise als externe und interne DPs bezeichnet.

A) Zum externen DP umfassen die physikalische Umgebung des Experiments (Beleuchtung, Temperatur, Schallhintergrund, räumliche Eigenschaften des Raums), Parameter der Apparate und Geräte (Design der Messgeräte, Betriebsgeräusche usw.), zeitliche Parameter des Experiments (Startzeit, Dauer usw.), Persönlichkeitsexperimentator.

B) Zur internen DP Dazu gehören die Stimmung und Motivation der Probanden, ihre Einstellung gegenüber dem Experimentator und den Experimenten, ihre psychologischen Einstellungen, Neigungen, Kenntnisse, Fähigkeiten, Fertigkeiten und Erfahrungen in dieser Art von Aktivität, der Grad der Ermüdung, das Wohlbefinden usw.

A) Idealerweise ist der Forscher bestrebt, alle zusätzlichen Variablen auf nichts oder zumindest auf ein Minimum zu reduzieren, um den „reinen“ Zusammenhang zwischen den unabhängigen und abhängigen Variablen hervorzuheben. Existiert mehrere grundlegende Möglichkeiten, den Einfluss externer DPs zu kontrollieren: 1) Beseitigung äußerer Einflüsse; 2) Konstanz der Bedingungen; 3) Ausbalancieren; 4) Gegengewicht.

Beseitigung äußerer Einflüsse stellt die radikalste Kontrollmethode dar. Es besteht im vollständigen Ausschluss jeglicher externer DP aus der externen Umgebung. Im Labor werden Bedingungen geschaffen, die das Subjekt von Geräuschen, Licht, Vibrationen usw. isolieren. Das auffälligste Beispiel ist ein Experiment zur sensorischen Deprivation, das an Freiwilligen in einer speziellen Kammer durchgeführt wurde, die das Eindringen von Reizstoffen aus der äußeren Umgebung vollständig ausschließt. Es ist zu beachten, dass es nahezu unmöglich und nicht immer notwendig ist, die Auswirkungen von DP zu beseitigen, da die unter den Bedingungen der Beseitigung äußerer Einflüsse erzielten Ergebnisse kaum auf die Realität übertragbar sind.

Die nächste Kontrollmethode ist konstante Bedingungen schaffen. Der Kern dieser Methode besteht darin, die Auswirkungen von DP während des gesamten Experiments für alle Probanden konstant und identisch zu machen. Insbesondere ist der Forscher bestrebt, die räumlich-zeitlichen Bedingungen des Experiments, die Technik seiner Durchführung, die Ausrüstung, die Präsentation von Anweisungen usw. konstant zu halten. Bei sorgfältiger Anwendung dieser Kontrollmethode können große Fehler, aber das Problem vermieden werden Es bleibt problematisch, die Ergebnisse des Experiments auf Bedingungen zu übertragen, die sich stark von den experimentellen unterscheiden.

In Fällen, in denen es nicht möglich ist, während des gesamten Experiments konstante Bedingungen zu schaffen und aufrechtzuerhalten, greifen Sie auf Folgendes zurück Ausgleichsmethode. Diese Methode wird beispielsweise dann verwendet, wenn der externe DP nicht identifiziert werden kann. In diesem Fall besteht der Ausgleich aus der Verwendung einer Kontrollgruppe. Die Untersuchung der Kontroll- und Versuchsgruppe wird unter den gleichen Bedingungen durchgeführt, mit dem einzigen Unterschied, dass in der Kontrollgruppe kein Einfluss der unabhängigen Variablen auftritt. Somit ist die Änderung der abhängigen Variablen in der Kontrollgruppe nur auf externe DP zurückzuführen, während sie in der Versuchsgruppe auf die kombinierte Wirkung externer zusätzlicher und unabhängiger Variablen zurückzuführen ist.

Wenn der externe DP bekannt ist, besteht der Ausgleich aus der Wirkung jedes seiner Werte in Kombination mit jeder Ebene der unabhängigen Variablen. Insbesondere führt ein externer DP wie das Geschlecht des Experimentators in Kombination mit einer unabhängigen Variablen (dem Geschlecht des Probanden) zur Erstellung von vier Versuchsreihen: 1) männlicher Experimentator – männliche Probanden; 2) männlicher Experimentator – weibliche Probanden; 3) weiblicher Experimentator – männliche Probanden; 4) weibliche Experimentatorin – weibliche Probanden.

Bei komplexeren Experimenten kann es erforderlich sein, mehrere Variablen gleichzeitig auszugleichen.

Gegengewicht Als Möglichkeit zur Steuerung des externen DP wird es am häufigsten praktiziert, wenn das Experiment mehrere Serien umfasst. Das Subjekt wird nacheinander unterschiedlichen Bedingungen ausgesetzt, vorherige Bedingungen können jedoch die Wirkung nachfolgender Bedingungen verändern. Um den in diesem Fall auftretenden „Sequenzeffekt“ zu eliminieren, werden Versuchsbedingungen verschiedenen Probandengruppen in unterschiedlicher Reihenfolge präsentiert. Beispielsweise wird in der ersten Versuchsreihe die erste Gruppe mit der Lösung intellektueller Probleme von einfacher zu komplexer konfrontiert, und die zweite Gruppe – von komplexer zu einfacher. In der zweiten Serie hingegen wird die erste Gruppe mit der Lösung intellektueller Probleme von komplexeren zu einfacheren und die zweite Gruppe von einfacheren zu komplexeren Aufgaben konfrontiert. Das Gegengewicht kommt dann zum Einsatz, wenn mehrere Versuchsreihen möglich sind, es ist jedoch zu berücksichtigen, dass eine große Anzahl von Versuchen zu einer Ermüdung der Probanden führt.

b) Interne DP, Wie oben erwähnt, sind dies Faktoren, die in der Persönlichkeit des Subjekts verborgen sind. Sie haben einen sehr erheblichen Einfluss auf die Ergebnisse des Experiments; ihre Auswirkungen sind nur schwer zu kontrollieren und zu berücksichtigen. Unter den internen DPs können wir hervorheben dauerhaft und nicht dauerhaft.

Permanent intern DPs ändern sich während des Experiments nicht wesentlich. Wenn das Experiment mit einem Probanden durchgeführt wird, ist der konstante interne DP dessen Geschlecht, Alter und Nationalität. Zu dieser Gruppe von Faktoren gehören auch das Temperament, der Charakter, die Fähigkeiten, Neigungen, Interessen, Ansichten, Überzeugungen und andere Komponenten der allgemeinen Orientierung des Individuums. Bei einem Experiment mit einer Gruppe von Probanden nehmen diese Faktoren den Charakter instabiler interner DPs an und greifen dann zur Nivellierung ihres Einflusses auf spezielle Methoden der Experimentalgruppenbildung zurück.

Zu inkonsistenter interner DP Dazu gehören die psychologischen und physiologischen Eigenschaften des Probanden, die sich je nach Ziel, Zielsetzung, Art und Organisationsform des Experiments im Laufe des Experiments entweder erheblich verändern oder aktualisiert (oder verschwinden) können. Die erste Gruppe solcher Faktoren besteht aus physiologischen und mentalen Zuständen, Müdigkeit, Sucht und dem Erwerb von Erfahrung und Fähigkeiten bei der Durchführung einer experimentellen Aufgabe. Die andere Gruppe umfasst die Einstellung zu diesem Erlebnis und dieser Forschung, den Grad der Motivation für diese experimentelle Tätigkeit, die Einstellung des Probanden gegenüber dem Experimentator und seiner Rolle als Testsubjekt usw.

Um die Wirkung dieser Variablen auf die Antworten in verschiedenen Tests auszugleichen, gibt es eine Reihe von Methoden, die in der experimentellen Praxis erfolgreich eingesetzt wurden.

Um den sogenannten Serieneffekt, der auf Gewöhnung beruht, zu eliminieren, wird eine spezielle Reihenfolge der Reizpräsentation verwendet. Dieses Verfahren wird als „balancierte alternierende Reihenfolge“ bezeichnet, wenn Reize unterschiedlicher Kategorien symmetrisch zur Mitte der Reizreihe präsentiert werden. Das Schema eines solchen Verfahrens sieht folgendermaßen aus: A B B A, wobei A und B Reize unterschiedlicher Kategorien sind.

Um zu verhindern, dass Angst oder Unerfahrenheit die Reaktion des Probanden beeinflussen, werden Einführungs- oder Vorversuche durchgeführt. Ihre Ergebnisse werden bei der Datenverarbeitung nicht berücksichtigt.

Um zu verhindern, dass die Antworten aufgrund der Anhäufung von Erfahrungen und Fähigkeiten während des Experiments schwanken, wird dem Probanden ein sogenanntes „erschöpfendes Üben“ angeboten. Als Ergebnis einer solchen Übung entwickelt der Proband vor Beginn des Experiments selbst stabile Fähigkeiten, und in weiteren Experimenten hängt die Leistung des Probanden nicht direkt vom Faktor der Anhäufung von Erfahrung und Fähigkeiten ab.

In Fällen, in denen es erforderlich ist, den Einfluss von Ermüdung auf die Reaktion des Probanden zu minimieren, kommt die „Rotationsmethode“ zum Einsatz. Sein Wesen besteht darin, dass jeder Untergruppe von Probanden eine bestimmte Kombination von Reizen präsentiert wird. Die Gesamtheit solcher Kombinationen schöpft die gesamte Palette möglicher Optionen vollständig aus. Bei drei Arten von Reizen (A, B, C) erhält beispielsweise jeder von ihnen den ersten, zweiten und dritten Platz, wenn er den Probanden präsentiert wird. Somit werden der ersten Untergruppe Reize in der Reihenfolge ABC präsentiert, der zweiten – AVB, der dritten – BAV, der vierten – BVA, der fünften – VAB, der sechsten – VBA.

Die vorgestellten Methoden zum prozeduralen Ausgleich interner nicht konstanter DP sind sowohl für Einzel- als auch für Gruppenexperimente anwendbar.

Die Einstellung und Motivation der Probanden als intern instabile DPs müssen während des gesamten Experiments auf dem gleichen Niveau gehalten werden. Eine Einstellung als Bereitschaft, einen Reiz wahrzunehmen und in einer bestimmten Weise darauf zu reagieren, entsteht durch Anweisungen, die der Experimentator dem Probanden gibt. Damit die Installation genau den Anforderungen der Forschungsaufgabe entspricht, muss die Anleitung für die Probanden zugänglich und den Zielen des Experiments angemessen sein. Die Eindeutigkeit und Verständlichkeit der Anleitung wird durch ihre Klarheit und Einfachheit erreicht. Um Abweichungen in der Darstellung zu vermeiden, wird empfohlen, die Anweisungen wörtlich zu lesen oder schriftlich zu erteilen. Die Aufrechterhaltung der Anfangseinstellung wird vom Experimentator durch ständige Beobachtung des Probanden kontrolliert und gegebenenfalls durch Erinnerung an die entsprechenden Anweisungen in der Anleitung angepasst.

Als Motivation des Probanden wird vor allem das Interesse am Experiment betrachtet. Fehlt das Interesse oder ist es schwach, ist es schwierig, sich auf die Vollständigkeit der im Experiment gestellten Aufgaben durch den Probanden und auf die Verlässlichkeit seiner Antworten zu verlassen. Zu großes Interesse, „Übermotivation“, ist auch mit unzureichenden Antworten des Probanden verbunden. Um ein zunächst akzeptables Motivationsniveau zu erreichen, muss der Experimentator daher bei der Bildung eines Probandenkontingents und der Auswahl von Faktoren, die seine Motivation anregen, möglichst ernsthaft vorgehen. Solche Faktoren können Wettbewerb, verschiedene Arten der Vergütung, Interesse an der eigenen Leistung, berufliches Interesse usw. sein.

Es wird empfohlen, die psychophysiologischen Zustände der Probanden nicht nur auf dem gleichen Niveau zu halten, sondern dieses Niveau auch zu optimieren, d. h. die Probanden sollten sich in einem „normalen“ Zustand befinden. Sie sollten sicherstellen, dass der Proband vor dem Experiment keine für ihn äußerst bedeutsamen Erlebnisse hatte, dass er genügend Zeit hatte, an dem Experiment teilzunehmen, dass er keinen Hunger hatte usw. Während des Experiments sollte der Proband nicht übermäßig sein aufgeregt oder unterdrückt. Können diese Bedingungen nicht erfüllt werden, ist es besser, das Experiment zu verschieben.

Aus den betrachteten Eigenschaften der Variablen und Methoden ihrer Steuerung wird die Notwendigkeit einer sorgfältigen Vorbereitung des Experiments bei der Planung deutlich. Unter realen Versuchsbedingungen ist es unmöglich, eine 100-prozentige Kontrolle aller Variablen zu erreichen, jedoch unterscheiden sich verschiedene psychologische Experimente im Grad der Kontrolle der Variablen erheblich voneinander.

Korrelationsabhängigkeit – geht von der gegenseitigen Konsistenz von Änderungen variabler Größen aus. Diese Veränderungen können einmalig oder wiederholt gemessen werden

Clusteranalyse.

Funktionelle Auswirkungen – Änderungen der unabhängigen Variablen gehen mit zunehmend beschleunigten Änderungen der abhängigen Variablen einher.

Funktionale Abhängigkeit – eine Änderung einer Variablen wirkt sich auf eine Änderung einer anderen Variablen aus, die wiederum Auswirkungen auf die erste Variable hat. Korrelationsanalyse.

26. Korrelationsanalyse. Das Problem der falschen Korrelation. Korrelationskoeffizienten.

Es wird verwendet, um die Wechselwirkungen und Trends bei Veränderungen der Merkmale des untersuchten Phänomens zu klären. Korrelation ist das Vorhandensein einer statistischen Beziehung zwischen Merkmalen. Die Korrelationsanalyse verdeutlicht den funktionalen Zusammenhang zwischen variablen Größen, der dadurch gekennzeichnet ist, dass jeder Wert der einen von ihnen einem ganz bestimmten Wert der anderen entspricht.

Gepaarte (charakterisiert Art, Form, Verbindungsdichte zwischen 2 Merkmalen) und Mehrfachkorrelation (zwischen mehreren).

Abhängigkeit tritt am häufigsten auf, wenn ein Phänomen von einer großen Anzahl unterschiedlich stark wirkender Faktoren beeinflusst wird. Daher gibt es spezielle Korrelationsmaße – Korrelationskoeffizienten. Sie zeigen den Grad der Abhängigkeit eines sozialen Phänomens von einem anderen (Verbindungsdichte). Je höher der Koeffizient zwischen zwei Variablen ist, desto genauer können Sie die Werte einer von ihnen aus den Werten der anderen vorhersagen. Der Koeffizient enthält keine Informationen darüber, ob es sich bei dieser Beziehung um Ursache-Wirkungs-Beziehung oder um eine begleitende (durch eine Ursache erzeugte) Beziehung handelt. Der Wert des Koeffizienten ermöglicht es Ihnen, die Verbindungsdichte als niedriger oder schlechter zu bestimmen. Anhand des Vorzeichens kann man bei Ordinalreihen erkennen, ob die Beziehung invers oder direkt ist; bei Nominalreihen hat das Vorzeichen keine Bedeutung. Um eine Korrelation zwischen zwei Merkmalen herzustellen, muss nachgewiesen werden, dass alle anderen Variablen keinen Einfluss auf die Beziehung der beiden Variablen haben. Andernfalls entsteht eine Situation falscher Korrelation. Um Fehler bei falscher Korrelation zu vermeiden, verwenden Sie eine Analyse der Beziehung zwischen zwei Variablen mithilfe eines Kontrollfaktors. Korrelat Durch die Analyse können Sie nicht vorhandene Verbindungen verwerfen.

Der Korrelationsanalyse geht die Phase der Berechnung der X2-Statistik voraus. Damit können Sie die Nullhypothese über das Vorhandensein einer Beziehung zwischen zwei Merkmalsreihen testen. Eine Nullhypothese ist eine Aussage, die die Beziehung zwischen einer Reihe von Variablen leugnet. Der Beweis seiner Falschheit legt nahe, dass ein Zusammenhang besteht.

Tabelle mit Umfragedaten.

Tabelle der Verteilung der Wahrscheinlichkeitsmerkmale. Der Wert in den Zellen entspricht dem Verhältnis des Produkts der entsprechenden Gesamtspalte und -zeile zur Gesamtzahl der Befragten.

Der resultierende Wert muss mit dem tabellierten kritischen Wert X 2 verglichen werden. Dazu müssen Sie den Freiheitsgrad (df) bestimmen.

Df = (R – 1)(C – 1)

5. Bestimmen Sie den Grad der statistischen Signifikanz. Es zeigt an, wie wahrscheinlich der Zusammenhang zwischen zwei Merkmalen ist. = 0,05.

6. Vergleichen Sie den berechneten Chi-Quadrat-Wert mit dem Tabellenwert.

7. Die Nullhypothese wird abgelehnt, wenn der berechnete Chi-Quadrat-Wert größer als der tabellierte Wert ist.

Wenn die Beziehung zwischen alternativen Merkmalen untersucht wird, ist die Tabelle 4-zellig. Weihnachtskoeffizient (Q) und Kontingentkoeffizient (F).

Weihnachtskoeffizient

Q = acbd/ ac + bd. Bei Q = 0 besteht kein Zusammenhang zwischen den Merkmalen. Bei Q = 0,59 liegt eine instabile Verbindung vor. Wenn Q größer oder gleich 1 ist, ist die Korrelation vollständig. Kommunikation in eine Richtung.

Um die bidirektionale Kommunikation zu messen, wird der Kontingentkoeffizient verwendet. F ist immer kleiner als Q.

F =acbd / √ (A+ D)(B+ C)(A+ B)(C+ D)

Der Pearson-Korrelationskoeffizient ist Standard.

P = √ X 2 / X 2 + N. N – Anzahl der Befragten.

Wenn P größer oder gleich 0,37 ist, dann besteht ein Zusammenhang.

Chuprov-Koeffizient.

T = √X 2 / N √ (C -1)(C – 1). T ist größer oder gleich 0,5.

Rangkorrelationskoeffizienten. Rangskalen. Speermann

P = 1 – 6 ∑D 2 / N (N 2 – 1)

D – Unterschied zwischen den Rängen. N ist die Anzahl der Ränge.

Ziel: Ähnlichkeiten in der Verteilung der Antworten von zwei Befragtengruppen auf dieselbe Frage identifizieren. Bei p = - 1 ist die Reihenfolge der Verteilung der Antwort auf die beiden Gruppen genau umgekehrt, bei p = +1 stimmt sie überein. Vergleicht die Identität der Antwortverteilungen zweier Gruppen. Es gibt auch den Kendall-Rangkorrelationskoeffizienten und den multiplen Korrelationskoeffizienten.

Theoretische Validierung in der soziologischen Forschung: Methodik und Methoden

Paarweise Linkanalyse

Die Beschreibung der Zusammenhänge zwischen Phänomenen und Prozessen ist ein eigenes Thema. Daher schlage ich vor, ausführlicher darüber zu sprechen.

0 Klicken Sie, wenn es nützlich war =ъ

Laut einer Studie wissenschaftlicher Veröffentlichungen in den renommiertesten ausländischen Fachzeitschriften für Sozial- und Verhaltenswissenschaften (Ch. Teddley, M. Elias, 2010) wurden 77 % aller soziologischen Studien im Rahmen eines quantitativen Ansatzes durchgeführt. 71 % davon sind Korrelationsstudien oder Studien, die Zusammenhänge zwischen sozialen Phänomenen untersuchen.
Die einfachste Art der Korrelationsforschung ist die Untersuchung paarweiser Beziehungen oder gemeinsamer Variabilität zweier Variablen. Diese Art der Forschung eignet sich zur Lösung zweier wissenschaftlicher Probleme:

a) Beweise für das Bestehen einer Ursache-Wirkungs-Beziehung zwischen Variablen (das Vorhandensein eines Zusammenhangs ist eine wichtige, aber nicht die einzige Bedingung für die Ursache-Wirkungs-Abhängigkeit); b) Vorhersagen: Wenn eine Beziehung zwischen Variablen besteht, können wir die Werte einer Variablen mit einem bestimmten Maß an Genauigkeit vorhersagen, wenn wir den Wert einer anderen kennen.
Ein Zusammenhang zwischen zwei Variablen besteht dann, wenn eine Änderung der Kategorie einer Variablen zu einer Änderung der Verteilung der zweiten führt:

Arbeitsproduktivität

Arbeitszufriedenheit

Die Tabelle erhält eine für die Analyse bequemere Form, wenn wir die Prozentwerte für jede der Spalten berechnen:

Arbeitsproduktivität

Arbeitszufriedenheit

Es ist leicht zu erkennen, dass je nach Kategorie der Variable „Arbeitszufriedenheit“ die Variable „Arbeitsproduktivität“ ihre Verteilung ändert. Daher können wir den Schluss ziehen, dass zwischen den Variablen ein Zusammenhang besteht.
An diesem Beispiel wird auch deutlich, dass jedem Wert einer Variablen mehrere Werte einer anderen entsprechen. Solche Beziehungen werden statistisch oder probabilistisch genannt. In diesem Fall ist die Beziehung zwischen den Variablen nicht absolut. In unserem Fall bedeutet das, dass es neben der Arbeitszufriedenheit noch weitere Faktoren gibt, die die Arbeitsproduktivität beeinflussen.
Wenn einem Wert der ersten Variablen nur ein Wert der zweiten entspricht, spricht man von funktionalen Zusammenhängen. Gleichzeitig ist es aus zwei Gründen nicht möglich, auch wenn es Anlass gibt, von einem funktionalen Zusammenhang zu sprechen, diesen zu 100 % in der empirischen Realität nachzuweisen: a) aufgrund des Fehlers von Messgeräten; b) aufgrund der Unmöglichkeit, alle Umgebungsbedingungen, die diese Verbindung beeinflussen, zu kontrollieren. Und da sich Wissenschaftler in den Sozialwissenschaften speziell mit probabilistischen Zusammenhängen befassen, werden wir im Folgenden auf sie eingehen.
Paarverbindungen haben drei Eigenschaften: Stärke, Richtung und Form.
Gewalt zeigt, wie konsistent die Variabilität zweier Variablen ist. Die Stärke der Beziehung kann zwischen 0 und +1 (wenn mindestens eine der Variablen auf einer Nominalskala liegt) oder zwischen -1 und +1 (wenn beide Variablen auf mindestens einer Ordinalskala liegen) liegen. Gleichzeitig weisen 0 und Werte nahe daran auf das Fehlen einer Verbindung zwischen den Variablen hin, und Werte nahe +1 (direkte Verbindung) oder -1 (Feedback) weisen auf eine starke Verbindung hin. Eine Möglichkeit, die Verbindung im Hinblick auf ihre Stärke zu interpretieren, ist wie folgt:

Alle Werte in der Tabelle sind im Modul angegeben, d.h. müssen unabhängig vom Vorzeichen analysiert werden. So sind beispielsweise die Verbindungen -0,67 und +0,67 gleich stark, aber unterschiedlich in der Richtung.
Die Stärke der Beziehung wird anhand von Korrelationskoeffizienten bestimmt. Zu den Korrelationskoeffizienten gehören beispielsweise Phi und V-Cramer (nominale Variablen, wenige Kategorien/tabellarische Ansicht), Gamma (ordinale Variablen, wenige Kategorien/tabellarische Ansicht), Kendall und Spearman (ordinale Variablen, viele Kategorien), Pearson (metrische Variablen). , viele Kategorien).
Richtung spricht über die Natur gegenseitiger Änderungen in Kategorien von Variablen. Wenn mit steigenden Werten einer Variablen auch die Werte einer anderen Variablen steigen, dann ist die Beziehung direkt (oder positiv). Wenn die Situation umgekehrt ist und eine Erhöhung der Werte einer Variablen zu einer Verringerung der Werte der zweiten führt, ist die Beziehung umgekehrt (oder negativ).
Die Richtung der Beziehung kann nur dann erfolgen, wenn es sich um ordinale und/oder metrische Variablen handelt, also solche Variablen, deren Werte von klein nach groß oder umgekehrt geordnet werden können. Wenn also mindestens eine Variable zur Nominalskala gehört, kann nur über die Stärke der Verbindung und ihre Form gesprochen werden, nicht jedoch über die Richtung.

Die Richtung der Beziehung kann entweder mithilfe von Kontingenztabellen (wenige Kategorien) oder mithilfe eines Streudiagramms (viele Kategorien) oder mithilfe des Vorzeichens des Korrelationskoeffizienten (die Anzahl der Variablenkategorien spielt keine Rolle) bestimmt werden:

Beispiel für eine positive Verbindung

2. Variable

1. Variable

Beispiel einer negativen Beziehung

2. Variable

1. Variable

Um Beziehungen mithilfe von Tabellen richtig interpretieren zu können, ist deren korrekte Gestaltung erforderlich. In unserem Fall ist also Kategorie A bei beiden Variablen der kleinste Wert und Kategorie C der größte.

Dieses Diagramm zeigt den Zusammenhang zwischen dem Aufwand, den Studierende in ihr Studium stecken (10-Punkte-Ordinalskala, X-Achse) und dem Erfolg ihres Bachelorstudiums (durchschnittliche Erfolgsquote über 4 Studienjahre, Y-Achse). Da die untere linke Ecke kleinen Werten beider Variablen und die obere rechte Ecke großen Werten entspricht, weist das Diagramm auf eine positive Beziehung zwischen den Variablen hin. Ich denke, Sie können sich vorstellen, wie das Streudiagramm aussehen würde, wenn es eine negative Beziehung gäbe.


Als Ergebnis der Berechnung ist der Korrelationskoeffizient entweder ein positiver oder ein negativer Wert, der an sich schon seine Richtung angibt.
Obwohl der Wert des Korrelationskoeffizienten ausreicht, um grundlegende Informationen über die Beziehung zwischen Variablen zu erhalten, geht seiner Berechnung in der Regel die Erstellung einer Tabelle oder eines Streudiagramms voraus, die erforderlich sind, um zusätzliche Informationen insbesondere über die zu erhalten Form der Beziehung.

Bilden Die Verbindung gibt die Eigenschaften der gemeinsamen Variabilität zweier Variablen an. Abhängig davon, zu welcher Skala eine Variable gehört, kann die Form der Beziehung entweder mithilfe eines Balkendiagramms/einer Kreuztabelle (wenn mindestens eine Variable nominal ist) oder eines Streudiagramms (für ordinale und metrische Skalen) analysiert werden.
Schauen wir uns ein Beispiel an. In einer meiner Studien, deren Analyseeinheiten zwei Fakultäten verschiedener Universitäten waren, stellte ich fest, dass die Stärke der Beziehung zwischen den Variablen in beiden Fällen 0,83 betrug (die Variablen waren der Studententyp und der Erfolg der letzten Sitzung). ). Somit waren Stärke und Richtung der Beziehung für beide Universitäten gleich. Die Form der Verbindung zeigte wiederum wichtige Unterschiede (zum Vergrößern auf die Grafik klicken):


Die Unterschiede in der Form der Verteilung sind offensichtlich. Anscheinend ist es im ersten Fachbereich viel einfacher zu studieren als im zweiten. Dies zeigt sich insbesondere an der Zahl der Studierenden, die die Session mit sehr guten Noten bestanden haben.
Streudiagramme liefern analytisch wertvollere Informationen – zusätzlich zum Vergleich verschiedener Analyseeinheiten ermöglichen sie Ihnen die Bewertung der Abweichung einer Beziehung von der Linearität. Linearität ist eine wichtige Voraussetzung für den effektiven Einsatz von Korrelationskoeffizienten und vielen anderen statistischen Methoden. Es wird beobachtet, wenn jede neue Erhöhung der Werte einer der Variablen um eins zu einer Erhöhung der Werte der anderen Variablen um den gleichen oder ungefähr gleichen Betrag führt. Für das zuvor angegebene Streudiagramm führt eine Erhöhung des Wertes der 10-Punkte-Skala um eins zu einer Steigerung des Erfolgs des Schülers um einen Betrag nahe 0,2.
Wenn die Beziehung zwischen Variablen nahe genug an einem idealen linearen Modell liegt, spiegeln die Korrelationskoeffizienten die Stärke der Beziehung und ihre Richtung angemessen wider (im Fall des zuvor dargestellten Streudiagramms beträgt die Stärke der Beziehung 0,93). Andernfalls (d. h. bei nichtlinearen Zusammenhängen) ist der Einsatz spezieller Methoden der Datenanalyse erforderlich. Ein Beispiel für ein Diagramm, das eine krummlinige Beziehung zeigt, ist das folgende:


Diese Form des Zusammenhangs kann beispielsweise zwischen der Angst eines Studierenden und dem Erfolg beim Bestehen einer Prüfung bestehen, wenn sowohl eine zu geringe als auch eine zu hohe Angst zu einem Rückgang des Erfolgs führt.
Zusammenfassend möchte ich einen wichtigen Punkt anmerken: Die Analyse der Verbindung hinsichtlich ihrer Stärke, Richtung und Form ist nur der erste Schritt bei der Analyse von Paarverbindungen. Sobald wir festgestellt haben, dass eine Beziehung von wissenschaftlichem oder praktischem Interesse ist, ist es notwendig, sie auf statistische Signifikanz zu testen, da das Vorhandensein einer Beziehung in einer Stichprobe nicht bedeutet, dass sie in der Gesamtbevölkerung vorhanden ist. Probleme dieser Art werden mithilfe statistischer Inferenzmethoden gelöst, deren Besonderheiten diskutiert werden.