KorrelációA matematikában (a statisztikában) a korreláció jelzi két tetszőleges érték közötti lineáris kapcsolat nagyságát és irányát (avagy ezek egymáshoz való viszonyát). Az általános statisztikai használat során a korreláció jelzi azt, hogy két tetszőleges érték nem független egymástól. Az ilyen széles körű használat során számos együttható, érték jellemzi a korrelációt, alkalmazkodva az adatok fajtájához. A korreláció csak a lineáris kapcsolatot jelzi. Például egy valószínűségi változó és négyzete korrelációja lehet nulla. Ha két véletlen mennyiség korrelációja nulla, akkor korrelálatlanok; ilyenkor a kapcsolatot, ha van, másként kell jellemezni, például feltételes valószínűségekkel. A normális eloszlású valószínűségi változókra jellemző, hogy ha korrelálatlanok, akkor függetlenek is. Így a korreláció jól alkalmazható normális eloszlásúnak tekinthető mérhető mennyiségek közötti kapcsolat erősségének mérésére. Másfajta összefüggések kimutatására más eszközök kellenek. Használható például a kölcsönös információ: vagy a feltételes valószínűségek. Az A eseménynek a B eseményre vonatkozó feltételes valószínűsége megadja az A esemény bekövetkezésének a valószínűségét, feltéve hogy a B esemény bekövetkezik. Van olyan, a korrelációhoz hasonló eszköz, amivel bármilyen függvénykapcsolat kimutatható. [pontosabban?] Korrelációs együtthatóA korrelációs együttható (r) előjele a kapcsolat irányát mutatja meg, a nagysága (0-1 közötti szám) pedig az együtt járás szorosságát, az összefüggés erejét mutatja. A korrelációs együttható jelölései
A korrelációs együttható jellemzői[1]
Korreláció számításaA korreláció a következő képlettel számítható: ahol a várható értéket, a szórást jelöli. A statisztikában nem állnak rendelkezésre az elméleti értékek, így a tapasztalati korrelációt a következőképpen számítják: ahol és rendre és tapasztalati átlagát, valamint és a tapasztalati korrigált szórást jelölik. Korrelációt számíthatunk statisztikai programok segítségével is. A statisztikai elemzések/analyze menüpontban találhatjuk meg. A programok közölnek leíró statisztikát, megadják az r korrelációs együttható értékét, és a szignifikanciaszintet (p/sig jelöléssel), esetleg a konfidenciaintervallumot is. Szignifikancia számításaA korrelációs együttható szignifikanciájának vizsgálatához a H0: ρ = 0 hipotézist fogalmazzuk meg. Döntésünk alapja egy n elemű mintában kiszámított korrelációs együttható (r). A H0 elutasíthatósága függ az r együttható nagyságától és az f szabadságfok nagyságától (f = n-2). A szignifikancia kiszámításához t eloszlású statisztikát használunk. Ennek képlete:
Az egyenlet eredményének és a t eloszlású változó eloszlásának statisztikai táblája segítségével határozhatjuk meg, hogy eredményünk szignifikáns-e, és ha igen, akkor milyen mértékben. Ha |t| > ttable, elvetjük H0-t és azt mondjuk, hogy a populáció korrelációs együtthatója különbözik 0-tól. Tehát, ha a kapott eredményünk abszolút értéke nagyobb, mint a táblázatban az adott szabadságfokhoz és szignifikanciaszinthez (ez általában 0,95) tartozó szám, akkor 95%-os bizonyossággal elutasíthatjuk a nullhipotézist. KorrelációmátrixAz valószínűségi vektorváltozó korrelációmátrixa n valószínűségi változó (X1, ..., Xn), korrelációja egy n × n-es mátrix, amiben az i,j-edik elem corr(Xi, Xj). A korrelációmátrix szimmetrikus, mert Xi és Xj korrelációja megegyezik Xj és Xi korrelációjával. A valószínűségi változók normalizáltjainak kovarianciamátrixa megegyezik az adott valószínűségi mátrix kovarianciamátrixával, ezért pozitív definit. Parciális korrelációA parciális korreláció n > 2 valószínűségi változó esetén azt méri, hogy két valószínűségi változó milyen kapcsolatban áll egymással a többi változótól eltekintve. ÉrzékenységA korreláció nem függ az adatok nagyságától, de érzékeny a mintavételezésre. Egy szűkebb mintából számított korreláció rendszerint kisebb, mint a bővebb mintából számolt. Például, ha az apák és fiaik magasságának korrelációját számítjuk, akkor a teljes mintán erősebb összefüggést észlelünk, mintha csak azokon az adatokkal dolgoznánk, amik szerint az apák magassága 165 cm és 170 cm közé esik. A korreláció érzékeny a kivételes adatokra (outlierek). Egy kivételes adat nagyon lecsökkentheti, vagy megnövelheti. Francis Anscombe példájában[2] a négy y változónak ugyanaz a várható értéke (7,5), szórása (4,12), korrelációja (0,816), és a regressziós egyenese (y = 4 + 0,5x), a tapasztalati eloszlások mégis különböző képet adnak. A harmadik képen egy kivételes adat lecsökkenti az 1 korrelációt 0,816-re; a negyediken a független adatok 0 korrelációját ugyanennyire növeli. A korreláció nem veszi észre a második képen látható nemlineáris összefüggést sem. Példák
AlkalmazásokAz idősorok elemzésében és a jelfeldolgozásban gyakran alkalmazzák a korrelációt az összehasonlításokban.
A keresztkorreláció segít a két adatsor közötti összefüggés megtalálásában. Ha az egyik adatsort eltoljuk, akkor késleltetett hatások is felfedezhetők. Az autokorrelációval periódusok mutathatók ki az adatsorban. A jelfeldolgozásban diszkrét adatsor helyett folytonos jelekkel is dolgoznak. Így adódik:
Értelmezési hibaA korrelációt sokszor félreértelmezik:
Ez nem feltétlenül van így. Például, ha egy vidéken a gólyafészkek és a gyerekek száma korrelál, akkor az nem bizonyítja azt, hogy a gyereket a gólya hozza. RangkorrelációA rangkorrelációs együtthatók azt mérik, hogy két sorozat együtt változik-e. Ha az egyik sorozat nő, a másik csökken, akkor a rangkorrelációk negatívak lesznek. Rangkorrelációt minimum ordinális változók között számíthatunk. Egyik fajtája a Spearman-féle rangkorreláció, ami egy Pearson-féle korreláció a rangszámok között. Egy másik lehetőség a Kendall-féle rangkorreláció, ami a pozitív és a negatív kapcsolatok arányának a különbségét számolja ki.[3] Számításuk: Spearman-féle rangkorreláció:[4][5] Kendall-féle korreláció: ahol a megfelelő, és az eltérő párok száma. A korrelációhoz hasonlóan értékeik a intervallumba esnek. Értékük 1, ha a két rangsor ugyanaz; 0, ha a két rangsor egymástól független, és -1, ha egymás megfordításai. A rangkorrelációkat sokszor a korrelációs együttható könnyen számítható és kevésbé eloszlásérzékeny alternatíváiként kezelik. Ennek azonban nincs sok matematikai alapja: a rangkorrelációkkal más összefüggéseket lehet kimutatni, mint a korrelációs együtthatóval.[6][7] Példák rangkorrelációraA rangkorrelációk nem ugyanazt mutatják ki, mint a korreláció: Tekintsük a (0, 1), (100, 10), (101, 500), (102, 2000) számpárok sorozatát! A rangkorrelációk teljes egyezést látnak, mert mindkét sorozat nő, míg a korreláció 0,456, ami azt mutatja, hogy a számpárok távol esnek a regressziós egyenestől. Bár a szélsőséges esetekben megegyeznek, a rangkorrelációk nem mindig adják ugyanazt. A (1, 1) (2, 3) (3, 2) sorozat Spearman-korrelációja 1/2, míg Kendall-korrelációja 1/3.[6] Kulturális korrelációA kultúra egyes elemei között kölcsönös összefüggés, viszony van, ezt nevezik kulturális korrelációnak.[8] Jegyzetek
Források
További információk |