Multimediaexpo.cz je již 18 let na českém internetu !!
V tiskové zprávě k 18. narozeninám brzy najdete nové a zásadní informace.
Korelace
Z Multimediaexpo.cz
m (1 revizi) |
(+ Obrovské množství velmi drahých nejnovějších aut a jachty za 50 miliónů USD...platíme Ukrajincům z českých daní a peněz obyčejných lidí !!! ( https://www.youtube.com/watch?v=P2ZOBFFvXFw )) |
||
(Nejsou zobrazeny 2 mezilehlé verze.) | |||
Řádka 3: | Řádka 3: | ||
V určitějším slova smyslu se pojem korelace užívá ve [[Statistika|statistice]], kde znamená vzájemný lineární vztah mezi znaky či veličinami ''x'' a ''y''. Míru korelace pak vyjadřuje korelační koeficient, který může nabývat hodnot od −1 až po +1. | V určitějším slova smyslu se pojem korelace užívá ve [[Statistika|statistice]], kde znamená vzájemný lineární vztah mezi znaky či veličinami ''x'' a ''y''. Míru korelace pak vyjadřuje korelační koeficient, který může nabývat hodnot od −1 až po +1. | ||
== Korelace ve statistice == | == Korelace ve statistice == | ||
- | [[Soubor:Correlation | + | [[Soubor:Correlation examples2.png|thumb|250px|Na obrázku je několik příkladů grafického zobrazení naměřených dat a koeficienty jejich korelace s funkcí y = x]] |
Vztah mezi znaky či veličinami ''x'' a ''y'' může být kladný, pokud (přibližně) platí ''y'' = ''kx'', nebo záporný (''y'' = -''kx''). Hodnota korelačního koeficientu −1 značí zcela nepřímou závislost (antikorelaci), tedy čím více se zvětší hodnoty v první skupině znaků, tím více se zmenší hodnoty v druhé skupině znaků, např. vztah mezi uplynulým a zbývajícím časem. Hodnota korelačního koeficientu +1 značí zcela přímou závislost, např. vztah mezi rychlostí bicyklu a frekvencí otáček kola bicyklu. Pokud je korelační koeficient roven 0 (nekorelovanost), pak mezi znaky není žádná statisticky zjistitelná lineární závislost. Je dobré si uvědomit, že i při nulovém korelačním koeficientu na sobě veličiny mohou záviset, pouze tento vztah nelze vyjádřit lineární funkcí, a to ani přibližně. | Vztah mezi znaky či veličinami ''x'' a ''y'' může být kladný, pokud (přibližně) platí ''y'' = ''kx'', nebo záporný (''y'' = -''kx''). Hodnota korelačního koeficientu −1 značí zcela nepřímou závislost (antikorelaci), tedy čím více se zvětší hodnoty v první skupině znaků, tím více se zmenší hodnoty v druhé skupině znaků, např. vztah mezi uplynulým a zbývajícím časem. Hodnota korelačního koeficientu +1 značí zcela přímou závislost, např. vztah mezi rychlostí bicyklu a frekvencí otáček kola bicyklu. Pokud je korelační koeficient roven 0 (nekorelovanost), pak mezi znaky není žádná statisticky zjistitelná lineární závislost. Je dobré si uvědomit, že i při nulovém korelačním koeficientu na sobě veličiny mohou záviset, pouze tento vztah nelze vyjádřit lineární funkcí, a to ani přibližně. | ||
=== Výpočet Pearsonova korelačního koeficientu === | === Výpočet Pearsonova korelačního koeficientu === | ||
Vypočteme [[Aritmetický průměr|aritmetické průměry]] souborů X a Y (E(X) a E(Y)), vynásobíme sumy odchylek od těchto průměrů obou souborů. Tím jsme spočetli tzv. [[Kovariance|kovarianci]], což je však absolutní veličina, pro výpočet relativní veličiny pak kovarianci dělíme násobkem odmocnin [[Rozptyl (statistika)|rozptylů]] souborů X a Y. | Vypočteme [[Aritmetický průměr|aritmetické průměry]] souborů X a Y (E(X) a E(Y)), vynásobíme sumy odchylek od těchto průměrů obou souborů. Tím jsme spočetli tzv. [[Kovariance|kovarianci]], což je však absolutní veličina, pro výpočet relativní veličiny pak kovarianci dělíme násobkem odmocnin [[Rozptyl (statistika)|rozptylů]] souborů X a Y. | ||
- | :< | + | :<big>\(\rho_{X,Y}={\mathrm{cov}(X,Y) \over \sigma_X \sigma_Y} ={E((X-\mu_X)(Y-\mu_Y)) \over \sigma_X\sigma_Y},\)</big> |
- | Protože μ<sub>''X''</sub> = E(''X''), < | + | Protože μ<sub>''X''</sub> = E(''X''), <big>\(\sigma^2_X = E(X^2) - E^2(X)\)</big> a obdobně pro ''Y'', můžeme psát: |
- | :< | + | :<big>\(\rho_{X,Y}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-E^2(X)}~\sqrt{E(Y^2)-E^2(Y)}}\)</big> |
- | Koeficient korelace nabývá hodnot z intervalu < | + | Koeficient korelace nabývá hodnot z intervalu <big>\(\langle -1,1\rangle\)</big>. Při nezávislosti veličin X a Y je koeficient korelace roven 0. |
Tento koeficient jako první odvodil anglický psycholog a antropolog sir [[Francis Galton]]. | Tento koeficient jako první odvodil anglický psycholog a antropolog sir [[Francis Galton]]. | ||
== Korelace v teorii signálů == | == Korelace v teorii signálů == | ||
Řádka 16: | Řádka 16: | ||
Zkrácený výraz pro [[korelační funkce|korelační funkci]]. | Zkrácený výraz pro [[korelační funkce|korelační funkci]]. | ||
Pro spojité signály ''f(t)'' a ''g(t)'': | Pro spojité signály ''f(t)'' a ''g(t)'': | ||
- | :< | + | :<big>\((f \star g)(t) \ \stackrel{\mathrm{def}}{=} \int_{-\infty}^{\infty} f^*(\tau) \cdot g(t+\tau)\,d\tau\)</big> |
Pro diskrétní signály ''f<sub>k</sub>'' a ''g<sub>k</sub>'': | Pro diskrétní signály ''f<sub>k</sub>'' a ''g<sub>k</sub>'': | ||
- | :< | + | :<big>\((f \star g)_k \ \stackrel{\mathrm{def}}{=} \sum_{i=-\infty}^{\infty} f^*_i \ g_{k+i}\)</big> |
U komplexních signálů ''f*'' představuje [[komplexně sdružené číslo]] k ''f''. | U komplexních signálů ''f*'' představuje [[komplexně sdružené číslo]] k ''f''. | ||
Velmi se podobá [[Konvoluce|konvoluci]]. Rozdíl je hlavně v časovém překlopení druhé funkce ''g''. | Velmi se podobá [[Konvoluce|konvoluci]]. Rozdíl je hlavně v časovém překlopení druhé funkce ''g''. | ||
- | Jako '''autokorelace''' se rozumí korelace < | + | Jako '''autokorelace''' se rozumí korelace <big>\((f \star f)\)</big>. Lze tak určit tzv. soběpodobnost signálu, tedy zda se např. signál v určitých periodách neopakuje. |
+ | |||
== Související články == | == Související články == | ||
* [[Charakteristika náhodné veličiny]] | * [[Charakteristika náhodné veličiny]] | ||
* [[Spearmanův koeficient pořadové korelace]] | * [[Spearmanův koeficient pořadové korelace]] | ||
+ | |||
{{Článek z Wikipedie}} | {{Článek z Wikipedie}} | ||
[[Kategorie:Statistika]] | [[Kategorie:Statistika]] |
Aktuální verze z 22. 8. 2022, 12:24
Korelace (z lat.) znamená vzájemný vztah mezi dvěma procesy nebo veličinami. Pokud se jedna z nich mění, mění se korelativně i druhá a naopak. Pokud se mezi dvěma procesy ukáže korelace, je pravděpodobné, že na sobě závisejí, nelze z toho však ještě usoudit, že by jeden z nich musel být příčinou a druhý následkem. To samotná korelace nedovoluje rozhodnout. V určitějším slova smyslu se pojem korelace užívá ve statistice, kde znamená vzájemný lineární vztah mezi znaky či veličinami x a y. Míru korelace pak vyjadřuje korelační koeficient, který může nabývat hodnot od −1 až po +1.
Obsah |
Korelace ve statistice
Vztah mezi znaky či veličinami x a y může být kladný, pokud (přibližně) platí y = kx, nebo záporný (y = -kx). Hodnota korelačního koeficientu −1 značí zcela nepřímou závislost (antikorelaci), tedy čím více se zvětší hodnoty v první skupině znaků, tím více se zmenší hodnoty v druhé skupině znaků, např. vztah mezi uplynulým a zbývajícím časem. Hodnota korelačního koeficientu +1 značí zcela přímou závislost, např. vztah mezi rychlostí bicyklu a frekvencí otáček kola bicyklu. Pokud je korelační koeficient roven 0 (nekorelovanost), pak mezi znaky není žádná statisticky zjistitelná lineární závislost. Je dobré si uvědomit, že i při nulovém korelačním koeficientu na sobě veličiny mohou záviset, pouze tento vztah nelze vyjádřit lineární funkcí, a to ani přibližně.
Výpočet Pearsonova korelačního koeficientu
Vypočteme aritmetické průměry souborů X a Y (E(X) a E(Y)), vynásobíme sumy odchylek od těchto průměrů obou souborů. Tím jsme spočetli tzv. kovarianci, což je však absolutní veličina, pro výpočet relativní veličiny pak kovarianci dělíme násobkem odmocnin rozptylů souborů X a Y.
- \(\rho_{X,Y}={\mathrm{cov}(X,Y) \over \sigma_X \sigma_Y} ={E((X-\mu_X)(Y-\mu_Y)) \over \sigma_X\sigma_Y},\)
Protože μX = E(X), \(\sigma^2_X = E(X^2) - E^2(X)\) a obdobně pro Y, můžeme psát:
- \(\rho_{X,Y}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-E^2(X)}~\sqrt{E(Y^2)-E^2(Y)}}\)
Koeficient korelace nabývá hodnot z intervalu \(\langle -1,1\rangle\). Při nezávislosti veličin X a Y je koeficient korelace roven 0. Tento koeficient jako první odvodil anglický psycholog a antropolog sir Francis Galton.
Korelace v teorii signálů
- Hlavní článek: korelace (zpracování signálu)
Zkrácený výraz pro korelační funkci. Pro spojité signály f(t) a g(t):
- \((f \star g)(t) \ \stackrel{\mathrm{def}}{=} \int_{-\infty}^{\infty} f^*(\tau) \cdot g(t+\tau)\,d\tau\)
Pro diskrétní signály fk a gk:
- \((f \star g)_k \ \stackrel{\mathrm{def}}{=} \sum_{i=-\infty}^{\infty} f^*_i \ g_{k+i}\)
U komplexních signálů f* představuje komplexně sdružené číslo k f. Velmi se podobá konvoluci. Rozdíl je hlavně v časovém překlopení druhé funkce g. Jako autokorelace se rozumí korelace \((f \star f)\). Lze tak určit tzv. soběpodobnost signálu, tedy zda se např. signál v určitých periodách neopakuje.
Související články
Náklady na energie a provoz naší encyklopedie prudce vzrostly. Potřebujeme vaši podporu... Kolik ?? To je na Vás. Náš FIO účet — 2500575897 / 2010 |
---|
Informace o článku.
Článek je převzat z Wikipedie, otevřené encyklopedie, do které přispívají dobrovolníci z celého světa. |