Al giorno d'oggi, Correlazione (statistica) è diventato un argomento di grande importanza nella società odierna. Sempre più persone sono interessate a saperne di più su Correlazione (statistica) e sulle sue implicazioni in diversi ambiti della vita. Dalla politica alla tecnologia alla cultura popolare, Correlazione (statistica) ha dimostrato di avere un impatto significativo sulle nostre vite. In questo articolo esploreremo diversi aspetti di Correlazione (statistica), analizzandone l'origine, l'evoluzione e la sua influenza oggi. Inoltre, daremo uno sguardo più da vicino a come Correlazione (statistica) ha plasmato e continua a plasmare il mondo che ci circonda. Unisciti a noi in questo viaggio alla scoperta di Correlazione (statistica)!
In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità.[1][2] La correlazione non dipende da un rapporto di causa-effetto quanto dalla tendenza di una variabile a cambiare in funzione di un'altra.
Detto altrimenti correlazione non significa causazione[3].
Il termine apparve per la prima volta in un'opera di Francis Galton, Hereditary Genius (1869).[4] Non fu definita in modo più approfondito (la moralità di un individuo e la sua instabilità morale sono non correlate)[5].
Otto anni dopo, nel 1877, lo stesso Galton scoprì che i coefficienti di regressione lineare tra X e Y sono gli stessi se a entrambe le variabili viene applicata la deviazione standard σx e σy: Galton utilizzò in realtà lo scarto interquartile, definendo il parametro "coefficiente di co-relazione" e abbreviando "regressione" in r[6].
In base alle caratteristiche presentate, la correlazione può definirsi:
Inoltre, le correlazioni possono essere:
Il grado di correlazione tra due variabili viene espresso tramite l'indice di correlazione.[7] Il valore che esso assume è compreso tra −1 (correlazione inversa) e 1 (correlazione diretta e assoluta), con un indice pari a 0 che comporta l'assenza di correlazione; il valore nullo dell'indice non implica, tuttavia, che le variabili siano indipendenti.
I coefficienti di correlazione sono derivati dagli indici, tenendo presenti le grandezze degli scostamenti dalla media. In particolare, l'indice di correlazione di Pearson è calcolato come rapporto tra la covarianza delle due variabili e il prodotto delle loro deviazioni standard:[8]
Va comunque notato che gli indici e i coefficienti di correlazione siano da ritenersi sempre approssimativi, a causa dell'arbitrarietà con cui sono scelti gli elementi: ciò è vero, in particolare, nei casi di correlazioni multiple.
Contrariamente a quanto si potrebbe intuire, la correlazione non dipende da un rapporto di causa-effetto quanto dalla tendenza di una variabile a cambiare in funzione di un'altra.[9] Le variabili possono essere tra loro dipendenti (per esempio la relazione tra stature dei padri e dei figli) oppure comuni (relazione tra altezza e peso di una persona).[10]
Nel cercare una correlazione statistica tra due grandezze, per determinare un possibile rapporto di causa-effetto, essa non deve risultare una correlazione spuria.[11]
Se e sono variabili aleatorie, l'errore standard associato al coefficiente di correlazione è:
dove è il coefficiente di correlazione e è la numerosità campionaria.[13][14]
Controllo di autorità | Thesaurus BNCF 15575 · LCCN (EN) sh85033032 · GND (DE) 4165343-9 · BNF (FR) cb11978503n (data) · J9U (EN, HE) 987007567883105171 |
---|