Quando duas ou mais
v.a’s são definidas em um espaço de probabilidade, é
útil descrever como elas variam juntas, que significa medir o relacionamento
entre elas. Uma medida comum de relacionamento entre as variáveis
é a covariância. Para definir a covariância,
precisamos antes descrever o valor esperado associado ao produto de duas
variáveis. Suponha que X e Y são duas v.a.’s. Logo o valor
esperado de é
definido como:
Caso discreto
o somatório é realizado para todos os pontos do range de (X, Y).
Caso contínuo
A covariância
entre as v.a’s X e Y, denotada como cov(X,Y) ou s
xy
é
definida como:
|
Existe uma outra medida de
relacionamento entre duas v.a’s que é frequentemente de mais fácil
interpretação que a covariância.
A correlacão entre duas
v.a’s X e Y, denotada com r
xy,
é definida como:
|
Como s
x
> 0 e s
y
> 0 , se a Cov(X,Y) é positiva, negativa
ou zero, a correlação entre X e Y será positiva, negativa
ou zero. O seguinte resultado pode ser mostrado : -1 £
r
xy £
1
A correlação
pode ser usada para comparar o relacionamento linear entre pares de variáveis
com diferentes unidades.
Se X e Y são independentes então: s xy = r xy = 0 O contrário não é valido!!! |