Azərbaycanca AzərbaycancaБеларускі БеларускіDansk DanskDeutsch DeutschEspañola EspañolaFrançais FrançaisIndonesia IndonesiaItaliana Italiana日本語 日本語Қазақ ҚазақLietuvos LietuvosNederlands NederlandsPortuguês PortuguêsРусский Русскийසිංහල සිංහලแบบไทย แบบไทยTürkçe TürkçeУкраїнська Українська中國人 中國人United State United StateAfrikaans Afrikaans
Apoyo
www.wp1.es-es.nina.az
  • Wikipedia

En probabilidad y estadística la covarianza es un valor que indica el grado de variación conjunta de dos variables aleat

Covarianza

Covarianza
www.wp1.es-es.nina.azhttps://www.wp1.es-es.nina.az

En probabilidad y estadística, la covarianza es un valor que indica el grado de variación conjunta de dos variables aleatorias respecto a sus medias. Es el dato básico para determinar si existe una dependencia entre ambas variables y además es el dato necesario para estimar otros parámetros básicos, como el coeficiente de correlación lineal o la recta de regresión.

Interpretación

Cuando los valores altos de una de las variables suelen mayoritariamente corresponderse con los valores altos de la otra, y lo mismo se verifica para los pequeños valores de una con los de la otra, se corrobora que tienden a mostrar comportamiento similar lo que se refleja en un valor positivo de la covarianza[1]​
Por el contrario, cuando los valores altos de una variable suelen corresponder mayoritariamente a los menores valores de la otra, expresando un comportamiento opuesto, la covarianza es negativa.

El signo de la covarianza, por lo tanto, expresa la tendencia en la relación lineal entre las variables.
La magnitud requiere un esfuerzo adicional de interpretación:
La versión normalizada de la covarianza, el coeficiente de correlación indica la magnitud de la especificidad de la relación lineal.

Se debe distinguir entre:
(1) La covarianza de dos variables aleatorias, parámetro estadístico de una población considerado una propiedad de la distribución conjunta
(2) La covarianza muestra que se emplea como un valor estadísticamente estimado es una de las principales causas o motivos de la covarianza.

Definición

La covarianza entre dos variables aleatorias X{\displaystyle X}image y Y{\displaystyle Y}image se define como

Cov⁡(X,Y)=E⁡[(X−E⁡[X])(Y−E⁡[Y])],{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} {{\big [}(X-\operatorname {E} [X])(Y-\operatorname {E} [Y]){\big ]}},}image

siempre que E⁡[X]{\displaystyle \operatorname {E} [X]}image, E⁡[Y]{\displaystyle \operatorname {E} [Y]}image y E⁡[XY]<∞{\displaystyle \operatorname {E} [XY]<\infty }image, donde E⁡[X]{\displaystyle \operatorname {E} [X]}image, E⁡[Y]{\displaystyle \operatorname {E} [Y]}image y E⁡[XY]{\displaystyle \operatorname {E} [XY]}image denota los valores esperados de las variables aleatorias X{\displaystyle X}image, Y{\displaystyle Y}image y XY{\displaystyle XY}image respectivamente. Como la esperanza es un operador lineal entonces la expresión anterior se puede escribir de otra forma

Cov⁡(X,Y)=E⁡[(X−E⁡[X])(Y−E⁡[Y])]=E⁡[XY−XE⁡[Y]−E⁡[X]Y+E⁡[X]E⁡[Y]]=E⁡[XY]−E⁡[X]E⁡[Y]−E⁡[X]E⁡[Y]+E⁡[X]E⁡[Y]=E⁡[XY]−E⁡[X]E⁡[Y].{\displaystyle {\begin{aligned}\operatorname {Cov} (X,Y)&=\operatorname {E} \left[\left(X-\operatorname {E} \left[X\right]\right)\left(Y-\operatorname {E} \left[Y\right]\right)\right]\\&=\operatorname {E} \left[XY-X\operatorname {E} \left[Y\right]-\operatorname {E} \left[X\right]Y+\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]\right]\\&=\operatorname {E} \left[XY\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]+\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]\\&=\operatorname {E} \left[XY\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right].\end{aligned}}}image

Variables Aleatorias Discretas

Si las variables aleatorias X{\displaystyle X}image y Y{\displaystyle Y}image pueden tomar los valores xi{\displaystyle x_{i}}image y yi{\displaystyle y_{i}}image para i=1,2,…,n{\displaystyle i=1,2,\dots ,n}image con probabilidad P⁡[X=xi]=1/n{\displaystyle \operatorname {P} [X=x_{i}]=1/n}image y P⁡[Y=yi]=1/n{\displaystyle \operatorname {P} [Y=y_{i}]=1/n}image respectivamente entonces la covarianza puede ser expresada en términos de E⁡[X]{\displaystyle \operatorname {E} [X]}image y E⁡[Y]{\displaystyle \operatorname {E} [Y]}image como

Cov⁡(X,Y)=1n∑i=1n(xi−E⁡[X])(yi−E⁡[Y]){\displaystyle \operatorname {Cov} (X,Y)={\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-\operatorname {E} [X]\right)\left(y_{i}-\operatorname {E} [Y]\right)}image

o expresadas como

Cov⁡(X,Y)=12n2∑i=2n∑j=1n(xi−xj)(yi−yj){\displaystyle \operatorname {Cov} (X,Y)={\frac {1}{2n^{2}}}\sum _{i=2}^{n}\sum _{j=1}^{n}\left(x_{i}-x_{j}\right)\left(y_{i}-y_{j}\right)}image

Caso Multivariado

Si X{\displaystyle {\mathbf {X}}}image es un vector aleatorio de dimensión n{\displaystyle n}image, es decir, X=(X1,…,Xn)t{\displaystyle {\mathbf {X}}=(X_{1},\ldots ,X_{n})^{t}}image donde Xi{\displaystyle X_{i}}image para i=1,2,…,n{\displaystyle i=1,2,\dots ,n}image son variables aleatorias, la matriz de covarianza, denotada por Σ{\displaystyle \Sigma }image, está dada por

Σ=(Cov⁡(X1,X1)Cov⁡(X1,X2)⋯Cov⁡(X1,Xn)Cov⁡(X2,X1)Cov⁡(X2,X2)⋯Cov⁡(X2,Xn)⋮⋮⋱⋮Cov⁡(Xn,X1)Cov⁡(Xn,X2)⋯Cov⁡(Xn,Xn)){\displaystyle \Sigma ={\begin{pmatrix}\operatorname {Cov} (X_{1},X_{1})&\operatorname {Cov} (X_{1},X_{2})&\cdots &\operatorname {Cov} (X_{1},X_{n})\\\operatorname {Cov} (X_{2},X_{1})&\operatorname {Cov} (X_{2},X_{2})&\cdots &\operatorname {Cov} (X_{2},X_{n})\\\vdots &\vdots &\ddots &\vdots \\\operatorname {Cov} (X_{n},X_{1})&\operatorname {Cov} (X_{n},X_{2})&\cdots &\operatorname {Cov} (X_{n},X_{n})\end{pmatrix}}}image

es decir, la (i,j){\displaystyle (i,j)}image-ésima entrada de Σ{\displaystyle \Sigma }image corresponde a la covarianza entre Xi{\displaystyle X_{i}}image y Xj{\displaystyle X_{j}}image que puede ser representada como

Σij=Cov⁡(Xi,Xj){\displaystyle \Sigma _{ij}=\operatorname {Cov} (X_{i},X_{j})}image

en particular, cuando i=j{\displaystyle i=j}image, entonces

Σii=Cov⁡(Xi,Xi)=Var⁡(Xi){\displaystyle \Sigma _{ii}=\operatorname {Cov} (X_{i},X_{i})=\operatorname {Var} (X_{i})}image

por lo que la matriz Σ{\displaystyle \Sigma }image puede ser escrita como

Σ=(Var⁡(X1)Cov⁡(X1,X2)⋯Cov⁡(X1,Xn)Cov⁡(X2,X1)Var⁡(X2)⋯Cov⁡(X2,Xn)⋮⋮⋱⋮Cov⁡(Xn,X1)Cov⁡(Xn,X2)⋯Var⁡(Xn)){\displaystyle \Sigma ={\begin{pmatrix}\operatorname {Var} (X_{1})&\operatorname {Cov} (X_{1},X_{2})&\cdots &\operatorname {Cov} (X_{1},X_{n})\\\operatorname {Cov} (X_{2},X_{1})&\operatorname {Var} (X_{2})&\cdots &\operatorname {Cov} (X_{2},X_{n})\\\vdots &\vdots &\ddots &\vdots \\\operatorname {Cov} (X_{n},X_{1})&\operatorname {Cov} (X_{n},X_{2})&\cdots &\operatorname {Var} (X_{n})\end{pmatrix}}}image

Propiedades

Covarianza consigo misma

La varianza es un caso particular de la covarianza cuando dos variables aleatorias son idénticas

Cov⁡(X,X)=Var⁡(X)≡σX2{\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)\equiv \sigma _{X}^{2}}image

Covarianza de combinaciones lineales

Sean X{\displaystyle X}image, Y{\displaystyle Y}image, W{\displaystyle W}image y V{\displaystyle V}image variables aleatorias y a,b,c,d∈R{\displaystyle a,b,c,d\in \mathbb {R} }image entonces

  1. Cov⁡(X,a)=0{\displaystyle \operatorname {Cov} (X,a)=0\,}image
  2. Cov⁡(X,X)=Var⁡(X){\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)}image, donde Var⁡(X){\displaystyle \operatorname {Var} (X)}image denota la varianza de X{\displaystyle X}image.
  3. Cov⁡(X,Y)=Cov⁡(Y,X){\displaystyle \operatorname {Cov} (X,Y)=\operatorname {Cov} (Y,X)}image llamada propiedad de simetría.
  4. Cov⁡(aX,bY)=abCov⁡(X,Y){\displaystyle \operatorname {Cov} (aX,bY)=ab\operatorname {Cov} (X,Y)}image
  5. Cov⁡(X+a,Y+b)=Cov⁡(X,Y){\displaystyle \operatorname {Cov} (X+a,Y+b)=\operatorname {Cov} (X,Y)}image
  6. Cov⁡(aX+bY,cW+dV)=acCov⁡(X,W)+adCov⁡(X,V)+bcCov⁡(Y,W)+bdCov⁡(Y,V){\displaystyle \operatorname {Cov} (aX+bY,cW+dV)=ac\operatorname {Cov} (X,W)+ad\operatorname {Cov} (X,V)+bc\operatorname {Cov} (Y,W)+bd\operatorname {Cov} (Y,V)}image
  7. Cov⁡(X,Y)=E⁡[XY]−E⁡[X]E⁡[Y]{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]}image, fórmula que suele emplearse en la práctica para calcular la covarianza.

Estas propiedades se deducen de manera casi directa de la definición de la covarianza.

Para una secuencia X1,X2,…,Xn{\displaystyle X_{1},X_{2},\dots ,X_{n}}image de variables aleatorias y para valores a1,a2,…,an∈R{\displaystyle a_{1},a_{2},\dots ,a_{n}\in \mathbb {R} }image se tiene

Var⁡(∑i=1naiXi)=∑i=1nai2σXi2+2∑i,j:i<jaiajCov⁡(Xi,Xj)=∑i<jaiajCov⁡(Xi,Xj){\displaystyle {\begin{aligned}\operatorname {Var} \left(\sum _{i=1}^{n}a_{i}X_{i}\right)&=\sum _{i=1}^{n}a_{i}^{2}\sigma _{X_{i}}^{2}+2\sum _{i,j:i<j}a_{i}a_{j}\operatorname {Cov} (X_{i},X_{j})\\&=\sum _{i<j}a_{i}a_{j}\operatorname {Cov} (X_{i},X_{j})\end{aligned}}}image

No correlación e Independencia

A las variables aleatorias cuya covarianza es cero se dicen que son no correlacionadas.

Si X{\displaystyle X}image e Y{\displaystyle Y}image son variables aleatorias independientes entonces su covarianza es cero, esto es

Cov(X,Y)=0{\displaystyle {\text{Cov}}(X,Y)=0}image

esto ocurre por la propiedad de independencia

E⁡[XY]=E⁡[X]E⁡[Y]{\displaystyle \operatorname {E} [XY]=\operatorname {E} [X]\operatorname {E} [Y]}image

entonces reemplazando en la fórmula de la covarianza se obtiene

Cov⁡(X,Y)=E⁡[XY]−E⁡[X]E⁡[Y]=E⁡[X]E⁡[Y]−E⁡[X]E⁡[Y]=0{\displaystyle {\begin{aligned}\operatorname {Cov} (X,Y)&=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]\\&=\operatorname {E} [X]\operatorname {E} [Y]-\operatorname {E} [X]\operatorname {E} [Y]\\&=0\end{aligned}}}image

Lo opuesto, sin embargo, generalmente no es cierto: algunos pares de variables aleatorias tienen covarianza cero pese a que no son independientes. Bajo algunas hipótesis adicionales, la covarianza de valor cero implica independencia, como por ejemplo en el caso de la distribución normal multivariante.

Relación con el producto escalar

La mayoría de las propiedades de la covarianza se deducen de las del producto escalar:

  1. Bilinealidad: para a,b∈R{\displaystyle a,b\in \mathbb {R} }image y las variables aleatorias X{\displaystyle X}image, Y{\displaystyle Y}image y U{\displaystyle U}image se cumpleCov⁡(aX+bY,U)=aCov⁡(X,U)+bCov⁡(Y,U){\displaystyle \operatorname {Cov} (aX+bY,U)=a\operatorname {Cov} (X,U)+b\operatorname {Cov} (Y,U)}image
  2. Simetría: Cov(X,Y)=Cov(Y,X){\displaystyle {\text{Cov}}(X,Y)={\text{Cov}}(Y,X)}image
  3. Es un operador positivo definido: Var(X)=Cov(X,X)≥0{\displaystyle {\text{Var}}(X)={\text{Cov}}(X,X)\geq 0}image; además, si Cov(X,X)=0{\displaystyle {\text{Cov}}(X,X)=0}image entonces X{\displaystyle X}image es una variable aleatoria constante.

De hecho, la covarianza es un producto interior sobre el espacio cociente de las variables aleatorias de momentos finitos iguales salvo constante.

Covarianza muestral

Si X{\displaystyle X}image y Y{\displaystyle Y}image son variables aleatorias que toman los valores xi{\displaystyle x_{i}}image y yi{\displaystyle y_{i}}image para i=1,2,…,n{\displaystyle i=1,2,\dots ,n}image entonces se puede estimar la covarianza entre X{\displaystyle X}image y Y{\displaystyle Y}image, este estimador denotado por Sxy{\displaystyle S_{xy}}image se define como

Sxy=1n−1∑i=1n(xi−x¯)(yi−y¯)=1n−1[∑i=1nxiyi−nx¯y¯]{\displaystyle {\begin{aligned}S_{xy}&={\frac {1}{n-1}}\sum _{i=1}^{n}{(x_{i}-{\overline {x}})(y_{i}-{\overline {y}})}\\&={\frac {1}{n-1}}[\sum _{i=1}^{n}{x_{i}y_{i}}-n{\bar {x}}{\bar {y}}]\end{aligned}}}image

donde

x¯=∑i=1nxinyy¯=∑i=1nyin{\displaystyle {\overline {x}}=\sum _{i=1}^{n}{\frac {x_{i}}{n}}\qquad {\text{y}}\qquad {\overline {y}}=\sum _{i=1}^{n}{\frac {y_{i}}{n}}}image

denotan la media muestral.

El estimador Sxy{\displaystyle S_{xy}}image tiene la propiedad de que es un estimador insesgado.

Interpretación de la covarianza

  • Si Sxy>0{\displaystyle S_{xy}>{0}}image hay dependencia directa (positiva), es decir, a grandes valores de X{\displaystyle X}image corresponden grandes valores de Y{\displaystyle Y}image, de igual signo.
  • Si Sxy=0{\displaystyle S_{xy}={0}}image se interpreta como la no existencia de una relación lineal entre las dos variables.
  • Si Sxy<0{\displaystyle S_{xy}<{0}}image hay dependencia inversa o negativa, es decir, a grandes valores de X{\displaystyle X}image corresponden grandes valores de Y{\displaystyle Y}image, de signo contrario.

Véase también

  • Esperanza matemática
  • Varianza
  • Regresión lineal
  • Coeficiente de correlación
  • ANOVA o análisis de la varianza

Referencias

  1. http://mathworld.wolfram.com/Covariance.html

Enlaces externos

  • Resolver covarianza y varianza con fórmula en línea
  • Simulación de la covarianza de una variable bidimensional continua [1] y discreta [2] con R (lenguaje de programación)
  • image Datos: Q201984

wikipedia, wiki, leyendo, leer, libro, biblioteca, español, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos, móvil, teléfono, android, ios, apple, teléfono móvil, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, ordenador

Fecha de publicación: Marcha 07, 2025, 03:05 am
Más leído
  • Mayo 02, 2025

    Conquista normanda de Inglaterra

  • Mayo 08, 2025

    Constitución de Sudáfrica

  • Mayo 02, 2025

    Constitución de 1824

  • Mayo 04, 2025

    Constitución Política del Estado de Bolivia de 2009

  • Mayo 05, 2025

    Constitución Política de la República Peruana de 1823

A diario
  • Andrew Lloyd Webber

  • Eva Perón

  • Temporada navideña

  • Don't Cry for Me Argentina (versión de Madonna)

  • Línea Andorra-Escatrón

  • Empresa Nacional Calvo Sotelo

  • Masters de Roma 2025

  • Joseph Nye

  • Valeri Shevchuk

  • Avery Brundage

NiNa.Az - Estudio

  • Wikipedia

Inscríbase al boletín

Al suscribirse a nuestra lista de correo, siempre recibirá nuestras últimas noticias.
Ponerse en contacto
Contacta con nosotros
DMCA Sitemap Feeds
© 2019 nina.az - Reservados todos los derechos.
Derechos de autor: Dadaş Mammedov
Arriba