En estadística la distribución T² (T-cuadrado) de Hotelling es importante porque se presenta como la distribución de un conjunto de estadísticas que son una generalización natural de las estadísticas subayacentes distribución t de Student . En particular, la distribución se presenta en estadísticas multivariadas en pruebas de diferencias entre las medias (multivariadas) de diferentes poblaciones, donde las pruebas para problemas univariados usarían la Prueba t . Es proporcional a la distribución F .
Función de densidad de probabilidad.Parámetros :p - dimensión de las variables aleatorias.m - relacionado con el tamaño de la muestra.
La distribución recibe su nombre de Harold Hotelling , quien la desarrollo[ 1] como una generalización de la distribución t de Student.
Si el vector
d
{\displaystyle d}
tiene distribución normal multivariada con media cero y matriz de covarianza unitaria
N
(
0
p
,
I
p
,
p
)
{\displaystyle N({\boldsymbol {0}}_{p},{\boldsymbol {I}}_{p,p})}
y
M
{\displaystyle M}
es una matriz de tamaño
p
×
p
{\displaystyle p\times p}
con matriz unitaria escalada y
m
{\displaystyle m}
los grados de libertad con distribución de Wishart
W
(
I
p
,
p
,
m
)
{\displaystyle W({\boldsymbol {I}}_{p,p},m)}
entonces la forma cuadrática
X
{\displaystyle X}
tiene distribución de Hotelling con parámetros
p
{\displaystyle p}
y
m
{\displaystyle m}
:
X
=
m
d
T
M
−
1
d
∼
T
2
(
p
,
m
)
{\displaystyle X=md^{T}M^{-1}d\sim T^{2}(p,m)}
Si la variable aleatoria
X
{\displaystyle X}
tiene distribución T-cuadrado de Hotelling con parámetros
p
{\displaystyle p}
y
m
{\displaystyle m}
,
X
∼
T
p
,
m
2
{\displaystyle X\sim T_{p,m}^{2}}
, entonces
m
−
p
+
1
p
m
X
∼
F
p
,
m
−
p
+
1
{\displaystyle {\frac {m-p+1}{pm}}X\sim F_{p,m-p+1}}
donde
F
p
,
m
−
p
+
1
{\displaystyle F_{p,m-p+1}}
es la distribución F con parámetros
p
{\displaystyle {\ce {p}}}
y
m
−
p
+
1
{\displaystyle m-p+1}
.
Estadística T-cuadrado de Hotelling
editar
La estadística T-cuadrado de Hotelling es una generalización de la estadística t de Student que se usa en las pruebas de hipótesis multivariadas, y se define como sigue:[ 1]
Sea
N
p
(
μ
,
Σ
)
{\displaystyle {\mathcal {N}}_{p}({\boldsymbol {\mu }},{\mathbf {\Sigma } })}
, que denota una distribución normal p -variada con vector de medias
μ
{\displaystyle {\boldsymbol {\mu }}}
y covarianza
Σ
{\displaystyle {\mathbf {\Sigma } }}
. Sean
x
1
,
…
,
x
n
∼
N
p
(
μ
,
Σ
)
{\displaystyle {\mathbf {x} }_{1},\dots ,{\mathbf {x} }_{n}\sim {\mathcal {N}}_{p}({\boldsymbol {\mu }},{\mathbf {\Sigma } })}
n
{\displaystyle n}
variables aleatorias independientes, las cuales pueden representarse como un vector columna de orden
p
×
1
{\displaystyle p\times 1}
de números reales . Defínase
x
¯
=
x
1
+
⋯
+
x
n
n
{\displaystyle {\overline {\mathbf {x} }}={\frac {\mathbf {x} _{1}+\cdots +\mathbf {x} _{n}}{n}}}
como la media muestral . Puede demostrarse que
n
(
x
¯
−
μ
)
′
Σ
−
1
(
x
¯
−
μ
)
∼
χ
p
2
,
{\displaystyle n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\mathbf {\Sigma } }^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})\sim \chi _{p}^{2},}
donde
χ
p
2
{\displaystyle \chi _{p}^{2}}
es una distribución ji-cuadrado con p grados de libertad. Para demostrar eso se usa el hecho que
x
¯
∼
N
p
(
μ
,
Σ
/
n
)
{\displaystyle {\overline {\mathbf {x} }}\sim {\mathcal {N}}_{p}({\boldsymbol {\mu }},{\mathbf {\Sigma } }/n)}
y entonces, al derivar la función característica de la variable aleatoria
y
=
n
(
x
¯
−
μ
)
′
Σ
−
1
(
x
¯
−
μ
)
{\displaystyle \mathbf {y} =n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\mathbf {\Sigma } }^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})}
ϕ
y
(
θ
)
=
E
e
i
θ
y
=
E
e
i
θ
n
(
x
¯
−
μ
)
′
Σ
−
1
(
x
¯
−
μ
)
=
∫
e
i
θ
n
(
x
¯
−
μ
)
′
Σ
−
1
(
x
¯
−
μ
)
(
2
π
)
−
p
2
|
Σ
/
n
|
−
1
2
e
−
1
2
n
(
x
¯
−
μ
)
′
Σ
−
1
(
x
¯
−
μ
)
d
x
1
.
.
.
d
x
p
=
∫
(
2
π
)
−
p
2
|
Σ
/
n
|
−
1
2
e
−
1
2
n
(
x
¯
−
μ
)
′
(
Σ
−
1
−
2
i
θ
Σ
−
1
)
(
x
¯
−
μ
)
d
x
1
.
.
.
d
x
p
=
|
(
Σ
−
1
−
2
i
θ
Σ
−
1
)
−
1
/
n
|
1
2
|
Σ
/
n
|
−
1
2
∫
(
2
π
)
−
p
2
|
(
Σ
−
1
−
2
i
θ
Σ
−
1
)
−
1
/
n
|
−
1
2
e
−
1
2
n
(
x
¯
−
μ
)
′
(
Σ
−
1
−
2
i
θ
Σ
−
1
)
(
x
¯
−
μ
)
d
x
1
.
.
.
d
x
p
=
|
(
I
p
−
2
i
θ
I
p
)
|
−
1
2
=
(
1
−
2
i
θ
)
−
p
2
{\displaystyle {\begin{aligned}\phi _{\mathbf {y} }(\theta )&=\operatorname {E} e^{i\theta \mathbf {y} }\\&=\operatorname {E} e^{i\theta n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\mathbf {\Sigma } }^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})}\\&=\int e^{i\theta n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\mathbf {\Sigma } }^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})}(2\pi )^{-{\frac {p}{2}}}|{\boldsymbol {\Sigma }}/n|^{-{\frac {1}{2}}}\,e^{-{\frac {1}{2}}n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\boldsymbol {\Sigma }}^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})}\,dx_{1}...dx_{p}\\&=\int (2\pi )^{-{\frac {p}{2}}}|{\boldsymbol {\Sigma }}/n|^{-{\frac {1}{2}}}\,e^{-{\frac {1}{2}}n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})}\,dx_{1}...dx_{p}\\&=|({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}/n|^{\frac {1}{2}}|{\boldsymbol {\Sigma }}/n|^{-{\frac {1}{2}}}\int (2\pi )^{-{\frac {p}{2}}}|({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}/n|^{-{\frac {1}{2}}}\,e^{-{\frac {1}{2}}n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})}\,dx_{1}...dx_{p}\\&=|(\mathbf {I} _{p}-2i\theta \mathbf {I} _{p})|^{-{\frac {1}{2}}}\\&=(1-2i\theta )^{-{\frac {p}{2}}}\end{aligned}}}
Sin embargo,
Σ
{\displaystyle {\mathbf {\Sigma } }}
es por lo general desconocida y se busca hacer una prueba de hipótesis sobre el vector de medias
μ
{\displaystyle {\boldsymbol {\mu }}}
.
Defínase
W
=
1
n
−
1
∑
i
=
1
n
(
x
i
−
x
¯
)
(
x
i
−
x
¯
)
′
{\displaystyle {\mathbf {W} }={\frac {1}{n-1}}\sum _{i=1}^{n}(\mathbf {x} _{i}-{\overline {\mathbf {x} }})(\mathbf {x} _{i}-{\overline {\mathbf {x} }})'}
como la covarianza muestral . La traspuesta se ha denotado con un apóstrofo . Se demuestra que
W
{\displaystyle \mathbf {W} }
es una matriz definida positiva y
(
n
−
1
)
W
{\displaystyle (n-1)\mathbf {W} }
sigue una distribución Wishart p -variada con n −1 grados de libertad.[ 2] La estadística T-cuadrado de Hotelling se define entonces como
t
2
=
n
(
x
¯
−
μ
)
′
W
−
1
(
x
¯
−
μ
)
{\displaystyle t^{2}=n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\mathbf {W} }^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})}
porque se demuestra que [cita requerida ]
t
2
∼
T
p
,
n
−
1
2
{\displaystyle t^{2}\sim T_{p,n-1}^{2}}
es decir
n
−
p
p
(
n
−
1
)
t
2
∼
F
p
,
n
−
p
,
{\displaystyle {\frac {n-p}{p(n-1)}}t^{2}\sim F_{p,n-p},}
donde
F
p
,
n
−
p
{\displaystyle F_{p,n-p}}
es una distribución
F
{\displaystyle F}
con parámetros
p
{\displaystyle p}
y
n
−
p
{\displaystyle n-p}
. Para calcular un p-valor, multiplique la estadística t 2 y la constante anterior y use la distribución
F
{\displaystyle F}
.