En teoría de probabilidad y estadística , la distribución F , también conocida como distribución de Fisher-Snedecor (nombrada por Ronald Fisher y George Snedecor ), es una distribución de probabilidad continua , aparece frecuentemente como la distribución nula de una prueba estadística, especialmente en el análisis de varianza .
Fisher-Snedecor
Función de densidad de probabilidad
Función de distribución de probabilidad Parámetros
m
,
n
>
0
{\displaystyle m,n>0}
grados de libertad Dominio
x
∈
[
0
,
∞
)
{\displaystyle x\in [0,\infty )\!}
Función de densidad (pdf)
(
m
x
)
m
n
n
(
m
x
+
n
)
m
+
n
x
B
(
m
2
,
n
2
)
{\displaystyle {\frac {\sqrt {\frac {(mx)^{m}n^{n}}{(mx+n)^{m+n}}}}{x\,\mathrm {B} \!\left({\frac {m}{2}},{\frac {n}{2}}\right)}}\!}
Función de distribución (cdf)
I
m
x
m
x
+
n
(
m
/
2
,
n
/
2
)
{\displaystyle I_{\frac {mx}{mx+n}}(m/2,n/2)\!}
Media
n
n
−
2
{\displaystyle {\frac {n}{n-2}}\!}
para
n
>
2
{\displaystyle n>2}
Moda
m
−
2
m
n
n
+
2
{\displaystyle {\frac {m-2}{m}}\;{\frac {n}{n+2}}\!}
para
m
>
2
{\displaystyle m>2}
Varianza
2
n
2
(
m
+
n
−
2
)
m
(
n
−
2
)
2
(
n
−
4
)
{\displaystyle {\frac {2\,n^{2}\,(m+n-2)}{m(n-2)^{2}(n-4)}}\!}
para
n
>
4
{\displaystyle n>4}
Coeficiente de simetría
(
2
m
+
n
−
2
)
8
(
n
−
4
)
(
n
−
6
)
m
(
m
+
n
−
2
)
{\displaystyle {\frac {(2m+n-2){\sqrt {8(n-4)}}}{(n-6){\sqrt {m(m+n-2)}}}}\!}
para
n
>
6
{\displaystyle n>6}
Sean
U
{\displaystyle U}
y
V
{\displaystyle V}
variables aleatorias independientes tales que
U
∼
χ
m
2
{\displaystyle U\sim \chi _{m}^{2}}
y
V
∼
χ
n
2
{\displaystyle V\sim \chi _{n}^{2}}
, esto es
U
{\displaystyle U}
y
V
{\displaystyle V}
siguen una distribución chi-cuadrado con
m
{\displaystyle m}
y
n
{\displaystyle n}
grados de libertad respectivamente entonces la variable aleatoria
U
/
m
V
/
n
∼
F
m
,
n
{\displaystyle {\frac {U/m}{V/n}}\sim F_{m,n}}
donde
F
m
,
n
{\displaystyle F_{m,n}}
denota la distribución
F
{\displaystyle F}
con
m
{\displaystyle m}
y
n
{\displaystyle n}
grados de libertad.
Utilizaremos el teorema del cambio de variable, definimos
X
:=
U
/
m
V
/
n
y
Y
:=
V
{\displaystyle X:={\frac {U/m}{V/n}}\qquad {\mbox{y}}\qquad Y:=V}
La función de densidad conjunta de
U
{\displaystyle U}
y
V
{\displaystyle V}
está dada por
f
U
,
V
(
u
,
v
)
=
f
U
(
u
)
f
V
(
v
)
=
(
1
2
)
m
/
2
Γ
(
m
2
)
u
m
2
−
1
e
−
u
2
(
1
2
)
n
/
2
Γ
(
n
2
)
v
n
2
−
1
e
−
v
2
=
(
1
2
)
m
+
n
2
Γ
(
m
2
)
Γ
(
n
2
)
u
m
2
−
1
v
n
2
−
1
e
−
u
+
v
2
{\displaystyle {\begin{aligned}f_{U,V}(u,v)&=f_{U}(u)f_{V}(v)\\&={\frac {\left({\frac {1}{2}}\right)^{m/2}}{\Gamma \left({\frac {m}{2}}\right)}}u^{{\frac {m}{2}}-1}e^{-{\frac {u}{2}}}{\frac {\left({\frac {1}{2}}\right)^{n/2}}{\Gamma \left({\frac {n}{2}}\right)}}v^{{\frac {n}{2}}-1}e^{-{\frac {v}{2}}}\\&={\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}u^{{\frac {m}{2}}-1}v^{{\frac {n}{2}}-1}e^{-{\frac {u+v}{2}}}\end{aligned}}}
como
U
=
m
n
X
Y
{\textstyle U={\frac {m}{n}}XY}
y
V
=
Y
{\displaystyle V=Y}
entonces el Jacobiano de la transformación está dado por
J
=
|
m
n
y
m
n
x
0
1
|
=
m
n
y
{\displaystyle J=\left|{\begin{matrix}{\frac {m}{n}}y&{\frac {m}{n}}x\\0&1\end{matrix}}\right|={\frac {m}{n}}y}
La función de densidad conjunta de
(
X
,
Y
)
{\displaystyle (X,Y)}
está determinada por
f
X
,
Y
(
x
,
y
)
=
m
n
y
(
1
2
)
m
+
n
2
Γ
(
m
2
)
Γ
(
n
2
)
(
m
n
x
y
)
m
2
−
1
y
n
2
−
1
e
−
1
2
(
m
n
x
+
1
)
y
=
(
1
2
)
m
+
n
2
Γ
(
m
2
)
Γ
(
n
2
)
(
m
n
)
m
2
x
m
2
−
1
y
m
+
n
2
−
1
e
−
1
2
(
m
n
x
+
1
)
y
{\displaystyle {\begin{aligned}f_{X,Y}(x,y)&={\frac {m}{n}}y\,{\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}xy\right)^{{\frac {m}{2}}-1}y^{{\frac {n}{2}}-1}e^{-{\frac {1}{2}}({\frac {m}{n}}x+1)y}\\&={\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}\right)^{\frac {m}{2}}x^{{\frac {m}{2}}-1}y^{{\frac {m+n}{2}}-1}e^{-{\frac {1}{2}}({\frac {m}{n}}x+1)y}\end{aligned}}}
y como la densidad marginal de
X
{\displaystyle X}
está dada por
f
X
(
x
)
=
∫
R
f
X
,
Y
(
x
,
y
)
d
y
{\displaystyle f_{X}(x)=\int _{\mathbb {R} }f_{X,Y}(x,y)dy}
entonces
f
X
(
x
)
=
(
1
2
)
m
+
n
2
Γ
(
m
2
)
Γ
(
n
2
)
(
m
n
)
m
2
x
m
2
−
1
∫
0
∞
y
m
+
n
2
−
1
e
−
1
2
(
m
n
x
+
1
)
y
d
y
=
(
1
2
)
m
+
n
2
Γ
(
m
2
)
Γ
(
n
2
)
(
m
n
)
m
2
x
m
2
−
1
Γ
(
m
+
n
2
)
[
1
2
(
m
n
x
+
1
)
]
m
+
n
2
=
Γ
(
m
+
n
2
)
Γ
(
m
2
)
Γ
(
n
2
)
(
m
n
)
m
2
x
m
−
2
2
(
m
n
x
+
1
)
m
+
n
2
{\displaystyle {\begin{aligned}f_{X}(x)&={\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}\right)^{\frac {m}{2}}x^{{\frac {m}{2}}-1}\int _{0}^{\infty }y^{{\frac {m+n}{2}}-1}e^{-{\frac {1}{2}}({\frac {m}{n}}x+1)y}dy\\&={\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}\right)^{\frac {m}{2}}x^{{\frac {m}{2}}-1}{\frac {\Gamma \left({\frac {m+n}{2}}\right)}{\left[{\frac {1}{2}}({\frac {m}{n}}x+1)\right]^{\frac {m+n}{2}}}}\\&={\frac {\Gamma \left({\frac {m+n}{2}}\right)}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}\right)^{\frac {m}{2}}{\frac {x^{\frac {m-2}{2}}}{\left({\frac {m}{n}}x+1\right)^{\frac {m+n}{2}}}}\\\end{aligned}}}
que corresponde a la función de densidad de una variable aleatoria con distribución
F
{\displaystyle F}
, por lo tanto
U
/
m
V
/
n
∼
F
m
,
n
{\displaystyle {\frac {U/m}{V/n}}\sim F_{m,n}}
A partir de una muestra con distribución normal
editar
Sean
X
1
,
X
2
,
…
,
X
m
+
1
{\displaystyle X_{1},X_{2},\dots ,X_{m+1}}
una muestra aleatoria de la distribución
N
(
μ
x
,
σ
x
2
)
{\displaystyle N(\mu _{x},\sigma _{x}^{2})}
y
Y
1
,
Y
2
,
…
,
Y
n
+
1
{\displaystyle Y_{1},Y_{2},\dots ,Y_{n+1}}
una muestra aleatoria de la distribución
N
(
μ
y
,
σ
y
2
)
{\displaystyle N(\mu _{y},\sigma _{y}^{2})}
donde ambas muestras son independientes entre sí, se tiene que
X
¯
=
∑
i
=
1
m
+
1
X
i
m
+
1
y
Y
¯
=
∑
j
=
1
n
+
1
Y
j
n
+
1
{\displaystyle {\bar {X}}=\sum _{i=1}^{m+1}{\frac {X_{i}}{m+1}}\qquad {\mbox{y}}\qquad {\bar {Y}}=\sum _{j=1}^{n+1}{\frac {Y_{j}}{n+1}}}
S
X
2
=
∑
i
=
1
m
+
1
(
X
i
−
X
¯
)
2
m
y
S
Y
2
=
∑
j
=
1
n
+
1
(
Y
i
−
Y
¯
)
2
n
{\displaystyle S_{X}^{2}=\sum _{i=1}^{m+1}{\frac {\left(X_{i}-{\bar {X}}\right)^{2}}{m}}\qquad {\mbox{y}}\qquad S_{Y}^{2}=\sum _{j=1}^{n+1}{\frac {\left(Y_{i}-{\bar {Y}}\right)^{2}}{n}}}
entonces
m
S
X
2
σ
X
2
∼
χ
m
2
y
n
S
Y
2
σ
Y
2
∼
χ
n
2
{\displaystyle {\frac {mS_{X}^{2}}{\sigma _{X}^{2}}}\sim \chi _{m}^{2}\qquad {\mbox{y}}\qquad {\frac {nS_{Y}^{2}}{\sigma _{Y}^{2}}}\sim \chi _{n}^{2}}
y por el teorema anterior
S
X
2
/
σ
X
2
S
Y
2
/
σ
Y
2
∼
F
m
,
n
{\displaystyle {\frac {S_{X}^{2}/\sigma _{X}^{2}}{S_{Y}^{2}/\sigma _{Y}^{2}}}\sim F_{m,n}}
Distribuciones Relacionadas
editar
Si
X
∼
F
m
,
n
{\displaystyle X\sim F_{m,n}}
entonces
Y
=
lim
n
→
∞
m
X
{\displaystyle Y=\lim _{n\to \infty }mX}
tiene una distribución chi cuadrada
χ
m
2
{\displaystyle \chi _{m}^{2}}
.
Si
X
∼
χ
m
2
{\displaystyle X\sim \chi _{m}^{2}}
y
Y
∼
χ
n
2
{\displaystyle Y\sim \chi _{n}^{2}}
son independientes entonces
X
/
m
Y
/
n
∼
F
m
,
n
{\displaystyle {\frac {X/m}{Y/n}}\sim F_{m,n}}
.
Si
X
∼
Beta
(
α
2
,
β
2
)
{\displaystyle X\sim \operatorname {Beta} \left({\frac {\alpha }{2}},{\frac {\beta }{2}}\right)}
entonces
β
X
α
(
1
−
X
)
∼
F
α
,
β
{\displaystyle {\frac {\beta X}{\alpha (1-X)}}\sim F_{\alpha ,\beta }}
.
Si
X
∼
F
m
,
n
{\displaystyle X\sim F_{m,n}}
entonces
X
−
1
∼
F
n
,
m
{\displaystyle X^{-1}\sim F_{n,m}}
.
Si
X
∼
t
(
n
)
{\displaystyle X\sim t_{(n)}}
— Distribución t de Student — entonces :
X
2
∼
F
1
,
n
{\displaystyle X^{2}\sim F_{1,n}}
Si
X
∼
Γ
(
α
1
,
β
1
)
{\displaystyle X\sim \Gamma (\alpha _{1},\beta _{1})}
y
Y
∼
Γ
(
α
2
,
β
2
)
{\displaystyle Y\sim \Gamma (\alpha _{2},\beta _{2})}
son independientes entonces
α
2
β
1
X
α
1
β
2
Y
∼
F
2
α
1
,
2
α
2
{\displaystyle {\frac {\alpha _{2}\beta _{1}X}{\alpha _{1}\beta _{2}Y}}\sim F_{2\alpha _{1},2\alpha _{2}}}
.