Convergencia en probabilidad

La convergencia en probabilidad se da cuando a medida que , o el tamaño de muestra, aumenta entonces la variable aleatoria (v.a.) toma valores cercanos a una constante con mayor probabilidad. Un ejemplo sencillo de esto sería, dado una v.a. que toma 2 valores c con probabilidad y con probabilidad . Entonces al hacer crecer n lo que ocurre es que el valor "n" de la v.a. aumenta pero su probabilidad disminuye a una velocidad de (1/n) mientras que la probabilidad de que la v.a. tome el valor c va tendiendo a 1.

Sea una variable aleatoria cuyo índice señala el tamaño de la muestra a partir de la cual dicha variable aleatoria está construida.

Se define convergencia en probabilidad

editar

Se dice que la sucesión de variables aleatorias   converge en probabilidad a una constante c si   para cualquier   >0, también se escribe como  .

El resultado anterior, con ayuda de las propiedades de valor absoluto se puede ver como

 

Implicaciones

editar

Sea   un espacio de probabilidad,   variables aleatorias. Entonces si la sucesión de   converge casi seguramente, lo hace tambien en probabilidad.