Convergencia en probabilidad
La convergencia en probabilidad se da cuando a medida que , o el tamaño de muestra, aumenta entonces la variable aleatoria (v.a.) toma valores cercanos a una constante con mayor probabilidad. Un ejemplo sencillo de esto sería, dado una v.a. que toma 2 valores c con probabilidad y con probabilidad . Entonces al hacer crecer n lo que ocurre es que el valor "n" de la v.a. aumenta pero su probabilidad disminuye a una velocidad de (1/n) mientras que la probabilidad de que la v.a. tome el valor c va tendiendo a 1.
Sea una variable aleatoria cuyo índice señala el tamaño de la muestra a partir de la cual dicha variable aleatoria está construida.
Se define convergencia en probabilidad
editarSe dice que la sucesión de variables aleatorias converge en probabilidad a una constante c si para cualquier >0, también se escribe como .
El resultado anterior, con ayuda de las propiedades de valor absoluto se puede ver como
Implicaciones
editarSea un espacio de probabilidad, variables aleatorias. Entonces si la sucesión de converge casi seguramente, lo hace tambien en probabilidad.