Independencia (probabilidad)

En teoría de probabilidades, se dice que dos sucesos aleatorios son independientes entre sí cuando la probabilidad de cada uno de ellos no está influida porque el otro suceso ocurra o no, es decir, cuando ambos sucesos no están relacionados. Por ejemplo, si se tira un dado en dos oportunidades, una después de la otra, el segundo resultado no está influenciado por el primero, ni el primero por lo que saldrá en el segundo.[1]

Definición formal

editar

Dos sucesos son independientes si la probabilidad de que ocurran ambos simultáneamente es igual al producto de las probabilidades de que ocurra cada uno de ellos, es decir, si  

Motivación de la definición

editar

Sean   y   dos sucesos tales que  , intuitivamente A es independiente de B si la probabilidad de A condicionada por B es igual a la probabilidad de A. Es decir si:

 

De la propia definición de probabilidad

 

se deduce que   y dado que   deducimos trivialmente que  .

Si el suceso A es independiente del suceso B, automáticamente el suceso B es independiente de A.

Propiedades

editar

Auto-independencia

editar

Un evento es independiente de sí mismo si y sólo si

 

De esta forma un evento es independiente de sí mismo si y sólo si ocurre casi con certeza, es decir si su probabilidad de aparecer es 1, o si casi con certeza ocurre su complemento, es decir su probabilidad es 0; este hecho es útil cuando se prueban las leyes cero-uno.

No heredable

editar

Si   y   son independientes y   puede que   y   no sean independientes. Por ejemplo si  .

Expectativa y covarianza

editar

Si   y   son variables aleatorias independientes, entonces la esperanza   tiene la propiedad

 

y la covarianza   es cero, como se sigue de la siguiente expresión

 

Lo contrario no se cumple: si dos variables aleatorias tienen una covarianza igual a 0, es posible que no sean independientes.

Del mismo modo para dos procesos estocásticos   y   : Si son independientes, entonces no están correlacionados.[2]

Función característica

editar

Dos variables aleatorias   y   son independientes si y solo si la función característica del vector aleatorio   satisface

 

En particular, la función característica de su suma es el producto de sus funciones características individuales (la implicación inversa no se cumple):

 

Referencias

editar
  1. Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical statistics with applications (Seventh edition edición). Thomson Brooks/Cole. ISBN 978-0-495-11081-1. OCLC 183886598. Consultado el 30 de septiembre de 2022. 
  2. Park,Kun Il (2018). Fundamentals of Probability and Stochastic Processes with Applications to Communications. Springer. ISBN 978-3-319-68074-3. 

Bibliografía

editar
  • P. Ibarrola, L. Pardo y V. Quesada (1997): Teoría de la Probaiblidad, Ed. Síntesis, ISBN 84-7738-516-5.
  • Spiegel, Murray. 1970. Estadística, McGraw-Hill, México.
  • Olav Kallenberg, Probabilistic Symmetries and Invariance Principles. Springer-Verlag, New York (2005). 510 pp. ISBN 0-387-25115-4
  • Kallenberg, O., Foundations of Modern Probability, 2nd ed. Springer Series in Statistics. (2002). 650 pp. ISBN 0-387-95313-2
  • Rafael Díaz. Introducción a la Probabilidad, los Procesos Estocásticos y la Estadística en Ingeniería. Escuela de Ingeniería Eléctrica. Universidad Central de Venezuela. 2000