Desigualdad de Jensen
En matemáticas, la desigualdad de Jensen para funciones convexas relaciona el valor que asigna a una integral con la integral de esa misma función permutando, por así decirlo, la función y la integral. Fue probada por el matemático danés Johan Jensen en 1906.[1] Dada su generalidad, la desigualdad aparece en múltiples contextos.
Formulación
editarEn su formulación más simple, la desigualdad es la siguiente: una transformación convexa de la media es menor o igual en valor que la media de una transformación convexa. Sin embargo, su formulación formal más general se expresa en el contexto de la teoría de la medida:
Sea (Ω, A, μ) un espacio de medida tal que μ(Ω) = 1. Si g es una función real μ-integrable y φ una función convexa en el eje real, entonces:
Casos particulares
editarFormulación finita
editarDada una función convexa φ, números x1, x2, ..., xn en su dominio y pesos positivos ai se cumple que:
En particular, si los pesos ai son todos iguales a 1, entonces
Por ejemplo, como la función -log(x) es convexa, la desigualdad anterior puede concretarse en
En análisis real
editarSi son números reales y es una función real integrable, entonces, reescalando, se puede aplicar la desigualdad de Jensen para obtener
Por otro lado, si f(x) es una función no negativa tal que
g es una función real cualquiera y φ es una función convexa sobre el rango de g, entonces
En caso de que g sea la función identidad, se obtiene
Aplicaciones en casos especiales
editarFormulación probabilística
editarLa desigualdad de Jensen, usando la notación habitual en teoría de la probabilidad, puede reescribirse así:
(1)
,
donde es una función convexa.
Física estadística
editarLa desigualdad de Jensen desempeña un papel importante en física estadística cuando la función convexa es la exponencial porque entonces
(1)
fórmula en la que los paréntesis angulares representan la esperanza respecto a la distribución de probabilidad de la variable aleatoria X.
Teoría de la información
editarSi p(x) es la función de densidad correspondiente a una variable aleatoria X y q(x) es otra función de densidad, entonces, aplicando la desigualdad (1) a la variable aleatoria Y(X) = q(X)/p(X) y la función φ(y) = −log(y) se obtiene
que es la llamada desigualdad de Gibbs y está relacionada con el hecho de que la longitud de los mensajes es mínima cuando se codifican en términos de la distribución verdadera y con el concepto de la divergencia de Kullback-Leibler.
Véase también
editar- Demostración sin palabras, con una demostración de la desigualdad
Referencias
editar- ↑ Jensen, J. L. W. V. (1906). «Sur les fonctions convexes et les inégalités entre les valeurs moyennes». Acta Mathematica 30 (1): 175-193. doi:10.1007/BF02418571.
Bibliografía
editar- Walter Rudin (1979). Análisis real y complejo. Alhambra. ISBN 84-205-0651-6.
- N. Fusco, P. Marcellini, C. Sbordone (1996). Analisi Matematica Due. Liguori. ISBN 978-88-207-2675-1.