Disuguaglianza di Jensen

La disuguaglianza di Jensen (dal nome del matematico danese Johan Jensen) è una disuguaglianza che lega il valore di una funzione convessa al valore della medesima funzione calcolata nel valor medio del suo argomento. Essa è stata enunciata e dimostrata da Jensen nel 1906[1]. La disuguaglianza di Jensen può essere introdotta in diversi contesti e con diversi gradi di generalità, i più rilevanti dei quali sono presentati nel seguito.

Enunciati

La forma più elementare della disuguaglianza di Jensen può essere enunciata come media pesata di un numero finito di numeri reali. Essa può essere ampiamente generalizzata nel contesto della teoria della misura, e trova la sua forma più naturale e potente nel formalismo della teoria della probabilità. Nel seguito si forniscono prima gli enunciati della disuguaglianza (partendo dai più semplici fino ad arrivare a quelli più generali), e quindi le dimostrazioni degli stessi.

Ricordiamo che se φ {\displaystyle \varphi } è una funzione convessa, allora φ {\displaystyle -\varphi } è concava, e pertanto delle disuguaglianze analoghe a quelle riportate sotto possono essere ottenute per funzioni concave, a patto di invertire il verso delle disuguaglianze stesse.

Forma discreta

Sia n {\displaystyle n} un intero positivo. Per una funzione convessa a valori reali φ {\displaystyle \varphi } , e per dei numeri reali x 1 , x 2 , , x n {\displaystyle x_{1},\,x_{2},\ldots ,\,x_{n}} nel dominio di φ {\displaystyle \varphi } , e per dei pesi positivi a 1 , a 2 , , a n {\displaystyle a_{1},\,a_{2},\ldots ,\,a_{n}} aventi somma unitaria, la disuguaglianza di Jensen afferma:

φ ( i = 1 n a i x i ) i = 1 n a i φ ( x i ) {\displaystyle \varphi \left(\sum _{i=1}^{n}a_{i}x_{i}\right)\leq \sum _{i=1}^{n}a_{i}\varphi (x_{i})}

In particolare, se i pesi a i {\displaystyle a_{i}} sono tutti uguali ad 1 n {\displaystyle {\frac {1}{n}}} :

φ ( 1 n i = 1 n x i ) 1 n i = 1 n φ ( x i ) {\displaystyle \varphi \left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}\right)\leq {\frac {1}{n}}\sum _{i=1}^{n}\varphi (x_{i})}

ovverosia il valore di φ {\displaystyle \varphi } calcolato nella media degli x i {\displaystyle x_{i}} è più piccolo della media dei valori di φ {\displaystyle \varphi } sugli x i {\displaystyle x_{i}} .

La disuguaglianza nella notazione della teoria della misura

Nelle precedenti formule, è naturale chiedersi se è possibile effettuare una sorta di passaggio al continuo. La risposta è affermativa, e la disuguaglianza di Jensen può essere generalizzata come segue.

Sia ( Ω , F , μ ) {\displaystyle (\Omega ,{\mathfrak {F}},\mu )} uno spazio di misura, tale che μ ( Ω ) = 1 {\displaystyle \mu (\Omega )=1} . Se g {\displaystyle g} è una funzione integrabile da Ω {\displaystyle \Omega } a valori reali, e φ {\displaystyle \varphi } è una funzione convessa sull'immagine di g {\displaystyle g} , allora:[2]

φ ( Ω g d μ ) Ω φ g d μ . {\displaystyle \varphi \left(\int _{\Omega }g\,d\mu \right)\leq \int _{\Omega }\varphi \circ g\,d\mu .}

La disuguaglianza nella notazione della teoria della probabilità

Lo stesso risultato può più naturalmente essere enunciato nel contesto della teoria della probabilità. Sia ( Ω , F , P ) {\displaystyle (\Omega ,{\mathfrak {F}},\mathbb {P} )} uno spazio di probabilità, X {\displaystyle X} una variabile aleatoria a valori reali che possieda valore atteso, e φ {\displaystyle \varphi } una funzione convessa tale che anche φ ( X ) {\displaystyle \varphi (X)} possieda valore atteso. Allora:

φ ( E { X } ) E { φ ( X ) } . {\displaystyle \varphi \left(\mathbb {E} \{X\}\right)\leq \mathbb {E} \{\varphi (X)\}.}

In questa notazione probabilistica, la misura μ {\displaystyle \mu } va appunto intesa come una probabilità P {\displaystyle \mathbb {P} } , l'integrale rispetto a μ {\displaystyle \mu } come un valore atteso E {\displaystyle \mathbb {E} } , e la funzione g {\displaystyle g} come una variabile aleatoria X {\displaystyle X} .

La disuguaglianza generale nella teoria della probabilità

Più in generale, sia T {\displaystyle T} uno spazio vettoriale topologico, ed X {\displaystyle X} una variabile aleatoria integrabile a valori in T {\displaystyle T} . In questo contesto generale, integrabile significa che per ogni elemento z {\displaystyle z} nel duale di T {\displaystyle T} accade E | z , X | < {\displaystyle \mathbb {E} |\langle z,X\rangle |<\infty } , e che esiste un elemento E { X } {\displaystyle \mathbb {E} \{X\}} in T {\displaystyle T} tale che z , E { X } = E { z , X } {\displaystyle \langle z,\mathbb {E} \{X\}\rangle =\mathbb {E} \{\langle z,X\rangle \}} . Allora, per ogni funzione convessa misurabile φ {\displaystyle \varphi } su T {\displaystyle T} , e per ogni sub-σ-algebra G {\displaystyle {\mathfrak {G}}} di F {\displaystyle {\mathfrak {F}}} :

φ ( E { X | G } ) E { φ ( X ) | G } . {\displaystyle \varphi \left(\mathbb {E} \{X|{\mathfrak {G}}\}\right)\leq \mathbb {E} \{\varphi (X)|{\mathfrak {G}}\}.}

Qui E { | G } {\displaystyle \mathbb {E} \{\cdot |{\mathfrak {G}}\}} indica l'attesa condizionata rispetto alla σ-algebra G {\displaystyle {\mathfrak {G}}} . Questo enunciato più generale si riduce al precedente qualora il generico spazio topologico vettoriale T {\displaystyle T} sia rimpiazzato dall'asse reale, e G {\displaystyle {\mathfrak {G}}} dalla σ-algebra banale { , Ω } {\displaystyle \{\emptyset ,\Omega \}} .

Media aritmetica e geometrica

La funzione log ( x ) {\displaystyle \log(x)} è concava, utilizzando in questo caso la disuguaglianza di Jensen essa si riduce alla disuguaglianza della media aritmetica e della media geometrica.

x 1 + x 2 + + x n n x 1 x 2 x n n {\displaystyle {{x_{1}+x_{2}+\cdots +x_{n}} \over {n}}\geq {\sqrt[{n}]{x_{1}\cdot x_{2}\cdots x_{n}}}}

Infatti:

log ( x 1 x n n ) = 1 n ( log   x 1 + + log   x n ) log ( 1 n ( x 1 + + x n ) ) {\displaystyle {\mbox{log}}\left({\sqrt[{n}]{x_{1}\cdots x_{n}}}\right)={\frac {1}{n}}\left({\mbox{log}}\ x_{1}+\cdots +{\mbox{log}}\ x_{n}\right)\leq {\mbox{log}}\left({\frac {1}{n}}\left(x_{1}+\cdots +x_{n}\right)\right)}

dove l'ultima disuguaglianza discende dalla disuguaglianza di Jensen.

Applicazioni per disuguaglianze specifiche

La disuguaglianza di Jensen consente di dimostrare con facilità molte disuguaglianze elementari. Ad esempio, per ogni coppia di numeri reali positivi x , y > 0 {\displaystyle x,y>0} tali che x + y = 1 {\displaystyle x+y=1} è valida la disuguaglianza

( x + 1 x ) 2 + ( y + 1 y ) 2 25 2 {\displaystyle \left(x+{1 \over x}\right)^{2}+\left(y+{1 \over y}\right)^{2}\geq {25 \over 2}}

Per dimostrarlo, osserviamo che la funzione

g ( z ) = ( z + 1 z ) 2 {\displaystyle g(z)=\left(z+{1 \over z}\right)^{2}}

è convessa per z {\displaystyle z} positivo, in quanto la sua seconda derivata è sempre positiva per tali valori di z {\displaystyle z} . Dalla disuguaglianza di Jensen segue

g ( x ) + g ( y ) 2 g ( x + y 2 ) = g ( 1 2 ) = 25 4 {\displaystyle {{g(x)+g(y)} \over 2}\geq g\left({{x+y} \over 2}\right)=g\left({1 \over 2}\right)={25 \over 4}}

ossia appunto

g ( x ) + g ( y ) 25 2 {\displaystyle {g(x)+g(y)}\geq {25 \over 2}}

Note

  1. ^ Jensen, J. Sur les fonctions convexes et les inégalités entre les valeurs moyennes.
  2. ^ W. Rudin, Pag. 61.

Bibliografia

  • Nicola Fusco, Paolo Marcellini, Carlo Sbordone, Lezioni di Analisi Matematica Due, Paragrafi 39 e 83, Zanichelli, 2020, ISBN 9788808520203.
  • Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970, ISBN 0-07-054234-1.

Voci correlate

Collegamenti esterni

  • Disuguaglianza di Jensen su MathWorld, su mathworld.wolfram.com.
  • La disuguaglianza di Jensen funge da logo per il Dipartimento di Matematica della Università di Copenaghen
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica