La variación cuadrática

En matemáticas, la descomposición de Gundy, en rasgos generales, demuestra que una martingala acotada puede ser escrita (y, por tanto, descomponerse), en suma de tres martingalas diferentes, las cuales, presentan propiedades específicas y cotas concretas. Al igual que la descomposición de Calderón-Zygmund, la variación cuadrática es considerada una técnica probabilística con relevante aplicación en el campo del análisis matemático.

Contextualización y notación del teorema

En los últimos dos siglos, el uso de técnicas probabilísticas se ha convertido en un recurso especialmente útil en diversas ramas del análisis. En particular, la descomposición de Gundy es una herramienta del análisis probabilístico utilizada para demostrar resultados de acotación débil-(1,1) para una función integrable en un espacio de probabilidad.

Sea ( Ω , Σ , μ ) {\displaystyle (\Omega ,\Sigma ,\mu )} un espacio de probabilidad con una filtración asociada { Σ n } n {\displaystyle \{\Sigma _{n}\}_{n}} . Para toda función f L 1 ( Ω ) {\displaystyle f\in L^{1}(\Omega )} , utilizando el operador esperanza condicionada, podemos definir una sucesión de funciones medibles { E n ( f ) } n {\displaystyle \{E_{n}(f)\}_{n}} que satisfacen la propiedad de martingala.

Con abuso de notación, designaremos por f {\displaystyle f} a dicha secuencia de variables aleatorias f = ( f 1 , f 2 , ) {\displaystyle f=(f_{1},f_{2},\dots )} definidas en el mismo espacio de probabilidad ( Ω , Σ , μ ) {\displaystyle (\Omega ,\Sigma ,\mu )} con la misma filtración asociada { Σ n } n {\displaystyle \{\Sigma _{n}\}_{n}} . La variable aleatoria f n = E n ( f ) {\displaystyle f_{n}=E_{n}(f)} es medible con respecto Σ n Σ {\displaystyle \Sigma _{n}\subset \Sigma } para cada n 1 {\displaystyle n\geq 1} .

Además, definimos D ( f ) = ( d f 1 , d f 2 , , d f k = f k + 1 f k , ) {\displaystyle D(f)=(df_{1},df_{2},\dots ,df_{k}=f_{k+1}-f_{k},\dots )} como la secuencia de incrementos f {\displaystyle f} (también conocida como secuencia de diferencias de martingala), de modo que f k = k = 1 n d f k {\displaystyle f_{k}=\sum _{k=1}^{n}df_{k}} .

Denotamos la norma de la martingala f p = sup k f k p {\displaystyle \|f\|_{p}=\sup _{k}\|f_{k}\|_{p}} , donde f k p {\displaystyle \|f_{k}\|_{p}} es la norma L p {\displaystyle L_{p}} habitual de la variable aleatoria f k {\displaystyle f_{k}} , para 1 p {\displaystyle 1\leq p\leq \infty } .

Denotaremos C {\displaystyle C} como una constante real positiva, no siempre con el mismo valor en cada una de las líneas.

Las secuencias de variables aleatorias se agregarán de manera natural: consideremos f , g {\displaystyle f,g} dos secuencias de variables aleatorias, entonces f + g = ( f 1 + g 1 , f 2 + g 2 , ) {\displaystyle f+g=(f_{1}+g_{1},f_{2}+g_{2},\dots )} . Por último, f = sup n | f n | {\displaystyle f^{*}=\sup _{n}|f_{n}|} designará la función maximal aplicada a la martingala.

La descomposición de Gundy

Sea f L 1 ( Ω ) {\displaystyle f\in L^{1}(\Omega )} . Para cualquier valor real λ > 0 {\displaystyle \lambda >0} , la martingala asociada a f {\displaystyle f} puede descomponerse en tres martingalas a , b , d {\displaystyle a,b,d} de la siguiente manera:

a = ( a 1 , a 2 , ) {\displaystyle a=(a_{1},a_{2},\dots )} es una martingala acotada en L 1 {\displaystyle L^{1}} que cumple:

  • a n = k = 1 n α k {\displaystyle a_{n}=\sum _{k=1}^{n}\alpha _{k}} .
  • a 1 C f 1 {\displaystyle \|a\|_{1}\leq C\|f\|_{1}} , donde C {\displaystyle C} es una constante positiva real.
  • La secuencia de incrementos α = ( α 1 , α 2 , ) {\displaystyle \alpha =(\alpha _{1},\alpha _{2},\dots )} satisface que P ( α 0 ) C f 1 λ {\displaystyle P(\alpha ^{*}\neq 0)\leq {\frac {C\|f\|_{1}}{\lambda }}} .

b = ( b 1 , b 2 , ) {\displaystyle b=(b_{1},b_{2},\dots )} es absolutamente convergente y tiene las siguientes propiedades:

  • b n = k = 1 n β k {\displaystyle b_{n}=\sum _{k=1}^{n}\beta _{k}} .
  • k = 1 | β k | 1 f 1 {\displaystyle \|\sum _{k=1}^{\infty }|\beta _{k}|\|_{1}\leq \|f\|_{1}} .

d = ( d 1 , d 2 , ) {\displaystyle d=(d_{1},d_{2},\dots )} está uniformemente acotada y satisface las siguientes estimaciones:

  • d n = k = 1 n δ k {\displaystyle d_{n}=\sum _{k=1}^{n}\delta _{k}} .
  • d C λ {\displaystyle \|d\|_{\infty }\leq C\lambda } .
  • d 1 C f 1 {\displaystyle \|d\|_{1}\leq C\|f\|_{1}} .
  • d 2 2 C λ f 1 {\displaystyle \|d\|_{2}^{2}\leq C\lambda \|f\|_{1}} .

Demostración

Primero, podemos asumir que f {\displaystyle f} es una martingala no negativa, ya que toda martingala acotada en L 1 ( Ω ) {\displaystyle L^{1}(\Omega )} , se puede escribir como la suma de dos martingalas no negativas, f = f + f {\displaystyle f=f^{+}-f^{-}} , con f ± 1 f 1 {\displaystyle \|f^{\pm }\|_{1}\leq \|f\|_{1}} .

Ahora, consideremos los siguientes tiempos de parada:

  • Primero, para todo x Ω {\displaystyle x\in \Omega } , definimos r ( x ) = inf { n | f n ( x ) > λ } {\displaystyle r(x)=\inf\{n|f_{n}(x)>\lambda \}} . A partir de este tiempo de parada, consideremos la secuencia de variables aleatorias ϵ n ( x ) = d f n 1 { r ( x ) = n } ( x ) {\displaystyle \epsilon _{n}(x)=df_{n}\mathbf {1} _{\{r(x)=n\}}(x)} , donde recordamos que d f n {\displaystyle df_{n}} es la secuencia de diferencias n {\displaystyle n} -simas de la martingala f {\displaystyle f} , que satisface f n = k = 1 n d f k {\displaystyle f_{n}=\sum _{k=1}^{n}df_{k}} .
  • Definimos el segundo tiempo de parada, s {\displaystyle s} , como s ( x ) = inf { n | k = 0 n E k ( ϵ k + 1 ) ( x ) > λ } {\displaystyle s(x)=\inf \left\{n{\Big |}\sum _{k=0}^{n}E_{k}(\epsilon _{k+1})(x)>\lambda \right\}} .
  • Finalmente, consideramos t = min ( r , s ) {\displaystyle t=\min(r,s)} .

Observamos en primera instancia que :

P ( t < ) = P ( r < ) + P ( s < ) = f r 1 λ + d f r 1 λ C f 1 λ . {\displaystyle P(t<\infty )=P(r<\infty )+P(s<\infty )={\frac {\|f_{r}\|_{1}}{\lambda }}+{\frac {\|df_{r}\|_{1}}{\lambda }}\leq {\frac {C\|f\|_{1}}{\lambda }}.}

Ahora definimos f t {\displaystyle f^{t}} como la martingala truncada en t {\displaystyle t} . Esto significa que f t = ( f 1 t , f 2 t , ) {\displaystyle f^{t}=(f_{1}^{t},f_{2}^{t},\dots )} , donde f n t = k = 1 n d f k 1 { k t } {\displaystyle f_{n}^{t}=\sum _{k=1}^{n}df_{k}\mathbf {1} _{\{k\leq t\}}} . Definiendo a = f f t {\displaystyle a=f-f^{t}} , entonces a = ( a 1 , a 2 , ) {\displaystyle a=(a_{1},a_{2},\dots )} , donde a n = k = 1 n d f k k = 1 n d f k 1 { k t } = k = 1 n d f k 1 { k > t } {\displaystyle a_{n}=\sum _{k=1}^{n}df_{k}-\sum _{k=1}^{n}df_{k}\mathbf {1} _{\{k\leq t\}}=\sum _{k=1}^{n}df_{k}\mathbf {1} _{\{k>t\}}} .
Claramente, a 1 = f f t 1 f 1 + f t 1 2 f 1 , {\displaystyle \|a\|_{1}=\|f-f^{t}\|_{1}\leq \|f\|_{1}+\|f^{t}\|_{1}\leq 2\|f\|_{1},} y P ( α 0 ) P ( t < ) = C f 1 λ {\displaystyle P(\alpha ^{*}\neq 0)\leq P(t<\infty )={\frac {C\|f\|_{1}}{\lambda }}} .
Por lo tanto, la martingala a {\displaystyle a} cumple los requisitos del teorema.

Veamos ahora la martingala f t {\displaystyle f^{t}} .

Para cada término n 1 {\displaystyle n\geq 1} se tiene

f n t = k = 1 n d f k 1 { t k } = k = 1 n d f k 1 { r k } 1 { s k } . {\displaystyle f_{n}^{t}=\sum _{k=1}^{n}df_{k}\mathbf {1} _{\{t\geq k\}}=\sum _{k=1}^{n}df_{k}\mathbf {1} _{\{r\geq k\}}\mathbf {1} _{\{s\geq k\}}.}

Podemos dividir la expresión anterior de la siguiente manera:

d f k 1 { r k } 1 { s k } = d f k 1 { r > k } 1 { s k } + d f k 1 { r = k } 1 { s k } = ( γ k + ϵ k ) 1 { s k } {\displaystyle df_{k}\mathbf {1} _{\{r\geq k\}}\mathbf {1} _{\{s\geq k\}}=df_{k}\mathbf {1} _{\{r>k\}}\mathbf {1} _{\{s\geq k\}}+df_{k}\mathbf {1} _{\{r=k\}}\mathbf {1} _{\{s\geq k\}}=(\gamma _{k}+\epsilon _{k})\mathbf {1} _{\{s\geq k\}}}

donde las variables aleatorias ϵ k {\displaystyle \epsilon _{k}} están definidas como ϵ n ( x ) = d f n 1 { r ( x ) = n } ( x ) {\displaystyle \epsilon _{n}(x)=df_{n}\mathbf {1} _{\{r(x)=n\}}(x)} y las variables γ k {\displaystyle \gamma _{k}} tal que γ k = d f k 1 { r > k } . {\displaystyle \gamma _{k}=df_{k}\mathbf {1} _{\{r>k\}}.}

Para k > 1 {\displaystyle k>1} ,

E k 1 ( γ k ) = E k 1 ( γ k d f k 1 { r k } ) = = E k 1 ( d f k 1 { r > k } d f k 1 { r k } ) = = E k 1 ( d f k 1 { r > k } d f k 1 { r > k } d f k 1 { r = k } ) = E k 1 ( d f k 1 { r = k } ) = E p k 1 ( ϵ k ) . {\displaystyle {\begin{aligned}E_{k-1}(\gamma _{k})&=E_{k-1}(\gamma _{k}-df_{k}\mathbf {1} _{\{r\geq k\}})=\\&=E_{k-1}(df_{k}\mathbf {1} _{\{r>k\}}-df_{k}\mathbf {1} _{\{r\geq k\}})=\\&=E_{k-1}(df_{k}\mathbf {1} _{\{r>k\}}-df_{k}\mathbf {1} _{\{r>k\}}-df_{k}\mathbf {1} _{\{r=k\}})=E_{k-1}(df_{k}\mathbf {1} _{\{r=k\}})\\&=-Ep_{k-1}(\epsilon _{k}).\end{aligned}}}

Por lo tanto, para cada n 1 {\displaystyle n\geq 1} podemos expresar

f n t = k = 1 n ( γ k + ϵ k ) 1 { s k } {\displaystyle f_{n}^{t}=\sum _{k=1}^{n}(\gamma _{k}+\epsilon _{k})\mathbf {1} _{\{s\geq k\}}}

como la suma de dos secuencias f n t = d n + b n , {\displaystyle f_{n}^{t}=d_{n}+b_{n},} donde

d n = k = 1 n ( γ k + E k 1 ( ϵ k ) ) 1 { s k } , {\displaystyle d_{n}=\sum _{k=1}^{n}(\gamma _{k}+E_{k-1}(\epsilon _{k}))\mathbf {1} _{\{s\geq k\}},}

y

b n = k = 1 n ( ϵ k E k 1 ( ϵ k ) ) 1 { s k } . {\displaystyle b_{n}=\sum _{k=1}^{n}(\epsilon _{k}-E_{k-1}(\epsilon _{k}))\mathbf {1} _{\{s\geq k\}}.}

Procedemos a demostrar que tanto d {\displaystyle d} como b {\displaystyle b} son martingalas. Es claro que ambas son medibles con respecto a la filtración considerada. Debemos verificar que E n 1 ( d n ) = d n 1 {\displaystyle E_{n-1}(d_{n})=d_{n-1}} y E n 1 ( b n ) = b n 1 {\displaystyle E_{n-1}(b_{n})=b_{n-1}} .

Para la secuencia d n {\displaystyle d_{n}} :

E n 1 ( d n ) = E n 1 ( k = 1 n ( γ k + E k 1 ( ϵ k ) ) 1 { s k } ) = E n 1 ( k = 1 n 1 ( γ k + E k 1 ( ϵ k ) ) 1 { s k } ) + E n 1 ( ( γ n + E n 1 ( ϵ n ) ) 1 { s k } ) = d n 1 + E n 1 ( γ n ) 1 { s k } + E n 1 ( E n 1 ( ϵ n ) ) 1 { s k } = d n 1 + E n 1 ( ϵ n ) 1 { s k } + E n 1 ( ϵ n ) 1 { s k } = d n 1 . {\displaystyle {\begin{aligned}E_{n-1}(d_{n})&=E_{n-1}\left(\sum _{k=1}^{n}(\gamma _{k}+E_{k-1}(\epsilon _{k}))\mathbf {1} _{\{s\geq k\}}\right)\\&=E_{n-1}\left(\sum _{k=1}^{n-1}(\gamma _{k}+E_{k-1}(\epsilon _{k}))\mathbf {1} _{\{s\geq k\}}\right)+E_{n-1}{\big (}(\gamma _{n}+E_{n-1}(\epsilon _{n}))\mathbf {1} _{\{s\geq k\}}{\big )}\\&=d_{n-1}+E_{n-1}{\big (}\gamma _{n}{\big )}\mathbf {1} _{\{s\geq k\}}+E_{n-1}{\big (}E_{n-1}(\epsilon _{n}){\big )}\mathbf {1} _{\{s\geq k\}}\\&=d_{n-1}+-E_{n-1}(\epsilon _{n})\mathbf {1} _{\{s\geq k\}}+E_{n-1}(\epsilon _{n})\mathbf {1} _{\{s\geq k\}}\\&=d_{n-1}.\end{aligned}}}

De manera análoga, se obtiene el resultado para b {\displaystyle b} .

A continuación, mostraremos que d = ( d 1 , d 2 , ) {\displaystyle d=(d_{1},d_{2},\dots )} y b = ( b 1 , b 2 , ) {\displaystyle b=(b_{1},b_{2},\dots )} satisfacen las propiedades enunciadas.

Observamos que

b n = k = 1 n β k = k = 1 n ( ϵ k E k 1 ( ϵ k ) ) 1 { s k } {\displaystyle b_{n}=\sum _{k=1}^{n}\beta _{k}=\sum _{k=1}^{n}\left(\epsilon _{k}-E_{k-1}(\epsilon _{k})\right)\mathbf {1} _{\{s\geq k\}}}

es absolutamente convergente, ya que

k = 1 | β k | 2 k = 1 ϵ k = 2 k = 1 d f k 1 { t = k } = 2 d f t 1 { t } 2 f t 1 { t } 2 f 1 . {\displaystyle {\begin{aligned}\int \sum _{k=1}^{\infty }|\beta _{k}|&\leq 2\int \sum _{k=1}^{\infty }\epsilon _{k}=2\int \sum _{k=1}^{\infty }df_{k}\mathbf {1} _{\{t=k\}}=2\int df_{t}\mathbf {1} _{\{t\leq \infty \}}\\&\leq 2\int f_{t}\mathbf {1} _{\{t\leq \infty \}}\leq 2\|f\|_{1}\leq \infty .\end{aligned}}}

Ahora estudiaremos la martingala d {\displaystyle d} . Para cada n 1 {\displaystyle n\geq 1} ,

d n = k = 1 n δ k = k = 1 n ( γ k + E k 1 ( ϵ k ) ) 1 { s k } . {\displaystyle d_{n}=\sum _{k=1}^{n}\delta _{k}=\sum _{k=1}^{n}(\gamma _{k}+E_{k-1}(\epsilon _{k}))\mathbf {1} _{\{s\geq k\}}.}

Para todo n 1 {\displaystyle n\geq 1} ,

| k = 1 n γ k | = | k = 1 n d f k 1 { r > k } | = | k = 1 n ( f k f k 1 ) 1 { r > k } | λ . {\displaystyle \left|\sum _{k=1}^{n}\gamma _{k}\right|=\left|\sum _{k=1}^{n}df_{k}\mathbf {1} _{\{r>k\}}\right|=\left|\sum _{k=1}^{n}(f_{k}-f_{k-1})\mathbf {1} _{\{r>k\}}\right|\leq \lambda .}

Además,

0 k = 1 n E k 1 ( ϵ k ) 1 { s k } k = 0 s 1 E k ( ϵ k + 1 ) λ . {\displaystyle 0\leq \sum _{k=1}^{n}E_{k-1}(\epsilon _{k})\mathbf {1} _{\{s\geq k\}}\leq \sum _{k=0}^{s-1}E_{k}(\epsilon _{k+1})\leq \lambda .}

Por lo tanto, combinando ambos resultados,

d = sup n d n = sup n k = 1 n ( γ k E k 1 ( ϵ k ) ) 1 { s k } 2 λ . {\displaystyle \|d\|_{\infty }=\sup _{n}\|d_{n}\|_{\infty }=\sup _{n}\left\|\sum _{k=1}^{n}(\gamma _{k}E_{k-1}(\epsilon _{k}))\mathbf {1} _{\{s\geq k\}}\right\|_{\infty }\leq 2\lambda .}

También tenemos que

k = 1 γ k 1 = k = 1 d f k 1 { r k } 1 k = 1 r 1 d f k 1 f 1 , {\displaystyle \left\|\sum _{k=1}^{\infty }\gamma _{k}\right\|_{1}=\left\|\sum _{k=1}^{\infty }df_{k}\mathbf {1} _{\{r\geq k\}}\right\|_{1}\leq \left\|\sum _{k=1}^{r-1}df_{k}\right\|_{1}\leq \|f\|_{1},}

y

k = 1 E k 1 ( ϵ k ) 1 = k = 1 E k 1 ( d f k ) 1 { r = k } 1 d f r 1 C f 1 . {\displaystyle \left\|\sum _{k=1}^{\infty }E_{k-1}(\epsilon _{k})\right\|_{1}=\left\|\sum _{k=1}^{\infty }E_{k-1}(df_{k})\mathbf {1} _{\{r=k\}}\right\|_{1}\leq \|df_{r}\|_{1}\leq C\|f\|_{1}.}

Entonces, concluimos que para todo n 1 {\displaystyle n\geq 1} ,

k = 1 n δ k 1 k = 1 ( γ k + E k 1 ( ϵ k ) ) 1 { s k } 1 C f 1 . {\displaystyle \left\|\sum _{k=1}^{n}\delta _{k}\right\|_{1}\leq \left\|\sum _{k=1}^{\infty }\left(\gamma _{k}+E_{k-1}(\epsilon _{k})\right)\mathbf {1} _{\{s\geq k\}}\right\|_{1}\leq C\|f\|_{1}.}

Finalmente, combinando las estimaciones anteriores, obtenemos que

k = 1 δ k 2 2 | k = 1 δ k | 2 2 λ | k = 1 δ k | C λ f 1 . {\displaystyle \left\|\sum _{k=1}^{\infty }\delta _{k}\right\|_{2}^{2}\leq \int {\Big |}\sum _{k=1}^{\infty }\delta _{k}{\Big |}^{2}\leq 2\lambda \int {\Big |}\sum _{k=1}^{\infty }\delta _{k}{\Big |}\leq C\lambda \|f\|_{1}.}

Aplicaciones

La descomposición de Gundy ha sido empleada en varias ramas del análisis como herramienta fundamental para demostrar teoremas y proposiciones.

Sin embargo, es mayormente conocida en el campo del análisis matemático. En particular, la descomposición de Gundy permite estudiar de una manera más simple acotaciones para operadores en un espacio de Lebesgue (espacios Lp). Además, la idea intuitiva puede ser también escalada para martingalas que toman valores en espacios de Banach separables, convirtiéndola, pues, en un básico de la teoría moderna del análisis.

Como ejemplo, el teorema de la descomposición de Gundy se utiliza para demostrar una cota de tipo débil (1,1) para operadores de clase B {\displaystyle {\mathcal {B}}} .

Operadores de clase B

Se define un operador de clase B {\displaystyle {\mathcal {B}}} a toda función T {\displaystyle T} que cumple:

  • Su dominio es una colección de secuencias de variables aleatorias cerrada bajo la suma.
  • Su rango es una colección de variables aleatorias.

El operador satisface las siguientes inecuaciones:

  • | T ( f + g ) | C ( | T f | + | T g | ) {\displaystyle |T(f+g)|\leq C(|Tf|+|Tg|)} .
  • P ( | T f | 0 ) C P ( f 0 ) {\displaystyle P(|Tf|\neq 0)\leq CP(f^{*}\neq 0)} .
  • T f 2 C f 2 {\displaystyle \|Tf\|_{2}\leq C\|f\|_{2}} .
  • Si f = ( f 1 , f 2 , ) {\displaystyle f=(f_{1},f_{2},\dots )} donde f n = k = 1 n d f n {\displaystyle f_{n}=\sum _{k=1}^{n}df_{n}} , entonces T f 1 C k = 1 n | d f k | 1 {\displaystyle \|Tf\|_{1}\leq C\|\sum _{k=1}^{n}|df_{k}|\|_{1}} .

El teorema de la descomposición de la variación cuadrática es una herramienta fundamental para demostrar que dichos operadores son de tipo débil-(1,1). El resultado formal se enuncia a continuación:

Sea f {\displaystyle f} una martingala acotada en L 1 {\displaystyle L^{1}} y sea T {\displaystyle T} un operador que pertenece a la clase B {\displaystyle {\mathcal {B}}} . Entonces, para λ > 0 {\displaystyle \lambda >0} real, se tiene:

P ( | T f | > λ ) C | f | 1 λ . {\displaystyle P(|Tf|>\lambda )\leq {\frac {C|f|_{1}}{\lambda }}.}

Véase también

  • Para consultar otro ejemplo de descomposición, en este caso aplicado al caso R n {\displaystyle \mathbb {R} ^{n}} , consultar la descomposición de Calderón-Zygmund [1]

Referencias

Burkholder, D. L. (1966). Martingale transforms. The Annals of Mathematical Statistics, 37(6), 1494-1504.1

Gundy, R. (1969). On the class LlogL, martingales, and singular integrals. Studia Mathematica, 1(33), 109-118.2

Burkholder, D. L. (1973). Distribution function inequalities for martingales. the Annals of Probability, 1(1), 19-42.3

Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q7268374
  • Wd Datos: Q7268374