Bedingte Unabhängigkeit

Die bedingte Unabhängigkeit ist in der Wahrscheinlichkeitstheorie eine mathematische Verallgemeinerung der stochastischen Unabhängigkeit von Ereignissen, Mengensystemen und Zufallsvariablen mittels der bedingten Wahrscheinlichkeit und des bedingten Erwartungswertes. Die bedingte Unabhängigkeit findet beispielsweise Anwendung bei Aussagen über austauschbare Familien von Zufallsvariablen.

Definition

Dieser Artikel oder Abschnitt bedarf einer grundsätzlichen Überarbeitung. Näheres sollte auf der siehe Diskussion angegeben sein. Bitte hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Gegeben sei ein Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} , sowie eine Unter-σ-Algebra A {\displaystyle {\mathcal {A}}} von Σ {\displaystyle \Sigma } . Sei P ( | A ) {\displaystyle P(\cdot |{\mathcal {A}})} die bedingte Wahrscheinlichkeit gegeben A {\displaystyle {\mathcal {A}}} .

Eine Familie von Teil-σ-Algebren ( A i ) i I {\displaystyle ({\mathcal {A}}_{i})_{i\in I}} von Σ {\displaystyle \Sigma } heißt bedingt unabhängig gegeben A {\displaystyle {\mathcal {A}}} , wenn für jede endliche Teilmenge J {\displaystyle J} von I {\displaystyle I} und jede beliebige Wahl von A j A j {\displaystyle A_{j}\in {\mathcal {A}}_{j}} mit j J {\displaystyle j\in J} gilt, dass

P ( j J A j | A ) = j J P ( A j | A ) {\displaystyle P\left(\bigcap _{j\in J}A_{j}|{\mathcal {A}}\right)=\prod _{j\in J}P(A_{j}|{\mathcal {A}})} .

Aufgrund der Eigenschaften der bedingten Wahrscheinlichkeit ist die Identität als P-fast sicher zu verstehen.

Eine Familie von Zufallsvariablen ( X i ) i I {\displaystyle (X_{i})_{i\in I}} heißt bedingt unabhängig gegeben A {\displaystyle {\mathcal {A}}} , wenn die Familie der erzeugten σ-Algebren ( σ ( X i ) ) i I {\displaystyle (\sigma (X_{i}))_{i\in I}} bedingt unabhängig gegeben A {\displaystyle {\mathcal {A}}} ist.

Bemerkungen und Eigenschaften

  • Angelehnt an die Formulierung "unabhängig identisch verteilt" definiert man mittels der bedingten Wahrscheinlichkeit eine Familie von Zufallsvariablen als unabhängig identisch verteilt gegeben A {\displaystyle {\mathcal {A}}} , wenn die Familie unabhängig gegeben A {\displaystyle {\mathcal {A}}} ist und die bedingten Verteilungen P ( { X i } | A ) {\displaystyle P(\{X_{i}\in \cdot \}|{\mathcal {A}})} alle gleich sind.
  • Beispielsweise ist jede Familie von Teil-σ-Algebren von A {\displaystyle {\mathcal {A}}} immer unabhängig gegeben A {\displaystyle {\mathcal {A}}} , genauso wie jede unabhängige Familie von σ-Algebren (im Sinne der Unabhängigkeit eines Mengensystems) immer unabhängig gegeben die triviale σ-Algebra { , Ω } {\displaystyle \{\emptyset ,\Omega \}} ist.

Elementare bedingte Unabhängigkeit für Ereignisse

Zwei Ereignisse A {\displaystyle A} und B {\displaystyle B} sind bedingt (stochastisch) unabhängig gegeben C {\displaystyle C} für ein Ereignis C {\displaystyle C} mit P ( C ) > 0 {\displaystyle P(C)>0} , genau dann, wenn

P ( A B C ) = P ( A C ) P ( B C ) . {\displaystyle P(A\cap B\mid C)=P(A\mid C)P(B\mid C)\;.}

Im Fall P ( B ) > 0 {\displaystyle P(B)>0} folgt

P ( A B C ) = P ( A C ) . {\displaystyle P(A\mid B\cap C)=P(A\mid C)\;.}

Im Fall P ( A ) > 0 {\displaystyle P(A)>0} folgt

P ( B A C ) = P ( B C ) . {\displaystyle P(B\mid A\cap C)=P(B\mid C)\;.}

Eine der beiden letzten Gleichungen wird manchmal auch zur Definition der bedingten Unabhängigkeit von Ereignissen verwendet. Für positive Wahrscheinlichkeiten sind die drei Gleichungen äquivalent.

Eine übliche Notation ist A B C {\displaystyle A\perp \!\!\!\perp B\mid C} , wenn A {\displaystyle A} und B {\displaystyle B} bedingt unabhängig gegeben C {\displaystyle C} sind. Diese Notation ist als ( A B ) C {\displaystyle (A\perp \!\!\!\perp B)\mid C} zu verstehen, aber nicht als A ( B C ) {\displaystyle A\perp \!\!\!\perp (B\mid C)} .

Literatur

  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.