7 Wartość oczekiwana: definicja i własności
Definicja 7.1 Niech \(X\) będzie zmienną losową określoną na przestrzeni probabilistycznej \((\Omega, \mathcal{F}, \mathbb{P})\). Mówimy, że \(X\) ma wartość oczekiwaną jeżeli \[ \int_\Omega |X| \mathrm{d} \mathbb{P} = \int_\Omega |X(\omega)|\mathbb{P}(\mathrm{d}\omega) <\infty. \] Wówczas wartością oczekiwaną zmiennej losowej \(X\) nazywamy liczbę \[ \mathbb{E}[ X ] = \int_\Omega X \mathrm{d}\mathbb{P} = \int_{\Omega}X(\omega) \mathbb{P}(\mathrm{d}\omega). \]
Przykład 7.1 Rzucamy kostką. Niech \(X\) oznacza liczbę wyrzuconych oczek. Wówczas, dla \(\Omega = [6]=\{1,2, \ldots, 6\}\), \[\begin{equation*} \mathbb{E}[X] = \sum_{k=1}^6 k \mathbb{P}[\{ k\}] = 3,5. \end{equation*}\]
Jak widzimy po powyższym przykładzie nazwy “wartość oczekiwana” nie należy interpretować dosłownie. W rzucie kostką nie będziemy oczekiwać wartości \(3,5\).
Zauważmy, że jeżeli \(\Omega = \{\omega_j\}_j\) jest przestrzenią dyskretną i \(\mathbb{P}[\{\omega_i\}]=p_i\), to \[ \mathbb{E} [X] =\sum_{i=1}^n X(\omega_i)p_i. \] Wartość oczekiwaną należy rozumieć jako średnią ważoną \(X\).
Istnieje jeszcze jedno spojrzenie na wartość oczekiwaną. Załóżmy, że rzucamy kostką \(n\) razy. Niech \(X_j\) oznacza wynik \(j\)tego rzutu. Wówczas średnia empiryczna (uzyskanych wyników) to \[\begin{equation*} \frac 1n \sum_{j=1}^n X_j. \end{equation*}\] Możemy ją napisać równoważnie jako \[\begin{multline*} \frac 1n \sum_{j=1}^n X_j= 1 \frac{\# \{ j \leq n \: : \: X_j=1\}}{n}+ 2 \frac{\# \{ j \leq n \: : \: X_j=2\}}{n}+ \ldots\\ +6 \frac{\# \{ j \leq n \: : \: X_j=6\}}{n}. \end{multline*}\] Jeżeli \(n\) jest bardzo duże, to spodziewamy się, że \[\begin{equation*} \frac{\# \{ j \leq n \: : \: X_j=k\}}{n} \to \mathbb{P}[\{k\}]=\frac 16. \end{equation*}\] Dokładne uzasadnienie powyższego faktu zobaczymy w dalszej części wykładu. Chcąc zaagitować za naturalnością przyjętej przez nas definicji wartości oczekiwanej przyjmijmy go chwilowo za prawdziwy. Wówczas średnia empiryczna zbiega do \[\begin{equation*} \frac 1n \sum_{j=1}^n X_j \to \sum_{k=1}^6 k \mathbb{P}[\{ k\}] \end{equation*}\] czyli wartości oczekiwanej wyniku jednego rzutu. Powyższy heurystyczny argument nie jest zależny od wyważenia czy też liczby ścian na kostce.
Przykład 7.2 Dwaj gracze \(A\) i \(B\) grają w następującą grę. Rzucają kostką. Niech \(k\) będzie wynikiem rzutu. Jeżeli \(k\) jest nieparzyste, to \(A\) wygrywa \(k\) złotych, jeżeli \(k\) jest parzyste, to \(B\) wygrywa \(k\) złotych. Czy gra jest uczciwa?
Niech \(X\) oznacza wygraną gracza \(A\) podczas jednej rundy, wtedy \[\begin{multline*} \mathbb{E} X = 1\cdot \mathbb{P}[X=1] - 2\cdot \mathbb{P}[X=2] + 3\cdot \mathbb{P}[X=3] \\ - 4\cdot \mathbb{P}[X=4] + 5\cdot \mathbb{P}[X=5] - 6\cdot \mathbb{P}[X=6]= -\frac 12. \end{multline*}\] Jeżeli wykonamy \(n\) rzutów i przez #X_j$ oznaczymy wygraną gracza \(A\) w \(k\)tym rzucie, to stan portfela gracza \(A\) po \(n\) rzutach wyniesie \[\begin{equation*} \sum_{k=1}^nX_k. \end{equation*}\] Dla dużych wartości \(n\) powyższa suma jest w przybliżeniu równa \(n\mathbb{E}[X]=-n/2\). Powyższa gra nie jest zatem uczciwa. Z czasem gracz \(A\) zacznie tracić duże ilości gotówki co widać na symulacji poniżej. Wykres przedstawia stan portfela gracza \(A\) w trakcie rozgrywki.Wartość oczekiwana jest najważniejszym parametrem decydującym o opłacalności np. gier hazardowych. How MIT Students Won 8 Millions in the Massachusetts Lottery.
Twierdzenie 7.1 Załóżmy, że \(X\) i \(Y\) są zmiennymi losowymi takimi, że \(\mathbb{E} X\) i \(\mathbb{E} Y\) istnieją. Wtedy
- Jeżeli \(X\ge 0\), to \(\mathbb{E} [X] \ge 0\).
- \(|\mathbb{E} [X]| \le \mathbb{E} [|X|]\).
- Dla dowolnych \(a,b\in \mathbb{R}\) \[ \mathbb{E}[aX+bY] = a\mathbb{E} [X] + b\mathbb{E}[Y]. \]
Proof. Wszystkie własności są konsekwencją definicji wartości oczekiwanej jako całki z funkcji mierzalnej \(X\). Trzeci punkt wynika z liniowości całki \[\begin{multline*} \mathbb{E}[AX+bY] = \int_\Omega aX+bY \mathrm{d}\mathbb{P} =\\ a\int_\Omega X\mathrm{d}\mathbb{P} + b\int_\Omega Y \mathrm{d}\mathbb{P} =a\mathbb{E}[X]+b\mathbb{E}[Y]. \end{multline*}\]
Jeżeli \(X \geq 0\), to \[\begin{equation*} \mathbb{E}[X]=\int_\Omega X \mathrm{d}\mathbb{P} \geq 0. \end{equation*}\] Podobnie jeżeli \(X \geq Y\), to \[\begin{equation*} \int_\Omega X \mathrm{d}\mathbb{P} \geq \int_\Omega Y \mathrm{d}\mathbb{P} \end{equation*}\] poprzez chociażby zastosowanie poprzedniego pierwszego punktu do zmiennej losowej \(X'=X-Y\). Skoro \(-|X|\leq X \leq |X|\), to \[\begin{equation*} -\int_\Omega |X| \mathrm{d}\mathbb{P} \leq \int_\Omega X \mathrm{d}\mathbb{P} \leq \int_\Omega |X| \mathrm{d}\mathbb{P} \end{equation*}\] czyli \[\begin{equation*} -\mathbb{E}[|X|]\leq \mathbb{E}[X] \leq \mathbb{E}[|X|] \end{equation*}\] co pociąga drugi punkt.
Przykład 7.3 Rzucamy \(100\) razy kostką. Niech \(X\) oznacza sumę wyrzuconych oczek. Jaka jest wartość oczekiwana \(X\)? Bezpośrednie użycie definicji jest kłopotliwe, ponieważ przestrzeń zdarzeń elementarnych jest bardzo duża. Rozważymy inne podejście. Niech \(X_i\) oznacza liczbę oczek uzyskanych w \(i\)-tym rzucie. Wtedy \[ X = \sum_{i=1}^{100} X_i. \] Ponadto \(\mathbb{E} X_i = 3,5\). Zatem z liniowości wartości oczekiwanej \[ \mathbb{E} [X] = \sum_{i=1}^{100} \mathbb{E} [X_i] = 350. \]
Przykład 7.4 Niech \(\sigma\) będzie losową permutacją zbioru \(\{1,\ldots,n\}\) (losujemy jednostajnie element grupy permutacji \(S_n\)). Niech \(X\) oznacza liczbę punktów stałych. Obliczymy \(\mathbb{E} X\). Ten przykład ma wiele alternatywnych sformułowań np. wkładamy losowo \(n\) listów do zaadresowanych kopert, ilu adresatów otrzyma właściwy list. Oznaczmy \[X_i = \left\{\begin{array}{cc} 1 & \mbox{ jeżeli $i$-ty punkt jest stały} \\ 0 & \mbox{ jeżeli $i$-ty punkt nie jest stały} \end{array} \right. \] Jeżeli oznaczymy przez \(A_i\) zdarzenie, że \(i\)-ty punkt jest stały, to \(X_i = \mathbf{1}_{A_i}\). Wtedy \[ \mathbb{E} [X_i] = \int_\Omega \mathbf{1}_{A_i}(\omega) \mathbb{P}(\mathrm{d}\omega) = \mathbb{P}[A_i] = 1/n \] oraz \(X = \sum_{i=1}^n X_i\), stąd \[\mathbb{E} [X] = \sum_{i=1}^n \mathbb{E} [X_i] = n\cdot \frac 1n = 1.\]
Twierdzenie 7.2 Załóżmy, że \(\{X_n\}_{n \in \mathbb{N}}\) jest ciągiem zmiennych losowych takich, że \(\mathbb{E} [X_n]\) istnieją. Wtedy
- (Lemat Fatou) Jeżeli \(X\ge 0\), to \[ \mathbb{E} \left[\liminf_{n\to\infty} X_n\right] \le \liminf_{n\to\infty} \mathbb{E} \left[X_n\right] \]
- (tw. o zbieżności monotonicznej) Jeżeli \(X_n\ge 0\) oraz \(\{X_n\}_{n \in \mathbb{N}}\) jest ciągiem monotonicznym, to \[ \mathbb{E} \left[\lim_{n\to\infty} X_n \right]= \lim_{n\to\infty} \mathbb{E} \left[X_n\right] \]
- (tw. Lebesgue’a o zbieżności zmajoryzowanej) Jeżeli \(|X_n|\le Y\) dla pewnej zmiennej losowej \(Y\) takiej, że \(\mathbb{E} |Y|<\infty\) oraz istnieje granica \(\lim_{n\to\infty} X_n(\omega) = X(\omega)\) dla \(\mathbb{P}\)p.k.\(\omega\), to \[ \mathbb{E} [X] = \mathbb{E}\left[ \lim_{n\to\infty} X_n\right] = \lim_{n\to\infty} \mathbb{E} \left[X_n\right]. \]