nmsa202/stochasticke-nerovnosti.tex

58 lines
3.1 KiB
TeX

\section{Stochastické nerovnosti}
V této kapitole budeme studovat užitečné nerovnosti, které budeme moci aplikovat pro odhady některých statistických veličin. Začneme odhady pro hodnoty pravděpodobnosti samotné (tzv. nerovnosti Markovovského typu)
\begin{theorem}[Markovova nerovnost]
\label{thm-markov-inequality}
Nechť $X$ je nezáporná náhodná veličina a předpokládejme, že $\E X$ existuje. Potom pro každé $\varepsilon > 0$ platí
$$ P[X \geq \varepsilon] \leq \frac{\E X}{\varepsilon}. $$
\end{theorem}
\begin{proof}
Z předpokladu máme, že $X \geq 0$, tedy $P[X \geq 0] = 1$ a $P[X < 0] = 1 - 1 = 0$. Z toho plyne, že
$$ \int_{\{\omega\in\Omega: X(\omega) < 0\}} dP(\omega) = 0. $$
Potom pro $\varepsilon > 0$ máme, že pravděpodobnost
$$ P[X \geq \varepsilon] = \int_{\{\omega\in\Omega: X(\omega) \geq \varepsilon\}} dP(\omega) \leq \int_{\{\omega \in \Omega: X(\omega) \geq \varepsilon\}} \frac{X(\omega)}{\varepsilon} dP(\omega) \leq $$
$$ \int_\Omega \frac{X(\omega)}{\varepsilon} dP(\omega) = \frac{1}{\varepsilon} \int_\Omega X(\omega)dP(\omega) = \frac{\E X}{\varepsilon},$$
kde první nerovnost platí díky tomu, že $X(\omega) > \varepsilon$ a tedy $\frac{X(\omega)}{\varepsilon} > 1$.
\end{proof}
\begin{corollary}[Zobecněná Markovova nerovnost]
\label{thm-generalized-markov}
Nechť $X$ je nezáporná náhodná veličina a předpokládejme, že $\E X^r$ existuje pro nějaké $r > 0$. Potom pro každé $\varepsilon > 0$ platí
$$ P[X \geq \varepsilon] \leq \frac{\E X^r}{\varepsilon^r}. $$
\end{corollary}
\begin{proof}
Nechť $Y := X^r$, $\tilde{\varepsilon} = \varepsilon^r$, poté použijeme předchozí větu pro $P[Y \leq \tilde{\varepsilon}]$.
\end{proof}
\begin{theorem}[Čebyševova nerovnost]
Nechť $X$ je náhodná veličina a předpokládejme, že $\E[X]$ existuje, potom pro každé $\varepsilon > 0$ platí
$$ P[|X - \E X| \geq \varepsilon] \leq \frac{\Var[X]}{\varepsilon^2}. $$
\end{theorem}
\begin{proof}
Položme $Y = |X - \E X| \geq 0$ a $\tilde{\varepsilon} = \varepsilon^2$, potom stačí aplikovat Větu \ref{thm-markov-inequality}.
\end{proof}
Dále si uvedeme několik nerovnosti, které přímo poskytují odhad pro střední hodnotu.
\begin{theorem}[Cauchy-Schwarzova nerovnost]
\label{thm-cauchy-schwarz}
Pokud mají náhodné veličiny $X$ a $Y$ konečné rozptyly, potom
$$ |\E XY| \leq \sqrt{\E X^2 \E Y^2} \text{ a } |\Cov(X, Y)| \leq \sqrt{\Var X \Var Y}.$$
\end{theorem}
\begin{proof}
Plyne z důkazu vlastnosti (ii) ve Větě \ref{thm-props-cov-corr} o vlastnostech kovariance a korelace.
\end{proof}
\begin{theorem}[Jensenova nerovnost]
\label{thm-jensen-inequality}
Pokud je $g$ konvexní, pak $\E g(X) \geq g(\E X)$. Dále, pokud je $g$ konkávní $\E g(X) \leq g(\E X)$.
\end{theorem}
\begin{proof}
Nechť máme $t(x) = a + tx$ tečna k funkci $g$ v bodě $\E X$. Pokud $g$ je konvexní, pak $t(x) \leq g(x)$ pro všechna $x \in \R$. Také platí $t(\E X) = g(\E X)$. Potom $E[g(X)] \geq E[t(X)] = E[a + bX] = a + b\E X= t(\E X) = g(\E X)$. Pro konkávní $g$ se tvrzení dokáže analogicky.
\end{proof}