prednaska 24.3.2025 -- PDF

This commit is contained in:
Petr Velička 2025-03-24 10:37:49 +01:00
parent b0b2c8d436
commit a6f2ce8649
Signed by: petrvel
GPG key ID: E8F909AFE649174F
5 changed files with 91 additions and 2 deletions

View file

@ -179,6 +179,7 @@ Dále si všimneme, že z pravidla líného statistika (Věta \ref{thm-lazy-stat
Dále si zformulujeme několik vlastností kovariance a korelace.
\begin{theorem}
\label{thm-props-cov-corr}
Pro náhodné veličiny $X$ a $Y$ platí následující tvrzení (jsou-li příslušné matematické objekty dobře definovány).
\begin{enumerate}[(i)]
\item $\Cov(X, Y) = \E (XY) - \E X \E Y$;
@ -193,14 +194,14 @@ Dále si zformulujeme několik vlastností kovariance a korelace.
$$ \Cov(X, Y) = \E [(X - \E X) (Y - \E Y)] = \E (XY) - \E X \E Y, $$
kde druhá rovnost se získá roznásobením závorek analogicky s důkazem předchozí věty. Z tohoto okamžitě plyne vlastnost (iv), neboť nezávislost $X$ a $Y$ implikuje, že $\E (XY) = \E X \E Y$.
K důkazu vlastnosti (ii) použijeme Cauchyovu-Schwarzovu nerovnost. Definujeme funkci $g(a) := \E (aX - Y)^2$, potom
K důkazu vlastnosti (ii) použijeme Cauchyovu-Schwarzovu nerovnost (Věta \ref{thm-cauchy-schwarz}), kterou si zde dokážeme. Definujeme funkci $g(a) := \E (aX - Y)^2$, potom
$$ 0 \leq \E (aX - Y)^2 = \E (a^2X^2 - 2aXY + Y^2) = a^2\E X^2 - 2a\E XY + \E Y. $$
Funkci $g(a)$ můžeme zderivovat, dostáváme
$$ g'(a) = 2a\E X^2 - 2\E XY, $$
svého minima tedy funkce $g$ nabývá v bodě $\frac{\E XY}{\E X^2}$ (bez újmy na obecnosti $\E X^2 \neq 0$, v opačném případě máme $X = 0$ skoro jistě, z čehož vlastnosti z věty plynou triviálně).
Dosadíme tuto hodnotu do předpisu funkce $g(a)$ a dostáváme.
$$ g\left(\frac{\E XY}{\E X^2}\right) = \frac{(\E XY)^2}{\E X^2} - 2 \frac{(\E XY^2)}{\E X^2} + \E Y^2 \geq 0. $$
Z toho již plyne, že $(\E XY)^2 \leq (\E X^2)(\E Y^2)$, z čehož plyne požadované tvrzení.
Z toho již plyne, že $(\E XY)^2 \leq (\E X^2)(\E Y^2)$ (dokázali jsme Cauchy-Schwarze!), z čehož plyne požadované tvrzení.
Vlastnost (iii) budeme dokazovat po implikacích. Nejdříve předpokládejme, že $Y = aX + b$ pro nějaká $a, b \in \R$. Potom máme
$$ \Cov (X, Y) = \Cov(X, aX + b) = \E [X(aX + b)] - \E X \E (aX + b) = $$