prednaska 17.3.2025 + stylisticke upravy

This commit is contained in:
Petr Velička 2025-03-17 15:36:00 +01:00
parent d2ea0ce2de
commit 1afdc67aee
Signed by: petrvel
GPG key ID: E8F909AFE649174F
5 changed files with 221 additions and 88 deletions

View file

@ -37,7 +37,7 @@ Každé události $A \in \mathcal{A}$ přiřadíme číslo $\mathbb{P}(A)$, kter
Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. Zobrazení $P: \mathcal{A} \rightarrow [0, 1]$ nazýváme \textit{pravděpodobnostní mírou (pravděpodobností)}, jestliže: Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. Zobrazení $P: \mathcal{A} \rightarrow [0, 1]$ nazýváme \textit{pravděpodobnostní mírou (pravděpodobností)}, jestliže:
\begin{enumerate}[(i)] \begin{enumerate}[(i)]
\item $P(\Omega) = 1$, \item $P(\Omega) = 1$,
\item Pro libovolné po dvou disjunktní měřitelné množiny $A_i \in \mathcal{A}$, $i \in \mathbb{N}$ platí \item Pro libovolné po dvou disjunktní měřitelné množiny $A_i \in \mathcal{A}$, $i \in \N $ platí
$P(\bigcup_{i=1}^{\infty}A_i) = \sum_{i=1}^{\infty} P(A_i)$. $P(\bigcup_{i=1}^{\infty}A_i) = \sum_{i=1}^{\infty} P(A_i)$.
\end{enumerate} \end{enumerate}
@ -135,7 +135,7 @@ Poznamenejme si několik základních vlastností podmíněné pravděpodobnosti
Vlastnost (ii) se dokáže následujícím protipříkladem, uvažujme hod dvěma férovými mincemi. Nechť $H_1$ je událost ``padla aspoň jedna panna" a $H_2$ událost ``padly dvě panny". Potom $P(H_1|H_2) = 1$ ale $P(H_2|H_1) = \frac{1}{3}$. Důkaz obecného vztahu je ponechán čtenáři jako snadné (ale užitečné) cvičení. Vlastnost (ii) se dokáže následujícím protipříkladem, uvažujme hod dvěma férovými mincemi. Nechť $H_1$ je událost ``padla aspoň jedna panna" a $H_2$ událost ``padly dvě panny". Potom $P(H_1|H_2) = 1$ ale $P(H_2|H_1) = \frac{1}{3}$. Důkaz obecného vztahu je ponechán čtenáři jako snadné (ale užitečné) cvičení.
Nakonec, vlastnost (i) je důsledkem toho, že pro libovolnou množinu $A \in \mathcal{A}$ je $A \cap B$ měřitelná, a navíc pro libovolný systém po dvou disjunktních množin $A_i, i \in \mathbb{N}$ platí $P(\bigcup_{i=1}^\infty A_i | B) = \frac{1}{P(B)} P\left(\left(\bigcup_{i=1}^\infty A_i\right) \cap B\right) = $\\ Nakonec, vlastnost (i) je důsledkem toho, že pro libovolnou množinu $A \in \mathcal{A}$ je $A \cap B$ měřitelná, a navíc pro libovolný systém po dvou disjunktních množin $A_i, i \in \N $ platí $P(\bigcup_{i=1}^\infty A_i | B) = \frac{1}{P(B)} P\left(\left(\bigcup_{i=1}^\infty A_i\right) \cap B\right) = $\\
$\frac{1}{P(B)} P\left(\bigcup_{i=1}^\infty (A_i \cap B)\right) = \frac{1}{P(B)} \sum_{i=1}^\infty P(A_i \cap B) = \sum_{i=1}^\infty P(A_i|B)$. $\frac{1}{P(B)} P\left(\bigcup_{i=1}^\infty (A_i \cap B)\right) = \frac{1}{P(B)} \sum_{i=1}^\infty P(A_i \cap B) = \sum_{i=1}^\infty P(A_i|B)$.
\end{proof} \end{proof}
@ -168,17 +168,17 @@ Na závěr uvedeme dvě velmi užitečné věty, které se často používají v
\begin{theorem}[Zákon úplné pravděpodobnosti] \begin{theorem}[Zákon úplné pravděpodobnosti]
\label{thm-complete-probability} \label{thm-complete-probability}
Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \mathbb{N}$. Potom pro libovolnou událost $B \in \mathcal{A}$ platí: Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \N $. Potom pro libovolnou událost $B \in \mathcal{A}$ platí:
$$P(B) = \sum_{i=1}^\infty P(B|A_i) P(A_i).$$ $$P(B) = \sum_{i=1}^\infty P(B|A_i) P(A_i).$$
\end{theorem} \end{theorem}
\begin{proof} \begin{proof}
Definujme posloupnost množin $C_i = B \cap A_i$ pro $i\in \mathbb{N}$. Zjevně $\{C_i, i \in \mathbb{N}\}$ je disjunktní pokrytí $B$. Potom $P(B) = \sum_{i=1}^\infty P(C_i) = \sum_{i=1}^\infty P(B \cap A_i) = \sum_{i=1}^\infty P(B|A_i)P(A_i)$. Definujme posloupnost množin $C_i = B \cap A_i$ pro $i\in \N $. Zjevně $\{C_i, i \in \N \}$ je disjunktní pokrytí $B$. Potom $P(B) = \sum_{i=1}^\infty P(C_i) = \sum_{i=1}^\infty P(B \cap A_i) = \sum_{i=1}^\infty P(B|A_i)P(A_i)$.
\end{proof} \end{proof}
\begin{theorem}[Bayes] \begin{theorem}[Bayes]
\label{thm-bayes} \label{thm-bayes}
Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \mathbb{N}$. Mějme událost $B \in \mathcal{A}$ s nenulovou pravděpodobností. Potom platí: Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \N $. Mějme událost $B \in \mathcal{A}$ s nenulovou pravděpodobností. Potom platí:
$$P(A_i|B) = \frac{P(B|A_i)P(A_i)}{\sum_{j=1}^\infty P(B|A_j)P(A_j)}.$$ $$P(A_i|B) = \frac{P(B|A_i)P(A_i)}{\sum_{j=1}^\infty P(B|A_j)P(A_j)}.$$
\end{theorem} \end{theorem}

View file

@ -4,13 +4,13 @@ V této kapitole se budeme věnovat náhodným veličinám, což bude formalizov
\begin{definition} \begin{definition}
Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. \textit{Náhodná veličina} je měřitelné zobrazení, které přiřazuje každému výsledku $\omega$ reálné číslo $X(\omega)$. Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. \textit{Náhodná veličina} je měřitelné zobrazení, které přiřazuje každému výsledku $\omega$ reálné číslo $X(\omega)$.
Jinými slovy, $\{\omega \in \Omega: X(\omega) \leq x\} \in \mathcal{A} \forall x\in\mathbb{R}$. Jinými slovy, $\{\omega \in \Omega: X(\omega) \leq x\} \in \mathcal{A} \forall x\in\R $.
\end{definition} \end{definition}
\hfill \textit{konec 2. přednášky (18.2.2025)} \hfill \textit{konec 2. přednášky (18.2.2025)}
\begin{convention} \begin{convention}
Zavedeme značení $[X \in B] = \{\omega: X(\omega) \in B\}, [X \leq a] = \{\omega, X(\omega) \leq a\}$. Platí tedy $[X \in B], [X \leq a] \in \mathcal{A}$ pro všechna $B \in \mathcal{B}, a \in \mathbb{R}$. Jde o náhodné jevy a jsou tedy dobře definované jejich pravděpodobnosti $P[X \in B], P[X \leq a]$. Zavedeme značení $[X \in B] = \{\omega: X(\omega) \in B\}, [X \leq a] = \{\omega, X(\omega) \leq a\}$. Platí tedy $[X \in B], [X \leq a] \in \mathcal{A}$ pro všechna $B \in \mathcal{B}, a \in \R $. Jde o náhodné jevy a jsou tedy dobře definované jejich pravděpodobnosti $P[X \in B], P[X \leq a]$.
\end{convention} \end{convention}
\begin{example} \begin{example}
@ -20,11 +20,11 @@ V této kapitole se budeme věnovat náhodným veličinám, což bude formalizov
V předchozí kapitole jsme mluvili o pravděpodobnostním rozdělení, je na čase tento pojem formálně zadefinovat. V předchozí kapitole jsme mluvili o pravděpodobnostním rozdělení, je na čase tento pojem formálně zadefinovat.
\begin{definition} \begin{definition}
\textit{Rozdělením náhodné veličiny} $X: (\Omega, \mathcal{A}) \rightarrow (\mathbb{R}, \mathcal{B}(\mathbb{R}))$ nazýváme indukovanou pravděpodobnostní míru $P_X$ na $(\mathbb{R},\mathcal{B}(\mathbb{R}))$ definovanou jako \textit{Rozdělením náhodné veličiny} $X: (\Omega, \mathcal{A}) \rightarrow (\R , \mathcal{B}(\R ))$ nazýváme indukovanou pravděpodobnostní míru $P_X$ na $(\R ,\mathcal{B}(\R ))$ definovanou jako
$$ P_X(B) := P[\{\omega\in\Omega: X(\omega)\in B\}],B\in \mathcal{B}(\mathbb{R}).$$ $$ P_X(B) := P[\{\omega\in\Omega: X(\omega)\in B\}],B\in \mathcal{B}(\R ).$$
\end{definition} \end{definition}
Máme tedy jakýsi obraz míry $P$ v zobrazení $P_X$ čímž se $(\Omega, \mathcal{A}, P)$ zobrazí na pravděpodobnostní prostor $(\mathbb{R},\mathcal{B}(\mathbb{R}),P_X)$. V opačném směru můžeme použít takzvané kanonické vnoření do prostoru $(\mathbb{R}, \mathcal{B}, P_X)$, kde naší zvolenou měřitelnou funkcí bude identita, tedy není potřeba se bát, že by příslušný prostor nemusel existovat. Následující věta říká, že nezáleží ve kterém z těchto dvou prostorů integrujeme libovolnou funkci. Máme tedy jakýsi obraz míry $P$ v zobrazení $P_X$ čímž se $(\Omega, \mathcal{A}, P)$ zobrazí na pravděpodobnostní prostor $(\R ,\mathcal{B}(\R ),P_X)$. V opačném směru můžeme použít takzvané kanonické vnoření do prostoru $(\R , \mathcal{B}, P_X)$, kde naší zvolenou měřitelnou funkcí bude identita, tedy není potřeba se bát, že by příslušný prostor nemusel existovat. Následující věta říká, že nezáleží ve kterém z těchto dvou prostorů integrujeme libovolnou funkci.
\begin{theorem}[O přenosu integrace] \begin{theorem}[O přenosu integrace]
\label{thm-pushforward-measure} \label{thm-pushforward-measure}
@ -41,7 +41,7 @@ Máme tedy jakýsi obraz míry $P$ v zobrazení $P_X$ čímž se $(\Omega, \math
Pro pravou stranu máme Pro pravou stranu máme
$$ \int_\mathbb{M} g(x) dP_X(x) = \int_B dP_X(x) = P_X(B) = P[X^{-1}(B)].$$ $$ \int_\mathbb{M} g(x) dP_X(x) = \int_B dP_X(x) = P_X(B) = P[X^{-1}(B)].$$
Dále nechť $g$ je jednoduchá měřitelná, tedy $g(\cdot) = \sum_{k = 1}^{n} c_k \chi_{B_k}(\cdot)$ pro $n \in \mathbb{N}$, $c_k \in \mathbb{R}$ a $B_k \in \mathcal{M}$ pro všechna $k$. Dále nechť $g$ je jednoduchá měřitelná, tedy $g(\cdot) = \sum_{k = 1}^{n} c_k \chi_{B_k}(\cdot)$ pro $n \in \N $, $c_k \in \R $ a $B_k \in \mathcal{M}$ pro všechna $k$.
Z linearity integrálu plyne (vytkneme sumu) $ \int_\Omega g(X(\omega) dP(\omega) = \int_{X^{-1}(B)} dP(\omega) = P[X^{-1}(B)]$. Z linearity integrálu plyne (vytkneme sumu) $ \int_\Omega g(X(\omega) dP(\omega) = \int_{X^{-1}(B)} dP(\omega) = P[X^{-1}(B)]$.
Je-li $g$ nezáporná měřitelná, potom existuje posloupnost $g_n$ jednoduchých měřitelných funkcí takových, že $g_n \nearrow g$. Potom dle Léviho věty o monotonní konvergenci máme Je-li $g$ nezáporná měřitelná, potom existuje posloupnost $g_n$ jednoduchých měřitelných funkcí takových, že $g_n \nearrow g$. Potom dle Léviho věty o monotonní konvergenci máme
@ -52,18 +52,18 @@ Máme tedy jakýsi obraz míry $P$ v zobrazení $P_X$ čímž se $(\Omega, \math
Nakonec, pro $g$ měřitelnou existuje rozklad $g = g^+ - g^-$ takový, že $g^+, g^-$ jsou nezáporné měřitelné, tedy požadované tvrzení plyne z části pro nezáporné měřitelné funkce. Nakonec, pro $g$ měřitelnou existuje rozklad $g = g^+ - g^-$ takový, že $g^+, g^-$ jsou nezáporné měřitelné, tedy požadované tvrzení plyne z části pro nezáporné měřitelné funkce.
\end{proof} \end{proof}
Na závěr poznamenejme, že se nám budou obzvlášť hodit volby $(\mathbb{M}, \mathcal{M}) = (\mathbb{R}^n, \mathcal{B}(\mathbb{R}^n))$ pro $n \geq 1$. Na závěr poznamenejme, že se nám budou obzvlášť hodit volby $(\mathbb{M}, \mathcal{M}) = (\R ^n, \mathcal{B}(\R ^n))$ pro $n \geq 1$.
Připomeňme si, že jsou-li $\mu, \nu$ dvě $\sigma$-konečné míry na $(\mathbb{R}, \mathcal{B}(\mathbb{R}))$ a je-li $\nu << \mu$ (tedy $\mu(B) = 0$ implikuje $\nu(B) = 0$), potom z Radonovy-Nikodymovy věty plyne existence nezáporné měřitelné funkce $f$ takové, že $\nu(B) = \int_\mathbb{R} fd\mu$ pro všechna $B \in \mathcal{B}$. Této funkci $f$ říkáme Radonova-Nikodymova derivace a píšeme $f = \frac{d\nu}{d\mu}$. Taková funkce $f$ je navíc určena jednoznačně až na množinu $\mu$-míry $0$. Připomeňme si, že jsou-li $\mu, \nu$ dvě $\sigma$-konečné míry na $(\R , \mathcal{B}(\R ))$ a je-li $\nu << \mu$ (tedy $\mu(B) = 0$ implikuje $\nu(B) = 0$), potom z Radonovy-Nikodymovy věty plyne existence nezáporné měřitelné funkce $f$ takové, že $\nu(B) = \int_\R fd\mu$ pro všechna $B \in \mathcal{B}$. Této funkci $f$ říkáme Radonova-Nikodymova derivace a píšeme $f = \frac{d\nu}{d\mu}$. Taková funkce $f$ je navíc určena jednoznačně až na množinu $\mu$-míry $0$.
Využijeme těchto poznatků tak, že zvolíme vhodnou referenční míru na $\mathbb{R}$ a rozdělení $P_X$ pak bude popsáno právě zavedenou Radonovou-Nikodymovou derivací. Vhodné referenční míry jsou např. Využijeme těchto poznatků tak, že zvolíme vhodnou referenční míru na $\R $ a rozdělení $P_X$ pak bude popsáno právě zavedenou Radonovou-Nikodymovou derivací. Vhodné referenční míry jsou např.
\begin{itemize} \begin{itemize}
\item Lebesgueova míra $\lambda$, \item Lebesgueova míra $\lambda$,
\item Čítací míra na spočetné podmnožině $\mathbb{R}$, platí $\mu_S(B) = |B \cap S|$ kde $S$ je nejvýše spočetná podmnožina $\mathbb{R}$. \item Čítací míra na spočetné podmnožině $\R $, platí $\mu_S(B) = |B \cap S|$ kde $S$ je nejvýše spočetná podmnožina $\R $.
\end{itemize} \end{itemize}
\begin{definition} \begin{definition}
Buď $X$ náhodná veličina a $P_X$ její rozdělení. Nechť $P_X$ je absolutně spojité vůči $\mu$, kde $\mu$ je $\sigma$-konečná míra na $\mathbb{R}$. Pak funkci $f_X$ splňující $P_X(B) = \int_B f_X d\mu$ pro všechny $B \in \mathbb{B}$ nazveme \textit{hustotou} rozdělení náhodné veličiny $X$ vůči míře $\mu$. Buď $X$ náhodná veličina a $P_X$ její rozdělení. Nechť $P_X$ je absolutně spojité vůči $\mu$, kde $\mu$ je $\sigma$-konečná míra na $\R $. Pak funkci $f_X$ splňující $P_X(B) = \int_B f_X d\mu$ pro všechny $B \in \mathbb{B}$ nazveme \textit{hustotou} rozdělení náhodné veličiny $X$ vůči míře $\mu$.
\end{definition} \end{definition}
Je třeba si dát pozor na to, aby zvolená referenční míra opravdu byla absolutně spojitá, například při hodu kostkou má výsledek $1$ nenulovou pravděpodobnost, ale $\lambda(\{1\}) = 0$. Je třeba si dát pozor na to, aby zvolená referenční míra opravdu byla absolutně spojitá, například při hodu kostkou má výsledek $1$ nenulovou pravděpodobnost, ale $\lambda(\{1\}) = 0$.
@ -135,23 +135,23 @@ Vidíme, že hustota odpovídá skokům distribuční funkce v daném bodě. V n
\begin{enumerate}[(i)] \begin{enumerate}[(i)]
\item $F_X(a)= P[X \leq a]$. Bez újmy na obecnosti nechť $b > a$. Potom $F_X(b) = P[X \leq b] = P([X \leq a] \cup [a < X \leq b]) = P[X \leq a] + P[a < X \leq b]$ z aditivity míry, druhý sčítanec je nezáporný, tedy dostáváme požadované tvrzení. \item $F_X(a)= P[X \leq a]$. Bez újmy na obecnosti nechť $b > a$. Potom $F_X(b) = P[X \leq b] = P([X \leq a] \cup [a < X \leq b]) = P[X \leq a] + P[a < X \leq b]$ z aditivity míry, druhý sčítanec je nezáporný, tedy dostáváme požadované tvrzení.
\item Platí $\lim_{a\rightarrow -\infty} = \lim_{n\rightarrow\infty} F_X(-n) = \lim_{n\rightarrow\infty} P[X \in (-\infty, -n]] =: $\\$\lim_{n\rightarrow\infty} P[X \in A_n] = 0$. Poslední rovnost platí ze spojitosti míry (Věta \ref{thm-continuity}), neboť platí $A_n \searrow \emptyset$. Obdobně se ukáže tvrzení pro $a \rightarrow + \infty$ (cvičení). \item Platí $\lim_{a\rightarrow -\infty} = \lim_{n\rightarrow\infty} F_X(-n) = \lim_{n\rightarrow\infty} P[X \in (-\infty, -n]] =: $\\$\lim_{n\rightarrow\infty} P[X \in A_n] = 0$. Poslední rovnost platí ze spojitosti míry (Věta \ref{thm-continuity}), neboť platí $A_n \searrow \emptyset$. Obdobně se ukáže tvrzení pro $a \rightarrow + \infty$ (cvičení).
\item Stačí uvažovat posloupnost $a_n = a + \frac{1}{n}$ pro $n \in \mathbb{N}$. Požadované tvrzení opět plyne z věty o spojitosti míry. \item Stačí uvažovat posloupnost $a_n = a + \frac{1}{n}$ pro $n \in \N $. Požadované tvrzení opět plyne z věty o spojitosti míry.
\end{enumerate} \end{enumerate}
\end{proof} \end{proof}
Pro každou funkci $F$ splňující vlastnosti z předchozí věty existuje míra $\mu_F$ na $(\mathbb{R}, \mathcal{B})$ určená vztahem $\mu_F((-\infty, a]) = F(a)$ pro všechna $a$. Tato míra je konečná a platí $\mu_F((a, b]) = F(b) - F(a)$. Pro každou funkci $F$ splňující vlastnosti z předchozí věty existuje míra $\mu_F$ na $(\R , \mathcal{B})$ určená vztahem $\mu_F((-\infty, a]) = F(a)$ pro všechna $a$. Tato míra je konečná a platí $\mu_F((a, b]) = F(b) - F(a)$.
\begin{definition}[Rozklad pravděpodobnostního rozdělení] \begin{definition}[Rozklad pravděpodobnostního rozdělení]
Každou pravděpodobnostní míru $P_X$ můžeme rozdělit na tři složky $P_X = P_{X_{as}} + P_{X_{ds}} + P_{X_{sg}}$, kde $P_{X_{as}}$ je absolutně spojitá vůči Lebesgueově míře $\lambda$, $P_{X_{ds}}$ (diskrétní spojitá) je absolutně spojitá vůči čítací míře $\mu$ na nějaké spočetné podmnožině $\mathbb{R}$ a nakonec $P_{X_{sg}}$ (singulární) není absolutně spojitá vůči $\lambda$ ani ji nelze napsat jako spočetnou kombinaci Diracových měr $\delta_x$. Každou pravděpodobnostní míru $P_X$ můžeme rozdělit na tři složky $P_X = P_{X_{as}} + P_{X_{ds}} + P_{X_{sg}}$, kde $P_{X_{as}}$ je absolutně spojitá vůči Lebesgueově míře $\lambda$, $P_{X_{ds}}$ (diskrétní spojitá) je absolutně spojitá vůči čítací míře $\mu$ na nějaké spočetné podmnožině $\R $ a nakonec $P_{X_{sg}}$ (singulární) není absolutně spojitá vůči $\lambda$ ani ji nelze napsat jako spočetnou kombinaci Diracových měr $\delta_x$.
\end{definition} \end{definition}
Příkladem singulární distribuční funkce je například integrál takzvaného Cantorova diskontinua. Obecně taková rozdělení nemají ``hezké" vlastnosti, proto s nimi již nebudeme pracovat. Příkladem singulární distribuční funkce je například integrál takzvaného Cantorova diskontinua. Obecně taková rozdělení nemají ``hezké" vlastnosti, proto s nimi již nebudeme pracovat.
\begin{definition} \begin{definition}
Náhodnou veličinu $X$ nazveme \textit{diskrétní}, jestliže existují $\emptyset \neq I \subset \mathbb{N}$, $\{x_i\}_{i \in I}$ a $\{p_i \in (0,1]\}_{i \in I}$ takové že $P[X \in B] = \sum_{i, x_i \in B} p_i$ pro všechny borelovské $B$. Náhodnou veličinu $X$ nazveme \textit{diskrétní}, jestliže existují $\emptyset \neq I \subset \N $, $\{x_i\}_{i \in I}$ a $\{p_i \in (0,1]\}_{i \in I}$ takové že $P[X \in B] = \sum_{i, x_i \in B} p_i$ pro všechny borelovské $B$.
\end{definition} \end{definition}
Platí $P[X = x_i] = p_i$ a $\sum_{i \in I} p_i = 1$. Rozdělením takové veličiny je funkce $P_X = \sum_{i \in I} p_i \delta_{x_i}$, kde $\delta_u$ je Diracova míra v bodě $u$. Toto rozdělení je absolutně spojité vůči čítací míře na $S = \{x_i\}_{i \in I} \subset \mathbb{R}$. Potom funkce Platí $P[X = x_i] = p_i$ a $\sum_{i \in I} p_i = 1$. Rozdělením takové veličiny je funkce $P_X = \sum_{i \in I} p_i \delta_{x_i}$, kde $\delta_u$ je Diracova míra v bodě $u$. Toto rozdělení je absolutně spojité vůči čítací míře na $S = \{x_i\}_{i \in I} \subset \R $. Potom funkce
$f_X(u) := \begin{cases} $f_X(u) := \begin{cases}
p_i, u = x_i,\\ p_i, u = x_i,\\
0, \text{jinak} 0, \text{jinak}
@ -161,7 +161,7 @@ $f_X(u) := \begin{cases}
Náhodná veličina $X$ se nazývá \textit{(absolutně) spojitá}, pokud její rozdělení $P_X$ je absolutně spojité vůči Lebesgueově míře $\lambda$. Náhodná veličina $X$ se nazývá \textit{(absolutně) spojitá}, pokud její rozdělení $P_X$ je absolutně spojité vůči Lebesgueově míře $\lambda$.
\end{definition} \end{definition}
Pro spojitou náhodnou veličinu $X$ vždy existuje hustota $f_X$ (nezáporná a jednoznačná až na množinu $\lambda$-míry $0$) splňující $P[X\in B] = \int_B f_X(t) dt$ a speciálně $F_X(a) = \int_{-\infty}^a f_X(t) dt$ pro všechna $a \in \mathbb{R}$. Taková $F_X$ má derivaci ve skoro všech bodech a platí $F'_X(a) = f_X(a)$ pro s.v. $a$. Analogicky pro diskrétní náhodnou veličinu $Y$ je hustota funkcí, která nabývá v bodě $a$ hodnoty distribuční funkce v daném bodě. Pro spojitou náhodnou veličinu $X$ vždy existuje hustota $f_X$ (nezáporná a jednoznačná až na množinu $\lambda$-míry $0$) splňující $P[X\in B] = \int_B f_X(t) dt$ a speciálně $F_X(a) = \int_{-\infty}^a f_X(t) dt$ pro všechna $a \in \R $. Taková $F_X$ má derivaci ve skoro všech bodech a platí $F'_X(a) = f_X(a)$ pro s.v. $a$. Analogicky pro diskrétní náhodnou veličinu $Y$ je hustota funkcí, která nabývá v bodě $a$ hodnoty distribuční funkce v daném bodě.
Ne každá veličina, se kterou se běžně setkáme je ryze spojitá nebo ryze diskrétní. Příkladem veličiny, která má obě složky nenulové, je například úhrn denních srážek, s nenulovou pravděpodobností nenaprší vůbec, ale když už začne pršet, úhrn srážek je spojitá náhodná veličina. Ne každá veličina, se kterou se běžně setkáme je ryze spojitá nebo ryze diskrétní. Příkladem veličiny, která má obě složky nenulové, je například úhrn denních srážek, s nenulovou pravděpodobností nenaprší vůbec, ale když už začne pršet, úhrn srážek je spojitá náhodná veličina.
@ -197,14 +197,14 @@ Dalším užitečným pojmem je funkce inverzní k distribuční funkci, které
\end{itemize} \end{itemize}
\end{definition} \end{definition}
Je-li $F$ ryze rostoucí a spojitá, je $F^{-1}(q)$ to jediné $x \in \mathbb{R}$ takové, že $F(x) = q$, jinými slovy, $F$ je bijekce z $\mathbb{R}$ do $(0, 1)$. Takto definovaná kvantilová funkce je neklesající a zprava spojitá. Dále z $F^{-1}$ můžeme jednoznačně určit $F$, tedy také charakterizuje rozdělení $P_X$. Nakonec, o dvou náhodný veličinách $X$ a $Y$ říkáme, že jsou stejně rozdělené, zapisujeme $X \overset{d}{=} Y$, právě tehdy, když $F_X(x) = F_Y(x)$ pro všechna $x$. To však neznamená, že $X = Y$. Je-li $F$ ryze rostoucí a spojitá, je $F^{-1}(q)$ to jediné $x \in \R $ takové, že $F(x) = q$, jinými slovy, $F$ je bijekce z $\R $ do $(0, 1)$. Takto definovaná kvantilová funkce je neklesající a zprava spojitá. Dále z $F^{-1}$ můžeme jednoznačně určit $F$, tedy také charakterizuje rozdělení $P_X$. Nakonec, o dvou náhodný veličinách $X$ a $Y$ říkáme, že jsou stejně rozdělené, zapisujeme $X \overset{d}{=} Y$, právě tehdy, když $F_X(x) = F_Y(x)$ pro všechna $x$. To však neznamená, že $X = Y$.
Ukážeme si několik užitečných příkladů rozdělení (diskrétních a později i spojitých). Tato rozdělení se používají v praxi při modelování jednoduchých systémů, ale u komplikovanějších modelů se s těmito rozděleními bohužel nevystačíme. Ukážeme si několik užitečných příkladů rozdělení (diskrétních a později i spojitých). Tato rozdělení se používají v praxi při modelování jednoduchých systémů, ale u komplikovanějších modelů se s těmito rozděleními bohužel nevystačíme.
\subsection{Diskrétní náhodné veličiny} \subsection{Diskrétní náhodné veličiny}
\begin{definition}[Bodové rozdělení] \begin{definition}[Bodové rozdělení]
Náhodná veličina $X$\textit{bodové rozdělení} v bodě $a$ právě tehdy, když $P[X = x] = \chi_{\{x = a\}}, x \in \mathbb{R}$. Zapisujeme $X \sim \delta_a$. Potom platí $F_X(x) = \chi_{\{x \geq a\}}$. Náhodná veličina $X$\textit{bodové rozdělení} v bodě $a$ právě tehdy, když $P[X = x] = \chi_{\{x = a\}}, x \in \R $. Zapisujeme $X \sim \delta_a$. Potom platí $F_X(x) = \chi_{\{x \geq a\}}$.
\end{definition} \end{definition}
\begin{definition}[Diskrétní rovnoměrné rozdělení] \begin{definition}[Diskrétní rovnoměrné rozdělení]
@ -217,7 +217,7 @@ Ukážeme si několik užitečných příkladů rozdělení (diskrétních a poz
\end{definition} \end{definition}
\begin{definition}[Binomické rozdělení] \begin{definition}[Binomické rozdělení]
Náhodná veličina $X$\textit{binomické rozdělení} s parametry $n \in \mathbb{N}$ a $p \in (0, 1)$ právě tehdy, když Náhodná veličina $X$\textit{binomické rozdělení} s parametry $n \in \N $ a $p \in (0, 1)$ právě tehdy, když
$$f_X(x) = \binom{n}{x}p^x(1- p)^{n - x} \chi_{\{x \in \{0,\dots,n\}\}}.$$ $$f_X(x) = \binom{n}{x}p^x(1- p)^{n - x} \chi_{\{x \in \{0,\dots,n\}\}}.$$
Zapisujeme $X \sim Bi(n, p)$. Používáme toto v případě sčítaně nezávislých\footnote{Přesná definice nezávislých veličin bude uvedena později.} veličin s Bernoulliho rozdělením (počet úspěchů mezi $n$ pokusy). Zapisujeme $X \sim Bi(n, p)$. Používáme toto v případě sčítaně nezávislých\footnote{Přesná definice nezávislých veličin bude uvedena později.} veličin s Bernoulliho rozdělením (počet úspěchů mezi $n$ pokusy).
\end{definition} \end{definition}
@ -225,19 +225,19 @@ Ukážeme si několik užitečných příkladů rozdělení (diskrétních a poz
\begin{definition}[Geometrické rozdělení] \begin{definition}[Geometrické rozdělení]
Náhodná veličina $X$\textit{geometrické rozdělení} s parametrem $p \in (0, 1)$ (zapisujeme $X \sim Geo(p)$) právě tehdy, když Náhodná veličina $X$\textit{geometrické rozdělení} s parametrem $p \in (0, 1)$ (zapisujeme $X \sim Geo(p)$) právě tehdy, když
$$ f_X(x) = p(1 - p)^x $$ $$ f_X(x) = p(1 - p)^x $$
pro $x \in \mathbb{N}_0$. Taková náhodná veličina vyjadřuje počet neúspěchů před prvním úspěchem v posloupnosti nezávislých pokusů. pro $x \in \N _0$. Taková náhodná veličina vyjadřuje počet neúspěchů před prvním úspěchem v posloupnosti nezávislých pokusů.
\end{definition} \end{definition}
\begin{definition}[Negativně binomické rozdělení] \begin{definition}[Negativně binomické rozdělení]
Náhodná veličina $X$\textit{negativně binomické rozdělení} s parametry $n \in \mathbb{N}$ a $p \in (0, 1)$ (píšeme $X \sim NB(n, p)$), jestliže platí Náhodná veličina $X$\textit{negativně binomické rozdělení} s parametry $n \in \N $ a $p \in (0, 1)$ (píšeme $X \sim NB(n, p)$), jestliže platí
$$ f_X(x) = \binom{n + x - 1}{n - 1} p^n(1 - p)^x $$ $$ f_X(x) = \binom{n + x - 1}{n - 1} p^n(1 - p)^x $$
pro $x \in \mathbb{N}_0$. Rozdělení vyjadřuje počet neúspěchů před $n$-tým úspěchem v posloupnosti nezávislých pokusů. Specifický případ $NB(1, p) = Geo(p)$. pro $x \in \N _0$. Rozdělení vyjadřuje počet neúspěchů před $n$-tým úspěchem v posloupnosti nezávislých pokusů. Specifický případ $NB(1, p) = Geo(p)$.
\end{definition} \end{definition}
\begin{definition}[Poissonovo rozdělení] \begin{definition}[Poissonovo rozdělení]
Náhodná veličina $X$\textit{Poissonovo rozdělení} s parametrem $\lambda > 0$ (zapisujeme $X \sim Po(\lambda)$) právě tehdy, když Náhodná veličina $X$\textit{Poissonovo rozdělení} s parametrem $\lambda > 0$ (zapisujeme $X \sim Po(\lambda)$) právě tehdy, když
$$f_X(x) = e^{-\lambda} \frac{\lambda^x}{x!}$$ $$f_X(x) = e^{-\lambda} \frac{\lambda^x}{x!}$$
pro $x \in \mathbb{N}_0$. Jestliže $X \sim Po(\lambda_X)$ a $Y \sim Po(\lambda_Y)$ jsou nezávislé, potom $X + Y \sim Po(\lambda_X + \lambda_Y)$. Jestliže $n \rightarrow \infty$ a $np \rightarrow \lambda < \infty$, potom $Bi(n, p)$ konverguje k $Po(\lambda)$. pro $x \in \N _0$. Jestliže $X \sim Po(\lambda_X)$ a $Y \sim Po(\lambda_Y)$ jsou nezávislé, potom $X + Y \sim Po(\lambda_X + \lambda_Y)$. Jestliže $n \rightarrow \infty$ a $np \rightarrow \lambda < \infty$, potom $Bi(n, p)$ konverguje k $Po(\lambda)$.
\end{definition} \end{definition}
\subsection{Absolutně spojité náhodné veličiny} \subsection{Absolutně spojité náhodné veličiny}
@ -247,9 +247,9 @@ Ukážeme si několik užitečných příkladů rozdělení (diskrétních a poz
\end{definition} \end{definition}
\begin{definition}[Normální rozdělení] \begin{definition}[Normální rozdělení]
Náhodná veličina $X$\textit{normální (Gaussovo) rozdělení} s parametry $\mu \in \mathbb{R}$ a $\sigma^2 > 0$ (zapisujeme $X \sim N(\mu, \sigma^2)$) právě tehdy, když Náhodná veličina $X$\textit{normální (Gaussovo) rozdělení} s parametry $\mu \in \R $ a $\sigma^2 > 0$ (zapisujeme $X \sim N(\mu, \sigma^2)$) právě tehdy, když
$$f_X(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left\{ - \frac{(x - \mu)^2}{2\sigma^2}\right\}$$ $$f_X(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left\{ - \frac{(x - \mu)^2}{2\sigma^2}\right\}$$
pro $x \in \mathbb{R}$. pro $x \in \R $.
\end{definition} \end{definition}
Toto rozdělení je enormně důležité, uvedeme si proto několik jeho vlastností. Nejprve, máme-li $X \sim N(\mu, \sigma^2)$, potom $Z := (X - \mu)/\sigma \sim N(0, 1)$. Tomuto rozdělení říkáme \textit{standardní normální rozdělení}. Dále, máme-li dvě nezávislé normálně rozdělené veličiny $X \sim N(\mu_X, \sigma_X^2), Y \sim N(\mu_Y, \sigma_Y^2)$, potom $X + Y \sim N(\mu_X + \mu_Y, \sigma_X^2 + \sigma_Y^2)$. Toto rozdělení je enormně důležité, uvedeme si proto několik jeho vlastností. Nejprve, máme-li $X \sim N(\mu, \sigma^2)$, potom $Z := (X - \mu)/\sigma \sim N(0, 1)$. Tomuto rozdělení říkáme \textit{standardní normální rozdělení}. Dále, máme-li dvě nezávislé normálně rozdělené veličiny $X \sim N(\mu_X, \sigma_X^2), Y \sim N(\mu_Y, \sigma_Y^2)$, potom $X + Y \sim N(\mu_X + \mu_Y, \sigma_X^2 + \sigma_Y^2)$.
@ -313,22 +313,22 @@ Přejdeme dále k vícerozměrným náhodným veličinám, jedním z jejich vyu
\begin{definition} \begin{definition}
Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. \textit{Náhodný vektor} je měřitelné zobrazení, které každému výsledku $\omega$ přiřadí reálný $d$-rozměrný vektor $\vec{X}(\omega)$. To znamená, že Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. \textit{Náhodný vektor} je měřitelné zobrazení, které každému výsledku $\omega$ přiřadí reálný $d$-rozměrný vektor $\vec{X}(\omega)$. To znamená, že
$$ \vec{X} : \Omega \rightarrow \mathbb{R}^d \land \{\omega \in \Omega: \vec{X}(\omega) \leq \vec{x}\} \in \mathcal{A} \forall \vec{x} \in \mathbb{R}^d. $$ $$ \vec{X} : \Omega \rightarrow \R ^d \land \{\omega \in \Omega: \vec{X}(\omega) \leq \vec{x}\} \in \mathcal{A} \forall \vec{x} \in \R ^d. $$
\end{definition} \end{definition}
\begin{definition} \begin{definition}
\textit{Rozdělením náhodného vektoru} $\vec{X}: (\Omega, \mathcal{A}) \rightarrow (\mathbb{R}^d, \mathcal{B}(\mathbb{R}^d))$ nazveme indukovanou pravděpodobnostní míru $P_{\vec{X}}$ na $(\mathbb{R}^d, \mathcal{B}(\mathbb{R}^d))$ definovanou jako \textit{Rozdělením náhodného vektoru} $\vec{X}: (\Omega, \mathcal{A}) \rightarrow (\R ^d, \mathcal{B}(\R ^d))$ nazveme indukovanou pravděpodobnostní míru $P_{\vec{X}}$ na $(\R ^d, \mathcal{B}(\R ^d))$ definovanou jako
$$ P_{\vec{X}}(B) := P[\{\omega \in \Omega: \vec{X}(\omega) \in B\}] $$ $$ P_{\vec{X}}(B) := P[\{\omega \in \Omega: \vec{X}(\omega) \in B\}] $$
pro všechny $B \in \mathcal{B}(\mathbb{R}^d)$. pro všechny $B \in \mathcal{B}(\R ^d)$.
\end{definition} \end{definition}
Již na první pohled je zřejmá analogie s jednorozměrnými náhodnými veličinami v tom, že $P_{\vec{X}}$ je obraz míry $P$ v zobrazení $\vec{X}$, kde se původní pravděpodobnostní prostor zobrazí na $(\mathbb{R}^d, \mathcal{B}(\mathbb{R}^d), P_{\vec{X}})$. Již na první pohled je zřejmá analogie s jednorozměrnými náhodnými veličinami v tom, že $P_{\vec{X}}$ je obraz míry $P$ v zobrazení $\vec{X}$, kde se původní pravděpodobnostní prostor zobrazí na $(\R ^d, \mathcal{B}(\R ^d), P_{\vec{X}})$.
Platí, že pokud máme náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$, potom $X_i$ je náhodná veličina pro všechna $i \in \{1, \dots, d\}$ (důsledek definice, avšak platí i opačná implikace). Platí, že pokud máme náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$, potom $X_i$ je náhodná veličina pro všechna $i \in \{1, \dots, d\}$ (důsledek definice, avšak platí i opačná implikace).
\begin{definition} \begin{definition}
Nechť $(\Omega, \mathcal{A}, P)$ je pravděpodobnostní prostor. \textit{Sdružená distribuční funkce} náhodného vektoru $\vec{X}$ je funkce $F_{\vec{X}}: \mathbb{R}^d \rightarrow [0,1]$ definovaná jako Nechť $(\Omega, \mathcal{A}, P)$ je pravděpodobnostní prostor. \textit{Sdružená distribuční funkce} náhodného vektoru $\vec{X}$ je funkce $F_{\vec{X}}: \R ^d \rightarrow [0,1]$ definovaná jako
$$ F_{\vec{X}}(\vec{x}) = P(\vec{X} \leq \vec{x}) = P(\bigcup_{l=1}^d \{X_l \leq x_l\}) $$ $$ F_{\vec{X}}(\vec{x}) = P(\vec{X} \leq \vec{x}) = P(\bigcup_{l=1}^d \{X_l \leq x_l\}) $$
pro všechna $\vec{x} = [x_1,\dots,x_d]^T \in \mathbb{R}^d$. pro všechna $\vec{x} = [x_1,\dots,x_d]^T \in \R ^d$.
\end{definition} \end{definition}
Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vlastnostech sdružených distribučních funkcí. Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vlastnostech sdružených distribučních funkcí.
@ -343,7 +343,7 @@ Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vla
\end{theorem} \end{theorem}
\begin{proof} \begin{proof}
Nejdříve dokážeme vlastnost (i). Fixujme $x_1,\dots,x_{l-1},x_{l+1},\dots,x_d \in \mathbb{R}$ a definujeme funkci $G(x) := F_{\vec{X}}(x_1,\dots,x_{l-1},x,x_{l+1},\dots,x_d)$. Z monotonie pravděpodobnosti je $G$ neklesající a nezáporná. Nejdříve dokážeme vlastnost (i). Fixujme $x_1,\dots,x_{l-1},x_{l+1},\dots,x_d \in \R $ a definujeme funkci $G(x) := F_{\vec{X}}(x_1,\dots,x_{l-1},x,x_{l+1},\dots,x_d)$. Z monotonie pravděpodobnosti je $G$ neklesající a nezáporná.
Jelikož je $G$ neklesající, nutně existuje limita $\lim_{y\rightarrow x^+} G(y) \geq G(x)$. Dokážeme, že dochází k rovnosti (čímž dokážeme spojitost zprava). Jelikož je $G$ neklesající, nutně existuje limita $\lim_{y\rightarrow x^+} G(y) \geq G(x)$. Dokážeme, že dochází k rovnosti (čímž dokážeme spojitost zprava).
Z Heineovy věty plyne, že $\lim_{y\rightarrow x^+} G(y) = \lim G(x + \frac{1}{n})$. Označme $B_n := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, x + \frac{1}{n}) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$. Potom máme, že $B_n \searrow B := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, x]) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$. Z Heineovy věty plyne, že $\lim_{y\rightarrow x^+} G(y) = \lim G(x + \frac{1}{n})$. Označme $B_n := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, x + \frac{1}{n}) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$. Potom máme, že $B_n \searrow B := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, x]) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$.
@ -352,21 +352,21 @@ Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vla
$$\lim_{y\rightarrow x^+} G(y) = \lim_{n\rightarrow \infty} G(x + \frac{1}{n}) = \lim_{n\rightarrow \infty} P_{\vec{X}}(B_n) = P_{\vec{X}}\left(\bigcap_{n=1}^\infty B_n\right) = P_{\vec{X}}(B) = G(x),$$ $$\lim_{y\rightarrow x^+} G(y) = \lim_{n\rightarrow \infty} G(x + \frac{1}{n}) = \lim_{n\rightarrow \infty} P_{\vec{X}}(B_n) = P_{\vec{X}}\left(\bigcap_{n=1}^\infty B_n\right) = P_{\vec{X}}(B) = G(x),$$
čímž je ukončen důkaz vlastnosti (i). čímž je ukončen důkaz vlastnosti (i).
K důkazu vlastnosti (ii) opět mějme pevná $x_1,\dots,x_{l-1},x_{l+1},\dots,x_d \in \mathbb{R}$. Opět uvažujme funkci $G$ z předchozí části důkazu, která je neklesající a nezáporná. Proto musí existovat její limita $\lim_{\vec{x} \rightarrow -\infty} = \lim_{n \rightarrow \infty} G(-n)$ (opět plyne z Heineovy věty). Definujme $C_n := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, -n]) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$, potom platí že $C_n \searrow \emptyset$. Podobným argumentem jako posledně máme K důkazu vlastnosti (ii) opět mějme pevná $x_1,\dots,x_{l-1},x_{l+1},\dots,x_d \in \R $. Opět uvažujme funkci $G$ z předchozí části důkazu, která je neklesající a nezáporná. Proto musí existovat její limita $\lim_{\vec{x} \rightarrow -\infty} = \lim_{n \rightarrow \infty} G(-n)$ (opět plyne z Heineovy věty). Definujme $C_n := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, -n]) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$, potom platí že $C_n \searrow \emptyset$. Podobným argumentem jako posledně máme
$$\lim_{x_l \rightarrow -\infty} F(\vec{x}) = \lim_{x\rightarrow -\infty} G(x) = \lim_{n\rightarrow \infty} G(-n) = \lim_{n\rightarrow \infty} P_{\vec{X}} \left(\bigcap_{n=1}^\infty C_n\right) = P_{\vec{X}}(\emptyset) = 0,$$ $$\lim_{x_l \rightarrow -\infty} F(\vec{x}) = \lim_{x\rightarrow -\infty} G(x) = \lim_{n\rightarrow \infty} G(-n) = \lim_{n\rightarrow \infty} P_{\vec{X}} \left(\bigcap_{n=1}^\infty C_n\right) = P_{\vec{X}}(\emptyset) = 0,$$
čímž jsme dokázali vlastnost (ii). čímž jsme dokázali vlastnost (ii).
Nakonec si uvědomíme, že podmínka z vlastnosti (iii) je ekvivalentní tomu, že $\lim_{n\rightarrow\infty} \min\{x_l\} = \infty$. Z již několikrát použité věty o spojitosti pravděpodobnosti máme, že $1 \geq F_{\vec{X}}(\vec{x}) \geq F_{\vec{X}} (\min\{x_l\} [1,\dots,1]^T )$. Stačí tedy dokázat, že poslední uvedená limita je rovna $\infty$. Nakonec si uvědomíme, že podmínka z vlastnosti (iii) je ekvivalentní tomu, že $\lim_{n\rightarrow\infty} \min\{x_l\} = \infty$. Z již několikrát použité věty o spojitosti pravděpodobnosti máme, že $1 \geq F_{\vec{X}}(\vec{x}) \geq F_{\vec{X}} (\min\{x_l\} [1,\dots,1]^T )$. Stačí tedy dokázat, že poslední uvedená limita je rovna $\infty$.
Položme $H(x) := F_{\vec{X}}(x[1,\dots,1]^T)$. Z monotonie pravděpodobnosti máme, že funkce $H$ je neklesající. Dále $0 \leq H(x) \leq 1$, tedy existuje $\lim_{x\rightarrow\infty} H(x) = \lim_{n\rightarrow\infty} H(n)$ (jako limita posloupnosti). Položme $D_n := (-\infty, n]^d$. Opět z věty o spojitosti míry můžeme psát Položme $H(x) := F_{\vec{X}}(x[1,\dots,1]^T)$. Z monotonie pravděpodobnosti máme, že funkce $H$ je neklesající. Dále $0 \leq H(x) \leq 1$, tedy existuje $\lim_{x\rightarrow\infty} H(x) = \lim_{n\rightarrow\infty} H(n)$ (jako limita posloupnosti). Položme $D_n := (-\infty, n]^d$. Opět z věty o spojitosti míry můžeme psát
$$\lim_{x_l \rightarrow +\infty \forall l} F(\vec{x}) = \lim_{n\rightarrow \infty} H(n) = \lim_{n\rightarrow \infty} P_{\vec{X}}(D_n) = P_{\vec{X}} (\mathbb{R}^d) = 1,$$ $$\lim_{x_l \rightarrow +\infty \forall l} F(\vec{x}) = \lim_{n\rightarrow \infty} H(n) = \lim_{n\rightarrow \infty} P_{\vec{X}}(D_n) = P_{\vec{X}} (\R ^d) = 1,$$
čímž jsme získali požadovanou rovnost. čímž jsme získali požadovanou rovnost.
\end{proof} \end{proof}
\begin{theorem}[Marginální distribuční funkce] \begin{theorem}[Marginální distribuční funkce]
\label{thm-marginalization} \label{thm-marginalization}
Pokud je $F_{\vec{X}}$ sdružená distribuční funkce náhodného vektoru $\vec{X} = [X_1,\dots,X_d]^T$, pak Pokud je $F_{\vec{X}}$ sdružená distribuční funkce náhodného vektoru $\vec{X} = [X_1,\dots,X_d]^T$, pak
$$ \lim_{x_d \rightarrow +\infty} F_{\vec{X}}(x_1,\dots,x_d) = F(x_1,\dots,x_{d-1}), \forall \vec{x}=[x_1,\dots,x_d]^T \in \mathbb{R}^d,$$ $$ \lim_{x_d \rightarrow +\infty} F_{\vec{X}}(x_1,\dots,x_d) = F(x_1,\dots,x_{d-1}), \forall \vec{x}=[x_1,\dots,x_d]^T \in \R ^d,$$
kde $F$ je distribuční funkce náhodného podvektoru $[X_1,\dots,X_{d-1}]^T$. kde $F$ je distribuční funkce náhodného podvektoru $[X_1,\dots,X_{d-1}]^T$.
\end{theorem} \end{theorem}
@ -377,17 +377,17 @@ Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vla
Výše zmíněný limitní přechod můžeme opakovat vícekrát a ``marginalizovat" až na jednorozměrný případ. Navíc, složky můžeme permutovat, tedy v kombinaci s touto větou můžeme ``vyřadit" libovolnou složku. Výše zmíněný limitní přechod můžeme opakovat vícekrát a ``marginalizovat" až na jednorozměrný případ. Navíc, složky můžeme permutovat, tedy v kombinaci s touto větou můžeme ``vyřadit" libovolnou složku.
\begin{definition}[Marginální rozdělení] \begin{definition}[Marginální rozdělení]
Nechť $J \subseteq \{1,\dots d\}$ a $|J|=m$. Potom \textit{náhodný podvektor} definujeme jako $\vec{Y} \equiv \{X_l\}_{l\in J} : (\Omega, \mathcal{A}) \rightarrow (\mathbb{R}^m, \mathcal{B}(\mathbb{R}^m))$ a \textit{marginálním rozdělením} rozumíme indukovanou pravděpodobnostní míru $P_{\vec{Y}}$ na prostoru $(\mathbb{R}^m, \mathcal{B}(\mathbb{R}^m))$. Nechť $J \subseteq \{1,\dots d\}$ a $|J|=m$. Potom \textit{náhodný podvektor} definujeme jako $\vec{Y} \equiv \{X_l\}_{l\in J} : (\Omega, \mathcal{A}) \rightarrow (\R ^m, \mathcal{B}(\R ^m))$ a \textit{marginálním rozdělením} rozumíme indukovanou pravděpodobnostní míru $P_{\vec{Y}}$ na prostoru $(\R ^m, \mathcal{B}(\R ^m))$.
\end{definition} \end{definition}
Ve speciálním případě $J = \{1,\dots,m\}$ pak máme $P_{\vec{Y}}(B) = P_{\vec{X}}(B \times \mathbb{R}^{d - m})$. Pro $|J| = 1$ celkem snadno vidíme, že se jedná o náhodnou veličinu. Ve speciálním případě $J = \{1,\dots,m\}$ pak máme $P_{\vec{Y}}(B) = P_{\vec{X}}(B \times \R ^{d - m})$. Pro $|J| = 1$ celkem snadno vidíme, že se jedná o náhodnou veličinu.
V následujících definicích definujeme spojité a diskrétní náhodné vektory podobně tomu, jak jsme to udělali u náhodných veličin. V následujících definicích definujeme spojité a diskrétní náhodné vektory podobně tomu, jak jsme to udělali u náhodných veličin.
\begin{definition} \begin{definition}
Náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$ nazveme \textit{diskrétní}, jestliže existují nejvýše spočetná množina $I \subseteq \mathbb{N}$ a posloupnosti $\{\vec{x}_i\}_{i\in I}$ prvků $\mathbb{R}^d$ a $\{p_i\}_{i\in I}$ prvků intervalu $(0, 1]$ takové, že platí Náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$ nazveme \textit{diskrétní}, jestliže existují nejvýše spočetná množina $I \subseteq \N $ a posloupnosti $\{\vec{x}_i\}_{i\in I}$ prvků $\R ^d$ a $\{p_i\}_{i\in I}$ prvků intervalu $(0, 1]$ takové, že platí
$$ P_{\vec{X}} = \sum_{i \in I}p_i \delta_{\vec{x}_i} \text{ a } \sum_{i \in I} p_i = 1, $$ $$ P_{\vec{X}} = \sum_{i \in I}p_i \delta_{\vec{x}_i} \text{ a } \sum_{i \in I} p_i = 1, $$
kde $\delta_{\vec{u}}$ značí Diracovu míru v $\vec{u} \in \mathbb{R}^d$. kde $\delta_{\vec{u}}$ značí Diracovu míru v $\vec{u} \in \R ^d$.
\end{definition} \end{definition}
\begin{definition} \begin{definition}
@ -400,18 +400,18 @@ Pro spojité náhodné vektory si uvědomíme, že sdružená distribuční funk
$$ f_{\vec{X}} (\vec{x}) = \frac{\partial^d}{\partial x_1 \dots \partial x_d} F_{\vec{X}}.$$ $$ f_{\vec{X}} (\vec{x}) = \frac{\partial^d}{\partial x_1 \dots \partial x_d} F_{\vec{X}}.$$
Tento vztah platí $\lambda^d$-skoro všude a navíc v námi zkoumaných příkladech je $F_{\vec{X}}$ dostatečně hladká, tedy nezáleží na pořadí derivací. Potom také můžeme z hustoty spočítat distribuční funkci pomocí vztahu Tento vztah platí $\lambda^d$-skoro všude a navíc v námi zkoumaných příkladech je $F_{\vec{X}}$ dostatečně hladká, tedy nezáleží na pořadí derivací. Potom také můžeme z hustoty spočítat distribuční funkci pomocí vztahu
$$ F_{\vec{X}} (\vec{x})= \int_{-\infty}^{x_1} \dots \int_{-\infty}^{x_d} f_{\vec{X}}(t_1, \dots, t_d) dt_d \dots dt_1,$$ $$ F_{\vec{X}} (\vec{x})= \int_{-\infty}^{x_1} \dots \int_{-\infty}^{x_d} f_{\vec{X}}(t_1, \dots, t_d) dt_d \dots dt_1,$$
pro všechna $\vec{x} = [x_1, \dots, x_d]^T \in \mathbb{R}^d$. Díky Fubiniově větě opět nezáleží na pořadí integrálů. pro všechna $\vec{x} = [x_1, \dots, x_d]^T \in \R ^d$. Díky Fubiniově větě opět nezáleží na pořadí integrálů.
\hfill \textit{konec 6. přednášky (4.3.2025)} \hfill \textit{konec 6. přednášky (4.3.2025)}
\begin{theorem}[Hustota vzhledem k součinové referenční míře] \begin{theorem}[Hustota vzhledem k součinové referenční míře]
\label{thm-density-product} \label{thm-density-product}
Nechť $P_{\vec{X}}$ je rozdělení náhodného vektoru $\vec{X} = [X_1, \dots, X_d]^T$ a nechť existují $\sigma$-konečné míry $\mu_l, l\in\{1,\dots,d\}$ na $\mathbb{R}$ takové, že pro jejich součin platí $P_{\vec{X}} \ll \mu_1 \otimes \cdots \otimes \mu_d$. Potom $P_{X_l} \ll \mu_l$ pro všechny složky $l \in \{1, \dots, d\}$. Dále pak existují nezáporné měřitelné funkce (hustoty) $f_{\vec{X}} : \mathbb{R}^d \rightarrow [0, \infty)$ a $f_{X_l}: \mathbb{R} \rightarrow [0, \infty)$ pro $l \in \{1, \dots, d\}$ takové, že Nechť $P_{\vec{X}}$ je rozdělení náhodného vektoru $\vec{X} = [X_1, \dots, X_d]^T$ a nechť existují $\sigma$-konečné míry $\mu_l, l\in\{1,\dots,d\}$ na $\R $ takové, že pro jejich součin platí $P_{\vec{X}} \ll \mu_1 \otimes \cdots \otimes \mu_d$. Potom $P_{X_l} \ll \mu_l$ pro všechny složky $l \in \{1, \dots, d\}$. Dále pak existují nezáporné měřitelné funkce (hustoty) $f_{\vec{X}} : \R ^d \rightarrow [0, \infty)$ a $f_{X_l}: \R \rightarrow [0, \infty)$ pro $l \in \{1, \dots, d\}$ takové, že
$$ P_{\vec{X}} (\times_{l=1}^d (-\infty, x_l]) = F_{\vec{X}}(\vec{x}) = \int_{\times_{l=1}^d (-\infty, x_l]} f_{\vec{X}} (\vec{t}) d(\mu_1\otimes\dots\otimes\mu_d) $$ $$ P_{\vec{X}} (\times_{l=1}^d (-\infty, x_l]) = F_{\vec{X}}(\vec{x}) = \int_{\times_{l=1}^d (-\infty, x_l]} f_{\vec{X}} (\vec{t}) d(\mu_1\otimes\dots\otimes\mu_d) $$
pro všechna $\vec{x} = [x_1, \dots, x_d]^T$. Pro borelovskou množinu $B\in \mathcal{B}(\mathbb{R}^d)$ navíc platí pro všechna $\vec{x} = [x_1, \dots, x_d]^T$. Pro borelovskou množinu $B\in \mathcal{B}(\R ^d)$ navíc platí
$$ P_{\vec{X}} (B) = \int_B f_{\vec{X}} (\vec{t}) d(\mu_1\otimes\dots\otimes\mu_d). $$ $$ P_{\vec{X}} (B) = \int_B f_{\vec{X}} (\vec{t}) d(\mu_1\otimes\dots\otimes\mu_d). $$
Potom také $F_{X_l} (x_l) = \int_{-\infty}^{x_l} f_{X_l} (t) d\mu_l$ pro všechna $x_l \in \mathbb{R}$ a všechny složky $l \in \{1, \dots, d\}$, kde Potom také $F_{X_l} (x_l) = \int_{-\infty}^{x_l} f_{X_l} (t) d\mu_l$ pro všechna $x_l \in \R $ a všechny složky $l \in \{1, \dots, d\}$, kde
$$f_{X_l}(t) = \int_{\mathbb{R}^{d-1}} f_{\vec{X}} (t_1,\dots, t_d) d(\mu_1\otimes\dots\otimes\mu_{l-1}\otimes\mu_{l+1}\otimes\dots\otimes\mu_d) $$ $$f_{X_l}(t) = \int_{\R ^{d-1}} f_{\vec{X}} (t_1,\dots, t_d) d(\mu_1\otimes\dots\otimes\mu_{l-1}\otimes\mu_{l+1}\otimes\dots\otimes\mu_d) $$
platí $\mu_l$-skoro všude. platí $\mu_l$-skoro všude.
\end{theorem} \end{theorem}
@ -425,7 +425,7 @@ Poznamenejme, že předpoklad existence příslušných měr je automaticky spln
Mějme absolutně spojitý náhodný vektor $[X, Y]^T$. Potom existuje jeho sdružená distribuční funkce $F_{[X, Y]^T}(x, y)$. Chceme-li dostat jednorozměrnou distribuční funkci $F_X(x)$, s použitím Věty \ref{thm-marginalization} dostáváme $F_X(x) = \lim_{y \rightarrow \infty} F_{[X, Y]^T} (x, y)$. Potom jeho hustotu dostaneme, zderivováním $f_X(x) = F'_X(x)$. Navíc z předchozí věty (Věta \ref{thm-density-product}) máme, že existuje sdružená hustota $f_{[X, Y]^T}(x, y) = \pdv*{F_{[X, Y]^T}}{x, y}(x, y)$. Pro získání jednorozměrné hustoty $f_X$ pak už jen stačí zintegrovat podle $y$ přes celou reálnou osu. Mějme absolutně spojitý náhodný vektor $[X, Y]^T$. Potom existuje jeho sdružená distribuční funkce $F_{[X, Y]^T}(x, y)$. Chceme-li dostat jednorozměrnou distribuční funkci $F_X(x)$, s použitím Věty \ref{thm-marginalization} dostáváme $F_X(x) = \lim_{y \rightarrow \infty} F_{[X, Y]^T} (x, y)$. Potom jeho hustotu dostaneme, zderivováním $f_X(x) = F'_X(x)$. Navíc z předchozí věty (Věta \ref{thm-density-product}) máme, že existuje sdružená hustota $f_{[X, Y]^T}(x, y) = \pdv*{F_{[X, Y]^T}}{x, y}(x, y)$. Pro získání jednorozměrné hustoty $f_X$ pak už jen stačí zintegrovat podle $y$ přes celou reálnou osu.
\end{example} \end{example}
Nechť $\vec{X}$ je diskrétní náhodný vektor a $\nu$ čítací míra na $\{\vec{x}_i\}_{i \in I} \subset \mathbb{R}^d$, pak hustotu tohoto vektoru vzhledem k čítací míře $\nu$ nazýváme \textit{pravděpodobnostní funkcí} diskrétního mnohorozměrného rozdělení $\vec{X}$. Nechť $\vec{X}$ je diskrétní náhodný vektor a $\nu$ čítací míra na $\{\vec{x}_i\}_{i \in I} \subset \R ^d$, pak hustotu tohoto vektoru vzhledem k čítací míře $\nu$ nazýváme \textit{pravděpodobnostní funkcí} diskrétního mnohorozměrného rozdělení $\vec{X}$.
\begin{example} \begin{example}
Uvažujme dvojrozměrný náhodný vektor $[X, Y]^T$. Pro přehlednost uvedeme i řádkové/sloupcové součty (jde o marginální hustoty). Uvažujme dvojrozměrný náhodný vektor $[X, Y]^T$. Pro přehlednost uvedeme i řádkové/sloupcové součty (jde o marginální hustoty).
@ -462,7 +462,7 @@ $$ \lim_{x_j \rightarrow \infty \forall j \in \{1, \dots, d\} \setminus l} F_{\v
$$ P[X_l \leq x_l] =: F_{X_l}(x_l). $$ $$ P[X_l \leq x_l] =: F_{X_l}(x_l). $$
\begin{definition} \begin{definition}
Náhodné veličiny $X_1, \dots, X_d$ jsou \textit{nezávislé}, pokud $F_{\vec{X}} (\vec{x}) = \prod_{l = 1}^d F_{X_l} (x_l)$ pro každý vektor $\vec{x} = [x_1 \dots, x_d]^T \in \mathbb{R}^d$. Náhodné veličiny $X_1, \dots, X_d$ jsou \textit{nezávislé}, pokud $F_{\vec{X}} (\vec{x}) = \prod_{l = 1}^d F_{X_l} (x_l)$ pro každý vektor $\vec{x} = [x_1 \dots, x_d]^T \in \R ^d$.
\end{definition} \end{definition}
Analogicky s předchozí definicí definujeme nezávislost náhodných vektorů. V literatuře se vyskytuje i jiná, ekvivaletní, definice nezávislosti, kterou uvedeme později. Analogicky s předchozí definicí definujeme nezávislost náhodných vektorů. V literatuře se vyskytuje i jiná, ekvivaletní, definice nezávislosti, kterou uvedeme později.
@ -470,13 +470,13 @@ Analogicky s předchozí definicí definujeme nezávislost náhodných vektorů.
\begin{definition} \begin{definition}
Náhodné vektory $\vec{X}_1, \dots, \vec{X}_d$ jsou \textit{nezávislé}, pokud Náhodné vektory $\vec{X}_1, \dots, \vec{X}_d$ jsou \textit{nezávislé}, pokud
$$ F_{\vec{X}} (\vec{x}) = \prod_{l=1}^d F_{\vec{X}_l} (\vec{x}_l) $$ $$ F_{\vec{X}} (\vec{x}) = \prod_{l=1}^d F_{\vec{X}_l} (\vec{x}_l) $$
pro každý ``nad-vektor" $\vec{x} = [\vec{x}_1^T, \dots, \vec{x}_d^T]^T \in \mathbb{R}^{\sum_{l=1}^d d_l}$ kde $\vec{X} = [\vec{X}_1^T,\dots, X_d^T]^T$ a $\vec{X}_l$ jsou $d_l$-rozměrné náhodné vektory pro všechna $l \in \{1, \dots d\}$. pro každý ``nad-vektor" $\vec{x} = [\vec{x}_1^T, \dots, \vec{x}_d^T]^T \in \R ^{\sum_{l=1}^d d_l}$ kde $\vec{X} = [\vec{X}_1^T,\dots, X_d^T]^T$ a $\vec{X}_l$ jsou $d_l$-rozměrné náhodné vektory pro všechna $l \in \{1, \dots d\}$.
\end{definition} \end{definition}
Dalším důležitým pojmem je takzvaný nosič náhodné veličiny. Rozumíme tím v zásadě množinu, kde náhodná veličina ``žije". Uvedeme zde definici pro diskrétní a spojité náhodné veličiny. Tyto pojmy se budou hodit pro vymezení prostoru, přes který poté budeme integrovat. Dalším důležitým pojmem je takzvaný nosič náhodné veličiny. Rozumíme tím v zásadě množinu, kde náhodná veličina ``žije". Uvedeme zde definici pro diskrétní a spojité náhodné veličiny. Tyto pojmy se budou hodit pro vymezení prostoru, přes který poté budeme integrovat.
\begin{definition} \begin{definition}
\textit{Nosičem} diskrétní náhodné veličiny $X$ nazýváme následující množinu $S(X) = \{x \in \mathbb{R}: P[X = x] > 0\}$. \textit{Nosičem} spojité náhodné veličiny $Y$ rozumíme množinu $S(Y) = \{y \in \mathbb{R}: f_Y(y) > 0\}$. Obdobně definujeme i nosič náhodného vektoru (cvičení). \textit{Nosičem} diskrétní náhodné veličiny $X$ nazýváme následující množinu $S(X) = \{x \in \R : P[X = x] > 0\}$. \textit{Nosičem} spojité náhodné veličiny $Y$ rozumíme množinu $S(Y) = \{y \in \R : f_Y(y) > 0\}$. Obdobně definujeme i nosič náhodného vektoru (cvičení).
\end{definition} \end{definition}
\begin{theorem}[Ekvivalentní charakterizace nezávislosti] \begin{theorem}[Ekvivalentní charakterizace nezávislosti]
@ -494,7 +494,7 @@ Dalším důležitým pojmem je takzvaný nosič náhodné veličiny. Rozumíme
Nejdříve dokážeme implikaci $\Rightarrow$. Uvažujme vektor $\vec{x} = [x_1,\dots,x_d]^T$. Potom z definice nezávislosti a linearity integrálu dostáváme Nejdříve dokážeme implikaci $\Rightarrow$. Uvažujme vektor $\vec{x} = [x_1,\dots,x_d]^T$. Potom z definice nezávislosti a linearity integrálu dostáváme
$$ F_{\vec{X}}(\vec{x}) = \prod_{l=1}^d F_{X_l}(x_l) = \prod_{l=1}^d \int_{-\infty}^{x_l} f_{x_l} (t_l) d\mu_l = \int_{-\infty}^{x_1} \cdots \int_{-\infty}^{x_d} \prod_{l=1}^d f_{x_l}(t_l)d\mu_d\cdots d\mu_1,$$ $$ F_{\vec{X}}(\vec{x}) = \prod_{l=1}^d F_{X_l}(x_l) = \prod_{l=1}^d \int_{-\infty}^{x_l} f_{x_l} (t_l) d\mu_l = \int_{-\infty}^{x_1} \cdots \int_{-\infty}^{x_d} \prod_{l=1}^d f_{x_l}(t_l)d\mu_d\cdots d\mu_1,$$
kde druhá rovnost plyne z věty o hustotě vzhledem k součinové referenční míře (Věta \ref{thm-density-product}) s mírou $\lambda^d$, případně sčítací mírou $\nu$ na $\mathbb{R}^d$. Dále díky Fubiniově větě můžeme pokračovat v úpravách kde druhá rovnost plyne z věty o hustotě vzhledem k součinové referenční míře (Věta \ref{thm-density-product}) s mírou $\lambda^d$, případně sčítací mírou $\nu$ na $\R ^d$. Dále díky Fubiniově větě můžeme pokračovat v úpravách
$$ \int_{-\infty}^{x_1} \cdots \int_{-\infty}^{x_d} \prod_{l=1}^d f_{x_l}(t_l)d\mu_d\cdots d\mu_1 = \int_{(-\infty, \vec{x}]} \prod_{l=1}^d f_{x_l} (t_l) d(\mu_1 \otimes \cdots \otimes \mu_d).$$ $$ \int_{-\infty}^{x_1} \cdots \int_{-\infty}^{x_d} \prod_{l=1}^d f_{x_l}(t_l)d\mu_d\cdots d\mu_1 = \int_{(-\infty, \vec{x}]} \prod_{l=1}^d f_{x_l} (t_l) d(\mu_1 \otimes \cdots \otimes \mu_d).$$
Pak už ale nutně musí platit $f_{\vec{X}}(t_1, \dots, t_d) = \prod_{l=1}^d f_{x_l} (t_l)$. Pak už ale nutně musí platit $f_{\vec{X}}(t_1, \dots, t_d) = \prod_{l=1}^d f_{x_l} (t_l)$.
@ -521,15 +521,15 @@ Dalším důležitým pojmem je takzvaný nosič náhodné veličiny. Rozumíme
\end{theorem} \end{theorem}
\begin{proof} \begin{proof}
Začneme implikací zprava doleva ($\Leftarrow$). Jestliže pro všechny množiny $B_l \in \mathcal{B}(\mathbb{R}), l = 1,\dots,d$ platí Začneme implikací zprava doleva ($\Leftarrow$). Jestliže pro všechny množiny $B_l \in \mathcal{B}(\R ), l = 1,\dots,d$ platí
$$ P_{\vec{X}} (\times_{l=1}^d B_l) = \prod_{l=1}^d P_{X_l}(B_l), $$ $$ P_{\vec{X}} (\times_{l=1}^d B_l) = \prod_{l=1}^d P_{X_l}(B_l), $$
pak vezmeme $B_l = (-\infty,x_l]$ pro fixní $\vec{x} = [x_1, \dots, x_d]$ generátory borelovské $\sigma$-algebry a můžeme počítat pak vezmeme $B_l = (-\infty,x_l]$ pro fixní $\vec{x} = [x_1, \dots, x_d]$ generátory borelovské $\sigma$-algebry a můžeme počítat
$$ F_{\vec{X}} (\vec{x}) = P_{\vec{X}}(\times_{l=1}^d (-\infty, x_l]) = \prod_{l = 1}^d P_{X_l} ((-\infty, x_l]) = \prod_{l = 1}^d F_{X_l} (x_l), $$ $$ F_{\vec{X}} (\vec{x}) = P_{\vec{X}}(\times_{l=1}^d (-\infty, x_l]) = \prod_{l = 1}^d P_{X_l} ((-\infty, x_l]) = \prod_{l = 1}^d F_{X_l} (x_l), $$
což je přímo definice nezávislosti. což je přímo definice nezávislosti.
K důkazu opačné implikace (předpokládáme platnost $F_{\vec{X}} (\vec{x}) = \prod_{l=1}^d F_{X_l} (x_l)$ pro všechna $\vec{x} \in \mathbb{R}^d$) použijeme Dynkinův systém K důkazu opačné implikace (předpokládáme platnost $F_{\vec{X}} (\vec{x}) = \prod_{l=1}^d F_{X_l} (x_l)$ pro všechna $\vec{x} \in \R ^d$) použijeme Dynkinův systém
$$ D = \left\{ \times_{l = 1}^d (-\infty, x_l], x_l \in \mathbb{R}, \forall l \in \{1,\dots,d\}\right\}. $$ $$ D = \left\{ \times_{l = 1}^d (-\infty, x_l], x_l \in \R , \forall l \in \{1,\dots,d\}\right\}. $$
Tento systém je uzavřený na průniky a generuje celou borelovskou $\sigma$-algebru $\mathcal{B}(\mathbb{R}^d)$. Jelikož $P_{\vec{X}}(\mathbb{R}^d) = 1$, dostáváme z věty o jednoznačnosti míry rovnost obou měr ($P_{\vec{X}}$ a $\otimes_{l=1}^d P_{X_l}$) na celé $\mathcal{B}(\mathbb{R}^d)$. Tento systém je uzavřený na průniky a generuje celou borelovskou $\sigma$-algebru $\mathcal{B}(\R ^d)$. Jelikož $P_{\vec{X}}(\R ^d) = 1$, dostáváme z věty o jednoznačnosti míry rovnost obou měr ($P_{\vec{X}}$ a $\otimes_{l=1}^d P_{X_l}$) na celé $\mathcal{B}(\R ^d)$.
\end{proof} \end{proof}
Vrátíme se opět k podmíněnosti, tentokrát budeme zkoumat podmíněnost náhodných veličin. Motivačním příkladem budiž zjištění průměrné mzdy občana, který vystudoval MatFyz na základě znalosti průměrné mzdy všech občanů ČR. Opět se jedná o zjednodušenou definici, ta obecnější bude uvedena v pokročilejších kurzech. Vrátíme se opět k podmíněnosti, tentokrát budeme zkoumat podmíněnost náhodných veličin. Motivačním příkladem budiž zjištění průměrné mzdy občana, který vystudoval MatFyz na základě znalosti průměrné mzdy všech občanů ČR. Opět se jedná o zjednodušenou definici, ta obecnější bude uvedena v pokročilejších kurzech.
@ -549,7 +549,7 @@ Je třeba si uvědomit, že podmíněná pravděpodobnostní funkce (hustota) js
V dalších kapitolách budeme pracovat s mnohorozměrným normálním rozdělením, je proto vhodné si ho zadefinovat už teď. V obecném případě nestačí zadefinovat chování po složkách, je třeba nějakým způsobem zahrnout i vztahy mezi jednotlivými složkami. V dalších kapitolách budeme pracovat s mnohorozměrným normálním rozdělením, je proto vhodné si ho zadefinovat už teď. V obecném případě nestačí zadefinovat chování po složkách, je třeba nějakým způsobem zahrnout i vztahy mezi jednotlivými složkami.
\begin{definition} \begin{definition}
Náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$$d$-\textit{rozměrné normální rozdělení} s parametry $\mu \in \mathbb{R}^d$ a $\Sigma \in \mathbb{R}^{d \times d}$ (značíme $X \sim N_d(\mu, \Sigma)$), pokud existuje $k$-rozměrný náhodný vektor $\vec{Y} = [Y_1, \dots, Y_k]^T$ a matice $\mathbb{A} \in \mathbb{R}^{d \times k}$ takové, že Náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$$d$-\textit{rozměrné normální rozdělení} s parametry $\mu \in \R ^d$ a $\Sigma \in \R ^{d \times d}$ (značíme $X \sim N_d(\mu, \Sigma)$), pokud existuje $k$-rozměrný náhodný vektor $\vec{Y} = [Y_1, \dots, Y_k]^T$ a matice $\mathbb{A} \in \R ^{d \times k}$ takové, že
\begin{enumerate}[(i)] \begin{enumerate}[(i)]
\item $\{Y_1, \dots, Y_k\}$ jsou nezávislé; \item $\{Y_1, \dots, Y_k\}$ jsou nezávislé;
\item $Y_j \sim N(0, 1)$ pro všechny složky $j \in \{1, \dots, k\}$; \item $Y_j \sim N(0, 1)$ pro všechny složky $j \in \{1, \dots, k\}$;
@ -562,7 +562,7 @@ Takto komplikovaná definice je potřeba, neboť matice $\Sigma$ nutně nemusí
Na závěr se budeme chvíli věnovat transformacím náhodných veličin. V obecném případě je možné formalizovat tuto představu pomocí věty o substituci z TMI, avšak pro naše účely postačí uvést jen několik speciálních případů. Na závěr se budeme chvíli věnovat transformacím náhodných veličin. V obecném případě je možné formalizovat tuto představu pomocí věty o substituci z TMI, avšak pro naše účely postačí uvést jen několik speciálních případů.
Mějme diskrétní náhodnou veličinu $X$ a ne nutně monotónní funkci $t: \mathbb{R}\rightarrow \mathbb{R}$, pro kterou platí $Y := t(X)$. Chceme odvodit pravděpodobnostní funkci $P[Y = y]$. Můžeme psát Mějme diskrétní náhodnou veličinu $X$ a ne nutně monotónní funkci $t: \R \rightarrow \R $, pro kterou platí $Y := t(X)$. Chceme odvodit pravděpodobnostní funkci $P[Y = y]$. Můžeme psát
$$ P[Y = y] = P[t(X) = y] = P[X \in t^{-1}(y)] = \sum_{t(x) = y} P[X = x]. $$ $$ P[Y = y] = P[t(X) = y] = P[X \in t^{-1}(y)] = \sum_{t(x) = y} P[X = x]. $$
Dále mějme spojitou náhodnou veličinu $X$, známe její hustotu $f_X(x)$. Cílem je spočítat hustotu $f_Y(y)$, kde $Y = t(X)$. Pro každé $y$ můžeme nalézt množinu $\mathcal{T}_y = \{x: t(x) \leq y\}$. Poté můžeme spočítat distribuční funkci rozdělení $Y$. Dále mějme spojitou náhodnou veličinu $X$, známe její hustotu $f_X(x)$. Cílem je spočítat hustotu $f_Y(y)$, kde $Y = t(X)$. Pro každé $y$ můžeme nalézt množinu $\mathcal{T}_y = \{x: t(x) \leq y\}$. Poté můžeme spočítat distribuční funkci rozdělení $Y$.
@ -574,7 +574,7 @@ $$ P[Z = z] = P[t(X, Y) = z] = P[\omega: t([X, Y]^T(\omega)) = z] = $$
$$ P[[X, Y]^T \in t^{-1} (z)] = \sum_{t(x, y) = z} P[X = x, Y = y].$$ $$ P[[X, Y]^T \in t^{-1} (z)] = \sum_{t(x, y) = z} P[X = x, Y = y].$$
Nakonec mějme spojitý náhodný vektor $[X, Y]^T$, pro nějž známe hustotu $f_{[X, Y]^T}(x, y)$ a chceme získat hustotu $f_Z(z)$, jestliže náhodná veličina $Z$ je definována $Z := t(X, Y)$. Nakonec mějme spojitý náhodný vektor $[X, Y]^T$, pro nějž známe hustotu $f_{[X, Y]^T}(x, y)$ a chceme získat hustotu $f_Z(z)$, jestliže náhodná veličina $Z$ je definována $Z := t(X, Y)$.
V analogii se spojitou náhodnou veličinou nalezneme pro každé $z \in \mathbb{R}$ množinu $\mathcal{T}(z) = \{ [x, y]: t(x, y) \leq z \}$. Opět spočteme distribuční funkci $F_Z$ pomocí následujících kroků V analogii se spojitou náhodnou veličinou nalezneme pro každé $z \in \R $ množinu $\mathcal{T}(z) = \{ [x, y]: t(x, y) \leq z \}$. Opět spočteme distribuční funkci $F_Z$ pomocí následujících kroků
$$ F_Z(z) = P[Z \leq z] = P[t(X, Y) \leq z] = P[\omega: t([X, Y]^T(\omega)) \leq z] = $$ $$ F_Z(z) = P[Z \leq z] = P[t(X, Y) \leq z] = P[\omega: t([X, Y]^T(\omega)) \leq z] = $$
$$ \iint_{\mathcal{T}(z)} f_{[X, Y]^T} (x, y) dxdy,$$ $$ \iint_{\mathcal{T}(z)} f_{[X, Y]^T} (x, y) dxdy,$$
hustotu $f_Z$ opět můžeme získat pomocí zderivování funkce $F_Z$. hustotu $f_Z$ opět můžeme získat pomocí zderivování funkce $F_Z$.

Binary file not shown.

View file

@ -22,6 +22,15 @@
\newtheorem{example}[theorem]{Příklad} \newtheorem{example}[theorem]{Příklad}
\newtheorem{convention}[theorem]{Úmluva} \newtheorem{convention}[theorem]{Úmluva}
\DeclareMathOperator{\Var}{Var}
\DeclareMathOperator{\Corr}{Corr}
\DeclareMathOperator{\Cov}{Cov}
\DeclareMathOperator{\sd}{sd}
\newcommand*{\R}{\mathbb{R}}
\newcommand*{\N}{\mathbb{N}}
\newcommand*{\E}{\mathbb{E}}
\title{Pravděpodobnost a matematická statistika (NMSA202)} \title{Pravděpodobnost a matematická statistika (NMSA202)}
\author{Petr Velička \footnote{\href{mailto:petrvel@matfyz.cz}{petrvel@matfyz.cz}}\\přednášející: doc. RNDr. Michal Pešta, Ph.D. \footnote{\href{mailto:pesta@karlin.mff.cuni.cz}{pesta@karlin.mff.cuni.cz}}} \author{Petr Velička \footnote{\href{mailto:petrvel@matfyz.cz}{petrvel@matfyz.cz}}\\přednášející: doc. RNDr. Michal Pešta, Ph.D. \footnote{\href{mailto:pesta@karlin.mff.cuni.cz}{pesta@karlin.mff.cuni.cz}}}
\date{LS 2024/25} \date{LS 2024/25}

View file

@ -4,7 +4,7 @@ V této kapitole se budeme věnovat pojmu střední hodnoty, laicky řečeno, ko
\begin{definition} \begin{definition}
\textit{Střední hodnota} náhodné veličiny $X$ je reálné číslo \textit{Střední hodnota} náhodné veličiny $X$ je reálné číslo
$$ \mathbb{E}[X] = \mathbb{E}X = \int XdP \equiv \int X(\omega) dP(\omega), $$ $$ \E [X] = \E X = \int XdP \equiv \int X(\omega) dP(\omega), $$
pokud pravá strana existuje. pokud pravá strana existuje.
\end{definition} \end{definition}
@ -12,25 +12,25 @@ Tato definice je velmi teoretická, k praktickému výpočtu se hodí následuj
\begin{theorem} \begin{theorem}
\label{thm-expected-value} \label{thm-expected-value}
Střední hodnota náhodné veličiny $X$ je $\mathbb{E}X = \int x dP_X(x)$, pokud pravá strana existuje. Střední hodnota náhodné veličiny $X$ je $\E X = \int x dP_X(x)$, pokud pravá strana existuje.
\end{theorem} \end{theorem}
\begin{proof} \begin{proof}
Z věty o přenosu integrace (\ref{thm-pushforward-measure}) při volbě $g = Id$ a $(\mathbb{M}, \mathcal{M}) = (\mathbb{R}, \mathcal{B})$ dostáváme požadované tvrzení. Z věty o přenosu integrace (\ref{thm-pushforward-measure}) při volbě $g = Id$ a $(\mathbb{M}, \mathcal{M}) = (\R , \mathcal{B})$ dostáváme požadované tvrzení.
\end{proof} \end{proof}
Z Radon-Nikodymovy věty ihned plyne následující pozorování Z Radon-Nikodymovy věty ihned plyne následující pozorování
\begin{observation} \begin{observation}
Střední hodnota veličiny $X$ je Střední hodnota veličiny $X$ je
$$ \mathbb{E}X = \begin{cases}\int_{-\infty}^\infty xf_X(x) dx, X \text{ spojitá};\\ $$ \E X = \begin{cases}\int_{-\infty}^\infty xf_X(x) dx, X \text{ spojitá};\\
\sum_{x \in S(X)} xP[X = x], X \text{ diskrétní}. \end{cases} $$ \sum_{x \in S(X)} xP[X = x], X \text{ diskrétní}. \end{cases} $$
\end{observation} \end{observation}
Střední hodnota nemusí existovat vždy, jeden z takových případů uvedeme v následujícím příkladu. Střední hodnota nemusí existovat vždy, jeden z takových případů uvedeme v následujícím příkladu.
\begin{example} \begin{example}
Pokud $X \sim Cauchy$ (Definice \ref{def-cauchy}), pak $\mathbb{E}X$ neexistuje. Pomocí integrování per partes můžeme počítat Pokud $X \sim Cauchy$ (Definice \ref{def-cauchy}), pak $\E X$ neexistuje. Pomocí integrování per partes můžeme počítat
$$ \int_0^\infty \frac{x}{\pi(1 + x^2)} dx = [x \arctan(x)]_0^\infty - \int_0^\infty \arctan(x) dx = \infty. $$ $$ \int_0^\infty \frac{x}{\pi(1 + x^2)} dx = [x \arctan(x)]_0^\infty - \int_0^\infty \arctan(x) dx = \infty. $$
Dostali jsme, že pro integrál přes celou reálnou přímku není definován výraz $\infty - \infty$. Dostali jsme, že pro integrál přes celou reálnou přímku není definován výraz $\infty - \infty$.
\end{example} \end{example}
@ -39,29 +39,29 @@ Uvažujme teď transformaci $Y = t(X)$. Následující věta nám umožní poč
\begin{theorem}[Pravidlo líného statitika] \begin{theorem}[Pravidlo líného statitika]
\label{thm-lazy-statistician} \label{thm-lazy-statistician}
Buď $t: \mathbb{R} \rightarrow \mathbb{R}$ měřitelná funkce a nechť $Y = t(X)$, kde $X$ je nějaká náhodná veličina. Pak Buď $t: \R \rightarrow \R $ měřitelná funkce a nechť $Y = t(X)$, kde $X$ je nějaká náhodná veličina. Pak
$$ \mathbb{E} Y = \int t(x) dP_X(x), $$ $$ \E Y = \int t(x) dP_X(x), $$
pokud pravá strana existuje. pokud pravá strana existuje.
\end{theorem} \end{theorem}
\begin{proof} \begin{proof}
Z Věty \ref{thm-pushforward-measure} dostáváme Z Věty \ref{thm-pushforward-measure} dostáváme
$$ \mathbb{E} Y = \mathbb{E} [ t(X) ] = \int_\mathbb{R} t(X(\omega)) dP(\omega) = \int_\mathbb{R} t(x) dP_X(x). $$ $$ \E Y = \E [ t(X) ] = \int_\R t(X(\omega)) dP(\omega) = \int_\R t(x) dP_X(x). $$
\end{proof} \end{proof}
Poznamenejme si explicitní vzorce pro transformaci spojitých a diskrétní náhodných veličin, které jsou přímým důsledkem předchozí věty: Poznamenejme si explicitní vzorce pro transformaci spojitých a diskrétní náhodných veličin, které jsou přímým důsledkem předchozí věty:
\begin{corollary} \begin{corollary}
Mějme náhodné veličiny $X$ a $Y$ takové, že platí $Y = t(X)$ pro nějakou transformaci $t: \mathbb{R} \rightarrow \mathbb{R}$. Má-li $X$ diskrétní rozdělení, potom Mějme náhodné veličiny $X$ a $Y$ takové, že platí $Y = t(X)$ pro nějakou transformaci $t: \R \rightarrow \R $. Má-li $X$ diskrétní rozdělení, potom
$$ \mathbb{E}Y = \sum_{x \in S(x)} t(x) P[X = x]. $$ $$ \E Y = \sum_{x \in S(x)} t(x) P[X = x]. $$
Je-li $X$ spojitá, potom platí Je-li $X$ spojitá, potom platí
$$ \mathbb{E}Y = \int_{\mathbb{R}} t(x) f_X(x) dx. $$ $$ \E Y = \int_{\R } t(x) f_X(x) dx. $$
\end{corollary} \end{corollary}
Přímé využití pravidla líného statistika si uvedeme v definici a aplikacích následujícího pojmu, který jistým způsobem umožňuje charakterizovat chování rozdělení. Přímé využití pravidla líného statistika si uvedeme v definici a aplikacích následujícího pojmu, který jistým způsobem umožňuje charakterizovat chování rozdělení.
\begin{definition} \begin{definition}
Pro reálné číslo $k$ definujeme $k$-tý \textit{moment} náhodné veličiny $X$ jako $\mathbb{E}[X^k]$ za předpokladu, že $\mathbb{E}[|X|^k] < \infty$. Dále definujeme $k$-tý \textit{absolutní moment} jako $\mathbb{E}[|X|^k]$, pokud existuje. Pro reálné číslo $k$ definujeme $k$-tý \textit{moment} náhodné veličiny $X$ jako $\E [X^k]$ za předpokladu, že $\E [|X|^k] < \infty$. Dále definujeme $k$-tý \textit{absolutní moment} jako $\E [|X|^k]$, pokud existuje.
\end{definition} \end{definition}
V praxi se nejčastěji setkáme s momenty jen pro $k$ přirozené, pokud nebude řečeno jinak, všechny momenty budou mít přirozený parametr. V praxi se nejčastěji setkáme s momenty jen pro $k$ přirozené, pokud nebude řečeno jinak, všechny momenty budou mít přirozený parametr.
@ -72,47 +72,171 @@ V praxi se nejčastěji setkáme s momenty jen pro $k$ přirozené, pokud nebude
\begin{proof} \begin{proof}
Potřebujeme ukázat, že $E[|X|^l] < \infty$. Můžeme počítat Potřebujeme ukázat, že $E[|X|^l] < \infty$. Můžeme počítat
$$ \mathbb{E}[|X|^l] = \int_\mathbb{R} |x|^l dP_X(x) = \int_{|x| \leq 1} |x|^l dP_X(x) + \int_{|x| > 1} |x|^l dP_X(x) \leq $$ $$ \E [|X|^l] = \int_\R |x|^l dP_X(x) = \int_{|x| \leq 1} |x|^l dP_X(x) + \int_{|x| > 1} |x|^l dP_X(x) \leq $$
$$ \int_{|x| \leq 1} dP_X(x) + \int_{|x| > 1} |x|^k dP_X(x) \leq \int_\mathbb{R} dP_X(x) + \int_\mathbb{R} |x|^k dP_X(x).$$ $$ \int_{|x| \leq 1} dP_X(x) + \int_{|x| > 1} |x|^k dP_X(x) \leq \int_\R dP_X(x) + \int_\R |x|^k dP_X(x).$$
Dostáváme $1 + \mathbb{E}[|X|^k] < \infty$, čímž je důkaz ukončen. Dostáváme $1 + \E [|X|^k] < \infty$, čímž je důkaz ukončen.
\end{proof} \end{proof}
Některá zobrazení mají jen několik prvních momentů a žádné vyšší momenty neexistují, jako například Studentovo $t$-rozdělení (Definice \ref{def-student}) s $\nu = 3$ stupni volnosti. Některá zobrazení mají jen několik prvních momentů a žádné vyšší momenty neexistují, jako například Studentovo $t$-rozdělení (Definice \ref{def-student}) s $\nu = 3$ stupni volnosti.
\begin{example} \begin{example}
Pro $X \sim t_3$ platí $\mathbb{E}X = 0$, $\mathbb{E}X^2 = 2$ ale $\mathbb{E}|X|^3 = \infty$. (cvičení, použijte per partes) Pro $X \sim t_3$ platí $\E X = 0$, $\E X^2 = 2$ ale $\E |X|^3 = \infty$. (cvičení, použijte per partes)
\end{example} \end{example}
Definujeme dále $\mathcal{L}^p$ prostory náhodných veličin, které jsou podobné $L^p$ prostorům z teorie míry a funkcionální analýzy. Definujeme dále $\mathcal{L}^p$ prostory náhodných veličin, které jsou podobné $L^p$ prostorům z teorie míry a funkcionální analýzy.
\begin{definition} \begin{definition}
Pro přirozené číslo $p$ definujeme prostor $\mathcal{L}^p$ tak, že náhodná veličina $X \in \mathcal{L}^p$, jestliže $\mathbb{E}[|X|^p] < \infty$. Pro reálné číslo $p$ (v praxi se vystačíme pouze s případem $p \geq 1$) definujeme prostor $\mathcal{L}^p$ tak, že náhodná veličina $X \in \mathcal{L}^p$, jestliže $\E [|X|^p] < \infty$.
\end{definition} \end{definition}
V následující větě shrneme pár základních vlastností prostoru $\mathcal{L}^1$, které se mohou hodit při praktických aplikacích. Ukážeme si pár základních vlastností prostoru $\mathcal{L}^1$, které se mohou hodit při praktických aplikacích.
\begin{theorem}[Základní vlastnosti prostoru $\mathcal{L}^1$] \begin{theorem}[Základní vlastnosti prostoru $\mathcal{L}^1$]
Nechť jsou dány $X_1, \dots, X_d \in \mathcal{L}^1$ a $a_1, \dots, a_d$ jsou konstanty, pak platí linearita ve smyslu Nechť jsou dány $X_1, \dots, X_d \in \mathcal{L}^1$ a $a_1, \dots, a_d$ jsou konstanty, pak platí linearita ve smyslu
$$ \mathbb{E} \left(\sum_{l = 1}^d a_l X_l \right) = \sum_{l = 1}^d a_l \mathbb{E}X_l. $$ $$ \E \left(\sum_{l = 1}^d a_l X_l \right) = \sum_{l = 1}^d a_l \E X_l. $$
Dále mějme $X_1, \dots, X_d \in \mathcal{L}^1$ nezávislé náhodné veličiny, potom platí Dále mějme $X_1, \dots, X_d \in \mathcal{L}^1$ nezávislé náhodné veličiny, potom platí
$$ \mathbb{E} \left(\prod_{l = 1}^d X_l\right) = \prod_{l = 1}^d \mathbb{E}X_l.$$ $$ \E \left(\prod_{l = 1}^d X_l\right) = \prod_{l = 1}^d \E X_l.$$
\end{theorem} \end{theorem}
\begin{proof} \begin{proof}
Linearita plyne z věty o přenosu integrace (Věta \ref{thm-pushforward-measure}) a linearity Lebesgueova integrálu. Linearita plyne z věty o přenosu integrace (Věta \ref{thm-pushforward-measure}) a linearity Lebesgueova integrálu.
Dokážeme druhou vlastnost. Nejprve ukážeme, že hledaná střední hodnota je dobře definovaná. Uvažujme posloupnost funkcí $\{g_n: \mathbb{R}^d \rightarrow \mathbb{R}\}$ definovaných jako $g_n(\vec{x}) = \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}}$. Pak pro každé $n \in \mathbb{N}$ je $g_n(\vec{X})$ omezená a existuje její první moment $\mathbb{E} [g_n(\vec{X})] \in \mathbb{R}$. Díky nezávislosti můžeme psát Dokážeme druhou vlastnost. Nejprve ukážeme, že hledaná střední hodnota je dobře definovaná. Uvažujme posloupnost funkcí $\{g_n: \R ^d \rightarrow \R \}$ definovaných jako $g_n(\vec{x}) = \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}}$. Pak pro každé $n \in \N $ je $g_n(\vec{X})$ omezená a existuje její první moment $\E [g_n(\vec{X})] \in \R $. Díky nezávislosti můžeme psát
$$ \mathbb{E} [g_n(\vec{X})] = \int_{\mathbb{R}^d} \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}} d(\otimes_{l = 1}^d P_{X_l}), $$ $$ \E [g_n(\vec{X})] = \int_{\R ^d} \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}} d(\otimes_{l = 1}^d P_{X_l}), $$
odkud z Fubiniovy věty a následně linearity integrálu plyne odkud z Fubiniovy věty a následně linearity integrálu plyne
$$ = \int_\mathbb{R} \cdots \int_\mathbb{R} \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}} dP_{X_1} \cdots dP_{X_d} = \prod_{l = 1}^d \mathbb{E}[|X_l| \chi_{\{|X_l| \leq n\}}] \leq \prod_{l = 1}^d \mathbb{E}[|X_l|]. $$ $$ = \int_\R \cdots \int_\R \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}} dP_{X_1} \cdots dP_{X_d} = \prod_{l = 1}^d \E [|X_l| \chi_{\{|X_l| \leq n\}}] \leq \prod_{l = 1}^d \E [|X_l|]. $$
Platí, že funkce $g_n(\vec{x})$ jsou nezáporné a $g_n(\vec{x}) \uparrow \prod_{l = 1}^d |x_l|$ na celém $\mathbb{R}^d$. Tudíž z Leviho věty plyne, že $\mathbb{E}[g_n(X)] \uparrow \mathbb{E}[\prod_{l=1}^d |X_l|]$. Potom ale nutně $\mathbb{E}\left|\prod_{l=1}^d X_l \right| \leq \prod_{l = 1}^d \mathbb{E}|X_l| < \infty$, tedy příslušný první moment existuje. Platí, že funkce $g_n(\vec{x})$ jsou nezáporné a $g_n(\vec{x}) \uparrow \prod_{l = 1}^d |x_l|$ na celém $\R ^d$. Tudíž z Leviho věty plyne, že $\E [g_n(X)] \uparrow \E [\prod_{l=1}^d |X_l|]$. Potom ale nutně $\E \left|\prod_{l=1}^d X_l \right| \leq \prod_{l = 1}^d \E |X_l| < \infty$, tedy příslušný první moment existuje.
Dále můžeme počítat Dále můžeme počítat
$$ \mathbb{E}\left[\prod_{d=1}^l X_l \right] = \int_{\mathbb{R}^d} \prod_{l=1}^d x_l dP_{\vec{X}} = \int_{\mathbb{R}} \prod_{l=1}^d x_l d(\otimes_{l=1}^d P_{X_l}) = $$ $$ \E \left[\prod_{d=1}^l X_l \right] = \int_{\R ^d} \prod_{l=1}^d x_l dP_{\vec{X}} = \int_{\R } \prod_{l=1}^d x_l d(\otimes_{l=1}^d P_{X_l}) = $$
$$ \int_{\mathbb{R}}\cdots\int_{\mathbb{R}} \prod_{l=1}^d x_l dP_{X_1} \cdots dP_{X_d} = \prod_{l=1}^d \int_\mathbb{R} x_l dP_{X_l} = \prod_{l=1}^d \mathbb{E}X_l, $$ $$ \int_{\R }\cdots\int_{\R } \prod_{l=1}^d x_l dP_{X_1} \cdots dP_{X_d} = \prod_{l=1}^d \int_\R x_l dP_{X_l} = \prod_{l=1}^d \E X_l, $$
kde druhá rovnost plyne z nezávislosti náhodných veličin $X_1,\dots,X_d$, třetí z Fubiniovy věty a předposlední z linearity integrálu. kde druhá rovnost plyne z nezávislosti náhodných veličin $X_1,\dots,X_d$, třetí z Fubiniovy věty a předposlední z linearity integrálu.
\end{proof} \end{proof}
\hfill \textit{konec 8. přednášky (11.3.2025)} \hfill \textit{konec 8. přednášky (11.3.2025)}
Teď definujeme další neplnohodnotnou (jinými slovy, neurčuje danou náhodnou veličinu, případně její rozdělení jednoznačně) charakteristiku. (Poznámka: příkladem plnohodnotné charakteristiky je distribuční funkce rozdělení)
\begin{definition}
\textit{Rozptyl} náhodné veličiny $X$ je definován jako
$$ \Var X = \E (X - \E X) ^ 2, $$
za předpokladu, že pravá strana je dobře definovaná. Pak \textit{směrodatná odchylka} tytéž náhodné veličiny je definovaná je
$$ \sd(X) = \sqrt{\Var X}. $$
\end{definition}
Uvědomme si, že některé volby charakterizování variability rozdělení nejsou vhodné, například na první pohled logické ``$\E (X - \E X)$" je nulová všude, kde je definovaná.
\begin{theorem}[Vlastnosti rozptylu]
\label{thm-properties-disp}
Za předpokladu, že uvažované druhé momenty jsou konečné, potom
$$ \Var X = \E (X^2) - (\E (X))^2 \geq 0. $$
Pokud $a, b \in \R $, pak
$$ \Var (aX + b) = a^2 \Var X, $$
jinými slovy, rozptyl se chová jako kvadratická forma.
Pokud $X_1, \dots, X_2$ jsou nezávislé a $a_1, \dots, a_d$ jsou reálné konstanty, pak
$$ \Var \left(\sum_{l=1}^d a_l X_l\right) = \sum_{l=1}^d a_l^2 \Var X_l. $$
\end{theorem}
\begin{proof}
Dokážeme první vlastnost. Máme
$$ \Var X = \E [(X - \E X)^2] = \E [X^2-2X(\E X) + (\E X)^2] = \E X^2 - 2(\E X)^2 + (\E X)^2, $$
kde předposlední rovnost plyne z linearity střední hodnoty a faktu, že $E[c] = c$ pro konstantu $c$. Nezápornost plyne z toho, že počítáme střední hodnotu nezáporné náhodné veličiny.
Dále pro druhou vlastnost pišme
$$ \Var (aX + b) = \E \left[(aX + b - \E (aX + b))^2\right] = \E [a^2\left(X - \E X\right)^2], $$
kde druhá rovnost plyne z linearity střední hodnoty a rovnosti $ b = \E b$, dále můžeme psát
$$ \E [a^2\left(X - \E X\right)^2] = a^2 \E (X - \E X)^2 = a^2 \Var X. $$
K důkazu poslední vlastnosti začneme opět rozepsáním definice
$$ \Var \left(\sum_{l = 1}^d a_l X_l \right) = \E \left[ \sum_{l = 1}^d a_l X_l - \E \left( \sum_{l=1}^d a_l X_l \right)^2 \right] = \E \left[ \sum_{l = 1}^d a_l(X_l - EX_l)\right]^2 = $$
$$ \E \left[ \sum_{l = 1}^d a_l^2(X_l - \E X_l)^2 + 2\sum_{1 \leq j < l \leq d} a_j a_l (X_j - \E X_j) (X_l - \E X_l) \right] = $$
$$ \sum_{l = 1}^d a_l^2 \E(X_l - \E X_l)^2 + 2 \sum_{1 \leq j < l \leq d} a_j a_l \E (X - \E X_j) (X_l - \E X_l) = \sum_{l = 1}^d a_l^2 \Var X_l, $$
kde poslední rovnost plyne z toho, že v případě $j \neq l$ máme díky nezávislosti
$$ \E (X_j - \E X_j) (X_l - \E X_l) = E[X_j X_l] - \E [X_l] \E [X_j] = 0. $$
\end{proof}
Dalším pojmem, kterému se budeme věnovat, je kovariance a korelace, které charakterizují lineární vztah mezi dvěma náhodnými veličinami.
\begin{definition}
\textit{Kovariance} mezi $X$ a $Y$ je definována jako
$$ \Cov(X, Y) = \textit{E}((X - \E X)(Y - \E Y)). $$
Pokud $\Var(X)\Var(Y) > 0$, pak definujeme \textit{korelaci} mezi $X$ a $Y$ vztahem
$$ \rho_{X, Y} \equiv \Corr(X, Y) = \frac{\Cov(X, Y)}{\sqrt{\Var(X)\Var(Y)}}. $$
\end{definition}
Je třeba si dávat pozor, že tyto pojmy necharakterizují libovolnou souvislost mezi náhodnými veličinami, ale pouze lineární. Navíc, korelace nemusí způsobovat kauzalitu (spotřeba čokolády v dané zemi sice koreluje s počtem Nobelových laureátů, ale nemůžeme zvýšit počet laureátů tím, že zvýšíme spotřebu čokolády).
Dále si všimneme, že z pravidla líného statistika (Věta \ref{thm-lazy-statistician}) okamžitě plynou následující vztahy.
\begin{corollary}
Pro $X, Y$ spojité platí $\E XY = \int_{-\infty}^\infty \int_{-\infty}^\infty xyf_{(X, Y)} (x, y) dx dy$.
Pro $X, Y$ diskrétní platí $\E XY = \sum_{x \in S(X), y \in S(y)} xyP[X = x, Y = y]$.
\end{corollary}
Dále si zformulujeme několik vlastností kovariance a korelace.
\begin{theorem}
Pro náhodné veličiny $X$ a $Y$ platí následující tvrzení (jsou-li příslušné matematické objekty dobře definovány).
\begin{enumerate}[(i)]
\item $\Cov(X, Y) = \E (XY) - \E X \E Y$;
\item $-1 \leq \Corr(X, Y) \leq 1$;
\item $|\Corr(X, Y)| = 1 \Leftrightarrow Y = aX + b$ s pravděpodobnosti $1$ pro nějaké hodnoty $a, b \in \R$.
\item Pro nezávislé $X$ a $Y$ platí $\Cov(X, Y) = 0$. Pozor: opačná implikace nemusí platit (stačí vzít $X \sim U(-1, 1), Y = X^2$).
\end{enumerate}
\end{theorem}
\begin{proof}
Budeme postupovat postupně, k důkazu první vlastnosti použijeme následující výpočet:
$$ \Cov(X, Y) = \E [(X - \E X) (Y - \E Y)] = \E (XY) - \E X \E Y, $$
kde druhá rovnost se získá roznásobením závorek analogicky s důkazem předchozí věty. Z tohoto okamžitě plyne vlastnost (iv), neboť nezávislost $X$ a $Y$ implikuje, že $\E (XY) = \E X \E Y$.
K důkazu vlastnosti (ii) použijeme Cauchyovu-Schwarzovu nerovnost. Definujeme funkci $g(a) := \E (aX - Y)^2$, potom
$$ 0 \leq \E (aX - Y)^2 = \E (a^2X^2 - 2aXY + Y^2) = a^2\E X^2 - 2a\E XY + \E Y. $$
Funkci $g(a)$ můžeme zderivovat, dostáváme
$$ g'(a) = 2a\E X^2 - 2\E XY, $$
svého minima tedy funkce $g$ nabývá v bodě $\frac{\E XY}{\E X^2}$ (bez újmy na obecnosti $\E X^2 \neq 0$, v opačném případě máme $X = 0$ skoro jistě, z čehož vlastnosti z věty plynou triviálně).
Dosadíme tuto hodnotu do předpisu funkce $g(a)$ a dostáváme.
$$ g\left(\frac{\E XY}{\E X^2}\right) = \frac{(\E XY)^2}{\E X^2} - 2 \frac{(\E XY^2)}{\E X^2} + \E Y^2 \geq 0. $$
Z toho již plyne, že $(\E XY)^2 \leq (\E X^2)(\E Y^2)$, z čehož už plyne požadované tvrzení.
Vlastnost (iii) budeme dokazovat po implikacích. Nejdříve předpokládejme, že $Y = aX + b$ pro nějaká $a, b \in \R$. Potom máme
$$ \Cov (X, Y) = \Cov(X, aX + b) = \E [X(aX + b)] - \E X \E (aX + b) = $$
$$ a\E X^2 + b \E X - a(\E X)^2 - b\E X = a\Var X. $$
a můžeme psát
$$ |\Corr(X, Y)| = \frac{|\Cov(X, Y)|}{\sqrt{\Var X \Var Y}} = \frac{|a \Var X|}{\sqrt{\Var{X}a^2 \Var X}} = 1. $$
Nakonec, k důkazu poslední implikace si uvědomíme, že rovnost nastává v případě $|Cor(X, Y)| = \sqrt{\Var X \Var Y}$. To nastane právě tehdy, když
$$[\E(X - \E X) (Y - \E Y)]^2 = [\E (X - \E X)^2] [\E (Y - \E Y)^2].$$
Položme $\tilde{X} = X - \E X$ a $\tilde Y = Y - \E Y$. Předchozí výraz pak bude mít tvar
$$[\E\tilde{X}\tilde{Y}]^2 = \E\tilde{X}^2\E\tilde{Y}^2.$$
Dosadíme $a = \frac{\E\tilde{X}\tilde{Y}}{\E \tilde{X}^2}$ do $g(a)$ z důkazu vlastnosti (ii), dostáváme (všimněte si, že jde o bod, kde funkce $g$ nabývá svého minima) $0 = \E\left[\frac{\E \tilde{X}\tilde{Y}}{\E \tilde{X}^2}\tilde{X} - \tilde{Y}\right]^2$, a tedy musí platit $P[a\tilde{X} - \tilde{Y} = 0] = 1$. Pak s pravděpodobností $1$ musí platit $aX - a\E X + \E Y = Y$, což jsme chtěli dokázat (stačí vzít $b = - a\E X - \E Y$).
\end{proof}
Jednoduchým důsledkem tohoto tvrzení (plyne z důkazu poslední vlastnosti z Věty \ref{thm-properties-disp}) je následující tvrzení umožňující počítat rozptyl součtu ne nutně nezávislých veličin.
\begin{corollary}[Rozptyl součtu]
Pokud $X_1, \dots, X_d \in \mathcal{L}^2$ a $a_1, \dots, a_d$ jsou reálné konstanty, potom
$$ \Var\left(\sum_{l = 1}^d a_l X_l \right) = \sum_{l = 1}^d a_l^2 \Var X_l + 2 \sum_{1 \leq j < l \leq d} a_j a_l \Cov(X_j, X_l).$$
\end{corollary}
Pro vícerozměrné náhodné vektory můžeme definovat obdobné pojmy jako pro náhodné veličiny.
\begin{definition}
\textit{Střední hodnotu} náhodného vektoru $\vec{X}=[X_1, \dots, X_d]^T$ definujeme předpisem
$$ \E \vec{X} = [\E X_1, \dots, \E X_d]^T.$$
\textit{Varianční-kovarianční matice} náhodného vektoru $\vec{X} = [X_1, \dots, X_d]^T$ je definována jako
$$ \Var \vec{X} =
\begin{bmatrix}
\Var X_1 & \Cov(X_1, X_2) & \cdots & \Cov(X_1, X_d) \\
\Cov(X_2, X_1) & \Var X_2 & \cdots & \Cov(X_2, X_d) \\
\vdots & \vdots & \ddots & \vdots \\
\Cov(X_d, X_1) & \Cov(X_d, X_2) & \cdots & \Var(X_d)
\end{bmatrix}.$$
\end{definition}
Všimneme si, že platí $\Cov(X, X) = \Var X$ a $\Cov(X, Y) = \Cov(Y, X)$. Z toho plyne, že takto definovaná kovarianční matice je symetrická.
\hfill \textit{konec 9. přednášky (17.3.2025)}