diff --git a/nahodne-jevy.tex b/nahodne-jevy.tex index 95f057a..0bdb087 100644 --- a/nahodne-jevy.tex +++ b/nahodne-jevy.tex @@ -37,7 +37,7 @@ Každé události $A \in \mathcal{A}$ přiřadíme číslo $\mathbb{P}(A)$, kter Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. Zobrazení $P: \mathcal{A} \rightarrow [0, 1]$ nazýváme \textit{pravděpodobnostní mírou (pravděpodobností)}, jestliže: \begin{enumerate}[(i)] \item $P(\Omega) = 1$, - \item Pro libovolné po dvou disjunktní měřitelné množiny $A_i \in \mathcal{A}$, $i \in \mathbb{N}$ platí + \item Pro libovolné po dvou disjunktní měřitelné množiny $A_i \in \mathcal{A}$, $i \in \N $ platí $P(\bigcup_{i=1}^{\infty}A_i) = \sum_{i=1}^{\infty} P(A_i)$. \end{enumerate} @@ -135,7 +135,7 @@ Poznamenejme si několik základních vlastností podmíněné pravděpodobnosti Vlastnost (ii) se dokáže následujícím protipříkladem, uvažujme hod dvěma férovými mincemi. Nechť $H_1$ je událost ``padla aspoň jedna panna" a $H_2$ událost ``padly dvě panny". Potom $P(H_1|H_2) = 1$ ale $P(H_2|H_1) = \frac{1}{3}$. Důkaz obecného vztahu je ponechán čtenáři jako snadné (ale užitečné) cvičení. - Nakonec, vlastnost (i) je důsledkem toho, že pro libovolnou množinu $A \in \mathcal{A}$ je $A \cap B$ měřitelná, a navíc pro libovolný systém po dvou disjunktních množin $A_i, i \in \mathbb{N}$ platí $P(\bigcup_{i=1}^\infty A_i | B) = \frac{1}{P(B)} P\left(\left(\bigcup_{i=1}^\infty A_i\right) \cap B\right) = $\\ + Nakonec, vlastnost (i) je důsledkem toho, že pro libovolnou množinu $A \in \mathcal{A}$ je $A \cap B$ měřitelná, a navíc pro libovolný systém po dvou disjunktních množin $A_i, i \in \N $ platí $P(\bigcup_{i=1}^\infty A_i | B) = \frac{1}{P(B)} P\left(\left(\bigcup_{i=1}^\infty A_i\right) \cap B\right) = $\\ $\frac{1}{P(B)} P\left(\bigcup_{i=1}^\infty (A_i \cap B)\right) = \frac{1}{P(B)} \sum_{i=1}^\infty P(A_i \cap B) = \sum_{i=1}^\infty P(A_i|B)$. \end{proof} @@ -168,17 +168,17 @@ Na závěr uvedeme dvě velmi užitečné věty, které se často používají v \begin{theorem}[Zákon úplné pravděpodobnosti] \label{thm-complete-probability} - Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \mathbb{N}$. Potom pro libovolnou událost $B \in \mathcal{A}$ platí: + Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \N $. Potom pro libovolnou událost $B \in \mathcal{A}$ platí: $$P(B) = \sum_{i=1}^\infty P(B|A_i) P(A_i).$$ \end{theorem} \begin{proof} - Definujme posloupnost množin $C_i = B \cap A_i$ pro $i\in \mathbb{N}$. Zjevně $\{C_i, i \in \mathbb{N}\}$ je disjunktní pokrytí $B$. Potom $P(B) = \sum_{i=1}^\infty P(C_i) = \sum_{i=1}^\infty P(B \cap A_i) = \sum_{i=1}^\infty P(B|A_i)P(A_i)$. + Definujme posloupnost množin $C_i = B \cap A_i$ pro $i\in \N $. Zjevně $\{C_i, i \in \N \}$ je disjunktní pokrytí $B$. Potom $P(B) = \sum_{i=1}^\infty P(C_i) = \sum_{i=1}^\infty P(B \cap A_i) = \sum_{i=1}^\infty P(B|A_i)P(A_i)$. \end{proof} \begin{theorem}[Bayes] \label{thm-bayes} - Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \mathbb{N}$. Mějme událost $B \in \mathcal{A}$ s nenulovou pravděpodobností. Potom platí: + Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \N $. Mějme událost $B \in \mathcal{A}$ s nenulovou pravděpodobností. Potom platí: $$P(A_i|B) = \frac{P(B|A_i)P(A_i)}{\sum_{j=1}^\infty P(B|A_j)P(A_j)}.$$ \end{theorem} diff --git a/nahodne-veliciny.tex b/nahodne-veliciny.tex index 8318639..6549d7c 100644 --- a/nahodne-veliciny.tex +++ b/nahodne-veliciny.tex @@ -4,13 +4,13 @@ V této kapitole se budeme věnovat náhodným veličinám, což bude formalizov \begin{definition} Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. \textit{Náhodná veličina} je měřitelné zobrazení, které přiřazuje každému výsledku $\omega$ reálné číslo $X(\omega)$. - Jinými slovy, $\{\omega \in \Omega: X(\omega) \leq x\} \in \mathcal{A} \forall x\in\mathbb{R}$. + Jinými slovy, $\{\omega \in \Omega: X(\omega) \leq x\} \in \mathcal{A} \forall x\in\R $. \end{definition} \hfill \textit{konec 2. přednášky (18.2.2025)} \begin{convention} - Zavedeme značení $[X \in B] = \{\omega: X(\omega) \in B\}, [X \leq a] = \{\omega, X(\omega) \leq a\}$. Platí tedy $[X \in B], [X \leq a] \in \mathcal{A}$ pro všechna $B \in \mathcal{B}, a \in \mathbb{R}$. Jde o náhodné jevy a jsou tedy dobře definované jejich pravděpodobnosti $P[X \in B], P[X \leq a]$. + Zavedeme značení $[X \in B] = \{\omega: X(\omega) \in B\}, [X \leq a] = \{\omega, X(\omega) \leq a\}$. Platí tedy $[X \in B], [X \leq a] \in \mathcal{A}$ pro všechna $B \in \mathcal{B}, a \in \R $. Jde o náhodné jevy a jsou tedy dobře definované jejich pravděpodobnosti $P[X \in B], P[X \leq a]$. \end{convention} \begin{example} @@ -20,11 +20,11 @@ V této kapitole se budeme věnovat náhodným veličinám, což bude formalizov V předchozí kapitole jsme mluvili o pravděpodobnostním rozdělení, je na čase tento pojem formálně zadefinovat. \begin{definition} - \textit{Rozdělením náhodné veličiny} $X: (\Omega, \mathcal{A}) \rightarrow (\mathbb{R}, \mathcal{B}(\mathbb{R}))$ nazýváme indukovanou pravděpodobnostní míru $P_X$ na $(\mathbb{R},\mathcal{B}(\mathbb{R}))$ definovanou jako - $$ P_X(B) := P[\{\omega\in\Omega: X(\omega)\in B\}],B\in \mathcal{B}(\mathbb{R}).$$ + \textit{Rozdělením náhodné veličiny} $X: (\Omega, \mathcal{A}) \rightarrow (\R , \mathcal{B}(\R ))$ nazýváme indukovanou pravděpodobnostní míru $P_X$ na $(\R ,\mathcal{B}(\R ))$ definovanou jako + $$ P_X(B) := P[\{\omega\in\Omega: X(\omega)\in B\}],B\in \mathcal{B}(\R ).$$ \end{definition} -Máme tedy jakýsi obraz míry $P$ v zobrazení $P_X$ čímž se $(\Omega, \mathcal{A}, P)$ zobrazí na pravděpodobnostní prostor $(\mathbb{R},\mathcal{B}(\mathbb{R}),P_X)$. V opačném směru můžeme použít takzvané kanonické vnoření do prostoru $(\mathbb{R}, \mathcal{B}, P_X)$, kde naší zvolenou měřitelnou funkcí bude identita, tedy není potřeba se bát, že by příslušný prostor nemusel existovat. Následující věta říká, že nezáleží ve kterém z těchto dvou prostorů integrujeme libovolnou funkci. +Máme tedy jakýsi obraz míry $P$ v zobrazení $P_X$ čímž se $(\Omega, \mathcal{A}, P)$ zobrazí na pravděpodobnostní prostor $(\R ,\mathcal{B}(\R ),P_X)$. V opačném směru můžeme použít takzvané kanonické vnoření do prostoru $(\R , \mathcal{B}, P_X)$, kde naší zvolenou měřitelnou funkcí bude identita, tedy není potřeba se bát, že by příslušný prostor nemusel existovat. Následující věta říká, že nezáleží ve kterém z těchto dvou prostorů integrujeme libovolnou funkci. \begin{theorem}[O přenosu integrace] \label{thm-pushforward-measure} @@ -41,7 +41,7 @@ Máme tedy jakýsi obraz míry $P$ v zobrazení $P_X$ čímž se $(\Omega, \math Pro pravou stranu máme $$ \int_\mathbb{M} g(x) dP_X(x) = \int_B dP_X(x) = P_X(B) = P[X^{-1}(B)].$$ - Dále nechť $g$ je jednoduchá měřitelná, tedy $g(\cdot) = \sum_{k = 1}^{n} c_k \chi_{B_k}(\cdot)$ pro $n \in \mathbb{N}$, $c_k \in \mathbb{R}$ a $B_k \in \mathcal{M}$ pro všechna $k$. + Dále nechť $g$ je jednoduchá měřitelná, tedy $g(\cdot) = \sum_{k = 1}^{n} c_k \chi_{B_k}(\cdot)$ pro $n \in \N $, $c_k \in \R $ a $B_k \in \mathcal{M}$ pro všechna $k$. Z linearity integrálu plyne (vytkneme sumu) $ \int_\Omega g(X(\omega) dP(\omega) = \int_{X^{-1}(B)} dP(\omega) = P[X^{-1}(B)]$. Je-li $g$ nezáporná měřitelná, potom existuje posloupnost $g_n$ jednoduchých měřitelných funkcí takových, že $g_n \nearrow g$. Potom dle Léviho věty o monotonní konvergenci máme @@ -52,18 +52,18 @@ Máme tedy jakýsi obraz míry $P$ v zobrazení $P_X$ čímž se $(\Omega, \math Nakonec, pro $g$ měřitelnou existuje rozklad $g = g^+ - g^-$ takový, že $g^+, g^-$ jsou nezáporné měřitelné, tedy požadované tvrzení plyne z části pro nezáporné měřitelné funkce. \end{proof} -Na závěr poznamenejme, že se nám budou obzvlášť hodit volby $(\mathbb{M}, \mathcal{M}) = (\mathbb{R}^n, \mathcal{B}(\mathbb{R}^n))$ pro $n \geq 1$. +Na závěr poznamenejme, že se nám budou obzvlášť hodit volby $(\mathbb{M}, \mathcal{M}) = (\R ^n, \mathcal{B}(\R ^n))$ pro $n \geq 1$. -Připomeňme si, že jsou-li $\mu, \nu$ dvě $\sigma$-konečné míry na $(\mathbb{R}, \mathcal{B}(\mathbb{R}))$ a je-li $\nu << \mu$ (tedy $\mu(B) = 0$ implikuje $\nu(B) = 0$), potom z Radonovy-Nikodymovy věty plyne existence nezáporné měřitelné funkce $f$ takové, že $\nu(B) = \int_\mathbb{R} fd\mu$ pro všechna $B \in \mathcal{B}$. Této funkci $f$ říkáme Radonova-Nikodymova derivace a píšeme $f = \frac{d\nu}{d\mu}$. Taková funkce $f$ je navíc určena jednoznačně až na množinu $\mu$-míry $0$. +Připomeňme si, že jsou-li $\mu, \nu$ dvě $\sigma$-konečné míry na $(\R , \mathcal{B}(\R ))$ a je-li $\nu << \mu$ (tedy $\mu(B) = 0$ implikuje $\nu(B) = 0$), potom z Radonovy-Nikodymovy věty plyne existence nezáporné měřitelné funkce $f$ takové, že $\nu(B) = \int_\R fd\mu$ pro všechna $B \in \mathcal{B}$. Této funkci $f$ říkáme Radonova-Nikodymova derivace a píšeme $f = \frac{d\nu}{d\mu}$. Taková funkce $f$ je navíc určena jednoznačně až na množinu $\mu$-míry $0$. -Využijeme těchto poznatků tak, že zvolíme vhodnou referenční míru na $\mathbb{R}$ a rozdělení $P_X$ pak bude popsáno právě zavedenou Radonovou-Nikodymovou derivací. Vhodné referenční míry jsou např. +Využijeme těchto poznatků tak, že zvolíme vhodnou referenční míru na $\R $ a rozdělení $P_X$ pak bude popsáno právě zavedenou Radonovou-Nikodymovou derivací. Vhodné referenční míry jsou např. \begin{itemize} \item Lebesgueova míra $\lambda$, - \item Čítací míra na spočetné podmnožině $\mathbb{R}$, platí $\mu_S(B) = |B \cap S|$ kde $S$ je nejvýše spočetná podmnožina $\mathbb{R}$. + \item Čítací míra na spočetné podmnožině $\R $, platí $\mu_S(B) = |B \cap S|$ kde $S$ je nejvýše spočetná podmnožina $\R $. \end{itemize} \begin{definition} - Buď $X$ náhodná veličina a $P_X$ její rozdělení. Nechť $P_X$ je absolutně spojité vůči $\mu$, kde $\mu$ je $\sigma$-konečná míra na $\mathbb{R}$. Pak funkci $f_X$ splňující $P_X(B) = \int_B f_X d\mu$ pro všechny $B \in \mathbb{B}$ nazveme \textit{hustotou} rozdělení náhodné veličiny $X$ vůči míře $\mu$. + Buď $X$ náhodná veličina a $P_X$ její rozdělení. Nechť $P_X$ je absolutně spojité vůči $\mu$, kde $\mu$ je $\sigma$-konečná míra na $\R $. Pak funkci $f_X$ splňující $P_X(B) = \int_B f_X d\mu$ pro všechny $B \in \mathbb{B}$ nazveme \textit{hustotou} rozdělení náhodné veličiny $X$ vůči míře $\mu$. \end{definition} Je třeba si dát pozor na to, aby zvolená referenční míra opravdu byla absolutně spojitá, například při hodu kostkou má výsledek $1$ nenulovou pravděpodobnost, ale $\lambda(\{1\}) = 0$. @@ -135,23 +135,23 @@ Vidíme, že hustota odpovídá skokům distribuční funkce v daném bodě. V n \begin{enumerate}[(i)] \item $F_X(a)= P[X \leq a]$. Bez újmy na obecnosti nechť $b > a$. Potom $F_X(b) = P[X \leq b] = P([X \leq a] \cup [a < X \leq b]) = P[X \leq a] + P[a < X \leq b]$ z aditivity míry, druhý sčítanec je nezáporný, tedy dostáváme požadované tvrzení. \item Platí $\lim_{a\rightarrow -\infty} = \lim_{n\rightarrow\infty} F_X(-n) = \lim_{n\rightarrow\infty} P[X \in (-\infty, -n]] =: $\\$\lim_{n\rightarrow\infty} P[X \in A_n] = 0$. Poslední rovnost platí ze spojitosti míry (Věta \ref{thm-continuity}), neboť platí $A_n \searrow \emptyset$. Obdobně se ukáže tvrzení pro $a \rightarrow + \infty$ (cvičení). - \item Stačí uvažovat posloupnost $a_n = a + \frac{1}{n}$ pro $n \in \mathbb{N}$. Požadované tvrzení opět plyne z věty o spojitosti míry. + \item Stačí uvažovat posloupnost $a_n = a + \frac{1}{n}$ pro $n \in \N $. Požadované tvrzení opět plyne z věty o spojitosti míry. \end{enumerate} \end{proof} -Pro každou funkci $F$ splňující vlastnosti z předchozí věty existuje míra $\mu_F$ na $(\mathbb{R}, \mathcal{B})$ určená vztahem $\mu_F((-\infty, a]) = F(a)$ pro všechna $a$. Tato míra je konečná a platí $\mu_F((a, b]) = F(b) - F(a)$. +Pro každou funkci $F$ splňující vlastnosti z předchozí věty existuje míra $\mu_F$ na $(\R , \mathcal{B})$ určená vztahem $\mu_F((-\infty, a]) = F(a)$ pro všechna $a$. Tato míra je konečná a platí $\mu_F((a, b]) = F(b) - F(a)$. \begin{definition}[Rozklad pravděpodobnostního rozdělení] - Každou pravděpodobnostní míru $P_X$ můžeme rozdělit na tři složky $P_X = P_{X_{as}} + P_{X_{ds}} + P_{X_{sg}}$, kde $P_{X_{as}}$ je absolutně spojitá vůči Lebesgueově míře $\lambda$, $P_{X_{ds}}$ (diskrétní spojitá) je absolutně spojitá vůči čítací míře $\mu$ na nějaké spočetné podmnožině $\mathbb{R}$ a nakonec $P_{X_{sg}}$ (singulární) není absolutně spojitá vůči $\lambda$ ani ji nelze napsat jako spočetnou kombinaci Diracových měr $\delta_x$. + Každou pravděpodobnostní míru $P_X$ můžeme rozdělit na tři složky $P_X = P_{X_{as}} + P_{X_{ds}} + P_{X_{sg}}$, kde $P_{X_{as}}$ je absolutně spojitá vůči Lebesgueově míře $\lambda$, $P_{X_{ds}}$ (diskrétní spojitá) je absolutně spojitá vůči čítací míře $\mu$ na nějaké spočetné podmnožině $\R $ a nakonec $P_{X_{sg}}$ (singulární) není absolutně spojitá vůči $\lambda$ ani ji nelze napsat jako spočetnou kombinaci Diracových měr $\delta_x$. \end{definition} Příkladem singulární distribuční funkce je například integrál takzvaného Cantorova diskontinua. Obecně taková rozdělení nemají ``hezké" vlastnosti, proto s nimi již nebudeme pracovat. \begin{definition} - Náhodnou veličinu $X$ nazveme \textit{diskrétní}, jestliže existují $\emptyset \neq I \subset \mathbb{N}$, $\{x_i\}_{i \in I}$ a $\{p_i \in (0,1]\}_{i \in I}$ takové že $P[X \in B] = \sum_{i, x_i \in B} p_i$ pro všechny borelovské $B$. + Náhodnou veličinu $X$ nazveme \textit{diskrétní}, jestliže existují $\emptyset \neq I \subset \N $, $\{x_i\}_{i \in I}$ a $\{p_i \in (0,1]\}_{i \in I}$ takové že $P[X \in B] = \sum_{i, x_i \in B} p_i$ pro všechny borelovské $B$. \end{definition} -Platí $P[X = x_i] = p_i$ a $\sum_{i \in I} p_i = 1$. Rozdělením takové veličiny je funkce $P_X = \sum_{i \in I} p_i \delta_{x_i}$, kde $\delta_u$ je Diracova míra v bodě $u$. Toto rozdělení je absolutně spojité vůči čítací míře na $S = \{x_i\}_{i \in I} \subset \mathbb{R}$. Potom funkce +Platí $P[X = x_i] = p_i$ a $\sum_{i \in I} p_i = 1$. Rozdělením takové veličiny je funkce $P_X = \sum_{i \in I} p_i \delta_{x_i}$, kde $\delta_u$ je Diracova míra v bodě $u$. Toto rozdělení je absolutně spojité vůči čítací míře na $S = \{x_i\}_{i \in I} \subset \R $. Potom funkce $f_X(u) := \begin{cases} p_i, u = x_i,\\ 0, \text{jinak} @@ -161,7 +161,7 @@ $f_X(u) := \begin{cases} Náhodná veličina $X$ se nazývá \textit{(absolutně) spojitá}, pokud její rozdělení $P_X$ je absolutně spojité vůči Lebesgueově míře $\lambda$. \end{definition} -Pro spojitou náhodnou veličinu $X$ vždy existuje hustota $f_X$ (nezáporná a jednoznačná až na množinu $\lambda$-míry $0$) splňující $P[X\in B] = \int_B f_X(t) dt$ a speciálně $F_X(a) = \int_{-\infty}^a f_X(t) dt$ pro všechna $a \in \mathbb{R}$. Taková $F_X$ má derivaci ve skoro všech bodech a platí $F'_X(a) = f_X(a)$ pro s.v. $a$. Analogicky pro diskrétní náhodnou veličinu $Y$ je hustota funkcí, která nabývá v bodě $a$ hodnoty distribuční funkce v daném bodě. +Pro spojitou náhodnou veličinu $X$ vždy existuje hustota $f_X$ (nezáporná a jednoznačná až na množinu $\lambda$-míry $0$) splňující $P[X\in B] = \int_B f_X(t) dt$ a speciálně $F_X(a) = \int_{-\infty}^a f_X(t) dt$ pro všechna $a \in \R $. Taková $F_X$ má derivaci ve skoro všech bodech a platí $F'_X(a) = f_X(a)$ pro s.v. $a$. Analogicky pro diskrétní náhodnou veličinu $Y$ je hustota funkcí, která nabývá v bodě $a$ hodnoty distribuční funkce v daném bodě. Ne každá veličina, se kterou se běžně setkáme je ryze spojitá nebo ryze diskrétní. Příkladem veličiny, která má obě složky nenulové, je například úhrn denních srážek, s nenulovou pravděpodobností nenaprší vůbec, ale když už začne pršet, úhrn srážek je spojitá náhodná veličina. @@ -197,14 +197,14 @@ Dalším užitečným pojmem je funkce inverzní k distribuční funkci, které \end{itemize} \end{definition} -Je-li $F$ ryze rostoucí a spojitá, je $F^{-1}(q)$ to jediné $x \in \mathbb{R}$ takové, že $F(x) = q$, jinými slovy, $F$ je bijekce z $\mathbb{R}$ do $(0, 1)$. Takto definovaná kvantilová funkce je neklesající a zprava spojitá. Dále z $F^{-1}$ můžeme jednoznačně určit $F$, tedy také charakterizuje rozdělení $P_X$. Nakonec, o dvou náhodný veličinách $X$ a $Y$ říkáme, že jsou stejně rozdělené, zapisujeme $X \overset{d}{=} Y$, právě tehdy, když $F_X(x) = F_Y(x)$ pro všechna $x$. To však neznamená, že $X = Y$. +Je-li $F$ ryze rostoucí a spojitá, je $F^{-1}(q)$ to jediné $x \in \R $ takové, že $F(x) = q$, jinými slovy, $F$ je bijekce z $\R $ do $(0, 1)$. Takto definovaná kvantilová funkce je neklesající a zprava spojitá. Dále z $F^{-1}$ můžeme jednoznačně určit $F$, tedy také charakterizuje rozdělení $P_X$. Nakonec, o dvou náhodný veličinách $X$ a $Y$ říkáme, že jsou stejně rozdělené, zapisujeme $X \overset{d}{=} Y$, právě tehdy, když $F_X(x) = F_Y(x)$ pro všechna $x$. To však neznamená, že $X = Y$. Ukážeme si několik užitečných příkladů rozdělení (diskrétních a později i spojitých). Tato rozdělení se používají v praxi při modelování jednoduchých systémů, ale u komplikovanějších modelů se s těmito rozděleními bohužel nevystačíme. \subsection{Diskrétní náhodné veličiny} \begin{definition}[Bodové rozdělení] - Náhodná veličina $X$ má \textit{bodové rozdělení} v bodě $a$ právě tehdy, když $P[X = x] = \chi_{\{x = a\}}, x \in \mathbb{R}$. Zapisujeme $X \sim \delta_a$. Potom platí $F_X(x) = \chi_{\{x \geq a\}}$. + Náhodná veličina $X$ má \textit{bodové rozdělení} v bodě $a$ právě tehdy, když $P[X = x] = \chi_{\{x = a\}}, x \in \R $. Zapisujeme $X \sim \delta_a$. Potom platí $F_X(x) = \chi_{\{x \geq a\}}$. \end{definition} \begin{definition}[Diskrétní rovnoměrné rozdělení] @@ -217,7 +217,7 @@ Ukážeme si několik užitečných příkladů rozdělení (diskrétních a poz \end{definition} \begin{definition}[Binomické rozdělení] - Náhodná veličina $X$ má \textit{binomické rozdělení} s parametry $n \in \mathbb{N}$ a $p \in (0, 1)$ právě tehdy, když + Náhodná veličina $X$ má \textit{binomické rozdělení} s parametry $n \in \N $ a $p \in (0, 1)$ právě tehdy, když $$f_X(x) = \binom{n}{x}p^x(1- p)^{n - x} \chi_{\{x \in \{0,\dots,n\}\}}.$$ Zapisujeme $X \sim Bi(n, p)$. Používáme toto v případě sčítaně nezávislých\footnote{Přesná definice nezávislých veličin bude uvedena později.} veličin s Bernoulliho rozdělením (počet úspěchů mezi $n$ pokusy). \end{definition} @@ -225,19 +225,19 @@ Ukážeme si několik užitečných příkladů rozdělení (diskrétních a poz \begin{definition}[Geometrické rozdělení] Náhodná veličina $X$ má \textit{geometrické rozdělení} s parametrem $p \in (0, 1)$ (zapisujeme $X \sim Geo(p)$) právě tehdy, když $$ f_X(x) = p(1 - p)^x $$ - pro $x \in \mathbb{N}_0$. Taková náhodná veličina vyjadřuje počet neúspěchů před prvním úspěchem v posloupnosti nezávislých pokusů. + pro $x \in \N _0$. Taková náhodná veličina vyjadřuje počet neúspěchů před prvním úspěchem v posloupnosti nezávislých pokusů. \end{definition} \begin{definition}[Negativně binomické rozdělení] - Náhodná veličina $X$ má \textit{negativně binomické rozdělení} s parametry $n \in \mathbb{N}$ a $p \in (0, 1)$ (píšeme $X \sim NB(n, p)$), jestliže platí + Náhodná veličina $X$ má \textit{negativně binomické rozdělení} s parametry $n \in \N $ a $p \in (0, 1)$ (píšeme $X \sim NB(n, p)$), jestliže platí $$ f_X(x) = \binom{n + x - 1}{n - 1} p^n(1 - p)^x $$ - pro $x \in \mathbb{N}_0$. Rozdělení vyjadřuje počet neúspěchů před $n$-tým úspěchem v posloupnosti nezávislých pokusů. Specifický případ $NB(1, p) = Geo(p)$. + pro $x \in \N _0$. Rozdělení vyjadřuje počet neúspěchů před $n$-tým úspěchem v posloupnosti nezávislých pokusů. Specifický případ $NB(1, p) = Geo(p)$. \end{definition} \begin{definition}[Poissonovo rozdělení] Náhodná veličina $X$ má \textit{Poissonovo rozdělení} s parametrem $\lambda > 0$ (zapisujeme $X \sim Po(\lambda)$) právě tehdy, když $$f_X(x) = e^{-\lambda} \frac{\lambda^x}{x!}$$ - pro $x \in \mathbb{N}_0$. Jestliže $X \sim Po(\lambda_X)$ a $Y \sim Po(\lambda_Y)$ jsou nezávislé, potom $X + Y \sim Po(\lambda_X + \lambda_Y)$. Jestliže $n \rightarrow \infty$ a $np \rightarrow \lambda < \infty$, potom $Bi(n, p)$ konverguje k $Po(\lambda)$. + pro $x \in \N _0$. Jestliže $X \sim Po(\lambda_X)$ a $Y \sim Po(\lambda_Y)$ jsou nezávislé, potom $X + Y \sim Po(\lambda_X + \lambda_Y)$. Jestliže $n \rightarrow \infty$ a $np \rightarrow \lambda < \infty$, potom $Bi(n, p)$ konverguje k $Po(\lambda)$. \end{definition} \subsection{Absolutně spojité náhodné veličiny} @@ -247,9 +247,9 @@ Ukážeme si několik užitečných příkladů rozdělení (diskrétních a poz \end{definition} \begin{definition}[Normální rozdělení] - Náhodná veličina $X$ má \textit{normální (Gaussovo) rozdělení} s parametry $\mu \in \mathbb{R}$ a $\sigma^2 > 0$ (zapisujeme $X \sim N(\mu, \sigma^2)$) právě tehdy, když + Náhodná veličina $X$ má \textit{normální (Gaussovo) rozdělení} s parametry $\mu \in \R $ a $\sigma^2 > 0$ (zapisujeme $X \sim N(\mu, \sigma^2)$) právě tehdy, když $$f_X(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left\{ - \frac{(x - \mu)^2}{2\sigma^2}\right\}$$ - pro $x \in \mathbb{R}$. + pro $x \in \R $. \end{definition} Toto rozdělení je enormně důležité, uvedeme si proto několik jeho vlastností. Nejprve, máme-li $X \sim N(\mu, \sigma^2)$, potom $Z := (X - \mu)/\sigma \sim N(0, 1)$. Tomuto rozdělení říkáme \textit{standardní normální rozdělení}. Dále, máme-li dvě nezávislé normálně rozdělené veličiny $X \sim N(\mu_X, \sigma_X^2), Y \sim N(\mu_Y, \sigma_Y^2)$, potom $X + Y \sim N(\mu_X + \mu_Y, \sigma_X^2 + \sigma_Y^2)$. @@ -313,22 +313,22 @@ Přejdeme dále k vícerozměrným náhodným veličinám, jedním z jejich vyu \begin{definition} Nechť $(\Omega, \mathcal{A})$ je měřitelný prostor. \textit{Náhodný vektor} je měřitelné zobrazení, které každému výsledku $\omega$ přiřadí reálný $d$-rozměrný vektor $\vec{X}(\omega)$. To znamená, že - $$ \vec{X} : \Omega \rightarrow \mathbb{R}^d \land \{\omega \in \Omega: \vec{X}(\omega) \leq \vec{x}\} \in \mathcal{A} \forall \vec{x} \in \mathbb{R}^d. $$ + $$ \vec{X} : \Omega \rightarrow \R ^d \land \{\omega \in \Omega: \vec{X}(\omega) \leq \vec{x}\} \in \mathcal{A} \forall \vec{x} \in \R ^d. $$ \end{definition} \begin{definition} - \textit{Rozdělením náhodného vektoru} $\vec{X}: (\Omega, \mathcal{A}) \rightarrow (\mathbb{R}^d, \mathcal{B}(\mathbb{R}^d))$ nazveme indukovanou pravděpodobnostní míru $P_{\vec{X}}$ na $(\mathbb{R}^d, \mathcal{B}(\mathbb{R}^d))$ definovanou jako + \textit{Rozdělením náhodného vektoru} $\vec{X}: (\Omega, \mathcal{A}) \rightarrow (\R ^d, \mathcal{B}(\R ^d))$ nazveme indukovanou pravděpodobnostní míru $P_{\vec{X}}$ na $(\R ^d, \mathcal{B}(\R ^d))$ definovanou jako $$ P_{\vec{X}}(B) := P[\{\omega \in \Omega: \vec{X}(\omega) \in B\}] $$ - pro všechny $B \in \mathcal{B}(\mathbb{R}^d)$. + pro všechny $B \in \mathcal{B}(\R ^d)$. \end{definition} -Již na první pohled je zřejmá analogie s jednorozměrnými náhodnými veličinami v tom, že $P_{\vec{X}}$ je obraz míry $P$ v zobrazení $\vec{X}$, kde se původní pravděpodobnostní prostor zobrazí na $(\mathbb{R}^d, \mathcal{B}(\mathbb{R}^d), P_{\vec{X}})$. +Již na první pohled je zřejmá analogie s jednorozměrnými náhodnými veličinami v tom, že $P_{\vec{X}}$ je obraz míry $P$ v zobrazení $\vec{X}$, kde se původní pravděpodobnostní prostor zobrazí na $(\R ^d, \mathcal{B}(\R ^d), P_{\vec{X}})$. Platí, že pokud máme náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$, potom $X_i$ je náhodná veličina pro všechna $i \in \{1, \dots, d\}$ (důsledek definice, avšak platí i opačná implikace). \begin{definition} - Nechť $(\Omega, \mathcal{A}, P)$ je pravděpodobnostní prostor. \textit{Sdružená distribuční funkce} náhodného vektoru $\vec{X}$ je funkce $F_{\vec{X}}: \mathbb{R}^d \rightarrow [0,1]$ definovaná jako + Nechť $(\Omega, \mathcal{A}, P)$ je pravděpodobnostní prostor. \textit{Sdružená distribuční funkce} náhodného vektoru $\vec{X}$ je funkce $F_{\vec{X}}: \R ^d \rightarrow [0,1]$ definovaná jako $$ F_{\vec{X}}(\vec{x}) = P(\vec{X} \leq \vec{x}) = P(\bigcup_{l=1}^d \{X_l \leq x_l\}) $$ - pro všechna $\vec{x} = [x_1,\dots,x_d]^T \in \mathbb{R}^d$. + pro všechna $\vec{x} = [x_1,\dots,x_d]^T \in \R ^d$. \end{definition} Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vlastnostech sdružených distribučních funkcí. @@ -343,7 +343,7 @@ Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vla \end{theorem} \begin{proof} - Nejdříve dokážeme vlastnost (i). Fixujme $x_1,\dots,x_{l-1},x_{l+1},\dots,x_d \in \mathbb{R}$ a definujeme funkci $G(x) := F_{\vec{X}}(x_1,\dots,x_{l-1},x,x_{l+1},\dots,x_d)$. Z monotonie pravděpodobnosti je $G$ neklesající a nezáporná. + Nejdříve dokážeme vlastnost (i). Fixujme $x_1,\dots,x_{l-1},x_{l+1},\dots,x_d \in \R $ a definujeme funkci $G(x) := F_{\vec{X}}(x_1,\dots,x_{l-1},x,x_{l+1},\dots,x_d)$. Z monotonie pravděpodobnosti je $G$ neklesající a nezáporná. Jelikož je $G$ neklesající, nutně existuje limita $\lim_{y\rightarrow x^+} G(y) \geq G(x)$. Dokážeme, že dochází k rovnosti (čímž dokážeme spojitost zprava). Z Heineovy věty plyne, že $\lim_{y\rightarrow x^+} G(y) = \lim G(x + \frac{1}{n})$. Označme $B_n := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, x + \frac{1}{n}) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$. Potom máme, že $B_n \searrow B := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, x]) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$. @@ -352,21 +352,21 @@ Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vla $$\lim_{y\rightarrow x^+} G(y) = \lim_{n\rightarrow \infty} G(x + \frac{1}{n}) = \lim_{n\rightarrow \infty} P_{\vec{X}}(B_n) = P_{\vec{X}}\left(\bigcap_{n=1}^\infty B_n\right) = P_{\vec{X}}(B) = G(x),$$ čímž je ukončen důkaz vlastnosti (i). - K důkazu vlastnosti (ii) opět mějme pevná $x_1,\dots,x_{l-1},x_{l+1},\dots,x_d \in \mathbb{R}$. Opět uvažujme funkci $G$ z předchozí části důkazu, která je neklesající a nezáporná. Proto musí existovat její limita $\lim_{\vec{x} \rightarrow -\infty} = \lim_{n \rightarrow \infty} G(-n)$ (opět plyne z Heineovy věty). Definujme $C_n := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, -n]) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$, potom platí že $C_n \searrow \emptyset$. Podobným argumentem jako posledně máme + K důkazu vlastnosti (ii) opět mějme pevná $x_1,\dots,x_{l-1},x_{l+1},\dots,x_d \in \R $. Opět uvažujme funkci $G$ z předchozí části důkazu, která je neklesající a nezáporná. Proto musí existovat její limita $\lim_{\vec{x} \rightarrow -\infty} = \lim_{n \rightarrow \infty} G(-n)$ (opět plyne z Heineovy věty). Definujme $C_n := (-\infty, x_1] \times \cdots \times (-\infty, x_{l-1}] \times (-\infty, -n]) \times (-\infty, x_{l+1}] \times \cdot \times (-\infty, x_n]$, potom platí že $C_n \searrow \emptyset$. Podobným argumentem jako posledně máme $$\lim_{x_l \rightarrow -\infty} F(\vec{x}) = \lim_{x\rightarrow -\infty} G(x) = \lim_{n\rightarrow \infty} G(-n) = \lim_{n\rightarrow \infty} P_{\vec{X}} \left(\bigcap_{n=1}^\infty C_n\right) = P_{\vec{X}}(\emptyset) = 0,$$ čímž jsme dokázali vlastnost (ii). Nakonec si uvědomíme, že podmínka z vlastnosti (iii) je ekvivalentní tomu, že $\lim_{n\rightarrow\infty} \min\{x_l\} = \infty$. Z již několikrát použité věty o spojitosti pravděpodobnosti máme, že $1 \geq F_{\vec{X}}(\vec{x}) \geq F_{\vec{X}} (\min\{x_l\} [1,\dots,1]^T )$. Stačí tedy dokázat, že poslední uvedená limita je rovna $\infty$. Položme $H(x) := F_{\vec{X}}(x[1,\dots,1]^T)$. Z monotonie pravděpodobnosti máme, že funkce $H$ je neklesající. Dále $0 \leq H(x) \leq 1$, tedy existuje $\lim_{x\rightarrow\infty} H(x) = \lim_{n\rightarrow\infty} H(n)$ (jako limita posloupnosti). Položme $D_n := (-\infty, n]^d$. Opět z věty o spojitosti míry můžeme psát - $$\lim_{x_l \rightarrow +\infty \forall l} F(\vec{x}) = \lim_{n\rightarrow \infty} H(n) = \lim_{n\rightarrow \infty} P_{\vec{X}}(D_n) = P_{\vec{X}} (\mathbb{R}^d) = 1,$$ + $$\lim_{x_l \rightarrow +\infty \forall l} F(\vec{x}) = \lim_{n\rightarrow \infty} H(n) = \lim_{n\rightarrow \infty} P_{\vec{X}}(D_n) = P_{\vec{X}} (\R ^d) = 1,$$ čímž jsme získali požadovanou rovnost. \end{proof} \begin{theorem}[Marginální distribuční funkce] \label{thm-marginalization} Pokud je $F_{\vec{X}}$ sdružená distribuční funkce náhodného vektoru $\vec{X} = [X_1,\dots,X_d]^T$, pak - $$ \lim_{x_d \rightarrow +\infty} F_{\vec{X}}(x_1,\dots,x_d) = F(x_1,\dots,x_{d-1}), \forall \vec{x}=[x_1,\dots,x_d]^T \in \mathbb{R}^d,$$ + $$ \lim_{x_d \rightarrow +\infty} F_{\vec{X}}(x_1,\dots,x_d) = F(x_1,\dots,x_{d-1}), \forall \vec{x}=[x_1,\dots,x_d]^T \in \R ^d,$$ kde $F$ je distribuční funkce náhodného podvektoru $[X_1,\dots,X_{d-1}]^T$. \end{theorem} @@ -377,17 +377,17 @@ Analogicky s náhodnými veličinami si zformulujeme tvrzení o základních vla Výše zmíněný limitní přechod můžeme opakovat vícekrát a ``marginalizovat" až na jednorozměrný případ. Navíc, složky můžeme permutovat, tedy v kombinaci s touto větou můžeme ``vyřadit" libovolnou složku. \begin{definition}[Marginální rozdělení] - Nechť $J \subseteq \{1,\dots d\}$ a $|J|=m$. Potom \textit{náhodný podvektor} definujeme jako $\vec{Y} \equiv \{X_l\}_{l\in J} : (\Omega, \mathcal{A}) \rightarrow (\mathbb{R}^m, \mathcal{B}(\mathbb{R}^m))$ a \textit{marginálním rozdělením} rozumíme indukovanou pravděpodobnostní míru $P_{\vec{Y}}$ na prostoru $(\mathbb{R}^m, \mathcal{B}(\mathbb{R}^m))$. + Nechť $J \subseteq \{1,\dots d\}$ a $|J|=m$. Potom \textit{náhodný podvektor} definujeme jako $\vec{Y} \equiv \{X_l\}_{l\in J} : (\Omega, \mathcal{A}) \rightarrow (\R ^m, \mathcal{B}(\R ^m))$ a \textit{marginálním rozdělením} rozumíme indukovanou pravděpodobnostní míru $P_{\vec{Y}}$ na prostoru $(\R ^m, \mathcal{B}(\R ^m))$. \end{definition} -Ve speciálním případě $J = \{1,\dots,m\}$ pak máme $P_{\vec{Y}}(B) = P_{\vec{X}}(B \times \mathbb{R}^{d - m})$. Pro $|J| = 1$ celkem snadno vidíme, že se jedná o náhodnou veličinu. +Ve speciálním případě $J = \{1,\dots,m\}$ pak máme $P_{\vec{Y}}(B) = P_{\vec{X}}(B \times \R ^{d - m})$. Pro $|J| = 1$ celkem snadno vidíme, že se jedná o náhodnou veličinu. V následujících definicích definujeme spojité a diskrétní náhodné vektory podobně tomu, jak jsme to udělali u náhodných veličin. \begin{definition} - Náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$ nazveme \textit{diskrétní}, jestliže existují nejvýše spočetná množina $I \subseteq \mathbb{N}$ a posloupnosti $\{\vec{x}_i\}_{i\in I}$ prvků $\mathbb{R}^d$ a $\{p_i\}_{i\in I}$ prvků intervalu $(0, 1]$ takové, že platí + Náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$ nazveme \textit{diskrétní}, jestliže existují nejvýše spočetná množina $I \subseteq \N $ a posloupnosti $\{\vec{x}_i\}_{i\in I}$ prvků $\R ^d$ a $\{p_i\}_{i\in I}$ prvků intervalu $(0, 1]$ takové, že platí $$ P_{\vec{X}} = \sum_{i \in I}p_i \delta_{\vec{x}_i} \text{ a } \sum_{i \in I} p_i = 1, $$ - kde $\delta_{\vec{u}}$ značí Diracovu míru v $\vec{u} \in \mathbb{R}^d$. + kde $\delta_{\vec{u}}$ značí Diracovu míru v $\vec{u} \in \R ^d$. \end{definition} \begin{definition} @@ -400,18 +400,18 @@ Pro spojité náhodné vektory si uvědomíme, že sdružená distribuční funk $$ f_{\vec{X}} (\vec{x}) = \frac{\partial^d}{\partial x_1 \dots \partial x_d} F_{\vec{X}}.$$ Tento vztah platí $\lambda^d$-skoro všude a navíc v námi zkoumaných příkladech je $F_{\vec{X}}$ dostatečně hladká, tedy nezáleží na pořadí derivací. Potom také můžeme z hustoty spočítat distribuční funkci pomocí vztahu $$ F_{\vec{X}} (\vec{x})= \int_{-\infty}^{x_1} \dots \int_{-\infty}^{x_d} f_{\vec{X}}(t_1, \dots, t_d) dt_d \dots dt_1,$$ -pro všechna $\vec{x} = [x_1, \dots, x_d]^T \in \mathbb{R}^d$. Díky Fubiniově větě opět nezáleží na pořadí integrálů. +pro všechna $\vec{x} = [x_1, \dots, x_d]^T \in \R ^d$. Díky Fubiniově větě opět nezáleží na pořadí integrálů. \hfill \textit{konec 6. přednášky (4.3.2025)} \begin{theorem}[Hustota vzhledem k součinové referenční míře] \label{thm-density-product} - Nechť $P_{\vec{X}}$ je rozdělení náhodného vektoru $\vec{X} = [X_1, \dots, X_d]^T$ a nechť existují $\sigma$-konečné míry $\mu_l, l\in\{1,\dots,d\}$ na $\mathbb{R}$ takové, že pro jejich součin platí $P_{\vec{X}} \ll \mu_1 \otimes \cdots \otimes \mu_d$. Potom $P_{X_l} \ll \mu_l$ pro všechny složky $l \in \{1, \dots, d\}$. Dále pak existují nezáporné měřitelné funkce (hustoty) $f_{\vec{X}} : \mathbb{R}^d \rightarrow [0, \infty)$ a $f_{X_l}: \mathbb{R} \rightarrow [0, \infty)$ pro $l \in \{1, \dots, d\}$ takové, že + Nechť $P_{\vec{X}}$ je rozdělení náhodného vektoru $\vec{X} = [X_1, \dots, X_d]^T$ a nechť existují $\sigma$-konečné míry $\mu_l, l\in\{1,\dots,d\}$ na $\R $ takové, že pro jejich součin platí $P_{\vec{X}} \ll \mu_1 \otimes \cdots \otimes \mu_d$. Potom $P_{X_l} \ll \mu_l$ pro všechny složky $l \in \{1, \dots, d\}$. Dále pak existují nezáporné měřitelné funkce (hustoty) $f_{\vec{X}} : \R ^d \rightarrow [0, \infty)$ a $f_{X_l}: \R \rightarrow [0, \infty)$ pro $l \in \{1, \dots, d\}$ takové, že $$ P_{\vec{X}} (\times_{l=1}^d (-\infty, x_l]) = F_{\vec{X}}(\vec{x}) = \int_{\times_{l=1}^d (-\infty, x_l]} f_{\vec{X}} (\vec{t}) d(\mu_1\otimes\dots\otimes\mu_d) $$ - pro všechna $\vec{x} = [x_1, \dots, x_d]^T$. Pro borelovskou množinu $B\in \mathcal{B}(\mathbb{R}^d)$ navíc platí + pro všechna $\vec{x} = [x_1, \dots, x_d]^T$. Pro borelovskou množinu $B\in \mathcal{B}(\R ^d)$ navíc platí $$ P_{\vec{X}} (B) = \int_B f_{\vec{X}} (\vec{t}) d(\mu_1\otimes\dots\otimes\mu_d). $$ - Potom také $F_{X_l} (x_l) = \int_{-\infty}^{x_l} f_{X_l} (t) d\mu_l$ pro všechna $x_l \in \mathbb{R}$ a všechny složky $l \in \{1, \dots, d\}$, kde - $$f_{X_l}(t) = \int_{\mathbb{R}^{d-1}} f_{\vec{X}} (t_1,\dots, t_d) d(\mu_1\otimes\dots\otimes\mu_{l-1}\otimes\mu_{l+1}\otimes\dots\otimes\mu_d) $$ + Potom také $F_{X_l} (x_l) = \int_{-\infty}^{x_l} f_{X_l} (t) d\mu_l$ pro všechna $x_l \in \R $ a všechny složky $l \in \{1, \dots, d\}$, kde + $$f_{X_l}(t) = \int_{\R ^{d-1}} f_{\vec{X}} (t_1,\dots, t_d) d(\mu_1\otimes\dots\otimes\mu_{l-1}\otimes\mu_{l+1}\otimes\dots\otimes\mu_d) $$ platí $\mu_l$-skoro všude. \end{theorem} @@ -425,7 +425,7 @@ Poznamenejme, že předpoklad existence příslušných měr je automaticky spln Mějme absolutně spojitý náhodný vektor $[X, Y]^T$. Potom existuje jeho sdružená distribuční funkce $F_{[X, Y]^T}(x, y)$. Chceme-li dostat jednorozměrnou distribuční funkci $F_X(x)$, s použitím Věty \ref{thm-marginalization} dostáváme $F_X(x) = \lim_{y \rightarrow \infty} F_{[X, Y]^T} (x, y)$. Potom jeho hustotu dostaneme, zderivováním $f_X(x) = F'_X(x)$. Navíc z předchozí věty (Věta \ref{thm-density-product}) máme, že existuje sdružená hustota $f_{[X, Y]^T}(x, y) = \pdv*{F_{[X, Y]^T}}{x, y}(x, y)$. Pro získání jednorozměrné hustoty $f_X$ pak už jen stačí zintegrovat podle $y$ přes celou reálnou osu. \end{example} -Nechť $\vec{X}$ je diskrétní náhodný vektor a $\nu$ čítací míra na $\{\vec{x}_i\}_{i \in I} \subset \mathbb{R}^d$, pak hustotu tohoto vektoru vzhledem k čítací míře $\nu$ nazýváme \textit{pravděpodobnostní funkcí} diskrétního mnohorozměrného rozdělení $\vec{X}$. +Nechť $\vec{X}$ je diskrétní náhodný vektor a $\nu$ čítací míra na $\{\vec{x}_i\}_{i \in I} \subset \R ^d$, pak hustotu tohoto vektoru vzhledem k čítací míře $\nu$ nazýváme \textit{pravděpodobnostní funkcí} diskrétního mnohorozměrného rozdělení $\vec{X}$. \begin{example} Uvažujme dvojrozměrný náhodný vektor $[X, Y]^T$. Pro přehlednost uvedeme i řádkové/sloupcové součty (jde o marginální hustoty). @@ -462,7 +462,7 @@ $$ \lim_{x_j \rightarrow \infty \forall j \in \{1, \dots, d\} \setminus l} F_{\v $$ P[X_l \leq x_l] =: F_{X_l}(x_l). $$ \begin{definition} - Náhodné veličiny $X_1, \dots, X_d$ jsou \textit{nezávislé}, pokud $F_{\vec{X}} (\vec{x}) = \prod_{l = 1}^d F_{X_l} (x_l)$ pro každý vektor $\vec{x} = [x_1 \dots, x_d]^T \in \mathbb{R}^d$. + Náhodné veličiny $X_1, \dots, X_d$ jsou \textit{nezávislé}, pokud $F_{\vec{X}} (\vec{x}) = \prod_{l = 1}^d F_{X_l} (x_l)$ pro každý vektor $\vec{x} = [x_1 \dots, x_d]^T \in \R ^d$. \end{definition} Analogicky s předchozí definicí definujeme nezávislost náhodných vektorů. V literatuře se vyskytuje i jiná, ekvivaletní, definice nezávislosti, kterou uvedeme později. @@ -470,13 +470,13 @@ Analogicky s předchozí definicí definujeme nezávislost náhodných vektorů. \begin{definition} Náhodné vektory $\vec{X}_1, \dots, \vec{X}_d$ jsou \textit{nezávislé}, pokud $$ F_{\vec{X}} (\vec{x}) = \prod_{l=1}^d F_{\vec{X}_l} (\vec{x}_l) $$ - pro každý ``nad-vektor" $\vec{x} = [\vec{x}_1^T, \dots, \vec{x}_d^T]^T \in \mathbb{R}^{\sum_{l=1}^d d_l}$ kde $\vec{X} = [\vec{X}_1^T,\dots, X_d^T]^T$ a $\vec{X}_l$ jsou $d_l$-rozměrné náhodné vektory pro všechna $l \in \{1, \dots d\}$. + pro každý ``nad-vektor" $\vec{x} = [\vec{x}_1^T, \dots, \vec{x}_d^T]^T \in \R ^{\sum_{l=1}^d d_l}$ kde $\vec{X} = [\vec{X}_1^T,\dots, X_d^T]^T$ a $\vec{X}_l$ jsou $d_l$-rozměrné náhodné vektory pro všechna $l \in \{1, \dots d\}$. \end{definition} Dalším důležitým pojmem je takzvaný nosič náhodné veličiny. Rozumíme tím v zásadě množinu, kde náhodná veličina ``žije". Uvedeme zde definici pro diskrétní a spojité náhodné veličiny. Tyto pojmy se budou hodit pro vymezení prostoru, přes který poté budeme integrovat. \begin{definition} - \textit{Nosičem} diskrétní náhodné veličiny $X$ nazýváme následující množinu $S(X) = \{x \in \mathbb{R}: P[X = x] > 0\}$. \textit{Nosičem} spojité náhodné veličiny $Y$ rozumíme množinu $S(Y) = \{y \in \mathbb{R}: f_Y(y) > 0\}$. Obdobně definujeme i nosič náhodného vektoru (cvičení). + \textit{Nosičem} diskrétní náhodné veličiny $X$ nazýváme následující množinu $S(X) = \{x \in \R : P[X = x] > 0\}$. \textit{Nosičem} spojité náhodné veličiny $Y$ rozumíme množinu $S(Y) = \{y \in \R : f_Y(y) > 0\}$. Obdobně definujeme i nosič náhodného vektoru (cvičení). \end{definition} \begin{theorem}[Ekvivalentní charakterizace nezávislosti] @@ -494,7 +494,7 @@ Dalším důležitým pojmem je takzvaný nosič náhodné veličiny. Rozumíme Nejdříve dokážeme implikaci $\Rightarrow$. Uvažujme vektor $\vec{x} = [x_1,\dots,x_d]^T$. Potom z definice nezávislosti a linearity integrálu dostáváme $$ F_{\vec{X}}(\vec{x}) = \prod_{l=1}^d F_{X_l}(x_l) = \prod_{l=1}^d \int_{-\infty}^{x_l} f_{x_l} (t_l) d\mu_l = \int_{-\infty}^{x_1} \cdots \int_{-\infty}^{x_d} \prod_{l=1}^d f_{x_l}(t_l)d\mu_d\cdots d\mu_1,$$ - kde druhá rovnost plyne z věty o hustotě vzhledem k součinové referenční míře (Věta \ref{thm-density-product}) s mírou $\lambda^d$, případně sčítací mírou $\nu$ na $\mathbb{R}^d$. Dále díky Fubiniově větě můžeme pokračovat v úpravách + kde druhá rovnost plyne z věty o hustotě vzhledem k součinové referenční míře (Věta \ref{thm-density-product}) s mírou $\lambda^d$, případně sčítací mírou $\nu$ na $\R ^d$. Dále díky Fubiniově větě můžeme pokračovat v úpravách $$ \int_{-\infty}^{x_1} \cdots \int_{-\infty}^{x_d} \prod_{l=1}^d f_{x_l}(t_l)d\mu_d\cdots d\mu_1 = \int_{(-\infty, \vec{x}]} \prod_{l=1}^d f_{x_l} (t_l) d(\mu_1 \otimes \cdots \otimes \mu_d).$$ Pak už ale nutně musí platit $f_{\vec{X}}(t_1, \dots, t_d) = \prod_{l=1}^d f_{x_l} (t_l)$. @@ -521,15 +521,15 @@ Dalším důležitým pojmem je takzvaný nosič náhodné veličiny. Rozumíme \end{theorem} \begin{proof} - Začneme implikací zprava doleva ($\Leftarrow$). Jestliže pro všechny množiny $B_l \in \mathcal{B}(\mathbb{R}), l = 1,\dots,d$ platí + Začneme implikací zprava doleva ($\Leftarrow$). Jestliže pro všechny množiny $B_l \in \mathcal{B}(\R ), l = 1,\dots,d$ platí $$ P_{\vec{X}} (\times_{l=1}^d B_l) = \prod_{l=1}^d P_{X_l}(B_l), $$ pak vezmeme $B_l = (-\infty,x_l]$ pro fixní $\vec{x} = [x_1, \dots, x_d]$ generátory borelovské $\sigma$-algebry a můžeme počítat $$ F_{\vec{X}} (\vec{x}) = P_{\vec{X}}(\times_{l=1}^d (-\infty, x_l]) = \prod_{l = 1}^d P_{X_l} ((-\infty, x_l]) = \prod_{l = 1}^d F_{X_l} (x_l), $$ což je přímo definice nezávislosti. - K důkazu opačné implikace (předpokládáme platnost $F_{\vec{X}} (\vec{x}) = \prod_{l=1}^d F_{X_l} (x_l)$ pro všechna $\vec{x} \in \mathbb{R}^d$) použijeme Dynkinův systém - $$ D = \left\{ \times_{l = 1}^d (-\infty, x_l], x_l \in \mathbb{R}, \forall l \in \{1,\dots,d\}\right\}. $$ - Tento systém je uzavřený na průniky a generuje celou borelovskou $\sigma$-algebru $\mathcal{B}(\mathbb{R}^d)$. Jelikož $P_{\vec{X}}(\mathbb{R}^d) = 1$, dostáváme z věty o jednoznačnosti míry rovnost obou měr ($P_{\vec{X}}$ a $\otimes_{l=1}^d P_{X_l}$) na celé $\mathcal{B}(\mathbb{R}^d)$. + K důkazu opačné implikace (předpokládáme platnost $F_{\vec{X}} (\vec{x}) = \prod_{l=1}^d F_{X_l} (x_l)$ pro všechna $\vec{x} \in \R ^d$) použijeme Dynkinův systém + $$ D = \left\{ \times_{l = 1}^d (-\infty, x_l], x_l \in \R , \forall l \in \{1,\dots,d\}\right\}. $$ + Tento systém je uzavřený na průniky a generuje celou borelovskou $\sigma$-algebru $\mathcal{B}(\R ^d)$. Jelikož $P_{\vec{X}}(\R ^d) = 1$, dostáváme z věty o jednoznačnosti míry rovnost obou měr ($P_{\vec{X}}$ a $\otimes_{l=1}^d P_{X_l}$) na celé $\mathcal{B}(\R ^d)$. \end{proof} Vrátíme se opět k podmíněnosti, tentokrát budeme zkoumat podmíněnost náhodných veličin. Motivačním příkladem budiž zjištění průměrné mzdy občana, který vystudoval MatFyz na základě znalosti průměrné mzdy všech občanů ČR. Opět se jedná o zjednodušenou definici, ta obecnější bude uvedena v pokročilejších kurzech. @@ -549,7 +549,7 @@ Je třeba si uvědomit, že podmíněná pravděpodobnostní funkce (hustota) js V dalších kapitolách budeme pracovat s mnohorozměrným normálním rozdělením, je proto vhodné si ho zadefinovat už teď. V obecném případě nestačí zadefinovat chování po složkách, je třeba nějakým způsobem zahrnout i vztahy mezi jednotlivými složkami. \begin{definition} - Náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$ má $d$-\textit{rozměrné normální rozdělení} s parametry $\mu \in \mathbb{R}^d$ a $\Sigma \in \mathbb{R}^{d \times d}$ (značíme $X \sim N_d(\mu, \Sigma)$), pokud existuje $k$-rozměrný náhodný vektor $\vec{Y} = [Y_1, \dots, Y_k]^T$ a matice $\mathbb{A} \in \mathbb{R}^{d \times k}$ takové, že + Náhodný vektor $\vec{X} = [X_1, \dots, X_d]^T$ má $d$-\textit{rozměrné normální rozdělení} s parametry $\mu \in \R ^d$ a $\Sigma \in \R ^{d \times d}$ (značíme $X \sim N_d(\mu, \Sigma)$), pokud existuje $k$-rozměrný náhodný vektor $\vec{Y} = [Y_1, \dots, Y_k]^T$ a matice $\mathbb{A} \in \R ^{d \times k}$ takové, že \begin{enumerate}[(i)] \item $\{Y_1, \dots, Y_k\}$ jsou nezávislé; \item $Y_j \sim N(0, 1)$ pro všechny složky $j \in \{1, \dots, k\}$; @@ -562,7 +562,7 @@ Takto komplikovaná definice je potřeba, neboť matice $\Sigma$ nutně nemusí Na závěr se budeme chvíli věnovat transformacím náhodných veličin. V obecném případě je možné formalizovat tuto představu pomocí věty o substituci z TMI, avšak pro naše účely postačí uvést jen několik speciálních případů. -Mějme diskrétní náhodnou veličinu $X$ a ne nutně monotónní funkci $t: \mathbb{R}\rightarrow \mathbb{R}$, pro kterou platí $Y := t(X)$. Chceme odvodit pravděpodobnostní funkci $P[Y = y]$. Můžeme psát +Mějme diskrétní náhodnou veličinu $X$ a ne nutně monotónní funkci $t: \R \rightarrow \R $, pro kterou platí $Y := t(X)$. Chceme odvodit pravděpodobnostní funkci $P[Y = y]$. Můžeme psát $$ P[Y = y] = P[t(X) = y] = P[X \in t^{-1}(y)] = \sum_{t(x) = y} P[X = x]. $$ Dále mějme spojitou náhodnou veličinu $X$, známe její hustotu $f_X(x)$. Cílem je spočítat hustotu $f_Y(y)$, kde $Y = t(X)$. Pro každé $y$ můžeme nalézt množinu $\mathcal{T}_y = \{x: t(x) \leq y\}$. Poté můžeme spočítat distribuční funkci rozdělení $Y$. @@ -574,7 +574,7 @@ $$ P[Z = z] = P[t(X, Y) = z] = P[\omega: t([X, Y]^T(\omega)) = z] = $$ $$ P[[X, Y]^T \in t^{-1} (z)] = \sum_{t(x, y) = z} P[X = x, Y = y].$$ Nakonec mějme spojitý náhodný vektor $[X, Y]^T$, pro nějž známe hustotu $f_{[X, Y]^T}(x, y)$ a chceme získat hustotu $f_Z(z)$, jestliže náhodná veličina $Z$ je definována $Z := t(X, Y)$. -V analogii se spojitou náhodnou veličinou nalezneme pro každé $z \in \mathbb{R}$ množinu $\mathcal{T}(z) = \{ [x, y]: t(x, y) \leq z \}$. Opět spočteme distribuční funkci $F_Z$ pomocí následujících kroků +V analogii se spojitou náhodnou veličinou nalezneme pro každé $z \in \R $ množinu $\mathcal{T}(z) = \{ [x, y]: t(x, y) \leq z \}$. Opět spočteme distribuční funkci $F_Z$ pomocí následujících kroků $$ F_Z(z) = P[Z \leq z] = P[t(X, Y) \leq z] = P[\omega: t([X, Y]^T(\omega)) \leq z] = $$ $$ \iint_{\mathcal{T}(z)} f_{[X, Y]^T} (x, y) dxdy,$$ hustotu $f_Z$ opět můžeme získat pomocí zderivování funkce $F_Z$. diff --git a/skripta.pdf b/skripta.pdf index b981872..13b4afd 100644 Binary files a/skripta.pdf and b/skripta.pdf differ diff --git a/skripta.tex b/skripta.tex index 8ee06d9..f648055 100644 --- a/skripta.tex +++ b/skripta.tex @@ -22,6 +22,15 @@ \newtheorem{example}[theorem]{Příklad} \newtheorem{convention}[theorem]{Úmluva} +\DeclareMathOperator{\Var}{Var} +\DeclareMathOperator{\Corr}{Corr} +\DeclareMathOperator{\Cov}{Cov} +\DeclareMathOperator{\sd}{sd} + +\newcommand*{\R}{\mathbb{R}} +\newcommand*{\N}{\mathbb{N}} +\newcommand*{\E}{\mathbb{E}} + \title{Pravděpodobnost a matematická statistika (NMSA202)} \author{Petr Velička \footnote{\href{mailto:petrvel@matfyz.cz}{petrvel@matfyz.cz}}\\přednášející: doc. RNDr. Michal Pešta, Ph.D. \footnote{\href{mailto:pesta@karlin.mff.cuni.cz}{pesta@karlin.mff.cuni.cz}}} \date{LS 2024/25} diff --git a/stredni-hodnota.tex b/stredni-hodnota.tex index 24c8a67..b69c067 100644 --- a/stredni-hodnota.tex +++ b/stredni-hodnota.tex @@ -4,7 +4,7 @@ V této kapitole se budeme věnovat pojmu střední hodnoty, laicky řečeno, ko \begin{definition} \textit{Střední hodnota} náhodné veličiny $X$ je reálné číslo - $$ \mathbb{E}[X] = \mathbb{E}X = \int XdP \equiv \int X(\omega) dP(\omega), $$ + $$ \E [X] = \E X = \int XdP \equiv \int X(\omega) dP(\omega), $$ pokud pravá strana existuje. \end{definition} @@ -12,25 +12,25 @@ Tato definice je velmi teoretická, k praktickému výpočtu se hodí následuj \begin{theorem} \label{thm-expected-value} - Střední hodnota náhodné veličiny $X$ je $\mathbb{E}X = \int x dP_X(x)$, pokud pravá strana existuje. + Střední hodnota náhodné veličiny $X$ je $\E X = \int x dP_X(x)$, pokud pravá strana existuje. \end{theorem} \begin{proof} - Z věty o přenosu integrace (\ref{thm-pushforward-measure}) při volbě $g = Id$ a $(\mathbb{M}, \mathcal{M}) = (\mathbb{R}, \mathcal{B})$ dostáváme požadované tvrzení. + Z věty o přenosu integrace (\ref{thm-pushforward-measure}) při volbě $g = Id$ a $(\mathbb{M}, \mathcal{M}) = (\R , \mathcal{B})$ dostáváme požadované tvrzení. \end{proof} Z Radon-Nikodymovy věty ihned plyne následující pozorování \begin{observation} Střední hodnota veličiny $X$ je - $$ \mathbb{E}X = \begin{cases}\int_{-\infty}^\infty xf_X(x) dx, X \text{ spojitá};\\ + $$ \E X = \begin{cases}\int_{-\infty}^\infty xf_X(x) dx, X \text{ spojitá};\\ \sum_{x \in S(X)} xP[X = x], X \text{ diskrétní}. \end{cases} $$ \end{observation} Střední hodnota nemusí existovat vždy, jeden z takových případů uvedeme v následujícím příkladu. \begin{example} - Pokud $X \sim Cauchy$ (Definice \ref{def-cauchy}), pak $\mathbb{E}X$ neexistuje. Pomocí integrování per partes můžeme počítat + Pokud $X \sim Cauchy$ (Definice \ref{def-cauchy}), pak $\E X$ neexistuje. Pomocí integrování per partes můžeme počítat $$ \int_0^\infty \frac{x}{\pi(1 + x^2)} dx = [x \arctan(x)]_0^\infty - \int_0^\infty \arctan(x) dx = \infty. $$ Dostali jsme, že pro integrál přes celou reálnou přímku není definován výraz $\infty - \infty$. \end{example} @@ -39,29 +39,29 @@ Uvažujme teď transformaci $Y = t(X)$. Následující věta nám umožní poč \begin{theorem}[Pravidlo líného statitika] \label{thm-lazy-statistician} - Buď $t: \mathbb{R} \rightarrow \mathbb{R}$ měřitelná funkce a nechť $Y = t(X)$, kde $X$ je nějaká náhodná veličina. Pak - $$ \mathbb{E} Y = \int t(x) dP_X(x), $$ + Buď $t: \R \rightarrow \R $ měřitelná funkce a nechť $Y = t(X)$, kde $X$ je nějaká náhodná veličina. Pak + $$ \E Y = \int t(x) dP_X(x), $$ pokud pravá strana existuje. \end{theorem} \begin{proof} Z Věty \ref{thm-pushforward-measure} dostáváme - $$ \mathbb{E} Y = \mathbb{E} [ t(X) ] = \int_\mathbb{R} t(X(\omega)) dP(\omega) = \int_\mathbb{R} t(x) dP_X(x). $$ + $$ \E Y = \E [ t(X) ] = \int_\R t(X(\omega)) dP(\omega) = \int_\R t(x) dP_X(x). $$ \end{proof} Poznamenejme si explicitní vzorce pro transformaci spojitých a diskrétní náhodných veličin, které jsou přímým důsledkem předchozí věty: \begin{corollary} - Mějme náhodné veličiny $X$ a $Y$ takové, že platí $Y = t(X)$ pro nějakou transformaci $t: \mathbb{R} \rightarrow \mathbb{R}$. Má-li $X$ diskrétní rozdělení, potom - $$ \mathbb{E}Y = \sum_{x \in S(x)} t(x) P[X = x]. $$ + Mějme náhodné veličiny $X$ a $Y$ takové, že platí $Y = t(X)$ pro nějakou transformaci $t: \R \rightarrow \R $. Má-li $X$ diskrétní rozdělení, potom + $$ \E Y = \sum_{x \in S(x)} t(x) P[X = x]. $$ Je-li $X$ spojitá, potom platí - $$ \mathbb{E}Y = \int_{\mathbb{R}} t(x) f_X(x) dx. $$ + $$ \E Y = \int_{\R } t(x) f_X(x) dx. $$ \end{corollary} Přímé využití pravidla líného statistika si uvedeme v definici a aplikacích následujícího pojmu, který jistým způsobem umožňuje charakterizovat chování rozdělení. \begin{definition} - Pro reálné číslo $k$ definujeme $k$-tý \textit{moment} náhodné veličiny $X$ jako $\mathbb{E}[X^k]$ za předpokladu, že $\mathbb{E}[|X|^k] < \infty$. Dále definujeme $k$-tý \textit{absolutní moment} jako $\mathbb{E}[|X|^k]$, pokud existuje. + Pro reálné číslo $k$ definujeme $k$-tý \textit{moment} náhodné veličiny $X$ jako $\E [X^k]$ za předpokladu, že $\E [|X|^k] < \infty$. Dále definujeme $k$-tý \textit{absolutní moment} jako $\E [|X|^k]$, pokud existuje. \end{definition} V praxi se nejčastěji setkáme s momenty jen pro $k$ přirozené, pokud nebude řečeno jinak, všechny momenty budou mít přirozený parametr. @@ -72,47 +72,171 @@ V praxi se nejčastěji setkáme s momenty jen pro $k$ přirozené, pokud nebude \begin{proof} Potřebujeme ukázat, že $E[|X|^l] < \infty$. Můžeme počítat - $$ \mathbb{E}[|X|^l] = \int_\mathbb{R} |x|^l dP_X(x) = \int_{|x| \leq 1} |x|^l dP_X(x) + \int_{|x| > 1} |x|^l dP_X(x) \leq $$ - $$ \int_{|x| \leq 1} dP_X(x) + \int_{|x| > 1} |x|^k dP_X(x) \leq \int_\mathbb{R} dP_X(x) + \int_\mathbb{R} |x|^k dP_X(x).$$ - Dostáváme $1 + \mathbb{E}[|X|^k] < \infty$, čímž je důkaz ukončen. + $$ \E [|X|^l] = \int_\R |x|^l dP_X(x) = \int_{|x| \leq 1} |x|^l dP_X(x) + \int_{|x| > 1} |x|^l dP_X(x) \leq $$ + $$ \int_{|x| \leq 1} dP_X(x) + \int_{|x| > 1} |x|^k dP_X(x) \leq \int_\R dP_X(x) + \int_\R |x|^k dP_X(x).$$ + Dostáváme $1 + \E [|X|^k] < \infty$, čímž je důkaz ukončen. \end{proof} Některá zobrazení mají jen několik prvních momentů a žádné vyšší momenty neexistují, jako například Studentovo $t$-rozdělení (Definice \ref{def-student}) s $\nu = 3$ stupni volnosti. \begin{example} - Pro $X \sim t_3$ platí $\mathbb{E}X = 0$, $\mathbb{E}X^2 = 2$ ale $\mathbb{E}|X|^3 = \infty$. (cvičení, použijte per partes) + Pro $X \sim t_3$ platí $\E X = 0$, $\E X^2 = 2$ ale $\E |X|^3 = \infty$. (cvičení, použijte per partes) \end{example} Definujeme dále $\mathcal{L}^p$ prostory náhodných veličin, které jsou podobné $L^p$ prostorům z teorie míry a funkcionální analýzy. \begin{definition} - Pro přirozené číslo $p$ definujeme prostor $\mathcal{L}^p$ tak, že náhodná veličina $X \in \mathcal{L}^p$, jestliže $\mathbb{E}[|X|^p] < \infty$. + Pro reálné číslo $p$ (v praxi se vystačíme pouze s případem $p \geq 1$) definujeme prostor $\mathcal{L}^p$ tak, že náhodná veličina $X \in \mathcal{L}^p$, jestliže $\E [|X|^p] < \infty$. \end{definition} -V následující větě shrneme pár základních vlastností prostoru $\mathcal{L}^1$, které se mohou hodit při praktických aplikacích. +Ukážeme si pár základních vlastností prostoru $\mathcal{L}^1$, které se mohou hodit při praktických aplikacích. \begin{theorem}[Základní vlastnosti prostoru $\mathcal{L}^1$] Nechť jsou dány $X_1, \dots, X_d \in \mathcal{L}^1$ a $a_1, \dots, a_d$ jsou konstanty, pak platí linearita ve smyslu - $$ \mathbb{E} \left(\sum_{l = 1}^d a_l X_l \right) = \sum_{l = 1}^d a_l \mathbb{E}X_l. $$ + $$ \E \left(\sum_{l = 1}^d a_l X_l \right) = \sum_{l = 1}^d a_l \E X_l. $$ Dále mějme $X_1, \dots, X_d \in \mathcal{L}^1$ nezávislé náhodné veličiny, potom platí - $$ \mathbb{E} \left(\prod_{l = 1}^d X_l\right) = \prod_{l = 1}^d \mathbb{E}X_l.$$ + $$ \E \left(\prod_{l = 1}^d X_l\right) = \prod_{l = 1}^d \E X_l.$$ \end{theorem} \begin{proof} Linearita plyne z věty o přenosu integrace (Věta \ref{thm-pushforward-measure}) a linearity Lebesgueova integrálu. - Dokážeme druhou vlastnost. Nejprve ukážeme, že hledaná střední hodnota je dobře definovaná. Uvažujme posloupnost funkcí $\{g_n: \mathbb{R}^d \rightarrow \mathbb{R}\}$ definovaných jako $g_n(\vec{x}) = \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}}$. Pak pro každé $n \in \mathbb{N}$ je $g_n(\vec{X})$ omezená a existuje její první moment $\mathbb{E} [g_n(\vec{X})] \in \mathbb{R}$. Díky nezávislosti můžeme psát - $$ \mathbb{E} [g_n(\vec{X})] = \int_{\mathbb{R}^d} \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}} d(\otimes_{l = 1}^d P_{X_l}), $$ + Dokážeme druhou vlastnost. Nejprve ukážeme, že hledaná střední hodnota je dobře definovaná. Uvažujme posloupnost funkcí $\{g_n: \R ^d \rightarrow \R \}$ definovaných jako $g_n(\vec{x}) = \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}}$. Pak pro každé $n \in \N $ je $g_n(\vec{X})$ omezená a existuje její první moment $\E [g_n(\vec{X})] \in \R $. Díky nezávislosti můžeme psát + $$ \E [g_n(\vec{X})] = \int_{\R ^d} \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}} d(\otimes_{l = 1}^d P_{X_l}), $$ odkud z Fubiniovy věty a následně linearity integrálu plyne - $$ = \int_\mathbb{R} \cdots \int_\mathbb{R} \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}} dP_{X_1} \cdots dP_{X_d} = \prod_{l = 1}^d \mathbb{E}[|X_l| \chi_{\{|X_l| \leq n\}}] \leq \prod_{l = 1}^d \mathbb{E}[|X_l|]. $$ + $$ = \int_\R \cdots \int_\R \prod_{l = 1}^d |x_l| \chi_{\{|x_l| \leq n\}} dP_{X_1} \cdots dP_{X_d} = \prod_{l = 1}^d \E [|X_l| \chi_{\{|X_l| \leq n\}}] \leq \prod_{l = 1}^d \E [|X_l|]. $$ - Platí, že funkce $g_n(\vec{x})$ jsou nezáporné a $g_n(\vec{x}) \uparrow \prod_{l = 1}^d |x_l|$ na celém $\mathbb{R}^d$. Tudíž z Leviho věty plyne, že $\mathbb{E}[g_n(X)] \uparrow \mathbb{E}[\prod_{l=1}^d |X_l|]$. Potom ale nutně $\mathbb{E}\left|\prod_{l=1}^d X_l \right| \leq \prod_{l = 1}^d \mathbb{E}|X_l| < \infty$, tedy příslušný první moment existuje. + Platí, že funkce $g_n(\vec{x})$ jsou nezáporné a $g_n(\vec{x}) \uparrow \prod_{l = 1}^d |x_l|$ na celém $\R ^d$. Tudíž z Leviho věty plyne, že $\E [g_n(X)] \uparrow \E [\prod_{l=1}^d |X_l|]$. Potom ale nutně $\E \left|\prod_{l=1}^d X_l \right| \leq \prod_{l = 1}^d \E |X_l| < \infty$, tedy příslušný první moment existuje. Dále můžeme počítat - $$ \mathbb{E}\left[\prod_{d=1}^l X_l \right] = \int_{\mathbb{R}^d} \prod_{l=1}^d x_l dP_{\vec{X}} = \int_{\mathbb{R}} \prod_{l=1}^d x_l d(\otimes_{l=1}^d P_{X_l}) = $$ - $$ \int_{\mathbb{R}}\cdots\int_{\mathbb{R}} \prod_{l=1}^d x_l dP_{X_1} \cdots dP_{X_d} = \prod_{l=1}^d \int_\mathbb{R} x_l dP_{X_l} = \prod_{l=1}^d \mathbb{E}X_l, $$ + $$ \E \left[\prod_{d=1}^l X_l \right] = \int_{\R ^d} \prod_{l=1}^d x_l dP_{\vec{X}} = \int_{\R } \prod_{l=1}^d x_l d(\otimes_{l=1}^d P_{X_l}) = $$ + $$ \int_{\R }\cdots\int_{\R } \prod_{l=1}^d x_l dP_{X_1} \cdots dP_{X_d} = \prod_{l=1}^d \int_\R x_l dP_{X_l} = \prod_{l=1}^d \E X_l, $$ kde druhá rovnost plyne z nezávislosti náhodných veličin $X_1,\dots,X_d$, třetí z Fubiniovy věty a předposlední z linearity integrálu. \end{proof} \hfill \textit{konec 8. přednášky (11.3.2025)} + +Teď definujeme další neplnohodnotnou (jinými slovy, neurčuje danou náhodnou veličinu, případně její rozdělení jednoznačně) charakteristiku. (Poznámka: příkladem plnohodnotné charakteristiky je distribuční funkce rozdělení) + +\begin{definition} + \textit{Rozptyl} náhodné veličiny $X$ je definován jako + $$ \Var X = \E (X - \E X) ^ 2, $$ + za předpokladu, že pravá strana je dobře definovaná. Pak \textit{směrodatná odchylka} tytéž náhodné veličiny je definovaná je + $$ \sd(X) = \sqrt{\Var X}. $$ +\end{definition} + +Uvědomme si, že některé volby charakterizování variability rozdělení nejsou vhodné, například na první pohled logické ``$\E (X - \E X)$" je nulová všude, kde je definovaná. + +\begin{theorem}[Vlastnosti rozptylu] + \label{thm-properties-disp} + Za předpokladu, že uvažované druhé momenty jsou konečné, potom + $$ \Var X = \E (X^2) - (\E (X))^2 \geq 0. $$ + Pokud $a, b \in \R $, pak + $$ \Var (aX + b) = a^2 \Var X, $$ + jinými slovy, rozptyl se chová jako kvadratická forma. + Pokud $X_1, \dots, X_2$ jsou nezávislé a $a_1, \dots, a_d$ jsou reálné konstanty, pak + $$ \Var \left(\sum_{l=1}^d a_l X_l\right) = \sum_{l=1}^d a_l^2 \Var X_l. $$ +\end{theorem} + +\begin{proof} + Dokážeme první vlastnost. Máme + $$ \Var X = \E [(X - \E X)^2] = \E [X^2-2X(\E X) + (\E X)^2] = \E X^2 - 2(\E X)^2 + (\E X)^2, $$ + kde předposlední rovnost plyne z linearity střední hodnoty a faktu, že $E[c] = c$ pro konstantu $c$. Nezápornost plyne z toho, že počítáme střední hodnotu nezáporné náhodné veličiny. + + Dále pro druhou vlastnost pišme + $$ \Var (aX + b) = \E \left[(aX + b - \E (aX + b))^2\right] = \E [a^2\left(X - \E X\right)^2], $$ + kde druhá rovnost plyne z linearity střední hodnoty a rovnosti $ b = \E b$, dále můžeme psát + $$ \E [a^2\left(X - \E X\right)^2] = a^2 \E (X - \E X)^2 = a^2 \Var X. $$ + + K důkazu poslední vlastnosti začneme opět rozepsáním definice + $$ \Var \left(\sum_{l = 1}^d a_l X_l \right) = \E \left[ \sum_{l = 1}^d a_l X_l - \E \left( \sum_{l=1}^d a_l X_l \right)^2 \right] = \E \left[ \sum_{l = 1}^d a_l(X_l - EX_l)\right]^2 = $$ + $$ \E \left[ \sum_{l = 1}^d a_l^2(X_l - \E X_l)^2 + 2\sum_{1 \leq j < l \leq d} a_j a_l (X_j - \E X_j) (X_l - \E X_l) \right] = $$ + $$ \sum_{l = 1}^d a_l^2 \E(X_l - \E X_l)^2 + 2 \sum_{1 \leq j < l \leq d} a_j a_l \E (X - \E X_j) (X_l - \E X_l) = \sum_{l = 1}^d a_l^2 \Var X_l, $$ + kde poslední rovnost plyne z toho, že v případě $j \neq l$ máme díky nezávislosti + $$ \E (X_j - \E X_j) (X_l - \E X_l) = E[X_j X_l] - \E [X_l] \E [X_j] = 0. $$ +\end{proof} + +Dalším pojmem, kterému se budeme věnovat, je kovariance a korelace, které charakterizují lineární vztah mezi dvěma náhodnými veličinami. + +\begin{definition} + \textit{Kovariance} mezi $X$ a $Y$ je definována jako + $$ \Cov(X, Y) = \textit{E}((X - \E X)(Y - \E Y)). $$ + Pokud $\Var(X)\Var(Y) > 0$, pak definujeme \textit{korelaci} mezi $X$ a $Y$ vztahem + $$ \rho_{X, Y} \equiv \Corr(X, Y) = \frac{\Cov(X, Y)}{\sqrt{\Var(X)\Var(Y)}}. $$ +\end{definition} + +Je třeba si dávat pozor, že tyto pojmy necharakterizují libovolnou souvislost mezi náhodnými veličinami, ale pouze lineární. Navíc, korelace nemusí způsobovat kauzalitu (spotřeba čokolády v dané zemi sice koreluje s počtem Nobelových laureátů, ale nemůžeme zvýšit počet laureátů tím, že zvýšíme spotřebu čokolády). + +Dále si všimneme, že z pravidla líného statistika (Věta \ref{thm-lazy-statistician}) okamžitě plynou následující vztahy. + +\begin{corollary} + Pro $X, Y$ spojité platí $\E XY = \int_{-\infty}^\infty \int_{-\infty}^\infty xyf_{(X, Y)} (x, y) dx dy$. + + Pro $X, Y$ diskrétní platí $\E XY = \sum_{x \in S(X), y \in S(y)} xyP[X = x, Y = y]$. +\end{corollary} + +Dále si zformulujeme několik vlastností kovariance a korelace. + +\begin{theorem} + Pro náhodné veličiny $X$ a $Y$ platí následující tvrzení (jsou-li příslušné matematické objekty dobře definovány). + \begin{enumerate}[(i)] + \item $\Cov(X, Y) = \E (XY) - \E X \E Y$; + \item $-1 \leq \Corr(X, Y) \leq 1$; + \item $|\Corr(X, Y)| = 1 \Leftrightarrow Y = aX + b$ s pravděpodobnosti $1$ pro nějaké hodnoty $a, b \in \R$. + \item Pro nezávislé $X$ a $Y$ platí $\Cov(X, Y) = 0$. Pozor: opačná implikace nemusí platit (stačí vzít $X \sim U(-1, 1), Y = X^2$). + \end{enumerate} +\end{theorem} + +\begin{proof} + Budeme postupovat postupně, k důkazu první vlastnosti použijeme následující výpočet: + $$ \Cov(X, Y) = \E [(X - \E X) (Y - \E Y)] = \E (XY) - \E X \E Y, $$ + kde druhá rovnost se získá roznásobením závorek analogicky s důkazem předchozí věty. Z tohoto okamžitě plyne vlastnost (iv), neboť nezávislost $X$ a $Y$ implikuje, že $\E (XY) = \E X \E Y$. + + K důkazu vlastnosti (ii) použijeme Cauchyovu-Schwarzovu nerovnost. Definujeme funkci $g(a) := \E (aX - Y)^2$, potom + $$ 0 \leq \E (aX - Y)^2 = \E (a^2X^2 - 2aXY + Y^2) = a^2\E X^2 - 2a\E XY + \E Y. $$ + Funkci $g(a)$ můžeme zderivovat, dostáváme + $$ g'(a) = 2a\E X^2 - 2\E XY, $$ + svého minima tedy funkce $g$ nabývá v bodě $\frac{\E XY}{\E X^2}$ (bez újmy na obecnosti $\E X^2 \neq 0$, v opačném případě máme $X = 0$ skoro jistě, z čehož vlastnosti z věty plynou triviálně). + Dosadíme tuto hodnotu do předpisu funkce $g(a)$ a dostáváme. + $$ g\left(\frac{\E XY}{\E X^2}\right) = \frac{(\E XY)^2}{\E X^2} - 2 \frac{(\E XY^2)}{\E X^2} + \E Y^2 \geq 0. $$ + Z toho již plyne, že $(\E XY)^2 \leq (\E X^2)(\E Y^2)$, z čehož už plyne požadované tvrzení. + + Vlastnost (iii) budeme dokazovat po implikacích. Nejdříve předpokládejme, že $Y = aX + b$ pro nějaká $a, b \in \R$. Potom máme + $$ \Cov (X, Y) = \Cov(X, aX + b) = \E [X(aX + b)] - \E X \E (aX + b) = $$ + $$ a\E X^2 + b \E X - a(\E X)^2 - b\E X = a\Var X. $$ + a můžeme psát + $$ |\Corr(X, Y)| = \frac{|\Cov(X, Y)|}{\sqrt{\Var X \Var Y}} = \frac{|a \Var X|}{\sqrt{\Var{X}a^2 \Var X}} = 1. $$ + + Nakonec, k důkazu poslední implikace si uvědomíme, že rovnost nastává v případě $|Cor(X, Y)| = \sqrt{\Var X \Var Y}$. To nastane právě tehdy, když + $$[\E(X - \E X) (Y - \E Y)]^2 = [\E (X - \E X)^2] [\E (Y - \E Y)^2].$$ + Položme $\tilde{X} = X - \E X$ a $\tilde Y = Y - \E Y$. Předchozí výraz pak bude mít tvar + $$[\E\tilde{X}\tilde{Y}]^2 = \E\tilde{X}^2\E\tilde{Y}^2.$$ + Dosadíme $a = \frac{\E\tilde{X}\tilde{Y}}{\E \tilde{X}^2}$ do $g(a)$ z důkazu vlastnosti (ii), dostáváme (všimněte si, že jde o bod, kde funkce $g$ nabývá svého minima) $0 = \E\left[\frac{\E \tilde{X}\tilde{Y}}{\E \tilde{X}^2}\tilde{X} - \tilde{Y}\right]^2$, a tedy musí platit $P[a\tilde{X} - \tilde{Y} = 0] = 1$. Pak s pravděpodobností $1$ musí platit $aX - a\E X + \E Y = Y$, což jsme chtěli dokázat (stačí vzít $b = - a\E X - \E Y$). +\end{proof} + +Jednoduchým důsledkem tohoto tvrzení (plyne z důkazu poslední vlastnosti z Věty \ref{thm-properties-disp}) je následující tvrzení umožňující počítat rozptyl součtu ne nutně nezávislých veličin. + +\begin{corollary}[Rozptyl součtu] + Pokud $X_1, \dots, X_d \in \mathcal{L}^2$ a $a_1, \dots, a_d$ jsou reálné konstanty, potom + $$ \Var\left(\sum_{l = 1}^d a_l X_l \right) = \sum_{l = 1}^d a_l^2 \Var X_l + 2 \sum_{1 \leq j < l \leq d} a_j a_l \Cov(X_j, X_l).$$ +\end{corollary} + +Pro vícerozměrné náhodné vektory můžeme definovat obdobné pojmy jako pro náhodné veličiny. + +\begin{definition} + \textit{Střední hodnotu} náhodného vektoru $\vec{X}=[X_1, \dots, X_d]^T$ definujeme předpisem + $$ \E \vec{X} = [\E X_1, \dots, \E X_d]^T.$$ + \textit{Varianční-kovarianční matice} náhodného vektoru $\vec{X} = [X_1, \dots, X_d]^T$ je definována jako + $$ \Var \vec{X} = + \begin{bmatrix} + \Var X_1 & \Cov(X_1, X_2) & \cdots & \Cov(X_1, X_d) \\ + \Cov(X_2, X_1) & \Var X_2 & \cdots & \Cov(X_2, X_d) \\ + \vdots & \vdots & \ddots & \vdots \\ + \Cov(X_d, X_1) & \Cov(X_d, X_2) & \cdots & \Var(X_d) + \end{bmatrix}.$$ +\end{definition} + +Všimneme si, že platí $\Cov(X, X) = \Var X$ a $\Cov(X, Y) = \Cov(Y, X)$. Z toho plyne, že takto definovaná kovarianční matice je symetrická. + +\hfill \textit{konec 9. přednášky (17.3.2025)}