prednaska 3.3.2025 + stylisticke upravy
This commit is contained in:
parent
16d7d47a53
commit
ef26960d65
3 changed files with 121 additions and 14 deletions
|
@ -46,7 +46,7 @@ Každé události $A \in \mathcal{A}$ přiřadíme číslo $\mathbb{P}(A)$, kter
|
|||
|
||||
Přímo z této definice již můžeme odvodit pár základních vlastností pravděpodobnosti, se kterými dále budeme pracovat. Ve všech následujících tvrzeních pracujeme s pravděpodobnostním prostorem $(\Omega, \mathcal{A}, P)$.
|
||||
|
||||
\begin{observation}{\textbf{(Základní vlastnosti pravděpodobnostní míry)}}
|
||||
\begin{observation}[Základní vlastnosti pravděpodobnostní míry]
|
||||
Pro výše jmenovaný pravděpodobnostní prostor platí následující tvrzení:
|
||||
\begin{enumerate}
|
||||
\item $P(\emptyset) = 0$,
|
||||
|
@ -65,7 +65,7 @@ Přímo z této definice již můžeme odvodit pár základních vlastností pra
|
|||
\end{enumerate}
|
||||
\end{proof}
|
||||
|
||||
\begin{lemma}{\textbf{(Pravděpodobnost sjednocení)}}
|
||||
\begin{lemma}[Pravděpodobnost sjednocení]
|
||||
Pro libovolné $A, B \in \mathcal{A}$ platí $P(A \cup B) = P(A) + P(B) - P(A\cap B)$.
|
||||
\end{lemma}
|
||||
|
||||
|
@ -73,7 +73,7 @@ Přímo z této definice již můžeme odvodit pár základních vlastností pra
|
|||
Rozepíšeme $A \cup B = (A \cap B^C) \cup (A \cap B) \cup (A^C \cap B)$. Tyto tři množiny jsou zřejmě po dvou disjunktní. Dále díky aditivitě pravděpodobnosti máme $P(A \cup B) = P(A\cap B^C) + P(A \cap B) + P(A^C\cap B) + P(A \cap B) - P(A \cap B) = P(A) + P(B) - P(A \cap B)$.
|
||||
\end{proof}
|
||||
|
||||
\begin{theorem}{\textbf{(Spojitost pravděpodobnosti)}}
|
||||
\begin{theorem}[Spojitost pravděpodobnosti]
|
||||
Buď $A_n \uparrow A$ nebo $A_n \downarrow A$ pro $A_n, A \in \mathcal{A}$. Potom platí $P(A_n) \rightarrow P(A)$.
|
||||
\end{theorem}
|
||||
|
||||
|
@ -90,7 +90,7 @@ Uvedeme si ještě jeden příklad ilustrující intuitivní chápání pravděp
|
|||
$$ P(A) = \frac{|A|}{|\Omega|}. $$
|
||||
V tomto případě mluvíme o \textit{rovnoměrném rozdělení pravděpodobnosti}.
|
||||
|
||||
\begin{example}{\textit{(Hod dvěma kostkami)}}
|
||||
\begin{example}[Hod dvěma kostkami]
|
||||
Výběrový prostor $\Omega = \{(i, j): i, j \in \{1\dots 6\}\}$ má $36$ prvků. Jestliže všechny výsledky jsou stejně pravděpodobné, pak platí $P(A) = \frac{|A|}{36}$. Například, pravděpodobnost toho, že součet na kostkách je přesně $11$, je $2/36$, protože pouze dva výsledky $(5, 6)$ a $(6, 5)$ odpovídají této události.
|
||||
\end{example}
|
||||
|
||||
|
@ -119,7 +119,8 @@ Dalším silným nástrojem v teorii pravděpodobnosti je podmíněná pravděpo
|
|||
|
||||
Poznamenejme si několik základních vlastností podmíněné pravděpodobnosti, jejichž důkaz snadno plyne z příslušných definic.
|
||||
|
||||
\begin{observation}{\textbf{(Vlastnosti podmíněné pravděpodobnosti)}}
|
||||
\begin{observation}[Vlastnosti podmíněné pravděpodobnosti]
|
||||
\hfill
|
||||
\begin{enumerate}[(i)]
|
||||
\item Pro pevné $B \in \mathcal{A}, P(B) > 0$ je $P(\cdot|B)$ pravděpodobnostní míra.
|
||||
\item Obecně platí $P(A|B) \neq P(B|A)$, platí totiž $P(A|B) = P(B|A) \frac{P(A)}{P(B)}$ (pokud obě strany rovnosti dávají smysl).
|
||||
|
@ -164,7 +165,7 @@ Vyšlo nám, že na první pohled zdánlivě precizní test ve skutečnosti má
|
|||
|
||||
Na závěr uvedeme dvě velmi užitečné věty, které se často používají v nejrůznějších úlohách a týkají se podmíněné pravděpodobnosti. Zformulujeme je pro spočetné rozklady, ale obdobná tvrzení platí i pro konečné rozklady s velmi podobným důkazem.
|
||||
|
||||
\begin{theorem}{\textbf{(Zákon úplné pravděpodobnosti)}}
|
||||
\begin{theorem}[Zákon úplné pravděpodobnosti]
|
||||
\label{thm-complete-probability}
|
||||
Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \mathbb{N}$. Potom pro libovolnou událost $B \in \mathcal{A}$ platí:
|
||||
$$P(B) = \sum_{i=1}^\infty P(B|A_i) P(A_i).$$
|
||||
|
@ -174,7 +175,7 @@ Na závěr uvedeme dvě velmi užitečné věty, které se často používají v
|
|||
Definujme posloupnost množin $C_i = B \cap A_i$ pro $i\in \mathbb{N}$. Zjevně $\{C_i, i \in \mathbb{N}\}$ je disjunktní pokrytí $B$. Potom $P(B) = \sum_{i=1}^\infty P(C_i) = \sum_{i=1}^\infty P(B \cap A_i) = \sum_{i=1}^\infty P(B|A_i)P(A_i)$.
|
||||
\end{proof}
|
||||
|
||||
\begin{theorem}{\textbf{(Bayes)}}
|
||||
\begin{theorem}[Bayes]
|
||||
\label{thm-bayes}
|
||||
Nechť $A_1, A_2, \dots$ je spočetný disjunktní rozklad $\Omega$ takový, že $P(A_i) > 0$ pro každé $i \in \mathbb{N}$. Mějme událost $B \in \mathcal{A}$ s nenulovou pravděpodobností. Potom platí:
|
||||
$$P(A_i|B) = \frac{P(B|A_i)P(A_i)}{\sum_{j=1}^\infty P(B|A_j)P(A_j)}.$$
|
||||
|
@ -197,7 +198,7 @@ Použití Bayesovy věty si ukážeme na následujícím příkladu.
|
|||
Tedy pravděpodobnost, že tento e-mail je spam je přes $99\%$!
|
||||
\end{example}
|
||||
|
||||
\begin{theorem}{\textbf{(O postupném podmiňování)}}
|
||||
\begin{theorem}[O postupném podmiňování]
|
||||
Nechť $\{A_i\}_{i=1}^n$ jsou náhodné jevy takové, že $P(\bigcap_{i=1}^n) > 0$. Pak platí
|
||||
$$ P(\bigcap_{i=1}^n A_i ) = P(A_n | \bigcap_{i=1}^{n-1}) \cdot P(A_2|A_1) \cdot P(A_1). $$
|
||||
\end{theorem}
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue