chap1.tex 6.01 KB
Newer Older
Pierre-antoine Comby's avatar
Pierre-antoine Comby committed
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217
\documentclass[main.tex]{subfiles}
\begin{document}
\section{Probabilités}
\subsection{Évènement}
\begin{itemize}
\item La réalisation d'une expérience aléatoire (on ne peux pas prédire avec certitude le résultat) est un \textit{évènement} $\omega$, singleton de $\Omega$ ensembles de tous les évènements.
  \begin{exemple}[jet de dé]
    aux évènements    ``Tirer 1, ... ,6 `` on associe $\Omega={\omega_1,...\omega_6}$
  \end{exemple}
\item $\mathcal{E} $est une tribu (ou $\sigma$-algèbre) de $\Omega$, tel que:
  \begin{itemize}
  \item $\Omega \in \mathcal{E}$
  \item $\mathcal{E}$ est stable par union , intersection et complémentarité.
  \end{itemize}
\end{itemize}
\subsection{Probabilités}
\begin{defin}
  On appelle probabilité :
  \[
    P : \begin{cases}
      \mathcal{E} &\to [0,1]\\
      E &\mapsto P(E)
        \end{cases}
   \]
   tel que:

   \begin{itemize}
   \item $    P(\Omega) = 1 $
   \item $ \forall E_i , i\in \mathbb{I} \text{ , desév disjoint 2 à 2}, \implies
     P\left(\displaystyle\bigcup_{i\in\mathbb{I}}E_i\right) = \displaystyle\sum_{\mathbb{I}} P(E_i)$
   \end{itemize}

 \end{defin}

\pagebreak
 \begin{prop}
   \begin{itemize}
   \item  $ P(\bar{E}) = 1-P(E)$
   \item $(P(\emptyset) = 0)$
   \item $A \subset B  \implies P(A) \leq P(B)$
   \item $P(A+B) = P(A)+P(B)-P(A\cap B)$
   \end{itemize}
 \end{prop}
\subsection{Probabilités conditionnelles}

\begin{defin}
  Soit $A$ et $B$ deux évènements.  On appelle \emph{probabilité conditionnelle} la probabilité de $A$ sachant que  $B$ est réalisé:
  \[
    P(A|B) = \frac{P(A\cap B)}{P(B)}
  \]
\end{defin}
\begin{prop}[Formule de Bayès]
  \[
    P(A|B) = \frac{P(B|A)P(A)}{P(B)}
  \]
\end{prop}

\subsection{Indépendance}
\begin{defin}
  Deux évènements $A$ et $B$ sont dits \emph{indépendant} si et seulement si le fait que $A$ est réalisé n'apporte pas d'information sur la réalisaiton de $B$
    \begin{align*}
      & P(A|B) = P(A)\\
      \iff & P(B|A) = P(B)\\
      \iff & P(A\cap B) = P(A) .P(B)
    \end{align*}
\end{defin}
\begin{defin}
  Des évènements $(E_i)_{i\in\mathbb{I}}$  sont dits mutuellement indépendants (ou encore indépendants dans leur ensemble), si et seulement si:
  \[
  P\left(\displaystyle\bigcap_{i\in\mathbb{I}}E_i\right) = \displaystyle\prod_{\mathbb{I}} P(E_i)
\]
\end{defin}

\begin{prop}
  L'indépendance dans son ensemble implique l'indépendance deux à deux. \\
  La réciproque n'est pas forcément vraie.
\end{prop}
\section{Variable aléatoire réelle et scalaire}
On se place dans un espace probabilisé $\Omega$ donné.
\subsection{Généralité et exemple}
\begin{defin}
  On appelle \emph{Variable aléatoire} (VA) :
  \[
    X :
    \begin{cases}
      \Omega \to \R \\
      \omega \mapsto X(\omega)=x
    \end{cases}
  \]
\end{defin}
\begin{exemple}
  \begin{itemize}
  \item Dé à n faces (discret)
  \item distance d'une flèche au centre de la cible.
  \end{itemize}
\end{exemple}
\begin{prop}
  Pour des variables aléatoires continues,
  \[
    P(X=x) = 0 , \forall x\in \R
  \]
  car $x$ est un point de mesure nulle.
\end{prop}


\subsection{Fonction de répartition}

\begin{defin}
  On appelle fonction de répatition:
  \begin{align*}
    F_X(x) &= P(X\leq x) = P(X \in ]-\infty,x])\\
           &=P(\{\omega \in \Omega|X(\omega)\le x \})
  \end{align*}
\end{defin}
\begin{prop}
  \begin{itemize}
  \item $0 \le\F_X(x) \le1$
  \item $P(a\le X\le b) = F_X(b)-F_X(a)$
  \item $F_x$ est une fonction :
    \begin{itemize}
    \item non décroissante
    \item continue presque partout
    \end{itemize}
  \end{itemize}
\end{prop}

Une variable aléatoire est complétement caractérisée par sa f.d.r
\begin{rem}
  Dans le cas d'une VAD , $F_X$ est en marche d'escalier.
\end{rem}
\subsection{Densité de probabilité}
\begin{defin}
  On appelle \emph{densité de probabilité} la fonction :
  \[
f_X(x) \equals_{\mathcal{D}} \dervi[F_X(x)]{x}
\]
Avec la dérivée généralisé au sens des distributions.
\end{defin}
\begin{prop}
  \begin{itemize}
  \item Les fonction de densité de probabilité et de répartition sont équivalentes pour décrire une variable aléatoire.
  \item $f_X(x)\ge 0$
  \item $\displaystyle \int_{-\infty}^{+\infty}f_X(x)\d x = 1$
  \item $\displaystyle \int_{-\infty}^{x}f_X(\alpha)\d \alpha = F_X(x)$
  \end{itemize}
\end{prop}

\begin{rem}
  Pour les variables aléatoires discrètes, la ddp est une suite d'impulsion de Dirac :
  \[
    f_X(x) = \sum_{i\in\mathbb{I}}p_i\delta(x-x_i)
  \]
\end{rem}

\begin{exemple}
  \begin{itemize}
  \item VAC uniforme sur $[a,b]$:
    \[
      f_X(x) = \frac{1}{b-a} \mathbb{1}_{[a,b]}
    \]
  \item VAC gaussienne :
    \[
      f_X(x) = \frac{1}{\sqrt{2\pi}\sigma} exp\left(\frac{-1}{2}\frac{(x-m_x)^2}{\sigma_X^2}\right)
    \]
  \end{itemize}
\end{exemple}

\subsection{Changement de VA}
\begin{prop}
  Soit $g :
  \begin{cases}
    \R \to \R \\
    X \mapsto g(X) = Y
  \end{cases}$ une fonction homéomorphique\footnotemark \\
  Alors :
  \[
    f_Y(y) = f_X(x) \left|\deriv[x]{y}\right| = f_X(x) \frac{1}{ \left|\deriv[y]{x}\right|}
  \]
  Dans le cas ou $g$ n'est pas bijective :
  \[
    f_Y(y) = \sum_{x_i|g(x_i)=y}^{}f_X(x) \left|\deriv[x]{y}\right|_{x=x_i}
  \]
\end{prop}
\footnotetext{continue, bijective continue}

\subsection{Expérance, moment et fonction caractéristique}




\subsection{Fonction caractéristique}
\section{Couple de variable aléatoire réelles}
\subsection{Généralité}
\subsection{Fonction de répartition}
\subsection{Densité de probabilité}
\subsubsection{Espérance de la VA}
\subsection{Indépendance}
\subsection{Changement de VA}
\subsection{Espérance et moments-fonction caractéristique}
\section{Variable aléatoire vectorielle et réelles}
\subsection{Définition}
\subsection{Fonction de répartition}
\subsection{Densité de Probabilité}
\subsection{Indépendance}
\subsection{Changement de variable aléatoire}
\subsection{Espérance, moments et fonction caractéristique}
\subsection{Va Gaussienne et réelle}
\section{Extension aux VA complexes}



\end{document}

%%% Local Variables:
%%% mode: latex
%%% TeX-master: "main"
%%% End: