Commit 5ba8134c authored by Pierre-antoine Comby's avatar Pierre-antoine Comby

import TD du drive

parent 45afaf06
\documentclass[main.tex]{subfiles}
\begin{document}
\subsection*{Optimisation d'un laminoir}
\begin{enumerate}
\item Y désigne la longueur de barres perdue, qui est de X (la totalité de la barre) si la barre est trop courte, ou de X-l si la barre est trop longue.
\[
Y = \left\{
\begin{array}{ll}
X & \text{ si } X < l \\
X-l & \text{ si } X >l
\end{array}
\right.
\]
\item
\begin{align*}
m_Y & = E_Y[Y] = E_X[Y] \\
& = \int_0^lxf_X(x)dx + \int_l^{\infty} (x-l)f_X(x)dx \\
& = \int_0^{\infty} xf_X(x)dx - \int_l^{\infty}lf_X(x)dx \\
m_Y & = m_X - l\int_l^{\infty}f_X(x)dx
\end{align*}
\item On suppose que X est une variable aléatoire gaussienne, alors \[f_X(x) = \frac{1}{\sigma_X\sqrt{2\pi}}e^{-\frac{(x-m_X)^2}{2\sigma_X^2}} \]
\begin{itemize}
\item $m_X$ représente la moyenne de $X$, c'est-à-dire la valeur sur laquelle la gaussienne est centrée
\item $\sigma_X$ représente la dispersion des valeurs autour de $m_X$. En effet, à $m_X \pm \sigma_X$, on a $f_X(x) = 0.6\frac{1}{\sigma_X\sqrt{2\pi}}$.
\begin{align*}
\int_{m_X-\sigma_X}^{m_X+\sigma_X} f_X(x)dx = 0.68 \\
\int_{m_X-2\sigma_X}^{m_X+2\sigma_X} f_X(x)dx = 0.95 \\
\int_{m_X-3\sigma_X}^{m_X+3\sigma_X} f_X(x)dx = 0.99
\end{align*}
\end{itemize}
Le modèle est valable si la probabilité d'avoir des événements "non-physiques" reste faible, c'est-à-dire si $m_X-3\sigma_X > 0$ de sorte à ce que $P(X<0) < 0.5 \%$.
\item Sans contrainte sur l'intervalle de variation de $m_X$, une condition nécessaire à l'obtention d'un minimum $m_X^{opt}$ est $\frac{dm_Y}{dm_X} = 0$.
\begin{align*}
\frac{dm_Y}{dm_X} & = 1 - l\int_l^{+\infty} \frac{\partial f_X(x,m_X)}{\partial m_X}dx \\
&\quad \text{Or, on a ici une gaussienne, donc } \frac{\partial f_X}{\partial m_X} = - \frac{\partial f_X}{\partial x} \\
\frac{dm_Y}{dm_X} & = 1 + l\int_l^{\infty} \frac{df_X(x,m_X)}{dx}dx \\
& = 1 + l(f_X(+\infty)-f_X(l)) = 1 - lf_X(l) \\
\text{Ainsi, } \frac{dm_Y}{dm_X} & = 0 \quad \Leftrightarrow \quad f_X(l) = \frac{1}{l}
\end{align*}
\begin{align*}
f_X(l) = \frac{1}{l} & \Leftrightarrow 1 = \frac{l}{\sqrt{2\pi}\sigma_X}e^{-\frac{1}{2}(\frac{x-m_X}{\sigma_X})^2} \\
& \Leftrightarrow m_X = l \pm \sigma_X\sqrt{-2\ln\frac{l}{\sqrt{2\pi}\sigma_X}} \text{ avec } l > \sqrt{2\pi}\sigma_X
\end{align*}
Pour qu'il s'agisse d'un minimum, il faut que $\frac{d^2m_Y}{d^m_X} > 0$.
\begin{align*}
\frac{d^2m_Y}{d^m_X} & = -l \frac{df_X(l)}{dm_X} \\
& = \frac{-l}{\sqrt{2\pi}\sigma_X^3}(l-m_X)e^{-\frac{1}{2}(\frac{x-m_X}{\sigma_X})^2} \\
\text{ et on obtient } \frac{d^2m_Y}{d^m_X}|_{m_X+} & > 0 \text{ et } \frac{d^2m_Y}{d^m_X}|_{m_X-} & < 0
\end{align*}
Le minimum de $m_Y$ est donc bien atteint pour $m_{Xopt} = l + \sigma_X\sqrt{-2\ln\frac{l}{\sqrt{2\pi}\sigma_X}}$
\item Application numérique : \\
\[ m_X = 1 + 0,01\sqrt{2\ln\frac{1}{\sqrt{2\pi}0,01}} = 1,027 m \]
Remarque : on obtient $l \approx l + 3\sigma_X$, donc le modèle est valable, en accord avec la question 4.
\end{enumerate}
\subsection*{Changement de variable aléatoire}
\begin{enumerate}
\item Traçons l'évolution de la VA $Y$ en fonction de $X$ : \\
\begin{tikzpicture}
\draw [>=latex,<->] (8,0) node[right]{$x$} -- (0,0) -- (0,5) node[left]{$y$};
\draw [dashed] (0,0) -- (2,2);
\draw [dashed] (3,3) -- (5,5) node[right]{$y=x$};
\draw (2,2)-- (3,3);
\draw[dashed] (4,1) -- (6,3) node[right]{$y=x-l$};
\draw (3,0) -- (4,1);
\draw[dashed] (0,2) node[left]{$l-\Delta$} -- (2,2) -- (2,0) node[below]{$l-\Delta$};
\draw[dashed] (0,3) node[left]{$l$} -- (3,3) -- (3,0) node[below]{$l$};
\draw[dashed] (4,1) -- (4,0) node[below]{$l+\Delta$};
\draw[dashed,blue] (-0.5,2.6) node[left]{$y\in[l-\Delta,l]$} -- (2.6,2.6) -- (2.6,-0.5) node[below]{$y$};
\draw[dashed,red] (-0.5,0.3) node[left]{$y\in[0,\Delta]$} -- (3.3,0.3) -- (3.3,-0.5) node[below]{$y+l$};
\end{tikzpicture}
Avec l'aide du dessin, on voit immédiatement que :
\begin{itemize}
\item si $y\in[0,\Delta[$, alors $F_Y(y) = P[0 \leq Y < y] = P[l \leq x < y+l] = F_X(y+l) - F_X(l)$
\item si $y\in[l-\Delta,\Delta]$, alors $F_Y(y) = P[0 \leq Y < y] = F_X(l+\Delta) - F_X(l) + F_X(y) - F_X(l-\Delta)$
\item sinon, $F_Y(y) = $ cste.
\end{itemize}
Ainsi, on en déduit la densité de probabilité en dérivant par rapport à $y$ :
\[
f_Y(y) = \left\{
\begin{array}{ll}
f_X(y) & \text{ si } y\in[l-\Delta,\Delta] \\
f_X(y+l) & \text{ si } y\in[0,\Delta[ \\
0 & \text{ sinon}
\end{array}
\right.
\]
\item On a le changement de variable $g: X \Rightarrow Y=g(X)$ où :
\[
g(X) = \left\{
\begin{array}{ll}
X+l & \text{ si } Y = X-l \in [0,\Delta] \\
X & \text{ si }Y = X \in [l-\Delta,\Delta]
\end{array}
\right.
\]
On utilise la formule générale du changement de variables :
\[ f_Y(y) = F_X(x) |\frac{dx}{dy}| |_{x,g(x)=y} \]
On retrouve ainsi le résultat précédent.
\item On considère que la variable $X$ est uniformément répartie sur l'intervalle $[l-\Delta,l+\Delta]$. Ainsi, $f_X(x) = C$ (constante) sur cet intervalle et comme on a :
\[ \int_{-\infty}^{+\infty} f_X(x) dx = \int_{l-\Delta}^{l+\Delta} f_X(x) dx = 2\Delta C = 1 \]
alors
\[ f_X(x) = \left\{
\begin{array}{ll}
\frac{1}{2\Delta} & \text{ si } x \in [l-\Delta,l+\Delta] \\
0 & \text{ sinon }
\end{array}
\right.
\]
d'où
\[ f_Y(y) = \left\{
\begin{array}{ll}
\frac{1}{2\Delta} & \text{ si } y \in [0,\Delta]\cup[l-\Delta,l] \\
0 & \text{ sinon }
\end{array}
\right.
\]
\textbf{Propriété importante :} Si une densité de probabilité a une symétrie en $x_0$ et que sa moyenne existe, sa moyenne est sur l'axe de symétrie, donc vaut $x_0$.\\
Preuve :
\begin{align*}
\int_{-\infty}^{+\infty} x f_X(x) dx & = \int_{-\infty}^{+\infty} (y+x_0) f_X(y+x_0) dy \\
& = x_0 \int_{-\infty}^{+\infty} f_X(y+x_0)dy + \int_{-\infty}^{+\infty} y f_X(y+x_0)dy \\
& = x_0 \times 1 + 0 = x_0
\end{align*}
Ainsi, on obtient $m_Y = \frac{l}{2}$
\item On considère le changement de variable : $\Phi \rightarrow Y = \cos(\Phi)$.
Comme $\cos(\Phi) \in [-1,1]$, on a pour $y < -1, F_Y(y) = 0$ et pour $y \geq 1, F_Y(y) = 1$.
Pour $y\in[-1,1]$,
\begin{align*}
F_Y(y) & = P(\cos(\Phi) < y) \\
& = P(-pi \leq \Phi < -\arccos(y)) + P(\arccos(y) \leq \Phi < \pi)\\
& = F_{\Phi}(-\arccos(y)) - F_{\Phi}(\arccos(y)) + F_{\Phi}(\pi) - F_{\Phi}(-\pi) \\
& = F_{\Phi}(-\arccos(y)) - F_{\Phi}(\arccos(y)) + 1\\
f_Y(y) & = \frac{1}{\sqrt{1-y^2}}f_{\Phi}(-\arccos(y)) + \frac{1}{\sqrt{1-y^2}}f_{\Phi}(\arccos(y))
\end{align*}
\item On utilise le résultat général sur les changements de VA avec $\phi = \arccos(y)$ si $y>0$ et $\phi = -\arccos(y)$ si $y<0$
\begin{align*}
f_Y(y) & = f_{\Phi}(\phi) |\frac{d\phi}{dy}||_{\phi,g(\phi)=y} \\
& = \left\{
\begin{array}{ll}
0 & \text{ si } y \notin [-1,1] \\
f_{\Phi}(\phi) |\frac{d\phi}{dy}||_{\phi=\arccos(y)} + f_{\Phi}(\phi) |\frac{d\phi}{dy}||_{\phi=-\arccos(y)}& \text{ si } y\in[-1,1]
\end{array}
\right. \\
& = \left\{
\begin{array}{ll}
0 & \text{ si } y \notin [-1,1] \\
\frac{1}{\sqrt{1-y^2}}f_{\Phi}(-\arccos(y)) + \frac{1}{\sqrt{1-y^2}}f_{\Phi}(\arccos(y))& \text{ si } y\in[-1,1]
\end{array}
\right.
\end{align*}
\item Si la VA$\Phi$ est uniformément répartie sur $[-\pi,\pi]$, alors on a
\begin{align*}
f_{\Phi}(\phi) & =
\left\{
\begin{array}{ll}
\frac{1}{2\pi} & \text{si } \phi \in [-\pi,\pi] \\
0 & \text{ sinon }
\end{array}
\right. \\
f_Y(y) & =
\left\{
\begin{array}{ll}
\frac{1}{\pi\sqrt{1-y^2}} & \text{si } y \in [-1,1] \\
0 & \text{ sinon }
\end{array}
\right. \\
\end{align*}
\end{enumerate}
\end{document}
\documentclass[main.tex]{subfiles}
\begin{document}
$(X,Y)$ est un couple de variables aléatoires uniformément réparti sur un disque $D$ centré en 0 et de rayon $R_{max}$.
\begin{enumerate}
\item Donner la densité de probabilité conjointe des VA $X$ et $Y$.
Les variables aléatoires $X,Y$ sont uniformément réparties sur le disque donc $\forall (x,y) \in D$, $f_{XY}(x,y)=A $ constante.
Or, $\int\int_{\mathbb{R}^2} f_{XY}(x,y)dxdy = 1$ donc $\int\int_{D} f_{XY}(x,y)dxdy = 1$ d'où $\pi R_{max}^2A=1$
\[
f_{XY}(x,y) =
\left\{
\begin{array}{ll}
\frac{1}{\pi R_{max}^2} & \si (x,y)\in D \\
0 & \sinon
\end{array}
\right.
\]
\item Discuter de l'indépendance de $X$ et $Y$.
\begin{itemize}
\item Est-ce qu'une information sur $X$ implique une information sur $Y$ ?
Pour la réalisation $x_1$ de $X$, on voit que \[y_1\in[y_1^-,y_1^+]=[-\sqrt{R_m^2-x_1^2},\sqrt{R_m^2-x_1^2}]\] Ainsi, $X$ et $Y$ ne peuvent pas être indépendantes.
\item On sait que : si $X$ et $Y$ sont indépendantes, alors la ddp est séparable.
\begin{align*}
f_{XY}(x,y) =
\left\{
\begin{array}{ll}
\frac{1}{\pi R_{max}^2} & \si x^2 + y^2 \leq R_{max}^2 \\
0 & \sinon
\end{array}
\right.
\end{align*}
On ne peut pas l'écrire sous la forme (fonction de $x$) x (fonction de $y$) à cause de la condition $x^2 + y^2 \leq R_{max}^2$ donc $X$ et $Y$ ne sont pas indépendantes.
\item On sait que : si $X$ et $Y$ sont indépendantes, alors $f_{XY}(x,y)=f_X(x)f_Y(y)$. Exhibons un contre-exemple.
Prenons un point donné par \[ |x|\leq R_{max},|y|\leq R_{max},\text{ tel que } x^2 + y^2 > R_{max}^2\] (Dans le carré mais pas dans le cercle). Ainsi, $f_{XY}(x,y)=0$ alors que $f_X(x)\neq0$ et $f_Y(y)\neq0$, donc $X$ et $Y$ ne sont pas indépendantes.
\item On sait que : si $X$ et $Y$ sont indépendantes, alors $F_{XY}(x,y)=F_X(x)F_Y(y)$.
\[F_{XY}(-\frac{R_{max}}{\sqrt{2}},\frac{R_{max}}{\sqrt{2}}) = P(X<-\frac{R_{max}}{\sqrt{2}},Y<\frac{R_{max}}{\sqrt{2}}) = 0\] alors que $F_X(x)\neq0$ et $F_Y(y)\neq0$, donc $X$ et $Y$ ne sont pas indépendantes.
\end{itemize}
\medskip
Valeur moyenne de x : on peut voir que par symétrie par rapport à l'axe des ordonnées, $m_X=0$. (Ne pas oublier de vérifier que l'intégrale existe.)
\begin{align*}
m_X=E_X[X]& =\int_{\mathbb{R}}xf_X(x)dx=\int_{\mathbb{R}}x (\int_{\mathbb{R}}f_{XY}(x,y)dy) dx \\
& = \int\int_{\mathbb{R}^2} x f_{XY}(x,y)dxdy \\
& = \int\int_D \frac{x}{\pi R_{max}^2} dxdy = 0
\end{align*}
Coefficient de corrélation : $\rho_{XY} = \frac{E[(X-m_X)(Y-m_Y)]}{\sigma_X\sigma_Y}$
Le coefficient de corrélation détermine le degré de linéarité entre $X$ et $Y$. Ici, il n'y a pas de direction privilégiée, donc $\rho_{XY} = 0$.
Par le calcul, $\rho_{XY} = \frac{E[XY]}{\sigma_X\sigma_Y}$ car les moyennes sont nulles.
\begin{eqnarray*}
E[XY] & = & \int\int_{\mathbb{R}^2} xyf_{XY}(x,y)dxdy \\
& = & \int\int_{Q_{++}} xyf_{XY}(x,y)dxdy + \int\int_{Q_{+-}} xyf_{XY}(x,y)dxdy \\ & &+ \int\int_{Q_{-+}} xyf_{XY}(x,y)dxdy + \int\int_{Q_{--}} xyf_{XY}(x,y)dxdy \\
& = 0
\end{eqnarray*}
\item $f_X(x) = \int_{\mathbb{R}}f_{XY}(x,y)dy, \forall x \in \mathbb{R}$
\begin{itemize}
\item \[ \forall x / |x| \leq R_{max}, f_X(x) = \int_{-\sqrt{R_{max}^2-x^2}}^{\sqrt{R_{max}^2-x^2}} \frac{1}{\pi R_{max}^2}dy=\frac{2\sqrt{R_{max}^2-x^2}}{\pi R_{max}^2}\]
\[
f_X(x) =
\left\{
\begin{array}{ll}
\frac{2\sqrt{R_{max}^2-x^2}}{\pi R_{max}^2} &\si |x| < R_{max} \\
0 &\sinon
\end{array}
\right.
\]
\item
\begin{align*}
P[x\leq X<x+\Delta x] & = f_X(x) \Delta x \\
& = P[(X,Y) \in D_x ] \\
& = \frac{Aire D_x}{\pi R_{max}^2}
\end{align*}
\end{itemize}
On calcule de même $f_Y(y)$ et on remarque que $f_{XY}(x,y) \neq f_X(x)f_Y(y), \forall (x,y) \in D$.
X et Y ne sont pas indépendantes.
\item On pose $X = R \cos(\Phi)$ et $Y = R \sin(\Phi)$ avec $R\geq 0$ et $Pphi \in ]-\pi,\pi[$.
La répartition est isotrope : $f_{R\Phi}(r,\phi)$ ne dépend pas de $\phi$ si $|\phi|<\pi$.
Ainsi,
\[
f_{R\Phi}(r,\phi) =
\left\{
\begin{array}{ll}
0 &\si r \notin [0,R_{max}] \text{ ou } \phi \notin ]-\pi,\pi[ \\
g_R(r) &\sinon
\end{array}
\right.
\]
La fonction est séparable donc $R$ et $\Phi$ sont indépendantes.
Expliciter $f_\Phi(\phi)$.
\begin{itemize}
\item On voit que $\Phi$ suit une loi uniforme sur $]-\pi,\pi[$.
\item
\begin{align*}
P[\phi \leq \Phi < \phi + \Delta \phi ] & = f_{\Phi}(\phi)\Delta \phi \\
& = P[(R,\Phi)] \in D_{\phi} = P[(X,Y) \in D_{\phi}] \\
& = \frac{\frac{\Delta \phi}{2\pi}\pi R_{max}^2}{\pi R_{max}^2} = \frac{\Delta \phi}{2 \pi}
\end{align*}
\end{itemize}
Expliciter $f_R(r)$.
Attention, la loi n'est pas uniforme ! On applique le même raisonnement que ci-dessus avec un domaine $D_r$ en couronne.
\[
\left\{
\begin{array}{ll}
f_R(r) = \frac{2r}{R_{max}^2} & \si r \notin [0,R_{max}] \\
0 &\sinon
\end{array}
\right.
\]
\item En utilisant les formules de changement de variables, on exprime $f_{R\Phi}(r,\phi)$
\begin{align*}
f_{R\Phi}(r,\phi) & = f_{XY}(x,y) |J| \text{ avec } |J| =
\left(
\begin{array}{ll}
\cos(\phi) & \-r\sin(\phi) \\
\sin(\phi) & r\cos(\phi)
\end{array}
\right) \\
f_{R\Phi}(r,\phi) & =
\left\{
\begin{array}{ll}
f_{XY}(r\cos(\phi),r\sin(\phi))|r| & \si r\in[0,R_{max}[ \text{ et } \phi \in ]-\pi,\pi] \\
0 & \sinon
\end{array}
\right. \\
\text{ Or, } f_{XY}(x,y) & =
\left\{
\begin{array}{ll}
\frac{1}{\pi R_{max}^2} & \si x^2 + y^2 \leq R_{max}^2 \\
0 & \text{ sinon}
\end{array}
\right. \\
\text{Donc }
f_{R\Phi}(r,\phi) & =
\left\{
\begin{array}{ll}
\frac{r}{\pi R_{max}^2} & \si r\in[0,R_{max}[ \text{ et } \phi \in ]-\pi,\pi] \\
0 & \text{ sinon}
\end{array}
\right. \\
\end{align*}
On peut écrire $ f_{R\Phi}(r,\phi) = g_R(r)g_{\Phi}(\phi) $, $ f_{R\Phi}(r,\phi)$ est séparable donc $R$ et $\Phi$ sont indépendantes.
\begin{multicols}{2}
Si $r\in[0,R_{max}[$,
\begin{align*}
f_R(r) & = \int_{\mathbb{R}} f_{R\Phi}(r,\phi) d\phi \\
& = \frac{r}{\pi R_{max}^2} \int_{-\pi}^{\pi} d\phi \\
& = \frac{2r}{R_{max}^2}
\end{align*}
Si $\phi\in]-\pi,\pi]$,
\begin{align*}
f_{\Phi}(\phi) & = \int_{\mathbb{R}} f_{R\Phi}(r,\phi) dr \\
& = \int_0^{R_{maxint}} \frac{r}{\pi R_{max}^2}dr \\
& = \frac{1}{2\pi}
\end{align*}
\end{multicols}
\item
\begin{align*}
m_R & = E[R] \\
& = \int_{\mathbb{R}}rf_R(r)dr \\
& = \int_0^{R_{max}} \frac{2r^2}{R_{max}} dr \\
& = \frac{2}{3}R_{max}
\end{align*}
\end{enumerate}
\end{document}
\documentclass[main.tex]{subfiles}
\begin{document}
\begin{enumerate}
\item À l'extérieur du carré, $f_{XY}(x,y) = 0$. À l'intérieur, le couple ($X,Y$) est uniformément réparti donc :
\[ f_{XY}(x,y) =
\left\{
\begin{array}{ll}
\frac{1}{a^2} & \si x\in[0,a[, y\in[0,a[ \\
0 & \sinon
\end{array}
\right.
\]
$f_{XY}(x,y) = g_X(x)g_Y(x)$, $f_{XY}$ est séparable donc $X$ et $Y$ sont indépendantes.
\item On considère la VA $Z = X + Y$. Comme $X\in[0,a[$ et $Y\in[0,a[$, $Z\in[0,2a[$
Calculons la fonction de répartition de la VA Z.
\begin{align*}
F_Z(z) & =
\left\{
\begin{array}{ll}
1 & \si z > 2a \\
? & \si z \in [0,2a] \\
0 & \si z < 0
\end{array}
\right.\\
\intertext{Si $z\in[0,2a[$, l'expression de la fonction de répartition n'est pas immédiate :}
F_Z(z) & = P[Z<z] \\
& = P[(X,Y) \in D_z] \\
& =
\left\{
\begin{array}{ll}
\frac{z^2/2}{a^2} & \si z\in[0,a] \\
\frac{a^2-\frac{(2a-z)^2}{2}}{a^2} & \si z\in[a,2a]
\end{array}
\right.
\end{align*}
\begin{center}
\begin{tikzpicture}[scale=0.5]
\draw [>=latex,->] (-1,0) -- (7,0) node[right]{$x$} ;
\draw [>=latex,->] (0,-1) -- (0,7) node[left]{$y$};
\draw (3,0) node[below]{$a$} -- (3,3) -- (0,3) node[left]{$a$};
\draw [dashed,blue] (-1,2) node[left]{$D_z, z\in[0,a[$} -- (2,-1);
\draw (0,6) node[left]{$2a$} -- (6,0) node[below]{$2a$};
\fill [color=blue] (0,1) -- (1,0) -- (0,0);
\draw [>=latex,->] (9,0) -- (17,0) node[right]{$x$} ;
\draw [>=latex,->] (10,-1) -- (10,7) node[left]{$y$};
\draw (13,0) node[below]{$a$} -- (13,3) -- (10,3) node[left]{$a$};
\draw [dashed,red] (9,5) node[left]{$D_z, z\in[a,2a[$} -- (15,-1);
\draw (10,6) node[left]{$2a$} -- (16,0) node[below]{$2a$};
\fill [color=red] (10,3) -- (11,3) -- (13,1) -- (13,0) -- (10,0);
\end{tikzpicture}
\end{center}
On peut donc résumer les résultats comme suit :
\begin{multicols}{2}
\[F_Z(z) =
\left\{
\begin{array}{ll}
0 & \si z < 0 \\
\frac{z^2/2}{a^2} & \si z\in[0,a] \\
\frac{a^2-\frac{(2a-z)^2}{2}}{a^2} & \si z\in[a,2a] \\
1 & \si z > 2a
\end{array}
\right.
\]
\[f_Z(z) =
\left\{
\begin{array}{ll}
0 & \si z < 0 \text{ ou } z > 2a \\
\frac{z}{a^2} & \si z\in[0,a] \\
\frac{2a-z}{a^2} & \si z\in[a,2a]
\end{array}
\right.
\]
\end{multicols}
\begin{center}
\begin{tikzpicture}[scale=1]
\draw [>=latex,<->] (5,0) node[right]{$z$} -- (0,0) -- (0,2) node[left]{$f_Z(z)$};
\draw (0,0) node[below]{$0$} -- (2,1) -- (4,0) node[below]{$2a$};
\draw [dashed] (0,1) node[left]{$1/a$} -- (2,1) -- (2,0) node[below]{$a$};
\end{tikzpicture}
\end{center}
\item On commence par expliciter $F_Z(z)$ en fonction de $f_{XY}(x,y)$ :
\begin{align*}
F_Z(z) & = P[Z<z] = \int_{-\infty}^z f_Z(w)dw \\
& = P[(X,Y) \in D_z] \\
& = \int \int_{D_z} f_{XY}(x,y)dxdy \\
F_Z(z) & = \int_ {-\infty}^{+\infty} ( \int_{-\infty}^{z-x} f_{XY}(x,y)dy)dx
\end{align*}
\begin{center}
\begin{tikzpicture}[scale=1]
\fill [color=red!10] (4.5,-2.5) -- (-2,4) -- (-2,-2.5);
\draw [>=latex,->] (-2,0) -- (5,0) node[right]{$x$} ;
\draw [>=latex,->] (0,-2) -- (0,3) node[left]{$y$};
\draw [dashed] (-1,3) -- (4,-2);
\draw [>=latex,->,red] (3,-2.5) -- (3,-1.5);
\draw [red] (3,-1.5) -- (3,-1) ;
\draw [dashed, red] (0,-1) node[left]{$y=z-x$} -- (3,-1) -- (3,0) node[above]{$x$};
\end{tikzpicture}
\end{center}
On en déduit $f_Z(z)$
\begin{align*}
f_Z(z) & = \frac{dF_Z(z)}{dz} = \frac{d}{dz} \int_ {-\infty}^{+\infty} ( \int_{-\infty}^{z-x} f_{XY}(x,y)dy)dx \\
& = \int_ {-\infty}^{+\infty} \frac{\partial}{\partial z} ( \int_{-\infty}^{z-x} f_{XY}(x,y)dy)dx \\
f_Z(z) & = \int_ {-\infty}^{+\infty} f_{XY}(x,z-x)dx
\end{align*}
\item Les VA $X$ et $Y$ indépendantes donc la ddp $f_{XY}(x,y)$ est séparable :
\begin{align*}
f_Z(z) & = \int_ {-\infty}^{+\infty} f_{XY}(x,z-x)dx \\
& = \int_{-\infty}^{+\infty} f_X(x)f_Y(z-x)dx \\
f_Z(z) & = (f_X * f_Y)(z)
\end{align*}
\item Par définition de la fonction caractéristique de la VA $Z$ :
\begin{align*}
\phi_Z(u) & = E[e^{juZ}] \\
& = \int_{\mathbb{R}} f_Z(z) e^{juz} dz \\
\intertext{Ainsi, on peut réécrire }
\phi_Z(u) & = TF[f_Z(z)]_{f=-\frac{u}{2\pi}} \\
& = E[e^{ju(X+Y)}] = E[e^{juX}e^{juY}] \\
\intertext{Et par indépendance de $X$ et $Y$,}
\phi_Z(u) & = \phi_X(u)\phi_Y(u) \\
f_Z(z) & = TF^{-1}[\phi_Z(u)](z) \\
& = (TF^{-1}[\phi_X(u)] * TF^{-1}[\phi_Y(u)])(z) \\
f_Z(z) & =(f_X * f_Y)(z)
\end{align*}
\item $X_1,...X_n$ indépendantes dans leur ensemble
\begin{eqnarray*}
Y_{12} = & X_1 + X_2 & \rightarrow f_{Y_{12}}(y) = (f_{X_1}*f_{X_2})(y) \\
Y_{123} = & X_1 + X_2 + X_3 = Y_{12} + X_3 & \rightarrow f_{Y_{123}}(y) = (f_{Y_{12}} * f_{X_3})(y) = (f_{X_1}*f_{X_2}*f_{X_3})(y)
\end{eqnarray*}
Par récurrence, on montre alors que pour $Y = X_1 + ... + X_n$,
\[f_Y(y) = (f_{X_1}* ... * f_{X_n})(y) \]
On montre que pour $X_n, n=1,...,N$ VA réelles et scalaires indépendantes et identiquement distribuées, centrées et d'écart-type $\sigma$,
\[Z_N = \frac{\sum_{n=1}^N X_n}{\sqrt{N}} \text{ tend vers une VA gaussienne quand N tend vers } +\infty \]
\item Par linéarité de l'espérance, et comme les variables $X_N$ sont centrées ($E[X_N] = 0$),
\[ E[Z_N] = E[\frac{\sum_{n=1}^N X_n}{\sqrt{N}}] = \frac{\sum_{n=1}^N E[X_n]}{\sqrt{N}} = 0 \]
De plus,
\begin{align*}
\sigma_Z^2 & = E[(Z_N - m_{Z_N})^2] = E[Z_N^2] \\
& = \frac{1}{N} E[(\sum_{n=1}^N X_n)^2] \\
& = \frac{1}{N} E[ \sum_{n=1}^N X_n^2 + \sum_{i\neq j} X_iX_j] \\
& = \frac{1}{N} (\sum_ {n=1}^N E[X_n^2] + \sum_{i\neq j} E[X_iX_j]) \\
& = \frac{1}{N} \sum_{n=1}^N \sigma^2 \\
& = \sigma^2
\end{align*}
\newpage
\item Deux personnes se donnent rendez-vous entre 18h et 19h. On associe aux deux instants d'arrivées deux VA X et Y indépendantes, de ddp uniforme sur l'intervalle [18,19].
On introduit la VA $\Delta = |Y-X|$. Calculons sa fonction de répartition.
\begin{align*}
F_{\Delta}(\delta) & = P[\Delta \leq \delta] \\
& = P[ |Y-X| \leq \delta ] \\
& = P[ Y-X \leq \delta \et X-Y \leq \delta ] \\
& = P[ Y \leq X + \delta \et Y \geq X - \delta ]
\end{align*}
\begin{figure}[h!]
\centering
\begin{tikzpicture}[scale=0.8]
\draw [>=latex,->] (-1,0) -- (7,0) node[right]{$x$} ;
\draw [>=latex,->] (0,-1) -- (0,7) node[left]{$y$};
\draw [dashed] (1,0) node[below]{$18$} -- (1,7);
\draw [dashed] (5,0) node[below]{$19$} -- (5,7);
\draw [dashed] (0,1) node[left]{$18$} -- (7,1);
\draw [dashed] (0,5) node[left]{$19$} -- (7,5) ;
\draw [blue] (0,1.5) -- (6,7.5) node[right]{$y=x+\delta$};
\draw [blue] (1.5,0) -- (7.5,6) node[right]{$y=x-\delta$};
\fill [color=blue!20] (1,1) -- (1,2.5) -- (3.5,5) -- (5,5) -- (5,3.5) -- (2.5,1) -- (1,1);
\draw [dashed] (2.5,-1) -- (2.5,1);
\draw [<->] (1,-1) -- (2.5,-1);
\draw (1.75,-1) node[below]{$\delta$};
\draw [<->] (5,-1) -- (2.5,-1);
\draw (3.75,-1) node[below]{$1-\delta$};
\end{tikzpicture}
\end{figure}
Ainsi, \[F_{\Delta}(\delta) =
\left\{
\begin{array}{ll}
0 & \si \delta < 0 \\
1 - (1-\delta)^2 & \si 0 \leq \delta < 1\\
1 & \si \delta \geq 1
\end{array}
\right.
\]
Donc \[f_{\Delta}(\delta) =
\left\{
\begin{array}{ll}
2 - 2 \delta & \si 0 \leq \delta < 1\\
0 & \sinon
\end{array}
\right.
\]
\end{enumerate}
\end{document}
\documentclass[main.tex]{subfiles}
\begin{document}
On considère une variable aléatoire scalaire et réelle $Y$ de densité de probabilité :
\[ f_Y(y) = \frac{1}{X}e^{-\frac{y}{X}}u(x) \]
$u(y)$ est la fonction échelon d'Heaviside et X un paramètre réel, inconnu, positif et supposé certain dans un premier temps.
\begin{enumerate}
\item Calcul de la valeur moyenne et de l'écart type de la VA $Y$
\begin{multicols}{2}
\begin{align*}
m_Y & = E[Y] = \int_{\mathbb{R}} y f_Y(y) dy \\
& = \int_0^{\infty} y \frac{1}{X} e^{-\frac{y}{x}} dy \\
& = [y(-e^{-\frac{y}{X}})]_0^{\infty} - \int_0^{\infty} (-e^{-\frac{y}{X}}) dy \\
& = \int_0^{\infty} (-e^{-\frac{y}{X}}) dy \\
& = [-Xe^{-\frac{y}{X}}]_0^{\infty} \\
& m_Y = X \\
\intertext{De plus,}
\sigma_Y^2 & = E[(Y-m_Y)^2] \\
& = E[Y^2] - m_Y^2 \\
E[Y^2] & = \int_0^{\infty} y^2\frac{1}{X}e^{-\frac{y}{X}}dy \\
& = [y^2(-e^{-\frac{y}{X}})]_0^{\infty} + 2X\int_0^{\infty}y\frac{1}{X}e^{-\frac{y}{X}}dy \\
& = 2Xm_Y = 2X^2\\
\sigma_Y^2 & = 2X^2 - X^2 = X^2 \\
\sigma_Y & = X
\end{align*}
\end{multicols}
\[ \boxed{m_Y = \sigma_Y = X} \]
\item On considère $N$ VA $Y_n, n=1..N$ indépendantes et identiquement distribuées.
On note $(y_1,...y_N)$ les réalisations de $(Y_1,...Y_N)$.\\
Grâce au résultat précédent $m_Y = X$, on peut estimer
\[ \hat{x} = \frac{\sum_{n=1}^Ny_n}{N} \]
\[ \hat{X} = \frac{\sum_{n=1}^NY_n}{N} \]
De plus, l'estimateur est non biaisé car
\[ E[\hat{X}] = \frac{\sum_{n=1}^N E[Y_n]}{X} = X \]
\item On souhaite exprimer la ddp conjointe des VA $Y_1,...Y_N$
\begin{align*}
f_\mathbf{Y}(\mathbf{y}) & = f_{Y_1, ... Y_N}(y_1,...y_N) \\
& = \prod_ {n=1}^N f_{Y_n}(y_n) \text{ par indépendance de } Y_1,...Y_N \\
& = \frac{1}{X^N} \exp(-\frac{\sum_ {n=1}^N Y_n}{X}) u(y_1)...u(y_N)
\end{align*}
\item On utilise l'estimateur du maximum de vraisemblance
\[ \hat{x}_{MV} = \arg \max_X f_\mathbf{Y}(\mathbf{y}) \]
$\hat{x}_{MV}$ est la valeur de $x$ qui rend les valeurs $y_1,...y_N$ les plus probables.
Condition nécessaire (non suffisante) :
\begin{align*}
\frac{d f_{\mathbf{Y}} (\mathbf{y}) }{dX} |_{X = \hat{x}_{MV}} = 0 & \Leftrightarrow ...\\
& \Leftrightarrow (-\frac{N}{X} + \frac{\sum_{n=1}^N y_n}{X^2}) f_{\mathbf{Y}}(\mathbf{y}) |_{X = \hat{x}_{MV}} = 0 \\
& \Rightarrow \frac{-N}{\hat{x}_{MV}} + \frac{\sum_{n=1}^N y_n}{\hat{x}_{MV}^2} = 0 \\
& \Rightarrow \hat{x}_{MV} = \frac{\sum_{n=1}^N y_n}{N} \\
& \Rightarrow \hat{X}_{MV} = \frac{\sum_{n=1}^N Y_n}{N}
\intertext{Vérifier que c'est un maximum :}
\frac{d^2 f_{\mathbf{Y}} (\mathbf{y}) }{dX^2} > \text{ ou }& < 0 ? \\
\frac{d f_{\mathbf{Y}} (\mathbf{y}) }{dX} > 0 & \text{ pour } x\rightarrow 0^+ \\
\end{align*}
Calculons la moyenne et l'écart type de $\hat{X}_{MV}$
\begin{align*}
E[\hat{X}_{MV}] & = ... = X \\
\sigma_{MV}^2 & = E[(\hat{X}_{MV} - X)^2] \\
& = E[(\frac{\sum_{n=1}^N Y_n}{N} - \frac{NX}{N})^2] \\
& = E[(\frac{\sum_{n=1}^N (Y_n-X)}{N})^2] \\
& = \frac{1}{N^2} (\sum_{n=1}^N E[(Y_n-X)^2] + \sum_{i \neq j} E[(Y_i-X)(Y_j-X)] \\