borne minimale du biais de variance (qui dépend de l'estimateur choisi)
\item Estimateur non biaisé: $E[\tilde{\theta}]=0$
\item Estimateur efficace: Borne de Cramer-Rao atteinte.
\item Estimateur consistent: $E[\tilde{\theta}]\xrightarrow[N_{obs}\to\infty]{}0$ et $V[\tilde{\theta}]\xrightarrow[N_{obs}\to\infty]{}0$
\item Estimateur robuste:\\ Les performances de l'estimateur ne sont pas trop dégradé si on s'écarte un peu des hypothèses sous laquelle l'estimateur a été établi.
\item Complexité de l'estimateur:\\
sur l'o btention des connaissances et mise en oeuvre de l'estimateur.
\end{itemize}
\end{defin}
\section{Théorie classique de l'estimation}
\subsection{Estimateur des moindres carrés}
\begin{defin}
Pour $Y$ une VA de moyenne $m_y =m_{Y|\theta}$ on défini le critère :
\item Cas $\theta$ scalaire $Y_i =\theta+B_i$ donc :
\[
C_{BB}=
\begin{bmatrix}
\sigma_1^2&&0\\
&\ddots&\\
0&&\sigma_m^2
\end{bmatrix}\text{ et }A =\vect{1\\\vdots\\1}
\]
\begin{itemize}
\item Cas MCO : $A^TA = m $
\[
\hat{\theta_{MC}}=\frac{\Sigma(y_i-m_{bi})}{m}\quad\text{ et }\quad\sigma_{\tilde{\theta}}^2=\frac{\Sigma\sigma_i^2}{m^2}
\]
\item cas MCP pour $M = C_{BB}^{-1}= diag(\sigma_1^{-2}, \dots, \sigma_m^{-2})$
\[
A^TC_{BB}A =\sum_{i=1}^m \frac{1}{\sigma_i^2}\quad\text{ donc }\quad\hat{\theta}_{MCP}=\frac{1}{\sum\frac{1}{\sigma_i^2}}\sum_{}^{}\frac{Y_i-mB_i}{\sigma_i^2}
\]
\begin{itemize}
\item$\hat{\theta_{MCP}}$ défini un barycentre
\item Pour $\sigma_i =\sigma$ on a $M=\sigma I \implies MCO =MCP $
on a $f_{\theta|Y=y}(\theta) f_{Y}(y)= f_{\theta Y}(\theta,y)$. Avec $f_\theta(\theta)= C^{ste}$ quand $f_{\theta Y}(\theta,y)$ à une valeur significative (ie $C_{\theta\theta}$ grand / $\sigma_\theta$ grand ) alors :