L'idée du codage prédictif est d'utiliser les corrélations (ressemblances) temporelles ou spatiales du signal à compresser.
L'idée du codage prédictif est d'utiliser les corrélations (ressemblances) temporelles ou spatiales du signal à compresser.
\section{Rappels sur la corrélation}
\paragraph{Rappels sur la corrélation}
On considère une source $X$ qui émet un signal constitué de $x_1,\dots,x_N$ considérés comme une réalisation d'une suite de variables aléatoires $X_1,\dots,X_N$ de moyenne nulle.
On considère une source $X$ qui émet un signal constitué de $x_1,\dots,x_N$ considérés comme une réalisation d'une suite de variables aléatoires $X_1,\dots,X_N$ de moyenne nulle.
...
@@ -17,17 +17,28 @@ Pour un signal stationnaire (dont les caractéristiques statistiques n'évoluent
...
@@ -17,17 +17,28 @@ Pour un signal stationnaire (dont les caractéristiques statistiques n'évoluent
@@ -109,9 +121,7 @@ $\hat{e}$ est l'énergie de la partie qui n'a pas pu être prédite de $x_1,\dot
...
@@ -109,9 +121,7 @@ $\hat{e}$ est l'énergie de la partie qui n'a pas pu être prédite de $x_1,\dot
Lorsque le signal est fortement corrélé, $\gamma_x(1)\simeq\gamma_x(0)$ et $\hat{a_1}\simeq1$.
Lorsque le signal est fortement corrélé, $\gamma_x(1)\simeq\gamma_x(0)$ et $\hat{a_1}\simeq1$.
Le résidu de prédiction a une variance plus faible. Si on le quantifie, il permettra de reconstituer le signal initial avec une distorsion plus faible.
Le résidu de prédiction a une variance plus faible. Si on le quantifie, il permettra de reconstituer le signal initial avec une distorsion plus faible.
\subsection{Prédiction à $p$ pas}
\newpage
\section{Prédiction à $p$ pas}
On cherche à prédire $\vec{X_n}$ à partir des échantillons précédents $X_{n-1},\dots,X_{n-p}$.
On cherche à prédire $\vec{X_n}$ à partir des échantillons précédents $X_{n-1},\dots,X_{n-p}$.
...
@@ -161,63 +171,64 @@ Pour cette valeur de $\hat{\ap}$, on a
...
@@ -161,63 +171,64 @@ Pour cette valeur de $\hat{\ap}$, on a
Ce prédicteur à $p$ pas est en général plus efficace que le prédicteur à 1 pas mais il est plus complexe.
Ce prédicteur à $p$ pas est en général plus efficace que le prédicteur à 1 pas mais il est plus complexe.
\newpage
\subsection{Mise en oeuvre du prédicteur}
\section{Mise en oeuvre du prédicteur}
On considère le codeur prédictif de structure suivante à l'émetteur :
%\img{0.4}{3/2/1}
et de structure suivante au décodeur de récepteur:
%\img{0.4}{3/2/2}
On met en œuvre un dispositif de prédiction exploitant les échantillons disponibles au récepteur, de manière à éviter l'accumulation des erreurs de quantification. Il n'y a pas d'accumulation d'erreur de prédiction car le prédicteur est le même à l'émetteur et au récepteur.\\
Pour le réglage du prédicteur, on distingue plusieurs méthodes :
\begin{enumerate}\setlength{\itemsep}{5mm}
\item On calcule $\hat{\gamma_x}$ sur tout le signal et on transmet $\vec{\hat{a}}_{opt}$.
Avantage :
\begin{itemize}
\item sa simplicité de mise ne œuvre
\end{itemize}
Inconvénients :
\begin{itemize}
\item il ne permet pas de tenir compte des non stationnarités
\item on règle le prédicteur à partir de $x_n$ et non de $\hat{x_n}$.
\end{itemize}
\item On découpe le signal en blocs et on recalcule le prédicteur sur chaque bloc.
Avantages :
Il faut que le récepteur disposent également des coefficients de prédiction optimal. Il peuvent :
\begin{itemize}
\begin{itemize}
\itemsa simplicité de mise ne œuvre
\itemêtre transmis mais cela coute du débit
\itempermet de s'adapter aux non-stationnarités
\itemEtre réestimés au récepteur mais cela rend le récepteur plus complexe.
\end{itemize}
\end{itemize}
Inconvénient :
Pour le réglage du prédicteur, on distingue plusieurs méthodes :
\begin{itemize}
\item débit nécessaire à la transmission des $\vec{\hat{a}}_{opt}$.
\end{itemize}
\item Mettre en place un prédicteur adaptatif. On travaille sur une fenêtre glissante contenant les N échantillons décalés : $\vec{\hat{X}}_n =(\hat{x}_{n-1}, ..., \hat{x}_{n-N})^T$.
On calcule $\vec{\hat{a}}_{opt}$ à partir de $\vec{\hat{X}}_n$ (au codeur et au décodeur). On applique $\vec{\hat{a}}_{opt}$ pour coder et décoder $x_n$ en $\hat{x}_n$. À l'itération suivante, on calcule $\vec{\hat{a}}_{opt}$ à partir de $\vec{\hat{X}}_{n+1}=(\hat{x}_{n}, ..., \hat{x}_{n-N+1})^T$.
Avantages :
\subsubsection{Fenêtres fixes}
On découpe le signal en blocs de $M$ échantillons et on recalcule le prédicteur sur chaque bloc.
Les échantillons de la $m$-ième fenêtres (pour$(m-1)M+1$ à $mM$):
\begin{itemize}
\item servent à extimer $\hat{\gamma}_x(k)$ et les coefficients de prédiction utilisé pour la $m+1$-ème fenêtre.
\item sont comprimés en utilisant le prédicteur optimal calculé das la fenêtre $m-1$.
\item Le recepteur fait les mêmes opérations.
\end{itemize}
\begin{rem}
Pour la première fenêtre on utilise le prédicteur à 1 pas.
Cette méthode ne fonctionne que pour des compressions sans pertes ou a débit élevé.
\end{rem}
Avantages :
\begin{itemize}
\item sa simplicité de mise ne œuvre
\item permet de s'adapter aux non-stationnarités
\end{itemize}
Inconvénient :
\begin{itemize}
\item débit nécessaire à la transmission des $\vec{\hat{a}}_{opt}$.
\end{itemize}
\subsubsection{Fenêtres glissantes}
On travaille sur une fenêtre glissante contenant les N échantillons décalés : $\vec{\hat{X}}_n =(\hat{x}_{n-1}, ..., \hat{x}_{n-N})^T$.
\begin{itemize}
\begin{itemize}
\item Il est très adaptatif.
\item On estime $\gamma_x(k)$ à partir des échantillons.
\item On ne transmet plus $\vec{\hat{a}}_{opt}$
\item On en déduit le prédicteur à $p$ pas.
\end{itemize}
\item On prédi $x_n$ et on compresse le résidu.
\item Au récepteur dans le cas c'un codage sans pertes on dispose également de $x_{n-N} ... x_{n-1}$. et on va pouvoir faire les mêmes opérations pour obtenir $\hat{x_n}$ auquel il rajoutera le résidu du codeur.
Inconvénient :
\begin{itemize}
\item et bien... c'est pas simple.
\end{itemize}
\end{itemize}
\begin{rem}
Pour les $N$ premiers échantillons on peux utiliser un prédicteur à 1 pas avec $a=0$ ou $a=0$