Commit 90e13616 authored by Pierre-antoine Comby's avatar Pierre-antoine Comby

455 cours du 21/01

parent d756f326
...@@ -310,9 +310,10 @@ Une condition nécessaire d'optimisation est que: ...@@ -310,9 +310,10 @@ Une condition nécessaire d'optimisation est que:
\bigbreak \bigbreak
\bigbreak \bigbreak
Pour ce choix de longueurs de mots de code, on obtient: Pour ce choix de longueurs de mots de code, on obtient:
\begin{prop}
Le meilleur code préfixe a une longueur moyenne au minimum égale à l'entropie de la source.
\[ \boxed{ \overline{l} = \sum_{j=1}^J p_j(-log_2p_j) = H(x)}\] \[ \boxed{ \overline{l} = \sum_{j=1}^J p_j(-log_2p_j) = H(x)}\]
Le meilleur code préfixe a une longueur moyenne au minimum égale à l'entropie de la source.\\ \end{prop}
\begin{rem} \begin{rem}
L'entropie (avec une source sans mémoire) donne une borne supérieure de la quantité d'information réelle contenue dans un message. Dans le cas d'un texte, l'entropie au sens d'une source de Makorv diminue quand on augmente l'ordre, jusqu'à se stabiliser au bout d'un certain ordre. L'entropie (avec une source sans mémoire) donne une borne supérieure de la quantité d'information réelle contenue dans un message. Dans le cas d'un texte, l'entropie au sens d'une source de Makorv diminue quand on augmente l'ordre, jusqu'à se stabiliser au bout d'un certain ordre.
\end{rem} \end{rem}
...@@ -440,13 +441,10 @@ Cette procédure est efficace pour $N\to +\infty$, avec l'$\infty$ petit. Par ex ...@@ -440,13 +441,10 @@ Cette procédure est efficace pour $N\to +\infty$, avec l'$\infty$ petit. Par ex
\paragraph{Décodage} \paragraph{Décodage}
On part de $c(x_{1:N})$, on réalise le découpage de $[0,1[$ suivant les probabilités d'apparition de 0 et de 1. À chaque étape, l'intervalle auquel appartient $c(x_{1:N})$ permet de déterminer le bit codé.\\ On part de $c(x_{1:N})$, on réalise le découpage de $[0,1[$ suivant les probabilités d'apparition de 0 et de 1. À chaque étape, l'intervalle auquel appartient $c(x_{1:N})$ permet de déterminer le bit codé.\\
\paragraph{Réalisation pratique} \subsubsection{Réalisation pratique}
En pratique, le codage utilise l'intervalle $[0,2^p[$$p$ désigne la précision du codeur arithmétique. (pour le codage H264/AVC, on a $p=9$). En pratique, le codage utilise l'intervalle $[0,2^p[$$p$ désigne la précision du codeur arithmétique. (pour le codage H264/AVC, on a $p=9$).
On réalise des homothéties de centre 0, de rapport $2^p$ ou $2^{p-1}$ avec ou sans émission de bits. On réalise des homothéties de centre 0, de rapport $2^p$ ou $2^{p-1}$ avec ou sans émission de bits.
On estime les probabilités d'apparition des bits en parallèle du codage au codeur et au décodeur, et on modifie la façon de découper les intervalles en fonction de ces probabilités d'apparition estimées. On estime les probabilités d'apparition des bits en parallèle du codage au codeur et au décodeur, et on modifie la façon de découper les intervalles en fonction de ces probabilités d'apparition estimées.
On obtient alors un CABAC : Context Adaptative Binary Arithmetic Coder. On obtient alors un CABAC : Context Adaptative Binary Arithmetic Coder.
\begin{rem} \begin{rem}
...@@ -529,3 +527,8 @@ En pratique : ...@@ -529,3 +527,8 @@ En pratique :
\end{itemize} \end{itemize}
\end{document} \end{document}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "main"
%%% End:
...@@ -172,3 +172,8 @@ Inconvénient : ...@@ -172,3 +172,8 @@ Inconvénient :
\end{document} \end{document}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "main"
%%% End:
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment