Résumé
On envisage l'évolution du codage d'un point de vue délibérément subjectif . Shannon a montré en 1948 que l e;
bruit limite le débit d'information possible à travers un canal et non la qualité de la transmission, à l'aide d'u n;
« codage aléatoire » pratiquement irréalisable, l'amélioration de la qualité impliquant une complexité rapidemen t;
croissante, surtout prohibitive au décodage . Transmettre « sans » erreur étant une fin possible, les moyens de;
l'atteindre devenaient objet de recherche . Il a fallu pour avancer se donner certaines structures de code,;
notamment la linéarité . A partir de cette option commune, les études sur les codes cycliques ont permis de le s;
doter de bonnes propriétés de distance ; sur les codes convolutifs, ont abouti à des algorithmes de décodage;
généraux, en continuité avec la théorie de la détection . Apportant des solutions au problème le plus difficile e t;
acceptant des « décisions souples » plus économiques en rapport signal à bruit (RSB), ces codes et algorithme s;
ont trouvé des applications aux communications spatiales dès leur début (le bruit y est additif, gaussien et blanc) .;
Si les études sur les codes cycliques et convolutifs ont longtemps évolué séparément, leur rapprochement a permis;
de transposer certaines résultats d'un domaine à l'autre . Par exemple, l'algorithme de Viterbi peut être adapt é;
aux codes linéaires en blocs . L'emploi du codage est en principe plus intéressant sur d'autres voies que le cana l;
gaussien, notamment la plupart des voies radioélectriques, mais le groupement des erreurs y pose de redoutable s;
problèmes. Pour une protection efficace, il faut alors répartir l'information sur un intervalle de temps long à;
l'échelle des variations du RSB . Le décodeur opère sur des symboles affectés d'un RSB moins variable, par effet;
de moyenne . La probabilité d'erreur étant fonction convexe du RSB, sa moyenne diminue.