Théorie des codes

En théorie de l'information, la théorie des codes traite des codes et de leurs propriétés et de leurs aptitudes à servir sur différents canaux de communication. On distingue deux modèles de communication : avec et sans bruit. Sans bruit, le codage de source suffit à la communication. Avec bruit, la communication est possible avec les codes correcteurs.

Histoire

En définissant l'information de façon mathématique, l'étape fondatrice de la théorie des codes a été franchie par Claude Shannon. D'autres définitions existent, mais l'entropie de Shannon a été la plus fructueuse. Ainsi, on est apte à répondre aux deux questions fondamentales de la théorie de l'information : quelles sont les ressources nécessaires à la transmission de l'information, et quelle est la quantité d'informations que l'on peut transmettre de façon fiable.

C'est de cette dernière question du codage de canal que traite la théorie des codes. En répondant aux deux questions de base de la théorie de l'information, Shannon n'a justement pas fourni un ensemble très puissant de codes correcteurs. En particulier, il n'a pas déterminé d'exemple de code qui atteint la limite prévue par son théorème du codage de canal.

C'est ce vide que comble la théorie des codes. Il existe de nos jours une multitude de méthodes visant à produire de bons codes correcteurs.

Dans d'autres langues
dansk: Kodeteori
English: Coding theory
日本語: 符号理論
Nederlands: Coderingstheorie
norsk nynorsk: Kodeteori
português: Teoria de códigos
Simple English: Coding theory
svenska: Kodningsteori
українська: Теорія кодування
Tiếng Việt: Lý thuyết mã hóa
中文: 编码理论