Codificación de caracteres

La codificación de caracteres es el método que permite convertir un carácter de un lenguaje natural (como el de un alfabeto o silabario) en un símbolo de otro sistema de representación, como un número o una secuencia de pulsos eléctricos en un sistema electrónico, aplicando normas o reglas de codificación


Definen la forma en la que se codifica un caracter dado en un símbolo en otro sistema de representación. Ejemplos de esto son el código Morse, la norma ASCII o la UTF-8, entre otros.

ASCII

Por estar íntimamente ligado al octeto (y por consiguiente a los enteros que van del 0 al 127), el problema que presenta es que no puede codificar más que 128 símbolos diferentes (128 es el número total de diferentes configuraciones que se pueden conseguir con 7 dígitos binarios o digitales (0000000, 0000001,..., 1111111), usando el octavo dígito de cada octeto ( bit o dígito de paridad) para detectar algún error de transmisión). Un cupo de 128 es suficiente para incluir mayúsculas y minúsculas del abecedario inglés, además de cifras, puntuación, y algunos "caracteres de control" (por ejemplo, uno que instruye a una impresora que pase a la hoja siguiente), pero el ASCII no incluye ni los caracteres acentuados ni el comienzo de interrogación que se usa en castellano, ni tantos otros símbolos (matemáticos, letras griegas,...) que son necesarios en muchos contextos.

Other Languages
беларуская: Набор сімвалаў
bosanski: Kodiranje
dansk: Tegnsæt
Esperanto: Kodoprezento
suomi: Merkistö
हिन्दी: अक्षर कोडन
Bahasa Indonesia: Pengodean karakter
日本語: 文字コード
한국어: 문자 인코딩
Nederlands: Tekencodering
norsk nynorsk: Teiknsett
norsk: Tegnsett
polski: Kod znaku
svenska: Teckenkodning
中文: 字符编码
Bân-lâm-gú: Pian-bé