Teorema de Shannon-Hartley

En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de codificación para canales con ruido. Un caso muy frecuente es el de un canal de comunicación analógico continuo en el tiempo que presenta un ruido gaussiano.

El teorema establece la capacidad del canal de Shannon, una cota superior que establece la máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es, información) sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a la presencia de la interferencia del ruido.

En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación en la potencia de la señal y, además, que el proceso del ruido gaussiano es caracterizado por una potencia conocida o una densidad espectral de potencia.

La ley debe su nombre a Claude Shannon y Ralph Hartley.

Declaración del teorema

Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el teorema de Shannon-Hartley indica que la capacidad del canal C es:[1]

donde:

  • es el ancho de banda del canal en Hertz.
  • es la capacidad del canal (tasa de bits de información bit/s)
  • es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW, etc.)
  • es la potencia del ruido presente en el canal, (mW, W, etc.) que trata de enmascarar a la señal útil.
Other Languages