Harry Nyquist
Harry Nyquist
Harry Nyquist
Como ingeniero de los Laboratorios Bell, Nyquist realizó un trabajo importante sobre el ruido
térmico ("ruido de Johnson-Nyquist"), la estabilidad de los amplificadores de retroalimentación,
telegrafía, fax, televisión y otros problemas de comunicación importantes. Con Herbert E. Ives,
ayudó a desarrollar las primeras máquinas de fax de AT&T que se hicieron públicas en 1924. En
1932, publicó un artículo clásico sobre la estabilidad de los amplificadores de realimentación. El
criterio de estabilidad de Nyquist ahora se puede encontrar en todos los libros de texto sobre
teoría de control de retroalimentación.
Su primer trabajo teórico sobre la determinación de los requisitos de ancho de banda para
transmitir información sentó las bases de los avances posteriores de Claude Shannon, lo que llevó
al desarrollo de la teoría de la información. En particular, Nyquist determinó que la cantidad de
pulsos independientes que se podrían transmitir a través de un canal de telégrafo por unidad de
tiempo se limita al doble del ancho de banda del canal, y publicó sus resultados en los documentos
Ciertos factores que afectan la velocidad del telégrafo (1924) y Ciertos temas en Teoría de la
transmisión telegráfica (1928). Esta regla es esencialmente un doble de lo que ahora se conoce
como el teorema de muestreo de Nyquist-Shannon.
Fue un matemático, ingeniero eléctrico y criptógrafo estadounidense conocido como "el padre de
la teoría de la información". Shannon es conocido por haber fundado la teoría de la información
con un documento histórico, Una teoría matemática de la comunicación, que publicó en 1948.
También es conocido por fundar la teoría del diseño de circuitos digitales en 1937, cuando, como
estudiante de maestría de 21 años en el Instituto de Tecnología de Massachusetts (MIT), escribió
su tesis que demuestra que las aplicaciones eléctricas del álgebra booleana podrían construir
cualquier relación numérica lógica. Shannon contribuyó al campo del criptoanálisis para la defensa
nacional durante la Segunda Guerra Mundial, incluido su trabajo fundamental en el descifrado de
códigos y la seguridad de las telecomunicaciones.
La información mutua entre la entrada y la salida del canal la denotamos por I(X,Y) y es una
medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viceversa
Esta información mutua I(X,Y) depende de la distribución de probabilidad de la entrada p(xi). Para
una determinada distribución de entrada, I(X,Y) alcanza un máximo, este máximo es precisamente
lo que se conoce como la capacidad del canal
Definición para canales continuos
C=2Blog2M
Ampliando los estudios del físico Harry Nyquist, compañero en los Laboratorios Bell,
Claude Shannon demostró en 1949 que la capacidad teórica máxima de un canal de
comunicaciones limitado en banda con ruido AWGN (ruido blanco aditivo gausiano)
responde a la ecuación:
bits/s (bps)
La ecuación anterior muestra que la capacidad de un canal está limitada por su ancho de
banda (B) y por su relación señal/ruido (SNR). En términos de eficiencia espectral resulta:
bps/Hz
es decir, la eficiencia espectral máxima depende de la calidad del canal (de su nivel de
ruido).
19.934Mbps=2(2Mhz)log2M
M=31.636
M=32
C= 20Mbps
Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.
Alternative Proxies: