Escolar Documentos
Profissional Documentos
Cultura Documentos
C API TULO 5
LI MITES FUNDAMENTALES EN LOS SISTEMAS DE
COMUNICACIONES DIGITALES
Marcelino Lazaro
Departamento de Teora de la Senal y Comunicaciones
Universidad Carlos III de Madrid
1 / 50
Indice de contenidos
Modelado de fuentes de informacion
Modelos probabilsticos de canal
Medidas cuantitativas de informacion
Capacidad de canal
I Capacidad de un canal digital
I Capacidad de un canal gausiano
Lmites en un sistema digital de comunicaciones
de la informacion
Cuantificacion
I
Medidas cuantitativas de informacion
I
Analisis de un sistema de comunicaciones
F Cantidad de informacion generada
F L de informacion
mites fundamentales en la transmision
del captulo:
Organizacion
I
Modelos (probabilsticos) para las fuentes de informacion
I Modelos (probabilsticos) del sistema (de canal)
I Medidas cuantitativas de informacion
I Lmites fundamentales en los sistemas de comunicacion
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 3 / 50
Modelado de fuentes de informacion
Salida de la fuente: flujo de informacion
I x(t)
En tiempo continuo: senal
I x[n]
En tiempo discreto: senal
Modelo de la salida de la fuente (informacion)
I Proceso aleatorio, X(t), o X[n]
Modelo para fuentes en tiempo continuo (analogicas)
I Proceso aleatorio en tiempo continuo X(t)
F densidad espectral de potencia SX (j!)
Caracterzacion:
- Normalmente son procesos limitados en banda
- Refleja el comportamiento espectral medio de la fuente
Modelo para fuente en tiempo discreto
I Proceso aleatorio en tiempo discreto X[n]
I Tipos de alfabeto de la fuente
F
Continuo (e.g., senales muestreadas)
F Discreto (fuentes digitales)
- Modelo mas simple: fuente discreta sin memoria
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 4 / 50
Fuente discreta sin memoria
DMS : Discrete Memoryless Source
Proceso aleatorio en tiempo discreto X[n]
I Alfabeto discreto de MX valores
I Sin memoria: {X[n]} son variables aleatorias independientes
e identicamente distribuidas (i.i.d.)
del proceso (caracterizacion
Descripcion estadstica)
I Variable aleatoria X (al ser X[n] i.i.d., la estadstica es la
misma para todo n)
F Alfabeto AX = {x0 , x1 , , xMX 1 }
F Probabilidades pX (xi ) = P(X = xi ) para i = 0, 1, , MX 1
Ejemplo: fuente binaria simetrica
BSS: Binary Symmetric Source
I Alfabeto AX = {x0 , x1 }, tpicamente x0 = 0, x1 = 1
I Probabilidades pX (x0 ) = pX (x1 ) = 12
Modulador Digital ?
Canal
Bb [`]
B[n] q[n] r(t)
Decisor Demodulador
Demodulador Digital
Modelos definidos
I Canal gaussiano
F Representa el canal fsico: Y r(t) | X s(t)
Canal
b [`]
B
B[n] q[n] r(t)
Decisor Demodulador
Canal gaussiano
entrada / salida
Relacion
I Entrada: X s(t), para un instante dado t
I Salida: Y r(t), para el mismo instante dado t
Canal digital
entrada / salida
Relacion
I Entrada: X B[n], para un instante dado n
I Salida: Y B[n], para el mismo instante dado n
F Alfabeto de X e Y
- M elementos del alfabeto de B[n]: {xi = yi bi }M
i=0
1
xi bi , yj bj , MX = MY = M, i, j 2 {0, 1, M 1}
Probabilidades de transicion
I / diagrama de flechas
Valores ideales: matriz de transicion
2 3 x0 r 1
- r y0
x1 r r y1
1 0 0
6 7 1
-
6 0 1 0 7
P=I=6 .. .. .. 7
4 . . 1 . 5
0 0 1
xM 1 r 1
- r yM 1
I0 I1 I2 I3
- - - -
t t t t
a0 a1 a2 a3
q
3 2 1 0 +1 +2 +3
(matriz de canal)
Probabilidades de transicion
2 3
1 Q p1 Q p1 Q p3 Q p3 Q p5 Q p5
6 No /2
No /2 No /2
No /2 No /2 7 No /2
6 7
6 p1 7
6 Q 2Q p 1 1 Q p1 Q p3 Q 7p3
6 No /2 N
o /2 No /2 No /2
N o /2 7
P=6 7
6 p3 7
6 Q Q p1 Q p3 2Q p 1 1 Q p1 7
6 No /2 No /2 No /2 N
o /2 No /2 7
4 5
Q p5 Q p3 Q p5 Q p1 Q p3 1 Q p1
No /2 No /2 No /2 No /2 No /2 No /2
x0 rH 1
-" r y0
HH
H *" pY|X (y0 |x0 ) pY|X (y1 |x0 ) 1 " "
HH P=
pY|X (y0 |x1 ) pY|X (y1 |x1 )
=
" 1 "
j
HH"
r H r y1
HH
x1 -
1 "
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 18 / 50
M EDIDAS C UANTITATIVAS
DE
I NFORMACI ON
Autoinformacion
contenida en un suceso aislado
Medida de la informacion
de una variable aleatoria discreta (X = xi )
Requerimientos para esta medida
1 IX (xi ) depende de la probabilidad del suceso
IX (xi ) = f (pX (xi ))
2 decreciente de la probabilidad
Debe ser una funcion
pX (xi ) > pX (xj ) ! IX (xi ) < IX (xj )
3 continua de la probabilidad
Debe ser una funcion
F Sucesos con probabilidades similares tienen una informacion similar
4 Para sucesos independientes X = xi , Y = yj ( pX,Y (xi , yj ) = pX (xi ) pY (yj ))
IX,Y (xi , yj ) = IX (xi ) + IY (yj )
pX (xi ) = 1, pX (xj ) = 0 8j 6= i
2 H(X) log(MX )
La igualdad se produce unicamente
si los smbolos son
1
equiprobables, pX (xi ) = MX
F Maxima situacion de incertidumbre
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 21 / 50
0.7
... ...
0.6
.. .
. ...
0.5 ... ...
. ...
0.4
.... ...
0.3 ... ...
0.2 . . ...
.. ...
0.1 .. ...
0 ... ..
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Probabilidad p
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 22 / 50
Entropa conjunta
Medida de la informacion conjunta de dos (o mas) variables
aleatorias
M
X X 1M
XY 1
1
H(X, Y) = pX,Y (xi , yj ) log
i=0 j=0
pX,Y (xi , yj )
Variables aleatorias independientes
I Probabilidad conjunta: pX,Y (xi , yj ) = pX (xi ) pY (yj )
I Entropa conjunta
MX
X 1 MX
Y 1
1
H(X, Y) = pX (xi ) pY (yj ) log
i=0 j=0
pX (xi ) pY (yj )
MX
X 1 MX
Y 1 MXX 1 MX
Y 1
1 1
= pX (xi ) pY (yj ) log + pX (xi ) pY (yj ) log
i=0 j=0
pX (xi ) i=0 j=0
pY (yj )
MX
X 1 MXY 1
1 1
= pX (xi ) log + pY (yj ) log
i=0
pX (xi ) j=0
pY (yj )
=H(X) + H(Y)
Entropa condicional
Mide la incertidumbre en una variable aleatoria cuando se
conoce el valor de la otra
I Promedio de H(X|Y = yj ) para cada valor del alfabeto de Y
M
XY 1
MX
X 1M
XY 1
1
H(X, Y) = pX,Y (xi , yj ) log
pX,Y (xi , yj )
i=0 j=0
MX
X 1M
XY 1
1
= pX,Y (xi , yj ) log
pX (xi ) pY|X (yj |xi )
i=0 j=0
MX
X 1M
XY 1 MX
X 1M
XY 1
1 1
= pX,Y (xi , yj ) log + pX,Y (xi , yj ) log
pX (xi ) pY|X (yj |xi )
i=0 j=0 i=0 j=0
MX
X 1 MX
X 1M
X Y 1
1 1
= pX (xi ) log + pX,Y (xi , yj ) log
pX (xi ) pY|X (yj |xi )
i=0 i=0 j=0
=H(X) + H(Y|X)
mutua
Informacion
que aporta una variable aleatoria X
Mide la informacion
sobre el conocimiento de otra variable aleatoria Y
MX
X 1M
XY 1
pX,Y (xi , yj )
I(X, Y) = pX,Y (xi , yj ) log
pX (xi ) pY (yj )
i=0 j=0
Propiedades
1 I(X, Y) = I(Y, X) 0
La igualdad se cumple en el caso de que X e Y sean independientes
2 I(X, Y) mn(H(X), H(Y))
3 mutua condicional
Se puede definir informacion
MX
Z 1
I(X, Y|Z) = pZ (zi ) I(X, Y|Z = zi )
i=0
MX
X 1 MX
Y 1
pX,Y (xi , yj )
I(X, Y) = pX,Y (xi , yj ) log
i=0 j=0
pX (xi ) pY (yj )
MX
X 1 MX
Y 1
pX|Y (xi , yj )
= pX,Y (xi , yj ) log
i=0 j=0
pX (xi )
MX
X 1 MX
Y 1 MXX 1 MX
Y 1
1
= pX,Y (xi , yj ) log + pX,Y (xi , yj ) log(pX|Y (xi , yj ))
i=0 j=0
pX (xi ) i=0 j=0
MX
X 1 MX
X 1 MX
Y 1
1 1
= pX (xi ) log pX,Y (xi , yj ) log = H(X) H(X|Y)
i=0
pX (xi ) i=0 j=0
pX|Y (xi , yj )
en un diagrama de Venn
Representacion
I mutua representadas por areas
Entropas e informacion
H(X, Y)
............................................. .....................................................................
............ ......... ................ ............
..
............. ........................... ..........
... .. ..
....... ......
........
...... .. .
. ... ....
.......
......
.
.. .... ....
..... .... .... ....
.. ... ... ....
.. .. .. ...
... ...
.. .. ...
. . ...
... ... .. ...
..
.. .. .. ..
.. .. ..
..
..
..
..
...
H(X|Y) ..
I(X, Y)
...
.
... ...
.
.
.
.
H(Y|X) .
.
.
..
.
... ... .. ..
... ... .. ..
... ....
. . ... ......
.... ..... . ...
.... ....... ... ....
.... ....... ....... ......
...... ...........
. ..
............
....... . .. ..
.......... ....... ....................... ..........
................. .......... .......................
...................................................
.............
................................
H(X) H(Y)
H(X, Y)
H(X): +
H(Y): +
H(X|Y) I(X, Y) H(Y|X) H(X, Y): + +
H(X|Y):
H(Y|X):
I(X, Y):
H(X) H(Y)
Entropa diferencial
de las definiciones de entropa a variables aleatorias
Extension
continuas Z 1
1
h(X) = fX (x) log dx
1 fX (x)
de entropa diferencial conjunta
Definicion
Z 1Z 1
1
h(X, Y) = fX,Y (x, y) log dx dy
1 1 fX,Y (x, y)
LI MITES F UNDAMENTALES
EN
S ISTEMAS DE C OMUNICACIONES
sXX s
1
a 00 -
2
a 00
z
X
XXX
XXX >
sXX Xs
1 1
2 1 X
XX2
b 01 -
2
b 01
XXX
z
X
X
1XXX
sX Xs
1
2
-
2 XX
c 11 XX
X
z c 11
XXXX
s Xs
1
2 1 XXX
d 10 -
2 X d 10
por uso del canal
4 smbolos 2 bits de informacion
El canal no es fiable - Se comenten errores
I Probabilidad de error de smbolo es Pe = 1/2
I Con asignacion binaria de Gray BER = 1/4
I Los errores se producen porque dada una salida no es
posible identificar de forma unvoca el smbolo transmitido
F Por ejemplo: si se observa a, esto puede ser porque
- Se ha transmitido a (sin error)
- Se ha transmitido d (con error)
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 33 / 50
Ejemplo: canal binario simetrico (BER = ") con n = 3
000 ..s..........................................................................................................................................................................................................................................s 000
s s 001
.............................. .................. . .
..................... ......... .................. ............................
............... ...... ......... ............................................................. ........................................................
s s 0
............... ..... ..................... .......................... .............
1 -" 001
............................. ......... .... ... . . . . .
.. . .. ...... . . . ....
....................................................................................................................................................................................................................................................................
........................................................ ................ .............. ...... ...........................................
.. .
.
0
s s 010
HH .............................. ... ..................................... .......................................... ....................................
................................................... ...... ........................................... ....... ...............................................
........................... ......................................... ........................................ ........................
...................................... ...................... ..................... .........................................
H *" 010 ............................................................................................................................................................................................................................................................................................................
HH ................................................. .................... .................... .................................................
s s 011
......................... ...... ............................ ............. ........... .................................... .......................
...................................... ........................................................... ....................................
H ...................................... ..................................................... ............. ........... ...........
................................................................................................................... ..........................................................................................................................
HH " . . . . .
. ..
............................................................................................................................................................................................................................................................................................................................
.
j
H 011 ................................................ .......................... ......................... ......... .....................................
s s 100
H
........................ .... ......................................... ................ .................................... .......................
s Hs
.......................................... ............................................................... ........................................
HH . . . .. .... . . ... . ... . . . .. .. . . .
............................ ....................................... .......................................... ...........................
.................................................................................... ................................................. ................................................ ...............................................................................................
. . .
- . .
1 1 100 . .
..............................................................................................................................................................................................................................................
............................................... .......................... ...................... .......... ..................................
s s 101
.................... .... ....................... ............ ............. .................................. ....................
..................................... ........................................................... .........................................
1 " ................. ................ ................................................................................................ .................. .................
............................................................................................. ....................................... ..........................................................................................................................................
101 .................................................................................................................................................................................................
.................................. ............ ..................... ...................... ............ .... ............................
s s 110
.............. .................. ........ ....... ...... ................................. ...........
.......................... ......................................... . ............................................ .............................
. . ..............................................................................................................................................................................................................................................
................................................ ............. . ..
............. ..... ................. ......................
. .
............................................................................................................................................................................................................................................................................
110 ..... . .. ..
.............................................................................
.. .......... ..... .......................
s s 111
............................. ................
.. . .. .. .. ................................ ........... .........................
...................... ........... ........ ......................... ............................................
.................................. ..................... ..........................................
........................................................... ... .. ....
. ............................................................................................................................................
111
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 35 / 50
(II)
Codificacion
probables (para " razonablemente bajo)
Situaciones mas
I 0 errores o 1 error sobre 3 bits - 4 ramas/smbolo (en negro)
Situaciones menos probables
I 2 errores o 3 errores sobre 3 bits - 4 ramas/smbolo (en verde)
Subconjunto de 2k (k < n) elementos con bajo solapamiento
000 ..q.....................................................................................................................................................................................................................................q 000 q q q q
I Ejemplo: 000 y 111 (k = 1)
q
.....................................................................................................................................................................................q q q q q
000 ..............................................................................................
.........................................
.............................. ................. ... 000 000 .............................................................................................
.................................
...... ........... ....................
000
....................................... ....................................... ...
.q.............................................................................................................................................................................................................q q q q q
......................... ........... .... ...... ........... .................
.............. ....... ......... ........................... ... .......
001 ........................................................................................................................................................... 001
. 001 ............... ...... .......... .. ...
......... ..... ....... .......... ... 001 001 ......
...... ..................
...... ..........
001
............................................ ............................................ ......... ..... ....... .............
q............................................................................................................................................................................................................................q q q q q
...... .... ..... ...... ... ... ......... ...... ..........
...
010 ................................................................................................................................................................ 010
. 010 ... ... ... ..... ........ .. ...
... ... ... ...... ... ........ ...
... ... ... ..... .. ........
010 010 ......
......
......
010
............... ....................... ..........................................
.q................................................................................................................................................................................................................................q q q q q
... .... ...... ........ ... ...... ......
... ... ........ ....... .....
011 ............................................................................................................................................................................................ 011
.. 011 ... ..... .... ....... ......
... . . .. . ... .. 011 011 ...... ......
............ 011
............... ...................... ...................................... ..... ..... ...... ......... .....
.q......................................................................................................................................................................................................................q q q q q
....................... ............... ........... ......... .........
100 ................................................................................................................................................................................ 100
. 100 ..
.................................. ............... 100 100 . .
....... 100
................... .................. .................... ................... .. .. .. .... ... ...... .. ......
.q............................................................................................................................................................................................q q q q q
...... ... ...... ......... ... .... ......
101 ........................................................................................................................................................... 101
. 101 ........................ ............. ...... .................... 101 101 . ...... ........ 101
. .
. . . .. .. .... . ...... .........
.......................................... ....................... ................... ............... ........ ........... ..... ...... ...... ..........
..q............................................................................................................q q q q q
. ....
............... ....... .......... .. . . ...
...... ..........
... .....
110 .................................................................................................................................. 110
. 110 . ...................................................... ................................... 110 110 ...... ........... ....................
.............. 110
.
........................................ ......................................
. . ............................ .................. ...
. ........................................................
......................................................................................................................... . . .....
................................................................................
111 111 111 111 111 111
Despreciando los enlaces de baja probabilidad no hay solapamiento
I Probabilidad de error: Pe = 3 "2 (1 ") + "3
F Ejemplo A: " = 0,1 ! Pe = 0,028 Ejemplo B: " = 0,01 ! Pe = 0,000298
I transmitida: 1 bit (k) de informacion
Informacion por cada 3 (n) usos del canal
F Tasa R = k/n = 1/3
Ejemplo de diccionario del codigo
para dos codigos binarios
Conjunto de ndices Palabras codigo Conjunto de ndices
Palabras codigo
0 000 00 00000
1 111 01 10101
10 01110
11 11011
Codigo de ejemplo C(1, 3)
Codigo de ejemplo C(2, 5)
Codificador Decodific.
DMC DMC
B[l]
- ..... ..... X[i]
- Y[i]
- .....
-
..... B[l]
DMC
12 k 12 n 12 n 12 k
de canal
Teorema de codificacion
C = max I(X, Y)
pX (xi )
Codificador Decodific.
DMC DMC
B[l]
- ..... ..... X[i]
- Y[i]
- .....
-
..... B[l]
DMC
12 k 12 n 12 n 12 k
k
Tasa del codigo: R=
n
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 38 / 50
Capacidad de canal
Maxima que se puede transmitir de
cantidad de informacion
de un canal de comunicaciones en un
forma fiable a traves
sistema digital de comunicaciones
I se produce una distorsion
En la transmision
F
Potencial perdida
de informacion
I fiable - Definicion
Transmision
F Transmision sin perdida
potencial de informacion
F
En la practica: capacidad para reducir la probabilidad de
error tanto como sea necesario
I Capacidad de canal
F Lmite en el numero
de smbolos con solapamiento
arbitrariamente bajo cuando el numero
de usos del canal
tiende a infinito
I al concepto de codificacion
Introduccion de canal
F fiable
Mecanismo que permite una transmision
los siguientes casos:
Se estudiaran
I Canal digital
F El canal digital binario se considera un caso particular
I Canal gaussiano
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 39 / 50
de la informacion
Capacidad de canal a traves mutua
mutua entre la entrada y la salida de un DMC
Informacion
I(X, Y) = H(X) H(X|Y)
Analisis para un BSC con BER = " en dos casos extremos
I
Caso optimo: "=0
F H(X|Y) = 0 ! I(X, Y) = H(X)
I Peor caso: " = 1/2
F H(X|Y) = H(X) ! I(X, Y) = 0 ! X e Y independientes
Se pueden extraer las siguientes conclusiones
1 La informacion mutua entre entrada y salida del canal se puede ver como la
cantidad de informacion que pasa de la entrada a la salida cuando el canal es
utilizado. En el caso en que la probabilidad de error es nula, pasa toda la
informacion (I(X, Y) = H(X)), y en el caso en que la entrada y la salida son
estadsticamente independientes se pierde toda la informacion (I(X, Y) = 0).
2 H(X|Y) puede interpretarse como la informacion que se pierde en el canal, y
que atraviesa el canal, I(X, Y), es igual a la informacion
as la informacion que
hay a la entrada, H(X), menos la que se pierde, H(X|Y). Cuando la probabilidad de
error es nula la perdida es nula, y cuando la entrada y la salida son
estadsticamente independientes, la perdida es total, es decir, igual a la
informacion a la entrada del canal.
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 40 / 50
Capacidad de canal para un canal digital
formal para un DMC
Definicion
C = max I(X, Y)
pX (xi )
Ejemplo - Canal binario simetrico
Modelo para canal digital binario con BER = "
Calculo mutua entrada / salida
de la informacion
1
X
I(X, Y) =H(Y) H(Y|X) = H(Y) pX (xi ) H(Y|X = xi )
i=0
2 3
1
X 1
X
=H(Y) pX (xi ) 4 pY|X (yj |xi ) log pY|X (yj |xi )5
i=0 j=0
1
X
=H(Y) pX (xi ) [ " log(") (1 ") log(1 ")]
i=0
1
X
=H(Y) pX (xi ) Hb (") = H(Y) Hb (")
i=0
Calculo de la capacidad de canal
I Se busca el maximo mutua
de la informacion
F
Para este canal, se obtiene cuando H(Y) es maxima
F
H(Y) es maxima cuando los smbolos de salida son equiprobables
F Para este canal, ocurre cuando los smbolos de entrada son equiprobables
C=1 Hb (")
1
I Probabilidades de X que maximizan I(X, Y): pX (x0 ) = pX (x1 ) = 2
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 42 / 50
con restricciones
Capacidad: problema de maximizacion
El problema del calculo de la capacidad de un canal digital se
puede plantear como un problema de maximizacion de una
con restricciones
funcion
I a maximizar
Funcion
F mutua entre entrada y salida del canal I(X, Y)
Informacion
I Variables sobre las que se maximiza
F Probabilidades de los smbolos de entrada {pX (xi )}M X
i=0
1
I Restricciones
F Valor de cada probabilidad
en un canal digital
Lmites para la transmision
Un canal digital tiene una capacidad C bits/uso
I
Si se utilizan codigos de canal, los codigos
practicos
(aquellos que permiten reducir la probabilidad de error de
tener una tasa de codificacion
forma arbitraria) deberan
menor que dicha capacidad
R<C
practica
Limitacion
en terminos
de velocidad de transmision
para proteccion
efectiva cuando se utiliza codificacion
frente a errores
I
Sistema disenado para transmitir a Rb bits/s
Refectiva
b
= R Rb bits de infomacion/s
F efectiva
Lmite en la tasa de transmision
Refectiva
b
< C Rb bits de infomacion/s
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 44 / 50
Capacidad de canal para el canal gausiano
entrada salida en un canal gausiano
Modelo de relacion
Y =X+Z
Z es una variable aleatoria gausiana, de media nula y varianza PZ
Capacidad de canal en las siguientes condiciones:
I Potencia transmitida: PX watt.
I Ancho de banda: B Hz
F Potencia de ruido: PZ = N0 B watt.
Calculo de la informacion
a traves mutua
C= max I(X, Y)
fX (x) | E[X 2 ]PX
Ancho de banda: B Hz
I Potencia de ruido: PZ = N0 B watt.
Hiper-esferas n-dimensionales
p
de radio nPZ Capacidad obtenida a partir del nume-
x ro de secuencias sin solapamiento
y=x+z
n/2
PX
Mss = 1+
PZ
log Mss 1 PX
C= = log 1 +
n 2 PZ
Hiper-esfera n-dimensional de 1 PX
p C = log 1 + bits/uso
radio n(PX + PZ ) 2 N0 B
PX
C = B log 1 + N0 B bits/s
de la potencia transmitida PX
Capacidad de canal en funcion
lm C = 1
PX !1
en un canal gausiano
Lmites para la transmision
Algunas definiciones
I binaria: Rb bits/s
Tasa de transmision
I Relacion a ruido: SNR = PPXZ = NP0XB
senal
I Tasa binaria (eficiencia) espectral: = RBb bits/s/Hz
I Energa media por bit: Eb = PRXb
I Eb /N0 : NEb0 = RPb NX 0 = NP0XB RBb = SNR
Relacion
Sistema de comunicaciones practico
Rb < C ! Rb < B log (1 + SNR) bits/s
1
5 10 15 20 Eb
(dB)
N0
1
10
1,592
c Marcelino Lazaro, 2014
Teora de la Comunicacion
Teora de la Informacion 49 / 50
senal
Relacion a ruido normalizada
Cota inferior para SNR
SNR > 2 1
de SNR normalizada
Definicion
SNR
SNRnorm =
2 1
Cota inferior sobre SNRnorm