Você está na página 1de 96

DEPARTAMENTO DE ELÉCTRICA Y ELECTRÓNICA

Carrera de Ingenierı́a en Electrónica y Telecomunicaciones

COMUNICACIÓN Y CODIFICACIÓN DIGITAL

TEMA: Cuaderno

Integrantes del grupo:

Aguirre Silva Hernán Guillermo


Vasconez Gomez Francisco Sebastian

Profesor:
Ing. Paul Bernal Oñate MsC.

Curso académico 201710


Capı́tulo 1

Primer Parcial

Modulación

Definiciones

k : Bits de información

M = 2k

Sm(t), 1 ≤ m 6= M : Conjunto(set)

Ts = Tiempo de transmisión
1
Rs = Ts Cantidad de bits por segundo
Ts Ts
Tb = tiempo de bit k = los2 M

R: Rata de bit : kRs = (log2 M )Rs


PM
Eavg = m=1 Pm Em : Energı́a Promedio
1
Pm es equiprobable = Pm = M: Probabilidad de ocurrecia de cada señal
PM HE
Eavg = m=1 Em = M : Esto para PSK
Eavg
Ebavg =
K
Eavg
Pavg = Tb : Potencia Promedio

Modulacion ASK

PAM

Sm (t) = Amp(t), 1 ≤ m ≤ M → BandaBase

1
CAPÍTULO 1. PRIMER PARCIAL

Am = 2m − 1 − M, m − 01, 2, 3..., M

2m − 1 → ]Impar → Am es impar

Sm = ±1, ±3, ±5, ... ± M − 1

Z +∞ Z +∞
Em = A2m p2 (t)dt = A2m p2 (t)dt = A2m Ep
−∞ −∞
Donde Ep es energı́a de pulso

M
Ep X 2 Ep 2
Eavg = Am = (1 + 32 + ... + (M − 1)2 )
M M
m=1

2Ep M (M 2 − 1) (M 2 − 1)Ep
= · =
M 6 3

(M 2 − 1)Ep
Eavg = → Energia Promedio en PAM
3
(M 2 − 1)Ep
Ebavg = → Energı́a de bit promedio
3log2 M

Sm (t) = Re[Sm (t)ej2πfc t ] → Banda Pasante

Z ∞
Em = a2m g 2 (t)cos2 (2πfc t)dt
−∞
(M 2 − 1)Eg
=
6

(M 2 − 1)Eg
Ebavg =
6log2 M

Constelación PAM

2
CAPÍTULO 1. PRIMER PARCIAL

Ortoganalidad de Señales Base

S2 (t) 3
φ2 (t) = → √
||S2 (t)|| 3 2
1/2
2 √
Z
2
||S2 (t)|| = (3) d(t) =3 2
0

g3 (t) = S3 (t) − α32 φ2 (t)

Z ∞
α32 = S3 (t)φ2 (t)dt = 0 → g3 (t) = S3 (t)
−∞

g3 (t) 3
φ3 (t) = = √
||g3 (t)|| 3 2
1/2
4 √
Z
||g3 (t)|| = (3)2 d(t) =3 2
2

3
CAPÍTULO 1. PRIMER PARCIAL


S2 (t) = 3 2φ2 (t)

S3 (t) = 3 2φ3 (t)
√ √
S1 (t) = S1 (t) + S3 (t) = 3 2φ2 (t) + 3 2φ3 (t)

p
Sm (t) = Am Ep φ(t) → Banda Base
r
Eg
Sm (t) = Am φ(t) → Banda Pasante
2

Donde Am = ±1, ±3, ±5, ..., ±M − 1


Banda Base

p(t)
φ(t) = p
Ep
Banda Pasante
s
2
φ(t) = g(t)cos(2πfc t
Eg
Diagrama de Constelacion

4
CAPÍTULO 1. PRIMER PARCIAL

Para saber a donde pertenecen los puntos se usa distancias euclideanas

p p q
dmn = ||Sm − Sn ||2 = |Am − An | Ep = |Am − An | Eg /2
p p p
Distancia mı́nima dmin = 2 Eg /2 = 2Eg = 2 Ep
r
12log2 M
dmin = Ebavg
M2 − 1
Modulación por Fase

h i
Sm (t) = Re g(t)ej2πfc t ; m = 1, 2, 3, .., M
m−1
= g(t) cos(2πfc t + 2π )
M
m−1 m−1
= g(t) cos(2πfc t) cos(2π ) − sin(2πfc t) sin(2π )
M M
Señales Ortogonales

s
2
φ1 (t) = g(t)cos(2πfc t)
Eg
s
2
φ2 (t) = − g(t)sen(2πfc t)
Eg

Al no variar la amplitud, la potencia es constante

Eavg = Em ; Ebavg = Eb

r   r  
Eg 2π Eg 2π
Sm (t) = cos (m − 1) φ1 (t) + sen (m − 1) φ2 (t)
2 M 2 M
Diagrama de constelación para:

5
CAPÍTULO 1. PRIMER PARCIAL

 s  
p 2π
dmin = ||Sm − Sn ||2 =Eg 1 − cos (m − n)
M
r π r
2
π
= 2Eg sin =2 log2 M sin2 Eb
M M

r
π π π 2 log2 M
sin( ) ≈ → dmin = 2 Eb
4 4 M2

Ejercicios

Determine la representacion de espacio de las señales para 4 señales S1 , S2 , S3 , S4 mostradas


en la figura. Usando las funciones basicas ortonormales φ1 (t), φ2 (t). Grafique la constelacion
y comparar si es equivalente a 4-PSK

6
CAPÍTULO 1. PRIMER PARCIAL

Encontrar r y la potencia promedio de transmision 8 - PSK

A2 = 2r2 − 2r2 cos(45◦ )

A2 A2
r2 = = √
2(1 − cos(45◦ ) 2− 2

A
r=p √
2− 2

7
CAPÍTULO 1. PRIMER PARCIAL

Para Ts = 1s
!2
1 A A2
P8−P SK =8· p √ = √
8 2− 2 2− 2

Modulacion QAM

Sm (t) = Re[(Ami + jAmq )g(t)ej2πfc t ]


= Re[rm ejθm g(t)ej2πfc t ]
= Ami g(t)cos(2πfc t) − Amq g(t)sin(2πfc t)

Representación con señales ortonormales


r r
eg eg
Sm (t) = Ami φ1 (t) + Amq φ2 (t)
2 2

A partir de 8 - QAM y 8 - PSK existe diferencia

p
dmin = 2Eg
p
= ||Sm − Sn ||2
r
Eg
= (Ami − Ani )2 + (Amq − Anq )2
2

Eg 2
Em = ||Sm ||2 = (Ami − A2nq )
2

8
CAPÍTULO 1. PRIMER PARCIAL

√ √
M M
1 Eg X X 2 Eg (M − 1)
Eavg = (Am − A2n ) =
M 2 3
m=1 n=1

Solo se utiliza para una cuadrada, si no lo es hay que calcular punto a punto

M −1
Ebavg =
3log2 M
r
6log2 M
dmin = Ebavg → QAM cuadrada
M −1
Ejercicio

Separación entre vecinos mas cercanos A unidades



2 2 2 2
A = b + a − 2ab
2

√ A
A=a 2→a= √
2

A2
A2 = b2 + − Ab
2

A2
b2 − Ab − =0
2

A √
b= (1 + 3)
2
Potencia total

9
CAPÍTULO 1. PRIMER PARCIAL

√ !2 √ !2
2 2 1+ 3 2
PT = A +4 A
2 2

= 2A2 + (1 + 3)2 A2 → QAM
8A2
= √ → P SK
2− 2

  √ !
PP SK 8/2 − 2
dB = 10log = 10log √ = 1,6dB
PQAM 6+2 3
Si la tasa de bit es de 90 Mbps ¿ Cual es la tasa de sı́mbolo?

90M bps
Rb = 90M bps; Rs = = 30M bps
log2 8
Calcular la potencia total de las siguientes constelaciones, ¿ Cual es mas eficiente?. La
distancia entre puntos adyacentes es 2A


PT = 4(2A)2 + 4(2 2A)2
= 16A2 + 32A2
= 48A2

Pm = 6A2

10
CAPÍTULO 1. PRIMER PARCIAL

p √
a= 3A2 + 4A2 = 7A

√ √
PT = 2(A)2 + 2(2 3A)2 + 4( 7A)2
= 2A2 + 6A2 + 28A2
= 36A2

Pm = 36/8A2

Mayor eficiente 8 - QAM

Modulación Multidimensional

P AM → 1 P SK → 2 QAM → 2
N señales

1. Dominio del tiempo (slots = ranuras)


2. Dominio de la frecuencia ( f )

11
CAPÍTULO 1. PRIMER PARCIAL

φ(j), 1 ≤ j ≤ N

S1 (t)
φj = √ , 1 ≤ j ≤ N
E


S1 = ( E, 0, 0, ..., 0)

S2 = (0, E, 0, ..., 0)
..
.

Sn = (0, 0, 0, ..., E)

FSK, frecuency shift keying (no lineal)

Sm (t) = Re[Sm (t)ej2πfc t ]1 ≤ m ≤ M, 0 ≤ t, ≤ T


r
2E
= cos(2π∆f t)
T
r
2E j2π∆f t
= e
T

2E T j2π(m−n)∆f t
Z
< Sm (t), Sm (t) > = e dt
T 0
= T omandolapartereal
2Esinc(2(m − n)∆f T )
= = 2Esinc(2(m − n)∆f T )
2π(m − n)∆f T

12
CAPÍTULO 1. PRIMER PARCIAL

Matriz de Hadamard

Ho = [1]

" #
1 1
H1 =
1 −1
 
1 1 1 1
 
1 −1 1 −1 √ √ √ √
H2 =   → S1 = [ E, E, E, E]
 
1 1 −1 −1
 
1 −1 −1 1

Trasmisión (m) Recepción (m)


b
M - ASK
M - PSK Lineales
M - QAM → Canal AWGN → r(t) = s(t)+n(t)
M - FSK No lineal

Ejercicio
Un sistema PAM de niveles esta definido por Si (t) = Ai rect(t/T − 1/2) donde Ai =
±1, ±3, ±5, ±7. Trafique la constelación

T √
Z 
||S1 (t)|| = A2i dt = Ai T
o

En las figuras se muestra las formulas de onda de 4 señales S1 (t), S2 (t), S3 (t), S4 (t)

Usando el procedimiento de ortogonalizacion, encuentre los bases ortonormales las para


este conjunto de señales

13
CAPÍTULO 1. PRIMER PARCIAL

Construye la constelación

S1 (t) 1
φ1 (t) = =p
||S1 (t)|| T /3
"Z #1/2
T /3 p
2
||S1 (t)|| = (1) d(t) = T /3
0

g2 (t) = S2 (t) − α21 φ1 (t)

Z T /3 Z T /3 p p p p
α21 = S2 (t)φ1 (t)dt = 3/T dt = 3/T · T /3 = T /3
0 0

g2 (t)
φ2 (t) =
||g2 (t)||

p
||g2 (t)|| == T /3

14
CAPÍTULO 1. PRIMER PARCIAL

g3 (t) = S3 (t) − α31 φ1 − α32 φ2 (t)

Z T /3
α31 = S3 (t)φ1 (t)dt = 0
0

Z 2T /3 Z 2T /3 p p
α32 = S3 (t)φ2 (t)dt = 3/T dt = T /3
T /3 T /3

g3 (t) p
φ3 (t) = ; ||g3 (t)|| = T /3
||g3 (t)||
1/2
4 √
Z
2
||g3 (t)|| = (3) d(t) =3 2
2

p
S1 (t) = T /3φ1 (t)
p p
S2 (t) = T /3φ1 (t) + T /3φ2 (t)
p p
S3 (t) = T /3φ2 (t) + T /3φ3 (t)
p p p
S4 (t) = S1 (t) + S3 (t) = T /3φ1 (t) + T /3φ2 (t) + T /3φ3 (t)

15
CAPÍTULO 1. PRIMER PARCIAL


Una señal PSK esta definida por S(t) = Acksin(2πfc t) ± Ac 1 − k 2 cos(2πfc t)con0 ≤ t ≤ Tb
El signo t corresponde a 1 y el signo - corresponde a 0, k es un parámetro entre 0 y 1, el
primer termino de S(t) representa la portadora que es incluida como una propuesta para el
sincronismo en el receptor. Grafique el espacio de señales que representa este esquema y que
representaciones puede dar usted cerca de este diagrama.

p
S(t) = Acksin(2πfc t) + Ac 1 − k 2 cos(2πfc t)con0 ≤ t ≤ Tb → 1

p
S(t) = Acksin(2πfc t) − Ac 1 − k 2 cos(2πfc t)con0 ≤ t ≤ Tb → 0

φ1 = cos(2πfc t)

φ2 = sin(2πfc t)

A2
Po (AcosX) = = P (AsenX)
2

E
P = ; E = P Tb
Tb

√ p
S(t) = E = P Tb
r
A2c (1 − k 2 )Tb
=
r 2
A2c k 2 Tb
=
r2
Tb
= Ack
2

16
CAPÍTULO 1. PRIMER PARCIAL

Dado la secuencia binaria 11/00/10/00/10 bosqueje las formas de onda de los componentes
en fase y cuadratura de una onda modulada utilizando Q-PSK, de acuerdo a la constelación
mostrada en la figura, adicional mente realice el gráfico de la señal modulada

Una señal es muestrada a una tasa de 8 kHz y es codificada usando 8 bits por muestra la
resultante tasa binaria es trasmitida sobre un canal AWGN en banda base usado M niveles de
PAM. Determine el ancho de banda requerido para la trasmisión usando M=4, M=8, M=16
Ancho de banda :

R
W =
2log2 M

R = 8000 ∗ 8 = 64000bit/s
64000
M=4 W= 4 = 16000Hz
64000
M=8 W = 8 = 10666,67Hz
M = 16 W = 64000
8 = 8000Hz
Una representación de un PAM, equivalente es usar un filtro pasabajos que se lo define como
P
la señal u(t) = n lng(t − nT ), suponga g(t) que es un pulso rectangular In = an − an−2
donde es una secuencia binaria descorrelacionada con valores de -1 a 1

Determine la función de autocorrelacion de la secuencia In

Determine la densidad espectral de potencia de u(t)

17
CAPÍTULO 1. PRIMER PARCIAL

X
u(t) = In g(t − nT ), In = an − an−2

a)rxx (n) = E[x(n)x(n − m)]

rii [n] = E[In−m In ]

rii [n] = E[(an+m − an+m−2 )(an − an+m )]


= E[(an+m an ] − E[(an+m an−2 ] − E[(an+m − 2an ] + E[(an+m − 2an−2 ]
= δ(m) − δ(m − 2) − δ(m + 2) + δ(m)

Calcular el minimo teorico del ancho de banda de un sistema para transmitir 10 Mbps si se
usa 16 niveles de PAM y sin la presencia de ISI

10 · 106
W = = 125000
2log2 16

Receptor optimo Canal AWGN

Probabilidad de Error

P e[m = m]
b

r = Sm + n

−(x−mx ) 2
1
fx (x) = p e 2σx2 → F uncionN ormal
2πσx2
2
||n||2

1
fx (x) = √ e No
πNo
Función de Densidad de probabilidad:

18
CAPÍTULO 1. PRIMER PARCIAL

Plano de solución del esquema de modulación:

RN → N osepuederepresentarparaN > 3
q
Demostración → Pe BP SK = Q( 2E
No )
b

P [Decisión Correcta |r]


= P[Enviada m|r
b
R
= P [Decisión Correcta |r] f(r) dr

b = gopt (r) argmax P[Sm |r]


b = gopt (r) argmax P[m|r] m
m

Para el primer receptor la probabilidad de que ocurra un simbolo sera

P mf (r|Sm
m
b = argmax )m
b = argmaxP mf (r|Sm )
f r(r)

Son equiprobables: Se usa ML

m
b = argmaxP mf (r|Sm )

Para el caso de BPSK, el esquema de modulacion mas simple es

19
CAPÍTULO 1. PRIMER PARCIAL

N
X
n1 = njφj ; nj =< n(t), φj (t) >
j−1
N
X
Sm (t) = Sm φj ; Sm j =< Sm (t), φj (t) >
j−1
N
X
r(t) = (nj + Sm )φj + n2 (t); rj = nj + Sm j
j−1
rj =< Sm (t), φj (t) > + < n(t), φj (t) >=< r(t), φj (t) >
N
X
r(t) = rj φj (t) + n2 (t)
j−1
Z ∞
nj = n(t)φj (t)dt
−∞
E[nj ] = 0
Z ∞ Z ∞
cov[ninj] = E[ n(t)φj (t)dt n(t)φj (s)ds]
−∞ −∞
cov[ninj] = No /2; i = j

b = argmax[Pm f (r|Sm )]
m

m
b = argmax[Pm f (r|Sm )]
" N #
||r−Sm ||2

1 −
= argmax Pm f ( √ e No
πNo

Observaciones:
 N
√1 → Constante positiva, no se considera
πNo

20
CAPÍTULO 1. PRIMER PARCIAL

||r−Sm ||2
 
− ||r−Sm ||2
argmax e No → lnP m − No

No
2 Siempre va a ser positivo

Como el segundo termino de la siguiente ecuacion no depende de Sm

||r−Sm ||2 ||r − Sm ||2


 
No
m
b = lnPm e− No −
2 2
No Em
ηm = lnPm −
2 2
m
b = [ηm + rSm ]

Caso mas genérico de modulación con ruido

Se pierde la simetrı́a

BPSK:

Decisión

√ √
 
No 1 No 1
D1 = r : r Eb + lnp − Eb > −r Eb + ln(1 − p) − Eb
2 2 2 2

 q 
ln(1 − p)
= r : r > −r 4 Eb + → Mayor: 1 , Menor:0
p
= {r : r > r + h}

21
CAPÍTULO 1. PRIMER PARCIAL

Probabilidad de error

2
X X Z
Pe = Pm f (r|Sm )
m=1 1≤m≤2 Dm
Si mando 1
Z √ Z √
= f (r|Sm = Eb) + (1 − p) f (r|Sm = − Eb)
Dm Dm
x − mx
Funcion Q :
σ
√ √ !
Eb − rth rth − Eb
= Q p + (1 − p) p
No /2 No /2
√ !
Eb
Pe = Q p
No /2

Formas de calcular Q:

1 2
Q(x) ≈ √ e−x /2
x 2
Bit Error Rate analysis tool

Eb
= 16dB → dB = 10log(Eb/No )
No

Eb
1,6 = 10log(Eb/No ) → = 39,8
No
Matlab → Curva Gausiana bajo ciertas caracterı́sticas
Z ∞
2 2
erf c = √ e−t dt
π x

1 x
Q(x) = erf c( √
2 2


erf c(x) = 2Q(x)( 2x)

Ejercicio

Dado el ejercicio anterior de una señal PSK.

a) Demuestre que en presencia de AWGN de medio 0 y densidad espectral de potencia


No /2, la probabilidad de error es:
r !
1 Eb
Pe = erf c (1 − k 2 )
2 No

22
CAPÍTULO 1. PRIMER PARCIAL

b) Suponga que el 10 % de la potencia de la señal transmitida se asigna a la componente


de la portadora, determine la energı́a de bit a ruido para originar la probabilidad de
error de 10−4

Solución

a)

p
r(t) = Ac k sin(2πfc ) ± Ac 1 − k 2 cos(2πfc t) + n(t)
p
= Ac k sin(2πfc t) cos(2πfc t) ± Ac 1 − k 2 cos2 (2πfc t) + n(t) cos(2πfc t)
Ac k Ac p
= (sin(4πfc t) + sin(0)) ± 1 − k 2 (1 + cos(4πfc t)) + n(t) cos(2πfc t)
2 √ 2
Ac p 2
Ac 1 − k 2
= ± 1−k + n(t) cos(2πfc t)
2 2 √
Z Tb Tb
Ac 1 − k 2
Z
Ac p 2
= ± 1 − k dt + n(t) cos(2πfc t)dt
0 2 0 2

Tb

Ac 1 − k 2
Z
Eb = n(t) cos(2πfc t)dt
0 2
A2c T2
= (1 − k 2 ) b
4 Tb
Por lo tanto
v  
u
A 2
c
(1 − k 2 )Tb 
u s 
r ! u 2 2
2Eb 4  = Q  Eb (1 − k ) 
t 
Q= = Q
No 
 No 
 No

s  s 
1 2Eb (1 − k2 )  = 1 erf c  Eb (1 − k2 )
Pe = erf c  
2 2No 2 No

b)
1 2
Pe = √ e−x /2 = 10−4 → x = 3,8753
x 2
r
2Eb
No Eb
3,8753 = → = 8,3433
0,9 No

23
CAPÍTULO 1. PRIMER PARCIAL

Ejercicio

En sistema de comunicación transmite 1 de 3 mensajes m1 , m2 , m3 . Usando 3 señales:


S1 (t), S2 (t), S3 (t). Si S3 (t) = 0 y S1 (t) y S2 (t) se muestran en la figura. El canal empleado
es AWGN con medio 0 y densidad espectral de potencia No /2.

a) Determine el conjunto de señales básicas ortonormales y grafique la constelación.

b) Si los tres mensajes son equiprobables, cual serı́a la regla de decisión más adecuada
para este sistema.

c) Si las tres señales son equiprobables, exprese la probabilidad de error del detector óptimo
en términos de la relación señal a ruido por bit promedio.

d) Asumiendo que el sistema transmite 3000 simb/s. ¿Cuál es la tasa de transmisión en


bits/s?

Solución

a)
1/2 √
T √
Z
S1 (t) 2
φ1 (t) = ; ||S1 (t)|| = A dt = A2 T = A T
||S1 (t)|| 0

24
CAPÍTULO 1. PRIMER PARCIAL


S1 (t) = A T φ1 (t)

S2 (t) = 2A T φ1 (t)
S3 (t) = 0φ1 (t)

b)
3 √
 
D1 = r:r> A T
2
1 √ 3 √
 
D2 = r : A T < r < A T
2 2
1 √
 
D3 = r : r < A T
2

c)
d212 A2 T
   
Pb = Q =Q
2No 2No

d)
3000 · log2 3 = 4754

Detectores

1. Receptor de Correlación

2. Receptor de Matched filter: Similar al mostrado en la figura pero este no tiene correlator
y se filtra de manera desplazada.

25
CAPÍTULO 1. PRIMER PARCIAL

ASK y PAM

 
1 dmin
Peo = Pe = Q √
2 2N
 o 
2(M − 1) dmin
= Q √
M 2No
s 
 
1 6 log2 M Ebavg 
Pe = 2 1 − Q ·
M M2 − 1 No
 
6 log2 M Ebavg
Pe = 2Q · → En el caso de que M es muy grande
M2 − 1 No

M-PSK

Normalmente se usa coordenadas polares.


En el caso que M = 4 → 4 − P SK
r !" r !#
2Eb 1 2Eb
Pe = 2Q 1− Q
No 2 No

En el caso M-ario r !
πE
b
Pe = 2 log2 M sin2
M No
Pe
Pb ≈
k

QAM

Para un esquema de constelación rectangular.


s  s 
    
1 3 log2 M Ebavg  1 3 log2 M Ebavg 
Pe = 4 1 − √ Q · ·Q 1 − 1 − √ ·Q  ·
M M −1 No M M −1 No
s 
3 log2 M Ebavg 
Pb ≤ 4Q  ·
M −1 No

Ejercicio

Suponga que un esquema binario PSK es usado para transmitir información sobre un canal
AWGN, con densidad espectral de potencia No /2 = 10−10 W/Hz. La señal de transmisión
tiene una energı́a Eb = A2 T /2, donde T es el intervalo de nit y A es la amplitud de la señal.
Determine el valor de A requerido para alcanzar una probabilidad de error de 10−6 cuando
la Tasa de Datos es:

26
CAPÍTULO 1. PRIMER PARCIAL

a) 10 kbits/s

b) 100 kbits/s

c) 1M bit/s

Solución

Pe = 10−6 = Q(x) → x = 4,76


s
A2 T 4,76
x= →A= r
No T
2 · 10−10
a) A = 6,73 · 10−6

b) A = 21,28 · 10−6

c) A = 67,31 · 10−9

Ejercicio

Considere la señal de entrada a un detector como:

r = ±A + n

Donde +A y −A ocurre con igual probabilidad y n es variable que representa ruido y está
caracterizado por una función de probabilidad laplaciana como se indica en la figura.

a) Determine la probabilidad de error en función de A y σ

b) Determine la SNR requerida para una probabilidad de 10−5

1 √ λ −|x|λ
fn (n) = √ e−|n| 2/σ ; fx (x) = e
2σ 2

27
CAPÍTULO 1. PRIMER PARCIAL

Solución

a)
1 1
Pe = P (0|1) + P (1|0)
2 2
Z 0
1
= (0|1)
2 −∞
1 0 λ −λ|r−A| 1 ∞ λ −λ|r+A|
Z Z
= e dr + e dr
2 −∞ 2 2 0 2
λ −A −λ|x| λ ∞ −λ|x|
Z Z
= e dx + e dx
4 −∞ 4 A
e−λA + e−λA 1 √
= = e−A 2/σ
4 2

b)
Z ∞
λ
σn2 = x2 e−λ|x| dx
−∞ 2
Z ∞
= λ x2 e−λx dx
0
 2 −λx ∞
x e 2xe−λx 2e−λx
= λ − −
−λ λ2 λ3 0
2
=
λ2
Como:
A2
= SN R
σ2
Entonces
1 √
Pe = e SN R = 10−5 → SN R = 58,53 → 17,674dB
2

28
CAPÍTULO 1. PRIMER PARCIAL

Ejercicio

Un sistem de comunicaciones utiliza el esquema de constelaciones mostrado en la figura, los


16 sı̀mbolos son equiprobables, el canal es AWGN con densidad espectral de potencia No /2

a) Usando los valores de los puntos de la constelación encuentre la Pe de este canal en


términos de A y No .

b) Determine SN Ravg por bit para este canal.

c) Exprese lo encontrado en la parte 1 en términos de SN Rbavg /bit

d) Compare la eficiencia de potencia de este sistema con un 16 PAM.

Solución

a)
s 
d2min 
PM ≤ (M − 1)Q  (1.1)
2No
s 
2∗A 2
≤ (15)Q  (1.2)
No

b)
ET = E1 + E2 + E3 = 4(2A2 ) + 8(10A2 ) + 4(18A2 ) = 160A2

29
CAPÍTULO 1. PRIMER PARCIAL

160 2
Eavg = A = 10A6
16
Eavg
Ebavg = = 2,5A2
log2 M
Donde
A2 2Ebavg
=
No 5No
c) s 
d2min 
PM ≤ (M − 1)Q 
2No
s !
4Ebavg
PM ≤ 15Q
5No

d)  
6log2 M Ebavg
Pe = 2Q
M 2 − 1 No
M = 16
 
8 Ebavg
Pe = 2Q
85 No
Comparando con 16QAM:
4Ebavg
16 − QAM 5N0 17
= =
16 − P AM 8Ebavg 2
85No
17
10log10 = 9,29dB
2
QAM es 9.29 veces más eficiente

Teorı́a de la Información
Información: Caracterı́sticas que catalogan un fenómeno binario: 0,1.
Creada en 1948 por Shannon.

Transmisor → Canal → Receptor

Información Analógica se transforma en Digital, donde el sistema que produce las


señales analógicas se la conoce como Fuente de Información, y esto se lo digitaliza
para enviarlo al transmisor.

Necesita de tres procesos fundamentales:

30
CAPÍTULO 1. PRIMER PARCIAL

• Codificación de Fuente
• Codificación de Canal
• Capacidad de Canal
◦ Incertidumbre: No conocer el resultado
◦ Información: Evitar que la información sea negativa
◦ Entropı́a: Medida de la información

Esto se da en:

Señales Determinı́sticas

Señales No determinı́sticas

Información

 
1
I(Sk ) = log → Entre más probable menos información
Pk

Propiedades

I(Sk ) = 0 ↔ Pk = 1

I(Sk ) ≥ 0 ↔ 0 ≤ Pk ≤ 1

I(Sk ) > I(Si ) ↔ P (Si ) > P (Sk )

P (A + B) = P (A) + P (B) − P (A) ∩ P (B)

I(Sk ; Si ) = I(Sk ) + I(Si ) → Estadı́sticamente Independiente

Entropı́a

k−1
X
H(S) = E[I(Sk )] = Pk I(Sk )
k=0

  
1 1
= Po log2 + P1 log2
Pk Pk
   
1 1 1 1
= log2 + log2 =1
2 1/2 2 1/2

Ejercicio

Una fuente emite 4 sı́mbolos con probabilidad: 0,4, 0,3, 0,2, 0,1 Encuentre la entropı́a de la
fuente.

31
CAPÍTULO 1. PRIMER PARCIAL

Solucion

   
5 3 10 1 1
H(S) = 0,4 log2 + log2 + log2 5 + log2 (10)
2 10 3 5 10
H(S) = 1,346 bits

Ejercicio

Suponga que cierto curso se dan igual número de calificaciones con las letras, A,B,C,D y F.

a) ¿Cuánta información en bits recibe un estudiante cuando el instructor le dice que su


calificación no es F?

b) ¿Cuánta información adicional requiere este estudiante para determinar su calificación.

Solucion

a)
1
IS = log2 ( ) = 0,32 bits
4/5

b)
1
IS = log2 ( ) = 2,32 bits
1/5
Se necesita 2 bits mas de información.

Ejercicio

En un mazo de 52 cartas se extrae una al azar.

a) Determinar la información en bits que recibe un jugador si saco una carta de


corazón, de figura y de figura de corazón.
b) Si se le dice que la carta es una de figura roja, cuanta información adicional se
necesita para identificar la carta.

Solución
1
• Carta de Corazón: P1 =
2
15 4
• Carta de Figura: P2 = =
52 13

4 1 2
• Carta de Figura de Corazón: P3 = · =
13 2 13

32
CAPÍTULO 1. PRIMER PARCIAL

a)
IS1 = log2 (2) = 1 bit
 
13
IS2 = log2 = 1,7 bits
14
 
13
IS3 = log2 = 2,7 bits
2
b)
IS4 = log2 (52) = 5,7 bits
 
52
IS5 = log2 = 2,7bits
8
Debe conocer 3.7 bits más adicionalmente.

Ejercicio

Calcule la cantidad de información necesaria para abrir una cerradura cuya combinación
consta de 3 enteros del 00 al 99.

Solución

 
1
I(S) = log2 = 20
1/1000000

Ejercicio

Calcule la entropı́a de la fuente discreta y sin memoria que tiene 6 sı́mbolos con probabilidades
PA = 1/2, PB = 1/4, PC = 1/8, PD = PE = 1/20, PF = 1/40.

Solución

1 1 1 2 1
H(S) = log2 (2) + log2 (4) + log2 (8) + log2 (20) + log2 (40) = 1,94 bits
2 4 8 20 40

Ejercicio

Con respecto al ejercicio anterior, cual es la cantidad de información en el mensaje ABABBA


y FDDFDF.

Solución

I1 = log2 (2 · 4 · 2 · 16 · 2) = 9 bits

I2 = log2 (40 · 20 · 20 · 40 · 20 · 40) = 28,93 bits

33
CAPÍTULO 1. PRIMER PARCIAL

Ejercicio

Cierta información tiene 8 sı́mbolos y entre datos en bloques de 3 sı́mbolos con la tasa de 1000
bloques por segundo, el primer sı́mbolo en cada bloque es siempre el mismo para propósito
de sincronización, los otros dos lugares los ocupan cualquiera d e los ocho sı́mbolos con igual
probabilidad. Determine la tasa de transferencia de la información de la fuente.

Solución

 
1
H = log2 = 6 bits/bloque
1/64
bits bloques
6 · 1000 = 6000 bps
bloque seg

Entropı́a de la Fuente

1. H(L) = 0; P (Sk ) = 1
1
2. H(L) = log2 (k) ↔ P (Sk ) =
k

1  
X 1
H(L) = P (Sk ) log2
P (Sk )
k=0
   
1 1
= P (S0 ) log2 + P (S1 ) log2
P (S0 ) P (S1 )
   
1 1
= P (S0 ) log2 + (1 − P (S0 )) log2
P (S0 ) P (S1 )
= ¶(S0 ) log2 (P (S0 )) − (1 − P (S0 )) log2 (1 − P (S0 ))

34
CAPÍTULO 1. PRIMER PARCIAL

P1 + P2 = 1
  
1 1
H(L) = P1 log2 + P2 log2
P1 P2
   
1 1
= P1 log2 + (1 − P1 ) log2
P1 1 − P1
= −P1 log2 (P1 ) − (1 − P1 ) log2 (1 − P1 )

∂H(L) 1
= − log2 P1 + log2 (1 − P1 ) = 0 → P1 =
∂P1 2
P1 + P2 + P3 = 1

P3 = 1 − 2P1
   
1 1
H(L) = 2P1 log2 + P3 log2
P1 P3
= −2P1 log2 (P1 ) − (1 − 2P1 ) log2 (1 − 2P1 )

∂H(L) 1 1 −2 1 1
= −2P1 · · − 2 log2 P1 − (1 − 2P1 ) · · + 2 log2 (1 − 2P1 ) = 0 → P1 =
∂P1 P1 ln 2 1 − 2P1 ln 2 3

Código Morse
E = ” − ” → Más usado

E = ” − − · −” → Menos usado
Pk−1
I= i=0 P (Sk )Ik → Tamaño promedio del código
Lmin
η= → Eficiencia de codificación
I
I ≥ Lmin )

I ≥ H(L) → Teorema de la codificación


H(L)
η=
I

35
CAPÍTULO 1. PRIMER PARCIAL

Códigos de Huffman

Árbol de Huffman

Probabilidad del mayor a menor.

Se codifica los que tienen menos probabilidad primero.

S0 00
S1 10
S2 11
S3 010
S4 011
Tamaño promedio del código
k−1
X
I= P (Sk )Ik = 0,4(2) + 0,2(2) + 0,2(2) + 0,1(3) + 0,1(3) = 2,2 bits
i=0

Entropı́a de la Fuente
 
5
H(L) = 0,4 log2 + 0,4 log2 (5) + 0,2 log2 (10) = 2,12 bits
2

Eficiencia de Codificación
2
η= = 0,9
2,2
Varianza
σ12 = 0,4(2 − 2,2)2 + 0,4(2 − 2,2)2 + 0,2(3 − 2,2)2 = 0,16

σ1 = 0,4

En el caso de que no se sigan los parámetros antes expuestos se tiene:

36
CAPÍTULO 1. PRIMER PARCIAL

S0 1
S1 01
S2 000
S3 0010
S4 0011
Tamaño promedio del código

I = 0,4(1) + 0,2(2) + 0,2(3) + 0,1(4) + 0,1(4) = 2,2 bits

Eficiencia de Codificación
1
η= = 0,45
2,2
Varianza

σ22 = 0,4(1 − 2,2)2 + 0,2(2 − 2,2)2 + 0,2(3 − 2,2)2 + 0,2(4 − 2,2)2 = 1,36

σ2 = 1,166

No realizar los pasos propuestos hace que necesite más potencia.

Ejercicio

Dado el siguiente alfabeto hacer la codificación de Huffman, A = 0,1, I = 0,1, L = 0,2, M =


0,1, N = 0,1, O = 0,2, P = 0,1, Y = 0,1

37
CAPÍTULO 1. PRIMER PARCIAL

Solución

O 000
L 001
A 010
I 011
M 100
N 101
P 110
Y 111
Tamaño promedio del código

I = 3(10,2 + 0,2 + 0,1 + 0,1 + 0,1 + 0,1 + 0,1 + 0,1) = 3 bits

Eficiencia de Codificación
3
η= =1
3

1.1. Canales Discretos Sin Memoria

38
CAPÍTULO 1. PRIMER PARCIAL

Matriz de Canal P, Matriz de transición.


 
P (Y0 |X0 ) P (Y1 |X0 ) · · · P (Yk−1 |X0 )
 
 P (Y0 |X1 ) P (Y1 |X1 ) · · · P (Yk−1 |X1 ) 
P=
 
.
.. .. .. 

 . . 

P (Y0 |XJ−1 ) P (Y1 |XJ−1 ) · · · P (Yk−1 |XJ−1 )

Canal Simétrico Binario

" # " #
P (Y0 |X0 ) P (Y1 |X0 ) 1−p p
P= →
P (Y0 |X1 ) P (Y1 |X1 ) p 1−p

Información Mutua

J−1
" #
X 1
H(H|YYk ) = p(Xj |Yk ) log2
i=0 p(Xj |Yk )

k−1
X
H(H|Y ) = H(Y = Yk )p(Yk )
i=0
K−1
X J−1
" #
X 1
= p(Xj |Yk )p(Yk ) log2
k=0 j=0 p(Xj |Yk )
K−1
X J−1
" #
X 1
= p(Xj Yk ) log2
k=0 j=0 p(Xj |Yk )

39
CAPÍTULO 1. PRIMER PARCIAL

Propiedades
 
PK−1 PJ−1 p(Yk |Xj )
1. I(H; Y ) = k=0 j=0 p(Xj ; Yk )p(Yk ) log2
P (Yk )
2. I(H; Y ) ≥ 0

3. I(H; Y ) = H(H) + H(Y ) − H(H, Y )

Si P (X0 ) = P (X1 )
1 X
1  
X p(yk |xj )
I(H; Y ) = p(xj ; yk )p(Yk ) log2
P (yk )
k=0 j=0
1   X 1  
X p(yk |x0 ) p(yk |x1 )
= p(x0 ; yk ) log2 + p(x1 ; yk ) log2
p(yk ) p(yk )
k=0 k=0
   
p(y0 |x0 ) p(y1 |x0 )
= p(x0 , y0 ) log2 + p(x0 , y1 ) log2 +
p(y0 ) p(y1 )
   
p(y0 |x1 ) p(y1 |x1 )
p(x1 , y0 ) log2 + p(x1 , y1 ) log2
p(y0 ) p(y1 )
   
1−p p
= p(x0 )(1 − p) log2 + p(x0 )p log2 +
p(x0 ) p(x0 )
   
p 1−p
p(x0 )p log2 + p(x0 )(1 − p) log2
p(x0 ) p(x0 )
    
1−p p
= 2p(X0 ) (1 − p) log2 + p) log2
p(x0 ) p(x0 )
Como p(x0 ) = 1/2
= (1 − p) log2 [2(1 − p)] + p log2 [2p]
= 1 + (1 − p)log2 [1 − p] + p log2 [p] = C → Capacidad del Canal

Hallar la capacidad del canal de la siguiente figura:

40
CAPÍTULO 1. PRIMER PARCIAL

p(y0 ) = p(x0 )(1 − p2 ) + p(x0 )p2 + 2p(x1 )p(1 − p)

p(y0 |x0 ) = p(x0 )[(1 − p)2 + p2 ] = 1 − 2p + 2p2 → (1 − p)0 = 1 − 2p(1 − p)

p(y0 |x1 ) = p(x1 )[p(1 − p) + (1 − p)p] = 2p − 2p2 → p0 = 2p(1 − p)

p(y1 |x0 ) = p(x0 )[p(1 − p) + (1 − p)p] = 2p − 2p2

p(y1 |x1 ) = p(x1 )[(1 − p)2 + p2 ] = 1 − 2p + 2p2

C = 1 + (1 + 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) log2 2p(1 − p)


= 1 + (1 − 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) + 2p(1 − p)[log2 (p) + log2 (1 − p)]
= 1 + 2p − 2p2 + [1 − 2p + 2p2 ] log2 [1 − 2p + 2p2 ] + 2p(1 − p) log2 p + 2p(1 − p) log2 (1 − p)

41
Capı́tulo 2

Segundo Parcial

2.1. Capacidad de Canal

C = maxp(xj) I(H; y)

p(yo ) = p(xo )(1 − p2 ) + p(xo )p2 + 2p(x1 )p(1 − p)

p(yo /xo ) = p(xo )[(1 − p)2 + p2 ] = 1 − 2p + 2p2 → (1 − p)−1 = 1 − 2p(1 − p)

p(yo /x1 ) = p(x1 )[(1 − p) + p(1 − p)] = 2p − 2p2 → p0 = 2p(1 − p)

p(y1 /xo ) = p(xo )[p(1 − p) + p(1 − p)] = 2p − 2p2

p(y1 /x1 ) = p(x1 )[(1 − p)2 + p2 ] = 2p + 2p2

C = 1 + (1 − 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) log2 [2p(1 − p)]

C = 1 + (1 − 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) + 2p(1 − p)[log2 p + log2 (1 − p)]

C = 1 + 2p − 2p2 + [1 + 2p − 2p2 ] log2 [1 + 2p − 2p2 ] + 2p(1 − p) log2 p + 2p(1 − p) log2 (1 − p)

42
CAPÍTULO 2. SEGUNDO PARCIAL

Teorı́a de la codificación de Canal


Fuente de información → Codificacion de Canal → Canal → Decodificador → Destino

H(Z) C

Ts Tc
Donde

C:Tasa critica

Tc : Tiempo de utilización

Tc
R= R≤C
Ts
Entropia diferencial e Información
Z ∞  
1
h(x) = f x(x) log2 dx
−∞ f x(x)

∞  
X 1
H(x) = lı́m f x(x)∆x log2
∆x→0 f x(x)
k=−∞
" ∞   #
X 1
= lı́m f x(x) log2 ∆x
∆x→0 f x(x)
k=−∞

" #
X
− lı́m log2 ∆x f x(x)∆x
∆x→0
k=−∞
= h(x) − lı́m log2 ∆x
∆x→0

Z a
1
h(x) = log2 [a]dx
−a a
1
= log2 [a] · a
a
= log2 [a]

Diferencial Fundamental

k−1  
X qk
PR log2 ≤0
pk
k=0

Sean X1 Y v.a → fy (x)fx (y)


Z ∞  
f x(x)
fy (x) log2 dx ≤ 0
−∞ f y(x)

43
CAPÍTULO 2. SEGUNDO PARCIAL

Z ∞ Z ∞
fy (x) log2 f y(x)dx ≤ − fy (x) log2 f x(x)dx
−∞ −∞
Z ∞
h(y) ≤ − fy (x) log2 f x(x)dx
−∞
Z ∞
(x − µ)2
 √ 
h(y) ≤ − log2 e fy (x) − 2
− log2 2πσ dx
−∞ 2σ 2
1
h(y) ≤ log2 (2πeσ 2 )
2
1
h(a) = 2 log2 (2πeσ 2 ) → Cuando se tiene una función Gaussiana
Información Mutua
Z ∞ Z ∞  
f x(x|y)
I(x; y) = fxy (x; y) log2 dx
−∞ −∞ f x(x)
I(x; y) = I(y; x)

I(x; y) ≥ 0

I(x; y) = h(x) − h(x|y) = h(x) − h(y|x)

Entropia diferencial condicional


Z ∞ Z ∞  
1
h(x|y) = fxy (x; y) log2 dx
−∞ −∞ f x(x|y)
No
AWGN → ;0
2

No
σ2 = 2B = No B
2

E = [x2k ] = P ; k = 1, 2, 3, ...

C = maxf x(x) {I(xk |yk )E[x2k ] = P }

I(xk |yk ) = h(yk ) − h(yk |xk )

44
CAPÍTULO 2. SEGUNDO PARCIAL

I(xk |yk ) = h(yk ) − h(Nk )

Donde

1
h(yk ) = log2 [2πe(P + σ 2 )]
2
1
h(Nk ) = log2 [2πeσ 2 ]
2
 
1 P
C = log2 1 + 2
2 σ
C = B log2 (1 + SN R)

Ejercicio
Un canal tienen un ancho de banda = 3.4 kHz

1. Calcule la capacidad de información del canal para una relación de s/N = 30 dB

2. SNR mı́nimo que se requiere para soportar la Tx de información a través de un canal


de 9600 bp/s

C = 3,4x103 log2 (1 + 103 ) = 33,88bps

9600 = 3,4103 log2 (1 + SN R)

SN R = 7,88dB → Maximo

4800 = 3,4103 log2 (1 + SN R)

SN R = 2,2dB → Minimo

Una imagen de TV en blanco y negro puede considerarse como si estuviera compuesta


aproximadamente 3x105 elementos, cada uno de los cuales quizas ocupe 1 de 10 niveles
distintos de brillantes con igual probabilidad. Suponga que:

1. Velocidad de Tx a 30 cuadros de imag / s

2. SNR, corresponde a 30dB. Calcule el ancho de banda mı́nimo para soportar la calidad
de vı́deo resultante

45
CAPÍTULO 2. SEGUNDO PARCIAL

img 3x105 elem b


80 · = 90x105 · 3,33 = 29,88M bps
s 1img s s

29,88x106
B= = 2,99M Hz(M ax) → 1,49M Hz(M in)
log2 (1 + 1000)
SN R = 30dB

Determinar la h de v.a x y funcion de densidad de probabilidad

P (x = k) = p(1 − p)k−1 , k = 1, 2, 3, ..

∞  
X
k−1 1
h(x) = p(1 − p) log2
(1 − p)k−1
k=1
X∞
= − p(1 − p)k−1 log2 ((1 − p)k−1 )
k=1
X∞
= − p(1 − p)k−1 (log2 p + (k − 1) log2 (1 − p))
k=1

X ∞
X
= −p log2 p p(1 − p)k−1 − p log2 p(1 − p) p(1 − p)k−1 (k − 1)
k=1 k=1
= − log2 p − (1 − p) log2 (1 − p)

1 −|x|/λ
f x(x) = e ,λ > 0

Z ∞  
1 −|x|/λ 1 −|x|/λ
h(x) = − e log2 e dx
−∞ 2λ 2λ
Z 0   Z ∞  
1 −|x|/λ 1 −|x|/λ 1 −|x|/λ 1 −|x|/λ
= − e log2 e dx − e log2 e dx
−∞ 2λ 2λ 0 2λ 2λ
Z 0  Z ∞  
1 x x/λ x/λ
 x x/λ x/λ
= − e − e ln(2λ) dx − e − e ln(2λ) dx
2λln(2) −∞ λ 0 λ
1
= − [λ − ln(2λ) + λ + ln(2λ)]
2λln(2)
log2 2λ
=

FALTAN COSAS !!!

AWGN
mn = 0; σn2 = 1
w0
Lxx =
2

46
CAPÍTULO 2. SEGUNDO PARCIAL

Coloreado
Se coloca un filtro en la región de interés
Es limitado en banda

SN (t)
SN 0 (f ) =
|H(f )|2
Respuesta en magnitud del canal
Lk = xk (t) + nk (t); k = 1, 2, 3, · · · N
Para conocer el canal → Primera potencia

Pk = Sx (fk )δf

Sn (f )
σ2 = δf
|H(f )|2

1  pk 
Ck = δf log2 1 + 2 ; k = 1, 2, ..., N
2 σ

N  
1X pk
Ck ≈ δf log2 1 + 2
2 σk
k=1

Umbral→ punto medio para cada canal


λ → valores propios de la matriz del canal

σ2
u= al final todos transmiten al mismo canal
λ
1 ∞ |H(f )|2
Z  
C= log2 k df
2 −∞ SN (t)

47
CAPÍTULO 2. SEGUNDO PARCIAL

pk + σk2 = kδf
Matemáticamente funciona, no se conoce caracterı́sticas del canal

2.2. Codificación de Canal

Detección de errores

Corrección de errores

Insertar bits de redundancia

Errores de ráfaga: si hay un error se va todo un segmento

FEC: Foward Error Correction


ARQ: Aknowlege Request to Send

Módulo 2 0 + 0 = 0
0+1=1
1+0=1
1+1=0
n-k k
b0 b1 bn−k−1 m0 m1 mk−1
paridad mensaje
| {z }
. n

2.2.1. Códigos de lı́nea

m = [m0 , m1 , · · · , mk−1 ]
b = [b0 , b1 , · · · , bn−k−1 ]

48
CAPÍTULO 2. SEGUNDO PARCIAL

c = [c0 , c1 , · · · , cn−1 ]

b = mP

 
P00 P01 P0n−k−1
 
 
P =
 

 
 
Pk−10 Pk−1,n−k−1
 
..
c = b.m
 
..
c = m P .Ik
 
..
G = P .Ik

C = m · G → Trasmisión

H → MAtriz de verificacion de paridad


.
H = [I n−k ..P T ]

 
PT
.
H · GT = [I n−k ..P T ] 
 
 ... 

Tk

cH T = mGH T = 0

. .
G = [1111..1] = [Pk,n−k ..k]

 .. 
1 0 0 0 . 1
..
 
 
0 1 0 0 . 1
H=
 ..


0 0 1 0 . 1
 
.
0 0 0 1 .. 1
Cuando se produce un error se genera un Sindrome

49
CAPÍTULO 2. SEGUNDO PARCIAL

S = rH T ; r = c + e

S = [c + e]H T = eH T

Por lo que el sindrome depende del error.

Distancias entre códigos

Distancia de Hamming
Peso de Hamming → Numero de elementos 6= 0
Ej: C1 = 01010100 → n = 9, ones = 3
Distancia de Hamming → Distancia mas pequeña entre cualquier par de vectores de codigo
en el codigo
Ej: C2 = 010111011 → n = 9, ones = 6

dmin(C1 , C2 ) = min(6, 3) = 3

Concepto de t → Se tiene (n,k) → capacidad de corregir, siendo t la capacidad de los que


puede corregir

1
t ≤ [ (dmin − 1)] = 1
2
Código de Hamming
Hamming (7,4)

n = 24 − 1

k = 2n − m − 1

n−k =m

 . 
1 1 0 .. 1 0 0 0
.
 
0 1 1 .. 0
 
1 0 0
G=

.

1 1 1 .. 0

 0 1 0

.
1 0 1 .. 0 0 0 1
Hamming (n,k)
Caracterı́stica del código Hamming dmin = 3 → puede detectar 3 errores y corregir 1.

50
CAPÍTULO 2. SEGUNDO PARCIAL

 
0 0 0 0
 
0 0 0 1
 
 
0 0 1 0
 
0 0 1 1
 
 
0 1 0 0
 
 
0 1 0 1
 
0 1 1 0
 
 
0 1 1 1
m=
 

1 0 0 0
 
1 0 0 1
 
 
1 0 1 0
 
 
1 0 1 1
 
 
1 1 0 0
 
1 1 0 1
 
 
1 1 1 0
 
1 1 1 1
   
0 0 0 0 0 0 0 0 0 0 0
   
0 0 0 1 1 0 1 0 00 1
   
   
0 0 1 0 1 1 1 0 0 1 0
   
0 0 1 1 0 1 0 0 0 1 1
   
   
0 1 0 0 0 1 1 0 10 0 
   
   
0 1 0 1 1 1 0 0 1 0 1
   ..   
0 1 1 0 1 1 0 . 1 0 0 0 1 0 0 0 1 1 0
   
 

0
  ..   
1 1 1
 0 1 1 . 0 1 0 0 0 0 1 0 1 1 1
c=mG= · =
 
1 0 0 0
 ..   1 1 0 1 0 0 0

  1 1 1 . 0 0 1 0   
  ..
1 0 0 1 0 1 1 1 0 0 1
  
  1 0 1 . 0 0 0 1  
1 0 1 0 0 0 1 1 0 1 0
   
   
1 0 1 1 1 0 0 1 0 1 1
   
   
1 1 0 0 1 0 1 1 1 0 0
   
1 1 0 1 0 0 0 1 1 0 1
   
   
1 1 1 0 0 1 0 1 1 1 0
   
1 1 1 1 1 1 1 1 1 1 1
 
1 0 0 1 0 1 1
 
H = 0 1
 0 1 1 1 0
0 0 1 0 1 1 1

51
CAPÍTULO 2. SEGUNDO PARCIAL

Al recibir el código 1110010


 
1 0 0
 
0 1 0
 
 
0 0 1
 h i h i
H T = 1 1 0 1 1 1 0 0 1 0 = 0 0 0
 
 
0 1 1
 
 
1 1 1
 
1 0 1
Donde se comprueban que no existen errores
h i
Con el código 1100010 se obtiene 001 se puede obtener el error

....
 
0 0 0 .. 0 0 0 0 0 0 0

1 .... 
 0 0 .. 1 0 0 0 0 0 0


0 .... 
 1 0 .. 0 1 0 0 0 0 0


0 .... 
 0 1 .. 0 0 1 0 0 0 0


1 .... 
 1 0 .. 0 0 0 1 0 0 0

 .... 
0 1 1 .. 0 0 0 0 1 0 0
 
 .... 
1 1 1 .. 0 0 0 0 0 1 0
 
....
 
1 0 1 .. 0 0 0 0 0 0 1

c = r + Pe
h i h i
c= 1 1 1 0 0 1 0 + 0 0 0 0 0 0 0
h i h i
c= 1 1 0 0 0 1 0 + 0 0 1 0 0 0 0

GH T = 0

2.2.2. Códigos Cı́clicos

Propiedades

1. Linealidad.- La suma de cualesquiera de dos palabras de código en el código es también


es una palabra de código.

2. Cualquier corrimiento cı́clico de una palabra de código en el código también es una


palabra de código.

52
CAPÍTULO 2. SEGUNDO PARCIAL

C(x) = (Co + C1 x + C2 x2 + ... + +Cn−1 xn−1 )xP

xi C(x) = Co xi + C1 xi+1 + C2 xi+2 + ... + +Cn−1 xn−1+i

C(x) = q(x)g(x)

Polinomio generador → xn + 1

g(x) → grado → n/k/xn + 1


n−k+1
X
g(x) = 1 + gi xi + xn−k
i=1

c(x) = a(x)g(x)

b0 b1 bn−k−1 m0 m1 mk−1
paridad mensaje
| {z }
. n

m(x) = mo + m1 x + ... + mk−1 xk−1

b(x) = bo + b1 x + ... + bn−k−1 xn−k−1

C(x) = b(x) + xn−k−1 m(x)

a(x)g(x) = b(x) + xn−k−1 m(x)

xn−k−1 m(x) b(x)


= a(x)
g(x) g(x)
Pasos para generar

1 Multiplicar al polinomio del mensaje m(x) por xn−k .

2 Se divide xn−k ∗ m(x) entre el polinomio g(x).

3 c(x) = b(x) + xn−k ∗ m(x)

Ejemplo

x7 + 1 = (x + 1)(1 + x2 + x3 )(1 + x + x3 )

53
CAPÍTULO 2. SEGUNDO PARCIAL

g(x) = 1 + x + x3

(7; 4) → n − k = 3

1001 → m(x) = 1 + x3

xn−k m(x) = xn−k + xn−k+3 = (x3 + x6 )/(1 + x + x3 )

b = x + x2 ; c(x) = b(x) + xn−k m(x) = [0111001]

n−k−1
X
g(x) = 1 + gi xi + xn−k
i=1
n−k−1
X
h(x) = 1 + hi x i + x k
i=1

x + 1 = (1 + x)(1 + x + x2 )

h(x) = 1 + x + x2 + x4

g(x) = 1 + x + x3

xg(x) = x + x2 + x4

x2 g(x) = x2 + x3 + x5

x3 g(x) = x3 + x4 + x6

Matriz Sistematica
 
1 1 0 1 0 0 0
 
0 1 1 0 1 0 0
0

G =


0 0 1 1 0 1 0
 
0 0 0 1 1 0 1
Se suma la fila F2, el primer mas tercer reglón.
Se suma las dos primeras filas y eso a la cuarta
 
1 1 0 1 0 0 0
 
0
0 1 1 0 1 0 0
G =
 

1 1 1 0 0 1 0
 
1 0 1 0 0 0 1
Se obtiene la Matriz no Sistematica

54
CAPÍTULO 2. SEGUNDO PARCIAL

2.2.3. Verificación de Paridad

Tener igual caracterı́sticas.

k−1
X
h(x) = hi ∗ x i + x k
i=1

g(x)h(x)mod(xn + 1) = 0
g(x)h(x) = xn + 1

x4 h(x−1 ) = x4 + x3 + x2 + 1

x5 h(x−1 ) = x5 + x4 + x3 + x

x6 h(x−1 ) = x6 + x5 + x4 + x2

r(x) = c(x) + e(x)

e(x) = c(x) + r(x)

e(x) = µ(x)g(x) + r(x)

µ(x) = a(x) + q(x)

Ejemplo
Considérese el código de Hamming (7;4) definido por g(x) = 1 + x + x2 la palabra codigo
0111001se envia por un canal ruidoso produciendo la palabra recibida 0101001, que tiene un
solo error. Determine el polinomio sindrome S(i) de la palabra recibida y demuestre que es
identico al polinomio del error.

55
CAPÍTULO 2. SEGUNDO PARCIAL

0101001 → x + x3 + x6

x + x3 + x6
= x3 + x Residuo = x2 = S(x)
1 + x + x3

e(x) = r(x) + c(x)

e(x) = x + x2 + x3 + x6 + x + x3 + x6

e(x) = x2

S(x): El sindrome de un polinomio de la palabra recibida es igual al sindrome del polinomio


error.

2.2.4. Códigos de longitud máxima

Longitud del bloque n = 2m − 1

Numero de bits del mensaje b = m

Numero de paridad dmin = 2m − 1

1 + x2
g(x) =
h(x)
Hamming dmin = 3
Verificación de redundancia (CRC)
CRC 12 Polinomio Generador 1 + x + x2 + x3 + x1 1 + x1 2 donde; n − k = 12
CRC 16 Polinomio Generador 1 + x2 + x1 5 + x1 6 donde; n − k = 16
CRC TTU Polinomio Generador 1 + x5 + x1 2 + x1 6 donde; n − k = 16

Errores que pueden identificar los CRC:

Todas las ráfagas de errores de longitud n − k o inferiores.

Una fracción de ráfagas de errores de longitud igual a n − k + 1, la fracción es igual a


1 − 2−(n−k−1) .

Una fracción de ráfagas de errores de longitud mayor a n − k + 1, la fracción es igual a


1 − 2−(n−k−1) .

Todas las combinaciones de la dmin − 1 o menores de errores.

56
CAPÍTULO 2. SEGUNDO PARCIAL

Todos los patrones de errores con números impar de errores si el polinomio generador
g(x) para el código tiene un numero par de coeficientes distinto de cero.

2.2.5. Códigos Convolucionales

Codigos que proveen correcion de errores

Aparece el concepto el concepto de Tasa de codificación

L bits
r=
n(L + M simbolo

1 bits
L≥M →r=
n simbolo
Existen 4 formas de representación:

1. Diagrama de bloques

2. Diagrama de estados

3. Diagrama de árbol

4. Diagrama de enramado

Ejercicio

g1 (x) = 1 + x + x2

g2 (x) = 1 + x2

Entrada: 1 + x3 + x4
Salida:

(1 + x3 + x4 )(1 + x + x2 ) = 1 + x + x2 + x3 + x6

57
CAPÍTULO 2. SEGUNDO PARCIAL

(1 + x3 + x4 )(1 + x2 ) = 1 + x2 + x3 + x4 + x5 + x6

R{(1, 1)(1, 0)(1, 1)(1, 1)(0, 1)(0, 1)(1, 1)}

A B µ A’ B’ g1 g2
0 0 0 0 0 0 0
0 0 1 1 0 1 1
0 1 0 0 0 1 1
0 1 1 1 0 0 0
1 0 0 0 1 1 0
1 0 1 1 1 0 1
1 1 0 0 1 0 1
1 1 1 1 1 1 0

58
CAPÍTULO 2. SEGUNDO PARCIAL

Un codificador convolucional tiene un registro de corrimiento sencillo con 2 etapas (es decir
longitud de restriccion k = 3), 3 sumadores modulo 2 y un multiplexor de salida. las secuencias
del generador del codificador son

g1 = [1, 0, 1]

g2 = [1, 1, 0]

g3 = [1, 1, 1]

Dibuje el diagrama de bloques del codificador y realice el diagrama de estados.

59
CAPÍTULO 2. SEGUNDO PARCIAL

Figura 2.1: Diagrama para el ejercicio

A B µ A’ B’ g1 g2 g3
0 0 0 0 0 0 0 0
0 0 1 1 0 1 1 1
0 1 0 0 0 1 0 1
0 1 1 1 0 0 1 0
1 0 0 0 1 0 1 1
1 0 1 1 1 1 0 0
1 1 0 0 1 1 1 0
1 1 1 1 1 0 0 1

Figura 2.2: Diagrama para el ejercicio

Ejercicio
En la figura se muestra el codificador para un código convolucional de tasa 1/2, longitud de
restricción k = 4. Determine la salida del codificador producida por la secuencia del mensaje:

60
CAPÍTULO 2. SEGUNDO PARCIAL

10111.

g1 (x) = 1 + x + x2 + x3

g2 (x) = 1x + x3

m(x) = 1 + x2 + x3 + x4 + ...

c1 (x) = m(x) · g1 (x)

c1 (x) = (1 + x2 + x3 + x4 + ...) · (1 + x + x2 + x3 )

c1 (x) = 1 + x + x3 + x4 + x5 + x7 + ...

c2 (x) = m(x) · g2 (x)

c1 (x) = (1 + x2 + x3 + x4 + ...) · (1x + x3 )

c2 (x) = 1 + x + x2 + x3 + x6 + x7 + ...

cT = {11; 11; 01; 11; 10; 10; 01; 11; · · · }

Este se puede comporbar a travéz de la siguiente tabla y con las siguientes especificaciones:

A0 = µ

B0 = A

C0 = B

g1 = µ + A + B + C

61
CAPÍTULO 2. SEGUNDO PARCIAL

A B C µ A’ B’ C’ g1 g2
0 0 0 0 0 0 0 0 0
0 0 0 1 1 0 0 1 1
1 0 0 0 0 1 0 1 1
0 1 0 1 1 0 1 0 1
1 0 1 1 1 1 0 1 1
1 1 0 1 1 1 1 1 0

Cuadro 2.1: Tabla de estados

g2 = µ + A + C

Ejercicio
Considere el codificador convolucional de tasa 2/3 como se muestra en la figura, este
codificador tiene k = 2 bits, y la salida del codificador N = 8, realice el diagrama de estados
y el de enramado .

g1 = µ1 + A + B

g2 = µ1 + µ2 + B

g 3 = µ1 + A

Ejercicio

g1 = x + x2

g2 = 1 + x

62
CAPÍTULO 2. SEGUNDO PARCIAL

A B µ1 µ2 A’ B’ g1 g2 g3
0 0 0 0 0 0 0 0 0
0 0 0 1 0 1 0 1 0
0 0 1 0 1 0 1 1 1
0 0 1 1 1 1 1 0 1
0 1 0 0 0 0 1 1 0
0 1 0 1 0 1 1 0 0
0 1 1 0 1 0 0 0 1
0 1 1 1 1 1 0 1 1
1 0 0 0 0 0 1 0 1
1 0 0 1 0 1 1 1 1
1 0 1 0 1 0 0 1 0
1 0 1 1 1 1 0 0 0
1 1 0 0 0 0 0 1 0
1 1 0 1 0 1 0 0 0
1 1 1 0 1 0 1 0 1
1 1 1 1 1 1 1 1 1

Cuadro 2.2: Tabla de estados

63
CAPÍTULO 2. SEGUNDO PARCIAL

g3 = 1 + x + x2

µ = 1011

64
CAPÍTULO 2. SEGUNDO PARCIAL

65
CAPÍTULO 2. SEGUNDO PARCIAL

66
CAPÍTULO 2. SEGUNDO PARCIAL

2.3. Cuantificacion

Cuantificadores

Uniformes

Logarı́tmicos

Adaptativos

Diferenciales

Vectoriales

Proceso no lineal: x
b(n) = Q[x(n)]; x(n) está discretizado.
∆: Paso de cuantificaión; cambio valores de voltaje.

67
CAPÍTULO 2. SEGUNDO PARCIAL

2Xm → Voltaje pico-pico.

2Xm
∆=
2#

Siendo # el número de bits que uso apra cuantificar.


Ejemplo: Si Vpp = 5v ⇒

2(5)
∆= = 19,53mV
28

Intervalo del error de cuantificación: −∆/2 ≤ e(n) ≤ ∆/2

e(n) = x(n) − x
b(n)

∆2
Ruido de cuantificación: → σe2 = 12

Figura 2.3: Ruido de cuantificación

σe2 = E[x2 ] − m2x

Z ∞
E[x] = xfx (x)dx
−∞

Z ∞
2
E[x ] = x2 fx (x)dx
−∞

Z ∆/2
2 1 2
E[x ] = x dx
−∆/2 ∆

68
CAPÍTULO 2. SEGUNDO PARCIAL

1 ∆3
E[x2 ] = dx
∆ 12

∆2
E[x2 ] =
12

Cuantificador Logarı́tmico: Usa le Ley µ más un codificador uniforme.


Cuantificadores Adaptativos

Ya no es uniforme.

Usan estocásticos.

Ejemplo:
5 min→ fs = 44100 Hz→ 16 bits, estéreo.
5min · 60seg · 44100Hz · 16bits · 2
= 50,46M bytes
1min · 8 · 1024 · 1024

Proceso para cuantificar

Tener le fuente de información.

Medidas.

Procesamiento.

Transformación.

Extracción de información.

2.3.1. Correcion de errores en un canal uniforme

y(n) = x(n) − 0,5x(n − 1)


1
Y (z) = X(z) − z −1 X(z)
2
 
1 −1
Y (z) = X(z) 1 − z
2

69
CAPÍTULO 2. SEGUNDO PARCIAL

Y (z) 1
H(z) = = 1 − z −1
X(z) 2
Filtros FIR son estables y se los usa en el campo de las telecomunicaciones.

2 − z −1 = 0

2 = z −1
1
=2
z
1
z=
2

Si se realiza el proceso inverso:


1
1 − 12 z −1
1
2−z −1
2
2
2 − z −1

y[n] = x[n] − 0,5x[n − 1]

Función de cuantificación
Q(y[n]) = Q(x[n]) − Q(0,5x[n − 1])
b[n] − (0,5b
yb[n] = x x[n − 1] − ηm [n])

MSE→ Error cuadrático medio→ E[e2 [n]]


∆y[n] = y[n] − yb[n]

70
CAPÍTULO 2. SEGUNDO PARCIAL

E[∆2 y[n]] = E[{y[n] − yb[n]}2 ]


x[n] − 0,5x[n − 1] − x x[n − 1] − ηm [n]
b[n] + 0,5b

∆x[n] − 0,5∆x[n − 1] − ηm [n]

E[∆2 y[n]] = E[(∆x[n] − 0,5∆x[n − 1] − ηm [n])2 ]


= E ∆2 x[n] + 0,52 ∆2 x[n − 1] + ηm
2 [n] − ∆x[n]∆x[n − 1] − 2∆x[n]η [n] + ∆x[n − 1]η [n]
 
m m

= E[∆2 x[n]] − E[∆x[n]∆x[n − 1]] − 2E[∆x[n]ηm [n]] + 0,25E[∆2 x[n − 1]] + E[∆x[n − 1]ηm [n]]
≈ 1,25E[∆2 x[n]] − 2E[∆x[n]ηm [n]] + E[∆x[n − 1]ηm [n]] + E[ηm
2 [n]]

≈ 1,25E[∆2 x[n]] + E[ηm


2 [n]]

≈ 2,25E[∆2 x[n]] → 2,861 × 10−6

En simulación → 3,5 × 10−6

Ejercicio
Dado una forma de onda análogica que ha sido muestreada a una frecuencia de Nyquist fs
usando muestreo natural. Pruebe que una forma de onda proprcionada a la forma de onda
original puede ser recuperad de las muestras usando las técnicas de recuperación mostradas
en la figura, el paámetro MFS es la frecuencia de oscilador local donde M es un entero.

X0 (t) = X(t) + Xp (t)


1
X
C0 (t) =
m=−∞

X0 (t) = X(t) + Xp (t)


( ∞ )
X
X0 (t) = X(t) Cm ∗ ej2πmfs t
m=−∞

71
CAPÍTULO 2. SEGUNDO PARCIAL


( )
X
X0 (t) = X(t) C0 Cm cos(2πfs mt)
m=1

X1 (t) = X(t) cos(2πfs mt)


 
 ∞
X 
X1 (t) = X(t) cos(2πmfs t)2 + Cn cos(2πfs nt) cos(2πfs mt) + 2Cm cos2 (2πmfs t)
 
n=−1,m6=n

1 1

X0 (t) = X(t) 2Cm 2 + 2 ∗ cos(4πfs t)

X0 (t) = Cm X(t)

Ejercicio
Una forma de onda X(t) = 10 cos(1000t+ π3 )+20 cos(2000+ π6 ) es uniformemente muestreada
para una transmisión digital.

1. ¿Cuál es la máxima separación entre las muestras para que exista una reconstrucción
perfecta?

2. Si se desea reproducir una hora esta forma de onda ¿cuánta capacidad en disco se
requiere?

X(t) = 10 cos(1000t + π3 ) + 20 cos(2000 + π6 )

2000 1000
1. f = 2π = π = 318, 31Hz ≈ 320
f = 1000 500
2π = π = 159, 24Hz ≈ 160
1000
fm = 2π∗(2) = 636, 62Hz ≈ 640
1
maximaseparacion = 640 = 1, 5625ms
60min∗60seg∗640∗8bits
2. 8bits(1024)(1024) = 2, 19M bytes
Si se usa un canal stereo se multiplica por 2

Ejercicio
Un conversor lineal de análogica a digital de 16 bits esta operando sobre un rango de ±5.

1. Determine el paso del cuantificador.

72
CAPÍTULO 2. SEGUNDO PARCIAL

2. Determine el ruido de cuantificación y el ruido RMS de cuantificación con el voltaje

16bits ± 5V

2Xm 2(5)
1. S = 2n = 216
= 0, 1526mV

2
∆2
2. σc2 = 12= (0,15mV
12
)
= 1, 94 ∗ 10−9
q
2 −6
2
σRM S = ∆ √∆
12 = 12 = 44, 05 ∗ 10
2
σRM S : respecto a la media

Ejercicio
Considere un cuantificador de tres niveles, cuyo funcionamiento se indica en la figura, suponga
que la entrada x al cuantificador es una variable aleatoria uniforme en el intervalo (-1,1),
determine el valor del parámetro a de manera a minimizar el error cuadrático medio producido
por el error de cuantificación.

1 1 1
f x(x) = = =
b−a 1 − (−1) 2
e = x − Q(x)
E[e2 ] = E[(x − Q(x))2 ]
R∞
E(e2 ) = −∞ x2 f x(x)dx
1 R −1/2 2 dx + 1 1/2 (x)2 dx + 1 1 (x − a)2 dx
R R
= (x + a)
2 −1 2 −1/2 2 1/2
1 x3 −1/2 1 x 3
1/2 1 x3
= [ + ax2 + a2 x]−1 + [ ]−1/2 + [ − ax2 + a2 x]11/2
2 3 2 3 2 3

73
CAPÍTULO 2. SEGUNDO PARCIAL

1 1 1 a a2 1 1 1 a a2 1
= [ − a + a2 − + − + + − + − + − a + a2 ]
2 3 24 4 2 24 24 24 4 2 3
1 2 a 1 2 3a 1 3a a2
= [ + + a2 − 2a] = [ − + a2 ] = − +
2 3 2 2 3 2 3 4 2
3 3
a− =0⇒a=
4 4
Ejercicio
Un conversor de 10 bits con ley µ opera sobre una escala de ±5V . Si µ = 100 determine la
salida del cuantificador si la entrada 5V de una senal sinusoidal.

10bits

Ymax = 5V

µ = 100

|X| = 5

Ley µ

Y = Ymax ln[1+µ(|X|)]
ln(1+µ) sgn(X)

sgn(X) es positivo, que indica que la entrada es de 5V

Y = 5 ln[1+100(|5|)]
ln(1+10)

Y = 6, 73V

Ejercicio
Un filtro lineal es diseñado como un predictor final con 2 tabs o coeficientes de filtro, para
b(n) = a1 x(n − 1) + a2 x(n − 2).
operar en un sistema DPSM, el predictor tiene la forma x
Determine los valores de a1 y a2 de manera de minimizar el error cuadrático medio de la
predicción.

b(n) = a1 x(n − 1) + a2 x(n − 2)


x
e2 (n) = [x(n) − a1 x(n − 1) + a2 x(n − 2)]2
E[e2 (n)] = σe2 = R(0)[1 + a21 + a22 ] + R(1)2a1 a2 − R(1)2a1 − R(2)2a2
R(0)R(1) − R(1)R(2)
aopt
1 =
R2 (0) − R2 (1)
R(0)R(2) − R(1)R(1)
aopt
2 =
R2 (0) − R2 (1)
R(1) R(2)
Entonces C(1) = y C(2) =
R(0) R(0)
opt C(1) − C(1)C(2)
a1 =
1 − C 2 (1)
C(2) − C 2 (1)
aopt
2 =
1 − C 2 (1)

74
Capı́tulo 3

Tercer Parcial

3.1. Ecualización de Canal

Filtros adaptativos: Coeficientes se adaptan a las condiciones del problema.

LMS

NLMS

Se trabajan como filtros FIR, varias aplicaciones en donde se pueden aplicar son en Realce
de Señales

75
CAPÍTULO 3. TERCER PARCIAL

3.1.1. Matriz de auto correlación

R = E[X(k)XH (k)]

Donde:  
x0 (k)
 
 x1 (k)  h i
X(k) =  ; XH (k) = x∗0 (k) x∗1 (k) · · · x∗n (k)
 
.. 

 . 

xn (k)

76
CAPÍTULO 3. TERCER PARCIAL

Por lo tanto   
x0 (k)
  
 x1 (k) h i
R = E   x∗0 (k) x∗1 (k) · · · x∗n (k) 
  
..

 . 



xn (k)
 
E[|x0 (k)|2 ] E[x0 (k)x∗1 (k)] · · · E[x0 (k)x∗n (k)]
 
 E[x1 (k)x∗ (k)] E[|x1 (k)|2 ] ··· E[x1 (k)x∗n (k)]
0
R=
 
.. .. .. .. 

 . . . . 

E[xn (k)x∗0 (k)] E[xn (k)x∗1 (k)] · · · E[|xn (k)|2 ]

3.1.1.1. Propiedades

Matriz semidefinida positiva: Tiene inversa

Matriz Hermı́tica: R = RH

Matriz de Toeplitz:

• El proceso a trabajar es WSS (Estacionario en sentido amplio)


• Cuando elementos de diagonales secundatios son retardos de la diagonal principal

3.1.1.2. Conditional Number

λm ax
C=
λm in
Donde:

λm ax: Valor propio más grande

λm in: Valor propio más pequeño

Suponga que la señal de entrada es un vector compuesto por sus propios retardos de tal forma
que:  
x(k)
 
 x(k − 1) 
X(k) = 
 
.. 

 . 

x(k − N )

Ejercicios

Dado que x(k) = n(k), donde n(k) es ruido blanco de medio 0 y varianza σn2 . Encontrar la
matriz de auto correlación cuando n = 3.

77
CAPÍTULO 3. TERCER PARCIAL

Solución

 
x(k)
 
 x(k − 1) 
X(k) = 
 

 x(k − 2) 
 
x(k − 3)
Por lo tanto
  
x(k)
  
 x(k − 1)  h i
R = E  x∗0 (k) x∗ (k − 1) x∗ (k − 2) x∗ (k − 3) 
  

 x(k − 2)  
  
x(k − 3)
 
E[|x(k)|2 ] E[x(k)x∗ (k − 1)] E[x(k)x∗ (k − 2)] E[x(k)x∗ (k − 3)]
 
E[x(k − 1)x∗ (k)] E[|x(k − 1)|2 ] E[x(k − 1)x∗ (k − 2)] E[x(k − 1)x∗ (k − 3)]
= 
 
E[x(k − 2)x∗ (k)] E[x(k − 2)x∗ (k − 1)] 2 ∗

 E[|x(k − 1)| ] E[x(k − 2)x (k − 3)]
E[x(k − 3)x∗ (k)] E[x(k − 3)x∗ (k − 1)] ∗
E[x(k − 3)x (k − 2)] 2
E[|x(k − 3)| ]
 
E[n2 (k)] E[n(k)n∗ (k − 1)] E[n(k)n∗ (k − 2)] E[n(k)n∗ (k − 3)]
 
E[n(k − 1)n∗ (k)] E[n2 (k − 1)] E[n(k − 1)n∗ (k − 2)] E[n(k − 1)n∗ (k − 3)]
= 
 
E[n(k − 2)n∗ (k)] E[n(k − 2)n∗ (k − 1)] 2 ∗

 E[n (k − 1)] E[n(k − 2)n (k − 3)]
E[n(k − 3)n∗ (k)] E[n(k − 3)n∗ (k − 1)] ∗
E[n(k − 3)n (k − 2)] 2
E[n (k − 3)]
Dado que mn = 0 y σn2 = E[n2 (k)] − m2n
 
σ 2 0 0 0
 n 
 0 σ2 0 0 
n
R=
 
2

0 0 σ n 0 
 
0 0 0 σn2
Para x(k) = acos(wo k) + n(k)

E[x2 (k)] = E[(acos(wo k) + n(k))2 ]


= E[a2 cos2 (wo k) + 2acos(wo k)n(k) + n(k))2 ]
= a2 cos2 (wo k) + σ 2

R = E[x(k − b)x(k)] = E[(acos(wo k − b) + n(k − b))(acos(wo k) + n(k))]


= E[a2 cos(wo (k − b))cos(wo k)] + E[acos(wo (k − b))n(k)]
+ E[acos(wo (k))n(k − b)] + E[n(k − b)n(k)]
= a2 cos(wo (k − b))cos(wo k) + E[n(k − b)n(k)]

78
CAPÍTULO 3. TERCER PARCIAL

 
R R01 R02 R03
 00 
R R11 R12 R13 
 10
R=


R20 R21 R22 R23 
 
R30 R31 R32 R33

R00 = a2 cos2 (wo k) + σ 2


R11 = a2 cos2 (wo (k − 1)) + σ 2
R22 = a2 cos2 (wo (k − 2)) + σ 2
R33 = a2 cos2 (wo (k − 3)) + σ 2

Filtro de Wiener

Función de error: F {e[k]} = ξ(k) = E[e2 (k)] = E[(d(k) − y(k))2 ]

E[d2 (k)] − 2d(k)wT (k)x(k) + wT (k)x(k)xT (k)w(k)

E[d2 (k)] − 2E[d(k)wT (k)x(k)] + E[wT (k)x(k)xT (k)w(k)]

79
CAPÍTULO 3. TERCER PARCIAL

En el momento en el que w(k) ya no varié

E[d2 (k)] − 2E[d(k)wT (k)x(k)] + E[wT (k)x(k)xT (k)w(k)]

E[d2 (k)] − 2wT (k)E[d(k)x(k)] + wT (k)E[x(k)xT (k)w(k)]

Donde

P = E[d(k)x(k)]yR = E[x(k)xT (k)w(k)]

E[d2 (k)] − 2wT (k)P + wT (k)Rw]

∂ξ(k)
 
 ∂wo 
 ∂ξ(k) 
 
ξ(k)  ∂w

=
 1 
∂w  ... 

 
 ∂ξ(k) 
∂wn
Donde

−2P + 2Rw = 0
P = Rw
w = R−1 P

x(k) = a1 x(k − 1) + n(k)


x(z) = a1 z −1 x(z) + N (z)
N (z)
x(z) = → x[n] = n(z)(−a1 )−1 µ[n]
1a1 z −1

80
CAPÍTULO 3. TERCER PARCIAL

Ejercicios

La señal de entrada de un filtro adaptativo de 1er orden esta descrita por


x(k) = α1 x1 (k) + α2 x2 (k) donde x1 (k) y x2 (k) son dos procesos AR de primer orden
que son mutuamente descorrelacionadas, ambos tienen la varianza.

1. La señal es generada aplicando distinto ruido blanco sobre en filtro de primer orden, cuyos
polos se encuentran en −S1 y −S2 respectivamente. Calcule la matriz de autocorrelacion y
calcule la solucion de Wienner si la señal deseada es X2 (k)

x(k) = α1 x1 (k) + α2 x2 (k)


xi (k) = −Si xi (k − 1) + ki ni (k)
(−Si )−1 2
E[xi (k)xi (k − 1)] = ki2 ·σ
1 − Si2
Si l=0

1
E[x2i (k)] = 1 = ki2 · · σ2
1 − Si2
r
1 − Si2
ki =
σ2

E[x2 (k)] = α12 x21 (k) + 2α1 x1 (k)α2 x2 (k) + α22 x22 (k)
= α12 (1) + α22 (1)

" #
α12 + α22 −S12 α12 − −S22 α22
R=
−S12 α12 − −S22 α22 α12 + α22

Wo = R−1 P
P = E[d(k)x(k)]
" #
α1 x1 (k) + α2 x2 (k)
P = E x2 (k)
α1 x1 (k − 1) + α2 x2 (k − 1)
" #
α2
P =
−α2 S2
" #−1 " #
α12 + α22 −S12 α12 + −S22 α22 α2
Wo =
−S12 α12 + −S22 α22 α12 + α22 −α2 S2
" #
1 α12 α2 + α23 − S1 S22 α12 α2 − S22 α23
Wo = 2
(α1 + α22 )2 − (S12 α12 + −S22 )2 S1 α12 + S2 α23 − S22 α12 α2 − S22 α23

81
CAPÍTULO 3. TERCER PARCIAL

Algoritmos para hallar la solución de Wiener

1. Consistencia y BIAS

2. Algoritmos de Newton

3. Algoritmos Stepost - Descent

w(k + 1) = w(k) − µgw (k)

w(k + 1) = w(k) − 2µRw(k) + 2µP

∆w(k + 1) = w(k) − wo

∆w(k + 1) = ∆w(k) − 2µ[Rw(k) − Rwo ]


= ∆w(k) − 2µR∆w(k)
= (I − µR)∆w(k)
= (I − µR)k+1 ∆w(0) 0 ≤ µ ≤ 1

Least Mean Square (LMS)

wo = R−1 P

R = E[x(k)xT (k)]

P = E[d(k)x(k)]

b = x(k)xT (k)
R

Pb = d(k)x(k)

w(k + 1) = w(k) − µb
gw (k)

w(k + 1) = w(k) − 2µRw(k)


b + 2µPb

gbw (k) = −2d(k)x(k) + 2x(k)xT (k)w(k)


= 2x(k)(−d(k) + xT (k)w(k))
= −2e(k)x(k)

w(k + 1) = w(k) − 2µe(k)x(k)

82
CAPÍTULO 3. TERCER PARCIAL

1. Estabilidad
1
0≤µ≤
λmax
Análisis de estabilidad de matriz de covarianza

1
0≤µ≤
tr[R]
0≤µ≤1

2. Desajuste (Misadjustment)

µtr[R]
M≈
1 − µtr[R]

3. Calculo computacional

Señal deseada → Estacionario

Si modelo es no estacionario →

s
(N + 1)σ 2
µopt
4σ 2 tr[R]
w(k + 1) = w(k) + µe ∗ (k)x(k)

NMLS

Inicializacion

x(0) = w(0)

e(k) = d(k) − wT (k)x(k)


un e(k)
w(k + 1) = w(k) +
delta + pT (k)x(k)
Ejercicio
Suponga que el filtro adaptativo trabaja en un cuya entrada consiste de x(k) = ejwo k + n(k)
y su señal deseada esta dada por d(k) = ejwo (k+1) , donde n(k) es ruido blanco uniformemente

distribuido con varianza σ 2 = 0,1 y wo = M, M=8. Determine la matriz de auto correlación
para un filtro adaptativo de primer orden y determine el rango de trabajo de u si se quiere
aplicar un algoritmo LMS.


x(k) = ejwo k + n(k) = ej 8
k
+ n(k)

83
CAPÍTULO 3. TERCER PARCIAL

π
" #
ej 4 k + n(k)
x(k) = π
ej 4 (k−1) + n(k − 1)
π
"" # #
ej 4 k + n(k) h π π
i
R=E π e−j 4 k + n(k) e−j 4 (k−1) + n(k − 1)
ej 4 (k−1) + n(k − 1)
" #
E[|x(k)|2 ] E[x(k)x(k − 1)]
R=
E[x(k − 1)x(k)] E[|x(k − 1)|2 ]
" √ √ #
2 2
1,1 2 + j 2
R = √2 √
2
2 +j 2 1,1

tr[R] = 2, 2
1 1
0≤µ≤ →0≤µ≤
tr[R] 2,2

Algoritmo RLS

Recursive Least Squares


Función error recursivo

k
X
ξα = λk−i E 2 (i)
i=0
k
X
= λk−i [d(i) − xT (i)w(i)]2
i=0

Error a posteriori → ξ Error a priori → e(k)

∂ξ d (k)
 
 ∂w 
o 
∂ξ d (k)  . 
=  .. 
∂w(k)  
 ∂ξ d (k) 
∂w(n
Derivando
 
k
0
X
k−i T
.
2 λ [d(i) − x (i)w(i)] =  .. 


i=0
0
" k #−1 k
X X
w(k) = λk−i x(i)xT (i) λk−i x(i)d(i)
i=0 i=0

w(k) = R−1
o Po

84
CAPÍTULO 3. TERCER PARCIAL

Matriz Computacional

Método de inversión de Lehman

So (k − 1)x(k)xT (k)
 
1
S ∆ (k) = R−1
∆ (k) = So (k − 1)
λ λ + xT (k)So (k − 1)x(k)
Inicializacion

S ∆ (−1) = δ T

δ → Estimativa de la inversion de la potencia de la señal de entrada.


para k0 6= 0 → S ∆ (k)

P ∆ (k) = λP ∆ (k − 1) + d(k)x(k)

w(k) = S ∆ P ∆

Si es necesario el error → E(k) = d(k) − y(k)

c(k) < E(k) → CasodeRLS

Hacer ecualizacion para 32 QAM  n


r PQ
Perdidas por propagación Lp (dB) = β(dB) + 10log + q=1 F AF (q)
ro
Tx β
= n
TR r
Donde

β → Perdidas relacionadas a la frecuencia

n → Exponente de perdida de trayectoria

F AF → Factor de atenuación piso y techo

W AF → Factor de atenuación paredes

ro → Distancia nominal

Ejercicio: Calcular las perdidas de propagación de la siguiente figura.

85
CAPÍTULO 3. TERCER PARCIAL

WIFI 2.4 GHz

Tx y Rx de antena isotropica 0dB

n = 3.1

WAF = 3dB por pared

FAF = 5 dB

S = -75 dBm

PT x = -10 dB

PRx = -105 dB

 n Q
r X
Lp (dB) = β(dB) + 10log + F AF (q)
ro
q=1
 3,1
38
Lp (dB) = β(dB) + 10log + 10(3) + 2(5)
5
3,1622x10−11 β
= 3,1 → 2,49x10−5
0,1 38
Lp = −46,02 + 27,3 + 30 + 10 = 21,28dB

−10 − 21,27 = −31,27dB = −1,27dBm → Si recibe

86
CAPÍTULO 3. TERCER PARCIAL

3.1.2. TDMA vs FDMA

3.1.2.1. Equivalencia de Tasa de bits

En condiciones ideales ambos tienen la misma rata de bits.

3.1.3. Equivalencia con retardos

D =ω+τ

Donde:

ω: Tiempo de espera promedio de paquetes

τ : Tiempo en que los paquetes son transmitidos

3.1.3.1. FDMA

τF D = T

ωF D = 0

3.1.3.2. TDMA

T b
τT D = =
M R
M  
1 X T 1
ωT D = (m − 1)T /M = 1−
M 2 M
m=1

DF D = T  
T 1 T
DT D = 1− +
2 M M
b
= DF D − (M − 1)
2R

87
CAPÍTULO 3. TERCER PARCIAL

Normalmente las aplicaciones de estas dos tipos de acceso son:

TDMA: Canales de Control

FDMA: Transmisión de Datos

3.1.4. Frequency - Flat Fading

r(t) = x(t)ω(t) + n(t)

Donde:

x(t): Señal transmitida

ω(t): Respuesta del canal variante en el tiempo

n(t) Ruido

Si las variaciones del canal son lentas a comparación con la duración del sı́mbolo, se puede
asumir que:
ω(t) = ω = αejφ

r(t) = αejφ x(t) + n(t)

En donde:

α: Se modela con variables aleatorias de tipo Rayleigh o Rice.

φ: Se modela con variables aleatorias uniformes.

3.1.5. Definiciones

Tiempo de coherencia: Se refiere a la separación temporal para la cual las


amplitudes de dos muestras del canal en el dominio del tiempo pueden ser consideradas
descorrelacionadas.

Banda de coherencia: Se refiere a la separación en frecuencia para la cual la


atenuación de dos muestras del canal en el dominio de la frecuencia pueden considerarse
descorrelacionadas. En el caso de que la banda de coherencia se mayo a la banda del
canal, se asume que se trata de un canal plano.

Canales Uniformes (Planos en el tiempo): Canales invariantes en el tiempo,


canales uniformes o planos en frecuencia, existe una respuesta en frecuencia que es
próxima sobre un ancho de banda mayor o igual que el ancho de banda de la señal
transmitida.

88
CAPÍTULO 3. TERCER PARCIAL

Canales selectivos en el tiempo: Canales variables en el tiempo.

Canales selectivos en la frecuencia: Exhiben respuesta en frecuencia que no puede


ser considerada plana en todo el ancho de banda.

Banda de coherencia en el canal: El ancho de banda de transmisión máxima para


el cual el canal se considera constante.

Spread Spectrum: Técnica de los 80. Su aplicación era netamente militar. No se


puede interferir y esta puede ser intencional o no intencional.

Jammer: Interferencia intencional

3.1.6. Técnica DS-SS (Spread Spectrum de secuencia directa)

El Acceso mútlpile por división de códigos se basan en las técnica de Spread Spectrum.

y(t) = x(t) + n(t)


J(t) → Señal que interfiere a la señal transmitida
Z T
EJ = J 2 (t)dt
0
r(t) = Si (t) + J(t)
Z T
Ui |si = Si (t)r(t)dt
0
Z T
= Esi + Si (t)J(t)dt
0
Z T "X n
#
= Esi + E Sik φk (t)J(t)dt
0 k=1

89
CAPÍTULO 3. TERCER PARCIAL

Es
Dado que: E[Ui ] = , entonces la varianza será:
D
= E[Ui2 |si ] − Es2
Z T 
2 2
= Es − EJ + E Si (t)J(t)dt
0
Es EJ Es EJ
= =
n n D
De donde:
Es n
·
EJ D
n Bss
Pero Gpp = = , en donde Gpp es la ganancia del proceso.
D BD

3.1.6.1. Probabilidad de Error de BPSK

r ! r ! r !
2Eb 2Eb 2Eb
Pe = Q =Q ≈Q
No No NJ + No
Potencia Recibida:
Sb = Eb Rb
s !
2Wc1 /Rb q 
Pe = Q =Q 2GppJ/Sb
J/Sb

3.1.6.2. Margen de Perturbación

10 log(J/Sb ) = 10 log(Gpp ) − 10 log(Eb /NJ )

Medida de capacidad de un sistema d[ara operar en presencia de interferencia.

3.1.6.3. Secuencia de Walls

Esta nos permite crear vectores ortogonales para poder utilizar CDMA.
" #
HN HN
H2N =
HN H˜N
En el caso de que se tenga que: " #
−1 −1
HN =
−1 1
Por lo tanto:  
−1 −1 −1 −1 ω0
 
−1 1 −1 1  ω1
H2N =
 

−1 −1 1 1 ω2
 
−1 1 1 −1 ω3

90
CAPÍTULO 3. TERCER PARCIAL

Los vectores generados deben cumplir siempre con tres principios:

1. La correlación cruzada debe ser de cero o muy pequeña.

2. La cantidad de unos y de ceros deber ser igual, en el caso de que no lo sean , el número
de unos puede exceder por uno al número total de ceros.

3. El producto punto entre ellos deber ser la unidad.

Se escoge en este caso el vector ω1


h i
ω1 = −1 1 −1 1

Se propone un mensaje a enviar:


h i
m1 = 1 −1 1

El mensaje a transmitir será:

1 -1 1
1 1 1 1 -1 -1 -1 -1 1 1 1 1
-1 1 -1 1 -1 1 -1 1 -1 1 -1 1 → chips
-1 1 -1 1 1 -1 1 -1 -1 1 -1 1

Ejercicios

En un sistema CDMA se usa spread spectrum de secuencia directa con un ancho de 10 kHz
y una ancho de dispersión de 10 MHz, se transmite solo una señal u se recibe una señal con
una relación señal a ruido (SNR) de 16 dB.

a. Si se requiere SN R + Io es de 10 dB, que cantidad de potencia de entrada se puede


usar para transmitir la banda para que no exista un rechazo en presencia de ruido.

b. Si la potencia de cada usuario se reduce en 3 dB ¿Cuántos usuarios con la misma


potencia pueden usar la banda?

c. Si se recibe una relación Eb /No → ∞ por cada receptor ¿Cuántos usuarios máximos
puede soportar la banda?

Solución

a.
Eb
= 16 dB
No
Wss 10 kHz

91
CAPÍTULO 3. TERCER PARCIAL

W = 10 M Hz
Wss 10 M Hz
Epp = = = 30 dB
W 10 kHz
Si se requiere una SN R + Io de 10 dB entonces:
1
= 10
1 1
+
Eb Eb
N0 Io
Reemplazando valores ya conocidos y despejando Eb /Io se tiene:
Eb
= 13,35 → 11,25 dB
Io
Se sabe que:
Eb S
= + Gpp
Io I
Por lo que:
S
= −18,75 dB = 0,0133
I
I
# de usuarios = + 1 = 76 usuarios
S
b.
Eb
= 16 − 3 = 13 → 19,9526 dB
No
1
= 10
1 1
+
19,95 Eb
Io
Reemplazando valores ya conocidos y despejando Eb /Io se tiene:
Eb
= 20,047 → 13 dB
Io
Eb S
= + Gpp
Io I
S
= −17 dB = 0,02
I
I
# de usuarios = + 1 = 51 usuarios
S
c.
Eb
→∞
No
Eb
= 10 → 10 dB
Io
Eb S
= + Gpp
Io I

92
CAPÍTULO 3. TERCER PARCIAL

S
= −20 dB = 0,01
I
I
# de usuarios = + 1 = 101 usuarios
S

Un sistema de spread spectrum es usada para eliminar el multitrayecto. Si la longitud del


camino de la onda de multitrayecto es 100 m más largo que la onda directa. ¿Cuál es la tasa
de chip mı́nima necesaria para rechazar la interferencia de multitrayecto?

Solución

100
T = = 3,33 · 10−7
3 · 108
Tasa de chip → (T )−1 = 30 M bps

En un sistema coherente de spread spectrum con BPSK está transmitiendo con una velocidad
de 10 kbps en presencia de una banda ancha de Jammer, asuma que el sistema no usa
codificación de canal, también asuma que la pérdida de propagación y el Jammer. Si la PIRE
del comunicador es 20 kW y el PIRE del Jammer es 60 kW, calcule el ancho de banda de
Spread Spectrum requerido para obtener una probabilidad de error de 10−5 .

Solución

1 2
Q(x) = √ e−x /2 = 10−5
x 2π
De donde: r
2Eb
x = 4,25 =
Io
Despejando:
Eb
= 9,031 → 9,56 dB
Io
Wss /W
9,031 = → W = 270,93 kHz
J/S

3.1.7. Demostración

N
Eb = STb ; No
W
S
Eb =
Rb
Eb S S W
= = ·
No No Rb N Rb

93
CAPÍTULO 3. TERCER PARCIAL

Tomando en cuenta que:


S 1
=
N M −1
Nos queda:
Eb 1 W
= ·
No M − 1 Rb
Donde M es el número de usuarios.

3.1.8. Sobrecarga

 
Eb 1 W 1
= ·
No M − 1 Rb 1+n
Pero:
1
F =
1+n
De donde:

F : Factor de reuso

n: Factor de sobrecarga

3.1.9. Sectorización

   
Eb 1 W 1 1
= · λ
No M − 1 Rb 1+n v
De donde: R 2π
I(θ)dθ
λ= 0 
R 2π G(θ)
0 I(θ)dθ
G(0)
Considerando que:

I(θ): Potencia de interferencia en la recepción

G(θ): Patrón de radiación de la antena horizontal

G(0): Pico de patrón de radiación

Ejercicio

Un sistema de comunicación binario transmite la misma señal por dos canales con diversidad.
Las 2 señales son:
p
r1 = ± Eb + n1
p
r2 = ± Eb + n2

94
CAPÍTULO 3. TERCER PARCIAL

Donde E[n1 ] = E[n2 ] = 0 y E[n21 ] = σn2 1 , E[n22 ] = σn2 2 , n1 y n2 son descorrelacionados y son
variables de tipo Gaussiano. El detector se basa en el empleo de un combinador lineal para
n1 y n2 como se indica
r = r1 + r2

Determinar el valor de k, a manera de minimizar la Probabilidad de error de bit.

Solución

Media

p p p
E[r] = ± Eb ± k Eb = (1 + k) Eb

Varianza

E[r2 ] = E[(r1 + kr2 )2 ]


= E[r12 ] + 2kE[r1 r2 ] + E[k 2 r22 ]
p p p p
= E[( Eb + n1 )2 ] + 2E[( Eb + n1 )(k Eb + kn2 )] + E[(k Eb + kn2 )2 ]
= Eb + σn2 1 + 2kEb + k 2 Eb + k 2 σn2 2
= Eb (1 + k)2 + σn2 1 + k 2 σn2 2

σr2 = Eb (1 + k)2 + σn2 1 + k 2 σn2 2 − (1 + k)2 Eb


= σn2 1 + k 2 σn2 2

Dado que la probabilidad de error se relaciona proporcionalmente con el valor de la media y


la varianza al cuadrado se considera lo siguiente:

m2 (1 + k)2 Eb
= = g(k)
σ2 σn2 1 + k 2 σn2 2

Derivando e igualando a cero

dg(k) 2(1 + k)Eb (σn2 1 + k 2 σn2 2 ) − 2kσn2 2 (1 + k)2 Eb


= =0
dk (σn2 1 + k 2 σn2 2 )2

Despejando k se obtiene el resultado para poder minimizar la probabilidad de error

σn2 1
k=
σn2 2

95

Você também pode gostar