Você está na página 1de 49

Capitulo 4

Modulación y Demodulación en Banda Pasante

4.1 ¿Porque Modulamos?

La modulación digital es el proceso por el cual los símbolos digitales son transformados a formas de
ondas que son compatibles con las características del canal. En el caso de modulación en banda
base, estas formas usualmente tienen la forma de pulsos. Pero en el caso de modulación en banda
pasante las formas de pulsos modulante es una senoidal llamada señal portadora, o simplemente
una portadora para transmisiones de radio la portadora es convertida a un campo electromagnético
(EM) para ser propagadas a los destinatarios deseados. Una buena pregunta seria si es necesario el
uso de una portadora en la transmisiones de señales en banda base. La respuesta esta a continuación.
La transmisión de un campo EM por el espacio esta acoplado por medio de una antena. El tamaño
de la antena depende de la longitud de onda λ y de la aplicación. Para telefonía celular, el tamaño de
la antena son típicamente de λ/4, donde la longitud de la onda es igual a c/f, y c, es la velocidad de
la luz, esta es 3*108 m/s. Consideremos que transmitimos una señal de banda base (diremos, f=3000
Hz) para acoplarla a una antena sin ninguna señal de portadora. ¿De que largo será la antena?
Tomaremos como referencia el tamaño usado por la industria telefonía que es de λ/4 como la
dimensión de la antena. Para la señal de banda base de 3000 Hz, λ/4 = 2.5 *104 m = 15 millas. Para
transmitir una señal de 3000 Hz atravez del espacio, sin modularla por medio de una señal
portadora, requeriremos para transmitirla una antena de 15 millas. Sin embargo, si la información
en banda base es primero modulada sobre una señal portadora de alta frecuencia, por ejemplo a 900
MHz de portadora, la longitud de la antena se nos hace de 8 cm. Por esta razon, las señales
portadoras o modulación en banda pasante es un paso esencial para todos los sistemas que
involucran transmisiones de radio.
La modulación en banda pasante puede proveer otros beneficios en la transmisión de señales. Si
mas de una señal utilizan un solo canal, la modulación puede ser usada para separar las diferentes
señales. Semejante técnica, conocida como multiplexión por división de frecuencia, es descripta en
el capitulo 11. La modulación puede ser usada para disminuir los efectos de interferencia. Un
ejemplo de estos tipos de esquemas, conocidos como modulación spread-spectrum, requiriendo un
ancho de banda mucho mayor que el minimo necesita para la transmisión del mensaje. Esta se vera
en el capitulo 12. La modulación puede tambien ser usada para ubicar una señal en una banda de
frecuencia según se requiera, donde los filtros y amplificadores, puedan ser fácilmente encontrados.
Este es el caso de las señales de radio frecuencia (RF) que son convertidas a una frecuencia
intermedia (IF) en el receptor.

4.2 Técnicas de Modulación Digital en Banda Pasante

La modulación en banda pasante (tanto en analógico como en digital) es el proceso por el cual una
señal de información es convertida a una forma de onda senoidal: para la modulación digital, cada
una de las sinusoidales de duración T estan referidas a un símbolo digital. La sinusoidal tiene rasgos
que pueden ser usados para distinguir a estas de otras sinusoidales: Amplitud, Frecuencia y Fase.
Así la modulación en banda pasante puede ser definido como el proceso por el cual la Amplitud,
Frecuencia o la fase de una portadora de RF o una combinación de estas, son variadas de acuerdo
con la información a transmitir. La forma general de la señal portadora es

s (t ) = A(t ) cosθ (t ) (4.1)


donde A(t) es la variación de la Amplitud en el tiempo y θ(t) es la variación en el tiempo del
angulo. Esta se a convenido escribir como

θ (t ) = ω 0 t + φ (t ) (4.2)
Así que
[
s (t ) = A(t ) cos ω 0 t + φ (t ) ] (4.3)

donde ω0 es la frecuencia angular de la portadora y φ(t) es la fase. Los terminos f y ω son los
usados para denotar la frecuencia. Cuando f es usado, la frecuencia es pensada en hertz; cuando ω
es usado, la frecuencia se mide en radianes por segundos. Los dos parámetros son relacionados por
ω=2πf.
Los tipos basicod de modulación y Demodulación en banda pasante son listados en la figura 4.1.
Cuando el receptor conoce las fases de las portadoras para detectar las señales, el proceso es
conocido como deteccion coherente; cuando los receptores no utilizan cada fase como referencia de
la información, el proceso es conocido como detección no coherente. En la comunicación digital,
los terminos demodulación y detección son a menudo usados intercambiados, aunque la
demodulación hace hincapié en la recuperación de la onda, y la detección vincula el proceso de
decisión de símbolos. En la detección coherente ideal, se dispone a recibir un prototipo de cada
posible señal arribada. Este prototipo de formas de ondas procura reproducir el set de señales
transmitidas en cada forma de onda respectiva, incluso la fase de RF.
El receptor se dice entonces que es de fase cerrada a la señal entrante. Durante la demodulación, el
receptor multiplica e integra (correlaciona) las señales entrantes con cada prototipo de replicas.
Dentro del titulo de la modulación/demodulación coherente en la figura 4.1 son listados la
modulación por cambio de fase (PSK), modulacion por cambio de frecuencia (FSK), modulacion
por cambio de amplitud (ASK), modulación de fase continua (CPM) y combinaciones híbridas. Los
formatos básicos de modulación en banda pasante son discutidos en este capitulo. Algunos formatos
especificos, como son los de desplazamiento en cuadratura de PSK (OQPSK), codificación por
cambio minimo (MSK) que pertenecen a la clase de los CPM y la modulación en cuadratura de
amplitud (QAM) son tratadas en el capitulo 9.
La demodulación no coherente se refiere a los sistemas que emplean demoduladores que son
designados para operar sin conocimiento del valor absoluto de las fases de las señales entrantes;
entonces, no se requiere la estimación de la fase. Asi la ventaja de los sistemas no coherentes sobre
los coherentes se reduce a complejidad y el precio que se tiene que pagar por esto es el incremento
de la probabilidad de error (PE). En la figura 4.1 los tipos de moduladores/demoduladores que son
listados en la columna no coherente, DPSK, FSK, ASK, CPM e híbridos, son similares a los de la
lista de los coherentes. Nosotros tomaremos que la información de fase no es usado en los sistemas
de recepción no coherentes.
4.2.1 Representación en fasor de una senoidal.

Usando una identidad trigonometrica bien conocida llamada teorema de Euler, introducimos la
notación compleja de una portadora sinusoidal como se muestra:

e jω 0t = cos ω 0 t + j senω 0 t (4.4)

Esta puede ser mas comoda que simple, más real que la notación cos ω0 o sen ω0. ¿Qué posibles
beneficios tiene la notación compleja? Nosotros veremos (en la seccion 4.6) que esta notación
fasilita nuestra descripción de cómo un modulador real y un demodulador son implementados. Por
ahora, dejaremos un punto de vista de los beneficios generales vistos de una señal portadora en la
forma compleja de la ecuación (4.4).
Primero, con esta forma compacta, ejωot, tiene contenida dos importantes componentes en cuadratura
de todas las señales de portadora sinusoidales, estas son las componentes en fase (real) y la en
cuadratura (imaginaria) que son ortogonales una de la otra. Segundo, la señal de portadora no
modulada es conveniente representada en forma de un sistema de coordenadas polar con un vector o
un fasor rotando en sentido contrario a de las agujas del reloj a una taza de ωo radianes/s, como se
describe en la figura 4.2. Cuando se incrementa el tiempo (desde t0 a t1) puede ser visualizado la
projeccion en la variación del tiempo de la rotación del fasor en el eje de la fase (I) y en el eje de la
cuadratura (Q). Estos ejes cartesianos son usualmente referidos como el canal I y el canal Q
respectivamente, y la proyección sobre estos representa las componentes de señales (ortogonales
entre si) asociados con estos canales.

Figura 4.2

Tercero, cuando llega el momento para modular la señal portadora con la información, podemos ver
a esta como una perturbación metodica de la rotación del fasor (y su proyeccion).
Por ejemplo, consideremos una señal portadora que esta modulada en amplitud (AM) sobre una
sinusoide que tiene una amplitud unitaria y una frecuencia ωm, donde ωm<<ωo. La forma analítica
de la onda transmitida es
  e jω mt e − jω mt 
s (t ) = Ree jω ot 1 + +  (4.5)
  2 2 

donde Re{x} es la parte real de la componente compleja. La figura 4.3 ilustra que la rotación de
fasor ejωot de la figura 4.2 es nuevamente perturbada por dos terminos de bandas laterales - ejωmt//2
rotando en sentido contrario al reloj y ejωmt/2 rotando en sentido horario. Los fasores de bandas
laterales son rotados a velocidades mucho mas lentas que el fasor de la señal portadora. El resultado
total de las señales compuestas es que la rotación del fasor de la señal portadora ahora parece que
crece su longitud y disminuye porcentualmente de acuerdo con las bandas laterales, pero la
frecuencia queda para este caso constante, en los terminos de la “Amplitud modulada”.
Otro ejemplo para reforzar el uso de los fasores vistos, es el caso de la frecuencia modulada (FM)
donde la señal portadora es una senoidal similar teniendo una frecuencia de ωm radianes/s. La
representación analítica de la FM de banda angosta (NFM) tiene una forma similar a la de la AM y
se representa por
  β β 
s (t ) = e jω 0t 1 − e − jω mt + e jω mt  (4.6)
  2 2 

Figura 4.3
Figura 4.4

Donde β es el indice de modulación [1]. La figura 4.4 muestra que la rotación del fasor de la señal
portadora esta ademas perturbado por dos terminos de bandas laterales, pero debido a que uno de
los terminos de bandas laterales llevan un signo menos en la ecuación (4.6), la rotación en sentido
horario y antihorario de los fasores de las bandas laterales tienen una diferente simetría que en el
caso de AM. En el caso de AM, las bandas laterales simétricas resultantes en el fasor de la señal
resultante crece en magnitud y disminuye en el tiempo. En NFM, las bandas laterales simétricas
resultantes (90º de diferencia con AM) en el fasor de la señal portadora aumentando su velocidad y
se retardan conforme va disminuyendo conforme mandan las bandas laterales, pero la amplitud
permanece esencialmente constante, tomando el nombre de “Frecuencia Modulada”.
La figura 4.5 ilustra ejemplos de las mayorías de las formas mas comunes de moduladores
digitales:PSK, FSK, ASK y una combinación híbrida de ASK y PSK (ASK/PSK o APK). La primer
columna representa las expresiones analíticas, la segunda muestra una ilustración tipica de la forma
de onda en el tiempo, y el tercero es un vector esquematico (o fasor), con los ejes ortogonales
etiquetados {ψ(t)}. En el caso general de señales M-ary, el proceso asepta K fuentres de bit (o
canales de bit si hay codificacion) a un tiempo e informa al modulador para producir una de las M =
2k tipos de conjuntos de formas de ondas disponibles. La modulación Binaria, donde k = 1, es
apenas un caso especial de la modulación M-ary.
En la figura 4.2, representamos la señal portadora como un fasor rotando en un plano a la velocidad
de la frecuencia de la señal portadora ω0 radianes/s. En la figura 4.5, el fasor esquematizado por
cada ejemplo de modulación digital representan una constelación de señales de información
(vectores o puntos en la señalización del espacio), donde el tiempo no es representado. En otras
palabras, el aspecto de constante rotación de la señal portadora no modulada tiene que ser
eliminado, y solo la producida por la pocision del fasor de información, relativa a una u otra, son
representadas. Cada ejemplo en la figura 4.5 usan un valor particular de M, tamaño del set.

4.2.2 Codificación por Cambio de Fase.

La codificación por cambio de fase (PSK) fue desarrollada durante los primeros dias del programa
de espacio profundo; PSK es ahora extensamente usada en los sistemas de comunicaciones
comerciales y militares. La expresión analítica general para PSK es

2E
s i (t ) = cos[ω 0 t + φ i (t )] 0≤t≤T (4.7)
T
i =1,...,M

Donde el termino de fase, φi(t), debera tener M valores discretos, típicamente mostrados por

2πi
φ i (t ) = i = 1,...,M
M
Para el ejemplo PSK binaria (BPSK) en la figura 4.5a, M es 2. el parámetro E es la energia del
símbolo, T es la duración del símbolo y 0 ≤ t ≤ T. En la modulación BPSK, la señal de datos
modulada cambia la fase de la forma de onda si(t) a uno de los dos estados cero o π (180º). La
forma de onda esquematizada en la figura 4.5a muestra una forma de onda BPSK tipica con
abruptos cambios de fase en los símbolos transmitidos, si el flujo de datos modulados consiste de
unos y ceros alternados, alli tendríamos cambios abruptos en cada transición. La forma de onda de
la señal será representado como un vector o fasor en una grafica polar; la longitud del vector
corresponde a la amplitud de la señal de fase relativa a las otras M-1 señales en el conjunto. Para los
ejemplos de BPSK, la grafica del vector ilustra los dos vectores opuestos por 180º. Los conjuntos
de señales pueden ser descriptos por tales vectores opuestos los cuales son conocidos como
Conjuntos de Señales Antipodal.

4.2.3 Codificación por Cambio de Frecuencia.

La expresión general para la modulación FSK es

2E
s i (t ) = cos(ω i t + φ ) 0≤t≤T (4.8)
T
i = 1,...,M

donde el termino de frecuencia ωi tiene M valores discretos y el termino de fase φ es una constante
arbitraria. La forma de onda de FSK bosquejado en la figura 4.5b ilustra los cambios de frecuencia
tipicos en cada transmisión de símbolos. En la transicion de símbolos, la figura describe un cambio
suave de una frecuencia (tono) a otra. Esta conducta es solo verdadero por una clase especial de
FSK llamada FSK de fase continua (CPFSK) que es descripta en la seccion 9.8. En el caso general
MFSK, los cambios para un diferente tono puede ser bastante abrupto, debido a que no hay
requerimiento de la fase para ser continua. En este ejemplo, M tiene que ser elegido igual 3,
correpondiendo a algunos numeros de tipos de formas de ondas (3-ary); notemos que estos M = 3
cambios de FSK tienen que ser seleccionados para enfatizar las mutuas perpendicularidades de los
ejes. En la practica, M es usualmente una potencia de 2 distinta de cero (2,4,8,16,...). El conjunto de
señales es caracterizado por coordenadas cartecianas, tal que cada uno de los ejes mutuamente
perpendiculares representan una sinusoidal con una frecuencia diferente. Como describimos
primero, los conjuntos de señales que pueden ser caracterizados por dos vectores mutuamente
perpendiculares son llamados señales ortogonales. No todas las señales FSK son ortogonales. Para
cualquier conjunto de señales ortogonales, debe encontrarse el criterio del conjunto de la ecuación
(3.69). Para un set de señales FSK, en el proceso de encontrar este criterio, una condicion surge
sobre el espaciamento entre los tonos en el set. El espaciamiento de frecuencia necesario entre tonos
para cumplir los requerimientos de ortogonalidad son discutidos en la seccion 4.5.4.

4.2.4 Codificación por Cambio de Amplitud.

Para la ASK mostrada en 4.5c, la expresión analítica general es

2 Ei (t )
s i (t ) = cos(ω 0 t + φ ) 0≤t≤T (4.9)
T
i = 1,...,M

donde el termino de amplitud 2 Ei (t ) / T puede tener M valores discretos y el termino de fase φ


es una constante arbitraria. En la figura 4.5c, M es igual a 2, correspondiendo a dos tipos de formas
de ondas. La formas de ondas ASK bosquejada en la figura puede describir una transmisión de
radar, donde los dos estados de amplitud de la señal pueden ser 2 E / T y cero. La figura vectorial
utiliza la mismas coordenadas polares fase-amplitud como en el ejemplo de PSK. Aquí veremos los
vectores correspondientes a los máximos estados de amplitud y un punto en el origen corresponde
al estado de amplitud cero. Las señales binarias ASK (tambien llamadas codificación on-off) fue
uno de las primeras formas de modulación digital usados en radios telégrafos a principios del siglo
pasado. Un simple ASK no es extensamente usado en los sistemas de comunicación digital y por
eso este no sera tratado en detalle aquí.

4.2.5 Codificación por Amplitud y Fase.

Para la combinación de ASK y PSK (APK) ejemplificado en la figura 4.5d, la expresión analítica
general es
2 Ei (t )
si (t ) = cos(ω 0 t + φ i (t )) 0≤t≤T (4.10)
T
i = 1,...,M

Ilustra la indexacion de ambas señales en terminos de amplitud y de fase. La forma de onda


ilustrada en la figura 4.5d muestra algunas cambios simultáneos de fase y amplitud en la
transmisión de símbolos en tiempo. Para este ejemplo, M tiene que ser elegido igual a 8,
correspondiendo a cada forma de onda (8-ary). La figura ilustra un hipotético conjunto de señales
de ocho vectores en el plano de amplitud-fase. Cuatro de los vectores tienen amplitud unitaria y los
otros 4 vectores son de una amplitud diferente. Cada uno de los vectores estan separados por 45º.
Cuando el conjunto de M símbolos en las señales espaciales de dos dimensiones son colocadas en
una constelación rectangular, la señalización esta referida a la modulación en cuadratura de
amplitud (QAM), ejemplos de estas son consideradas en el capitulo 9.
Los vectores graficados por cada uno de los tipos de modulación descriptos en la figura 4.5 (exepto
el caso de FSK) son caracterizado en un plano de coordenadas polares representando la señal en
amplitud y fase. En el caso de FSK asumimos la ortogonalidad de FSK (ver seccion 4.5.4) y estan
caracterizado en un espacio de coordenadas cartesianas, donde cada eje representa un tono de
frecuencia (cos ωit) del conjunto de M-ary de tonos ortogonales.

4.2.6 Coeficiente de Amplitud la Forma de Onda

El coeficiente de amplitud la forma de onda aparece en la eciuacion (4.7) a (4.10) tienen la misma
forma general de 2 E / T para todas las formas de modulación. La derivación de esta expresión se
inicia como
s (t ) = A cos ωt (4.11)

donde A es el valor máximo de la onda. Puesto que el valor máximo de una sinusoidal es igual a
2 veses el valor cuadrático medio (rms), puede ser escrito

s (t ) = 2 Arms cos ωt

s (t ) = 2 Arms
2
cos ωt

2
Asumimos que la forma de onda de la señal puede ser debida a voltaje o corriente, Arms representa
la potencia media P (normalizada a 1 Ω). Entonces puede ser escrito como

s (t ) = 2 P cos ωt (4.12)

Reemplazando P watts por E joule/T segundos, conseguiremos

2E
s (t ) = cos ωt (4.13)
T

debemos usar cada notación de amplitud A en la ecuación (4.11) o la designación 2 E / T en la


ecuación (4.13). Dado que la energia de la señal resibida es un parámetro importante en la
determinación de la performance de error del proceso de detección, esta es frecuentemente mas
conveniente para usar la notación de amplitud en la ecuación (4.13) debido a la facilidad de resolver
directamente la probabilidad de error PE como una funcion de la energia de la señal.

4.3 Detección de Señales en Ruido Gaussiano.

Los modelos de banda pasante de los procesos de deteccion esta virtualmente identificados para los
modelos de banda base considerados en el capitulo 3. Aquello es debido a que las formas de ondas
pasa banda recividas son primero transformada a una forma de onda banda base hasta que el paso
de detección final toma su lugar. Para los sistemas lineales, la matemática de detección esta
inalterada por un cambio en frecuencia. En verdad, podemos definir un teorema equivalente como
se muestra: La performance de un proceso de señales lineales pasa banda, seguido por el
heterodinaje de la señal a banda base produce el mismo resultado que la heterodinizacion de la señal
de banda pasante a banda base, seguido por un procesamiento de señales de banda base lineal. El
termino heterodinizacion se refiere a una conversión de frecuencia o un proceso mezclado que
produce un cambio espectral de la señal. Como un resultado de este teorema equivalente, todos los
procesos de señales lineales simultaneos pueden tomar lugar en banda base (este es preferido por
simplicidad), con el mismo resultado que en banda pasante. Estos significa que la performance de la
mayoria de los sistemas de comunicación digital a menudo pueden ser descriptos y analizados como
si el canal de transmisión esta en un canal de banda base.

4.3.1 Regiones de Decisión.

Concideremos que el espacio de señales en dos dimensiones en la figura 4.6 esta situada los
vectores prototipos de perturbación de ruido binarios (s1 + n) y (s2 + n). El vector ruido, n, es un
vector aleatorio de media cero; entonces el vector de la señal recibida, r, es un vector aleatorio con
media s1 o s2. La tarea del detector luego de recibir r es decidir cual de las señales (s1 o s2) fueron
transmitidas. El metodo es usual para decidir en la clasificacion de señales cual tiene la menor
expectativa de PE, aunque otras estategias son posibles [2]. Para el caso de que M sea igual a 2, con
s1 y s2 sera igualmente probable y con un la adicion de un proceso de ruido aditivo blanco Gausiano
(AWGN), veremos que la regla de decisión de minimo error es equivalente a elegir la clase de
señal tal que la distancia d(r,si) = || r-si|| sea minimizada, donde || x || es conocida como la normal o
la magnitud del vector x. Este regla esta a menudo expresada en términos de la región de decisión.
En la figura 4.6, construiremos la región de decisión en la manera mostrada. Marcaremos una linea
conectando las puntas de los vectores prototipos s1 y s2. Después, construimos un bisector
perpencdicular de la conexión de las líneas. Note que este bisector pasa a travez del origen del
espacio, si s1 y s2 que son iguales en amplitud. Para este ejemplo de M = 2, en la figura 4.6, la
contruccion del bisector perpendicular representa el sitio de puntos equidistantes entre s1 y s2, aquí,
el bisector describe el limite entre la region de decisión 1 y la region de decisión 2. la regla de la
decisión para el detector, expuesta en terminos de region de decisión, es como se describe: cuando
la señal recibida r esta localizada en la region 1, seleccionamos una señal s1; cuando esta está
localizada en la region 2, escogemos la señal s2.

Figura 4.6
En la figura 4.6, si el angulo θ es igual a 180º, entonces el conjunto de señales s1 y s2 representan
una BPSK.
Sin embargo, en esta figura, θ será intencionalmente escogida para ser menor que 180º en orden a
enfatizar la idea de la región de decisión en general.
4.3.2 Correlador del receptor.

En la sección 3.2 tratamos la detección de señales binarias en banda base con ruido Gausiano. Dado
que la detección de señales pasa banda emplea conceptos similares, debemos resumir los
importantes resultados de esta sección. Nuestro enfoque particular sobre la realización de un filtro
acoplado se conoce como un correlacionador. En adición para detección binaria, solo
consideraremos los casos mas generales de la detección M-ary. Asumimos que solo la degradación
de la performance es debido a AWGN. La señal recibida es la suma de las señales prototipos
transmitidas mas el ruido aleatorio:
r (t ) = si (t ) + n(t ) 0≤t≤T (4.14)
i = 1,...,M

Dada una señal resivida, el proceso de detección consiste de dos pasos básicos como se muestra en
la figura 3.1. En el primer paso, la forma de onda recibida, r(t), es reducida a una variable aleatoria
simple z(T), o a un conjunto de variables aleatorias zi(T) (i=1,...,M), formando a la salida del
demodulador y muestreada en los tiempos t = T, donde T es la duración del símbolo. En el segundo
paso, la decisión del símbolo es tomada sobre la base de la comparación de z(T) a un unbral o sobre
la elección básica del máximo zi(T). El paso 1 puede ser pensado como la transformación de la
forma de onda en un punto en el espacio de decisión. Este punto puede ser referido como un punto
de predeteccion, es el punto de referencia mas critico en el receptor. Cuando discutimos acerca de la
señal de potencia del receptor, o la potencia del ruido de interferencia recibido, o Nb/E0, estos
valores son siempre considerados en referencia a este punto de predetención. A veces tales
parámetros recibidos son descriptos débilmente con referencia a la entrada del receptor o la antena
receptora. Pero podemos describir en cada camino, hay una fundamental hipótesis de que no hay
perdida en la SNR o Nb/E0 entre estas entradas y el punto de predetención. En cada cada tiempo de
símbolos, la señal que es utilizada en el punto de predetención es una muestra de un pulso de banda
base. Todavía no tenemos bit. Este hecho hace que la energía por bit versus N0 esta definida como
un sitio donde los bit no son descubiertos por el lector como una paradoja? Actualmente, esto no es
así, debido a que este es un punto de referencia convenido, donde cada pulso banda base frente a las
decisiones de bit pueden ser considerados una representación eficaz de bits. El paso 2 puede ser
considerado como determinación en que región de decisión esta localizado el punto. Para que los
detectores pueden ser optimizados (en el sentido de minimizar la probabilidad de error), es
necesario optimizar la transformación de la forma de onda aleatoria variable, por el uso de un filtro
acoplado o correlador en el paso 1 y por la optimizacion del criterio de decisión en paso 2.
En la seccion 3.3.2 y 3.3.3 hallamos que el filtro acoplado nos da la máxima relacion señal a ruido
para la salida del filtro en el tiempo t = T. Describimos un correlador como una realización de un
filtro acoplado. Podemos definir un receptor correlador compuesto de M correladores, como se
muestra en la figura 4.7a, que transforma una forma de onda recivida, r(t), a una secuencia de M
numeros o salidas correlacionadas, zi(T)(i=1,...M). Cada salida del correlador esta caracterizada por
el siguiente integración del producto o correlación con la señal recibida:

T
z i (T ) = ∫ r (t ) si (t )dt i = 1,..., M (4.15)
0

La correlación intenta acoplar la señal recibida entrante, r(t), con cada una de las formas de ondas
de los prototipos candidatas, si(t), conocidas a priori por el receptor. Un regla razonable de decisión
es elegir la forma de onda, si(t), que acopla mejor o tenga la mayor correlacion con r(t). En otras
palabras, el regla de decisión es:
Escoger la si(t) cuyo indice (4.16)
corresponda a el máximo de zi(T)

Continuando con la ecuación (3.10), cualquier conjunto de señales, {si(t)}(i = 1,...,M), puede ser
expresado en terminos de algunos conjuntos de funciones bases, {ψj(t)}(j = 1,...,N), donde N ≤ M.
Entonces el banco de M correladores en la figura 4.7a puede ser remplazado por un banco de N
correladores, mostrados en la figura 4.7b, donde el set de las funciones bases {ψj(t)} forman señales
de referencia. La etapa de decisión de estos receptores consiste de un circuito lógico para elegir la
señal, si(t). La elección de si(t) esta hecha acorde al mejor acoplamiento de los coeficientes, aij,
vistos en la ecuación (3.10), con el conjunto de salidas {zj(T)}. Cuando el conjunto de formas de
ondas prototipos, {si(t)}, es un conjunto ortogonal, el receptor implementado en la figura 4.7a es
idéntico al de la figura 4.7b (difiriendo tal vez por un factor de escala). Sin embargo, cuando
{si(t)}no es un conjunto ortogonal, el receptor en la figura 4.7b, usara N correladores en lugar de M,
con señales referencias a las {ψj(t)}, pueden representar costo efectivo de implementación.
Nosotros examinamos una aplicación para la codificación por detección de cambios de fases
múltiples (MPSK) en la sección 4.4.3.
En el caso de la detección binaria, el receptor con correlador puede ser configurado como un simple
filtro acoplado o integración del producto, como se muestra en la figura 4.8a, con la señal referencia
dada por la diferencia entre las señales binarias prototipos, s1(t) – s2(t). La salida del correlador,
z(T), alimenta directamente a la etapa de decisión.
Para la detección binaria, el receptor correlador puede ser dibujado como dos filtros acoplados o
integración del producto, uno de los cuales esta acoplado a s1(t) y el otro a s2(t).(ver figura 4.8b)
La etapa de decion puede ser configurada para seguir la regla de la ecuación 4.16, o la salida del
correlador zi(T) (i = 1,2) que puede ser diferenciada por la forma

z (T ) = z1 (T ) − z 2 (T ) (4.17)

como se muestra en la figura 4.8b. Entonces, z(T), conocido como test estadístico, alimenta por la
etapa de decisión, como en el caso de un solo correlador. En la ausencia de ruido, una forma de
onda de entrada si(t) produce la salida z(T)=ai(T), una señal de una sola componente.

El ruido de entrada n(T) es un proceso aleatorio Gausiano. Dada que el correlador es un dispositivo
lineal, el ruido de salida es también un proceso aleatorio Gausiano [2]. Así, la salida del correlador,
muestrea a t = T, quedando

z (T ) = ai (T ) + n0 (T ) i = 1 , 2

donde n0(T) es la componente de ruido. Para reducir la notación a veces expresamos z(t) como ai +
n0. la componente de ruido n0 es una variable aleatoria de media cero y así z(T) es una variable
aleatoria Gausiana con una media a1 o a2, dependiendo de si se envió un uno o un cero binario.

4.3.2.1 Umbral de decisión Binaria.

Para las variables aleatorias z(T), figura 4.9 ilustra las dos condiciones de las funciones de densidad
de probabilidad (pdfs), p(z|s1) y p(z|s2), con un valor medio de a1 y a2, respectivamente. Estas pdfs,
tambien conocidas como la probabilidad de s1 y la probabilidad de s2, respectivamente, fueron
presentadas en la seccion 3.1.2, y son reescritas como

1  1  z − a 2 
p( z | s1 ) = exp −  1
  (4.18a)
σ0 2π  2  σ 0  
y
1  1 z−a 
2

p( z | s 2 ) = exp −  2
  (4.18b)
σ0 2π  2  σ 0  

donde σ 02 es la varianza del ruido. En la figura 4.9 la probabilidad de mas a la derecha p(z|s1)
ilustra la densidad de probabilidad a la salida del detector z(T), dado que s1(t) fue transmitido.
Similarmente, la probabilidad de mas a la izquierda p(z|s2) ilustra la densidad de probabilidad de
z(T), dado que s2(t) fue transmitida. La abscisa z(t) representa el rango completo de posibilidades de
los valores de muestras de salida del receptor correlador mostrado en la figura 4.8.
Con respecto a la optimizacion del umbral de decisión binaria para desidir en cual region una señal
recibida esta localizada, encontramos en la seccion 3.2.1 que el criterio de minimo error para
señales binarias igualmente probables corrompida por ruido Gausiano puede ser expresada como

H1
> a1 + a2
z (T ) =γ0 (4.19)
< 2
H2

donde a1 es la señal componente de z(T) cuando s1(t) es transmitida. El nivel de γ0 representados por
(a1+a2)/2 es el umbral optimo para minimizar la probabilidad de tomar una decisión incorrecta dada
señales igualmente probables y probabilidades simétricas. La regla de decisión en la ecuación (4.19)
fórmula la hipótesis de que H1 debe ser elegida [equivalente a decidir que la señal s1(t) fue enviada]
si z(T) > γ0, y la hipótesis H2 debe ser elegida [equivalente a decidir que señal s2(t) fue enviada] si
z(T) < γ0. Si z(T) = γ0 la decisión puede ser arbitraria. Para iguales energias, señales antipodal
igualmente probables, donde s1(t) = -s2(t) y a1 = a2, la regla optima de decisión será:

H1
>
z (T ) =0 (4.20a)
<
H2

o
decide s1(t) si z1(T) > z2(T) (4.20b)
decide s2(t) caso contrario
4.4 Detección Coherente.

4.4.1 Detección Coherente de PSK.

El detector mostrada en la figura 4.7 puede ser usado para la detección coherente de una forma de
onda digital. Tal detector correlacionado es a menudo referido como un detector de máxima
probabilidad. Consideremos el siguiente ejemplo de PSK binario (BPSK):

2E
s1 (t ) = cos(ω 0 t + φ i ) 0≤t ≤T (4.21a)
T

2E
s 2 (t ) = cos(ω 0 t + φ i + π )
T

2E
=− cos(ω 0 t + φ i ) 0≤t ≤T (4.21b)
T
y
n(t)=proceso aleatorio blanco Gaussiano con media cero

Donde el termino de fase φ es una constante arbitraria, dado que el análisis esta inalterado por el
seteo φ = 0. El parámetro E es la energía de la señal por símbolo y T es la duración del símbolo.
Para este caso antipodal, solo una función base es necesaria. Si un espacio de señal ortogonal es
asumida en la ecuación (3.10) y (3.11) (Kj=1), pudiendo expresarse una función báse de ψ1(t) como
2
ψ 1 (t ) = cos ω 0 t para 0 ≤ t ≤ T (4.22)
T

de esta manera, podemos expresar la señal transmitida si(t) en términos de ψ1(t) y los coeficientes
ai1(t) como siguen:

s i (t ) = ai1ψ 1 (t ) (4.23a)
s1 (t ) = a11ψ 1 (t ) = Eψ 1 (t ) (4.23b)
s 2 (t ) = a 21ψ 1 (t ) = − Eψ 1 (t ) (4.23c)

Asumimos que s1(t) fue transmitida. Entonces el valor expresado de los productos integrados en la
figura 4.7b, con la señal de referencia ψ1(t), son halladas como

T 
E{z1 | s1 } = E ∫ Eψ 12 (t ) + n(t )ψ 1 (t )dt  (4.24a)
 0 

T 
E{z 2 | s1 } = E ∫ − Eψ 12 (t ) + n(t )ψ 1 (t )dt  (4.24b)
 0 
T 2 2 
E{z1 | s1 } = E ∫ E cos 2 ω 0 t + n(t ) cos ω 0 tdt  = E (4.25a)
 0 T T 
y
T 2 2 
E{z 2 | s1 } = E ∫ − E cos 2 ω 0 t + n(t ) cos ω 0 tdt  = − E (4.25b)
 0 T T 

Donde E{·} muestra el conjunto promedio, referido al valor esperado. La ecuación (4.25) se realiza
dado que E{n(t)}=0. La etapa de decisión debe decidir que señal ha sido transmitida para
determinar la posición de esta dentro del espacio de la señal. Para estos ejemplos, la opción de
ψ1(t)= 2 / T cos ω0t normaliza a E{zi(t)} para ser ± E . Las señales prototipo [si(t)] son las
mismas que señales referencias {ψj(t)} excepto por el factor de escala normalizado. La etapa de
decisión elige la señal con el mayor valor de zi(T). Entonces, la señal recibida en este ejemplo es
juzgada para ser s1(t). El desempeño del error de cada detector coherente de los sistemas BPSK son
tratadas en la sección 4.7.1.

4.4.2 Filtro Acoplado Muestreador

En la sección 3.2.2 discutimos las características básicas de los conocidos filtros acoplados, que su
respuesta al impilso es una versión retardada de la imagen espejo (rotando en el eje t = 0) de la
forma de onda de la señal de entrada. Por eso, si la forma de onda de la señal es s(t), la imagen
espejo es s(-t) y la imagen espejo esta retardada por T segundos siendo s(T-t). La respuesta al
impulso h(t) de un filtro acoplado para s(t) esta descripta por

 s (T − t ) 0≤t ≤T
h(t ) =  (4.26)
0 c.c.

La figura 4.7 y 4.8 muestran la función básica de un correlador producto-integrado de la señal


recibida con ruido con cada una de las señales de referencia candidatas y determina la mas similar.
El esquema en esta figura implica el uso de hardware analógico (multiplicadores e integradores) y
señales continuas. Estas no reflejan la forma que los correladores o los filtros acoplados (MF)
pueden ser implementados usando técnicas digitales y formas de ondas muestreadas. La figura 4.10
muestra como un MF puede ser implementado usando hardware digital. La señal de entrada r(t)
comprende una señal prototipo si(t), además de ruido n(t) y el ancho de banda de la señal es W =
1/2T, donde T es el tiempo del símbolo. Por eso, la mínima taza de muestreo de Nyquist es
fs=2W=1/T y el tiempo de muestreo Ts necesita ser menor o igual al tiempo de símbolo. En otras
palabras, debe haber al menos una muestra por símbolo. En los sistemas reales, tales muestreos son
usualmente ejecutados a una taza que excede el mínimo de Nyquist por un factor de 4 o más. El
único costo es la velocidad de procesamiento, no en el ancho de banda transmitido. A un reloj de
tiempo de t = Ts k, las muestras son cambiadas en los registros (como mostramos en la figura 4.10a)
para que las primeras muestras sean localizadas a la derecha de la ultima muestra. Una vez que la
señal se recibe tiene que ser muestreada, el tiempo continuo denotado por t es cambiado a kTs o
simplemente a k para luego ser usada en una simple notación discreta

r ( k ) = s i ( k ) + n( k ) i = 1,2 k = 0,1,....
Figura 4.10
Donde el índice i identifica un símbolo particular de salida del conjunto de M-ary (binario en este
ejemplo) y k es el índice de tiempo de muestreo. En la figura 4.10, el cambio de registro con estos
coeficientes o peso ci(n) aproxima un MF, donde n = 0,...,N-1 son los índices de los pesos y las
etapas de registros. En este ejemplo, N=4 representa el numero de etapas en los registros y el
numero de muestras por símbolos. Aquí, la sumatoria mostrada en la figura toma lugar sobre los
tiempos n = 0 a n = 3. Después de la sumatoria, una decisión del símbolo será hecha después de 4
tiempos de muestreo teniendo el registro lleno. Note que por simplicidad, el ejemplo en la figura
4.10b usa solo 3 niveles de valores de amplitud (0,±1) para las si(k) muestras. En los sistemas
reales, cada muestra (y peso) puede ser representado por 6-10 bits dependiendo de la densidad de la
constelación de la señal. El conjunto de los pesos del filtros {ci(n)} constituyen la respuesta al
impulso del filtro; los pesos son acoplados a las señales muestreadas acorde a las formas discretas
de la cuación (4.26), como sigue:
ci (n) = s i [( N − 1) − n] = si (3 − n) (4.27)

Para usar la forma discreta de la integral de combolución en la ecuación (A.44b), la salida a un


tiempo correspondiente a las kth muestras puede ser expresado como
N −1
z i ( k ) = ∑ r ( k − n ) ci ( n ) k = 0,1,..., mod ulo − N (4.28)
0

Donde x modulo-y esta definida como el resto de la división de x por y, el índice k representa el
tiempo para ambas muestras recibidas y filtradas a la salida, y n es un tiempo variable de silencio.
En la expresión r(k-n) de la ecuación (4.28), esta es útil para pensar a n como la “edad” de las
muestras (cómo la longitud que tiene que ser montada en el filtro). En la expresión ci(n), esta es útil
para pensar a las n como las direcciones de los pesos. Asumiremos que debido a que los sistemas
están sincronizados, el timing del símbolo es conocido. Tambien asumimos que el símbolo tiene
media cero, así que el valor esperado de una muestra recibida es

E{r (k )} = si (k ) i = 1,2

entonces, si si(t) es transmitida, la salida esperada del filtro acoplado es

N −1
E{z i (k )} = ∑ si (k − n)ci (n) k = 0,1,..., mod ulo − N (4.29)
0

En la figura 4.10b, donde las formas de ondas prototipos son graficadas como una función de
tiempo, veremos que la muestra mas a la izquierda (amplitud igual a +1) de la s1(t) graficada
representa la primera muestra al tiempo k = 0. Asumiendo que s1(t) fue transmitida y el ruido se
omitió para simplificar la notación, entonces denotaremos las muestras recibidas de r(k) como s1(k).
Como estas muestras completan las etapas del MF, al final de cada tiempo de símbolo, la muestra
en k = 0 esta localizada en el mas ala derecha del registro. En la ecuación (4.28) y (4.29), notamos
que los índices de tiempo n de los peso de referencia están en orden inverso comparados con los
tiempos de los índices k – n de las muestras, lo cual es un importante aspecto de la integral de
convolución. El hecho de que la primer muestra ahora corresponda a los pesos de mas a la derecha
aseguraran una correlación significante. Incluso aunque describiéramos el operador matemático de
un MF para hacer la combolución de una señal con la respuesta al impulso del filtro, la apariencia
del resultado final es hacer la correlación de una señal con una replica de la misma señal. Esta es
porque es valido para describir un correlador como una implementación de un filtro acoplado.
En la figura 4.10b, la detección sera en los MF de una manera usual. Para la decisión binaria, las
salidas zi(k) son examinadas a cada valor de k = N-1 correspondiendo al final de cada símbolo. Bajo
la condición que s1(t) tendrá que ser transmitida y el ruido se ha omitido, combinamos la ecuación
(4.27) con la (4.29) para expresar la salida correlacionada en los tiempos k = N-1 = 3 como

3
z1 (k = 3) = ∑ s1 (3 − n)c1 (n) = 2 (4.30a)
0
y
3
z 2 (k = 3) = ∑ s1 (3 − n)c 2 (n) = −2 (4.30b)
0

Puesto que z1(k=3) es mayor que z2(k=3), el detector elige s1(t) como el símbolo transmitido.
Una buena pregunta, “cuál es la diferencia entre el Mf de la figura 4.10b y el correlador en la figura
4.8?” En el caso del MF, un nuevo valor de salida esta disponible en respuesta a cada nueva entrada
muestreada: entonces las salidas serán una serie de tiempos tal como las salidas del MF como se ve
en la figura 3.7b (una sucesión de incremantos positivos y negativos correlacionados a una señal
seno de entrada). Como una secuencia de salida de un MF puede ser igualada a varias operaciones
de correlación a diferentes puntos de partida de la serie de tiempos de entrada. Note que un
correlador solo computa una salida una vez por tiempo de símbolo, como uno de los valores de los
máximos de las señales al tiempo T en la figura 3.7b. Si el timing del MF y el correlador son
alineados, entonces todas las salidas al final de un tiempo de símbolos tienen que ser idénticas. Una
importante diferencia entre los MF y los correladores son que un correlador producen un valor
simple de salida por símbolo, debiendo tener que dejar de lado información, tal como los tiempos de
inicio y de final sobre los productos de integración que deben tomar su lugar. Si hay errores de
timing en el correlador, entonces las muestras de salida que alimentan al detector podrían ser muy
degradada. Por otro lado, como el MF produce una serie de tiempos de valores de salida, entonces
con el uso de un circuito adicional, el mejor tiempo para muestrear la salida del MF puede ser
instruido.

4.4.3 Detección Coherente de MPSK

La figura 4.11 ilustra el espacio de un conjunto de señales MPSK, la figura descripta por 4 niveles
(4-ary) PSK o codificación por cambio en cuadratura de fase (QPSK) ejemplificado por (M = 4). En
el transmisor, los dígitos binarios son reunidos de a dos en un tiempo, y para cada intervalo de
símbolos, la secuencia de dos dígitos informa al modulador cual de las cuatro formas de ondas se
transmitirá. Para Los sistemas PSK típico coherente M-ary (MPSK), si(t) puede ser expresado como

2E  2πi 
s i (t ) = cos ω 0 t −  0≤t ≤T i = 1,..., M (4.31)
T  M 

Donde E es la energía recibida de tales formas de ondas en cada duración del símbolo T, y ω0 es la
frecuencia de la portadora. Si un espacio de señal ortogonal es asumida en la ecuación (3.10) y
(3.11), podemos escoger un conjunto conveniente de ejes, tales como
2
ψ 1 (t ) = cos ω 0 t (4.32a)
T

y
2
ψ 2 (t ) = senω 0 t (4.32b)
T

Figura 4.11
Donde la amplitud 2 / T tiene que ser elegidos para normalizar la salida esperada del detector,
como fue hecho en la sección 4.4.1. Ahora si(t) puede ser escrita en términos de esta coordenadas
ortonormales, como

s i (t ) = ai1ψ 1 (t ) + ai 2ψ 2 (t ) 0≤t≤T (4.33a)


i=1,...,M

 2πi   2πi 
= E cos ψ 1 (t ) + E sen ψ 2 (t ) (4.33b)
M  M 

Note que la ecuación (4.33) describe un conjunto de M formas de ondas de múltiple fase
(intrínsecamente no ortogonales) en términos de solo dos componentes de señales portadoras
ortogonales. El caso en que M = 4 (QPSK) es un caso único entre los conjuntos de señales MPSK
en el sentido de que el conjunto de formas de ondas QPSK están representados por una
combinación de miembros ortogonales y antipodales. La decisión del limite de la partición del
espacio de señales en M = 4 regiones; la construcción es similar a la producida en el entorno en la
sección 4.3.1 y la figura 4.6 para M = 2. La regla de decisión para los detectores (ver figura 4.11)
esta para decidir que s1(t) fue transmitida si el vector de señal recibida cayo sobre la región 1, que
s2(t) fue transmitida si el vector de señal recibida cayo sobre la región 2, y así sucesivamente. En
otras palabras, la regla de decisión es el de elegir la forma de onda ith si zi(t) es la salida mas grande
del correlador (ver figura 4.7).
La forma de los correladores mostrados en la figura 4.7a implica que son siempre M productos
correlacionados usados para la demodulación de señales de MPSK. De la figura deducimos que
cada una de los M ramas, una señal de referencia con el cambio de fase apropiado es configurado.

En la practica, la implementación de un demodulador MPSK mostrado en la figura 4.7b, requiere


solo N = 2 productos integradores sin tener en cuenta el tamaño M del conjunto de las señales. El
ahorro en implementación es posible debido a que cualquier arbitrario conjunto de señales
integradas pueden ser expresados como una combinación lineal de formas de ondas ortogonales,
como se muestra en la sección 3.1.3. La figura ilustra tales demoduladores. La señal recibida r(t)
puede ser expresada al combinar las ecuaciones (4.32) y (4.33) como

2E
r (t ) = (cos φ i cos ω i t + senφ i senω i t ) + n(t ) 0≤t≤T (4.34)
T
i = 1,...,M

Donde φi=2πi/M y n(t) es un proceso de ruido blanco Gausiano de media cero. Nótese en la figura
4.12 hay solo dos formas de ondas de referencia o funciones báses, ψ1(t)= 2 / T cosω0t para el
correlador superior y ψ2(t)= 2 / T sen ω0t para el correlador inferior. El calculo del correlador
superior es

T
X = ∫ r (t )ψ 1 (t )dt (4.35)
0

y el calculo del correlador inferior


T
Y = ∫ r (t )ψ 2 (t )dt (4.36)
0

La figura 4.13 ilustra que los cómputos de los ángulos de fase recibidas φˆ pueden ser cumplidos
por el calculo del arco tangente de X/Y, donde X puede ser pensado como los componentes en fase
de la señal recibida, Y es la componente en cuadratura y φˆ es un ruido estimado del transmitido φi.

En otras palabras, el correlador superior de la figura 4.12 produce una salida X, la magnitud de la
proyección en fase del vector r, y el correlador inferior produce una salida Y, la magnitud de la
proyección en cuadratura del vector r, donde r es la representación del vector r(t). Las salidas X e Y
de los correladores alimentan la entrada del bloque señalado como arco tangente (Y/X). El valor
resultante del ángulo φˆ es comparado con cada ángulo de fase prototipo, φi. El demodulador
selecciona la φi que este cercano al ángulo φˆ . En otras palabras, el demodulador calcula |φi- φˆ | para
cada prototipo φi y escoge el φi produciendo la mínima salida.

4.4.4 Detección Coherente de FSK.

La FSK se caracteriza porque la información se contiene en la frecuencia de la portadora. Un


conjunto típico de señales de forma FSK son descriptas en la ecuación (4.8) como

2E
s i (t ) = cos(ω i t + φ ) 0≤t≤T
T
i = 1,...,M

Donde E es la energía contenida en si(t) sobre cada símbolo de duración T y (ωi+1-ωi) son
típicamente asumidos para ser un múltiplo integral de π/T. El termino de fase φ es una constante
arbitraria y puede ser seteado igual a cero. Asumimos que la función báses ψ1(t), ψ2(t),..., ψN(t)
forman un conjunto ortonornal, la forma más usada por {ψj(t)} es

2
ψ j (t ) = cos ω j t j = 1,..., N (4.37)
T
Donde, como antes, la amplitud 2 / T normalizada de la salida esperada del filtro acoplado,
donde la ecuación (3.11) puede ser escrita como

T
2E 2
aij = ∫ cos(ω i t ) cos ω j t dt (4.38)
0
T T
Entonces
 E para i = j
aij =  (4.39)
0 caso contrario

En otras palabras, el vector de señal prototipo ith esta localizado sobre la coordenada ith del eje en
un desplazamiento E desde el origen del espacio de señal. En este esquema, para el caso general
M-ary y un dado E, la distancia entre cualquiera de dos vectores de señal prototipos si y sj consta:

d ( si , s j ) = si − s j = 2 E para i ≠ j (4.40)

La figura 4.14 muestra los vectores de señales prototipos y las regiones de decisiones para 3-ary
(M=3) para detección coherente del esquema de señales FSK. Una elección natural para el tamaño
de M de un conjunto de señales es algún valor de potencia de dos. A veces en estos casos, la razón
para una selección poco ortodoxa de M = 3, son: Deseamos para examinar un conjunto de señales
que sea mayor que el binario y la señalización espacial para señales ortogonales esta mejor
visualizado por tener eje mutuamente perpendiculares. Esto no es posible, mas halla de tres eje, para
comunicar la idea de mutua perpendicularidad en alguna manera de visualización exacta. Como en
el caso de PSK, la señal espacial esta particionada en M regiones, cada una de las cuales contiene
un vector prototipo de señal; En este ejemplo, debido a que la región de decisión es tridimensional,
las decisiones limites son en otros planos de líneas. La regla de decisión optima es para decidir que
la señal transmitida corresponde a las clases cuyo índice corresponde a la región donde se halla la
señal recibida.
En la figura 4.14, un vector de la señal recibida r es mostrada en la región 2. usando la regla de
decisión sobre la etapa, el detector clasifica a r como la señal s2. Dado que el ruido es un vector
aleatorio Gaussiano, hay una probabilidad mayor que cero de que r pudo producirse por otra señal
que no sea s2. Por ejemplo, si el transmisor ha envíado s2, entonces r habría de ser la suma de la
señal más el ruido, s2 + na, y la decisión de escoger s2 es correcta; sin embargo, si el transmisor esta
enviando actualmente s3, entonces r puede ser la suma de la señal mas el ruido, s3 + nb, y la decisión
de elegir s2 es un error. La performance del error de los sistemas FSK de detección coherente son
tratadas en la sección 4.7.3.

4.5 Detección no coherente.

4.5.1 Detección Diferencial de PSK.

El nombre diferencial PSK (DPSK) a veces necesita ser aclarada debido a que dos aspectos
separados de formateo de modulación/ demodulación son referidas a: el procedimiento de
codificación y el proceso de detección. El termino codificación diferencial se refiere al proceso de
codificación de los datos diferencialmente; Esto es, la presencia de un uno o un cero binario el cual
esta manifestado por los símbolos similares o diferentes cuando lo comparamos con el símbolo
precedente. El termino detección diferencial coherente de codificación diferencial PSK, denotado
habitualmente por DPSK, se refiere a un esquema de detección frecuentemente clasificado como no
coherente debido a que esta no requiere una referencia en fase con la portadora recibida. Esta será
discutida en la sección 4.7.2.
Con sistemas no coherentes, ningún esfuerzo es realizado para determinar el valor actual de la fase
de la señal decodificada. Entonces, si la forma de onda transmitida es

2E
s i (t ) = cos(ω 0 t + θ i (t )) 0≤t ≤T
T
i = 1,..., M

la señal recibida puede ser caracterizada por

2E
r (t ) = cos(ω 0 t + θ i (t ) + α ) + n(t ) 0≤t ≤T
T (4.41)
i = 1,..., M

Donde α es una constante arbitraria y es típicamente tomada para ser una variable aleatoria con
distribución uniforme entre cero y 2π y n(t) es un proceso AWGN.
Para la detección coherente, los filtros acoplados (o sus equivalencias) son usados; para detección
no coherente, esto no es posible debido a que la salida del filtro acoplado es una función del ángulo
α desconocido. A veces, si asumimos que α varia relativamente lento para dos periodos de tiempo
(2T), la diferencia de fase entre dos formas de ondas sucesivas θj(T1) y θk(T2) son independientes de
α, esto es,

[θ k (T2 ) + α ] − [θ j (T1 ) + α ] = θ k (T2 ) − θ j (T1 ) = φ i (T2 ) (4.42)

La base de la detección diferencial coherente de un DPSK es como sigue. La fase de la portadora


del intervalo de señales previas puede ser usado como una fase de referencia por el demodulador.
Este uso requiere codificación diferencial de la secuencia del mensaje en el transmisor ya que la
información es llevada por la diferencia de fase entre dos formas de ondas sucesivas. Para enviar el
mensaje i (i=1, 2, ..., M), la presente forma de onda de la señal debe tener su fase adelantada por
φi=2πi/M radianes sobre la forma de onda previa. El detector, en general, calcula las coordenadas de
la señal decodificada por los correladores por la forma de onda generada, como 2 / T cos ω0t y
2 / T sen ω0t, el detector mide entonces el ángulo entre el vector de señal recibida actualmente y
el vector de la señal recibida previamente, como se ve en la figura 4.16.
En general, la performance de las señales DPSK es de menor eficiencia que la PSK, debido a que el
error en DPSK tendera a propagarse (para los símbolos adyacentes en el tiempo) debido a la
correlación entre las señales. Una forma de ver las diferencias entre PSK y DPSK es que la forma
de comparar las señales recibidas con una referencia pura; en el final, a veces, dos señales de ruido
son comparadas entre sí.
Podemos decir que es el doble el ruido asociado con las señales DPSK comparadas a las señales
PSK. En consecuencia, como una primera suposición, podemos estimar que la probabilidad de error
para DPSK es aproximadamente en dos tiempos (3 dB) peor que PSK; Esta degradación decrece
rápidamente con el incremento de la relación señal-ruido. El “costo” (trade-off) para esta perdida de
performance es reducir la complejidad del sistema. La performance de error para la detección
DPSK es tratada en la sección 4.7.5.

4.5.2 Ejemplo de PSK Diferencial Binaria.

La esencia de la detección diferencial coherente en DPSK es que la identidad de las datos son
deducidos de los cambios de fase de símbolos a símbolos. Entonces, debido a que los datos son
detectados por diferencias, al examinar las formas de las ondas, la forma de ondas transmitidas debe
primero ser codificada en una forma diferenciada. La figura 4.17a muestra una codificación
diferencial de un flujo de mensajes de datos binarios m(k), donde el índice k es la muestra en el
tiempo. El comienzo de la codificación diferencial (la tercer fila en la figura) con el primer bit de la
secuencia de códigos de bit c(k=0), escogido rbitrariamente (aquí tomamos que es un uno).
Entonces la secuencia de los bit de codificación c(k) puede, en general, ser codificado de una de las
dos formas:

c(k ) = c(k − 1) ⊕ m(k ) (4.43)


o
c(k ) = c(k − 1) ⊕ m(k ) (4.44)

Donde el símbolo ⊕ representa la suma en modulo 2 (definida en la sección 2.9.3) y la raya denota
el complemento. En la figura 4.17a la codificación diferencial del mensaje puede obtenerse por el
uso de la ecuación (4.44). En otras palabras, el presente código de bit c(k) es uno si el mensaje de
bit m(k) y el código de bit anterior c(k-1) son los mismos, caso contrario, c(k) es cero. La cuarta fila
interpreta la secuencia de códigos de bit c(k) en la secuencia de cambio de fase θ(k), donde un uno
es caracterizado por un cambio de fase de 180º y un cero es caracterizado por un cambio de 0º.
La figura 4.17b vemos el esquema de un detector binario DPSK esquematizado en forma de un
diagrama de bloques. Note que la integral del producto básico de la figura 4.7 es la esencia del
demodulador; como con la coherente PSK, todavía estamos intentando correlacionar la señal
recibida con la referencia. La importante diferencia aquí es que la señal de referencia es
simplemente una versión retardada de la señal recibida. En otras palabras, durante cada tiempo de
símbolos, estamos acoplando un símbolo recibido con el símbolo anterior y miramos si están
correlacionados o anticorrelacionados (180º fuera de fase).
Consideremos la señal recibida como una secuencia de fase cambiada θ(k) introducida al correlador
de la figura 4.17b, en la ausencia de ruido. La fase θ(k=1) es acoplada con θ(k=0), ellos tienen el
mismo valor, π; ahora el primer bit de la salida del detector es m(k=1)=1. Entonces θ(k=2) es
acoplada con θ(k=1); otra vez tiene el mismo valor y m(k=2)=1. Después θ(k=3) es acoplada con
θ(k=2); ellos son diferentes, de manera que m(k=3)=0, y así sucesivamente.

Figura 4.17

Esta debe señalar que a la salida del detector en la figura 4.17b es casi optima [3] en el sentida de la
performance de error. La detección diferencial optima para DPSK requiere una portadora en
frecuencia pero no necesariamente en fase con la portadora recibida. Ahora el detector diferencial
optimo es mostrado en la figura 4.17c, la señal de referencia es mostrada en forma compleja
jω t
( 2 / T e 0 ) para indicar que usa una interpretación en cuadratura de ambas referencias I y Q son
requeridas (ver sección 4.6.1).

4.5.3 Detección no Coherente de FSK.

Un detector de detección no coherente de formas de ondas FSK descriptas por la ecuación (4.8)
puede ser implementados por similares correladores para aquella mostrada en la figura 4.7. A veces,
el hardware debe ser configurado como un detector de energía, sin aprovechar las medidas de fase.
Por esta razón, la típica detección no coherente requiere el doble de ramas del canal como el
detector coherente. La figura 4.18 ilustra los canales en fase (I) y en cuadratura (Q) usados para
detectar un conjunto de señales binarias no coherentes (BFSK).Note que las dos secciones
superiores son configuradas para detectar la señal con frecuencia ω1; las señales de referencia son
2 / T cos ω 1t para la sección I y 2 / T senω 1t para la sección Q. De forma similar, los dos
caminos inferiores son configurados para detectar las señales con frecuencia ω2, las señales de
referencia son 2 / T cos ω 2 t para la sección I y2 / T senω 2t para la sección Q. Imagine que la
señal recibida r(t), por casualidad, es exactamente de la forma cos ω 1t + n(t ) ; que es, la fase es
exactamente cero y así las componentes de las señales recibidas son exactamente iguales en los
caminos superiores con las señales de referencia en comparación con la frecuencia y la fase. En este
caso, el producto integrado del camino superior producirá la máxima salida. El segundo camino
producirá una salida cercana a cero (integrando el ruido de media cero), dado que esta señal de
referencia 2 / T senω1t es ortogonal a la componente de la señal de r(t).

Para Señales ortogonales (ver sección 4.5.4), la tercera y cuarta sección deben tener una salida
cercana a cero; dado que las señales de referencia son ortogonales a las componentes de las señales
r(t). Ahora imaginemos un escenario diferente: supongamos que solo por casualidad, la señal
recibida r(t) es de la forma senω 1t + n(t ) . En este caso, el segundo camino en la figura 4.18 tiene
una salida máxima, mientras que las otras salidas son aproximadamente cero. En la practica, el
escenario más probable es que r(t) sea de la forma cos(ω 1t + φ ) + n(t ) ; Eso es, la señal entrante
será parcialmente correlacionada con la referencia cos ω 1t y parcialmente correlacionada con
senω 1t . Aquí un detector no coherente en cuadratura para señales ortogonales requiere una rama I
y Q para cada señal candidata en el conjunto de señales. En la figura 4.18, los bloques siguientes al
integrador realizan una operación cuadrada para prevenir la aparición de un valor negativo.
Entonces para cada clase de señales en el conjunto (dos para este ejemplo), z12 para el canal I y z 22
para el canal Q son sumadas. La etapa final forma la prueba estadística z(T) y elige la señal con
frecuencia ω1 o la señal con frecuencia ω2, dependiendo en que parte el detector de energía produjo
la salida máxima.
Otra posible implementación para la detección FSK no coherente es el uso de filtros pasa banda
centrados a f i = ωi / 2π con ancho de banda wf= 1/T formado por los detectores de envolvente
como se muestra en la figura 4.19. Un detector de envolvente consiste de un rectificador y un filtro
pasa bajo. Los detectores son acoplados a las señales envolventes y no a ellas mismas. La fase de la
portadora no es de importancia en la definición de la envolvente; aquí la fase de la portadora no es
usada. En el caso de FSK binario, la decisión de que si un uno o un cero será transmitido es hecha
en la bases de cual de los dos detectores de envolvente tienen la mayor amplitud al momento de
medir. Similarmente, para un sistema de codificación por cambio de multi frecuencia (MFSK), la
decisión de cual de las M señales fueron transmitidas están hechos sobre cual de los M detectores
tienen la máxima salida.
Incluso aunque el detector de envolvente del diagrama bloques de la figura 4.19 parece funcionar
mas simplemente que el receptor en cuadratura mostrado en la figura 4.18, el uso de filtros
(analógicos) ususalmente resultan en el detector de envolvente teniendo mayor peso y costo que el
receptor en cuadratura.

El receptor en cuadratura puede ser implementado digitalmente; de esta manera, con la llegada de
los circuitos integrados a gran escala (LSI), estos son a menudo preferidos sobre los detectores no
coherentes. El detector mostrado en la figura 4.19 puede solo ser implementado digitalmente para
realizar transformaciones de Fourier discretas a diferencia de los filtros analógicos, pero tales
diseños son usualmente más complejos que una implementación digital de los receptores en
cuadratura.

4.5.4 Requerimiento de Espaciado de los Tonos para Señales FSK Ortogonales


No Coherentes.

Las codificación por cambio de frecuencia (FSK) son usualmente implementadas como señales
ortogonales, pero no todas las FSK son ortogonales. Podemos decir que si los tonos en los conjuntos
de señales forman un conjunto ortogonal? Por ejemplo, supongamos que tenemos dos tonos
f1=10000 Hz. y f2=11000 Hz. Son estos ortogonales uno del otro? En otras palabras, ellos están
contenidos en el criterio (como se hizo después en la ecuación (3.69)) que son incorrelacionados
sobre un tiempo de símbolo T? Nosotros no tendremos bastante información para contestar que
responder todavía. Los tonos f1 y f2 se manifiestan ortogonales si, para un tono transmitido a f1, las
muestras sobre del receptor del filtro de salida regulado a f2 es cero (no cruza). Una propiedad que
garantiza tal ortogonalidad entre tonos en conjuntos de señales FSK es la condición que ningún par
de tonos en el conjunto deben tener una separación en frecuencia que sea un múltiplo de 1/T
Herz.(esto será examinado debajo en el ejemplo 4.3). Un tono con frecuencia fi que sea activado por
una duración del símbolo de T segundos y después apagado, tal como los tonos FSK descriptos en
la ecuación (4.8), pueden ser analíticamente descriptos por

s i (t ) = (cos 2πf i t )rect (t / T )


1 para − T / 2 ≤ t ≤ T / 2
Donde rect (t / T ) = 
0 para t > T / 2
De la tabla A.1, la transformada de Fourier de si(t) es

ℑ{si (t )} = T sin c( f − f i )T

Donde la función sinc esta definida en la ecuación (1.39). El espectro de los dos tonos adyacentes -
el tono 1 con frecuencia f1 y el tono 2 con frecuencia f2-son graficados en la figura 4.20.

4.5.4.1 Espaciamiento mínimo de Tonos y Ancho de Banda

En orden con una detección de un tono no coherente para manifestar una máxima señal de salida a
este filtro de recepción asociado y una señal de salida cero en los otros filtros (como se implemento
en la figura 4.19), el máximo del espectro del tono 1 debe coincidir con uno de los cruces por cero
del espectro del tono 2, y similarmente el máximo del tono 2 debe coincidir con uno de los cruces
por cero del tono 1. La diferencia de frecuencia entre el centro del espectro del lóbulo principal y el
primer cruce por cero representan el mínimo espaciamiento requerido. Con detección no coherente,
esta corresponde a un tono con una separación mínima de 1/T Herz, como puede ser visto en la
figura 4.20. Incluso aunque las señales FSK llevan la transmisión de solo un simple tono de banda
lateral durante cada tiempo de símbolo, cuando nos referimos al ancho de banda de la señal,
medimos la cantidad de espectro que necesitamos para ser empleado por el rango completo de todos
los tonos en el conjunto M-ary. Así para FSK, el ancho de banda requerido es relativo al
espaciamiento del espectro entre los tonos. De un grupo de tonos adyacentes, el espectro asociado
con solo un tono puede ser considerado para hacer un medio (1/2) del espaciamiento en cada lado
de los tonos. Entonces, para el caso de FSK binario mostrado en la figura 4.20, el ancho de banda
de la señal es igual al espectro que separa el tono central mas un medio del espaciamiento del tono
en cada lado de los conjuntos. Esta es la cantidad para dos tiempos de espaciado de los tonos.
Extrapolando esta aproximación a el caso M-ary, el ancho de banda de un detector no coherente
ortogonal MFSK es igual a M/T. Tendremos solo que dirigirnos a la detección no coherente de FSK
ortogonal. Es el mínimo criterio de espaciamiento del tono (y dentro del ancho de banda)
disintiendo si la señal es detectada coherentemente? De hecho, es así. Como lo podremos ver, en el
ejemplo 4.3, el espaciamiento mínimo de tonos se reduce a 1/2T cuando la detección coherente es
usada.

4.5.4.2 Relación Dual

El concepto en ingeniería para dualidad puede ser definida como sigue: Dos procesos (funciones,
elementos o sistemas) son duales entre ellos si sus relaciones matemáticas son idénticas, incluso
aunque son descriptas con diferentes variables (tiempo y frecuencia). Considere el caso de señales
FSK, donde la codificación en forma rectangular corresponde a un tono de forma de sinc(fT), como
se ve en la figura 4.20. Un tono de una duración dada da una elevación para el espaciamiento de
frecuencia mínima entre los tonos que habrían de ser necesarios para alcanzar la ortogonalidad.
Esta relación en el dominio de la frecuencia tiene como contraparte dual una relación en el dominio
del tiempo – el caso de señales de pulso, donde una forma rectangular del ancho de banda
corresponde a un pulso con forma de sinc (t/T), como se ve en la figura 3.16b. Un ancho de banda
dado da una elevación para el mínimo espaciamiento en el tiempo entre los pulsos que habrían de
ser necesarios para lograr una ISI cero.

4.6 Entorno Compleja

La descripción de forma real de los moduladores y demoduladores son facilitadas por el uso de
notación compleja como vimos en la sección 4.2.1 y continuaremos aquí. Cualquier forma de onda
en banda pasante real s(t) puede ser representado usando notación compleja como

{
s (t ) = Re g (t )e jω 0t } (4.57)

Donde g(t) es conocido como envolvente compleja, expresada como

g (t ) = x(t ) + jy (t ) = g (t ) e jθ (t ) = R(t )e jθ ( t ) (4.58)

La magnitud de la envolvente compleja es

R(t ) = g (t ) = x 2 (t ) + y 2 (t ) (4.59)

y la fases

y (t )
θ (t ) = tan −1 (4.60)
x(t )

Con respecto a la ecuación (4.57), podemos llamar a g(t) como el mensaje banda base o dato en
forma compleja y ejωot es la señal de portadora en forma compleja. El producto de estas dos
representa la modulación, y s(t), la parte real de este producto, es la forma de onda transmitida.
Entonces, usando las ecuaciones (4.4), (4.57) y (4.58) podemos expresar a s(t) como:

s (t ) = Re{[x(t ) + jy (t )][cos ω 0 t + jsenω 0 t ]}


= x(t ) cos ω 0 t − y (t ) senω 0 t (4.61)

Note que la modulación de señales expresadas en la forma general de (a+jb) veces (c+jd) produce
una forma de onda con el signo invertido (a el termino de cuadratura de la señal portadora) de la
forma ac-bd.

4.6.1 implementación en Cuadratura de un Modulador

Considere un ejemplo de una forma de onda de banda base g(t), descripta por una secuencia de
pulsos ideales x(t) e y(t) apareciendo a tiempos discretos k = 1,2,.... De esta manera, g(t), x(t) e y(t)
en la ecuación (4.58) pueden ser escritas como gk, xk e yk respectivamente. Permitiendo que el valor
de amplitud del pulso sea xk = yk = 0.707 A. Las componentes compleja puede ser expresado en
forma discreta como

g k = x k + jy k = 0.707 A + j 0.707 A (4.62)

Conociendo del álgebra compleja que j = − 1 , pero desde un punto de vista practico, el termino j
puede ser visto como una “flag”, recordemos que no podemos usar una suma ordinaria en la
ecuacion (4.62). Como preparación para el próximo paso, la modulación en fase y cuadratura, xk e
yk son tratados como un par ordenado. Una modulación del tipo en cuadratura es mostrado en la
figura 4.21, donde vemos que el pulso xk es multiplicado por cos ω0t (la componente de la señal de
portadora en fase) y el pulso yk es multiplicado por sen ω0t (la componente de la señal de portadora
en cuadratura). El proceso de modulación puede ser descripta como la multiplicación de los
jω t
componentes complejos por e 0 , y se transmite la parte real del producto. Ahora la escribiremos
como

{
s (t ) = Re g k e jω ot }
= Re{( x k + jy k )(cos ω o t + jsenω o t )}

= x k cos ω o t − y k senω o t (4.63)

= 0.707 A cos ω o t − 0.707 Asenω o t

 π
= A cos ω 0 t + 
 4

además, notemos que el termino en cuadratura de la señal portadora a sufrido una inversión del
signo en el proceso de modulación. Si usamos 0.707 A cos ω o t como una referencia, entonces la
forma de onda de la señal transmitida s(t) en la ecuación (4.63) se adelanta a la forma de onda de
referencia por π/4.

Figura 4.21

Similarmente, si consideramos − 0.707 Asenω o t como la referencia, entonces s(t) en la ecuación


(4.63) estará retrasada con referencia a la forma de onda por π/4. Estas relaciones son mostradas en
la figura 4.22
Figura 4.22

4.6.2 Ejemplo de un Modulador D8PSK.

La figura 4.23 describe una implementación en cuadratura de un modulador diferencial 8-PSK


(D8PSK). Debido a que el modulador es 8 –ary, asignaremos un mensaje de 3-bit (xk, yk, zk) a cada
fase ∆φk. Debido a que el modulador es diferencial, cada tiempo de transmisión k envía un fasor de
datos φk, que puede ser expresado como
φ k = ∆φ k + φ k −1 (4.64)

El proceso de añadir la actual fase al mensaje asignando ∆φk a la fase del dato anterior φk-1
producido por la codificación diferencial del mensaje. Una secuencia de fasores creado por la
siguiente Ecuación (4.64) produce una codificación diferencial similares con los procedimientos
mostrados en la sección 4.5.2. Puedes notar en la figura 4.23 que la asignación de un mensaje de 3-
bit para ∆φk no actúa a lo largo de la progresión binaria natural de 000 a 111. Allí un código
especial será usado teniendo el nombre de código de Gray. (los beneficios de estos se verán en la
sección 4.9.4).
Para el modulador en la figura 4.23, dejaremos la secuencia de entrada de datos a los tiempos k = 1,
2, 3, 4 siendo igual a 110, 001, 110, 010 respectivamente. Luego, usaremos la tabla de codificación
de datos mostrada en la figura 4.23 y la ecuación (4.64), con la fase inicial a tiempo k = 0 será φ0 =
0. A tiempo k = 1, la fase del dato diferencial corresponderá a x1 y1 z1 = 110 es φ1 = 4π/4 = π.
Tomando la magnitud del fasor de rotación como la unidad, los pulsos banda base en fase (I) y el en
cuadratura (Q) son – 1 y 0 respectivamente. Como indicamos en la figura 4.23, estos pulsos son
generalmente formados por un filtro (tales como una raíz de coseno alzado).
Para el tiempo k = 2, la tabla en la figura 4.23 muestra que el mensaje 001 es asignado a ∆φk = π/4.
Entonces, siguiendo con la ecuación (4.64), la fase del segundo dato diferencial es φ2 = π+π/4 =
5π/4, y para tiempo k = 2, los pulsos de banda base I y la Q son xk = -0.707 y yk = -0.707,
respectivamente.
La señal transmitida sigue la forma de la ecuación (4.61), rescribiéndola como

s (t ) = Re{( x k + jy k )(cos ω 0 t + senω 0 t )}

= x k cos ω 0 t − y k senω 0 t (4.65)

Para un conjunto de señales que pueden ser representadas en un plano de amplitud-fase, como
MPSK o MQAM, la ecuación (4.65) provee una observación interesante. será es, la implementación
en cuadratura de todas las transformadas transmitidas con tipos de señalización para modulación de
simple amplitud. Cualquier fasor en el plano es transmitido por modulación en amplitud en fase y
en cuadratura proyectándolas hacia las componentes de senos y cosenos de la portadora,
respectivamente. Para facilitar la notación, omitimos la forma del pulso; que es, asumimos que los
pulsos de datos tienen una forma rectangular ideal. Entonces, usamos la ecuación (4.65), para el
tiempo k = 2, donde xk = -0.707 y yk = -0.707, la s(t) transmitida puede ser descripta como:

s (t ) = −0.707 cos ω 0 t + 0.707 senω 0 t (4.66)

 π
= sen ω 0 t − 
 4

4.6.3 Ejemplo de Demodulador D8PSK.

En la sección anterior, la implementación en cuadratura de un modulador comenzó con la


jω t
multiplicación de los componentes complejos (mensaje en banda base) por e 0 y transmitiendo la
parte real del producto s(t), como se describe en la ecuación (4.63). Usando una implementación
similar de cuadratura, la demodulación consiste de recibir el proceso – y es multiplicada la forma de
− jω t
onda recibida en banda pasante por e 0 para reconvertirla a una señal de banda base. El lado
izquierdo de la figura 4.24 muestra el modulador de la figura 4.23 en forma mas simple, y la forma
de onda s (t ) = sen(ω 0 t − π / 4 ) que fue arrojada a una tiempo de k = 2 por el ejemplo.
Continuaremos con este ejemplo en esta sección, y solo mostraremos la implementación en
cuadratura del demodulador sobre el lado derecho de la figura 4.24.
Notemos la sutil diferencia entre el termino – sen ω0t en el modulador y el termino – sen ω0t en el
demodulador. En el modulador, el signo menos proviene de tomar la parte real de la señal compleja
(producto de las componentes complejas de la señal de portadora). En el demodulador, – sen ω0t
− jω t
proviene de multiplicar la forma de onda en banda pasante por el conjugado e 0 de la señal
portadora modulada, la demodulación es coherente si la fase es recobrada. Para simplificar la
escritura de la relación básica enviada por el sistema, el ruido fue omitido. Después la
multiplicación en fase por cos ω0t en el demodulador, tendremos la señal en el punto A:

A = (−0.707 cos ω 0 t + 0.707 senω 0 t ) cos ω 0 t

= −0.707 cos 2 ω 0 t + 0.707 senω 0 t cos ω 0 t (4.67)

Usando la identidad trigonométrica mostrada en la ecuación (D.7) y (D.9), conseguiremos

− 0.707
A= (1 + cos 2ω 0 t ) + 0.707 (sen2ω 0 t ) (4.68)
2 2

Luego filtramos con un filtro pasa baja (LPF) recuperando en el punto A’ un pulso negativo ideal,
como sigue:

A' = −0.707 ( factor de de escala de tiempo) (4.69)

Igualmente, después de multiplicar en cuadratura por – sen ω0t en el demodulador, conseguiremos


la señal en el punto B como sigue:

B = (−0.707 cos ω 0 t + 0.707 senω 0 t )(− senω 0 t ) (4.70)

0.707
= (sen2ω 0 t ) − 0.707 (1 − cos 2ω 0 t )
2 2

Después el LPF recupera en el punto B’ un pulso ideal negativo, como sigue:

B' = −0.707 ( factor de de escala de tiempo) (4.71)

Entonces, veremos de las demodulaciones y filtraciones en los puntos A’ y B’ que el pulso de datos
diferencial (ideal) para los canales I y Q son iguales a –0.707. puesto que el
modulador/demodulador es diferencial, entonces para este ejemplo de k = 2,

∆φ k = 2 = φ k = 2 − φ k =1 (4.72)
Supondremos que el demodulador en el primer tiempo k=1 tiene que recuperar la señal con una fase
de π. Entonces, la ecuación (4.72), puede ser escrita

5π π
∆φ k = 2 = −π = (4.73)
4 4

Refiriéndonos a lo anterior para la tabla de codificación de datos en la figura 4.23, vemos que las
secuencia de datos detectada es x2 y2 z2 = 001, como corresponden en los datos enviados en el
tiempo k=2.

4.7 Performance de Error para Sistemas Binarios.

4.7.1 Probabilidad de Error del Bit para BPSK Detectados Coherentemente

Una importante medida de la performance usada para comparar esquemas de modulaciones


digitales es la probabilidad de error, PE. Para el correlador o el filtro acoplado, los cálculos para
obtener PE pueden ser vistos geométricamente. (Ver figura 4.6) Ellas involucran el encontrar la
probabilidad que dado un vector de señal transmitido, conocido como s1, el vector ruido n dara la
amplitud de la falla de la señal recibida fuera de la región 1. La probabilidad de que el detector tome
una decisión incorrecta es denominado como la probabilidad de error de símbolo (PE). Es con
frecuencia conveniente especificar la performance de un sistema por medio de la probabilidad de
error de bit (PB), incluso cuando la decisiones son hechas sobre las bases de los símbolos para que
M>2. La relación entre PE y PB es tratada en la sección 4.9.3 para señales ortogonales y en la
sección 4.9.4 para señales de fase múltiple.
Por conveniencia, en esta sección veremos tan solo lo referido a la detección coherente de la
modulación BPSK. Para este caso la probabilidad de error de símbolo es la probabilidad de error de
bit. Asumimos que las señales son igualmente probables. Tambien asumimos que cuando la señal
si(t) (i = 1, 2) es transmitida, la señal recibida r(t) es igual a si(t) + n(t), donde n(t) es un proceso
AWGN y cualquier efecto de degradación debido al ISI inducidó por el canal o al ISI inducido por
los circuitos tienen que ser omitidas. Las señales antipodales s1(t) y s2(t) pueden ser caracterizadas
en un espacio de señal unidimensional como se describe en la sección 4.4.1, donde

s1 (t ) = Eψ 1 (t ) 
y 0 ≤ t ≤ T (4.74)
s 2 (t ) = − Eψ 1 (t )

El detector debera elegir los si(t) con la mayor salida zi(T) del correlador; o, en el caso de una señal
antipodal de igual energía, el detector, usara la regla de decisión de la ecuación 4.20, decidiendo
sobre las bases de
s1 (t ) si z (T ) > γ 0 = 0
y (4.75)
s 2 (t ) en otro caso

Se producen dos tipos de errores, como se muestra en la figura 4.9: El primer tipo de error toma
lugar si la señal s1(t) es transmitida pero el ruido es tal que el detector tome una medida negativa
para z(T) y elijamos la hipótesis H2, la hipótesis que la señal s2(t) fue transmitida. El segundo tipo
de error toma lugar si la señal s2(t) es transmitida pero el detector mide un valor positivo para z(T) y
se elige la hipótesis H1, la hipótesis que la señal s1(t) fue transmitida.
En la sección 3.2.1.1 una expresión fue desarrollada en la ecuación (3.42) para la probabilidad de
error de bit PB, para los detectores binarios de mínimo error. Rescribiremos esta relación como

1  u2   a − a2 
PB = ∫
( a1 − a2 ) / 2σ 0 2π
exp −
 2
du = Q 1
  2σ 0


(4.76)

Donde σ0 es la desviación estándar del ruido a la salida del correlador. La función Q(x),
denominada la función de error complementario o función de co-error, esta definida como


1  u2 
Q( X ) = ∫ exp − 2
2π x
du

(4.77)

y fue descripta en detalle en la sección 3.2 y B.3.2.


Para señales antipodales de igual energía, tal como las BPSK formadas en la ecuación (4.74), los
componentes de las señales recibidas a la salida son a1 = Eb cuando s1(t) es transmitida y
a 2 = − Eb cuando s2(t) se transmitió, donde Eb es la energía de la señal por símbolo binario. Para
AWGN podemos reemplazar la varianza del ruido de salida σ 02 del correlador con N0/2 (ver
apéndice C), así que podemos rescribir la ecuación (4.76) como sigue:


1  u2 
PB = ∫ 2π
exp −
 2
du

(4.78)
2 Eb / N 0

 2 Eb 
= Q  (4.79)
 N 
 0 

Este resultado para señales antipodales BPSK pasa banda es el mismo resultado que el obtenido en
la ecuación (3.70) para la detección por filtros acoplados de señales antipodales generales, y en la
ecuación (3.76) para la detección por filtros acopladoes de señales antipodales de banda base en
particular. Este es un ejemplo del teorema equivalente, descrito anteriormente. Para sistemas
lineales el teorema equivalente establece que la matemática de la detección no esta afectada por un
cambio en la frecuencia. Ahora en este capitulo, el uso de filtros acoplados o correladores en la
detección de señales pasa banda producen algunas relaciones que son comparables con las señales
en banda base.
4.7.2 Probabilidad de Error de Bit para Detección Coherente de una
Codificación Binaria Diferencial PSK

La forma del canal a veces experimenta una inversión; por ejemplo, cuando usamos una referencia
coherente generada por un lazo de fase cerrado, uno puede tener ambigüedad de fase. Si la fase de
la portadora se invierte en una aplicación de modulación DPSK, que efecto haría sobre el mensaje?
El unico efecto podria ser un error en los bit durante el momento que ocurre la inversion o el bit
justo despues de la inversión, ya que el mensaje de información es codificado por las similitudes o
las diferencias entre los símbolos adyacentes.

Figura 4.25

La cantidad de similitud o diferencias queda inalterada si la portadora es invertida. A veces los


mensajes (y su forma de onda asignada) son codificadas diferencialmente y detectada
coherentemente simplemente para evitar estas ambigüedades de fases.
La probabilidad de error de bit para detección coherente de PSK codificado diferencialmente es
ddada por [5]:

 2 Eb   2 Eb 
PB = 2Q  1 − Q  (4.80)
 N   N 
 0    0 

La relación se muestra en la figura 4.25. Nótese que hay una pequeña degradación de la
performance de error comparado con la detección coherente de PSK. Esto es debido a la
codificación diferencial, ya que cualquier simple error en la detección determinara usualmente un
resultado en dos decisiones erróneos. La performance del error para la mas popular de las
detecciones coherentes diferenciales (DPSK) es cubierto en la sección 4.7.5.

4.7.3 Probabilidad de Error de Bit para Detección Coherente Binaria Ortogonal FSK

La ecuación (4.78) y (4.79) describe la probabilidad de error para señales coherentes antipodales.
Un tratamiento mas general para señales coherentes binarias (no limitadas a señales antipodales)
producen la siguiente ecuación para PB [6]


1  u2 
PB = ∫
2π (1− ρ ) Eb / N 0
exp −
 2
du

(4.81)

De la ecuación (3.64b), ρ= cos θ es el coeficiente de tiempo de correlación cruzada entre la señal


s1(t) y s2(t), donde θ es el ángulo entre el vector de señal s1 y s2 (ver figura 4.6). Para señales
antipodales, tales como BPSK, θ = π, entonces ρ = -1.
Para señales ortogonales tales como las FSK binarias (BFSK), θ = π/2, ya que las vectores s1 y s2
son perpendiculares uno del otro, entonces ρ = 0, como se puede verificar en la ecuación (3.64ª), y
la cuación (4.81) puede ser escrita como

1

 u2   Eb 
PB = ∫ exp − 2 du = Q  (4.82)
2π Eb / N 0  N 
  0 
Donde la función de co-error Q(x) es descripta en detalle en la sección 3.2 y B.3.2. El resultado en
la ecuación (4.82) para la detección coherente de señales BFSK ortogonales graficada en la figura
4.25 tiene el mismo resultado que la que se desarrollo en la ecuación (3.71) para la detección por
filtros acoplados de señales ortogonales, en general, y en la ecuación (3.73) para la detección por
filtros acoplados de señales ortogonales en banda base (pulsos unipolares), en particular. El detalle
de la codificación on-off (OOK) no son tratados en este libro. Sin embargo, es bueno notar que la
codificación on-off es un conjunto de señales ortogonales (señales de pulsos unipolares son los
equivalentes de OOK en banda base). Entonces la relación en la ecuación (4.82) es aplicable para la
detección por filtros acopladoes de OOK, como él hace a cualquier detección coherente de señales
ortogonales.
La relación en la ecuación (4.82) puede solo ser confirmada al notar que la diferencia de energía
entre los vectores de señales ortogonales s1 y s2, con amplitudes de Eb, como se muestra en la figura
3.10b, puede ser calculada como el cuadrado de la distancia entre los extremos superiores de los
vectores ortogonales, que será Ed = 2 Eb. Usando este resultado, en la ecuación (3.63) tambien
producimos la ecuación (4.82). Si comparamos la ecuación (4.82) con la ecuación (4.79), podremos
ver que 3 dB mas de Eb/N0 es requerida para BFSK para darnos la misma performance que BPSK.
No debemos sorprendernos que la performance de las señales BFSK sea 3 dB peor que las señales
BPSK, puesto que para una dada señal de potencia, el cuadrado de la distancia entre los vectores
ortogonales es un factor de dos menor que el cuadrado de la distancia entre los vectores antipodales.

4.7.4 Probabilidad de Error de Bit para Detección No Coherente Binaria


Ortogonal FSK

Consideremos un conjunto de señales ortogonales binarios igualmente probables {s1(t)}, definida en


la ecuación (4.8) como sigue:

2E
s i (t ) = cos(ω i t + φ ) 0 ≤ t ≤ T i = 1, 2
T

El termino de fase φ es desconocido y lo asumimos constante. El detector esta caracterizado por


M = 2 canales de filtros pasa banda y detectores de envolvente, como se mostró en la figura 4.19.
La entrada para los detectores consiste de la señal recibida r(t) = si(t) + n(t), donde n(t) es un
proceso de ruido blanco Gaussiano con una densidad espectral de potencia de 2 bandas N0/2.
Asumimos que s1(t) y s2(t) son separados en frecuencia suficientemente para que no tengan ningún
solapamiento. Para s1(t) y s2(t) son igualmente probables, nosotros comenzamos la probabilidad de
error de bit PB computando con la ecuación (3.38) como realizamos para señales de banda base:

1 1
PB = P ( H 2 | s1 ) + P( H 1 | s 2 )
2 2
(4.83)
0 ∞
1 1
= ∫
2 −∞
p( z | s1 )dz + ∫ p( z | s 2 )dz
20

Para el caso binario, la prueba estadística z(T) esta definida por z1(T) – z2(T). Asumimos que el
ancho de banda de los filtros Wf es 1/T, solo que la envolvente de las señales FSK es
(aproximadamente) preservada a la salida del filtro. Si no había ruido en el receptor, el valor de
z(T) = 2 E / T cuando s1(t) sea transmitida y z(T) = − 2 E / T cuando s2(t) se transmite. Debido
a esta simetría, el umbral optimo es γ0 = 0. La pdf p(z|s1) es similar a p(z|s2), que es:
p( z | s1 ) = p (− z | s 2 ) (4.84)

Entonces podemos escribirla como


PB = ∫ p( z | s 2 )dz (4.85)
0
o
PB = P( z1 > z 2 | s 2 ) (4.86)

Donde z1 y z2 son las salidas z1(T) y z2(T) del detector de envolvente mostrado en la figura 4.19.
Para el caso en el cual el tono s2(t) = cos ω2t es transmitida, tal que r(t) = s2(t) + n(t), la salida z1(T)
es solo una variable aleatoria de ruido Gausiano; no teniendo una componente de señal. Una
distribución Gaussiana en un detector de envolvente no lineal producirá una distribución Rayleigh a
la salida [6], así que

 z1  z12 
 exp −  z1 ≥ 0
p ( z1 | s 2 ) = σ 02  2σ 0
2
 (4.87)

0 z1 < 0

Donde σ 02 es el ruido a la salida del filtro. Por otro lado, z2(T) tiene una distribución Rician, ya que
la entrada para el detector de envolvente inferior es una sinusoidal mas el ruido [6]. La pdf p(z2|s2)
se escribe como

 z2  ( z 22 + A 2 )   z 2 A 
 exp − I 0   z2 ≥ 0
p ( z 2 | s 2 ) = σ 02  2σ 02   σ 02  (4.88)
0 z2 < 0

Donde A = 2 E / T y como antes, σ 02 es el ruido a la salida del filtro. La función I0(x), conocida
como la función de Bessel modificada de orden cero del primer tipo [7], esta definida como


1
I 0 ( x) =
2π ∫ exp( x cosθ )dθ
0
(4.89)

Cuando s2(t) es transmitida, el receptor realiza un error cuando la muestra de envolvente z1(T)
obtenida del canal superior (debido a el ruido solamente) excede la muestra de envolvente z2(T)
obtenida del canal inferior (debido a la señal mas el ruido). Entonces la probabilidad de que este
error pueda obtenerse por integración de P(z1|s2) con respecto a z1 desde z2 a infinito y entonces
promediando sobre todos los valores posibles de z2.
Que es,

PB = P ( z1 > z 2 | s 2 )
∞ ∞ 
= ∫ p( z 2 | s 2 )  ∫ p( z1 | s 2 )dz1  dz 2 (4.90)
0  z2 


z2  ( z 22 + A 2 )   z 2 A   ∞ z1  z12  
= ∫ 2 exp −
2σ 02   σ 02   z∫2 σ 02
I
 0    exp − dz1  dz 2 (4.91)
0 σ0  2σ 0
2
  

Donde A = 2 E / T y donde la integral interna es la probabilidad condicional de un error para un


valor fijo de z2, dado que s2(t) fue transmitida, y la otra integral promedia estas probabilidades sobre
todos los valores de z2. Esta integral puede ser evaluada como [8] sigue:

1  A2 
PB = exp −  (4.92)
 4σ 0
2
2 

Usando la ecuación (1.19), podemos expresar el ruido a la salida del filtro como

N 
σ 02 = 2 0 W f (4.93)
 2 

Donde Gn(f) = N0/2 y Wf es el ancho de banda del filtro. Entonces la ecuación (4.92) será

1  A2 
PB = exp −  (4.94)
2  4N W 
 0 f 

La ecuación (4.94) indica que la performance de error depende del ancho de banda del filtro pasa
banda y que PB se vuelve pequeño cuando Wf decrece. Es resultado es valido solo cuando la
interferencia intersímbolo (ISI) es despreciable. El mininmo Wf permitido es obtenida de la
ecuación (3.81) con el filtro roll-off de factor r = 0. Entonces Wf = R bits/s = 1/T, y podemos
escribir la ecuación (4.94) como

1  A 2T 
PB = exp −  (4.95)
2  4 N 0 

1  E 
= exp − b  (4.96)
2  2N 0 

Donde Eb = (1 / 2) A 2T es la energía por bit. Cuando comparamos la performance de error de una


FSK no coherente con una FSK coherente (ver figura 4.25), se vio que para la misma PB, la FSK no
coherente requiere aproximadamente 1 dB mas de Eb/N0 que para la FSK coherente (para PB ≤ 10-4).
El receptor no coherente es mas fácil para implementar debido a las señales de referencia
coherentes necesarias para ser generadas. Por lo tanto, casi todos los receptores usan detección no
coherente. Esta puede ser vista en la siguiente sección que cuando comparamos una FSK no
coherente ortogonal con una no coherente DPSK, las mismas difieren en 3 dB como ocurre en la
comparación entre FSK coherente ortogonal y la PSK coherente.
Como mencionamos anteriormente, el detalle de la codificación on-off (OOK) no son tratados en
este libro. Sin embargo, es notable el valor que la probabilidad de error de bit descripta en la
ecuación (4.96) es identica para la PB con la detección no coherente de señales OOK.

4.7.5 Probabilidad de Error de Bit para DPSK Binarias.

Dejaremos nuestra definición de un conjunto de señales como sigue:

2E
x1 (t ) = cos(ω 0 t + φ ) 0≤t ≤T
T
(4.97)
2E
x 2 (t ) = cos(ω 0 t + φ ± π ) 0≤t ≤T
T

Una característica de DPSK es que no hay regiones de decisiones fijas en el espacio de señales. En
cambio, la decisión se basa en la diferencia de fase entre señales recibidas sucesivamente. Entonces
para señales DPSK serán realmente transmitidos cada bit con un par de señales binarias

s1 (t ) = ( x1 , x1 ) o ( x 2 , x 2 ) 0 ≤ t ≤ 2T
y (4.98)
s 2 (t ) = ( x1 , x 2 ) o ( x 2 , x1 ) 0 ≤ t ≤ 2T

donde (xi,xj) (i, j = 1, 2) denotadas xi(t) seguida por xj(t) definida en la ecuación (4.97). Los
primeros T segundos de cada forma de onda son realmente los últimos T segundos de la forma de
onda anterior. Note que s1(t) y s2(t) pueden cada una tener dos posibles formas y que x1(t) y x2(t)
son señales antipodales. Entonces la correlación entre s1(t) y s2(t) para cualquier combinación de
formas puede ser escrita como

2T
z (2T ) = ∫ s1 (t ) s 2 (t )dt
0
(4.99)
T T
= ∫ [x1 (t )] dt − ∫ [x1 (t )] dt = 0
2 2

0 0

Entonces, el conjunto de señales DPSK pueden ser representados como señales de 2T segundos de
duración. Averiguaremos si podemos corresponder este para detectores de envolvente no coherentes
con cuatro canales iguales para cada posible salida promediada, como se muestra en la figura 4.26ª.
Ya que los dos detectores de envolvente representan cada símbolo son el negativo del otro, la
muestra de la envolvente de cada orden será la misma. Ahora podemos implementar el detector
como un simple canal para s1(t) igualado a cualquiera de los (x1,x1) o (x2,x2) y un canal simple para
s2(t) igualado a cada (x1,x2) o (x2,x1), como mostramos en la figura 4.26b. El detector DPSK es por
esto reducido a un detector estándar no coherente de dos canales. En realidad, el filtro puede ser
igualado a las diferentes señales para que solo un canal sea necesario. En la figura 4.26, los filtros
son igualados a la señal envolvente (sobre dos símbolos de tiempo).

Figura 4.26

Que hace esta media en perspectiva del hecho que DPSK es un esquema de señalización de
envolvente constante? Esta media que nosotros necesitamos para implementar un detector de
energía, similar al detector en cuadratura en la figura 4.18, con cada una de las señales de referencia
de I y Q ocurrida durante una parte del intervalo de tiempo (0 ≤ t ≤ T), como sigue:

s1 (t ) en referencia a I : 2 / T cos ω 0 t , 2 / T cos ω 0 t

s1 (t ) en referencia a Q : 2 / T senω 0 t , 2 / T senω 0 t

s 2 (t ) en referencia a I : 2 / T cos ω 0 t , − 2 / T cos ω 0 t

s 2 (t ) en referencia a Q : 2 / T senω 0 t , − 2 / T senω 0 t

Ya que las partes de las señales DPSK son ortogonales, tales detectores no coherentes operan con
una probabilidad de error de bit dado por la ecuación (4.96). Sin embargo, ya que las señales DPSK
tienen un intervalo de bit de 2T, las señales si(t) definidas en la ecuación (4.98) tienen el doble de la
energía definida sobre una duración de un simple símbolo. Entonces podemos escribir a PB como

1  E 
PB = exp − b  (4.100)
2  N0 

La ecuación (4.100) es graficada en la figura 4.25 señalada como detección diferencial coherente de
codificaciones diferenciales PSK, o simplemente DPSK. Esta expresión es valida para los
detectores óptimos DPSK mostrados en la figura 4.17c. Para los detectores mostrados en la figura
4.17b, la probabilidad de error llegaría a ser ligeramente inferior a la que se dio en la ecuación
(4.100)[3]. Cuando comparamos la performance de error de la ecuación (4.100) con la del PSK
coherente (ver figura 4.25), en esta se observa que para las mismas PB, DPSK requiere
aproximadamente 1 dB mas de Eb/N0 que el BPSK (para PB ≤ 10-4). Esta es más fácil para
implementar en un sistema DPSK que en un sistema PSK, dado que el receptor DPSK no necesita
sincronización de fase. Por esta razón, DPSK, aunque sea menos eficiente que PSK, es a veces la
elección preferida entre las dos.

4.7.6 Comparación de la performance de Error de Bit para Varios Tipos de


Modulación

Las expresiónes PB para esquemas binarios de modulación mas conocidos, discutidos anteriormente
son listados en la tabla 4.1 y son ilustrados en la figura 4.25. Para una PB = 10-4, se puede ver que
hay una diferencia de aproximadamente 4 dB entre la mejor (coherente PSK) y la peor (FSK no
coherente ortogonal) que se discutirán aquí. En algunos casos, 4 dB es un pequeño costo para pagar
la simplicidad en la implementación ganada al partir de un PSK coherente a un FSK no coherente; a
veces, para otros casos, incluso 1 dB es un ahorro que vale la pena. Hay otras consideraciones
además de la PB y de la complejidad del sistema; por ejemplo, en algunos casos (tal como un canal
de desvanecimiento aleatorio), un sistema no coherentes más deseable en el establecimiento y
manutención de una referencia coherente. Las señales que pueden resistir semejante degradación
antes de que su habilidad para ser detectada es afectada son claramente deseables para aplicaciones
militares y espaciales.
Tabla 4.1

4.8 Señales M-ary y Performance.

4.8.1 Performance Ideal de la Probabilidad de Error de Bit.

La curva típica de la probabilidad de error de bit versus Eb/N0 se muestra para tener una forma de
probabilidad en la figura 3.6. La probabilidad de error de bit (PB) característica de varios esquemas
de modulación binarios en AWGN solo expone esta forma, como se muestra en la figura 4.25. A
que se debe parecer una curva ideal de PB versus Eb/N0? La figura 4.27 muestra la característica
ideal con limite de Shannon. Este limite representa el umbral de Eb/N0 debajo del cual la
comunicación no puede ser mantenida. El trabajo de Shannon esta descripto en forma detallada en
el capitulo 9.
Figura 4.8

Podemos describir la curva ideal mostrada en la figura 4.27 como sigue. Para todos los valores de
Eb/N0 sobre el limite de Shannon de –1.6 dB, la PB es cero. Una vez que Eb/N0 es reducida por
debajo del limite de Shannon, la PB disminuye hasta el peor caso de un valor de ½. (Notemos que
PB = 1 no es el peor caso para señales binarias, dado que el valor es solamente bueno con PB = 0; si
la probabilidad de error de tomar un bit erróneo es 100%, el flujo de bit puede simplemente ser
invertido para recuperar el dato correctamente). Esto debemos ser claros, para comparar la curva
típica de PB con la ideal en la figura 4.27 que la flecha grande en la figura describe la dirección del
movimiento para lograr mejorar la performance de PB.

4.8.2 Señales M-ary.

Permitiremos realizar un repaso de las señales M-ary. El proceso tiene en cuenta k bits a un tiempo.
Esto instruye al modulador a producir una de las M = 2k formas de ondas; las señales binarias, es el
caso espacial donde k=1. Realizar señales M-ary mejora o degrada la performance de error? (Séa
cuidadoso con su respuesta) La figura 4.28 ilustra la probabilidad de error de bit PB(M) versus Eb/N0
para señales M-ary detectadas ortogonales coherentes sobre un canal Gaussiano. La figura 4.29
muestra PB(M) versus Eb/N0 para detectores coherentes de señales de fase múltiples sobre un canal
Gaussiano. En que dirección de movimientos de los valores de k (o M) se incrementan? De la figura
4.27 sabemos la dirección moviéndonos en la curva para mejorar o degradar la performance del
error. En la figura 4.28, cuando k se incrementa, la curva se mueve en la dirección en la que la
performance de error mejora. La figura 4.29 con el incremento de k las curvas se mueven en la
dirección de la degradación de la performance del error. Tales movimientos determinan que señales
M-ary producen mejoras en la performance de error con las señales ortogonales y degradación de la
misma para señales de fase múltiple. Puede esto ser verdadero? Porque habría que usar siempre
señale de fase múltiple PSK si esta nos da una degradación en la performance de error comparado a
las señales PSK binarias? Esto es verdad, muchos sistema usan señales de múltiple fase. La
pregunta, tal como esta, esta formulada porque implica que la probabilidad de error versus Eb/N0 es
el único criterio de performance; Hay muchos otros (ancho de banda, complejidad, costo, etc), pero
en la figura 4.28 y 4.29 la performance de error es la característica que se esta analizando.
Una característica de performance que no se ha explicitado en a figura 4.28 y 4.29 es el ancho de
banda que requiere el sistema. Para las curvas características de señales ortogonales M-ary en la
figura 4.28, cuando k se incrementa, el ancho de banda requerido también se incrementa. Para las
curvas de M-ary de fase múltiple en la figura 4.29, cuando k se incrementa, una taza mayor de bit
puede ser transmitida con el mismo ancho de banda. En otras palabras, para una taza de datos fija,
el requerimiento de ancho de banda es reducido. Por lo tanto, para ambas curvas de performance de
error ortogonales y de fase múltiple diremos que las señales M-ary representan un vehículo para
realizar Trade off del un sistema. En el caso de señales ortogonales, la mejora en la performance de
error puede ser lograda a expensas de ancho de banda. En el caso de señales de múltiples fase, la
performance del ancho de banda puede ser mejorada a expensas de la performance de error. La
performance de Error versus la performance de ancho de banda, un trade off fundamental en
comunicaciones, es tratada con mayor detalle en el capitulo 9.

Figura 4.28

Figura 4.29

4.8.3 Repaso Vectorial de Señales MPSK.

La figura 4.30 ilustra un conjunto de señales MPSK para M= 2, 4, 8. En la figura 4.30a vemos el
vector binario antipodal (k = 1, M = 2) s1 y s2 separados por 180º. El limite de decisión esta
graficada para una partición en el espacio de señal en dos regiones. En esta figura solo mostramos
un vector de ruido n igual en magnitud que s1. La figura establece la magnitud y la orientación de la
mínima energía del vector de ruido que seria una causa para que el detector confeccione un símbolo
erróneo.
En la figura 4.30b vemos los vectores 4-ary (k = 2, M = 4) separados por 90º. El limite de decisión
(solo una línea esta dibujada) divide los espacios de señal en cuatro regiones. Otra vez un vector de
ruido se dibujo (desde el final de un vector de señal, normal al limite de decisión cercano) para
ilustrar la mínima energía del vector de ruido que puede causar la detección de un símbolo erróneo.
Note que el vector de mínima energía de la figura 4.30b es mas pequeño que el de la figura 4.30a.
Ilustrando que los sistemas 4-ary son mas vulnerables a los ruidos que los sistemas 2-ary (la energía
de la señal son iguales para cada caso). Cuando cambiamos en la figura 4.30c para el caso 8-ary y la
figura 4.30d para el caso de 16-ary, esta debe ser clara que para señales de fase múltiple, cuando M
se incrementa, nosotros amontonamos mas vectores de señales dentro del plano de señales. Cuando
los vectores se mueven cerca al mismo tiempo, una pequeña cantidad de energía de ruido es
requerida para causar un error.
La figura 4.30 añade alguna visión de cómo las curvas de la figura 4.29 se comporta como ellas
cuando k se incrementa. La figura 4.30 solo provee alguna visión en una básica trade-off en señales
de múltiples fases. Añadiendo mas vectores de señales en el espacio de señal esta equivale a
incrementar la taza de datos sin incrementar el ancho de banda del sistema (los vectores son todos
agrupados en el mismo plano). En otras palabras, tenemos incrementada la utilidacion de el ancho
de banda a expensas de la performance de error. Mirando en la figura 4.30d, donde la performance
de error es peor que cualquiera otro ejemplo en la figura 4.30. Como podemos “contratar de
antemano” la degradación de la performance de error? En otras palabras, Cuanto podemos trade-off
tal que la distancia entre los vectores de señales vecinos en la figura 4.30d se incremente a aquella
de la figura 4.30a? Podemos aumentar la energía de la señal (hacer un vector de señal mayor) hasta
la distancia mínima desde el extremo de un vector de señal hasta la línea de decisión igual a la
longitud del vector de ruido en la figura 4.30a. Por consiguiente, en un sistema de fase múltiple,
cuando M es incrementada, podemos lograr cualquiera entrada de performance de ancho de banda a
expensas de la performance de error, o si incrementamos la Eb/N0 para que la probabilidad de error
no se degrade, podemos lograr cualquier entrada de performance de ancho de banda a expensas del
aumento de Eb/N0.
Note que la figura 4.30 tiene que ser bosquejada para que todos los fasores tengan la misma
longitud para cualquiera de los casos de M-ary. Esto es equivalente a decir que la comparación son
consideradas por una Eb/N0 fija, donde Es es la energía del símbolo. La figura puede ser solo
dibujada por una Eb/N0 constante, en que caso la magnitud del fasor puede incrementarse
incrementando M. Los fasores para M= 4, 8 y 16 tendrían entonces que tener longitudes mayores
que el caso de M = 2 por el factor 2 , 3 y los dos respectivamente. Podríamos todavía observar
el acumulamiento y incrementar la vulnerabilidad al ruido, cuando incrementamos M, pero la
apariencia no habría de ser como se enuncio como esta en la figura 4.30.

4.8.4 BPSK y QPSK tienen la Misma Probabilidad de Error de Bit.

En la ecuación (3.30) expresamos la relación general entre Eb/N0 y S/N como

Eb S W 
=   (4.101)
N0 N  R 

Es la potencia de la señal promedio y R es la taza de bit. Una señal BPSK con la disponible Eb/N0
hallada por la ecuación (4.101) queriendo realizarlo con una PB que puede ser leído de las curvas k
= 1 en la figura 4.29. QPSK puede ser caracterizado como dos canales ortogonales BPSK. El flujo
de bits QPSK es usualmente particionado en un flujo I y Q; cada nuevo flujo modula una
componente ortogonal de la portadora a la mitad de la taza de bit del flujo original. El flujo I
modula el termino de cos ω0t, y el flujo de Q modula el termino sen ω0t. Si la magnitud del vector
original QPSK tiene el valor A, la magnitud de las componentes vectoriales I y Q tienen un valor
cada una de A / 2 , como se muestra en la figura 4.31. De esta manera, cada cuadratura de las
señales BPSK tienen la mitad de la potencia promedio de la señal original QPSK. Ahora si la forma
de onda original QPSK tiene una taza de bit de R y una potencia promedio de S watts, la partición
en cuadratura resulta en cada una de las formas de ondas de las BPSK tienen una taza de bit de R / 2
y una potencia promedio de S / 2 watts.
Por lo tanto, la Eb/N0 caracteriza cada canal de BPSK ortogonal, confeccionando hacia arriba la
señal QPSK, es equivalente a la Eb/N0 en la ecuación (4.101), ya que puede ser escrita como

Eb s/2 W  S W 
=  =   (4.102)
N0 N0  R / 2  N0  R 

Así cada uno de los canales BPSK ortogonales, y ahora la componente de la señal QPSK, son
caracterizadas por las mismas Eb/N0 y ahora con la misma performance PB que las señales BPSK.
La ortogonalidad natural de 90º de cambio de fase entre símbolos QPSK adyacentes resulta en la
probabilidad de error de bit siendo igual para ambas señales QPSK y BPSK. Esto es importante
para notar que la probabilidad de error de símbolo no son iguales para señales QPSK y BPSK. La
relación entre la probabilidad de error de bit y la probabilidad de error de símbolos son tratadas en
la sección 4.93 y 4.94. Veremos que, en efecto, QPSK es equivalente a dos canales BPSK en
cuadratura. Esta misma idea puede ser extendida para cualquier señal M-ary simétrica en amplitud /
fase, tales como la modulación de amplitud en cuadratura (QAM) descripta en la sección 9.8.3.

Figura 4.31

4.8.5 Repaso Vectorial de las Señales MFSK.

En la sección 4.8.3, la figura 4.30 proporciona algunas visiones de cuanto la performance de error
de señales MPSK se degradan cuando k (o M) se incrementan. Esta puede ser muy usada para tener
una ilustración vectorial similar para la performance de error de señales MFSK ortogonales como se
vio en las curvas de la figura 4.28. Puesto que el espacio de señal MFSK esta caracterizado por M
eje mutuamente perpendiculares, puede ser solo conveniente ilustrar los casos de M = 2 y M = 3. En
la figura 4.32a vemos los vectores ortogonales binarios s1 y s2 ubicados separados por 90º. El limite
de decisión esta dibujado sobre una de las particiones de los espacios de señales entre dos regiones.
En la figura solo es mostrado un vector de ruido n, que representa el vector de ruido mínimo que
puede causar que el detector cometa un error.
En la figura 4.32b vemos una señal espacial 3-ary con eje posicionadas a 90º entre ellas. Aquí el
plano de decisión divide el espacio de la señal en tres regiones. El vector de ruido n son mostrados
sumados a cada una de los vectores de las señales prototipos) s1, s2 y s3; Cada vector de ruido ilustra
un ejemplo del mínimo vector de ruido que puede causar la detección de un símbolo erróneo. El
mínimo vector de ruido en la figura 4.32b son del mismo largo con los vectores de ruido de la figura
4.32a. En la sección 4.4.4 manifestamos que para un nivel dado de energía recibida, la distancia
entre cualquiera de los dos vectores de señales prototipos s1 y s2 en el espacio ortogonal M-ary es
constante. Siguiendo con la distancia mínima entre un vector de señal prototipo y cualquiera de los
limites de decisión permanece fijo con el incremento de M. Distinto es el caso de señales MPSK,
donde al añadir nuevas señales al conjunto de señales hará que la señal sea mas vulnerable a
vectores de ruido pequeños, aquí, en el caso de señales MFSK, la suma de nuevas señales al
conjunto de señales no hará que la señal sea mas vulnerable a vectores de ruidos pequeños.
Puede ser conveniente para ilustrar el punto para trazar espacios ortogonales de dimensiones
superiores, pero por supuesto esta no es posible. Cuando solo usemos nuestro “imaginacion” para
comprender que incrementar el conjunto de señal – por suma de eje, donde cada nuevo eje es
mutuamente perpendicular a todas las otras – no amontonaremos el conjunto de señales mas
estrechamente. Entonces, una señal transmitida de un conjunto ortogonal no es mas vulnerable a un
vector de ruido cuando el conjunto se incrementa en tamaño. En realidad, cuando vemos de la
figura 4.28 que como k se incrementa, la performance de error mejora.
Comprender que las señales ortogonales mejora la performance de error, como se ilustra en la figura
4.28, se facilita por la comparación de la probabilidad de error de símbolo (PE) versus la SRN no
normalizada, con la PE versus Eb/N0. La figura 4.33 representan un conjunto de curvas de
performance PE graficadas contra la SRN no normalizada para señales FSK coherentes. Aquí vemos
que PE disminuye cuando M es incrementada. No diremos que una señal de un conjunto ortogonal
no es más vulnerable a un vector de ruido dado, cuando el conjunto ortogonal es incrementado en
tamaño? Es correcto que para señales ortogonales, con una dada SNR esta toma un vector de
tamaño fijo para perturbar una señal transmitida en una región errónea; La señal no se volverá
vulnerable para vectores de ruido pequeños cuando M se incrementa. Sin embargo, cuando M se
incrementa, mas regiones de decisión son introducidas; entonces el numero de caminos por el cual
el error de símbolos se puede incrementarse. La figura 4.33 refleja la degradación en PE versus la
SNR cuando M es incrementada; hay M-1 maneras para producir un error. Examinando la
performance bajo la condición de la SNR constante (cuando incrementamos M) no es muy usada
para comunicaciones digitales. Una media de la SNR constante a una cantidad constante de energía
por símbolos; Entonces cuando M se incrementa, hay una cantidad de energía constante será
conveniente sobre un numero grande de bits, o hay menos energía por bit. La manera mas usada de
comparar un sistema digital con otro es sobre la base de la normalización de bit SNR o Eb/N0. La
performance de error mejora cuando se incrementa M (ver figura 4.28) manifestándose esto solo
cuando la probabilidad de error esta graficada contra la Eb/N0. Para este caso, cuando M aumenta, la
demanda de Eb/N0 (para encontrar una probabilidad de error dada) es reducida a una SNR constante;
Sin embargo, necesitamos para trazar el grafico mostrado en la figura 4.33 en un nuevo grafico,
similar a la que se mostró en la figura 4.28, donde el eje representa la Eb/N0 en lugar de SNR. La
figura 4.34 ilustra tales trazas; demostrando que las curvas manifiestan degradaciones de PE cuando
incrementamos M (tal como la figura 4.33) son transformadas en curvas manifestando un entrada de
PE con el incremento de M. La relación de traza básica esta expresada en la ecuación (4.101), la
representamos aquí como
Eb S W 
=  
N0 N  R 

Donde W es el ancho de banda del detector. Dando

log 2 M k
R= =
T T

Donde T es la duración del símbolo que puede ser expresada como

Eb S  WT  S  WT 
=   =   (4.103)
N 0 N  log 2 M  N k 

Para señales FSK, el ancho de banda del detector W (en hertz) es típicamente igual en valor a la
taza de símbolo 1 / T; en otras palabras, WT ≅ 1, Entonces,

Figura 4.33
Figura 4.34

Eb S1
=   (4.104)
N0 N  K 

La figura 4.34 muestra la traza de PE versus SNR para PE versus Eb/N0 para un detector coherente de
señales ortogonales M-ary, con numero “estadio (ballpark)” sobre las eje. En la figura 4.34ª, sobre
la curva k = 1 se muestra un punto de operación correspondiente a PE = 10-3 y una SNR = 10 dB. En
la curva K = 10 se muestra un punto de operación a la misma PE = 10-3 pero con una SNR = 13 dB
(aproximando el valor tomado de la figura 4.33). Aquí aclararemos la degradación vista en la
performance de error cuando k se incrementa. Para apreciar donde la performance mejora
vendremos desde, permitiendo convertir la axisa de la escala no lineal de SNR en decibeles a una
SNR lineal expresada como un factor. Esto es lo que se muestra en la figura 4.34ª con un factor de
10 y 20 para los casos en los que k = 1 y k = 10, respectivamente. Continuando, extenderemos la
conversión de la escala de axisa a SNR por bit (expresada como un factor). Esto es lo que se
muestra en la figura 4.34ª con el factor 10 y 2 para los casos de k = 1 y k = 10, respectivamente.
Seria conveniente pensar el 1024-ary símbolos o formas de ondas (k = 10 casos) como ser
intercambiarlo con 10 bit significativos. De este modo, si los símbolos requieren 20 unidades de
SNR entonces los 10 bits pertenecen a los símbolos requeridos por aquellas 20 unidades; o, en otras
palabras, cada bit requiere 2 unidades.
Basta que los cálculos de tales performanses, podremos simplificar la traza de los mismos casos de
k = 1 y k =10 sobre el plano de la figura 4.34b, representando a PE versus Eb/N0. En el caso de k = 1
vemos que es exactamente igual que para la figura 4.34ª. Pero para el caso de k = 10, existen
cambios dramáticos. Podemos inmediatamente ver que las señales con k = 10 bit de símbolos
requieren solo 2 unidades (3 dB) de Eb/N0 comparados con las 10 unidades (10 dB) para el símbolo
binario. El mapeo que da un alza para los requerimientos de Eb/N0 para los casos de k = 10 es
obtenida de la ecuación (4.104), como se muestra: Eb/N0 = 20 (1/10) = 2 (o 3 dB), como mostramos
la performance de error mejora cuando k es incrementado. En sistemas de comunicaciones digitales,
la performance de error es casi siempre considerada en términos de Eb/N0, ya que una medida
realizada para una significante comparación entre una performance de sistemas y otra. Sin embargo,
las curvas mostradas en la figura 4.33 y 4.34ª son apenas vistas.
Aunque la figura 4.33 no es frecuentemente vista, podemos aun usarla para ganar la visión dentro
de las señales ortogonales proporcionando una performance de error cuando M o k aumentan. La
elección del grado correspondiente a algunos puntos en la axisa PE de la figura 4.33, digamos 10-3.
De este punto, construiremos una línea horizontal por medio de todas las curvas (desde M = 2 hasta
M = 1024). (De acá en adelante sigue un ejemplo corto, boludo y difícil de traducir).

4.9 performance de Error de Símbolos para Sistemas M-ary (M > 2)

4.9.1 Probabilidad de Error de Símbolos para MPSK.

Para grandes tazas de energía a ruido, la performance de error de símbolos PE(M), igualmente
probables, para detectores coherentes de señales M-ary PSK, puede ser expresado [7] como

 2Es π 
PE ( M ) = 2Q sen  (4.105)
 N M 
 0 

Donde PE(M) es la probabilidad de error de símbolos, E S = E b (log 2 M ) es la energía por símbolo


y M = 2k es el tamaño del conjunto de símbolos. La curva de performance PE(M) para detectores de
señales coherentes MPSK son graficados versus Eb/N0 en la figura 4.35.
La performance de error de símbolos para un detector coherente diferencia de DPSK M–ary (para
grandes Eb/N0) es similarmente expresada [7] como

Figura 4.35

 2Es π 
PE ( M ) ≈ 2Q sen  (4.106)
 N 2M 
 0 

4.9.2 Probabilidad de Error de Símbolo para MFSK.

La performance de error de símbolos PE(M), igualmente probables, para detectores coherentes de


señales M-ary ortogonales, puede ser ilimitada en la parte superior [5] como

 Es 
PE ( M ) ≤ ( M − 1)Q  (4.107)
 N 
 0 

donde E S = E b (log 2 M ) es la energía por símbolo y M es el tamaño del conjunto de símbolos. La


curva de performance PE(M) para detectores coherentes de señales M-ary ortogonales son
graficados contra la Eb/N0 en la figura 4.36.
La performance de error de símbolo para probabilidades iguales, los detectores no coherentes de
señales M-ary ortogonales es [9]
Figura 4.36
1  E M M   E 
PE ( M ) = exp − s ∑ (−1) j   exp s  (4.108)
M  N0  1 j   jN 0 

donde

M  M!
  = (4.109)
 j  j!( M − j )!

Es el coeficiente binomial estándar produciendo el numero de caminos en qué los j símbolos de


salida de M pueden ser erróneos. Notemos que para el caso binario, la ecuación (4.108) se reduce a

1  E 
PB = exp − s  (4.110)
2  2N 0 

Que son los mismos resultados con que describimos la ecuación (4.96). La curva de performance
PE(M) para detectores no coherentes de señales ortogonales M-ary son graficadas contra la Eb/N0 en
la figura 4.37. Si comparamos esta performance ortogonal no coherente PE(M) con la
correspondientes resultados de PE(M) para los detectores coherentes de señales ortogonales en la
figura 4.36, se puede ver que para k > 7, hay una diferencia despreciable. Un limite superior para
los coherentes así como los receptores no coherentes de señales ortogonales es [9]

M −1  E 
PE ( M ) < exp − s  (4.111)
2  2N 0 

Donde ES es la energía por símbolos y M es el tamaño del conjunto de símbolos.

4.9.3 Probabilidad de Error de Bit versus la Probabilidad de Error de


Símbolos para Señales Ortogonales.

Puede ser mostrado [9] que la relación entre la Probabilidad de error de bit (PB) y la probabilidad de
error de símbolos (PE) para un conjunto de señales ortogonales es

PB 2 k −1 M /2
= k = (4.112)
PE 2 − 1 M − 1

El limite para cuando k se incrementa , , es conseguido

PB 1
lim k →∞ =
PE 2

Un simple ejemplo que queremos realizar en la ecuación (4.112) intuitivamente aceptable. La figura
4.38 describe un conjunto de mensajes octales. Los símbolos del mensaje (asumimos que son
igualmente probables) son transmitidos en formas de ondas ortogonales tal como en FSK. Con las
señales ortogonales, un error de decisión transformaría la señal correcta en cualquier otra de las (M-
1) señales incorrectas con igual probabilidad. El ejemplo en la figura 4.38 indica que el símbolo los
bits 011 fueron transmitidos. Un error podría ocurrir en cualquiera de los otros 2k –1 = 7 símbolos,
con igual probabilidad. Note que solo porque un símbolo sea erróneo esto no significa que todos los
bit dentro de los símbolos serán erróneos. En la figura 4.38, si el receptor decide que el símbolo
transmitido es el basado en una lista, incluyendo los bits 111, dos de los tres bit del símbolo
transmitido son correctos; solo en un bit se ha cometido un error.

Figura 4.37
Figura 4.38

Debemos ser aparente que para señales no coherentes, PB será siempre menor que PE (manteniendo
en mente que PB y PE reflejan la frecuencia de aparición de un error en la promedio).
Considere cualquiera de las posiciones de bit de la columna de la figura 4.38. Para cada posición de
bit, el numero de ocupación consiste de 50% de unos y 50% de ceros. En el contecto de la primer
posición de bit (columna rightmost) y el símbolo transmitido, cuantas maneras hay allí para causar
un error en los bit unos? Hay 2k-1 = 4 maneras (cuatro sitios donde pueden aparecer ceros en la
columna) que pueden hacer un error; siendo la misma para cada columna. La relación final PB / PE,
para señales ortogonales, en la ecuación (4.112), es obtenida al formar el siguiente taza: El numero
de caminos que un bit puede hacer (2k-1) dividido por el numero de caminos que un símbolo erróneo
puede hacer (2k-1). Para el ejemplo de la figura 4.38, PB / PE=4/7

4.9.4 Probabilidad de Error de Bit versus la Probabilidad de Error de


Símbolos para Señales de Fase Múltiple.

Para el caso de señales MPSK, PB es menor o igual que PE, solo para el caso de señales MFSK. Sin
embargo, hay una diferencia importante. Para señales ortogonales, seleccionamos cualquiera de las
(M-1) símbolos erróneos igualmente probables. En el caso de señales MFSK, cada vector de señal
no es equidistante de todos los otros. La figura 4.39ª ilustra un espacio de decisión 8-ary con una
región de decisión en forma de torta denotados por lo símbolos 8-ary en la notación binaria. Si el
símbolo (011) es transmitido, es claro que debemos hemos recibido un error, si la señal recibida es
(010) o (100). La probabilidad que (011) habría sido equivocado por (111) es relativamente remota.
Si le asignamos bits a los siguientes símbolos de la secuencia binaria en la región de decisión de
símbolos mostradas en la figura 4.39ª, algunos símbolos erróneos podrían resultar de dos o mas bits
erróneos, incluso con una gran relación señal-ruido.
Para esquemas no coherentes, tales como los de las señales MFSK, uno a menudo usa un código
binario M-ary tal que la secuencia binaria correspondiente al símbolo adyacente (fase cambiada)
difiere en solo una posición de bit; Entonces cuando un símbolo erróneo M-ary ocurrió, es más
probable que solo uno de las k bits de entrada sean erróneos.

Figura 4.39

Un código que provee este rasgo deseables el código de Gray [7]; La figura 4.39b ilustra la
asignación de los bit a los símbolos usando un código de Gray de 8-ary PSK. Aquí podemos ver que
un símbolo cercano difiere de otro en solo una posición de bit. Sin embargo, la ocurrencia de un
error múltiple de bit, para un símbolo erróneo dado, es mucho menor comparado con la asignación
binaria no codificada vista en la figura 4.39ª. Implementando este código de Gray, representaremos
uno de los pocos casos en las comunicaciones digitales donde un beneficio puede lograrse sin
incurrir en costo alguno. El código de Gray es simplemente una asignación que no requiere circuitos
espaciales o adicionales. Utilizando la asignación del código de Gray, puede ser demostrado [5] que
PE
PB ≈ ( para PE << 1) (4 .113)
log 2 M

Recalcamos de la sección 4.8.4 que las señales BPSK y QPSK tienen la misma probabilidad de
error de bit. Aquí, en la ecuación (4.113), verificamos que ellas no tienen la misma probabilidad de
error de símbolos. Para BPSK, PB = PE. Sin embargo, para QPSK, PE ≈ 2PB.

4.9.5 Efectos de la Interferencia Intersímbolo

En las secciones previas y en el capitulo 3 tratamos la detección de señales en presencia de AWGN


bajo la suposición que no había interferencia intersímbolo (ISI). Ahora el análisis será mas franco,
ya que los procesos AWGN de media cero se caracterizan exclusivamente por su varianza. En la
practica descubriremos que la ISI es a menudo una fuente secundaria de interferencia que debe ser
considerada. Como explicamos en la sección 3.3, la ISI puede ser generada por el uso de filtros
limitadores de banda a la salida del transmisor, en el canal, o a la entrada del receptor. El resultado
de esta interferencia adicionada es la de disminuir la probabilidad de error tanto para receptores
coherentes y no coherentes. Calculando el error de performance en la presencia de ISI en la adición
de AWGN es mucho mas complicado ya que esta involucra la respuesta al impulso del canal. Este
asunto no será tratado aquí; sin embargo, para entrar mas en detalle diríjase a la referencia [11-16].

Você também pode gostar