A mis padres José Luis y Maria Elena por el apoyo ... - Andrew.cmu.edu

Algoritmo Rápido Fast Kalman en aritmética flotante con precisión doble. ...... Desde un punto de vista computacional el modelo autoregresivo tiene una ventaja.
2MB Größe 11 Downloads 50 vistas
A mis padres Jos´e Luis y Maria Elena por el apoyo incondicional que siempre me han prestado.

A mi hermano Jos´e Luis cuya amistad, apoyo y experiencia me han conducido por un camino lleno de satisfacciones.

En recuerdo de mi abuela Maria de la Paz.

A todos mis amigos por su apoyo en momentos dif´ıciles y por compartir los buenos y malos momentos.

Juan Alberto

A mi pap´ a, Mario Le´ on Por su ejemplo de dedicaci´on, respeto, templanza y por su apoyo incondicional en cada uno de mis retos.

A mi mam´ a, Ma. Antonia N´ ajera Por su comprensi´on, respeto y por todas sus palabras de motivaci´on, as´ı mismo por todo su apoyo sin el cual no hubiera logrado terminar ´este ni ninguno de mis proyectos.

A mis hermanos, Bella y Yonathan Por su comprensi´on, respeto y compa˜ n´ıa.

A mis amigos... Alejandro, Ivan, Sergio, Jose Luis, Juan, Jose Manuel, Nadir, Alonso, Carina, Eduardo, Carlos, por todos los momentos agradables que hemos pasado.

Pedro Giovanni

Agradecimientos Agradecemos a Dios por la vida que nos concede.

A la Universidad Nacional Aut´onoma de M´exico y a la Facultad de Ingenier´ıa por habernos dado la oportunidad de estudiar en sus aulas. Agradecemos de la manera m´as cordial y atenta a todos aquellos profesores que han contribuido de una manera positiva en nuestra formaci´on profesional, especialmente al Dr. Miguel Moctezuma Flores, Dr. Francisco Garc´ıa Ugalde, M.I. Larry H. Escobar Salguero y a´ la Ing. Gloria Mata Hern´ andez por haber aceptado ser parte de nuestro jurado y por sus valiosos comentarios en la revisi´on final de este trabajo.

Agradecemos al M.I. Octavio Estrada Castillo por todo su apoyo brindado a lo largo de la carrera.

Finalmente, quisieramos expresar nuestro m´as sincero agradecimiento al Dr. Rogelio Alc´ antara Silva, a quien reconocemos su gran apoyo, paciencia y amistad durante nuestro desarrollo como profesionistas y en especial para la realizaci´on de este trabajo.

Juan Alberto Monter Sanabria

Pedro Giovanni Le´ on N´ ajera

RESUMEN Una pieza fundamental en todo sistema de comunicaciones es el canal de transmisi´on. Cuando las se˜ nales viajan a trav´es de ´este, se distorsionan debido a problemas de ancho de banda limitado y propagaci´on por multitrayectorias en los canales m´oviles, por esta raz´on al recibir las se˜ nales es importante compensar las distorsiones introducidas por el canal. Los filtros igualadores son una herramienta que nos permiten realizar dicha tarea. Dado que generalmente las caracter´ısticas de los canales son variantes con el tiempo, el filtro igualador debe ajustarse a las variaciones del canal para compensar en todo tiempo las distorsiones introducidas por ´este, por esta raz´on hablamos de un igualador adaptable. El algoritmo de filtrado adaptable tiene la funci´on de actualizar los coeficientes del filtro de acuerdo con un criterio de optimizaci´on dado. En particular, en este trabajo estudiamos dos de los criterios de optimizaci´on m´as utilizados, el del error cuadr´atico promedio (MSE) y el de los m´ınimos cuadrados (LS), resaltando las caracter´ısticas de cada uno de ellos. Puesto que todo algoritmo deber´a implantarse en un dispositivo de procesamiento de se˜ nales, donde el n´ umero de bits para representar las cantidades es limitado, es importante garantizar que los errores introducidos debido a problemas de representaci´on, no se incrementen a lo largo del proceso de actualizaci´on de los par´ametros del filtro; puesto que si esto sucede el algoritmo puede diverger como se muestra en este trabajo. En la primera parte de este documento, presentamos todas las herramientas necesarias para el estudio de los algoritmos de filtrado adaptable y de la problem´atica de la interferencia entre s´ımbolos, en una segunda parte se estudian los problemas num´ericos que presentan los algoritmos, adem´as se muestra un m´etodo de an´alisis de errores por redondeo en algoritmos recursivos. As´ı mismo, se realiza un estudio de los errores de redondeo en los algoritmos cl´asicos RLS y FRLS presentando las versiones estabilizadas que garantizan el buen desempe˜ no de los algoritmos en aritm´etica finita. Finalmente se presentan un gran n´ umero de simulaciones tanto en aritm´etica entera como flotante, que permiten entender las causas de los problemas num´ericos en los

algoritmos de filtrado adaptable. Uno de los objetivos primordiales de este trabajo es demostrar que es importante considerar los problemas num´ericos que muchas veces hacen diverger los algoritmos y que limitan por tanto la implementaci´on de ´estos en aplicaciones reales. As´ı mismo se desea presentar un material que permita a aquellos interesados en el problema de la igualaci´on de canal introducirse en el a´rea mediante una lectura accesible.

´Indice general Resumen

4

Indice general

I

Indice de figuras

V

Indice de cuadros

VIII

Introducci´ on

IX

´ Y LA INTERFERENCIA 1. LOS CANALES DE COMUNICACION ENTRE SIMBOLOS (ISI). 1.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Tipos de canales de comunicaci´on . . . . . . . . . . . . . . . . . . . . 1.3. Descripci´on de los canales de propagaci´on . . . . . . . . . . . . . . . 1.3.1. Cables el´ectricos . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2. Fibra o´ptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3. Canal satelital . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Modelado de los canales m´oviles de comunicaci´on . . . . . . . . . . . 1.4.1. El fen´omeno de multitrayectorias . . . . . . . . . . . . . . . . 1.4.2. El canal Gaussiano . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3. El canal Rayleigh con desvanecimientos . . . . . . . . . . . . . 1.4.4. El canal Rician . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Eliminaci´on de la interferencia entre s´ımbolos (ISI) en las comunicaciones digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.1. Dise˜ no de se˜ nales para canales de banda limitada . . . . . . . 1.5.2. Dise˜ no de se˜ nales de banda limitada para cero ISI . . . . . . 1.5.3. La igualaci´on de canal como soluci´on al problema de ISI. . . . 1.6. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. TEOR´IA DE FILTROS LINEALES 2.1. Introducci´on . . . . . . . . . . . . . 2.2. Modelado de procesos estoc´asticos . 2.3. Aplicaciones de los filtros digitales. i

1 1 1 3 3 4 5 6 6 8 9 10 11 12 16 18 23

´ OPTIMOS 24 . . . . . . . . . . . . . . . . . . . 24 . . . . . . . . . . . . . . . . . . . 24 . . . . . . . . . . . . . . . . . . . 28

2.3.1. Funciones de los filtros. 2.3.2. Filtros adaptables . . . 2.3.3. La predicci´on lineal . . 2.3.4. El filtrado . . . . . . . 2.4. El filtro de Wiener . . . . . . 2.5. El filtro de Kalman . . . . . 2.6. Conclusiones . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

29 30 31 32 33 37 42

´ 3. ALGORITMOS DE FILTRADO ADAPTABLE PARA LA IGUALACION DE CANAL 43 3.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.2. Algoritmos basados en el error cuadr´atico promedio . . . . . . . . . . 43 3.2.1. El m´etodo de paso descendente . . . . . . . . . . . . . . . . . 43 3.2.2. Algoritmo LMS transversal . . . . . . . . . . . . . . . . . . . . 48 3.3. Algoritmos basados en los m´ınimos cuadrados . . . . . . . . . . . . . 51 3.3.1. El algoritmo RLS transversal . . . . . . . . . . . . . . . . . . 52 3.3.2. El algoritmo FRLS “Fast Kalman” . . . . . . . . . . . . . . . 55 3.4. Evaluaci´on de algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.5. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 ´ ´ 4. ANALISIS DE ROBUSTEZ NUMERICA EN ALGORITMOS DE FILTRADO ADAPTABLE 4.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Errores Num´ericos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1. Tipos de errores . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2. Errores por redondeo . . . . . . . . . . . . . . . . . . . . . . . 4.2.3. Errores en operaciones aritm´eticas . . . . . . . . . . . . . . . . 4.2.4. Propagaci´on del Error . . . . . . . . . . . . . . . . . . . . . . 4.3. An´alisis general de la propagaci´on de errores en algoritmos recursivos 4.4. An´alisis de los errores de redondeo en los algoritmos RLS . . . . . . . 4.4.1. An´alisis te´orico del error . . . . . . . . . . . . . . . . . . . . . 4.5. Generalidades de los algoritmos r´apidos. . . . . . . . . . . . . . . . . 4.6. Errores de redondeo en algoritmos r´apidos (FRLS) . . . . . . . . . . . 4.6.1. Algoritmos r´apidos estabilizados . . . . . . . . . . . . . . . . . 4.6.2. Redundancia y retroalimentaci´on del error . . . . . . . . . . . 4.6.3. Obtenci´on de algoritmos r´apidos estabilizados . . . . . . . . . 4.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

66 66 67 67 67 68 69 70 72 73 80 82 83 83 86 92

´ Y COMPARACION ´ DE ALGORITMOS ROBUS5. EVALUACION TOS DE FILTRADO ADAPTABLE 5.1. Algoritmos RLS cl´asicos . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1. Implementaci´on CLS1 . . . . . . . . . . . . . . . . . . . . . . 5.1.2. Implementaci´on CLS2 . . . . . . . . . . . . . . . . . . . . . .

94 95 95 97

ii

5.2. Algoritmos FRLS con precisi´on doble . . . . . . . . 5.2.1. Algoritmo R´apido de Kalman . . . . . . . . . 5.2.2. Algoritmo R´apido Versi´on Cioffi . . . . . . . . 5.2.3. Algoritimo R´apido Versi´on Slock . . . . . . . 5.3. Algoritmos SFRLS con precisi´on doble . . . . . . . . 5.3.1. Algoritimo Estabilizado R´apido Versi´on Cioffi, 5.3.2. Algoritimo Estabilizado R´apido Versi´on Slock, 5.4. Algoritmos FRLS con precisi´on sencilla . . . . . . . 5.4.1. Algoritimo R´apido de Kalman . . . . . . . . . 5.4.2. Algoritimo R´apido Versi´on Cioffi . . . . . . . 5.4.3. Algoritimo R´apido Versi´on Slock . . . . . . . 5.5. Algoritmos SFRLS con precisi´on sencilla . . . . . . . 5.5.1. Algoritimo Estabilizado R´apido Versi´on Cioffi, 5.5.2. Algoritimo Estabilizado R´apido Versi´on Slock, 5.6. Algoritmos FRLS en aritm´etica entera . . . . . . . . 5.6.1. Algoritmo SFRLSVS en aritm´etica entera . . 5.6.2. Algoritmo Fast Kalman en aritm´etica entera . 5.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . SFRLSVC. SFRLSVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . SFRLSVC . SFRLSVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

101 101 101 103 104 105 106 106 107 108 109 110 110 111 112 112 116 120

6. CONCLUSIONES

122

´ MATRICIAL A. LEMA DE INVERSION

125

´ PARA LA PREDICCION ´ FORWARD B. SOLUCION 129 B.1. Minimizaci´on del error de predicci´on basado en el error cuadr´atico promedio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 B.2. Minimizaci´on del error de predicci´on basado en el criterio de los m´ınimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 ´ C. ANALISIS DE VALORES Y VECTORES CARACTER´ISTICOS. 137 C.0.1. Propiedades de los valores caracter´ısticos y vectores caracter´ısticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 D. ALGORITMOS DE FILTRADO FRLS 146 D.1. Algoritmo FRLS Versi´on Cioffi . . . . . . . . . . . . . . . . . . . . . 146 D.2. Algoritmo FRLS Versi´on Slock . . . . . . . . . . . . . . . . . . . . . . 148 E. ALGUNOS ASPECTOS DE ALGEBRA E.1. Rango de una matriz . . . . . . . . . . . E.2. Normas de matrices y n´ umeros condici´on E.2.1. Normas de matrices . . . . . . . . E.2.2. N´ umeros condici´on . . . . . . . . E.2.3. Matrices positivas . . . . . . . . . E.2.4. Valores singulares de una matriz . iii

VECTORIAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

151 . 151 . 152 . 152 . 154 . 156 . 157

Ap´ endices

125

Bibliograf´ıa

159

iv

´Indice de figuras 1.1. Clasificaci´on de los canales de comunicaci´on. . . . . 1.2. El fen´omeno de multitrayectoria en una zona urbana. 1.3. Canal gaussiano. . . . . . . . . . . . . . . . . . . . . 1.4. FDP Rayleigh . . . . . . . . . . . . . . . . . . . . . . 1.5. FDP Rician normalizada a sus promedios locales. . . 1.6. ISI en un sistema de comunicaci´on binario . . . . . . 1.7. Sistema de comunicaci´on b´asico . . . . . . . . . . . . 1.8. Diagrama de ojo . . . . . . . . . . . . . . . . . . . . 1.9. Constelaci´on para una transmisi´on QAM . . . . . . . 1.10. Espectro de B(t) . . . . . . . . . . . . . . . . . . . . 1.11. Esquema de un igualador adaptable . . . . . . . . . . 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7. 2.8. 2.9.

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

2 7 8 9 10 12 13 15 15 17 19

Modelo de un filtro generador de se˜ nales estoc´asticas. . Descripci´on del filtro generador de se˜ nales estoc´asticas. Estructura generadora de un proceso AR u(k) . . . . . Estructura generadora de un proceso MA u(k) . . . . . Sistema para la predicci´on de se˜ nales. . . . . . . . . . . Problema fundamental del filtrado. . . . . . . . . . . . Filtro FIR transversal. . . . . . . . . . . . . . . . . . . Superficie del error . . . . . . . . . . . . . . . . . . . . Problema fundamental de un filtro Kalman. . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

25 25 27 28 31 33 35 37 38

3.1. Filtro transversal adaptable. . . . . . . . . . . . . . . . . . . . . . . 3.2. Banco de correladores para estimar la correcci´on en el algoritmo de paso descendente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Esquema de igualaci´on del algoritmo LMS. . . . . . . . . . . . . . . 3.4. Esquema de igualaci´on de canal. . . . . . . . . . . . . . . . . . . . . 3.5. Respuesta es frecuencia del algoritmo LMS. . . . . . . . . . . . . . 3.6. Error en el algoritmo de filtrado LMS. . . . . . . . . . . . . . . . . 3.7. Error en el algoritmo de filtrado RLS. . . . . . . . . . . . . . . . . . 3.8. Error en el algoritmo de filtrado r´apido RLS, Fast Kalman . . . . .

. 44 . . . . . . .

47 49 61 62 63 63 64

4.1. Errores en los algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.2. Retroalimentaci´on para los algoritmos SFRLS . . . . . . . . . . . . . 84

v

5.1. Implementaci´on CLS1. (a) Comportamiento del error de filtrado, λ = 1, 0,96, 0,93. (b) Comportamiento de la norma de la matriz de covarianza Rp−1 (k) para λ = 1. . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.2. Comportamiento de la norma de la matriz de covarianza Rp−1 (k) para la implementaci´on CLS1. (a)λ = 0,96. (b) λ = 0,93. . . . . . . . . . . 96 5.3. Implementaci´on CLS1. (a) Respuesta en frecuencia. (b) Convoluci´on hc ∗ hf para λ = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.4. Implementaci´on CLS1, convoluci´on hc ∗ hf (a) λ = 0,93. (b) λ = 0,96. 98 5.5. Implementaci´on CLS2. (a) Comportamiento del error de filtrado. (b) Comportamiento de la norma de matriz de covarianza Rp−1 (k) para λ = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.6. Comportamiento de la norma de la matriz de covarianza Rp−1 (k) para la implementaci´on CLS2. (a) λ = 0,96. (b) λ = 0,93. . . . . . . . . . . 99 5.7. Implementaci´on CLS2. (a) Respuesta en frecuencia. (b) Convoluci´on hc ∗ hf para λ = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.8. Implementaci´on CLS2, convoluci´on hc ∗ hf (a) λ = 0,96. (b) λ = 0,93. 100 5.9. Algoritmo R´apido Fast Kalman en aritm´etica flotante con precisi´on doble. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ. . . . . . . . . . . . . . . . . . . . . 102 5.10. Algoritmo R´apido versi´on Cioffi en aritm´etica flotante con precisi´on doble. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ. . . . . . . . . . . . . . . . . . . . . 103 5.11. Algoritmo R´apido versi´on Slock en aritm´etica flotante con precisi´on doble. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ. . . . . . . . . . . . . . . . . . . . . 104 5.12. Algoritmo R´apido Estabilizado versi´on Cioffi (algoritmo de Botto.) en aritm´etica flotante con precisi´on doble. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ.105 5.13. Algoritmo R´apido Estabilizado versi´on Slock en aritm´etica flotante con precisi´on doble. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ. . . . . . . . . . . . 106 5.14. Algoritmo R´apido Fast Kalman en aritm´etica flotante con precisi´on sencilla. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ. . . . . . . . . . . . . . . . . . . . 107 5.15. Algoritmo R´apido versi´on Cioffi en aritm´etica flotante con precisi´on sencilla. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ. . . . . . . . . . . . . . . . . . . . 108 5.16. Algoritmo R´apido versi´on Slock en aritm´etica flotante con precisi´on sencilla. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ. . . . . . . . . . . . . . . . . . . . 109 5.17. Algoritmo R´apido Estabilizado versi´on Cioffi (algoritmo de Botto) en aritm´etica flotante con precisi´on sencilla. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ.110 vi

5.18. Algoritmo R´apido Estabilizado versi´on Slock en aritm´etica flotante con precisi´on sencilla. (a) Comportamiento del error de filtrado. (b) Comportamiento de la variable de verosimilitud γ. . . . . . . . . . . . 111 5.19. Respuesta en frecuencia de los algoritmos r´apidos estabilizados, CioffiBotto y Slock, en precisi´on sencilla. (a) λ= 0.96. (b) λ= 0.93. . . . . 112 5.20. Comportamiento del error de filtrado del algoritmo SFRLSVS en aritm´etica entera.(a) λ= 0.98. (b) λ= 0.95. . . . . . . . . . . . . . . . . 113 5.21. Comportamiento de la variable de verosimilitud en el algoritmo SFRLSVS en aritm´etica entera.(a) 32 bits. (b) 16 bits. . . . . . . . . . . . . . . 114 5.22. Comportamiento de los errores de redondeo en el error de filtrado e(k). (a) aritm´etica de 16 bits. (b) aritm´etica de 32 bits. . . . . . . . 115 5.23. Comportamiento de los errores de redondeo en la ganancia dual de Kalman Cp (k). (a) aritm´etica de 16 bits. (b) aritm´etica de 32 bits. . . 115 5.24. Respuesta en frecuencia de la implementaci´on SFRLSVS en aritm´etica entera (a) λ = 0,98. (b) λ = 0,95. . . . . . . . . . . . . . . . . . . . . 116 5.25. Comportamiento del error de filtrado en el algoritmo “Fast Kalman”. (a) aritm´etica de 16 bits (λ = 0,98). (b) aritm´etica de 32 bits . . . . . 117 5.26. Comportamiento de los errores de redondeo en el error de filtrado e(k) algoritmo Fast Kalman. (a) aritm´etica de 16 bits (λ = 0,98). (b) aritm´etica de 32 bits. . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 5.27. Respuesta en frecuencia de la implementaci´on “Fast Kalman” en aritm´etica entera (a) λ = 0,98 (b) λ = 1 . . . . . . . . . . . . . . . . . . 119

vii

´Indice de cuadros 3.1. Algoritmo de Filtrado LMS . . . . . . . . . . . . . . . . . . . . . . . 51 3.2. Algoritmo de filtrado RLS . . . . . . . . . . . . . . . . . . . . . . . . 56 3.3. Algoritmo FRLS “Fast Kalman”. . . . . . . . . . . . . . . . . . . . . 60 4.1. Algoritmos RLS . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Variables sensibles a errores de redondeo y utilizadas para la lizaci´on de los algoritmos FRLS. . . . . . . . . . . . . . . . . 4.3. Algoritmo SFRLS Versi´on Cioffi . . . . . . . . . . . . . . . . 4.4. Continuaci´on algoritmo SFRLS Versi´on Cioffi . . . . . . . . 4.5. Algoritmo SFRLS Versi´on Slock. . . . . . . . . . . . . . . . 4.6. Continuaci´on algoritmo SFRLS Versi´on Slock . . . . . . . .

. . . . estabi. . . . . . . . . . . . . . . . . . . .

. 73 . . . . .

85 87 88 90 91

B.1. Algoritmo de Levinson-Durbin . . . . . . . . . . . . . . . . . . . . . . 132 B.2. Algoritmo predictor RLS . . . . . . . . . . . . . . . . . . . . . . . . . 136 D.1. Algoritmo FRLS Versi´on Cioffi . . . . . . . . . . . . . . . . . . . . . 147 D.2. Algoritmo FRLS Versi´on Slock . . . . . . . . . . . . . . . . . . . . . . 149 D.3. Continuaci´on algoritmo FRLS Versi´on Slock . . . . . . . . . . . . . . 150

viii

´ INTRODUCCION En todo sistema de comunicaciones, el ancho de banda de transmisi´on es limitado, por esta raz´on las se˜ nales recibidas difieren de las se˜ nales transmitidas, en particular; un pulso digital requiere de un ancho de banda infinito para ser transmitido sin ser distorsionado. Dado que el ancho de banda es limitado este pulso se expande en el tiempo, lo que ocasiona que se interfiera con otros s´ımbolos enviados en subsecuentes instantes de tiempo que a su vez tambi´en son distorsionados. El problema entonces consiste en recuperar la se˜ nal transmitida sin distorsi´on y para tal efecto se utilizan igualadores de canal con una respuesta en frecuencia que complemente la respuesta en frecuencia del canal, es decir; que amplifique frecuencias donde el canal aten´ ua la se˜ nal con el objetivo de simular un ancho de banda suficiente para evitar la interferencia entre s´ımbolos. El canal de transmisi´on en general no mantiene una respuesta en frecuencia fija durante toda la transmisi´on puesto que este se ve influenciado por efectos de clima y movimiento del receptor principalmente (aunque no son las u ´nicas razones), por consecuencia el igualador de canal debe ajustarse para seguir compensando la respuesta del canal de transmisi´on y por tanto se le conoce como igualador o filtro adaptable. La rapidez y exactitud con que los par´ametros del filtro adaptable son calculados dependen tanto del criterio de optimizaci´on que se utilice (m´axima verosimilitud, m´ınimos cuadrados, error cuadr´atico promedio, etc) como de la estructura del filtro. En esta tesis se estudian b´asicamente dos de los criterios m´as utilizados (m´ınimos cuadrados y error cuadr´atico promedio) para la soluci´on de este problema, present´andose las ventajas de cada uno de ellos. En particular, se estudian los filtros de respuesta impulsional finita (FIR) con estructura transversal. El hecho de utilizar los filtros FIR es debido a que estos son estables por definici´on y de esta manera solo nos enfocamos en estudiar la estabilidad del algoritmo, dado que ´estos presentan estructuras recursivas y pueden presentar problemas de inestabilidad. Como se ver´a a lo largo del trabajo, los algoritmos basados en el criterio de los m´ınimos cuadrados presentan muy buenas propiedades en cuanto a versatilidad con el tipo de se˜ nales que pueden trabajar y a la velocidad de convergencia. Sin embargo, presentan ciertos problemas num´ericos cuando se trabaja con factores de olvido (λ < 1), sobre todo cuando se implementan en aritm´etica finita, 16, 32, 64 bits. ix

Tales problemas num´ericos pueden hacerlos diverger. Dada las buenas propiedades de los algoritmos basados en los m´ınimos cuadrados, a lo largo de este trabajo se hace un estudio m´as detallado de ´estos. Puesto que al implementar un dispositivo adaptable dentro de un sistema de comunicaciones, el algoritmo adaptable deber´a correr dentro de un dispositivo de procesamiento digital en tiempo real con una longitud de palabra de precisi´on finita, es de fundamental importancia analizar la robustez num´erica de tales algoritmos. En particular, por robustez num´erica nos referimos al estudio de los problemas de divergencia ocasionados por los errores num´ericos que aparecen en las variables utilizadas en los algoritmos que se presentan debido a errores de truncamiento y redondeo dada la cantidad limitada de bits para representar tales variables. La igualaci´on de canal no es un problema nuevo ni exclusivo de las comunicaciones digitales. Desde el inicio de las transmisiones a distancia utilizando pares de cobre, se vio la necesidad de utilizar t´ecnicas que permitieran compensar las distorsiones de los canales de propagaci´on. Sin embargo, el problema es de actualidad dada la necesidad de mejorar e implementar nuevos servicios de comunicaciones, i.e. telefon´ıa celular, redes de datos y servicios en tiempo real. La capacidad de realizar estas tareas depende de que tanto podamos aprovechar el canal de comunicaciones y por tanto de nuestra capacidad de compensar las deficiencias del canal mediante la utilizaci´on de igualadores adaptables. Por otra parte, el empleo de igualadores adaptables es solo una parte del sistema de comunicaciones que esta compuesto por codificadores fuente, que nos permiten enviar la m´axima cantidad de informaci´on en el ancho de banda disponible, codificadores de canal, que permiten la mayor inmunidad posible a ruido e interferencia y moduladores que adec´ uan el tipo de se˜ nal al canal de transmisi´on. Por esta raz´on, el problema de la igualaci´on de canal va de la mano con estos otros problemas mencionados y en conjunto se busca hacer m´as eficiente la comunicaci´on. En un mundo donde las comunicaciones digitales forman parte de la sociedad es importante conocer los problemas que se presentan y saber como solucionarlos. La comprensi´on del problema nos permitir´a el dise˜ no de dispositivos y evitar ser tan solo consumidores de productos dise˜ nados en otros pa´ıses. Finalmente, este trabajo tiene como objetivo fundamental, comprender el problema y estudiar los algoritmos de filtrado adaptable que lo solucionen. As´ı mismo, como hemos mencionado, la idea es que estos algoritmos sean implementados dentro de un dispositivo de procesamiento digital en tiempo real donde la representaci´on num´erica y operaciones aritm´eticas se realizan generalmente mediante una precisi´on finita, lo que ocasiona que los resultados obtenidos difieran de los te´oricos y muchas veces esto ocasione divergencia del algoritmo. Por esta raz´on, de manera simultanea x

a la b´ usqueda de algoritmos de filtrado adaptable que solucionen el problema de la igualaci´on de canal, se realizar´a un an´alisis num´erico de los errores ocasionados debido a errores num´ericos dentro de los procesadores y se presentar´an los algoritmos estables bajo aritm´etica finita que aseguren un buen funcionamiento dentro del dispositivo de procesamiento, e.g. DSP. En este trabajo, adem´as de plantear el problema de la igualaci´on de canal como soluci´on a la ISI. Se hace un estudio de la propagaci´on de los errores en algoritmos recursivos del tipo LS bas´andonos en algunos documentos publicados. As´ı mismo, se realza la importancia de los errores num´ericos en los algoritmos mediante la simulaci´on de ´estos bajo aritm´etica de precisi´on limitada. ´ DE LA TESIS ORGANIZACION En el cap´ıtulo 1 se plantea el problema de la interferencia entre s´ımbolos (ISI) en las comunicaciones digitales, ocasionado por el ancho de banda finito de los canales de comunicaci´on fijos y por la propagaci´on multitrayector´ıa en los canales inal´ambricos. Por tanto, se resalta la necesidad de emplear t´ecnicas que permitan eliminar la ISI y mejorar el desempe˜ no de los sistemas de comunicaci´on. Se presenta un estudio de las propiedades de los canales de propagaci´on m´as usados como lo es el par de cobre, el cable coaxial, la fibra o´ptica y el canal inal´ambrico resaltando el modelado del canal inal´ambrico. En la u ´ltima parte de este cap´ıtulo se presenta la igualaci´on de canal como soluci´on al problema de ISI y la necesidad de utilizar igualadores adaptables dadas las caracter´ısticas de variancia con el tiempo del canal de propagaci´on. En el cap´ıtulo 2 se presentan las herramientas b´asicas para el estudio de los algoritmos adaptables. Presentamos el modelado de procesos estoc´asticos mediante modelos ARMA, AR y MA dado que una gran cantidad de se˜ nales se pueden modelar de esta manera. As´ı mismo se presentan las diferentes tareas que pueden realizar los filtros digitales como lo son: la predicci´on, el suavizado y el filtrado. Con el prop´osito de comprender a detalle el problema del filtrado se presenta la soluci´on de los filtros de Wiener y Kalman lo que nos facilitar´a la comprensi´on del problema del filtrado adaptable. En el cap´ıtulo 3 entramos al estudio de los algoritmos de filtrado adaptable basados en dos de los criterios de optimizaci´on m´as utilizados, el del error cuadr´atico promedio (MSE) y el de los m´ınimos cuadrados (LS) resaltando las propiedades de cada uno de ellos.

xi

As´ı mismo se obtienen los algoritmos LMS, RLS convencional y el “Fast Kalman” present´andose en la u ´ltima parte de este cap´ıtulo las simulaciones correspondientes a estos algoritmos bajo precisi´on infinita de c´alculo. En el cap´ıtulo 4 nos enfocamos al estudio de la robustez num´erica de los algoritmos basados en los m´ınimos cuadrados. Se resalta la importancia del estudio del comportamiento num´erico de los algoritmos dado que muchas veces pueden diverger precisamente debido a problemas num´ericos. En una primera parte analizamos la robustez num´erica de dos implementaciones del algoritmo RLS cl´asico obtenido en el cap´ıtulo 3, llegando a la conclusi´on que el comportamiento num´erico de un mismo algoritmo depende de la manera en que este se implemente. As´ı mismo resaltamos los problemas num´ericos de los algoritmos r´apidos y la necesidad de trabajar con algoritmos estabilizados para aprovechar las buenas propiedades de los algoritmos FRLS. Dada la necesidad de trabajar con algoritmos estabilizados, presentamos una estrategia de estabilizaci´on propuesta por [15]. En el cap´ıtulo 5 se presentan las simulaciones correspondientes a los algoritmos presentados en el cap´ıtulo 4 tanto en precisi´on infinita de c´alculo como en aritm´etica entera resaltando el aumento de inestabilidad en los algoritmos debido a errores num´ericos cuando se limita la precisi´on de c´alculo. En un u ´ltimo cap´ıtulo se presentan las conclusiones y para completar el trabajo se presentan algunos ap´ endices que nos ayudan a comprender mejor las ideas presentadas a lo largo de la tesis.

xii

Cap´ıtulo 1 LOS CANALES DE ´ Y LA COMUNICACION INTERFERENCIA ENTRE SIMBOLOS (ISI). 1.1.

Introducci´ on

El canal de propagaci´on es una parte fundamental del sistema de comunicaci´on y determina en buena medida su eficiencia. Por esta raz´on, en este cap´ıtulo nos enfocaremos a la descripci´on de las caracter´ısticas de los canales de propagaci´on m´as significativos y presentaremos el modelado de los canales inal´ambricos. El estudio de los diferentes tipos de canales nos permitir´a comprender los principales problemas que se presentan y que afectan el buen desempe˜ no de los sistemas de comunicaciones. En particular, uno de dichos problemas es el de la interferencia entre s´ımbolos (ISI) causado por el ancho de banda limitado de los canales y la propagaci´on multitrayectoria en los canales in´alambricos. En la secci´on 1.5 se estudia el problema de la interferencia entre s´ımbolos y se presentan algunas alternativas para disminuirla. As´ı mismo, en la secci´on 1.5.3 se presenta la igualaci´on de canal como soluci´on al problema de la interferencia entre s´ımbolos present´andose diferentes esquemas de igualaci´on.

1.2.

Tipos de canales de comunicaci´ on

Podemos ver un canal de comunicaci´on como el enlace entre dos puntos a lo largo de una trayectoria de comunicacion. Cuando definimos un canal espec´ıfico debemos 1

indicar bajo que condiciones el canal presenta la propiedad de linealidad y/o reciprocidad. Frecuentemente un canal se comporta de forma lineal solo sobre ciertas regiones de voltaje de entrada, temperatura, voltaje de alimentaci´on, etc. La linealidad del canal es de gran importancia cuando se emplean esquemas de modulaci´on sensitivos en amplitud como la modulaci´on en cuadratura de amplitud QAM . Un canal se denomina rec´ıproco si su comportamiento no cambia conforme cambia la direcci´on en la que fluye la informaci´on. Los canales utilizados en los sistemas de comunicaci´on se muestran en la fig. 1.1,[29]. TRANSMISOR

RECEPTOR CANAL DE MODULACION

CANAL DE PROPAGACION Codificador

Modem

Etapa de acoplo

Medio F´ısico

Etapa de acoplo

Modem

Deco dificador

CANAL DIGITAL

Figura 1.1: Clasificaci´on de los canales de comunicaci´on. El canal de propagaci´on es el que transporta las se˜ nales desde el equipo de acoplo en el transmisor hasta el equipo de acoplo en el receptor. Se asume que el canal de propagaci´on es lineal y rec´ıproco, sin embargo puede presentar la caracter´ıstica de variacion con el tiempo. Para el caso de un canal inal´ambrico, el canal de propagaci´on es rec´ıproco si las antenas empleadas presentan reciprocidad. Las antenas presentan los mismos patrones de transmisi´on y recepci´on en el espacio libre si estas son bilaterales, lineales y pasivas, [19]. El canal de modulaci´on se extiende desde la salida del modulador hasta la entrada del demodulador. Este canal es de gran inter´es para dise˜ nadores de esquemas de 2

modulaci´on y sistemas de codificaci´on en Trellis, [29]. Si asumimos el canal de radio lineal, la linealidad del canal de modulaci´on se determina por las caracter´ısticas de transmisi´on de los equipos receptores y transmisores de acoplamiento. Los sistemas de modulaci´on que emplean modulaci´on multinivel de amplitud, requieren que el canal de modulaci´on sea aproximadamente lineal. El canal digital consiste de todos los componentes del sistema, (incluyendo el canal de propagaci´on) enlazando la secuencia digital no modulada en el transmisor con la secuencia regenerada en el receptor. El canal digital es de importancia para ingenieros en codificaci´on fuente y codificaci´on de canal. El hecho de definir estos tipos de canales tiene como objetivo mostrar como cada parte de un sistema de comunicaci´on puede ser visto como un canal, esto es, para un ingeniero que se dedica a trabajar en codificaci´on fuente, la parte de modulaci´on, amplificaci´on y el propio canal f´ısico son para ´el, el canal de transmisi´on, [14].

1.3.

Descripci´ on de los canales de propagaci´ on

Existen diferentes medios o canales de propagaci´on a trav´es de los cuales se transmite la informaci´on en forma de se˜ nales. El tipo de se˜ nales a utilizar depende del tipo de canal de propagaci´on; as´ı, mientras en un par de cobre hacemos uso de se˜ nales el´ectricas, en una fibra o´ptica utilizamos se˜ nales o´pticas y en un canal inal´ambrico usamos se˜ nales electromagn´eticas. Cada uno de los diferentes canales presentan caracter´ısticas que los hacen adecuados para aplicaciones espec´ıficas, por esta raz´on es importante conocer los diferentes medios de transmisi´on.

1.3.1.

Cables el´ ectricos

Para frecuencias inferiores a 300 MHz, se pueden utilizar cables el´ectricos para transportar informaci´on en forma de se˜ nales el´ectricas. El cable telef´onico est´a constituido por varios pares de hilos, cada uno de los cuales posee dos conductores retorcidos de cobre o´ aluminio recubiertos de polietileno. En el canal telef´onico la atenuaci´on de la se˜ nal el´ectrica var´ıa en funci´on de la ra´ız cuadrada de la frecuencia, esto significa que la atenuaci´on se multiplica por dos si la frecuencia se multiplica por cuatro. En el caso de un par telef´onico esta atenuaci´on es del orden de 3dB despu´es de un Km para una se˜ nal de 100KHz, y es la principal limitaci´on para ancho de banda. Adem´as de este inconveniente, el cable telef´onico 3

tambi´en presenta una notable sensibilidad a los cambios de temperatura as´ı como la presencia de diafon´ıa1 , [31]. Un segundo tipo de cable es el cable coaxial. Est´a constituido por dos conductores conc´entricos que se encuentran separados por un espacio lleno de un aislante el´ectrico (que puede ser aire). El conductor interno es un hilo met´alico y el conductor externo es un cilindro met´alico. El cilindro externo limita la diafon´ıa y las perturbaciones electromagn´eticas externas. Este cable presenta una atenuaci´on m´as baja que el par de audio, y es del orden de 1.3dB para un Km de cable a 1MHz. Los cables coaxiales se utilizan rara vez a m´as de 100MHz, [31]. Dado que la atenuaci´on var´ıa en funci´on de la ra´ız cuadrada de la frecuencia, podemos decir, por tanto que, tanto para el cable telef´onico como para el cable coaxial, una distancia larga implica una baja frecuencia, o que una alta frecuencia corresponde a una corta distancia. Esto es un gran inconveniente cuando se intenta obtener un sistema de telecomunicaciones de alta eficiencia.

1.3.2.

Fibra o ´ptica

Es una gu´ıa de onda diel´ectrica que transporta se˜ nales de luz de un lugar a otro tal como un par de cobre o un cable coaxial transporta se˜ nales el´ectricas. Consiste de un n´ ucleo central con ´ındice de refracci´on n1 dentro del cual es confinada la propagaci´on del campo electromagn´etico. Este n´ ucleo es rodeado por un recubrimiento de ´ındice de refracci´on n2 con n2 < n1 , y finalmente el recubrimiento es cubierto por un delgado pl´astico. Las fibras o´pticas tienen caracter´ısticas u ´nicas que las hacen atractivas como medios de transmisi´on. En particular ofrecen las siguientes ventajas,[14]: • Enorme potencial de ancho de banda.2 • Pocas p´erdidas 0,2dB/Km. • Inmunidad a la interferencia electromagn´etica. • Tama˜ no y peso peque˜ nos. 1

Fen´omeno de interferencia entre pares telef´onicos adyacentes. Esto permite usar portadoras o´pticas con frecuencias de alrededor de 200THz, con tan alta frecuencia portadora y un ancho de banda m´as o´ menos igual al 10 % de la frecuencia portadora, tenemos como ancho de banda te´orico alrededor de 2 × 1015 Hz. 2

4

• Resistencia y flexibilidad. • Bajo costo.

1.3.3.

Canal satelital

Un canal satelital adiciona otra invaluable dimensi´on a las redes p´ ublicas de telecomunicaciones ya que provee una cobertura de gran a´rea incluso intercontinental. Adem´as, el acceso a a´reas remotas cubiertas por cables convencionales o fibras o´pticas, es una caracter´ıstica distintiva de los sat´elites. En casi todos los sistemas de comunicaci´on satelitales, los sat´elites son colocados en o´rbitas geoestacionarias. Visto desde la tierra, un sat´elite en o´rbita geoestacionaria parece estar estacionario en el cielo. Consecuentemente una estaci´on terrena no tiene que rastrear el sat´elite, por el contrario, solamente tiene que apuntar su antena en una direcci´on fija hacia el sat´elite. Los sistemas de comunicaci´on en o´rbitas geoestacionarias ofrecen las siguientes ventajas,[14]: • Cobertura global. • Enlaces de transmisi´on confiables. • Amplios anchos de banda. En t´erminos de servicios, los sat´elites pueden proveer enlaces punto a punto fijos, extendi´endose a lo largo de grandes distancias y dentro de a´reas remotas, comunicaci´on para plataformas m´oviles como buques o naves espaciales, as´ı mismo la capacidad de radiodifusi´on. La banda de frecuencias m´as popular para comunicaciones satelitales es 6 GHz para la subida y 4 GHz para el enlace de bajada. El uso de esta banda de frecuencias ofrece las siguientes ventajas: • Equipo de microondas relativamente barato. • Baja atenuaci´on por lluvia.1 • Ruido celeste2 insignificante. 1

La atenuaci´on por lluvia es la principal causa atmosf´erica de p´erdida de la se˜ nal. Este ruido, debido a emisiones de ruido aleatorio de fuentes gal´acticas, solares o terrestres alcanza su menor nivel entre 1 y 10 GHz. 2

5

1.4.

Modelado de los canales m´ oviles de comunicaci´ on

Los sistemas inal´ambricos presentan caracter´ısticas muy importantes que permiten dar servicios a grandes distancias sin embargo, el canal de propagaci´on es el causante de muchos de los problemas y limitaciones que afectan los sistemas inal´ambricos. Por ejemplo, la propagaci´on por multitrayectorias, la cual es una de las caracter´ısticas principales de los canales m´oviles de radio, ocasionada por la difracci´on y dispersi´on debido a las caracter´ısticas del terreno y edificios,[23]. La propagaci´on por multitrayectorias ocasiona distorsi´on en los sistemas anal´ogicos y afecta severamente el desempe˜ no de los sistemas digitales reduciendo las relaciones se˜ nal a ruido y se˜ nal a interferencia,[23]. Una comprensi´on del fen´omeno y en consecuencia el modelado matem´atico del canal es muy importante ya que facilita una predicci´on m´as precisa del rendimiento del sistema y provee el mecanismo para probar y evaluar m´etodos de eliminaci´on de los efectos negativos introducidos por el canal. Como hemos mencionado, el canal de propagaci´on influye en el rendimiento del sistema de radio comunicaciones, las se˜ nales llegan al receptor mediante un mecanismo de dispersi´on y la existencia de multitrayectorias con diferentes retardos, atenuaciones y fases. Esto da lugar a un canal complejo variante con el tiempo [23]. Un estudio detallado de los canales inal´ambricos se puede consultar en [3].

1.4.1.

El fen´ omeno de multitrayectorias

Los m´etodos para obtener predicciones de la intensidad de la se˜ nal en a´reas urbanas o´ dentro de edificios, son de gran importancia dado que la mayor´ıa de los sistemas de comunicaci´on operan en ciudades o´ zonas muy pobladas. El mayor problema en las a´reas de edificios es ocasionado debido a que la antena m´ovil se encuentra por debajo de los edificios que la rodean, lo que ocasiona que no exista l´ınea de vista con el transmisor. De esta forma, la propagaci´on se da a trav´es de dispersi´on y difracci´on de la se˜ nal en los edificios, [23]. En la pr´actica, la energ´ıa llega al receptor por medio de diferentes caminos simultaneamente, presentandose as´ı una situaci´on “multitrayectoria”. Las se˜ nales recibidas se combinan vectorialmente en la antena receptora dando lugar a una se˜ nal resultante, la cual puede ser grande o peque˜ na dependiendo de la distribuci´on de fases entre las componentes recibidas. Es evidente que un receptor en alguna posici´on dada puede recibir una se˜ nal resultante con una potencia muy diferente a la recibida a tan solo unos metros de ´esta u ´ltima, esto es debido a que la relaci´on de fases entre las difer6

                                                         

Direccion hacia la estacion base.

                                                                             

Movil

                                                                                                                         

Figura 1.2: El fen´omeno de multitrayectoria en una zona urbana. entes componentes de la se˜ nal resultante (multitrayectorias) cambia de una posici´on a la otra. Por tanto, variaciones substanciales ocurren en la amplitud de la se˜ nal a lo largo del tiempo y del espacio. Estas fluctuaciones de la se˜ nal se conocen como desvanecimientos, si tales fluctuaciones ocurren en un corto tiempo el fen´omeno se denomina desvanecimiento r´apido para distinguirlo de aquel que presenta variaciones m´as lentas en el valor promedio de la se˜ nal a largo del tiempo, conocido como desvanecimiento lento. Este u ´ltimo es ocasionado por el movimiento sobre distancias suficientemente largas para producir variaciones brutas en la trayectoria global entre el transmisor y el receptor, generalmente estas variaciones son causadas por el movimiento del receptor dentro de la sombra de montes o´ edificios conoci´endosele tambi´en como sombra, [23]. El desvanecimiento es b´asicamente un fen´omeno espacial, pero las variaciones espaciales se experimentan como variaciones temporales por un receptor movi´endose a lo largo de un campo de multitrayectorias. En general, la propagaci´on multitrayectoria, adem´as de ocasionar desvanecimientos tambi´en ocasiona un ensanchamiento de los pulsos debido a que las diferentes componentes llegan al receptor con retardos, si estos retardos son mayores comparados con la velocidad de transmisi´on se produce interferencia entre s´ımbolos y por tanto distorsi´on de los pulsos,[29]. 7

1.4.2.

El canal Gaussiano

El canal m´as simple es el canal gaussiano, a menudo llamado canal con ruido aditivo blanco gaussiano de sus siglas en ingl´es AWGN. Este canal se representa como un canal ideal en donde no existe multitrayectorias y se le agrega una fuente de ruido del tipo AWGN en el receptor tal como se muestra en la figura 1.3. Se asume que el ruido tiene una densidad espectral de potencia constante sobre el ancho de banda del canal y una funci´on de densidad de probabilidad (F DP ) gaussiana. Este tipo de canal prodr´ıa ser considerado como no realizable en comunicaciones inal´ambricas, sin embargo no es as´ı. Cuando se tienen microc´elulas es posible tener una l´ınea de vista, esencialmente sin multitrayectorias, dando un canal gaussiano. Incluso, cuando existe desvanecimiento por multitrayectorias, pero el m´ovil esta estacionario y no existen otros objetos movi´endose, como veh´ıculos en su vecindad, el canal m´ovil puede pensarse como un canal gaussiano, representando los efectos del desvanecimiento por una trayectoria de perdidas local, [29]. AW GN u(t)

Canal ideal sin desvanecimientos

+

r(t)

Figura 1.3: Canal gaussiano. El canal gaussiano es importante ya que provee una idea de cual ser´ıa el mejor rendimiento del sistema sin la presencia de multitrayectorias, as´ı, para un esquema de modulaci´on dado, podr´ıamos calcular la tasa de bits en error (T BE) en presencia de un canal gaussiano. Cuando los desvanecimientos por multitrayectoria ocurren, la TBE se incrementar´a para una relaci´on se˜ nal a ruido dada. Utilizando t´ecnicas para disminuir el desvanecimiento por multitrayectorias, tales como diversidad, igualaci´on de canal, codificaci´on de canal, alternaci´on de datos, podemos observar como la TBE se aproxima a la que presentar´ıa un canal gaussiano [29]. De esta forma podr´ıamos evaluar que tan eficientes son nuestras t´ecnicas de igualaci´on, codificaci´on, diversificaci´on, etc; comparando el rendimiento de nuestro sistema con el que presentar´ıa un sistema con un canal gaussiano para una relaci´on se˜ nal a ruido dada.

8

1.4.3.

El canal Rayleigh con desvanecimientos

Cuando existen desvanecimientos durante la transmisi´on, el canal de Rayleigh es una buena representaci´on del canal de propagaci´on, [29]. Si cada componente multitrayector´ıa en la se˜ nal recibida es independiente, entonces la FDP de su envolvente es del tipo Rayleigh. La FDP de la envolvente t´ıpica de una se˜ nal recibida con desvanecimientos se muestra en la figura 1.4. 1 σ

exp(− 21 ) 1 σ

q

Π 2

exp(− Π2 )

r2 σ2

Media= 0

σ

q

2

r exp(− 2σ 2)

Π σ 2



r

Figura 1.4: FDP Rayleigh . La probabilidad de experimentar un profundo desvanecimiento por debajo, digamos 3σ, donde σ es el valor rms de la envolvente r(t) recibida, es el a´rea bajo la curva entre 3σ y ∞. Notemos que la FDP de Rayleigh aplica para valores positivos, es decir, la magnitud de la envolvente recibida, y que σ y la media de la distribuci´on son similares. La respuesta al impulso de este canal consiste de una simple funci´on delta cuyo peso tiene una FDP Rayleigh. Esto ocurre porque todas las componentes multitrayectoria se manifiestan en grupo con dispersi´on temporal despreciable entre ellas, y cuando se modelan como una simple funci´on delta, se combinan para tener una FDP Rayleigh. De esta forma, conforme la estaci´on m´ovil se mueve la se˜ nal recibida se desvanece, mientras el peso de la funci´on delta tambi´en cambia de acuerdo a la FDP Rayleigh. Cuando la estaci´on m´ovil experimenta un desvanecimiento profundo, el peso de la funci´on delta es peque˜ no, y cuando la se˜ nal recibida se mejora el peso de la funci´on delta es grande,[29].

9

Podemos notar que el canal gaussiano puede ser representado como una respuesta al impulso que tiene una funci´on delta de peso constante, un canal ideal, al cual se le agrega una fuente de AWGN.

1.4.4.

El canal Rician

En canales m´oviles con microc´elulas una trayector´ıa dominante, la cual puede ser una trayectoria de linea de vista, frecuentemente aparece en el receptor, en adici´on con muchas otras trayectorias dispersas. Esta trayectoria dominante puede decrementar significativamente, la profundidad del desvaneciemento. En este caso la FDP de la envolvente recibida se denomina Rician. Para el modelado de este tipo de canal es conveniente introducir un par´ametro K, conocido como par´ametro Rician, con el prop´osito de medir la relaci´on de potencia entre la se˜ nal dominante y el resto de las se˜ nales recibidas,[29]. K=

P otencia en la trayectoria dominante P otencia en las trayectorias dispersas

3.5 K=32 3.0 2.5

K=16

2.0 K=4

1.5 1.0

K=0

0.5

-30

-25

-20

-15

-10

-5

0

5

10

Nivel de la se˜ nal normalizado a la media Figura 1.5: FDP Rician normalizada a sus promedios locales. Cuando K tiende a cero el canal es del tipo Rayleigh, mientras que si K tiende infinito el canal es gaussiano. De esta manera, podemos considerar al canal Rician como un canal m´as general. Los desvanecimientos tienen una alta probabilidad de 10

ser m´as profundos cuando K = 0 (desvanecimeinto Rayleigh) a ser muy poco profundos cuando K = 32 (aproximadamente gaussiano). Cuando la se˜ nal recibida esta en un desvanecimiento profundo por debajo del nivel promedio del ruido del canal, un error ocurre. Sin embargo, el mismo promedio de ruido no causar´a error cuando K sea m´as grande, [29]. Las FDP’s Rician para diferentes K normalizados con respecto a sus valores promedio locales se muestran en la fig. 1.5. Es evidente que la FDP Rayleigh tiene la mayor probabilidad de presentar un profundo desvanecimiento por debajo de la media, mientras que la FDP gaussiana tiene la menor.

1.5.

Eliminaci´ on de la interferencia entre s´ımbolos (ISI) en las comunicaciones digitales

En las comunicaci´ones digitales, el ancho de banda es limitado. Dado que para transmitir pulsos cuadrados se require de un ancho de banda infinito, es necesario filtrarlos, si estos pulsos no se filtran adecuadamente cuando pasan a trav´es de un sistema de comunicaciones se dispersan en el tiempo y el pulso correspondiente a cada s´ımbolo se alarga hasta llegar a interferir con la ranura de tiempo adyacente ocasionando lo que conocemos como interferencia entre s´ımbolos (ISI)[5]. En canales de radio, la interferencia entre s´ımbolos es debida a la propagaci´on por multitrayectorias, la cual puede ser vista como una transmisi´on a trav´es de un grupo de canales con diferentes retardos y amplitudes. Los igualadores adaptables son capaces de corregir la ISI debido a multitrayectorias de la misma forma que corrigen la ISI por distorsi´on lineal en canales telef´onicos, [24]. En las l´ıneas telef´onicas, la dispersi´on temporal resulta cuando la respuesta en frecuencia del canal se desv´ıa de la ideal que es amplitud constante y fase l´ıneal (retardo constante). La funci´on del ecualizador es entonces compensar ´estas caracter´ısticas no ideales mediante el filtrado, [25]. En la figura 1.6 se muestra el problema de la interferencia entre s´ımbolos para un sistema de comunicaci´on binario, podemos apreciar que cada pulso transmitido es distorsionado por el canal y sufre una dipersi´on temporal lo que ocasiona que los pulsos se “empalmen”. Al hacer la superposici´on de los pulsos en el receptor podemos detectar niveles incorrectos de voltaje adem´as de limitar la capacidad de sincronizaci´on del sistema. La ISI aparece en todos los sistemas de modulaci´on de pulso incluyendo FSK, PSK y QAM. Sus efectos pueden ser f´acilmente descritos si tomamos en cuenta un sistema 11

Forma de onda recibida suma de los pulsos Forma de onda de entrada

Respuesta individual del pulso

1000

0

Ts

t

0 Interferencia entre

1011

0

simbolos

0

0

Figura 1.6: ISI en un sistema de comunicaci´on binario de modulaci´on banda base en amplitud (PAM), [25]. El problema consiste en encontrar el ancho de banda necesario para que no exista interferencia entre s´ımbolos. Por supuesto que si limitamos el ancho de banda para la transmisi´on de los pulsos, la forma de estos no seguir´a siendo cuadrada. En la secci´on 1.5.2 presentamos el dise˜ no de se˜ nales de banda limitada para canales de banda limitada como soluci´on al problema de la ISI.

1.5.1.

Dise˜ no de se˜ nales para canales de banda limitada

En el esquema 1.7 se muestra un sistema de comunicaciones, donde υ(t) es una se˜ nal paso bajas con modulaci´on digital que se puede representar como: υ(t) =

∞ X

n=0

I(n)g(t − nT )

(1.1)

donde: I(n), representa la informaci´on discreta de la secuencia de s´ımbolos. g(t), es un pulso de banda limitada (G(f ) = 0; ∀kf k > W ). υ(t) se transmite por un canal que tiene una respuesta en frecuencia C(f ) = 0; ∀kf k ≥ W . 12

z(t)

v(t)

HT (f )

C(f )

HR (f )

y(t)

Figura 1.7: Sistema de comunicaci´on b´asico Entonces la se˜ nal recibida puede ser representada como:

r(t) =

∞ X

n=0

I(n)h(t − nT ) + z(t)

(1.2)

donde: h(t) =

Z

∞ −∞

g(τ )c(t − τ )dτ

y z(t) representa ruido aditivo blanco gaussiano (AWGN). La se˜ nal recibida se pasa por un filtro o´ptimo acoplado al pulso recibido con respuesta en frecuencia H ∗ (f ),[24]. La salida de este filtro la representamos como: y(t) =

∞ X

n=0

I(n)x(t − nT ) + ν(t)

donde: x(t), representa la respuesta del filtro al pulso h(t). ν(t), representa la respuesta del filtro al ruido z(t). Si ahora se muestrea a t = kT + τ0 y(kT + τ0 ) = y(k) =

∞ X

n=0

I(n)x(kT − nT + τ0 ) + ν(kT + τ0 ),

o bien: 13

y(k) =

∞ X

n=0

I(n)x(k − n) + ν(k);

∀k = 0, 1, ...

(1.3)

Donde τ0 , es el retardo que introduce el canal. La ecuaci´on 1.3 puede escribirse de la forma: y(k) = x(0)(I(k) +

∞ X 1 I(n)x(k − n)) + ν(k); x(0) n=0,n6=k

∀k = 0, 1, ...

Considerando x(0) como un factor de escala, e igualandolo a 1 por conveniencia, obtenemos: y(k) = I(k) +

∞ X

n=0,n6=k

I(n)x(k − n) + ν(k);

∀k = 0, 1, ...,

(1.4)

donde; I(k), es la informaci´on deseada del s´ımbolo al instante k de muestreo. P∞

n=0,n6=k

I(n)x(k − n), representa la interferencia entre s´ımbolos.

ν(k), es el AWGN al instante k de muestreo.

Mediante un patr´on de ojo se pueden analizar los efectos de la ISI. B´asicamente la ISI aumenta la probabilidad de errores debido al AWGN y distorsiona la posici´on de cruce por cero ocasionando que el sistema sea m´as sensible a errores de sincronizaci´on. Para el caso de modulaci´on en fase o QAM podemos apreciar los efectos de la interferencia entre s´ımbolos en las siguientes constelaciones: Del lado izquierdo de la figura 1.9 se muestra una constelaci´on de la se˜ nal transmitida con modulaci´on 8PSK. Del lado derecho se muestra la se˜ nal recibida y los efectos de la ISI y el ruido. Como podemos observar, si la ISI es muy severa o trabajamos con m´as s´ımbolos (e.g. 16PSK), la probabilidad de que se detecte un s´ımbolo err´oneo es mayor, por esta raz´on es importante el estudio de t´ecnicas que permitan eliminar la ISI. Ahora que hemos comprendido los efectos de la ISI consideraremos el dise˜ no de se˜ nales bajo la condici´on de cero ISI en los instantes de muestreo.

14

Tiempo de muestreo optimo Distorsion de pico

Margen de ruido Distors´on de cruce por cero Figura 1.8: Diagrama de ojo





 

    

     

   

            

Figura 1.9: Constelaci´on para una transmisi´on QAM

15

1.5.2.

Dise˜ no de se˜ nales de banda limitada para cero ISI

Si el canal de banda limitada tiene una repuesta ideal: C(f ) = 1;

∀kf k ≤ W

Entonces x(t) tiene una caracter´ıstica espectral: X(f ) = kG(f )k2 Donde: x(t) =

Z

W −W

X(f )ej2Πf t df

(1.5)

Nos interesan las propiedades espectrales del pulso x(t) y por tanto del pulso g(t) que nos permita cero ISI. De la ecuaci´on 1.4 la condici´on para cero ISI es:

x(t = kT ) = x(k − n) =

(

1; k − n = 0 0; k − n 6= 0

(1.6)

La condici´on necesaria y suficiente sobre X(f ) para que x(t) cumpla con lo anterior se conoce como el criterio de la forma del pulso de Nyquist o “condici´on de Nyquist para cero ISI”,[24] Se puede demostrar que la condici´on necesaria y suficiente para que x(t) satisfaga la ecuaci´on 1.6 es que su transformada de Fourier satisfaga, [24] ∞ X

X(f +

m=−∞

m )=T T

(1.7)

Si consideramos W como el ancho de banda del canal C(f ) = 0 ∀kf k > W , en consecuencia X(f ) = 0; ∀kf k > W . Podemos apreciar tres casos: 1.- Si T


1 , 2W

entonces:

B(f ) consiste de replicas empalmadas de X(f ) separadas 1/T. La figura 1.10 muestra el espectro de B(f ) en donde las r´eplica de X(f ) se empalman. Existen por lo tanto numerosas opciones para lograr B(f ) = T . Para este caso el espectro del coseno elevado tiene propiedades espectrales deseables y es usado ampliamente, [24]. B(f)

1 -— T

-W

0

W

1 —T

f

Figura 1.10: Espectro de B(t) Otra opci´on para la eliminaci´on de la ISI es el empleo de se˜ nales de banda limitada con ISI controlada, esto es; de antemano se dise˜ na el pulso a transmitir considerando que se ver´a afectado por algunas componentes de ISI, sin embargo, dado que a priori sabemos que componentes de ISI son las que no se quitaron, en el proceso de recepci´on estas son eliminadas con la ayuda de filtros. Es decir, la ISI que se introduce deja de ser aleatoria pues se sabe que componentes ser´an afectadas y por lo tanto estamos hablando de una ISI determin´ıstica que puede ser eliminada en el receptor.

17

1.5.3.

La igualaci´ on de canal como soluci´ on al problema de ISI.

Las comunicaciones modernas, plantean un problema de gran importancia que consiste en dise˜ nar “filtros igualadores” que compensen los efectos de la distorsi´on y del ruido que son introducidos por el sistema de comunicaciones a la se˜ nal que viaja a trav´es del canal. Una caracter´ıstica de los canales f´ısicos es que tienen un ancho de banda finito, esto distorsiona a la se˜ nales en fase y en amplitud, adem´as el factor ruido que producen los elementos f´ısicos provoca que la se˜ nal portadora de informaci´on llegue atenuada y con distorsi´on. Los filtros en general sirven como una etapa de preprocesamiento para la cual la se˜ nal portadora de informaci´on, o sus par´ametros, pueden identificarse de una manera m´as clara que a la entrada del filtro. El m´etodo de dise˜ no de filtros que es empleado en las comunicaciones modernas para su dise˜ no utiliza las caracter´ısticas estad´ısticas de la se˜ nal y del ruido, [14]. Es com´ un encontrarnos con canales cuya respuesta en frecuencia no es conocida o es variante con el tiempo. Por ejemplo, en telefon´ıa el canal de comunicaci´on cambia sus caracter´ısticas frecuenciales cada vez que marcamos un n´ umero, esto se debe al cambio de ruta de la se˜ nal. Una vez que la conexi´on se realiza, el canal ser´a invariante con el tiempo salvo por peque˜ nas variaciones debido principalmente a cambios de temperatura. Por otra parte, los sistemas m´oviles son un ejemplo cl´asico de canales variantes con el tiempo, en dichos canales los filtros en el transmisor y receptor no pueden ser establecidos de antemano y es necesario utilizar igualadores adaptables. Los filtros igualadores pueden ser clasificados de acuerdo al criterio de opimizaci´on con el que se actualizan sus par´ametros y tambi´en de acuerdo a su estructura, ya sea transversal o “lattice”.

IGUALADORES ADAPTABLES Los sistemas de comunicaciones actuales utilizan los igualadores adaptables como una pieza clave del receptor. El surgimiento de estos igualadores se di´o r´apidamente sobre todo en aplicaciones donde, debido a limitantes f´ısicas del canal de transmisi´on, econ´omicas o de regulaci´on, se limitaba el ancho de banda a utilizar para la transmisi´on. Previo a la transmisi´on es necesario calibrar el igualador de acuerdo a las caracter´ısticas del canal, esto se realiza durante un periodo llamado entrenamiento. En algunas aplicaciones en tiempo real el periodo de entrenamiento es suprimido y la calibraci´on del canal se hace con la propia se˜ nal transmitida, a este tipo de igualadores se les conoce como igualadores ciegos.

18

Durante el periodo de entrenamiento, una se˜ nal conocida es transmitida y una se˜ nal id´entica y sincronizada es generada en el receptor para que de esta forma se puedan obtener las caracter´ısticas del canal. Esta se˜ nal debe de ser por lo menos tan larga como el igualador, para que se tenga la informaci´on suficiente para que el igualador pueda inicializarce correctamente. Despu´es del periodo de entrenamiento, con el objetivo de seguir peque˜ nas variaciones en el canal, los coeficientes del igualador adaptable se deben de estar ajustando continuamente. Para esto, una vez que se ha terminado el periodo de entrenamiento, el igualador adaptable cambia la retroalimentaci´on del dispositivo generador de la secuencia aleatoria al dispositivo de decisi´on, de esta forma la se˜ nal de error es d derivada de la se˜ nal estimada por el receptor d(k), la cual no es necesariamente correcta, figura 1.11. Si el funcionamiento del igualador es bajo condiciones normales, se tiene una alta probabilidad de que las decisiones tomadas por el igualador sean correctas. Es importante se˜ nalar que el igualador puede seguir variaciones lentas del canal, as´ı como inestabilidades de fase en el receptor. u(k)

Dispositivo de decisi´ on

Igualador

+

e(k)

Generador de secuencia aleatoria

b d(k) d(k)

Figura 1.11: Esquema de un igualador adaptable

Igualador de pasos descendentes En las implementaciones pr´acticas, la soluci´on para los coeficientes o´ptimos se obtiene empleando un procedimiento recursivo que evita la inversi´on de la matriz de covarianza R en forma directa. El procedimiento m´as simple es el m´etodo de pasos descendentes basado en el criterio del error cuadr´atico promedio, que consiste en escoger un vector de par´ametros arbitrario W0 , el cual corresponde a un punto sobre la curva de desempe˜ no del error. El vector gradiente g(k) es entonces calculado en este punto, pero como g(k) apunta en la direcci´on de m´as r´apido crecimiento y el punto m´ınimo buscado est´a en la direcci´on opuesta a ´este, es necesario cambiar la direcci´on del vector g(k) en cada iteraci´on, obteniendose as´ı : g(k) = RW (k) − r, 19

k = 0, 1, 2, ...

(1.8)

donde R y r son respectivamente la matriz y vector de covarianza del proceso, y el vector W (k) que contiene los par´ametros del filtro igualdor se actualiza mediante la siguiente relaci´on: W (k + 1) = W (k) − µg(k)

(1.9)

donde µ es un par´ametro de paso de convergencia o factor de ponderaci´on para el procedimiento iterativo. Para asegurar la convergecia del algoritmo, µ debe de escogerse peque˜ no y positivo, de tal forma que g(k) tenga una convergencia hacia cero, e.g. g(k) → 0 cuando k → ∞, y el vector de coeficientes W (k) → Woptimo . Existe un compromiso entre el tiempo de convergencia y µ, ya que entre m´as peque˜ no sea µ, menor ser´a el MSE, sin embargo, el tiempo de convergencia ser´a mucho mayor,por otro lado si µ es mayor, el tiempo de convergencia es mucho menor pero el MSE m´ınimo ser´a mayor que en el primer caso mencionado, [14]. Este m´etodo presenta el inconveniente de no llegar a los Wopt en un n´ umero finito de iteraciones, sin embargo se puede obtener una buena aproximaci´on con algunos cientos de iteraciones.

Igualador de gradiente estoc´ astico Con el objetivo de que el algoritmo de pasos descendentes siga las variaciones del canal se hace uso de un gradiente estoc´astico en lugar de un gradiente deterministico, esto es: ˆ W (kˆ+ 1) = Wˆ(k) − µg(k)

(1.10)

ˆ = −e(k)u(k) g(k)

(1.11)

ˆ es el estimado del vector de gradiente g(k) que se calcula como: donde g(k)

Sustituyendo la ecuaci´on 1.11 en 1.10 tenemos: W (kˆ+ 1) = Wˆ(k) + µe(k)u(k)

(1.12)

Este algoritmo es conocido como algoritmo LMS o algoritmo de gradiente estoc´ astico. Al igual que el algoritmo de pasos descendentes, es necesario tener un compromiso entre velocidad de convergencia y el valor m´ınimo del MSE, [14].

Igualador zero-forcing ZF En un canal las distorsiones introducidas pueden ser compensadas empleando un filtro lineal que posea par´ametros que puedan ser ajustados. Es decir, si se tiene 20

un canal invariante con el tiempo con respuesta en frecuencia desconocida, se miden las caracter´ısticas del canal y se ajustan los par´ametros del igualador. Una vez hecho esto, los par´ametros se conservar´an durante toda la transmisi´on de datos, [24]. De acuerdo a su estructura estos filtros pueden ser transversales o “lattice”. La m´as simple es la estructura transversal. En la cual los valores presentes y pasados de la se˜ nal recibida son ponderados por los coeficientes del igualador y sumados para obtener la salida. Los coeficientes del igualador deben de escogerse de tal forma que hagan que las muestras del canal y la respuesta al impulso del igualador sean cero para todos los valores excepto en uno de los N instantes. Lucky en 1965 propuso el algoritmo “zero-forcing” para ajustar los coeficientes de un filtro transversal; se emplea el concepto de “distorsi´on pico” el cual esta directamente relacionado con el valor m´aximo de ISI que pueda ocurrir; los coeficientes del filtro se ajustan de modo que se reduzca la distorsi´on pico. Entonces se presenta el efecto de “forzar” la ISI debida a los pulsos del filtro transversal hasta “cero”; de ahi el nombre del algoritmo, [14]. Si dejamos que el n´ umero de coeficientes del igualador ZF crezca de manera ilimitada, se obtendr´a un igualador de longitud infinita con cero ISI a su salida. La respuesta de tal igualador ser´a peri´odica e igual a la tasa de s´ımbolos. Es posible demostrar que un igualador de longitud infinita con cero ISI es simplemente un filtro inverso de la respuesta en frecuencia del canal. Sin embargo, tal tipo de igualador amplificar´a el ruido en las frecuencias para las cuales el espectro del canal tiene grandes atenuaciones, [25].

Igualador fraccionalmente espaciado ´ El ISI en canales reales s´olo afecta un n´ umero finito de muestras. Esto trae como consecuencia que se utilice un filtro a respuesta impulsional finita (FIR) o filtro transversal, con coeficientes variables. El tiempo de retardo τ se debe de escoger tan largo como el intervalo entre s´ımbolos T. Si τ se escoge de tal forma que 1/τ ≥ 2W > 1/T , donde W es el ancho de banda del canal, no ocurre traslape entre los s´ımbolos y por lo tanto el igualador inverso al canal compensa la distorsi´on del mismo. Como τ < T el canal es llamado fraccionalmente espaciado y de ah´ı su nombre de igualador fraccionalmente espaciado (FSE). El valor que m´as se utiliza en la pr´actica es τ = T /2. Los igualador FSE, gracias a su frecuencia de muestreo, pueden obtener las mejores caracter´ısticas de un filtro acoplado adaptable, dentro de las limitaciones de su periodo. Un igualador con periodo T no puede ser acoplado. Un FSE puede compensar distorsiones de retardo m´as severas con menos amplificaci´on del ruido. Es posible demostrar que con un dise˜ no adecuado de la caracter´ıstica del filtro, la 21

tasa de s´ımbolos a la salida del igualador fraccionalmente espaciado, puede utilizarse sin dejar de ser o´ptima, para cualquier receptor lineal o no lineal sin importar el criterio de optimizaci´on empleado, [14].

22

1.6.

Conclusiones

El canal de propagaci´on es la pieza clave de la operaci´on de un sistema de comunicaci´on. Sus propiedades determinan tanto la capacidad del sistema de llevar informaci´on como la calidad del servicio ofrecido. Podemos clasificar los canales de comunicaci´on de diferentes maneras, [14]. En este cap´ıtulo hemos estudiado diversos tipos de canales enfatizando en el modelado de los canales inal´ambricos puesto que en un canal de este tipo podemos observar con m´as claridad la caracter´ıstica de variancia con el tiempo. Los canales fijos como l´ıneas telef´onicas por par de cobre, l´ıneas de cable coaxial o fibra o´ptica tambi´en presentan variaci´on con el tiempo, por esta raz´on la utilizaci´on de filtros adaptables no es exclusiva de los canales inal´ambricos. Finalmente, hemos discutido diferentes maneras de solucionar el problema de la interferencia entre s´ımbolos dada por el ancho de banda limitado de los canales fijos o la propagaci´on multitrayectoria en canales inal´ambricos, terminando con la introducci´on de diferentes esquemas de igualaci´on de canal. La utilizaci´on de uno u otro esquema depender´a de la aplicaci´on1 . Dado que nuestro objetivo no es hacer un an´alisis exhaustivo de los diferentes esquemas de igualaci´on, nos enfocaremos en estudiar las propiedades num´ericas de los algoritmos, en los cap´ıtulos 3 y 5 utilizaremos un esquema de igualaci´on lineal para comparar los diferentes algoritmos. En el cap´ıtulo 2 se presentan las bases te´oricas para el estudio de los algoritmos de filtrado adaptable basados en dos de los criterios de optimizaci´on m´as usados, el de los m´ınimos cuadrados (LS) y el del error cuadr´atico promedio (MSE).

1

Si se desea un an´alisis detallado de los diferentes esquemas de igualaci´on se puede ver [22].

23

Cap´ıtulo 2 TEOR´IA DE FILTROS ´ LINEALES OPTIMOS 2.1.

Introducci´ on

En este cap´ıtulo presentamos las bases del filtrado. Comenzamos con el estudio de los procesos estoc´asticos modelados a trav´es de modelos AR, MA o ARMA, esto es de gran importancia pues una gran variedad de se˜ nales reales pueden ser modeladas por modelos estoc´asticos. Se presentan adem´as los tres problemas b´asicos del filtrado, (filtrado, predicci´on y suavizado), y las principales caracter´ısticas de los algoritmos de filtrado adaptables. En la secci´on 2.4 se presenta el problema de filtrado planteado por Wiener mediante la representaci´on de un modelo de ecuaci´on en diferencias (filtro transversal) y se resuelve aplicando el criterio del error cuadr´atico promedio. Por u ´ltimo, en la secci´on 2.5 se presenta el problema del filtrado de Kalman el cual utiliza un modelo representado en variables de estado y se obtiene su soluci´on mediante un m´etodo conocido como proceso de inovaci´on en donde se supone que la nueva informaci´on referente al estado actual del filtro esta dada por el error de filtrado actual.

2.2.

Modelado de procesos estoc´ asticos

El t´ermino “modelo” se utiliza para cualquier hip´otesis que puede ser aplicada con el fin de explicar o describir las leyes ocultas que se supone gobiernan o limitan la generaci´on de los datos de inter´es. La representaci´on de procesos estoc´asticos mediante modelos data de una idea de Yule (1927), [13]. Una secuencia u(k) constituida por observaciones altamente correlacionadas, puede ser generada a partir de un proceso aleatorio estad´ısticamente independiente apli24

cado a la entrada de un filtro como se muestra en la figura 2.1

ν(k)

u(k)

Filtro lineal discreto

Figura 2.1: Modelo de un filtro generador de se˜ nales estoc´asticas. El proceso de entrada com´ unmente se supone gaussiano con media cero y varianza constante. El t´ermino gaussiano se refiere a su funci´on de densidad de probabilidad, mientras que sus caracter´ısticas estad´ısticas se expresan como: E[ν(k)] = 0; ∀k ∗

E[ν(k)ν (j)] =

(

σν2 ; j = k 0; otro caso

En general, la descripci´on en el dominio del tiempo de la relaci´on entrada-salida para el modelo estoc´astico de la figura 2.1 se puede escribir como se muestra en la figura 2.2:

V alor actual de la salida del modelo

+

Combinacion lineal de los valores pasados de la salida

=

Combinacion lineal de los valores actuales y pasados de la entrada

Figura 2.2: Descripci´on del filtro generador de se˜ nales estoc´asticas. Con base en la figura 2.2 podemos identificar tres tipos de modelos estoc´asticos,[13]: 1. Modelos autoregresivos (AR). En los que no se utilizan valores pasados de la entrada del modelo. 2. Modelos de promedio m´ovil (MA). En los que no se utilizan valores pasados de la salida del modelo. 3. Modelos autoregresivos de promedio m´ovil (ARMA). En los que la descripci´on de la figura 2.2 aplica en su totalidad.

25

MODELOS AUTOREGRESIVOS Una secuencia U (k) = u(k), u(k − 1), ...u(k − M ) que proviene de un modelo autoregresivo de orden M satisface la ecuaci´on en diferencias: u(k) + a∗1 u(k − 1) + ... + a∗M u(k − M ) = ν(k)

(2.1)

Donde a1 , a2 , ...aM 1 son los par´ametros del modelo y ν(k) es un proceso de ruido blanco, es decir, es la secuencia de variables aleatorias independientes que se encuentran a la entrada de la figura 2.1. Si despejamos u(k) de la ecuaci´on 2.1 podemos apreciar que el valor actual del proceso U (k) es igual a una combinaci´on lineal de los valores pasados m´as un t´ermino de error ν(k), de aqu´ı el nombre de modelo autoregresivo. Podemos escribir en forma de sumatoria de convoluci´on la ecuaci´on 2.1 como: M X

j=0

a∗j u(k − j) = ν(k)

(2.2)

Si consideramos a los par´ametros como una se˜ nal de tama˜ no M , donde M es el orden del filtro generador. Entonces podemos denotar a las transformadas Z de los par´ametros del filtro, la secuencia de salida y el ruido blanco como HA (z), U (z) y V (z) respectivamente, y podemos escribir el polinomio caracter´ıstico asociado a la relaci´on de la ecuaci´on 2.2, como: HA (z)U (z) = V (z)

(2.3)

Dada la ecuaci´on 2.3 podemos obtener la funci´on de transferencia para dos situaciones: u(k) como entrada para obtener un ruido blanco a la salida y ν(k) como entrada para obtener la secuencia u(k) a la salida. En particular nos interesa la segunda situaci´on dada por la funci´on de transferencia: HG (z) =

U (z) 1 1 = = PM ∗ −k V (z) HA (z) k=0 ak Z

(2.4)

El generador por lo tanto, tiene una respuesta al impulso infinita y corresponde a un filtro todo polo ya que su funci´on de transferencia se define completamente especificando la ubicaci´on de los polos. Un modelo autoregresivo de este tipo tiene una estructura como la que se muestra en la figura 2.3. Para que el generador del proceso AR sea estable debemos asegurar que los polos se encuentren dentro del c´ırculo unitario, lo cual es a su vez una condici´on necesaria y 1

El * denota complejo conjugado en el caso general de se˜ nales complejas.

26

ν(k) muestra de ruido blanco

u(k)

P P

Z −1

a∗1

Muestra del proceso AR

u(k − 1)

Z −1 P

u(k − M + 1)

a∗M −1

Z −1

a∗M

u(k − M )

Figura 2.3: Estructura generadora de un proceso AR u(k) . suficiente para estacionariedad en sentido amplio del proceso, [13]. ´ MODELOS DE PROMEDIO MOVIL En este caso, el proceso resultante a la salida del filtro se describe por la ecuaci´on en diferencias: u(k) = ν(k) + b∗1 ν(k − 1) + ... + b∗N ν(k − N )

(2.5)

Donde b1 , b2 , ...bN son los par´ametros del modelo y ν(k) es un proceso de ruido blanco con las caracter´ısticas estad´ısticas ya mencionadas. En este caso el orden del proceso de promedio m´ovil es igual a N y el filtro tiene una respuesta al impulso finita puesto que su funci´on de transferencia esta dada por: N X U (z) b∗k Z −k = HB (z) = V (z) k=0

(2.6)

La funci´on de transferencia de la ecuaci´on 2.6 corresponde a un modelo todo cero. Entonces, podemos concluir que dada una realizaci´on del proceso ν(k) podemos obtener nuestra secuencia u(k) mediante una combinaci´on lineal de las muestras ν(k), ν(k − 1), ..., ν(k − N ). La estructura para un modelo de promedio m´ovil se muestra en la figura 2.4.

27

ν(k) Muestra de ruido blanco

Z −1

ν(k − 1)

ν(k − 2)

Z −1

Z −1

ν(k − N )

b∗1

b∗2

b∗N

P

P

P

u(k) Muestra del proceso MA

Figura 2.4: Estructura generadora de un proceso MA u(k) . ´ MODELOS AUTOREGRESIVOS DE PROMEDIO MOVIL En este caso la funci´on de transferencia incluye tanto polos como ceros y su estructura es la uni´on de una estructura AR, figura 2.3 y una estructura MA, figura 2.4. Un proceso derivado de un modelo autoregresivo de promedio m´ovil es descrito por la siguiente ecuaci´on en diferencias: u(k) + a∗1 u(k − 1) + ... + a∗M u(k − M ) = ν(k) + b∗1 ν(k − 1) + ... + b∗K ν(k − N ) (2.7) Donde a1 , a2 , ...aM y b1 , b2 , ...bN se denominan par´ametros ARMA y el orden del proceso es igual a (M, N ). Desde un punto de vista computacional el modelo autoregresivo tiene una ventaja sobre los modelos MA y ARMA ya que le c´alculo de los coeficientes en el modelo AR involucra un sistema de ecuaciones lineales conocidas como ecuaciones de YuleWaker, el cual ser´a resuelto de una manera eficiente en una secci´on m´as adelante haciendo uso de las propiedades de la matriz de correlaci´on del proceso U (k). Por otra parte, la obtenci´on de los coeficientes de los modelos involucra sistemas de ecuaciones no lineales y por consecuencia mas dif´ıciles de resolver, [27]. La importancia de representar procesos estoc´asticos o se˜ nales aleatorias mediante modelos AR, MA y ARMA es importante dado que un gran n´ umero de se˜ nales reales se pueden modelar mediante estos modelos (filtrado, predicci´on y suavizado), [27].

2.3.

Aplicaciones de los filtros digitales.

En esta secci´on se describir´an las tres operaciones b´asicas de un filtro, haciendo mayor ´enfasis en el filtrado y la predicci´on. Se discutir´a sobre el proceso de optimizaci´on de un filtro a partir de las suposiciones sobre las se˜ nales de entrada y los 28

criterios de optimizac´on empleados. As´ı mismo, se describir´a el funcionamiento y las caracter´ısticas de un filtro adaptable.

2.3.1.

Funciones de los filtros.

Llamamos filtro a todo dispositivo, ya sea de software o hardware, que es aplicado a un grupo de datos ruidosos con el prop´osito de extraer informaci´on acerca de una cantidad de inter´es. En general un filtro puede realizar tres operaciones b´asicas de procesamiento de informaci´on: 1. Filtrado. Consiste en extraer la informaci´on alrededor de una cantidad de inter´es hasta el tiempo t utilizando los datos medidos hasta el tiempo t. 2. Suavizado. La informaci´on alrededor de la cantidad de inter´es no necesita estar disponible en el tiempo t y los datos medidos despu´es del tiempo t pueden utilizarse para obtener esta informaci´on. La idea del suavizado es obtener informaci´on adicional entre las muestras (interpolaci´on) con el prop´osito de tener una mejor resoluci´on (mayor n´ umero de muestras), lo cual tendr´a el efecto de que la se˜ nal se vea m´as “suave”. 3. Predicci´on. La idea es obtener informaci´on acerca de la posible cantidad de inter´es al tiempo t + τ en el futuro, ∀τ > 0, utilizando los datos medidos hasta el instante t. En general podemos clasificar los filtros en lineales y no lineales, se dice que un filtro es lineal si la cantidad filtrada, suavizada o estimada a la salida del dispositivo es una funci´on lineal de los datos a la entrada, en cualquier otro caso el filtro se considera no lineal. En la soluci´on del problema de filtrado lineal se utiliza una aproximaci´on estad´ıstica de los datos y se asume que se dispone de ciertos par´ametros como media y funciones de correlaci´on tanto de la se˜ nal deseada como del ruido aditivo. Tal soluci´on se basa en la minimizaci´on de los efectos del ruido a la salida del filtro de acuerdo con alg´ un criterio estad´ıstico. Una aproximaci´on utilizada para la soluci´on del problema de filtrado es minimizar el valor del error cuadr´atico promedio definido como el valor esperado de la se˜ nal de error, frecuentemente definida como la diferencia entre la respuesta deseada y la salida del filtro, con el fin de tener un filtro o´ptimo. Para entradas estacionarias la soluci´on resultante se conoce como filtro Wiener, o´ptimo en el sentido del error cuadr´atico promedio, por el contrario, si la se˜ nal de entrada es no estacionaria el filtro o´ptimo tiene que asumir una forma variante con el tiempo. Una soluci´on exitosa 29

para este problema es el filtro de Kalman, [13].

2.3.2.

Filtros adaptables

Un filtro adaptable es un dispositivo autodise˜ nable que opera con un algoritmo recursivo, esto hace posible que el filtro se comporte satisfactoriamente en un ambiente donde no se disponga completamente de las caracter´ısticas de la se˜ nal relevante. El algoritmo debe iniciar con un grupo de condiciones iniciales con base en las caracter´ısticas del entorno conocido. Una gran variedad de algoritmos recursivos han sido dise˜ nados para la operaci´on de filtros lineales adaptables, la elecci´on de uno u otro se puede determinar por uno o m´as de los siguientes factores, [13]: Tasa de Convergencia. Se define como el n´ umero de iteraciones requeridas por el algoritmo para converger a la soluci´on o´ptima en el sentido de alg´ un criterio de optimizaci´on. Una tasa r´apida de convergencia permite al algoritmo adaptarse r´apidamente a un ambiente de estad´ısticas desconocidas. Desajuste. Este par´ametro provee una media cuantitativa de la cantidad por la cual el valor final del error se desv´ıa del error m´ınimo producido por el filtro de Wiener. Seguimiento. Cuando un algoritmo opera en un medio no estacionario, se requiere que este de seguimiento a las variaciones estad´ısticas en el medio. La capacidad de seguimiento del algoritmo es influenciada por dos caracter´ısticas que van de la mano: Tasa de convergencia y fluctuaciones debido al ruido del algoritmo. Robustez. Para que un filtro sea robusto, peque˜ nas alteraciones (alteraciones de poca energ´ıa) solo deben ocasionar errores de estimaci´on peque˜ nos. Tales alteraciones pueden ser internas o´ externas al filtro. Requerimientos de c´omputo. Incluyen n´ umero de operaciones requeridas para completar una iteraci´on, memoria requerida para almacenar los datos y la inversi´on para programar el algoritmo. Estructura. El flujo de la informaci´on en el algoritmo determina la manera en la que este es implementado en hardware. Un algoritmo cuya estructura exhibe alta modularidad, paralelismo o´ concurrencia es adecuado para implementaciones en microprocesadores.

30

Propiedades num´ericas. Las imprecisiones son producidas debido a errores de cuantizaci´on, estas ocasionan b´asicamente dos problemas: estabilidad y precisi´on num´erica. La estabilidad es una caracter´ıstica inherente del algoritmo y la precisi´on se determina por el n´ umero de bits utilizados para representar las muestras y los coeficientes del filtro.

2.3.3.

La predicci´ on lineal

Como se mencion´o al inicio de esta secci´on, una de las operaciones de los filtros puede ser la de predicci´on. Cuando nos referimos a la predicci´on esta puede ser predicci´on “forward” o bien predicci´on “backward”, en el primer caso el problema consiste en estimar la se˜ nal deseada al tiempo k cuando se conoce un conjunto de p muestras pasadas U (k − 1) = [u(k − 1), u(k − 2), ...u(k − p)], por el contrario; en el caso de la predicci´on backward el problema es el de estimar el valor de la se˜ nal deseada al instante anterior p cuando se conocen p futuras muestras de la se˜ nal U (k − p) = [u(k), u(k − 1), ...u(k − p + 1)]. Para el caso de la predicci´on forward se tiene el sistema de la figura 2.5. En este caso, la se˜ nal deseada es una versi´on adelantada de la se˜ nal de entrada al filtro. En el momento que el filtro logre converger, este u ´ltimo representa un modelo para la se˜ nal de entrada y puede ser usado como un modelo predictor de la se˜ nal de entrada, [7].

u(k)

Filtro Z −L Predictor

x(k)

e(k) -

+

Figura 2.5: Sistema para la predicci´on de se˜ nales. Con base en la figura 2.5 podemos escribir la siguiente ecuaci´on que representa el error de predicci´on: e(k) = u(k) − x(k)

(2.8)

Donde la salida del filtro predictor esta dada por una combinaci´on lineal de la se˜ nal de entrada y los par´ametros del filtro, de la siguiente forma:

31

x(k) = −

p X

j=1

a∗j (k)u(k − j)

Por lo tanto queda definido el error como1 : εfp [k]

= u(k) +

p X

j=1

aTj (k)u(k − j)

(2.9)

O en su forma vectorial: εfp [k] = u(k) + ATp (k)Up (k − 1)

(2.10)

donde: ATp (k) = [a1 (k), a2 (k), ..., ap (k)] UpT (k − 1) = [u(k − 1), u(k − 2), ..., u(k − p)] El problema en la predicci´on consiste en optimizar (minimizar) el error a la salida del filtro predictor dado por la ecuaci´on 2.8 de acuerdo con alg´ un criterio de optimizaci´on. En el ap´endice B se obtiene la soluci´on del filtro predictor utilizando dos de los criterios m´as usados, el del error cuadr´atico promedio y el de los m´ınimos cuadrados.

2.3.4.

El filtrado

El problema fundamental del filtrado se ilustra en la figura 2.6. B´asicamente, este problema consiste en obtener un buen estimador para una se˜ nal deseada d(k) a la salida del filtro caracterizado por los par´ametros ω0 , ω1 , ω2 ... cuya entrada es b la se˜ nal u(k). Dado que el filtro proporciona una salida d(k) diferente a la se˜ nal deseada, podemos cuantificar un error de estimaci´on e(k) dado por la ecuaci´on 2.11. El prop´osito de un filtro es minimizar este error de estimaci´on al m´aximo en alg´ un sentido estad´ıstico. b e(k) = d(k) − d(k)

(2.11)

La soluci´on para el filtrado se presenta en el cap´ıtulo 3 a partir del criterio de los m´ınimos cuadrados, mientras que en la secci´on 2.4 se presenta la soluci´on bajo el criterio del error cuadratico promedio, MSE. 1 f εp

define el error de predicci´on de igual forma que e(k), sin embargo en la deducci´on de los algoritmos se utiliza la notaci´on εfp donde p indica el orden del predictor y f indica que se trata de predicci´on forward.

32

d(k) u(k)

b d(k)

Filtro lineal W0 , W1 , W2 , ...

e(k) +

Figura 2.6: Problema fundamental del filtrado.

2.4.

El filtro de Wiener

El filtro de Wiener representa una soluci´on para el problema de filtrado basada en el criterio del error cuadr´atico promedio y es la base para el dise˜ no de filtros adaptables, pues aunque Wiener plantea el problema para un filtro fijo, considerando que se dispone de las se˜ nal de entrada para todo tiempo, en el filtro de Wiener tanto la entrada al filtro como la respuesta deseada son estacionarias en sentido amplio con media cero, por lo que el error tambi´en es estacionario en sentido amplio y con media cero. Para un filtro adaptable se desea llegar a la soluci´on de Wiener de manera recursiva conforme se obtienen los datos de la se˜ nal de entrada. El filtro puede ser a respuesta impulsional finita (FIR) o´ a respuesta impulsional infinita (IIR) dependiendo de consideraciones pr´acticas, sin embargo para aplicaciones de filtrado adaptable es m´as frecuente el uso de filtros FIR, que por definici´on son estables, es decir no presentan retroalimentaci´on que los pueda llevar a alguna situaci´on de inestabilidad. Por otra parte, en el problema de filtrado adaptable se presentan por definici´on lazos de retroalimentaci´on para actualizar los par´ametros, esto ocasiona que de manera inherente se presenten problemas de estabilidad y convergencia en los algoritmos. Por esta raz´on, se utilizan m´as frecuentemente filtros FIR que aseguran la estabilidad del filtro, reduci´endose el problema de estabilidad del algoritmo. El criterio de optimizaci´on del error cuadr´atico promedio como veremos m´as adelante, nos indica una relaci´on de la funci´on a optimizar que a su vez involucra en forma cuadr´atica a los par´ametros o´ptimos del filtro. Adem´as se puede demostrar que la soluci´on o´ptima para el filtro de Wiener se presenta cuando el error de estimaci´on y la se˜ nal de salida del entrada son ortogonales [11]. E[u(k − n)e∗optimo (k)] = 0,

´ DE WIENER-HOPF ECUACION

∀n = 0, 1, 2, ...

(2.12)

La salida del filtro la podemos expresar como la convoluci´on de la se˜ nal de entrada con los par´ametros del filtro, esto es: 33

b d(k) =

∞ X

n=0

ω(n)∗ u(k − n),

∀k = 0, 1, 2, ...

(2.13)

donde el asterisco denota complejo conjugado para el caso de un filtro con coeficientes complejos. Basados en el principio de ortogonalidad (ec. 2.12) podemos escribir: E[u(k − n)(d∗ (k) −

∞ X i=0

∗ ωoptimo (i)u(k − i))] = 0,

∀n = 0, 1, 2, ...

(2.14)

Realizando los productos e intercambiando el operador esperanza y la sumatoria (por ser operadores lineales): ∞ X i=0

∗ ωoptimo (i)E[u(k − n)u(k − i)] = E[u(k − n)d∗ (k)],

∀n = 0, 1, 2, ... (2.15)

donde: E[u(k − n)u∗ (k − i)] = R(i − n) es la autocorrelaci´on de la se˜ nal de entrada del filtro valuada en i − n. E[u(k − n)d∗ (k)] = r(−n) es la correlaci´on cruzada entre la se˜ nal deseada y la entrada del filtro valuada en −n. Woptimo (i) son los par´ametros o´ptimos del filtro en el sentido del error cuadr´atico promedio. Podemos reescribir la ecuaci´on 2.15 en t´erminos de las funciones de correlaci´on: ∞ X i=0

ωoptimo (i)R(i − n) = r(−n) ∀n = 0, 1, 2, ...

(2.16)

La ecuaci´on 2.16 se conoce como ecuaci´on de Wiener-Hopf [12] y representa un sistema de ecuaciones simultaneas para obtener los par´ametros o´ptimos. Como se mencion´o al principio de esta secci´on, es de especial inter´es obtener la soluci´on para un filtro transversal del tipo FIR. La estructura para un filtro transversal FIR se muestra en la figura 2.7. En este caso la respuesta al impulso esta limitada a las etapas de ganancia del filtro ω0 , ω1 ...ωM −1 , por lo tanto la ecuaci´on de Wiener-Hopf se puede escribir de la siguiente manera: M −1 X i=0

ωo (i)R(i − n) = r(−n) ∀n = 0, 1, 2, ..M − 1 34

(2.17)

u(k)

u(k − 1) Z −1

W0

...

Z −1

u(k − M − 2)

...

W1

P

...

u(k − M − 1) Z −1

WM +2

WM +1

P

P e(k)

P

db(k)

d(k)

Figura 2.7: Filtro FIR transversal. Entonces la matriz de correlaci´on de la se˜ nal de entrada a las etapas del filtro debe ser de dimensi´on M xM y esta dada por: R = E[U (k)U ∗ (k)] Donde U (k) es el vector de entrada a las etapas del filtro y es igual a: U (k) = [u(k), u(k − 1), ...u(k − M − 1)]T , por lo tanto la matriz de correlaci´on tiene la forma:   

R=  

r(0) r∗ (1) .. .

r(1) r(0) .. .

. . . r(M − 1) . . . r(M − 2) .. ... . ∗ ∗ r (M − 1) r (M − 2) . . . r(0)

     

(2.18)

Y el vector de correlaci´on cruzada entre la se˜ nal de entrada y la se˜ nal deseada: r = E[U (k)d∗ (k)] Es decir: r = [r(0), r(−1), ...r(1 − M )]T

(2.19)

RWo = r

(2.20)

La ecuaci´on de Wiener-Hopf para un filtro transversal se reduce la ecuaci´on matricial:

Por lo tanto para encontrar la soluci´on de los par´ametros o´ptimos solo requerimos invertir la matriz de autocorrelaci´on R. Wo = R−1 r 35

(2.21)

De la ecuaci´on 2.21 podemos observar que para obtener los par´ametros o´ptimos de un filtro de Wiener solo requerimos conocer la matriz de autocorrelaci´on de la se˜ nal de entrada y el vector de correlaci´on de la se˜ nal deseada con la se˜ nal de entrada. Hemos obtenido la ecuaci´on de Winer-Hopf a partir del principio de ortogonalidad, existe otra manera de obtener esta ecuaci´on, esto es observando la dependencia de la funci´on costo con respecto a los par´ametros del filtro y haciendo uso de las propiedades de correlaci´on para procesos estacionarios en sentido amplio, es decir suponiendo que tanto la se˜ nal de entrada como la deseada son estacionarias, adem´as se deben de considerar con media cero, [12]. ´ ´ ´ ERROR OPTIMO E INTERPRETACION GEOMETRICA DEL ERROR. Es de inter´es conocer el valor o´ptimo del error, ya que de esta manera podemos comparar diferentes algoritmos y encontrar cual es el que presenta un mejor desempe˜ no con respecto al error al que converge y de esta forma evaluar nuestro filtro. Para obtener el valor o´ptimo hacemos uso de la definici´on de la funci´on costo1 y de la definici´on del error obteniendo:

J(w) = E[d2 (k)] − 2 +

∞ X ∞ X

n=0 m=0

∞ X

n=0

ω(n)E[d(k)u(k − n)]

w(n)w(m)E[u(k − m)u(k − n)]

(2.22)

Asumiendo que la se˜ nal de entrada y la se˜ nal deseada son conjuntamente estacionarias en sentido amplio, lo cual significa que sus funciones de correlaci´on cruzada son independientes de n, podemos escribir la ecuaci´on 2.22 en forma matricial de la siguiente manera: J(w) = σd2 − W ∗ r − r∗ W + W ∗ RW

(2.23)

El valor del error cuadr´atico promedio o´ptimo es el m´ınimo posible pues este representa la energ´ıa de la se˜ nal de error. Para obtener el error o´ptimo debemos sustituir en la ecuaci´on 2.23 los par´ametros o´ptimos dados por la ecuaci´on de Wiener-Hopf, dando como resultado: J(w)min = σd2 − r∗ R−1 r (2.24) Por lo tanto, para cuantificar el error necesitamos conocer: 1)El valor cuadr´atico promedio o varianza de la respuesta deseada , rd (0) = σd2 . 1

Llamamos funci´on costo J(w) = E[(e(k))2 ] a la funci´on a optimizar en el sentido del error cuadr´atico promedio.

36

2)La correlaci´on cruzada entre la se˜ nal deseada y la se˜ nal de entrada al filtro, r(−n). 3)La inversa de la matriz de correlaci´on de los datos de entrada R −1 . Para obtener una interpretaci´on geom´etrica del error podemos escribir la funci´on costo de la forma: J(W ) = Jmin + (W − Woptimo )∗ R(W − Woptimo )

Esta u ´ltima ecuaci´on nos permite observar la dependencia en forma cuadr´atica de la funci´on costo con respecto a los par´ametros del filtro. La superficie que se muestra en la figura 2.8 muestra la superficie del error para un filtro de orden 2, donde las coordenadas en el plano (x, y) corresponden a los par´ametros del filtro. Cuando el filtro converge al valor o´ptimo de sus par´ametros, se obtiene el m´ınimo valor para la funci´on costo el cual corresponde al punto m´ınimo en la superficie de la figura 2.8.

15

Error

10

5

0 −2

−1

0

h0

1

2

−2

−1

0

1

2

h1

Figura 2.8: Superficie del error

2.5.

El filtro de Kalman

El filtro de Kalman es un proceso de estimaci´on de estado o´ptimo aplicado a sistemas din´amicos que involucran perturbaciones aleatorias. Este nos lleva a la obtenci´on de algoritmos recursivos lineales sin sesgo y varianza de error m´ınima para estimar de manera o´ptima el estado desconocido de un sistema din´amico a partir de la medici´on de datos ruidosos. Ha sido usado en muchas a´reas de la industria tales como sistemas de rastreo por video y laser, estimaci´on de trayectorias de misiles, radares, 37

etc., [10]. Como hemos dicho, el filtro de Kalman trabaja con sistemas representados mediante variables de estado, es decir en lugar de que su objetivo sea estimar los par´ametros del filtro, este se ocupa de calcular el estado actual del filtro. A continuaci´on se realizara un an´alisis del filtro de Kalman. V 1(k)

P

Z

−1

X(k) I

C(k)

P

y(k)

V 2(k) F (k + 1, k)

Figura 2.9: Problema fundamental de un filtro Kalman. Considerando el sistema descrito por el diagrama en la figura 2.9, el vector de estado denotado por X(k) se interpreta como un grupo de cantidades suficientes para describir u ´nicamente el comportamiento din´amico no forzado del sistema, este se asume de dimensi´on M desconocido. Para estimar X(k) nos basamos en la observaci´on de un grupo de muestras contenidas en el vector y(k) el cual se asume de dimensi´on N . Este sistema involucra b´asicamente dos pares de ecuaciones: 1. Una ecuaci´on del proceso dada por: X(k + 1) = F (k + 1, k)X(k) + V1 (k)

(2.25)

donde: F (k + 1, k) es una matriz conocida de transici´on de estado de dimensi´on M XM , relacionando el estado del sistema con los tiempos k + 1 y k. V1 (k) es un proceso de ruido blanco, modelado con media cero y matriz de correlaci´on definida por: E[V1 (k)V1∗ (n)] =

(

Q1 (k); k = n. 0; k 6= n.

2. Una ecuaci´on de medici´on descrita por el vector de observaciones como: y(k) = C(k)X(k) + V2 (k) donde: C(k) Es la matriz de medici´on de N XN .

38

(2.26)

V2 (k), Vector de ruido de medici´on de dimensi´on N X1, el cual es tomado como ruido blanco con media cero y matriz de correlaci´on: E[V2 (k)V2∗ (n)]

=

(

Q2 (k); k = n. 0; k 6= n.

Asumimos que X(0), el valor del estado inicial, es descorrelacionado tanto con V1 (k) como con V2 (k) ∀k ≥ 0. Tambi´en consideramos que los vectores de ruido son estad´ısticamente independientes, esto es: E[V1 (k)V2∗ (n)] = 0 ∀ k, n. El problema del filtrado de Kalman consiste en obtener el estimador de los m´ınimos cuadrados promedio de X(i), mediante el uso de los datos observados, vectores y(1), y(2),...y(k), para cada n ≥ 1. Entonces, se pueden apreciar tres situaciones interesantes, esto es; si i = k el problema se denomina filtrado, si i > k predicci´on y suavizado si 1 ≤ i < k. A menudo se utiliza la aproximaci´on de inovaciones para resolver el problema,[13]. El proceso de inovaci´ on. En este m´etodo definimos el vector yb(k|y k−1 ) que denota el estimador de los m´ınimos cuadrados promedio de la se˜ nal y(k) en el tiempo k, dados los valores pasados de la se˜ nal observada a partir de k = 1 y hasta k = k − 1, estos valores contenidos en los vectores y(1), y(2),...y(k − 1) se representan por el vector yk−1 . Entonces podemos definir el proceso de inovaci´on asociado al vector de muestras y(k) como: α(k) = y(k) − yb(k|yk−1 );

k = 1, 2, ...

(2.27)

El vector α(k) de M X1 representa la nueva informaci´on en los datos observados y(k) y presenta las siguientes propiedades, [13]: 1. El proceso de inovaci´on α(k), asociado a los datos observados al tiempo n, es ortogonal a todas las observaciones pasadas: E[α(k)y ∗ (n)] = 0;

1≤n≤k−1

(2.28)

2. El proceso de inovaci´on consiste en una secuencia de vectores de variables aleatorias que son ortogonales entre si: E[α(k)α∗ (n)] = 0;

1≤n≤k−1

(2.29)

3. Existe una correspondencia uno a uno entre la secuencia de variables aleatorias y(1), y(2), ...y(k) representando las muestras observadas de datos y la secuencia de variables aleatorias α(1), α(2), ...α(k) representando el proceso de inovaci´on. Dada esta correspondencia, una de estas secuencias puede ser obtenida a partir de la otra 39

por medio de operadores lineales estables sin p´erdida de informaci´on. Esto es: y(1), y(2), ...y(k) ⇐⇒ α(1), α(2), ...α(k) La matriz de correlaci´on del proceso de inovaci´on se define como, [13]: R(k) = C(k)K(k, k − 1)C ∗ (k) + Q2 (k)

(2.30)

Donde: Q2 (k) es la matriz de correlaci´on del vector de ruido V2 (k) K(k, k − 1)Es la matriz de correlaci´on de estado del error de predicci´on. K(k, k − 1) = E[(k, k − 1)∗ (k, k − 1)] (k, k − 1) es el vector del error de predicci´on de estado. Estimaci´ on del estado usando el proceso de inovaci´ on El problema consiste en obtener el estimador de los m´ınimos cuadrados promedio del estado X(i). Este estimador lo definimos como: xb(i|yk ) =

k X

Bi (n)α(n)

(2.31)

n=1

Donde, Bi (n), k = 1, ...k es un grupo de matrices de M XN que se deben determinar. De acuerdo con el principio de ortogonalidad, el vector del error predictor de estado es ortogonal con el proceso de inovaci´on: E[(i, k)α∗ (m)] = E[X(i) − xb(i|yk )]α∗ (m) = 0, m = 1, 2, ...k.

(2.32)

Sustituyendo la ecuaci´on 2.31 en la ecuaci´on 2.32 y utilizando la ecuaci´on 2.29: E[X(i)α∗ (m)] = Bi (m)E[α(m)α∗ (m)] = Bi (m)R(m)

(2.33)

De la ecuaci´on 2.33: Bi (m) = E[α(m)α∗ (m)]R−1 (m)

(2.34)

Finalmente sustitutendo la ecuaci´on 2.34 en la ecuaci´on 2.31 para i = k + 1 y definiendo G(k) = E[X(k + 1)α∗ (k)]R−1 (k), podemos escribir el estimador como: xb(k + 1|yk ) = F (k + 1, k)xb(k|yk−1 ) + G(k)α(k)

(2.35)

La ecuaci´on 2.35 muestra que podemos calcular el estimador de los m´ınimos cuadrados promedio xb(k + 1|yk ) del estado del sistema sumando al estimador previo premultiplicado por la matriz de transici´on F(k+1,k) un t´ermino de correcci´on igual a 40

G(k)α(k). A G(k) se le denomina la ganancia de Kalman y puede redefinirse de la siguiente forma, [13]: G(k) = F (k + 1, k)K(k, k − 1)C H (k)R−1 (k) En general, el hecho de poder calcular el estimador de los m´ınimos cuadrados promedio actual del sistema en funci´on del estimador anterior y un factor de correcci´on, es la caracter´ıstica m´as importante de la teor´ıa de Kalman, dando como consecuencia que los algoritmos basados en esta teor´ıa tengan convergencias m´as r´apidas que los basados en la teor´ıa de Wiener en donde se requiere acumular las muestras pasadas de la se˜ nal para obtener el estimado actual.

41

2.6.

Conclusiones

En este cap´ıtulo hemos introducido una serie de elementos que nos permitir´an obtener una mejor comprensi´on del problema de filtrado adaptable para la igualaci´on de canal. Conceptos como el modelado de procesos estoc´asticos y el de la predicci´on lineal son de gran importancia en el problema de filtrado adaptable. En particular, la comprensi´on del problema de la predicci´on lineal es fundamental para el filtrado, ya que cuando hablamos de filtrado, la u ´nica diferencia es la se˜ nal de referencia que se usa. Por otra parte, hemos comentado acerca de las caracter´ısticas de los algoritmos de filtrado, las cuales no siempre se pueden tener para un mismo algoritmo, sin embargo; dependiendo de la aplicaci´on, algunas caracter´ısticas ser´an m´as importantes que otras. As´ı mismo, hemos estudiado el filtro de Wiener basado en el criterio del error cuadr´atico promedio, aunque este filtro no es adaptable; en el caso de los filtros adaptables se busca llegar a la soluci´on de Wiener de manera iterativa conforme se recibe la informaci´on. Por u ´ltimo, en la secci´on 2.5 hemos incluido el problema del filtro de Kalman, un estudio en variables de estado, y hemos obtenido su soluci´on o´ptima por medio del proceso de inovaci´on.

42

Cap´ıtulo 3 ALGORITMOS DE FILTRADO ADAPTABLE PARA LA ´ DE CANAL IGUALACION 3.1.

Introducci´ on

En este cap´ıtulo se estudiar´an dos de los criterios de optimizaci´on m´as utilizados para el desarrollo de algoritmos de filtrado adaptable. En primer lugar, el criterio del error cuadr´atico promedio (MSE) utilizado en los algoritmos de paso descendente y LMS cl´asico, este u ´ltimo como una aproximaci´on a una situaci´on real en donde se desconocen tanto la matriz de correlaci´on del proceso como el vector de correlaci´on cruzada. En segundo lugar, tenemos a los algoritmos basados en los m´ınimos cuadrados LS. Se presentar´a la deducci´on para el algoritmo cl´asico, CLS, con estructura transversal. Adem´as, como una alternativa para disminuir el tiempo de c´alculo de los par´ametros del filtro se obtendr´a el algoritmo r´apido de Kalman. Finalmente, con el objetivo de observar las caracter´ısticas de cada uno de los algoritmos, ´estos se implementar´an en un esquema de igualaci´on lineal en aritm´etica de punto flotante con precisi´on doble,[13].

3.2.

Algoritmos basados en el error cuadr´ atico promedio

3.2.1.

El m´ etodo de paso descendente

Para estudiar este m´etodo consideramos el filtro de la figura 3.1, con vector de entrada U (k) representando a las muestras u(k), u(k − 1), ...u(k − p + 1) y vector de 43

ganancias W (k) representando los par´ametros del filtro w0 (k), w1 (k), ...wp−1 (k). U (k) se compone de las muestra de un proceso estoc´astico WSS (que es estacionario en sentido amplio), de media cero con su correspondiente matriz de correlaci´on R. El filtro es provisto de una respuesta deseada d(k), tambi´en conocida como secuencia de entrenamiento, con caracter´ısticas estad´ısticas iguales a la se˜ nal de entrada. u(k)

W0∗

Z −1

u(k − 1)

W1∗

P

u(k − p + 2)

...

Z −1

Z −1

∗ Wp−2

...

u(k − p + 1)

∗ Wp−1

P

...

P db(k|Uk ) P

d(k)

e(k) Algoritmo adaptable

Figura 3.1: Filtro transversal adaptable. b El estimado de la respuesta deseada se denota por d(k|U k ), donde Uk = U (k).

Si comparamos el estimado con la respuesta deseada d(k) podemos obtener el error de estimaci´on dado por: ∗ b e(k) = d(k) − d(k|U k ) = d(k) − W (k)U (k)

(3.1)

J(k) = σd2 − W ∗ (k)r − r ∗ W (k) + W ∗ (k)RW (k)

(3.2)

Como se demostr´o en el capitulo 2, si U (k) y la respuesta deseada d(k) son conjuntamente estacionarios, entonces la funci´on costo (J(k)) al tiempo k es una funci´on cuadr´atica del vector de ganancias y podemos escribir:

Donde: σd2 es la variancia de la respuesta deseada d(k). r es el vector de correlaci´on cruzada entre U (k) y la respuesta deseada. R es la matriz de autocorrelaci´on de U (k).

44

La ecuaci´on 3.2 define el error cuadr´atico promedio que resultar´ıa si los par´ametros del filtro W (k) fueran fijados. Dado que W (k) var´ıa con el tiempo, el error medio cuadr´atico lo hace de igual manera. La variaci´on del error cuadr´atico promedio J(k) con respecto al tiempo significa que el error de estimaci´on (proceso e(k)) es no estacionario. Como se vio en el cap´ıtulo 2 la superficie que representa J(k) es en forma de un taz´on con un m´ınimo global y se denomina para el caso de un filtro adaptable superficie de desempe˜ no del error del filtro adaptable, [13]. El proceso adaptable tiene la tarea de buscar continuamente el punto m´ınimo de esta superficie, en el cual el vector de ganancias W (k) toma su valor o´ptimo W0 que se define por la ecuaci´on de Wiener-Hopf (ecuaci´on 2.20). Sustituyendo la soluci´on de Wiener en la ecuaci´on 3.2 podemos obtener el m´ınimo error cuadr´atico promedio definido como: Jmin = σd2 − r∗ W0

(3.3)

En la siguiente secci´on desarrollaremos las ecuaciones fundamentales para el algoritmo de paso descendente. El algoritmo de paso descendente El requisito que un filtro adaptable debe satisfacer es el de encontrar una soluci´on para su vector de ganancias o´ vector de par´ametros que satisfaga la ecuaci´on de Wiener-Hopf. Una forma de encontrar esta soluci´on es resolver el sistema de ecuaciones dado en forma anal´ıtica por 2.20. En general, este m´etodo es sencillo, sin embargo presenta serias dificultades de c´omputo, especialmente cuando el filtro contiene muchas etapas y la tasa de llegada de los datos es elevada. Un procedimiento alternativo es utilizar el m´etodo de paso descendente, uno de los m´etodos m´as antiguos de optimizaci´on. El algoritmo de paso descendente se puede resumir en los siguientes puntos: 1. Se inicia con un valor inicial W (0), el cual provee una suposici´on inicial para el punto m´ınimo en la superficie del error. A menos que se disponga de alg´ un conocimiento previo, usualmente es puesto a cero. 2. Usando la suposici´on inicial, se calcula el vector gradiente como la derivada del error cuadr´atico promedio J(k) evaluado con respecto a la parte real e imaginaria del vector de par´ametros W (k) al tiempo k (k-´esima iteraci´on).

45

3. Se calcula la siguiente suposici´on para W (k) haciendo un cambio en el valor actual supuesto, en una direcci´on opuesta al vector gradiente. 4. Regresamos al paso dos y repetimos el proceso. Se puede intuir que las correcciones sucesivas a los par´ametros en la direcci´on negativa del vector gradiente debe eventualmente dirigirse al error cuadr´atico promedio m´ınimo Jmin y en tal punto el vector de par´ametros asume su valor o´ptimo W0 . Si ∇J(k) denota el valor del vector gradiente al tiempo k y W (k) denota el valor del vector de par´ametros al tiempo k. De acuerdo al m´etodo de paso descendente el valor actualizado del vector de par´ametros al tiempo k + 1 es calculado como: 1 W (k + 1) = W (k) + µ[−∇J(k)] (3.4) 2 Donde µ es el par´ametro de paso, constante real positiva, y el factor de 21 se utiliza u ´nicamente para cancelar un factor de 2 que aparece en el c´alculo del gradiente ∇J(k) como se muestra a continuaci´on. 

   ∇J(k) =    

∂J(k) ∂a0 (k) ∂J(k) ∂a1 (k) ∂J(k) ∂ap−1 (k)

∂J(k) + j ∂b 0 (k) ∂J(k) + j ∂b 1 (k) .. .

+ j ∂b∂J(k) p−1 (k)



    = −2r + 2RW (k)   

(3.5)

∂J(k) Donde el vector columna ∂a + j ∂b∂J(k) corresponde a las derivadas parciales de la m (k) m (k) funci´on costo J(k) con respecto a la parte real am (k) y a la parte imaginaria bm (k) de la m-´esima etapa de ganancia Wm (k), ∀m = 0, 1, 2, ...p − 1.

Para la aplicaci´on del algoritmo de paso descendente, asumimos que en la ecuaci´on 3.5 la matriz y el vector de correlaci´on R y r son conocidos de tal forma que se puede calcular el vector gradiente ∇J(k) para un valor dado del vector de par´ametros W (k). Sustituyendo la ecuaci´on 3.5 en la ecuaci´on 3.4 encontramos la actualizaci´on de los par´ametros en t´erminos de la matriz R y el vector r, la cual describe el algoritmo de paso descendente: W (k + 1) = W (k) + µ[r − RW (k)];

k = 0, 1, 2...

(3.6)

En la ecuaci´on 3.6, µ controla el tama˜ no de la correci´on aplicado al vector de par´ametros W (k) de una iteraci´on a otra. Por lo tanto, a menudo nos referimos a µ como el par´ametro del tama˜ no del paso. La correci´on aplicada al vector de par´ametros al tiempo k+1 es igual a µ[r−RW (k)], esta correci´on se puede expresar como µ veces el valor esperado del producto interno 46

del vector de entrada U (k) y el error de estimaci´on e(k) [13], para hacerlo se puede utilizar el banco de correladores de la figura 3.2. En la figura podemos observar como en cada paso se realiza una correlaci´on y se estima el error de modo que es posible estimar el vector de correcci´on a aplicar en el algoritmo de paso descendente. δW0 (k) E[.] u(k)

X δW1 (k) E[.]

u(k − 1)

X δW2 (k) µ

E[.] u(k − 2)

e∗ [k]

X

. .

.

.

δW(M −2) (k). E[.] u(k − M + 2) X δW(M −1) (k) E[.] u(k − M + 1) X

Figura 3.2: Banco de correladores para estimar la correcci´on en el algoritmo de paso descendente. Dado que el algoritmo de paso descendente, como todos los algoritmos de filtrado adaptable, involucra la presencia de retroalimentaci´on, ´este esta sujeto a la posibilidad de volverse inestable. La estabilidad de los algoritmos es determinada por dos factores: 47

1. El par´ametro de paso, µ. 2. La matriz de correlaci´on R del vector de entrada en las etapas, U (k). La condici´on para la estabilidad y convergencia del algoritmo esta dada por, [13].:

donde λmax

3.2.2.

2

; λmax es el m´aximo valor caracter´ıstico de la matriz de correlaci´on. 0