UNIVERSIDAD POLITÉCNICA SALESIANA SEDE MATRIZ CUENCA CARRERA DE INGENIERÍA ELECTRÓNICA
Tesis previa a la obtención del título de Ingeniero Electrónico.
“MODELACIÓN MATEMÁTICA Y SIMULACIÓN DE UN FILTRO DIGITAL HIBRIDO FIR ADAPTATIVO LINEAL ÓPTIMO”
AUTORES: Hugo Nelson Apolo Castillo Alejandro Esteban Córdova Medina
DIRECTOR: Ing. Walter Orozco Cuenca – Ecuador 2010
“MODELACIÓN MATEMÁTICA Y SIMULACIÓN DE UN FILTRO DIGITAL HIBRIDO FIR ADAPTATIVO LINEAL ÓPTIMO”
Declaratoria de Responsabilidad
El análisis de la tesis intitulada “MODELACIÓN MATEMÁTICA Y SIMULACIÓN DE UN FILTRO DIGITAL HIBRIDO FIR ADAPTATIVO LINEAL ÓPTIMO”, es el resultado investigativo y los conceptos desarrollados, análisis realizados y las conclusiones del presente trabajo, son de exclusiva responsabilidad de los autores.
__________________ Hugo Apolo
__________________ Esteban Córdova
Certificación En calidad de DIRECTOR DE LA TESIS “MODELACIÓN MATEMÁTICA Y SIMULACIÓN DE UN FILTRO DIGITAL HIBRIDO FIR ADAPTATIVO LINEAL ÓPTIMO”, elaborada por Hugo Nelson Apolo Castillo y Alejandro Esteban Córdova Medina, declaro y certifico la aprobación del presente trabajo de tesis basándome en la supervisión y revisión de su contenido.
________________________ Ing. Walter Orozco DIRECTOR DEL PROYECTO
Dedicatoria
Hugo
Mi familia y amigos han sido un pilar fundamental que con todo su cariño y comprensión apoyándome
han e
estado
hicieron
siempre
posible
la
culminación de la presente tesis y así dar este
importante
paso
en
mi
vida
profesional.
Esteban A mis abuelos y padres que con su sabiduría han sabido apoyarme para no desfallecer en el camino. A mis amigos, aquellos que me han impulsado para mejorar. A profesores y guías que han aclarado nuestro camino
.
Agradecimiento
Nuestro agradecimiento va dirigido a la Universidad Politécnica Salesiana y a los docentes de nuestra carrera, que con sus conocimientos han aportado directa e indirectamente en nuestra formación profesional, de manera muy especial al Ing. Walter Orozco que nos supo guiar de manera acertada en el desarrollo de nuestro trabajo de Tesis.
También nuestro agradecimiento va a todas aquellas personas que nos apoyaron y nos han permitido llegar a este punto tan importante de nuestras vidas profesionales, ya que es un gran paso para seguir creciendo en todo aspecto.
LOS AUTORES
UPS
Índice General
Índice General
Índice de Figuras……………….…………………………………………………
I
Índice de Tablas…….…………….………………………………………………. IV Introducción............................................................................................................ V
CAPITULO I: DIGITALIZACIÓN DE LA SEÑALES 1.1.
Conversión Analógico-Digital ............................................................. 2
1.1.1.
Muestreo y Mantenimiento ........................................................................ 2
1.1.2.
Cuantificación y Decodificación ............................................................... 3
1.1.3.
Conversores A/D con Sobremuestreo ........................................................ 7
1.1.4.
Ruido de Cuantificación .......................................................................... 12
1.2.
Estructuras para la Realización de Sistemas en Tiempo Discreto .................. 14
1.3.
Errores Resultantes del Redondeo y Truncamiento ........................................ 15
CAPITULO II: IMPLEMENTACIÓN DE SISTEMAS EN TIEMPO DISCRETO 2.1.
Herramientas Matemáticas .............................................................................. 20
2.1.1.
Transformada Z........................................................................................ 20
2.1.2.
Transformada de Fourier ......................................................................... 23
2.1.3.
Transformada de Fourier Discreta DTF................................................... 25
2.1.4.
Transformada Rápida de Fourier FFT ..................................................... 26
2.1.5.
Identidad de Parseval ............................................................................... 30
2.1.6.
Desigualdad de Bessel ............................................................................. 31
2.1.7.
Aliasing .................................................................................................... 32
2.1.8.
Estadística ................................................................................................ 33
2.1.8.1. Probabilidad ........................................................................................... 33 2.1.8.2. Valores Esperados.................................................................................. 35 2.1.8.3. Procesos Aleatorios................................................................................ 37 2.1.8.4. Procesos Estocásticos ............................................................................ 37 2.2. Estructuras para Sistemas FIR ............................................................................ 38
UPS
Índice General
2.2.1.
Estructura en Forma Directa .................................................................... 39
2.2.2.
Estructura en Forma de Cascada.............................................................. 40
2.2.3.
Estructura de Muestreo en Frecuencia ..................................................... 41
2.2.4.
Estructura en Celosía ............................................................................... 43
2.3. Estructuras Para Sistemas IIR ............................................................................. 46 2.3.1.
Estructura en Forma Directa .................................................................... 46
2.3.2.
Grafos y Estructuras Transpuestas........................................................... 48
2.3.3.
Estructura en Forma de Cascada.............................................................. 51
2.3.4.
Estructura en Forma Paralela ................................................................... 52
2.3.5.
Estructura en Celosía y en Celosía Escalonada para Sistemas IIR .......... 53
2.4. Cuantificación de los Coeficientes del Filtro ...................................................... 55 2.4.1. Análisis de la Sensibilidad a la Cuantificación de los Coeficientes del Filtro…………………………………………………………………………...… 56 2.4.2.
Cuantificación de los Coeficientes en Filtros FIR ................................... 57
2.5.
Oscilaciones de Ciclo Límite en Sistemas Recursivos ................................... 58
2.6.
Escalado para Prevenir Desbordamiento ........................................................ 59
CAPITULO III: DISEÑO DE FILTROS DIGITALES 3.1.
Consideraciones Generales ............................................................................. 62
3.1.1.
Causalidad y sus Implicaciones ............................................................... 62
3.1.2.
Características de Filtros Prácticos Selectivos en Frecuencia ................. 63
3.2.
Diseño de Filtros FIR ...................................................................................... 65
3.2.1.
Filtros FIR Simétricos y Asimétricos ...................................................... 65
3.2.2.
Diseño de Filtros FIR de Fase Lineal Usando Ventanas ......................... 67
3.2.3. Diseño de Filtros FIR de Fase Lineal Mediante el Método de Muestreo en Frecuencia............................................................................................................... 69 3.2.4.
Diseño de Filtros Óptimos FIR de Fase Lineal y Rizado Constante ....... 70
3.2.5.
Diseño de Diferenciadores FIR................................................................ 73
3.2.6.
Diseño de Transformadores de Hilbert .................................................... 74
3.2.7.
Comparación de Métodos de Diseño para Filtros FIR de Fase Lineal .... 75
3.3.
Diseño de Filtros Digitales Basado en el Método De Mínimos Cuadrados.... 76
3.3.1.
Método de Aproximación De Padé .......................................................... 76
3.3.2.
Método de Diseño de Mínimos Cuadrados.............................................. 77
3.3.3.
Filtros Inversos FIR de Mínimos Cuadrados (Wiener) ........................... 79
UPS
Índice General
3.3.4. 3.4.
Diseño de Filtros IIR en el Dominio de la Frecuencia ............................ 82
Predicción Lineal hacia Adelante y hacia Atrás ............................................. 84
3.4.1.
Predicción Lineal hacia Adelante ............................................................ 84
3.4.2.
Predicción Lineal hacia Atrás .................................................................. 86
3.4.3. Coeficientes de Reflexión Óptimos para los Predictores en Celosía hacia Delante y hacia Atrás.............................................................................................. 87 3.4.4.
Relación de un Proceso AR con la Predicción Lineal ............................. 88
3.5.
Propiedades de los Filtros de Error de Predicción Lineal ............................... 88
3.6.
Filtros de Wiener para Predicción y Filtrado .................................................. 90
3.6.1.
Filtro FIR de Wiener ................................................................................ 90
3.6.2. Principio de Ortogonalidad en Estimación Lineal de Mínimos Cuadrados…………............................................................................................... 92 3.6.3.
Filtro IIR de Wiener................................................................................. 93
3.6.4.
Filtro de Wiener no Causal ...................................................................... 96
CAPITULO IV: FILTROS ADAPTATIVOS 4.1.
Aplicaciones de los Filtros Adaptativos .......................................................... 99
4.1.1.
Identificación ó Modelado del Sistema ................................................. 100
4.1.2.
Ecualización del Canal Adaptativa ........................................................ 101
4.1.3. Cancelación del Eco en la Transmisión de Datos a Través de Canales Telefónicos ........................................................................................................... 103 4.1.4. Supresión de Interferencias de Banda Estrecha en una Señal de Banda Ancha………………………………………………………………………...… 105 4.1.5.
Mejorador de Línea Adaptativo ............................................................ 108
4.1.6.
Cancelación de Ruido Adaptativa.......................................................... 109
4.1.7.
Codificación Lineal Predictiva de Señales de Voz ............................... 110
4.1.8.
Matrices Adaptativas ............................................................................. 113
4.2.
Filtros FIR Adaptativos En Forma Directa: Algoritmo LMS ....................... 115
4.2.1.
Criterio del Error Cuadrático Medio Mínimo ........................................ 116
4.2.2.
El Algoritmo LMS ................................................................................. 117
4.2.3.
Algoritmos Estocásticos de Gradiente ................................................... 119
4.2.4.
Propiedades del Algoritmo LMS ........................................................... 120
4.3.
Filtros FIR Adaptativos en Forma Directa: Algoritmo RLS......................... 124
4.3.1.
Algoritmo RLS ...................................................................................... 124
UPS
Índice General
4.3.2. Algoritmo de Factorización LDU y de Raíz Cuadrada .............................. 125 4.3.3.
Algoritmos RLS Rápidos ....................................................................... 128
4.3.4.
Propiedades de los Algoritmos RLS para la Forma Directa .................. 128
4.4.
Filtros Adaptativos en Celosía-Escalera ....................................................... 129
4.4.1.
Algoritmo Recursivos de Mínimos Cuadrados en Celosía-Escalera ..... 130
4.4.2.
Otros Algoritmos en Celosía.................................................................. 140
4.4.3.Propiedades de los Algoritmos en Celosía-Escalera ................................... 141
CAPITULO V: MODELACIÓN MATEMÁTICA Y SIMULACIÓN DEL NUEVO MODELO HIBRIDO ADAPTATIVO LINEAL ÓPTIMO 5.1.
Planteamiento del Nuevo Modelo de Estudio ............................................... 145
5.2.
Modelación Matemática ................................................................................ 152
5.3.
Diseño del Algoritmo de Simulación del Nuevo Modelo ............................. 162
5.4.
Simulación Experimental ............................................................................... 164
5.5. Análisis y Comparación de Resultados ........................................................... 171
Conclusiones y Recomendaciones……………...……………………………...… VI Bibliografía……………………..……………..……………………………….…XIII Glosario....................................................................................................................XV Anexos…………………………………..………………….…………………...XVIII
UPS
Índice de Figuras
Índice de Figuras Fig. 1. 1. Diagrama de bloques de elementos básicos de un conversor A/D ............... 2 Fig. 1. 2. (a) Circuito Electrónico S/H. (b) Respuesta temporal de un circuito S/H ideal .............................................................................................................................. 3 Fig. 1. 3. Proceso de Cuantificación ............................................................................ 4 Fig. 1. 4. Ejemplo de un Cuantificador con redondeo ................................................. 5 Fig. 1. 5. Características de los Conversores A/D ideales y prácticos ......................... 6 Fig. 1. 6. Codificador y Decodificador para un sistema cuantificador de señal diferencial predictivo. .................................................................................................. 8 Fig. 1. 7. Sistema de Modulación delta ........................................................................ 9 Fig. 1. 8. Principio básico para la implementación práctica de un sistema DM .......... 9 Fig. 1. 9. Tipos de errores de cuantificación en DM.................................................. 10 Fig. 1. 10. Sistema de modulación sigma delta ......................................................... 10 Fig. 1. 11. (a) SDM simplificado; (b) SDM discreto ................................................. 11 Fig. 1. 12. Magnitud de la respuesta en frecuencia de la función de transferencia del ruido ........................................................................................................................... 12 Fig. 1. 13. Elementos básicos de un conversor A/D con sobremuestreo ................... 12 Fig. 1. 14. Modelo Matemático del Ruido de Cuantificación. (a) Sistema Real; (b) Modelo Matemático ................................................................................................... 13 Fig. 1. 15. Errores de Cuantificación (a) por Redondeo, (b) por Truncamiento ........ 17 Fig. 1. 16. Adición de Ruido Aditivo al Proceso de Cuantificación no lineal: (a) Sistema Real, (b) Modelo para Cuantificación. ........................................................ 17 Fig. 2. 1. No. De operaciones vs. No. De muestras para un algoritmo FFT………. 27 Fig. 2. 2. Señal tomada para la adquisición de muestras con Aliasing ...................... 33 Fig. 2. 3. Sistema FIR en una realización directa ...................................................... 39 Fig. 2. 4. Sistema FIR de fase lineal (M impar) en una realización directa .............. 39 Fig. 2. 5. Sistema FIR en una realización en cascada ............................................... 40 Fig. 2. 6. Sistema FIR de cuarto orden en una realización en cascada ...................... 41 Fig. 2. 7. Sistema FIR en una realización de muestreo de frecuencia ...................... 42 Fig. 2. 8. Filtro en celosía de (M-1) etapas ............................................................... 43 Fig. 2. 9. Realización en Forma Directa I ................................................................. 47 Fig. 2. 10. Realización en Forma Directa II (N=M) ................................................. 47 Fig. 2. 11. Estructura de un filtro de segundo orden (a) y (b) su grafo ..................... 49 Fig. 2. 12. (a) Grafo de la estructura transpuesta de la Fig. 2.11. y (b) su realización .................................................................................................................................... 49 Fig. 2. 13. Estructura en cascada de estructura de segundo orden y una realización de cada sección de segundo orden. ............................................................................ 51 Fig. 2. 14. Estructura en paralelo de un sistema IIR ................................................. 52 Fig. 2. 15. Estructura en celosía para un sistema IIR todo polos .............................. 53 Fig. 2. 16. Estructura en celosía escalonada de un sistema de polos-ceros. .............. 54
I
UPS
Índice de Figuras
Fig. 2. 17. Posiciones de los polos para un Filtro FIR paso bajo. ............................. 56 Fig. 3. 1. Características de magnitud de los filtros físicamente realizables…..….. 64 Fig. 3. 2. Simetría en las localizaciones de los ceros para un Filtro FIR de fase lineal .................................................................................................................................... 65 Fig. 3. 3. Características deseadas de respuesta en frecuencia para diferentes tipos de Filtros ......................................................................................................................... 72 Fig. 3. 4. Diagrama de Flujo del Algoritmo de Intercambio de Remez ..................... 73 Fig. 3. 5. Método de diseño del filtro inverso de mínimos cuadrados ...................... 77 Fig. 3. 6. Método de mínimos cuadrados para determinar polos y ceros de un filtro .................................................................................................................................... 78 Fig. 3. 7. Filtro Inverso FIR de Mínimos Cuadrados ................................................ 80 Fig. 3. 8. Predicción lineal hacia adelante ................................................................ 84 Fig. 3. 9. Filtro de error de predicción ...................................................................... 85 Fig. 3. 10. Etapa p del filtro en celosía ..................................................................... 86 Fig. 3. 11. Modelo para el problema de Estimación Lineal ...................................... 90 Fig. 4. 1. Aplicación del filtrado adaptativo a la identificación de un sistema...… 101 Fig. 4. 2. Aplicación del Filtrado Adaptativo a la ecualización de un canal ........... 102 Fig. 4. 3. Diagrama de bloques de un sistema de comunicación digital con canceladores de eco en los módems ......................................................................... 105 Fig. 4. 4. Interferencia de banda estrecha X(f) en un banda ancha W(f). ................. 106 Fig. 4. 5. Filtro adaptativo para eliminar interferencia de banda estrecha en una señal de banda ancha ......................................................................................................... 107 Fig. 4. 6. Esquema de un sistema de cancelación de ruido adaptativo. .................. 110 Fig. 4. 7. Diagrama de bloques de la generación de una señal de voz. ................... 111 Fig. 4. 8. Diagrama de bloques de la estimación de los parámetros de los polos ... 112 Fig. 4. 9. Matriz de antenas: (a) Con patrón de antena. (b) Con nulidad en la dirección de interferencia. ........................................................................................ 114 Fig. 4. 10. Sistema de Control de bucle cerrado que representa a 4.2.22 ............... 121 Fig. 4. 11. Velocidad de convergencia de los algoritmos RLS y LMS para un ecualizado de canal FIR. .......................................................................................... 128 Fig. 4. 12. Filtros en celosía para el algoritmo de mínimos cuadrados................... 131 Fig. 4. 13. Filtro adaptativo RLS en celosía-escalera ............................................. 133 Fig. 4. 14. Complejidad de Cálculos para los Algoritmos de Filtros Adaptativos . 142 Fig. 5. 1. Sistema Adaptativo o Predictor……………………………………….... 145 Fig. 5. 2. Configuración de un Filtro con arreglo lineal .......................................... 146 Fig. 5. 3. Filtro Adaptativo Transversal ................................................................... 147 Fig. 5. 4. Esquema de la Configuración del Filtro con algoritmo LMS .................. 150
II
UPS
Índice de Figuras
Fig. 5. 5. Predictor en Cascada de 2 etapas – 1 tap .................................................. 153 Fig. 5. 6. Combinación del Predictor de forma directa lineal y el Predictor de cascada. .................................................................................................................... 157 Fig. 5. 7. Diagrama de Flujo del Algoritmo utilizado en la simulación .................. 163 Fig. 5. 8. Curva obtenida del Aprendizaje LMS ...................................................... 167 Fig. 5. 9. Número de Iteraciones de la Curva del Aprendizaje LMS ....................... 167 Fig. 5. 10. Curva obtenida del Aprendizaje CLMS ................................................. 168 Fig. 5. 11. Número de Iteraciones de la Curva del Aprendizaje CLMS .................. 168 Fig. 5. 12. Curva obtenida del Aprendizaje FCLMS .............................................. 169 Fig. 5. 13. Número de Iteraciones de la Curva del Aprendizaje FCLMS ................ 169 Fig. 5. 14. Curva de Convergencia de los Taps de Algoritmo LMS........................ 170 Fig. 5. 15. Curva de Convergencia de los Taps de Algoritmo CLMS ..................... 170 Fig. 5. 16. Curva de Convergencia de los Taps de Algoritmo FCLMS ................... 171 Fig. 5. 17. Curvas de Aprendizaje obtenidas de los distintos Aprendizajes ............ 172 Fig. 5. 18. Convergencia de los Taps de los tres tipos de Aprendizaje ................... 173
III
UPS
Índice de Tablas
Índice de Tablas
Tabla 1.1. Códigos Bipolares comúnmente utilizados ................................................ 7 Tabla 2.1. Algunos módulos de Segundo Orden para Sistemas Discretos…………50 Tabla 3.1. Funciones Ventana para el diseño de Filtros FIR……………………....68 Tabla 3.2. Funciones para el diseño de Filtros FIR ................................................... 71 Tabla 4.1 Forma LDU del Algoritmo RLS de raíz cuadrada de Complejidad M 2 127 Tabla 4.2. Forma a priori del Algoritmo RLS en celosía-escalera.......................... 133 Tabla 4.3. Actualización directa del algoritmo RLS a priori en celosía-escalera ... 134 Tabla 4.4. Algoritmo FAEST .................................................................................. 138 Tabla 4.5. Algoritmo RLS rápido estandarizado y simplificado............................. 139 Tabla 5.1. Número de iteraciones entre los 3 métodos de Aprendizaje………..… 173
IV
UPS
Introducción
Introducción El hombre desde sus inicios se dio cuenta de la necesidad y gran importancia de mantenerse comunicado, por lo que con el pasar del tiempo inventó, desarrolló y mejoró varios medios de comunicación, primero con sistemas primitivos, pasando por los analógicos hasta llegar en la actualidad a sistemas digitales muy avanzados.
De igual manera se dio cuenta en la importancia de que la información sea segura, confiable y protegida, con la finalidad de que sea utilizada solo por la persona a la cual le vaya a ser útil.
En la actualidad la mayor parte de operaciones de información son digitales, y como ningún sistema es ideal, casi siempre se introducen en las transmisiones ruido, por lo que es necesario, la utilización de filtros que nos purifiquen la señal, y nos permitan recuperar las señales en su totalidad de ser posible.
Los filtros utilizan varias etapas con la finalidad de mejorar los resultados obtenidos, así como de dispositivos DSP, aunque su complejidad computacional aumenta. Sin embargo con los avances de la ciencia en el campo de la informática se cuenta elementos más veloces y con mayor capacidad de procesamiento, por lo que estos inconvenientes disminuyen notablemente, incrementando las posibilidades de obtener mayor nitidez en las transmisiones.
Dependiendo del tipo de respuesta que nos pueda dar un filtro digital existen los filtros IIR y FIR, cada uno con diferentes características, motivo por el cual se ha decidido diseñar un nuevo modelo hibrido, que nos brinde nuevas características para ser utilizadas en aplicaciones conocidas como en nuevas.
El descubrimiento de un nuevo modelo nos permitirá tener mayores opciones a la hora del procesamiento digital de señales, para de esta manera tener mejores resultados.
V
UPS
Capítulo I
CAPÍTULO I
DIGITALIZACIÓN DE SEÑALES
1
UPS
Capítulo I
CAPÍTULO I DIGITALIZACIÓN DE SEÑALES La gran mayoría de señales son de naturaleza analógica, es por esto que previo al procesamiento de estas señales se debe pasar por un proceso de digitalización, aunque este proceso es complicado en el presente capítulo ayuda a su comprensión tanto en los pasos necesarios como sus principales términos.
1.1. CONVERSIÓN ANALÓGICO-DIGITAL Comando de Conversión
Control S/H
Preamplificador Analógico
Mantiene Muestrea
Conversor A/D
Buffer ó Bus
Al computador o Canal de comunicación
Estado
Fig. 1. 1. Diagrama de bloques de elementos básicos de un conversor A/D
La conversión de una señal analógica a digital requiere que una vez que hemos muestreado una señal cuantifiquemos los valores muestreados a un número finito de niveles, representado cada uno de estos niveles por un cierto número de bits. Este proceso lo realiza un conversor analógico-digital A/D o ADC, cuyas características usualmente las encontramos en las especificaciones de los fabricantes o data sheets.
1.1.1. MUESTREO Y MANTENIMIENTO El dispositivo encargo del muestreo y mantenimiento es S/H, “Sample and Hold”, este dispositivo toma el valor instantáneo de la señal analógica cada vez que recibe una señal del control de conversión y lo mantiene hasta recibir la siguiente orden, hasta que el conversor cuantifique y devuelva una señal digital codificada de la señal de entrada, si no hubiera un S/H la señal de entrada no debe cambiar más de la mitad del escalón de cuantificación durante la conversión. Un S/H ideal no introduce distorsión en el proceso de cuantificación y se modela con precisión mediante un muestreador ideal. En la práctica esto no sucede sino que ocurren
2
UPS
Capítulo I
degradaciones relacionadas con el tiempo, como errores en la periodicidad del proceso de muestreo o los llamados “jitter”, variaciones no lineales en la duración de la apertura de muestreo y cambios en el voltaje mantenido durante la conversión “droop”. Entrada digital de control
Vo
to
-
A1
Salida
+
+
Entrada analógica
A2
C
(a) Seguimiento de muestras Entrada
Mantenimiento
H
S
H
S
H
S
H
H
S
S
H Salida S/H
(b) Fig. 1. 2. (a) Circuito Electrónico S/H. (b) Respuesta temporal de un circuito S/H ideal
1.1.2. CUANTIFICACIÓN Y DECODIFICACIÓN Un ADC convierte un rango continuo de amplitudes de entrada en un conjunto discreto de valores formando palabras o códigos digitales, esto implica cuantificación y codificación. La cuantificación no es lineal ni invertible que traslada una amplitud dada x(n) x(nT ) en el tiempo en una amplitud t nT , tomada de un conjunto finito de valores xk . Este procedimiento de ilustra en la siguiente figura, donde el rango de amplitudes de la señal se divide en L intervalos:
I k xk x(n) xk 1
k 1, 2,..., L
(1.1.1)
3
UPS
Capítulo I
Niveles de decisión
Niveles de Cuantificación
x3
Ik
xˆ3 x4 xˆ4
xk
xˆk xk 1
Amplitud Instantánea
Rango del Cuantificador
Fig. 1. 3. Proceso de Cuantificación
Con L 1 niveles de decisión y los niveles de cuantificación x1 , xL ,..., xL1 cuya operación se define como:
xq (n) Q x(n) xˆk
if x(n) I k
(1.1.2)
La cuantificación no tiene memoria y se describe como xq Q x . Para señales como la voz se utiliza cuantificadores no lineales y variantes en el tiempo; mientras que para aplicaciones de transmisión y almacenamiento de señales se usan a menudo cuantificadores uniformes o lineales, descritos como:
xˆk 1 xˆk xk 1 xk
k 1, 2,..., L 1 para xk , xk 1 finitas
(1.1.3)
es el tamaño del escalón; si se asigna un cero a un nivel de cuantificación el cuantificador es de tipo redondo (proporciona una salida insensible a cambios infinitesimales de la señal de entrada alrededor del cero), en cambio si se asigna el cero a un nivel de cuantificación el cuantificador se denomina de tipo truncamiento. R es el rango del cuantificador y entre ellos tenemos, FSR: “Full Scale Range” describe las señales bipolares (positivas y negativas), es decir, rango completo. FS:”Full Scale” para señales unipolares. El error de cuantificación está siempre en un rango de / 2 eq (n) / 2 . Las muestras excedentes del rango del cuantificador son recortadas, dándonos un error de cuantificación más grande / 2 .
4
UPS
Capítulo I
xˆ Q x
Salida Niveles de Cuantificación
3 2 2
9 2
7 2
5 2
3 2
Niveles de decisión
2 3 2
5 2
7 2
9 2
Palabras código en Complemento a dos 011 010 001 000 x 111 Entrada 110 101 100
2
3
4
Rango R=RFS (Rango pico a pico) -FS
+FS Fig. 1. 4. Ejemplo de un Cuantificador con redondeo
Cada nivel de Cuantificación tiene un solo número binario, con L niveles necesitamos también L números binarios diferentes, con una longitud de b 1 bits de puede representar 2b1 números binarios distintos, o sea, 2b1 L o b 1 log 2 L , y el tamaño o resolución del escalón es:
R 2b+1
(1.1.4)
La gran mayoría de procesadores digitales utilizan la el complemento a dos debido a que no se necesita ninguna transformación, sino que se opera directamente, una fracción binaria de (b+1) bits de la forma 0 12 ... B tiene el valor: 0 20 1 2-1 2 2-2 ... b 2-b
(1.1.5)
0 y b son los bits más y menos significativos respectivamente, se puede reducir el error de cuantificación incrementando el número de bits aunque en la práctica siempre va a ver degradaciones, errores de offset (la primera transición no puede ocurrir exactamente en +1/2LSB1), ganancia o error de factor de escala (la diferencia entre los valores a los cuales ocurren la primera y última transición no son iguales FS-2LSB1), y errores de linealidad (la diferencia entre los valores de
5
UPS
Capítulo I
transición son todas iguales o cambian uniformemente); si el error de linealidad diferencial es bastante grande se puede producir perdidas de una o más palabras código.
3 4
1 2
1 4
8 8 7 8
111
6 8
101
5 8
101
4 8
100
3 8
011
2 8
010
1 8
001
Entrada analógica cuantificada idealmente
Número digital de salida(código y valor fraccionario)
1
Conversión A/D ideal
Transición ideal Valor cuantificado nominal 1 LSB 2 1 8
1 4
3 8
1 2
5 8
3 4
7 8
1 4
3 8
1 2
5 8
3 4
7 8
0
0
1 8
FS
Entrada Analógica Normalizada
(a) 111 101 101
Error de ganancia
100
011
010
001 000
0
FS
Error Offset
0
1 4
(b) 111
1 2
3 4
FS
3 4
FS
(c)
No-linealidad Códigos perdidos
101 101
100
011
010
001 000
0
1 4
1 2
3 4
FS
0
(d)
1 4
1 2
(e)
Fig. 1. 5. Características de los Conversores A/D ideales y prácticos
1
LSB, Bit Menos Significativo o sus siglas en Inglés Least Signnificant Bit
6
UPS
Capítulo I Existen muchos esquemas de codificación binaria con varias ventajas y
desventajas, como por ejemplo los que se presentan en la siguiente tabla, para la codificación binaria de 3-bits:
Tabla 1. 1. Códigos Bipolares comúnmente utilizados
Fracción Decimal Número Referencia Referencia
Signo +
Complemento Desplazamiento Complemento
Positiva
Negativa
Magnitud
a dos
Binario
a uno
+7
+7/8
-7/8
0111
0111
1111
0111
+6
+6/8
-6/8
0110
0110
1110
0110
+5
+5/8
-5/8
0101
0101
1101
0101
+4
+4/8
-4/8
0100
0100
1100
0100
+3
+3/8
-3/8
0011
0011
1011
0011
+2
+2/8
-2/8
0010
0010
1010
0010
+1
+1/8
-1/8
0001
0001
1001
0001
0
0+
0-
0000
0000
1000
0000
0
0-
0+
1000
(0000)
(1000)
1111
-1
-1/8
+1/8
1001
1111
0111
1110
-2
-2/8
+2/8
1010
1110
0110
1101
-3
-3/8
+3/8
1011
1101
0101
1100
-4
-4/8
+4/8
1100
1100
0100
1011
-5
-5/8
+5/8
1101
1011
0011
1010
-6
-6/8
+6/8
1110
1010
0010
1001
-7
-7/8
+7/8
111
1001
0001
1000
-8
-8/8
+8/8
(1000)
(0000)
1.1.3. CONVERSORES A/D CON SOBREMUESTREO Este tipo de conversores incrementa la tasa de muestreo hasta que sea posible la utilización de un cuantificador de baja resolución, el sobremuestreo reduce el rango dinámico de los valores de la señal entre muestras sucesivas; la varianza del error de cuantificación en la conversión A/D es e2 /12 , donde R / 2b1 , esto se logra reduciendo en la varianza la señal y así el número de bits del cuantificador,
7
UPS
Capítulo I
es decir, una cuantificación diferencial, donde la varianza de la diferencia entre dos muestras sucesivas de la señal: d (n) x(n) x(n 1)
(1.1.6)
Y la varianza de d (n) :
d2 E d 2 (n) E x(n) x(n 1)
2
d2 E x 2 (n) 2 E x(n) x(n 1) E x(n 1) 2
(1.1.7)
d2 2 x2 1 xx (1)
Si xx (1) 0.5 d2 x2 se debe cuantificar la diferencia d (n) y recuperar x(n) , a partir de los valores cuantificados de la secuencia d q (n) , la autocorrelación
entre muestras sucesivas de la señal a frecuencias de muestreo superiores a la tasa de Nyquist; esto se logra por medio de un constante a x(n 1) , o sea ax(n 1) denominado predictor de primer orden de x(n) , valor que puede ser optimizado:
a
xx (1) xx (1) xx (0) x2
d2 x2 1 a 2
y
(1.1.8)
Estos predictores se los utiliza en la codificación de voz y transmisiones sobre canales telefónicos y son llamados Modulación Diferencial de Código de Pulsos DPCM, que produce una estimación xˆ (n) a partir de muestras pasadas de x(n) , reduciendo el rango dinámico a d (n) x(n) xˆ (n) .
d ( n)
xˆ (n)
Q
PR
d q ( n) xq (n)
Codificador
x ( n)
xq (n)
PR
Decodificador
Fig. 1. 6. Codificador y Decodificador para un sistema cuantificador de señal diferencial predictivo.
8
UPS
Capítulo I Se puede evitar la acumulación de errores de cuantificación en el
decodificador mediante el uso de un lazo de realimentación alrededor del codificador e(n) d (n) dq (n) x(n) xˆ(n) d q (n) x(n) xq (n) ,
el
error
en
la
señal
cuantificada reconstruida xq (n) es igual al error de cuantificación para la muestra d ( n) .
1
d ( n)
d q ( n) 1
xˆ (n)
a
x ( n)
xq (n)
xˆ (n) xq (n)
Z 1
a
Z 1
Decodificador
Codificador Fig. 1. 7. Sistema de Modulación delta
Una forma más simple de realizar la cuantificación diferencial predictiva es mediante la Modulación Delta DM, que consiste en un cuantificador de 1-bit, de dos niveles y un predictor de primer orden; este sistema produce una aproximación en escalera a la señal de entrada, en donde en cada instante se determina el signo de la diferencia entre la muestra de entrada x(n) y su aproximación más reciente en escalera xˆ (n) axq (n 1) , esta señal se actualiza luego mediante un paso en la dirección de la diferencia. xq (n) axq (n 1) dq (n)
(1.1.9)
T T
x(t )
d (t )
1
1
Reloj
1
1
xˆ (t )
FPB
xˆ (t )
Integrador
Fig. 1. 8. Principio básico para la implementación práctica de un sistema DM
9
UPS
Capítulo I Este sistema necesita un filtro paso bajo analógico para rechazar las
componentes de fuera de la banda de frecuencias entre B y Fs / 2 , ya que Fs B debido al sobremuestreo.
Distorsión por Sobrecarga de pendiente x ( n)
Ruido Granular
x(n 1) T a m a ñ o d e l e s c a ló n
xa (t )
xˆ (n)
T
1 Fs Fig. 1. 9. Tipos de errores de cuantificación en DM
En la Figura 1.9. se muestran dos tipos de cuantificación en DM, distorsión de sobrecarga de pendiente y ruido granular; el primero se puede evitar sí
d x (t ) / dt / T Reloj x(t )
1
1
FPB analógico
Codificador
Decodificador
Fig. 1. 10. Sistema de modulación sigma delta
Mientras que el segundo ocurre cuando se sigue una señal de entrada con cambios lentos (plana), al aumentar disminuye la distorsión de sobrecarga pero aumenta el ruido granular, por lo que lo más conveniente es utilizar un sistema de modulación sigma-delta SDM colocando un integrador delante del DM, dándonos como efectos el incremento de la correlación de la señal entrante, enfatiza las bajas
10
UPS
Capítulo I
frecuencias x(t ) y simplifica el esquema ya que el diferenciador se cancela con el integrador; además de todo esto aprovecha la tasa de muestreo y distribuye el error de cuantificación a lo largo de la banda hasta Fs B , el ruido en la banda libre
B F Fs / 2 de la señal se elimina mediante un filtro digital.
Reloj x(t )
1 FPB analógico
1
Decodificador
Codificador (a) H ( z)
x ( n)
e( n )
d ( n)
z 1
d q ( n)
(b) Fig. 1. 11. (a) SDM simplificado; (b) SDM discreto
El ruido tiene una función de transferencia:
H n ( F ) 2 sen
F Fs
(1.1.10)
La potencia del ruido se reduce aumentando la tasa de muestreo, además de un doble integrador, manteniendo B fijo; todo esto produce la distribución de la potencia del ruido de cuantificación sobre una banda de frecuencias mayor
( Fs / 2, Fs / 2) , y luego dando forma a la densidad espectral de potencia del ruido mediante un filtro.
11
UPS
Capítulo I Para convertir una señal cuantificada con b bits a la tasa de Nyquist, pasamos
la señal a través de un filtro paso bajo analógico con una frecuencia de corte B para rechazar el ruido fuera de la banda de ( B, Fs / 2) , el resultado es una aproximación de la señal de entrada, y por último se la remuestrea a una tasa menor. Sr ( F )
e2 / Fs
Hn (F )
B
Fs 2
F
Fs 2
B
Fig. 1. 12. Magnitud de la respuesta en frecuencia de la función de transferencia del ruido
Los conversores A/D con sobremuestreo, se fabrican usualmente como circuitos integrados que operan a una fase de muestreo 2MHz, se submuestrean a 8kHZ y proporcionan una precisión de 16 bits.
Sección analógica
x(t )
Filtro Anti-aliasing
SDM
Sección digital 1 bit d q ( n) Fs
FPB digital
b 1 FN
xq (n)
Conversor SDM-PCM Sección digital
b bits FN
FPB Digital
b bits FS
Sección analógica
Datos SDM 1 bit Muestreados Digital Fs FPB
Conversor PCM-SDM
Filtro de Suavizado
Filtros anti-aliasing
Fig. 1. 13. Elementos básicos de un conversor A/D con sobremuestreo
1.1.4. RUIDO DE CUANTIFICACIÓN Los efectos de la cuantificación son evaluados mediante aproximaciones estadísticas, donde suponemos que el error de cuantificación tiene naturaleza aleatoria, esto se hace añadiendo ruido a la señal original; si la señal original
12
UPS
Capítulo I
analógica se encuentra dentro del rango del cuantificador eq (n) , el error está limitado en magnitud eq (n) / 2 y el error resultante se llama error granular. En cambio cuando la entrada se encuentra fuera del rango del cuantificador (recorte), eq (n) es limitado y se lo llama ruido de sobrecarga que produce severas distorsiones
en la señal, la solución es escalar la entrada hasta que esta se encuentre dentro del rango del cuantificador.
Debemos suponer las propiedades estadísticas que se muestran a continuación de eq (n) si el tamaño del escalón de cuantificación es pequeño y la secuencia x(n) de atraviesa varios niveles de cuantificación entre dos muestras sucesivas:
1. El
error
eq (n)
se
distribuye
uniformemente
sobre
el
rango
/ 2 eq (n) / 2 .
2. La secuencia de error eq (n) es una secuencia estacionaria de ruido blanco, el error eq (n) y el error eq (m) para m n no están correlacionadas entre si. 3. La secuencia de error eq (n) no está correlacionada con la secuencia x(n) . 4. La secuencia x(n) tiene media cero y es estacionaria.
Cuantificador
x ( n)
Q x ( n)
xq (n)
x ( n)
xq (n) x(n) eq (n)
eq (n) (a)
(b)
Fig. 1. 14. Modelo Matemático del Ruido de Cuantificación. (a) Sistema Real; (b) Modelo Matemático
Donde la potencia de la señal es Px x2 E x 2 (n) y la potencia del ruido de cuantificación Pn e2 E eq2 (n) .
13
UPS
Capítulo I El error de cuantificación se distribuye uniformemente en el rango, el valor
medio del error es cero y la varianza o potencia del ruido de cuantificación, está dada por:
Pn
/2
/ 2
e2 p(e)de
1 /2 2 e de / 2 2
(1.1.11)
La relación señal a ruido de la señal depende del rango del Conversor A/D y de los datos estadísticos de la señal de entrada, en decibelios, es:
SQNR 10log10
Px R 10log10 x 6.02b 16.81 20log dB Pn n x
(1.1.12)
En la práctica el funcionamiento de los circuitos conversores A/D, tienen un funcionamiento inferior a los valores teóricos, lo que provoca que el número efectivo de bits de alguna manera sea menor que el número de bits en el conversor A/D.
1.2. ESTRUCTURAS PARA LA REALIZACIÓN DE SISTEMAS EN TIEMPO DISCRETO Un Sistema Lineal e Invariante en el tiempo puede ser descrito, por la siguiente ecuación diferencial lineal con coeficientes constantes:
N
M
k 1
k 1
y (n) ak y (n k ) bk x(n k )
(1.2.1)
Cuya Transformada nos da a conocer la Función de Transferencia racional: M
H ( z)
b z k 1 N
k
k
1 ak z
(1.2.2) k
k 1
La función de transferencia es muy importante ya que nos da información sobre los polos y ceros que determinan la respuesta en frecuencia del sistema, estos
14
UPS
Capítulo I
datos dependen de los parámetros bk y ak , necesarios para la implementación del sistema ya sea en software o hardware, que nos permiten determinar la secuencia y (n) de salida a partir de la secuencia x(n) de entrada.
Se puede organizar la ecuación deferencial de varias maneras, cada una de las cuales representa una estructura diferente para su realización, que se la desarrolla a través un diagrama de bloque constituido por una interconexión de elementos de retardo, multiplicadores y sumadores. Cada una de estas representaciones implica también un grado de complejidad distinta, así como distintos requerimientos computaciones para su implementación en un ordenador digital.
Para escoger una estructura para la realización de un sistema debemos tomar en cuenta la complejidad computacional, por tanto, es necesario tomar en analizar el número de operaciones matemáticas que se van a efectuar, tales como, multiplicaciones, divisiones y sumas; número de accesos a memoria o número de veces que se realiza una comparación entre dos números para cada muestra de salida; número de posiciones necesarias de memoria que utilizan para almacenar los parámetros del sistema, entradas y salidas anteriores, así como cualquier otro valor intermedio necesario para determinar la salida y(n) del sistema.
Otro aspecto importante a tomar en cuenta son los efectos de las palabras de longitud finita, ya que todas las operaciones que se realizan en su implementación son de precisión finita, y utilizan aritmética de punto fijo o punto flotante, por lo que necesariamente se debe realizar redondeo o truncamiento a ciertos valores.
1.3. ERRORES RESULTANTES DEL REDONDEO Y TRUNCAMIENTO El procesamiento digital de una señal involucra diversas operaciones aritméticas de punto fijo o de punto flotante, en donde los números x se encuentran representados por bits, por lo que es necesario introducir un error cuyo valor dependa del número de bits del número original bu respecto al número de bits después de la cuantificación b , este error puede ser de cuantificación o por truncamiento, donde
15
UPS
Capítulo I
b bu , el error de truncamiento es tomar solamente un cierto número de bits que representan al número y se lo puede definir como:
Et Qt ( x) x
(1.3.1)
El truncamiento de números positivos da como resultado un número más pequeño que el número no cuantificado, reduciendo el número de bits significativos desde bu hasta b , y el error más grande se evidencia si descartamos bu b bits, todos los cuales son unos. En cambio cuando se trata de números negativos en punto fijo, al realizar una reducción de la magnitud de los números, esta se la hace sin tomar en cuenta el signo, el efecto de realizar un truncamiento a un número negativo es incrementar la magnitud del número negativo.
El error de truncamiento para la representación de un número tanto en magnitud, como en signo es simétrica respecto a cero y se encuentra en el rango de:
2b 2bu Et 2b 2bu
El
error
de
redondeo
afecta
solo
a
la
magnitud
(1.3.2)
del
número,
independientemente del tipo de representación en punto fijo, su valor máximo puede ser positivo o negativo dependiendo del valor x , este se puede introducir a través de
2
b
2bu / 2 , y está dado por:
Er Qr ( x) x
(1.3.3)
Este error es simétrico con respecto a cero y se encuentra en el rango de se puede introducir a través de 2b 2bu / 2 , y está dado por:
1 b 1 2 2bu Er 2b 2bu 2 2
(1.3.4)
Cabe mencionar que el redondeo o truncamiento se los realiza a la mantisa del número, como la resolución no es uniforme el error de la representación en punto
16
UPS
Capítulo I
flotante es proporcional al número que se cuantifica. En la Figura 1.14. se ilustra las relaciones descritas anteriormente.
Qr ( x)
Qr ( x)
2 b
2 b
x
2 b 2
x
2 b
Et Qt ( x) x
Er Qr ( x) x
2b Et 2b
1 1 2b Er 2b 2 2
(b)
(a)
Fig. 1. 15. Errores de Cuantificación (a) por Redondeo, (b) por Truncamiento
Usualmente se adopta una metodología estadística para compensar los errores de truncamiento y redondeo, por lo que se introduce ruido aditivo al valor sin cuantificar x Q( x) x
(1.3.5)
Donde puede ser por redondeo Er o por truncamiento Et , tal como se ve en la Figura 1.16.:
x x
Cuantificador Q( x)
x
x
(a)
(b)
Fig. 1. 16. Adición de Ruido Aditivo al Proceso de Cuantificación no lineal: (a) Sistema Real, (b) Modelo para Cuantificación.
17
UPS
Capítulo I
x puede caer en cualquiera de los niveles del cuantificador, por lo que el error de cuantificación se modela como una variable aleatoria distribuida uniformemente dentro de los rangos especificados por la representación en punto fijo; generalmente en la práctica bu b ,por lo que es posible presidir del factor 2bu .
18
UPS
Capítulo II
CAPÍTULO II IMPLEMENTACIÓN DE SISTEMAS EN TIEMPO DISCRETO
19
UPS
Capítulo II
CAPÍTULO II IMPLEMENTACIÓN DE SISTEMAS EN TIEMPO DISCRETO Son muchas las herramientas matemáticas y conceptos importantes que se utilizaran en el diseño de filtros digitales; en este capítulo se los presenta de una manera concreta, además se encuentran descritas las principales estructuras y realizaciones de los Sistemas en Tiempo Discreto así como sus características y expresiones matemáticas que rigen sus comportamientos en el tiempo y frecuencia.
2.1.
HERRAMIENTAS MATEMÁTICAS
2.1.1. TRANSFORMADA Z Las propiedades que brinda la transformada de Fourier constituyen una herramienta básica para el análisis de Señales y Sistemas Invariantes en el tiempo. Es así que la transformada z es usada para señales y sistemas discretos LTI como lo representa con el mismo papel la transformada de LaPlace en el análisis de señales y sistemas continuos LTI. Con la transformada z se tiene una manera de caracterizar los sistemas LTI y sus respuestas para la variedad de señales que se puede tener localizando sus polos y ceros.
La Transformada Z Directa. La transformada z de una señal discreta representada por x(n) se indica de la siguiente: z x(n) X ( z)
(2.1.1)
Sin embargo por facilidad la transformada Z de una señal x(n) se encuentra denotada por:
X ( z) Z x(n)
(2.1.2)
Es así que la transformada z directa se encuentra representada como se ve a continuación, debido a que transforma una señal en dominio del tiempo en la señal compleja X (z ) .
X ( z)
x ( n) z
n
n
(2.1.3)
20
UPS
Capítulo II Finalmente, a la transformada z se le conoce como la transformada z bilateral
para así poder distinguirla de la transformada z unilateral, la misma que se encuentra representada por:
X ( z ) x ( n) z n n 0
(2.1.4)
A pesar de esto, el término bilateral será usado si x(n) es causal (es decir si x(n)=0 para n 0, 𝑦 𝑧 = ∞, 𝑠𝑖 𝑘 < 0. Se da que: 𝑆𝑖
𝑧
𝑥 𝑛
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠
𝑥(𝑛 − 𝑘)
𝑋 𝑧 𝑧
𝑧 −𝑘 𝑋(𝑧)
(2.1.7)
Escalado en el dominio z 𝑆𝑖
𝑧
𝑥 𝑛
𝑋 𝑧
𝑧
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑎𝑛 𝑥(𝑛)
𝑅𝑂𝐶: 𝑟1
0)
(2.1.59)
Puede ser que la ocurrencia de B no tenga impacto en la de A, lo que se da a ver que la ocurrencia de A es independiente de la de B y por lo tanto P(A/B)=P(A).
Reglas Multiplicativas. Si en un espacio muestral en el cuál puede ocurrir los eventos A y B, se tiene que: 𝑃 𝐴 ∩ 𝐵 = 𝑃(𝐴)𝑃 𝐴/𝐵
(2.1.60)
34
UPS
Capítulo II De igual manera, estos 2 eventos son independientes sí P( A B) P( A) * P( B) .
Ahora bien, en un experimento pueden darse varios eventos, por lo que se tendrá lo siguiente: 𝐶 𝐴∩𝐵
𝑃 𝐴∩𝐵∩𝐶 =𝑃
.𝑃 𝐴 ∩ 𝐵
(2.1.61)
𝑜 𝑃 𝐴∩𝐵∩𝐶 =𝑃
.
𝐶 𝐴∩𝐵
.𝑃
𝐷 𝐴∩𝐵∩𝐶
𝑃 𝐴∩𝐵∩𝐶∩𝐷 =𝑃
𝐵 𝐴
. 𝑃(𝐴)
(2.1.62)
.𝑃 𝐴 ∩ 𝐵 ∩ 𝐶
(2.1.63)
(2.1.64)
𝑜 𝐷 𝐴∩𝐵∩𝐶
.𝑃
𝐶 𝐴∩𝐵
𝑃 𝐴1 ∩ 𝐴2 ∩ … .∩ 𝐴𝑘 = 𝑃 𝐴1 . 𝑃
𝐴2 𝐴1
……𝑃
𝑃 𝐴∩𝐵∩𝐶 =𝑃
.𝑃
𝐵 𝐴
. 𝑃(𝐴)
En general, se tendría que: 𝐴𝑘 𝐴1 ∩𝐴2 ∩….∩𝐴𝑘−1
(2.1.65)
2.1.8.2. VALORES ESPERADOS Variables Aleatorias. Los valores esperados son aquellas variables que representan o asocian un número real con cada elemento del espacio muestral. X=Variable Aleatoria. x=Correspondencia de la Variable Aleatoria.
Variables Aleatorias Discretas.- Son aquellas que representan datos contados, como el
número de artículos defectuosos, o el número de
accidentes de carretera en un año.
Variables Aleatorias Continuas.- Representan datos medidos, como peso, altura, temperatura, distancia o períodos de vida.
Distribución de probabilidad.- Se puede hablar de una distribución de probabilidad cuando el conjunto de pares ordenados (x,f(x)) es una función de probabilidad o distribución de probabilidad, donde y solo si: 1. 𝑓 𝑥 ≥ 0 2.
𝑓 𝑥 =1
3. 𝑃 𝑋 = 𝑥 = 𝑓(𝑥)
35
UPS
Capítulo II En cambio la función acumulada “F(x)” de una variable aleatoria discreta “x”,
viene dada por: 𝐹 𝑥 =𝑃 𝑋≤𝑥 =
𝑡=𝑥
𝑝𝑎𝑟𝑎 − ∞ < 𝑥 < ∞
𝑓 𝑡
(2.1.66)
Concepto de Valor Esperado.- Comúnmente se le conoce a 𝜇𝑥 como la media de la variable aleatoria X, o simplemente 𝜇 cuando se sabe a qué variable aleatoria se está refiriendo durante el proceso. A esto se lo llama el “valor esperado” de la variable X y se denota por E(x). Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor esperado viene dado por: En Discreta:
𝜇=𝐸 𝑥 =
𝑥
𝑥. 𝑓(𝑥)
(2.1.67)
Sin embargo, si ahora se considera una variable aleatoria g(x), se tiene que: Sea “x” con una “f(x)”, la media o valor esperado de “g(x)” sería: En Discreta:
𝜇𝑔 𝑥 = 𝐸 𝑔 𝑥
=
𝑥
𝑔 𝑥 . 𝑓(𝑥)
(2.1.68)
Probabilidad Conjunta.- Sea “x” y “y” variables aleatorias con distribución de probabilidad conjunta f(x,y). La media o valor esperado de g(x,y) es: En Discreta:
𝜇𝑔 𝑥, 𝑦 = 𝐸 𝑔 𝑥, 𝑦
=
𝑥
𝑦
𝑔 𝑥, 𝑦 . 𝑓(𝑥, 𝑦)
(2.1.69)
Distribución marginal.- Básicamente para el caso discreto, la distribución marginal está dada por: Para x: 𝑔(𝑥) =
𝑦 𝑦=1 𝑓
𝑥, 𝑦
𝑆𝑜𝑛 𝑙𝑎 𝑠𝑢𝑚𝑎𝑡𝑜𝑟𝑖𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑑𝑎 𝑐𝑜𝑙𝑢𝑚𝑛𝑎
(2.1.70)
𝑆𝑜𝑛 𝑙𝑎 𝑠𝑢𝑚𝑎𝑡𝑜𝑟𝑖𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑑𝑎 𝑓𝑖𝑙𝑎
(2.1.71)
Para y: (𝑦) =
𝑥 𝑥=1 𝑓
𝑥, 𝑦
Al tener en cuenta esto, las ecuaciones podrán expresarse como se muestra a continuación: Si g(x,y)=x 𝐸 𝑥 = 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑜
𝑥
𝑦
𝑥. 𝑓(𝑥, 𝑦) =
𝑥
𝑥. 𝑔(𝑥)
(2.1.72)
𝑦. (𝑦)
(2.1.73)
Si g(x,y)=y 𝐸 𝑥 = 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑜
𝑥
𝑦
𝑦. 𝑓(𝑥, 𝑦) =
𝑦
36
UPS
Capítulo II
2.1.8.3. PROCESOS ALEATORIOS Antes de enfocarse en procesos aleatorios, es de vital importancia conocer variables como la varianza y la covarianza.
Varianza: 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒 𝑥 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑎 𝜎 2 = 𝐸 𝑥 − 𝜇
2
=
𝑥
𝑥−𝜇
2 . 𝑓(𝑥)
(2.1.74)
Se debe recalcar que la raíz cuadrada positiva de 𝜎 se llama desviación estándar de X.
Covarianza: 𝐸𝑛 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑎 𝜎𝑥𝑦 = 𝐸 𝑥 − 𝜇𝑥 𝑦 − 𝜇𝑦
=
𝑥
𝑦
𝑥 − 𝜇𝑥 𝑦 − 𝜇𝑦 . 𝑓(𝑥, 𝑦)
(2.1.75)
De igual forma, se debe indicar que el signo de la covarianza muestra si la relación entre dos variables aleatorias dependientes es positiva o negativa. Una vez que se a adoptado los conocimientos básicos, se puede decir que los procesos aleatorios se basan, o no es más que distribuciones de probabilidades, las mismas que por las cuáles serán enfocadas principalmente en procesos discretos. Existen diversos métodos como se verán en el siguiente punto enfocado en el de los análisis estocásticos, pero que incluyen todo lo que se ha nombrado anteriormente, es decir, básicamente se inicia con la resolución del problema hallando las variables como la media y la varianza, y según como sea el método aplicado, se las aplicara de diferente forma.
2.1.8.4. PROCESOS ESTOCÁSTICOS Definición.- Un proceso estocástico no es más que la representación y sucesión de variables aleatorias correlacionadas con otra variable (discreta o continua). Como se vió anteriormente, cada variable aleatoria tiene su propia función de probabilidad. A este conjunto de variables (o variable) influenciadas por impactos aleatorios es como se le conoce comúnmente a los procesos estocásticos. Un proceso estocástico maneja las variables y valores que fueron nombrados en puntos anteriores, y no es más que el conjunto de eso para resolver ciertos problemas que se presentarán, a diferencia de que también existen varios métodos
37
UPS
Capítulo II
para resolverlos como los nombrará a continuación. Los procesos más usados y aplicados para la resolución de problemas en los medios de las ingenierías, son:
Discretas: -Distribución Binomial o Bernouli. -Distribución Binomial Negativa. -Distribución hipergeométrica. -Distribución o Procesos de Poisson. -Distribución de Poisson y Binomial.
2.2. ESTRUCTURAS PARA SISTEMAS FIR FINITE IMPULSE RESPONSE o FIR son sistemas digitales en los cuales, como su nombre lo indica, si la entrada es una señal impulso, la salida tendrá un número finito de términos no nulos; tienen la gran ventaja que además de ser siempre estables, se pueden diseñar para ser de fase lineal, lo cual hace que presenten ciertas propiedades en la simetría de los coeficientes. Tiene especial interés en aplicaciones de audio. Por el contrario también tienen la desventaja de necesitar un orden mayor respecto a los filtros IIR para cumplir las mismas características. Esto se traduce en un mayor gasto computacional. Se describen mediante la ecuación: M 1
y (n) bk x(n k )
(2.2.1)
k 0
Y su función de transferencia es: M 1
H ( z ) bk z k
(2.2.2)
k 0
Su respuesta al impulso es idéntica a los coeficientes: b , h( n) n 0,
0 n M 1 en otro caso
(2.2.3)
Donde M representa la longitud del filtro. Cabe destacar que en la práctica las implementaciones físicas de la Transformada Discreta de Fourier DTF, que no es más que un procedimiento computacional están basadas en la utilización de algoritmos de la Transformada Rápida de Fourier FFT
38
UPS
Capítulo II
2.2.1. ESTRUCTURA EN FORMA DIRECTA Para la realización de un sistema FIR mediante una estructura en forma directa se deriva directamente de su ecuación (2.2.1) o su equivalente por la convolución, a continuación se puede observar su estructura:
x ( n)
z 1
z 1
h(0)
z 1
h( M 1)
h( M 2)
h(3)
h(2)
h(1)
z 1
y ( n)
Fig. 2. 3. Sistema FIR en una realización directa
Este sistema requiere M–1 espacios de memoria para almacenar igual número de entradas anteriores, además tiene M multiplicaciones y M–1 sumas; la salida es la combinación lineal ponderada de los M–1 valores anteriores y la entrada actual.
La realización en forma directa tiene mucha semejanza a una línea de retardos. Si un sistema FIR es de fase lineal su respuesta al impulso satisface las condiciones de simetría h(n) h(M 1 n) , lo cual reduce la complejidad del sistema por ejemplo el número de multiplicaciones se reduce de M a M/2 para M par y a (M–1)/2 para M impar.
x ( n)
z 1
Entrada
z 1
z 1
h(0)
y ( n) Salida
z 1
z 1
z 1
z 1
h(1)
z 1
z 1 M 1 h 2
M 3 h 2
h(2)
z 1
Fig. 2. 4. Sistema FIR de fase lineal (M impar) en una realización directa
39
UPS
Capítulo II
2.2.2. ESTRUCTURA EN FORMA DE CASCADA Esta realización se deriva de la función de transferencia 2.2.2 de un sistema FIR, factorizando en sistemas de segundo orden: K
H ( z ) H k ( z )
(2.2.4)
k 1
Donde:
H k ( z) bk 0 bk1 z 1 bk 2 z 2
k 1, 2,..., K
(2.2.5)
Donde K es la parte entera de (M–1)/2 y b0 b10b20 b K0 es el parámetro del filtro es que puede ser distribuido o no en las secciones K del filtro. Los ceros de H(z) se agrupan en pares para formar sistemas de segundo orden. x(n) x1 (n)
H 1 ( z ) y1 (n) x2 (n) H 2 ( z )
xK ( n )
y2 (n) x3 (n)
z 1
y
K 1
( n ) xK ( n )
H K ( z)
y K ( n) y ( n)
z 1
bK 1
bK 0
bK 2
yK (n) xK 1 (n)
Fig. 2. 5. Sistema FIR en una realización en cascada
En los filtros FIR de fase lineal, la simetría en h(n) se expande también a los ceros de H(z).
Usualmente se forman sistemas con secciones de cuarto orden combinando pares de polos complejos, obteniendo así simplificaciones del sistema más o menos en un 50%:
H k ( z ) ck 0 1 zk z 1 1 zk* z 1 1 z 1 / zk 1 z 1 / zk* H k ( z ) ck 0 ck1 z 1 ck 2 z 2 ck 3 z 3 ck 4 z 4
(2.2.6)
Donde ck1 y ck 2 se encuentran en función de zk .
40
UPS
Capítulo II
xK ( n )
z 1
z 1
z 1
ck 0
ck1
z 1
ck 2
y K ( n)
Fig. 2. 6. Sistema FIR de cuarto orden en una realización en cascada
2.2.3. ESTRUCTURA DE MUESTREO EN FRECUENCIA Es una estructura alternativa para la realización de Filtros FIR, cuyos parámetros en lugar de ser una respuesta al impulso h(n) son valores de respuesta de frecuencia. Su función de transferencia es un conjunto de muestras en frecuencia
H (k ) : M 1 1 M 1 H ( z ) H (k ) (e j 2 ( k ) / M z 1 ) n k 0 M k 0 M j 2 M 1 1 z e H (k ) H ( z) j 2 ( k ) / M z 1 M k 0 1 e
(2.2.7)
Esta última ecuación da a entender que esta realización se la puede considerar como una cascada de dos filtros H ( z ) H1 ( z ) H 2 ( z) , uno todo ceros con función de transferencia: H1 ( z )
1 1 z M e j 2 M
(2.2.8)
Cuyos ceros se encuentran en puntos equi-espaciados de la circunferencia unidad en zk e j 2 ( k ) / M
k 0,1,..., M 1. Mientras que el segundo es un banco de
filtros resonantes en paralelo, de un solo polo, con frecuencia de resonancia
pk e j 2 ( k ) / M
k 0,1,..., M 1 y función de transferencia: H (k ) j 2 ( k ) / M z 1 k 0 1 e
M 1
H 2 ( z)
(2.2.9)
41
UPS
Capítulo II Los polos tienen la misma localización de sus ceros en k 2 (k ) / M ,
puntos en donde la respuesta de frecuencia está especificada y su ganancia son los parámetros complejos
H (k ) ,
pero si la característica de la respuesta de
frecuencia deseada es de banda estrecha la mayoría de estos parámetros se hacen cero. Mediante
la
H (k ) H * ( M k )
simetría
para
0
y
1 1 1 H k H * M k para , la estructura se simplifica aún más; 2 2 2 pudiendo formar un filtro de dos polos con un par de filtros, la función de transferencia H 2 ( z ) para 0 se reduce a: H 2 ( z) H 2 ( z)
H (0) ( M 1) / 2 A(k ) B(k ) z 1 1 1 z 1 z 2 k 1 1 2 cos 2 k / M z H (0) H ( M / 2) 1 z 1 1 z 1
( M 1) / 2
k 1
A(k ) B(k ) z 1 2 cos 2 k / M z 1 z 2
e j 2 / M
e j 2 (1 ) / M
z 1 H (1 )
zM
H (2 )
0 ó
1 2
z 1
e j 2
e j 2 (2 ) / M
z 1
M par
H ( )
x ( n)
(2.2.10) 1
1 M
M impar
H (M 1 )
e j 2 ( M 1 ) / M
y ( n)
z 1
Fig. 2. 7. Sistema FIR en una realización de muestreo de frecuencia
Y: A(k ) H (k ) H ( M k ) B(k ) H (k )e j 2 k / M H ( M k )e j 2 k / M
(2.2.11)
42
UPS
Capítulo II
2.2.4. ESTRUCTURA EN CELOSÍA Esta estructura es ampliamente utilizada tanto en el procesamiento digital de voz como en la implementación de filtros adaptativos, tiene la siguiente estructura:
x ( n)
g 0 ( n)
Primera Etapa
g1 (n)
f 2 ( n) Segunda Etapa
f M 1 (n) y (n)
f M 2 ( n) ( M 1)esima
g 2 ( n)
f m 1 (n)
f1 (n)
f 0 ( n)
g M 2 (n) Etapa g M 1 (n)
f m ( n)
g m ( n)
Km Km
g m1 (n)
z 1
Fig. 2. 8. Filtro en celosía de (M-1) etapas
Existe una estrecha equivalencia entre un Filtro FIR de orden (M – 1) en forma directa con y un filtro en celosía de (M – 1) etapas, es decir y(n) f M 1 (n) . Una estructura en celosía puede ser descrita por las siguientes ecuaciones:
f0 (n) g0 (n) x(n)
(2.2.12)
f m (n) f m1 (n) Km gm1 (n 1)
m 1, 2,..., M 1
(2.2.13)
gm (n) Km f m1 (n) gm1 (n 1)
m 1, 2,..., M 1
(2.2.14)
La salida de f m (n) un filtro en celosía de m etapas es: m
f m ( n) m ( k ) x ( n k ) k 0
m (0) 1
(2.2.15)
Y relación en el dominio de la Transformada : Fm ( z ) Am ( z ) X ( z ) Am ( z )
Fm ( z ) Fm ( z ) X ( z ) F0 ( z )
(2.2.16)
Se puede expresar también la salida g m (n) de un filtro en celosía de m etapas mediante la convolución discreta: m
g m ( n) m ( k ) x ( n k )
(2.2.17)
k 0
43
UPS
Capítulo II
m (k ) produce
son coeficientes del filtro que están asociados con un filtro que
f m (n) y(n)
pero
que
funciona
en
un
orden
inverso,
m (k ) m (m k ) k 0,1,..., m , con m (m) 1 . En la predicción hacia atrás los datos se encuentran colocados en orden inverso,
así
para
predecir
un
x(n m)
valor
se
usan
los
datos
x(n), x(n 1)...x(n m 1) en un filtro lineal con coeficientes m (k ) : m 1
x(n m) m (k ) x(n k )
(2.2.18)
k 0
Un predictor hacia adelante se la realiza a través de un filtro FIR con función de transferencia Am ( z ) , y en el dominio de la de la Transformada :
Gm ( z ) Bm ( z ) X ( z ) Bm ( z )
Gm ( z ) X ( z)
(2.2.19)
Su función de transferencia con coeficientes m (k ) es: m
Bm ( z ) m (k ) z k k 0 m
m
k 0
l 0
Bm ( z ) m (m k ) z k m (l ) z l m
(2.2.20)
Bm ( z ) z m m (l ) z l z m Am z l m
l 0
Un filtro FIR con función de transferencia Bm ( z ) tiene sus ceros a manera de un polinomio recíproco o inverso a Am ( z ) . Las ecuaciones de un filtro en celosía en el dominio de la transformada son:
A0 ( z ) B0 ( z ) 1
(2.2.21)
Am ( z) Am1 ( z) Km Bm1 ( z)
m 1, 2,..., M 1
(2.2.22)
Bm ( z) Km Am1 ( z) Bm1 ( z)
m 1, 2,..., M 1
(2.2.23)
Y su ecuación matricial es:
Am ( z ) 1 B ( z) K m m
K m Am1 ( z ) 1 z 1Bm1 ( z )
(2.2.24)
44
UPS
Capítulo II
Conversión de los Coeficientes de una Estructura en Celosía a Coeficientes de un Filtro en Forma Directa Para obtener los coeficientes m (k ) de un filtro FIR en forma directa a partir de los coeficientes en celosía Ki aplicamos las siguientes ecuaciones:
A0 ( z ) B0 ( z ) 1
(2.2.25)
Am ( z) Am1 ( z) Km z 1Bm1 ( z ) Bm ( z ) z m Am1 z 1
m 1, 2,..., M 1
m 1, 2,..., M 1
(2.2.26) (2.2.27)
La solución es una secuencia de (M – 1) filtros FIR, uno para cada valor de m logrados recursivamente comenzando con m=1.
Una colección de m filtros FIR en forma directa requieren m(m+1)/2 coeficientes del filtro, mientras que en celosía se requiere solo m coeficientes de reflexión Ki , lo que representa una estructura más compacta y a esto se suma que la adición de etapas a la celosía no altera los parámetros de las etapas anteriores.
Conversión de los Coeficientes de un Filtro FIR en Forma Directa a los Coeficientes de la Celosía Los coeficientes Ki de una estructura en celosía a partir de los coeficientes
m (k ) de un filtro FIR en forma directa se relacionan de la siguiente manera: Am1 ( z )
Am ( z ) K m Am ( z ) 1 K m2
m M 1, M 2,...,1
(2.2.28)
Esto siempre que K m 1 para m 1, 2,..., M 1 , se empieza por AM 1 ( z ) calculando los polinomios de orden inferior Am ( z ) , y el proceso iterativo continúa para el sistema de orden reducido para así obtener los coeficientes deseados de la celosía a partir de la relación Km m (m) .
45
UPS
Capítulo II Se puede calcular K m recursivamente para m M 1, M 2,...,1 :
Km m (m)
m1 (k )
m (k ) K m m (k ) 1 K
2 m
m1 (m) 1
m (k ) m (m) m (m k ) 1 m2 (m)
(2.2.29)
1 k m 1
(2.2.30)
2.3. ESTRUCTURAS PARA SISTEMAS IIR INFINITE IMPULSE RESPONSE ó IIR, es otro de los tipos de filtros digitales que como su nombre lo indica, si la entrada es una señal impulso, la salida tendrá un número infinito de términos no nulos, es decir, nunca vuelve al reposo. Las principales diferencias respecto a los filtros FIR es que los IIR pueden cumplir las mismas exigencias que los anteriores pero con menos orden de filtro. Esto es importante a la hora de implementar el filtro, pues presenta una menor carga computacional. Este tipo de filtros pueden ser inestables, aún cuando se diseñen para ser estables. En principio no pueden diseñarse para tener fase lineal pero se pueden aplicar algunas técnicas como el filtrado bidireccional para lograrlo La salida de los filtros IIR depende de las entradas actuales y pasadas, y además de las salidas en instantes anteriores.
2.3.1. ESTRUCTURA EN FORMA DIRECTA Esta estructura se deriva directamente de su función de transferencia
H ( z) H1 ( z) H 2 ( z) , que puede ser vista como dos sistema en cascada, donde es un sistema H1 ( z ) de solo ceros y H 2 ( z ) solo polos de H ( z ) : M
H1 ( z ) bk z k
(2.3.1)
k 0
y:
H 2 ( z)
1 N
1 ak z
(2.3.2) k
k 0
46
UPS
Capítulo II
Dependiendo del orden de H1 ( z ) y H 2 ( z ) , existen dos tipos de realizaciones:
b0
b1
b2
z 1
bM 1
z 1
a3
b3
z 1
a2
aN 1
z 1
z 1
a1
z 1
y ( n)
z 1
x ( n)
z 1
aN
bM
Sistema todo-ceros
Sistema todo-polos
Fig. 2. 9. Realización en Forma Directa I
La realización en Forma Directa I, se logra uniendo el sistema todo polos con H1 ( z ) , esta realización requiere M+N+1 multiplicaciones, M+N sumas y M+N+1
posiciones de memoria.
x ( n)
a1 a2
z 1
b1
b2
aN 1
bN 1
aN
z 1
y ( n)
z 1
b0
bN
Fig. 2. 10. Realización en Forma Directa II (N=M)
47
UPS
Capítulo II En cambio en la realización en Forma Directa II es una estructura más
compacta en la cual se coloca el filtro todo polos H 2 ( z ) antes de filtro todo ceros H1 ( z ) , requiere M+N+1 multiplicaciones, M+N sumas y el máximo de
M , N
posiciones de memoria. La entrada de un filtro todo polos es:
N
w(n) ak w(n k ) x(n)
(2.3.3)
k 0
Y su salida:
M
y (n) bk w(n k )
(2.3.4)
k 0
Estas dos estructuras no son utilizadas frecuentemente en aplicaciones prácticas ya que son muy sensibles a la cuantificación de los parámetros, cuando N es grande, cambios por más pequeños que sean en un coeficiente del filtro debido a la cuantificación de los parámetros, los ceros y polos sufren cambios en sus posiciones.
2.3.2. GRAFOS Y ESTRUCTURAS TRANSPUESTAS Se puede representar nuestros sistemas a través de grafos en lugar de diagramas de bloques; un grafo es un conjunto de ramas unidireccionales que interconectan ramas, ramas que podrían contener ganancias o retardos (multiplicados por z 1 ) o sin etiqueta cuando la ganancia es la unidad.
La señal ingresa al sistema mediante el nodo fuente se distribuye por la ramas y es multiplicada por sus respectivas ganancias, la salida en el nodo sumidero ó nodo de salida es igual a la suma de las señales que se conectan a él, las ecuaciones en diferencias que describen un grafo lineal en el dominio z, con también ecuaciones lineales.
48
UPS
Capítulo II
x ( n)
a1
b0
b1
b2
y ( n)
z 1 z 1
a2 (a)
Nodo Fuente
x ( n)
1
a1 a2
Nodo Sumidero
b0
2 z 1 4 z 1
3
y ( n)
b1 b2
5 (b) Fig. 2. 11. Estructura de un filtro de segundo orden (a) y (b) su grafo
Los grafos nos permiten obtener nuevas estructura de sistemas FIR e IIR por medio del teorema de inversión de grafos mediante las estructuras transpuestas, para esto se invierte el sentido de flujo de las ramas, se intercambia los nodos por sumadores y viceversa, por
último se intercambia la salida por entrada; cabe
mencionar que todo este proceso no cambia las características de la función de transferencia. y ( n)
1
2
a1 a2
z 1 4 z 1
b0
3
x ( n)
b1 b2
5
(a)
y ( n)
b0
x ( n)
z 1 a1
b1
z 1 a2
b2
(b)
Fig. 2. 12. (a) Grafo de la estructura transpuesta de la Fig. 2.11. y (b) su realización
49
UPS
Capítulo II Para un sistema básico IIR de dos polos y dos ceros, se muestra a
continuación una tabla resumen de sus estructuras y sus ecuaciones en diferencias, tomando en cuenta que su función de transferencia es:
H ( z)
b0 b1 z 1 b2 z 2 1 a1 z 1 a2 z 2
(2.3.5)
Tabla 2. 1. Algunos módulos de Segundo Orden para Sistemas Discretos
ESTRUCTURA
ECUACIONES
FUNCIÓN
PARA LA
DE
IMPLEMENTACIÓN
TRANSFERENCIA
Forma Directa I b0
z 1 z 1
b1
y ( n)
z 1
a1
x ( n)
a2
b2
z 1
Forma Directa Regular II x ( n)
b0
a1
z
y ( n)
1
b1
a2
a1 x(n 1)
H ( z)
b0 b1 z 1 b2 z 2 1 a1 z 1 a2 z 2
H ( z)
b0 b1 z 1 b2 z 2 1 a1 z 1 a2 z 2
H ( z)
b0 b1 z 1 b2 z 2 1 a1 z 1 a2 z 2
a2 x(n 2)
w(n) a1w(n 1) a2 w(n 2) x ( n) a1 x(n 1) y (n) b0 w(n) b1w(n 1)
z 1
b2 x(n 2)
a2 x(n 2)
( n 1)
y (n) b0 x(n) b1 x(n 1)
(n 2)
b2
b2 w(n 2)
Forma Directa Transpuesta II y ( n)
b0
x ( n)
w1 (n) b1 x(n) a1 y (n)
z 1 b1
1 (n)
y (n) b0 x(n) w1 (n 1)
a1
w2 (n 2) w2 (n) b2 x(n) a2 y (n)
z 1 b2
2 ( n )
a2
50
UPS
Capítulo II
2.3.3. ESTRUCTURA EN FORMA DE CASCADA Esta realización se deriva de la función de transferencia 2.2.2., factorizando en sistemas de segundo orden: K
H ( z ) H k ( z )
(2.3.5)
k 1
Donde K es la parte entera de (M–1)/2, y tiene la forma general:
bk 0 bk1 z 1 bk 2 z 2 H k ( z) 1 ak1 z 1 ak 2 z 2
(2.3.6)
b0 b10b20 bK 0 es el parámetro del filtro es que puede ser distribuido o no en las secciones K del filtro. Los ceros de H(z) se agrupan en pares para formar sistemas de segundo orden. Y
aki
y
bki
son los coeficientes en los subsistemas de
segundo orden son reales. Se emparejan los ceros y polos para de H(z) en secciones de segundo orden en cascada de manera arbitraria, de igual manera se pueden utilizar muchas estructuras en varios ordenes estructura en forma directa I, en forma directa II o en forma directa transpuesta por lo que tenemos muchas posibilidades para formar estructuras en cascada, todas están realizaciones son equivalentes en aritmética infinita pero difieren cuando se las implementa con aritmética finita. x(n) x1 (n)
H1(z)
x2 (n) H 2 ( z) y1 (n) y2 ( n )
x
(a)
x ( n)
1
ak1
bk 0
bk1
bk 2
K
( n)
H K ( z)
y ( n)
yk (n) xk 1 (n)
z 1 z 1
ak 2 (b)
Fig. 2. 13. Estructura en cascada de estructura de segundo orden y una realización de cada sección de segundo orden.
51
UPS
Capítulo II Para realizar un algoritmo computacional para la realización de estructuras
IIR, utilizando estructuras directas II, utilizamos las siguientes ecuaciones:
y0 (n) x(n)
(2.3.7)
wk (n) ak1wk (n 1) ak 2 wk (n 2) yk 1 (n)
k 1, 2,..., K
(2.3.8)
yk (n) bk1wk (n) bk1wk (n 1) bk 2 wk (n 2)
k 1, 2,..., K
(2.3.9)
y(n) yK (n)
(2.3.10)
2.3.4. ESTRUCTURA EN FORMA PARALELA Para esta realización es necesario hacer una expansión de H(z) en factores simples, asumiendo que N M y que los polos son distintos:
N
Ak 1 k 1 1 pk z
H ( z) C
Donde Ak son los coeficientes o residuo,
(2.3.11)
pk
son los polos, valores que
pueden ser complejos o no y la constante C bN / aN . Para evitar operaciones con números complejos se debe combinar pares de polos complejos conjugados y de polos reales para formar un subsistema de dos polos, que tenga la forma:
H k ( z)
bk 0 bk1 z 1 1 ak1 z 1 ak 2 z 2
(2.3.12)
C
x ( n)
H1(z)
H 2 ( z)
H K ( z)
y ( n)
Fig. 2. 14. Estructura en paralelo de un sistema IIR
52
UPS
Capítulo II
aki y bki son parámetros reales del sistema cuya función global es: K
H ( z) C H k ( z)
(2.3.13)
k 1
2.3.5. ESTRUCTURA EN CELOSÍA Y EN CELOSÍA ESCALONADA PARA SISTEMAS IIR Un sistema FIR tiene una función de transferencia H ( z ) AN ( z ) mientras que un sistema IIR H ( z ) 1/ AN ( z ) , por lo que intercambiando la entrada por la salida se puede obtener un sistema a partir del otro. Por ejemplo un sistema IIR todo polos de primer orden se puede representar a través de:
f N (n) x(n)
(2.3.14)
f m1 (n) f m (n) Km gm1 (n 1)
M N , N 1,...,1
(2.3.15)
gm (n) Km f m1 (n) gm1 (n 1)
M N , N 1,...,1
(2.3.16)
y(n) f0 (n) g0 (n)
(2.3.17)
Y un sistema FIR de primer orden:
g1 (n) Km y(n) y(n 1)
(2.3.18)
Los polos son el resultado de la realimentación introducida por la solución de
f m (n)
en orden descendente. Mientras que los coeficientes de un sistema FIR son
iguales a los de un sistema IIR pero en orden inverso; cabe recalcar que la estructura en celosía todo polos tiene una trayectoria todo ceros con entrada g0 (n) y salida
g n (n) , trayectoria idéntica a la todo ceros de una estructura en celosía.
f 2 ( n)
f1 (n)
f 0 ( n) y ( n)
KN
K2
K1
KN
K2
K1
z 1
g N ( n)
f N 1 (n)
x ( n) f N ( n)
g 2 ( n)
z 1 g (n) 1
Salida Realimentación
z 1 g0 (n)
Fig. 2. 15. Estructura en celosía para un sistema IIR todo polos
53
UPS
Capítulo II Los parámetros K1 , K2 ,..., K N son los mismos para estructuras todo polos y
todo ceros, se diferencian solo por la interconexión de sus grafos; si K m 1 para todo m las estructuras en celosía todo polos son estables. En la práctica ha sido utilizado en las modelaciones del tracto vocal humano y la estratificación de la tierra.
Un sistema todo ceros tiene como salida una combinación lineal de salidas retardadas de un sistema todo polos; una estructura en celosía escalona se la forma tomando una estructura en celosía todo polos con parámetros y añadiendo una parte escalonada tomando como salida una combinación lineal g m (n) es una combinación lineal de salidas presentes y pasadas; la salida del sistema es:
M
y (n) vm g m (n)
(2.3.19)
m0
Entrada
f 2 ( n)
g 2 ( n)
KN
z 1
vN
K1
K2
f 0 ( n)
K2
z 1
v2
vN 1
f1 (n)
KN
g N ( n)
f N 1 (n)
x ( n) f N ( n)
g1 (n)
K1
z 1 g0 (n)
v1
v0
y ( n) Salida
Fig. 2. 16. Estructura en celosía escalonada de un sistema de polos-ceros.
vm
representa los parámetros que nos sirven para determinar los ceros del
sistema, la función de transferencia es:
H ( z)
g ( z) Y ( z) M vm m X ( z ) FN ( z ) y F0 ( z ) G0 ( z ) X ( z ) m0 X ( z ) M
H ( z ) vm m0
Gm ( z ) F0 ( z ) M B ( z) vm m G0 ( z ) FN ( z ) m 0 AN ( z )
(2.3.20)
M
H ( z)
v
m0
m
Bm ( z )
AN ( z )
54
UPS
Capítulo II
Que da como resultado: M
CM ( z ) vm Bm ( z )
(2.3.21)
m0
Los coeficientes del polinomio CM ( z ) , sirven para determinar los coeficientes de ponderación de la escalera
vm
y los coeficientes del polinomio
AN ( z ) determinan los parámetros de la celosía K m . Los parámetros de la escalera están dados por: m 1
Cm ( z ) vk Bk ( z ) vm Bm ( z ) Cm1 ( z ) vm Bm ( z )
(2.3.22)
k 0
Estos parámetros se calculan recursivamente a partir de los polinomios inversos Bm ( z ) m 1, 2,..., M , como m (m) para todo m, los parámetros se pueden determinar mirando que vm cm ( z ) m 0,1,..., M ; dando como resultado:
Cm1 ( z ) Cm1 ( z ) vm Bm ( z )
(2.3.23)
Estos filtros en celosía escalonada requieren un mínimo de memoria aunque no pocas multiplicaciones, otra de sus ventajas es que son filtros muy estables y robustos ante los efectos de palabras de longitud finita; por lo que son muy utilizadas en aplicaciones prácticas tales como procesamiento de voz, filtrado adaptativo y procesamiento de señales geofísicas.
2.4. CUANTIFICACIÓN DE LOS COEFICIENTES DEL FILTRO Por efectos de la longitud de la palabra del procesador o la de los almacenamientos de los coeficientes en un procesador, provocan que, los valores de los polos y ceros en la función de transferencia no sean exactos y difieran de los valores deseados; para tratar de minimizar estos errores se recurre a la construcción de varias estructuras en cascada y paralelo a través de bloques básicos de construcción, interconectados entre sí en lugar de funciones de transferencia con un gran números de polos y ceros.
55
UPS
Capítulo II
2.4.1. ANÁLISIS DE LA SENSIBILIDAD A LA CUANTIFICACIÓN DE LOS COEFICIENTES DEL FILTRO Los coeficientes cuantificados son
bk
y
ak ,
mientras que los no
cuantificados son bk y ak y sus errores de cuantificación:
ak ak ak
k 1, 2,..., N
bk bk bk
k 1, 2,..., M
(2.4.1)
Mientras que el error de perturbación es:
piN k
N
pi k 1
N
( pi pl )
ak
(2.4.2)
l 1 l i
Im(z) Circunferencia Unidad
Re(z)
Fig. 2. 17. Posiciones de los polos para un Filtro FIR paso bajo.
( pi pl ) son vectores que van desde el polo
pi
hasta el polo
pl ;
la
distancia pi pl debe ser maximizada con la finalidad de no tener polos agrupados que incrementen el error de perturbación, esto se logra mediante realizaciones de secciones de filtros de un polo simple o un polo doble, con el debido cuidado de no complicar el sistema mediante el empleo excesivo de operaciones complejas. Además se debe tener muy en cuenta las estructuras a realizarse.
Las estructuras normal o acoplada de espacio de estados distribuyen uniformemente las posiciones de los polos pero con la utilización de un mayor
56
UPS
Capítulo II
número de operaciones. Un filtro de segundo orden tiene un sinnúmero de opciones en cuanto a su realización y de igual manera existen muchas posibilidades para las posiciones de los polos con coeficientes cuantificados; estos filtros de segundo orden nos sirven para representar Filtros IIR de orden superior sea mediante estructuras en cascada que permiten el control de la estabilidad de los ceros mediante la utilización apropiada de bits de precisión o por medio de estructuras en paralelo que permiten el control de los polos del filtro aunque no nos especifican las posiciones de los ceros.
Cabe destacar una vez más que las estructuras en paralelo son las más robustas y más utilizadas en la práctica ante coeficientes cuantificados, especialmente cuando se utilizan representaciones en punto fijo.
2.4.2. CUANTIFICACIÓN DE LOS COEFICIENTES EN FILTROS FIR Como se dijo anteriormente utilizando una estructura en cascada o paralelo se con secciones de filtro de primer y segundo orden para minimizar la sensibilidad en la cuantificaciones de los coeficientes de un filtro FIR con un gran número de ceros, con fase lineal, cuya función de transferencia cumple con la propiedad
H ( z) z ( M 1) H ( z 1 ) sin importar si los coeficientes han sido cuantificados o no; cuantificación que se debe recalcar no afecta a la característica de la fase sino solo a la magnitud. Esto es recomendable cuando la longitud del filtro excede 256 ó si la longitud de la palabra del procesador digital de señales es menor que 12 bits.
El número de bits por coeficiente se debe incrementar a medida que se incrementa lo longitud del filtro, con la finalidad de mantener constante el error en su característica de frecuencia; incrementando un bit adicional a la precisión de los coeficientes del filtro se mantiene de igual manera fija la desviación estándar. Una realización en cascada tiene la forma: K
H ( z ) G H k ( z )
(2.4.3)
k 1
Cuyas secciones de segundo orden tiene la forma de:
H k ( z) 1 bk1 z 1 bk 2 z 2
(2.4.4)
57
UPS
Capítulo II Los coeficientes de los ceros complejos vienen dados por bk1 2rk cos k y
bk 2 rk2 , el principal problema es mantener la propiedad lineal ya que los pares cuantificados en z (1/ rk )e jk y su imagen especular de los ceros cuantificados en
z rk e jk y su imagen, pero redondeando para esto se debe redondear los factores correspondientes al cero en la imagen especular cuyo factor es:
2 1 2 1 2 1 1 2 1 cos k z 2 z 2 rk 2rk cos k z z rk rk rk
(2.4.5)
G representa un factor de Ganancia Global constituido por factores 1/ rk2 distribuidos en cada uno de los filtros de segundo orden, con factores
1 2rk cos k z 1 rk2 z 2 y cuyos ceros ocurren en pares de imágenes especulares, con parámetros o no cuantificados.
2.5.
OSCILACIONES DE CICLO LÍMITE EN SISTEMAS RECURSIVOS La cuantificación de los coeficientes del filtro afecta directamente a las
operaciones aritméticas, y convierten al sistema a uno no lineal, a demás son un factor importante para la presencia de oscilaciones periódicas a la salida, aún cuando en la entrada del sistema se tiene un cero o un valor constante, efectos que se atribuyen a los errores de redondeo en las multiplicaciones y a los errores de desbordamiento en las sumas. Estas oscilaciones en los sistemas recursivos se denominan ciclo límite; y sus efectos no pasan hasta cuando se presentan a la entrada otro valor diferente o de tamaño suficiente, también ocurren estos ciclos límite de entrada cero a partir de condiciones iniciales distintas de cero x(n) 0 , las amplitudes de la señales de salida durante este ciclo se encuentran entre un rango que se llama zona muerta del filtro. Cuando los ciclos límites se producen debido al redondeo en las multiplicaciones se utiliza a veces el truncamiento produce un sesgo indeseable a menos que se utilice representación de signo y magnitud. En cambio cuando existe desbordamiento la suma excede el tamaño de la palabra disponible en la implementación digital del sistema.
58
UPS
Capítulo II En un Sistema IIR en paralelo de orden superior, cada sección del filtro de
segundo orden tiene su propio comportamiento sin interacción entre dichas secciones; en un Sistemas IIR en cascada si en la primera sección ocurre un ciclo límite de entrada cero, el ciclo límite se filtra en las secciones siguientes. Para que en un sistema no ocurran ciclos límites con entrada cero por desbordamiento se debe cumplir la condición sumamente restrictiva:
a1 a2 1
(2.5.1)
Se puede también prevenir los ciclos límites por desbordamiento variando las características del sumador para que realice aritmética de saturación, cuando detecte un desbordamiento su salida será el valor de fondo de escala de 1 , que provoca muy poca distorsión ya que estos no se presentan con frecuencia.
2.6.
ESCALADO PARA PREVENIR DESBORDAMIENTO Debido a la no linealidad del recortador cuando se eliminan los ciclos límites
para evitar desbordamientos, se añade a la señal distorsiones indeseadas; con la finalidad de evitar este inconveniente, al desbordamiento, se lo debe transformar en un evento extraño escalando la entrada y la respuesta al impulso entre la entrada y cualquier nodo sumador interno del sistema; para esto la entrada x(n) tiene que ser escalada de manera que:
Ax
1
m
(2.6.1)
hk (m)
Si se escalona en exceso a la entrada especialmente para secuencias de banda estrecha se pierde precisión utilizada para representar x(n) , por lo que es recomendable utilizar la respuesta en frecuencia H k ( ) (Transforma de Fourier de hk (n) ), de esta manera el escalado razonable es:
Ax
1 max H k ( )
(2.6.2)
0
59
UPS
Capítulo II Para un Filtro FIR, empleamos una suma de M términos distintos de cero de
la respuesta al impulso del filtro:
1
Ax
(2.6.3)
M 1
h ( m)
m0
k
Otro factor para escalar la entrada es:
n
yk (n) C 2 x(n) C 2 Ex 2
2
(2.6.4)
n
Con:
C2
1
h ( n)
n
k
2
1 1 2
(2.6.5)
H k ( ) d 2
Con estos tres factores de escalado mencionados anteriormente se puede hacer una comparación: 1 2
2 hk (n) max H k ( ) hk (n) n n
(2.6.6)
60
UPS
Capítulo III
CAPÍTULO III
DISEÑO DE FILTROS DIGITALES
61
UPS
Capítulo III
CAPÍTULO III DISEÑO DE FILTROS DIGITALES Los capítulos anteriores han aportado conocimientos se puede ahora adentrarse en los varios métodos de diseño de Filtros Digitales FIR, de acuerdo a las especificaciones de frecuencia, amplitud y fase deseadas dependiendo de nuestras necesidades.
3.1.
CONSIDERACIONES GENERALES Como se mencionó en capítulos anteriores tenemos una amplia gama de
Filtros Digitales FIR o IIR entre los cuales elegir dependiendo de nuestras necesidades y de las especificaciones de la respuesta en frecuencia deseada tanto en magnitud como en fase. En las aplicaciones prácticas los Filtros FIR son utilizados en los procesos de filtrado con requisitos de fase lineal, aunque los más utilizados son los IIR ya que tienen lóbulos laterales menores en su banda de rechazo por lo que se puede tolerar cierta distorsión en fase e involucra menos parámetros para su implementación y menor complejidad computacional. Además de todo esto se debe recordar que nos es realizable físicamente un filtro no causal. Todos los métodos que se verán a continuación tienen como objetivo minimizar los valores de los parámetros a través de procesos iterativos que corren el riesgo de convergen en un mínimo local en lugar de uno global y darnos de esta manera resultados erróneos; lo recomendable es iniciar el proceso iterativo con varios valores y observar los resultados finales.
3.1.1. CAUSALIDAD Y SUS IMPLICACIONES Para que un filtro pueda ser realizable en la práctica este debe de ser no causal, lo que se logra introduciendo un retardo grande n0 en h(n) y de una manera arbitraria hacer que h(n) 0 para n n0 , aunque su característica en frecuencia ya no sea ideal, ya que su expansión en Serie de Fourier provocaría el fenómeno de Gibbs. Para que un filtro sea no causal debe cumplir el Teorema de Paley –Wiener: “Si h(n) tiene energía finita y h(n) 0 para n 0 , entonces:
ln H () d “
(3.1.1)
62
UPS
Capítulo III Integral que es finita H ( ) , con una respuesta en fase ( ) , que nos da
como resultado un filtro causal con respuesta en frecuencia H ( ) H ( ) e j ( ) , cuya magnitud puede ser cero para algunas frecuencias menos para cualquier frecuencia de banda finita. La causalidad impone en un sistema lineal e invariante en el tiempo impone serias restricciones en sus componentes real e imaginaria de su respuesta en frecuencia H ( ) , pero también nos brinda facilidades como por ejemplo cuando
h(n) es causal se lo puede recuperar a partir de su parte par he (n) para 0 n ó de su parte impar ho (n) para 1 n , cuyas Transformadas de Fourier interdependientes son H R ( ) y H I ( ) , respectivamente, y no se pueden especificar por separado. Además h(n) es absolutamente sumable:
H () H R () jH I ()
(3.1.2)
La causalidad nos impone implicaciones en el diseño de filtros digitales selectivos en frecuencia como:
H ( ) no debe ser cero a menos que se trate de un conjunto finito en frecuencia.
H ( ) no debe ser constante en ningún rango finito de frecuencia y cuya transición de banda de paso a la de rechazo no puede ser infinitamente abrupta (Fenómeno de Gibbs producido por el truncamiento de h(n) ). Cuyas componentes real e imaginaria son independientes y están relacionadas por la Transformada de Hilbert Discreta.
La magnitud y la fase de H ( ) no se pueden elegir de manera arbitraria.
3.1.2. CARACTERÍSTICAS DE FILTROS PRÁCTICOS SELECTIVOS EN FRECUENCIA Cuando un filtro es no causal es posible utilizarlo en el procesamiento de señales en tiempo real, y aunque tienen muchas restricciones poseen una gran precisión a través de los coeficientes del filtro ak y bk , así como (M , N ) en los coeficientes del filtro.
63
UPS
Capítulo III
H ( ) debe ser constante en toda la banda de paso del filtro aunque no sea necesariamente cero en la banda de rechazo, 1 y 2 , respectivamente expresados en escala logarítmica ( 20log 1 , 20log 2 dB ); tanto en la banda de paso como en la de rechazo se suele tolerar un cierto rizo, existe una banda o región de transición, en la cual se pasa de la banda de paso a la banda de rechazo, cuyo ancho define el ancho de banda del filtro S p y está delimitado por p que es el límite superior de la primera banda mientras que S el comienzo de la segunda.
1 Rizado en la banda de paso P Borde en la banda de paso 2 Rizado en la banda de rechazo S Borde en la banda de rechazo
H ( ) 1 1 1 1 Rizado en la banda de paso
Banda de rechazo
2
0
P
Banda de transición
S
Fig. 3. 1. Características de magnitud de los filtros físicamente realizables
La magnitud H ( ) puede variar entre 1 1 ser constante en toda la banda de paso del filtro aunque no sea. Cuando necesitamos diseñar un filtro debemos tener en cuenta varias especificaciones como por ejemplo:
1. Máximo rizado tolerable en la banda de paso 2. Máximo rizado tolerable en la banda de rechazo 3. Frecuencia de corte en la banda de paso p 4. Frecuencia de corte en la banda de paso S
64
UPS 3.2.
Capítulo III DISEÑO DE FILTROS FIR En las secciones que siguen se denota algunas características y métodos para
el Diseño de Filtros FIR.
3.2.1. FILTROS FIR SIMÉTRICOS Y ASIMÉTRICOS La causalidad en un Filtro refleja que este tiene una duración finita, la simetría es una importante propiedad que nos sirve para el diseño de filtros dependiendo de la aplicación que a este se le otorgue, eligiendo la M longitud adecuada o número de coeficientes a partir de una especificación de la respuesta en frecuencia deseada. Las raíces de la función de transferencia de un Filtro FIR de fase lineal nos dan los ceros que deben ocurrir en pares recíprocos que pueden tener parte real y parte e imaginaria que nos darán de igual manera las raíces serán complejos conjugados simétricos.
1 z1
1 z3
z3 * 3
z
z1
1 z2
z1*
1 z1*
1 z3*
Circunferencia unidad
Fig. 3. 2. Simetría en las localizaciones de los ceros para un Filtro FIR de fase lineal
Su respuesta en frecuencia es:
H ( ) H r ( )e
j M 1 / 2
(3.2.1)
65
UPS
Capítulo III
Donde H r ( ) es la parte real: ( M 3) / 2 M 1 M 1 H r ( ) h 2 h(n) cos n 2 2 n 0 ( M 2) / 2 M 1 H r ( ) 2 h(n) cos n M impar 2 n 0
M par (3.2.2)
Y la característica en fase para M par o impar es:
M 1 si H r ( ) 0 2 , ( ) M 1 , si H ( ) 0 r 2
(3.2.3)
Cuando h(n) h(M 1 n) la respuesta impulsional es asimétrica para M impar cuyo punto central es n (M 1) / 2 , pero si M es par cada término h(n) de tiene un término emparejado pero de signo contrario. La respuesta en frecuencia es:
H ( ) H r ( )e
j M 1 / 2 / 2
(3.2.4)
Y: ( M 3) / 2
M 1 h(n) cos n 2 n 0 ( M 2) / 2 M 1 H r ( ) 2 h(n) cos n 2 n 0 H r ( ) 2
M par (3.2.5)
M impar
Su característica de fase para M par o impar es:
M 1 2 2 , ( ) 3 M 1 , 2 2
si H r ( ) 0 (3.2.6)
si H r ( ) 0
66
UPS
Capítulo III Cuando M es impar se debe especificar (M–1)/2 coeficientes del filtro,
mientras que para M par se debe especificar M/2 coeficientes; eso si debemos
M 1 especificar que h 0 2
3.2.2. DISEÑO DE FILTROS FIR DE FASE LINEAL USANDO VENTANAS El uso de ventanas nos ayuda a suavizar las características en frecuencia
H de un Filtro FIR y a que los lóbulos laterales no sean demasiado grandes cerca de la banda de paso
y la de rechazo, que provocan rizados y grandes
oscilaciones que incrementan en frecuencia pero no en amplitud a medida que aumenta M, produciendo el indeseable Fenómeno de Gibbs; a expensas de un incremento en el ancho de banda de transición del filtro, a menos que se incremente la longitud del filtro. Es necesario especificar antes la respuesta en frecuencia deseada H d para determinar a la correspondiente respuesta al impulso hd n , relacionándolas mediante su Transformada de Fourier:
H d hd (n)e jn
(3.2.7)
n 0
Donde: hd n
1 2
H d ( )e jn d
(3.2.8)
Esta respuesta al impulso tiene una duración infinita que no puede producir un Filtro FIR de longitud M, a menos que sea truncada en un punto n=M – 1, o su equivalente que es multiplicar hd n por una ventana. Las ventanas logran el efecto de suavizado en la respuesta en frecuencia gracias a que no contienen discontinuidades abruptas en el dominio del tiempo; existen varias funciones ventana con distintas características en el tiempo y que dan mayor o menor efecto de suavizado en el dominio frecuencial como se puede observar en la Tabla 3.1.
67
UPS
Capítulo III Tabla 3. 1. Funciones Ventana para el diseño de Filtros FIR
ANCHO DE NOMBRE
SECUENCIA EN EL DOMINIO
DE
DEL TIEMPO
VENTANA
h n , 0 n M 1
TRANSICIÓN
PICO DE
APROXIMADA
LÓBULOS
DEL
LATERALES
LÓBULO
(dB)
PRINCIPAL
Rectangular
M 1 senc n 2 M 1 n 2
0 n M 1 M 1 n 2
M 1 2 M 1
2 n
Bartlett (Triangular)
1
Hanning
1 2 n 1 cos 2 M 1 0.54 0.46cos
Hamming Blackman
0.42 0.5cos
1, n
Tukey
2 n 4 n 0.08cos M 1 M 1
Lanczos
-13
8π/M
-27
8π/M
-32
8π/M
-43
12π/M
-58
M 1 M 1 0 1 2 2
n 1 M 1 / 2 1 1 cos 2 1 M 1 / 2
( M 1) / 2 n
Kaiser
2 n M 1
4π/M
M 1 M 1 2 2
2 M 1 2 M 1 Io n 2 2 M 1 Io 2
M 1 sen 2 n 2 M 1 2 n M 1 M 1 2 2
L
L0
68
UPS
Capítulo III
3.2.3. DISEÑO DE FILTROS FIR DE FASE LINEAL MEDIANTE EL MÉTODO DE MUESTREO EN FRECUENCIA Este método posee una estructura eficiente de muestreo en frecuencia que se puede obtener cuando la mayoría de muestras en frecuencia son cero, los lóbulos laterales son reducidos y la respuesta de frecuencia optimizada numéricamente mediante técnicas de programación en un ordenador digital. Para calcular la respuesta al impulso h n es necesario especificar la respuesta en frecuencia deseada H d en un conjunto de frecuencias equi-espaciadas:
k
2 k M
M 1 M impar 2 M k 0,1,..., 1 M par 2 0 ó 1/ 2 k 0,1,...,
(3.2.9)
La expresión de la respuesta en frecuencia para la respuesta deseada H en función de las muestras deseadas G k , para un filtro simétrico es:
M sen 2 M 1 G k j ( M 1) / 2 H ( ) e M k 0 sen k 2 M
(3.2.10)
Donde: G M k 0 G k 1 1 G Mk 2 2
(3.2.11)
Mientras que para un filtro asimétrico es:
M sen 2 M 1 G k j ( M 1) / 2 j / 2 H ( ) e e M k 0 sen k 2 M
(3.2.12)
Donde:
0 G M k G k 1 1 G M k 2 2
(3.2.13)
69
UPS
Capítulo III
El proceso de este método tiene el siguiente orden:
Se ponen a 1 y cero, en la banda de paso y rechazo respectivamente, los k
valores de G k
H se calcula en un conjunto denso de frecuencias, en n 2 n / K n 0,1,..., K 1 , para cualquier elección de G k .
Determinamos el valor del lóbulo lateral máximo y los valores de los parámetros
G k
en la banda de transmisión se cambian en la
dirección de máximo descenso y se reducen el lóbulo lateral máximo.
H se calcula otra vez con la nueva elección de G k
Nuevamente se determina el máximo lóbulo lateral de H y los valores de los parámetros
G k
en la banda de transición se ajustan en la
dirección de máximo descenso que reduce el lóbulo lateral.
Se repite el proceso interactivo hasta que converjan óptimamente los parámetros G k en la banda de transición.
El método introduce polos y ceros en el círculo unidad que por efectos de cuantificación no se cancelan, por lo que no se produce el debido amortiguamiento del ruido de redondeo en los cálculos que se incrementa a medida que se incrementan los proceso pudiendo producir errores en la función del filtro; para esto se mueven los polos y ceros dentro de la circunferencia unidad, en un radio r < 1 para evitar inestabilidad; con esto la nueva Función de Transferencia de un filtro FIR lineal es:
H ( )
1 r M z M e j 2 M
M 1
H k
1 re k 0
j 2 k / M
z 1
(3.2.14)
3.2.4. DISEÑO DE FILTROS ÓPTIMOS FIR DE FASE LINEAL Y RIZADO CONSTANTE Llamado también Aproximación de Chebyshev; los métodos mencionados en las dos secciones precedentes son relativamente simples y presentan una carencia de control preciso de las frecuencias críticas tales como P y S , este método proporciona filtros con rizados en la banda tanto en la banda de paso como en la
70
UPS
Capítulo III
banda de rechazo, se lo considera óptimo ya que el error de aproximación ponderado entre la repuesta de frecuencia deseada y la respuesta de frecuencia que tenemos es distribuido uniformemente en las banda de paso y rechazo respectivamente del filtro para minimizar el error máximo. En la siguiente tabla se describen los Filtros FIR de fase lineal que se podrían diseñar con este método:
Tabla 3. 2. Funciones para el diseño de Filtros FIR
RELACIÓN
FUNCIONES REALES
PARÁMETROS
DE LA
DEL
RESPUESTA EN
FILTRO
FRECUENCIA
(k )
TIPO DE FILTRO
CONJUNTOS
impulsional
( M 1) / 2
simétrica
a(k ) cos k
k 0
h(n) h M 1 n
DEL FILTRO
M 1 h 2 , k 0 a(k ) M 1 2h k , 2
k 1, 2,...,
y M impar
DE PARÁMETROS
H r ( ) Respuesta
ENTRE LOS
M 1 2
Respuesta impulsional simétrica
cos
h(n) h M 1 n
( M / 2) 1
2
k 0
b(k ) cos k
M b( k ) 2 h k 2
k 1, 2,...,
M 2
b k 1 b k 2b k k 1, 2,...,
M 2 2
y M par Respuesta impulsional asimétrica
sen
( M 3) / 2
c(k ) cos k
k 0
h(n) h M 1 n
M 1 d ( k ) 2h k 2
k 1, 2,...,
M 1 2
c k 1 c k 1 2c k
2k
y M impar
M 5 2
Respuesta impulsional asimétrica
h(n) h M 1 n
sen
( M / 2)1 2
d (k ) cos k
M d ( k ) 2h k 2
k 0
k 1, 2,...,
M 2
d k 1 d k 2d k 2k
M 1 2
y M par
71
UPS
Capítulo III
La
respuesta
real
en
frecuencia
se
la
puede
representar
como
L
H r ( ) Q() P() , donde P( ) (k ) cos k . Se define a la respuesta en k 0
frecuencia real deseada H dr ( ) como la unidad en la banda de paso y cero en la de rechazo; además la función de error de ponderación W ( ) en el error de aproximación permite la elección del tamaño relativo de los errores en las diferentes bandas de frecuencia, adicionalmente esta función da la idea del tamaño relativo del rizado entre la banda de rechazo y paso. Con estos datos es posible calcular el error de aproximación ponderado:
E ( ) W ( ) H dr () H r ()
(3.2.15)
Por el teorema de alternancia de Park y McClellan en E ( ) tenemos L + 2 frecuencias extremas i en el conjunto S de frecuencias, el objetivo es hallar la frecuencia extrema óptima deseada n , y es el valor máximo de la función de error E ( ) H dr
H dr
1
1
p
0
p
0
(a)
(b)
H dr
H dr
1
1
0
1
2 (c)
0
1
2
3 4
(d)
Fig. 3. 3. Características deseadas de respuesta en frecuencia para diferentes tipos de Filtros
72
UPS
Capítulo III Al principio no se tienen las frecuencias extremas n ni de parámetros
(k ) y , por lo que por el “Algoritmo de Intercambio de Remez” se determina P( ) y , con estos datos obtenemos E ( ) y con esto conseguimos un nuevo conjunto L + 2 de frecuencias extremas y se repite todo el proceso hasta que se converja en un conjunto de frecuencias óptimas extremas. Parámetros de entrada del filtro
Elección inicial de
M 2 frecuencias extremas Calcular el óptimo en el conjunto
Interpolar a partir de M 1 puntos para obtener P( ) Calcular el error E ( ) y encontrar el máximo local donde E ( )
¿Mas de
Si
M 2
extremos?
Retener M 2 Extremos mayores
No cambiaron
Comprobar si los puntos extremos cambiaron
Mejor aproximación
Fig. 3. 4. Diagrama de Flujo del Algoritmo de Intercambio de Remez
3.2.5. DISEÑO DE DIFERENCIADORES FIR
Los Diferenciadores FIR son muy utilizados en la derivación de señales tanto en sistemas digitales y como en sistemas analógicos, un diferenciador digital ideal es linealmente proporcional a la frecuencia y su respuesta a la frecuencia es:
H d ( ) j
(3.2.16)
73
UPS
Capítulo III
Y su repuesta al impulso es asimétrica:
hd (n)
cos n n
n , n 0
(3.2.17)
Su respuesta en frecuencia es limitada a un rango 0 2 f p , donde f p es el ancho de banda, la respuesta deseada puede dejarse sin restricciones o forzada a cero en un rango de 2 f p . Los parámetros más importantes de un diferenciador son su longitud M, su ancho de banda o frecuencia límite en la banda f p y el pico del error relativo de la aproximación. Debido a que los diferenciadores tienen cero en la respuesta en frecuencia en ( f 1/ 2) , los filtros con M impar son particularmente pobres si su ancho de banda excede f p 0.45 ; por este motivo en la práctica se prefieren los diseños con M par aunque tiene un mayor error de aproximación, aunque por ser un Filtro de fase lineal tiene un retardo de (M 1) / 2 que no es un número entero.
3.2.6. DISEÑO DE TRANSFORMADORES DE HILBERT Utilizados frecuentemente en el procesado de señales y sistemas de comunicaciones, especialmente en la modulación en banda lateral única; es un filtro pasa todo que da como resultado a la misma señal de entrada pero desplazada 90 y cuya respuesta en frecuencia imaginaria, con parte real igual a cero es:
0 0
j , H d ( ) j,
(3.2.18)
Su respuesta al impulso de duración infinita no causal es asimétrica, y cero para n par:
2 sen 2 n 2 , hd (n) n 0,
n0
(3.2.19)
n0
La respuesta en frecuencia real deseada es:
H dr () 1,
2 fl 2 fu
(3.2.20)
74
UPS
Capítulo III Donde f l es la frecuencia de corte inferior y f u la superior. Para el diseño lo
parámetros a considerarse son f l , y M que aunque sea par o impar no presenta ninguna ventaja además de la complejidad computacional que cuando M es impar es dos veces menor a M par; la siguiente ecuación es una regla que se sigue usualmente en el diseño de este tipo filtros:
Mfl 0.61log10
(3.2.21)
3.2.7. COMPARACIÓN DE MÉTODOS DE DISEÑO PARA FILTROS FIR DE FASE LINEAL El uso de ventanas para truncar la respuesta al impulso h(n) , por ser el método de diseño de filtros más antiguo ha sido el más utilizado, pero su gran desventaja es el poco control sobre las frecuencias críticas, P y S , que dependen de la longitud del filtro y del tipo de ventana. En los años 70 llego el método de muestreo en frecuencia que denotó una mejora al método de ventanas, ya que H r ( ) se especifica en las frecuencias
k 2 k / M o k (2k 1) / M y la banda de transición es un múltiplo de 2 / M , se lo utiliza a menudo cuando el Filtro FIR se lo realiza tanto en el dominio de la frecuencia por medio de la DTF como en cualquiera de las realizaciones en muestreo de frecuencia. Posteriormente llego el método aproximación de Chebyshev con el diseño de un filtro óptimo ya que permite distribuir el error de aproximación sobre la banda de paso y rechazo, por medio del control total de los parámetros del filtro, esto da como resultado minimizar el nivel máximo de los lóbulos laterales; el único requisito que se requiere para el diseño de filtros mediante este métodos es determinar la longitud del filtro a partir de P , S , 1 y 2 , para ello se puede utilizar la fórmula de aproximación Kaiser, descrita en el artículo de Rabiner (1975):
M
20log
1 2 13
14.6f
(3.2.22)
75
UPS
Capítulo III La banda de transición es f S P / 2 . Y una fórmula más exacta fue
dada por Hermann en 1973:
D 1 , 2 f 1 , 2 f 1 M f 2
(3.2.23)
Por definición: 2 D 1 , 2 0.005309 log10 1 0.07114 log10 1 0.4761 log10 2 2 0.00266 log10 1 0.5941 log10 1 0.4278 f 1 , 2 11.012 0.51244 log10 1 log10 2
(3.2.24)
Estas aproximaciones se usan para el diseño si excede el valor especificado de 2 , se incrementa la longitud del filtro hasta que los lóbulos laterales cumplan las especificaciones.
3.3.
DISEÑO DE FILTROS DIGITALES BASADO EN EL MÉTODO DE
MÍNIMOS CUADRADOS Generalmente en los métodos convierte un filtro analógico en un filtro digital mediante alguna correspondencia del plano s al plano Z , sin embargo con el Método de Mínimos Cuadrados se los puede diseñar directamente ya sea en el dominio del tiempo o en el dominio de la frecuencia.
3.3.1. MÉTODO DE APROXIMACIÓN DE PADÉ Este método es muy utilizado en problemas de optimización; la Función de Transferencia del Filtro a diseñar es: M
H ( z)
b z k 0 N
k
k
1 ak z
k
h( k ) z k
(3.3.1)
k 0
k 0
Con h(k ) como su respuesta al impulso; su respuesta al impulso deseada
hd (n) , está especificada para n 0 ; con L M N 1 parámetros y sus coeficientes son ak y bk que elegidos de la manera correcta nos sirven para
76
UPS
Capítulo III
eliminar errores, estos parámetros se los puede hallar a través de las siguientes ecuaciones, haciendo h(n) hd (n) para 0 n M N :
h(n) a1h(n 1) a2 h(n 2) ... aN h(n N ) bn
0nM
h(n) a1h(n 1) a2 h(n 2) ... aN h(n N )
nM
(3.3.2)
Hallamos primero ak y con estos valores bk , asé se logra un ajuste entre la respuesta al impulso real y la respuesta al impulso deseada para los primeros L valores, cuanto más complejo es el filtro mejor es la aproximación, aunque también se complica el diseño ya que el filtro resultante tiene un gran número de polos y ceros. En la práctica hd (n) se determinan a partir de algunas especificaciones de la respuesta en frecuencia H d ( ) .
3.3.2. MÉTODO DE DISEÑO DE MÍNIMOS CUADRADOS
( n)
H d ( ) hd (n)
1/ H ( Z ) y (n)
( n)
error
Minimizar la suma de errores al cuadrado
Fig. 3. 5. Método de diseño del filtro inverso de mínimos cuadrados
hd (n) está especificada para un conjunto finito de valores 0 n L , donde L N ; su respuesta al impulso es: M N a h n k bk n k n 0 k K 1 K 1 h( n) N a h n k b 0nM k n K 1
(3.3.3)
A través de la respuesta deseada hd (n) para podemos obtener la estimación: N
hˆd (n) ak hd n k
(3.3.4)
k 1
77
UPS
Capítulo III Para encontrar los coeficientes ak se utiliza la aproximación del mínimo
cuadrado que es el cuadrado de la diferencia entre la respuesta deseada y su estimación, y con ello se obtiene un conjunto de ecuaciones lineales: N
a r k , l r k , 0 l 1
l hh
k 1, 2,..., N
hh
(3.3.5)
Donde:
rhh k , l
n M 1
bk
Mientras los parámetros
hd n k hd n l
(3.3.6)
que determinan los ceros se los obtiene
haciendo que h(n) hd (n) y sustituyendo los valores aˆk , y tenemos: N
bn hd n aˆk hd n k
0nM
(3.3.7)
k 1
En el método de Prony los polos son determinados por los coeficientes âk , mediante el método de los mínimos cuadrados y con ellos se encuentran las estimaciones de ak ; en cambio los coeficientes bk que determinan los ceros son obtenidos mediante la aproximación de Padé.
( n)
Filtro todo-polos
v ( n)
Filtro todo-ceros
hd (n)
H 2 (Z )
H1 ( Z )
Fig. 3. 6. Método de mínimos cuadrados para determinar polos y ceros de un filtro
En 1967 Shanks propuso un método alternativo para calcular los coeficientes
ak y bk , los coeficientes ak se calculan por el método de mínimos cuadrados produciendo estimaciones âk , sintetizadas en el filtro todo-polos:
H1 ( z )
1 N
1 aˆk z
(3.3.8) k
k 1
78
UPS
Capítulo III
La respuesta ante un impulso unidad (n) es: N
v(n) aˆk v n k n
n0
(3.3.9)
k 1
Esta respuesta excita un filtro todo ceros con Función de Transferencia: M
H 2 ( z ) bk z k
(3.3.10)
k 1
Cuya respuesta es: M
hˆd (n) bk v n k
(3.3.11)
k 1
Con la secuencia de error:
M
e(n) hd (n) hˆd (n) hd (n) bk v n k
(3.3.12)
k 1
Así hallamos los coeficientes
bk
por minimización por medio de las
ecuaciones lineales:
M
b r k, l r k k 0
k vv
hv
l 0,1,..., M
(3.3.13)
Por definición:
rvv k , l v n k v n l
(3.3.14)
n 0
rhv k hd n v n k
(3.3.15)
n 0
3.3.3. FILTROS INVERSOS FIR DE MÍNIMOS CUADRADOS (WIENER) Este tipo de Filtros son utilizados en las de-convoluciones, comunicaciones y procesado de señales sísmicas; llamados así en honor al famoso matemático Norbert
79
UPS
Capítulo III
Wiener, quién en 1949 introdujo métodos de filtrado óptimo mediante mínimos cuadrados. Un sistema con respuesta al impulso hI (n) y función de transferencia H I ( z ) ; es inverso a un sistema lineal e invariante en el tiempo con respuesta al impulso
h(n) y función de transferencia H ( z ) , si cumple que:
h(n) hI (n) (n)
(3.3.16)
H ( z) H I ( z) 1
(3.3.17)
Usualmente H I ( z ) es IIR a menos que H ( z ) sea un sistema de todo-polos donde sería FIR; aunque truncando hI (n) podemos lograr siempre tener un FIR de longitud M+1, aunque esto produce un error cuadrático total de aproximación que es igual a la energía de cola de la respuesta al impulso hI (n) :
t
n M 1
hI2 (n)
(3.3.18)
d ( n) ( n)
h( n)
Filtro FIR
bk
y ( n)
e( n )
Minimizar la suma de errores al cuadrado
Fig. 3. 7. Filtro Inverso FIR de Mínimos Cuadrados
d (n) es la secuencia de salida deseada, y(n) la secuencia de salida del Filtro FIR y h(n) es la secuencia de entrada; por lo que la secuencia de error es:
80
UPS
Capítulo III M d n bk h(n k ) n 0 k 0
2
(3.3.19)
Minimizando esta secuencia con respecto a los coeficientes del filtro, obtenemos un conjunto de ecuaciones lineales: M
b r k 0
k hh
(k l ) rdh (l )
l 0,1,..., M
(3.3.20)
rhh (l ) es la autocorrelación de h(n) :
rhh (l ) h n h n l
(3.3.21)
n 0
rdh (l ) es la correlación cruzada entre la salida deseada d (n) y la secuencia de entrada h(n) :
rdh (l ) d n h n l
(3.3.22)
n 0
El mínimo error es:
M
min d n bk rdh k 2
n 0
(3.3.23)
k 0
Si el Filtro FIR de mínimos cuadrados es inverso:
d n n
(3.3.24)
Y esto reduce las expresiones anteriores a:
h 0 rdh (l ) 0
l 0 en otro caso
min 1 h 0 b0
(3.3.25) (3.3.26)
Para hallar los coeficientes del filtro utilizamos las matrices de Toeplitz, por medio del algoritmo de Levinson-Durbin que utiliza M 2 cálculos:
81
UPS
Capítulo III
rhh 1 rhh 2 rhh M b0 h 0 rhh 0 rhh 0 rhh 1 rhh M 1 b1 0 rhh 1 rhh 0 bM 0 rhh M rhh M 1
(3.3.27)
Si el sistema es de fase mínima se debe seleccionar la respuesta deseada para que sea n 0 y d n 0, n 1 ; si el sistema no lo es lo aconsejable es introducir un retardo D en la respuesta deseada dependiendo de las características de h n , por lo que la correlación cruzada se transforma en:
rdh l h D l
l 0,1,..., M
(3.3.28)
De igual manera el conjunto de ecuaciones lineales viene a ser: M
b r k l h D l k 0
k hh
l 0,1,..., M
(3.3.29)
Y el error mínimo: M
min 1 bk h D k
(3.3.30)
k 0
3.3.4. DISEÑO DE FILTROS IIR EN EL DOMINIO DE LA FRECUENCIA Este método de diseño de Filtros IIR se lo realiza en el dominio de la frecuencia, para determinar los parámetros del filtro se eligen funciones de error en la magnitud y en el retardo entre los valores reales y los deseados; GA k Ad k y g k d k , respectivamente, y se selecciona también la función error ponderado total de mínimos cuadrados no lineal sobre las ( K + 1 ) frecuencias
1 , 2 ,..., L : L
p, G 1 wn GA n Ad n
2
n 1
L
vn g n g 0 d n
(3.3.31) 2
n 1
82
UPS
Capítulo III
, wn y vn son factores de ponderación que se eligen de acuerdo a las necesidades, que determinan el énfasis relativo de los errores como una función de la frecuencia, mientras que p es un vector de 4K de los coeficientes del filtro
k1 ,k 2 ,k1 y k 2 . La ventaja que se tienen es que los errores que afectan al diseño se pueden desplazar a la magnitud 0 ó al retardo 1 ó también de manera igual
1/ 2 . La ganancia óptima es: L
Gˆ
w A A n 1
n
n
d
n
(3.3.32)
L
w A 2
n 1
n
n
Y con esto tenemos:
L
ˆ A p, Gˆ 1 wn GA n d n
2
n 1
L
vn g n g 0 d n
(3.3.33) 2
n 1
p, Gˆ no es lineal y su minimización se la realiza mediante el método de optimización numérica iterativo sobre su 4K parámetros, al principio se tienen
valores p(0) iniciales, se los sustituye en (3.3.31) y se obtiene p 0 , G , luego se evalúan las derivadas parciales / k1 , / k 2 , / k1 y / k 2 en los mismos valores iniciales; y con estos valores se puede re-calcular los valores
iniciales y de igual manera p, Gˆ y obteniendo así los valores p(0) y se repite el proceso hasta cuando las componentes del gradientes son cercanas a cero y el valor
de p, Gˆ
no cambia significativamente entre cada iteración. Este proceso se lo
puede describir mediante:
p m1 p m mQ m g m
m 0,1, 2,...
(3.3.34)
m m es un escalar que representa el tamaño de paso en la iteración, Q es
una estima de la hessiana una matriz de 4 K 4 K y g un vector de dimensión m
83
UPS
Capítulo III
4K 1
compuesto por cuatro vectores de dimensión K de las componentes de la
gradiente
(es decir, / k1 , / k 2 , / k1 , / k 2 ) evaluadas en
ak1 k1 , ak 2 k 2 , bk1 k1 , y bk 2 k 2 . El vector de parámetros p da m
m
m
m
estabilidad al programa, si k 2 1 para k 1,..., K cualquier k 2 se fuerza a permanecer dentro de la circunferencia unidad haciendo que permanezca el proceso iterativo, lo mismo se puede realizar para que de los ceros permanezcan dentro de la circunferencia unidad y obtener así un filtro de fase mínima.
3.4.
PREDICCIÓN LINEAL HACIA ADELANTE Y HACIA ATRÁS La predicción tiene como objetivo obtener un valor futuro de un proceso
aleatorio estocástico a partir de las observaciones de valores pasados del proceso. La predicción tanto hacia adelante como hacia atrás, lleva a estructuras de Filtros en celosía y algunas otras conexiones importantes con modelos paramétricos de señal.
3.4.1. PREDICCIÓN LINEAL HACIA ADELANTE
x ( n)
z
1
Predictor Lineal Hacia adelante
x n 1
f p n
xˆ n
Fig. 3. 8. Predicción lineal hacia adelante
Se puede predecir un valor x t mediante una combinación ponderada a partir de los valores pasados x n 1 , x n 2 ... x n p , y los coeficientes de predicción, su signo negativo se debe a una conveniencia matemática:
p
xˆ n a p k n n k
(3.4.1)
k 1
84
UPS
Capítulo III La diferencia entre el valor que se predijo y el valor real no da como resultado
el error de predicción f p n .
Un filtro FIR de error de predicción en forma directa es equivalente a un filtro FIR en celosía de p etapas, con la función de transferencia: p
Ap z a p k z k k 1
x ( n)
z 1 1
z 1
a p 0 1
z 1 a p (2)
a p (1)
(3.4.2)
z 1 a p (3)
a p ( p 1)
a p ( p)
f p n Fig. 3. 9. Filtro de error de predicción
Cuya salida es: p
f p n ap k x n k k 1
a p 0 1
(3.4.3)
El error cuadrático medio:
p * p p * xx 0 2 Re a p k xx k a p l a p k xx l k k 1 k 1 l 1 f p
(3.4.4)
Su minimización conlleva a las ecuaciones normales:
p
xx l a p k xx l k
l 1, 2,..., p
(3.4.5)
k 1
Y su mínimo error cuadrático de predicción:
85
UPS
Capítulo III p
min pf E pf xx 0 a p k xx k
(3.4.6)
k 1
3.4.2. PREDICCIÓN LINEAL HACIA ATRÁS Para obtener un valor x n p de una secuencia de datos x n , x n 1 ,
x n 2 ... x n p 1 , de un proceso aleatorio: p 1
xˆ n bp k n n k
(3.4.7)
k 1
Sus coeficientes de predicción bp k son complejos conjugados de los del predictor hacia adelante y ocurren en orden contrario:
f1 (n)
f 0 ( n)
x ( n)
Primera
g 0 (n) Etapa
g1 (n)
k 0,1,..., p f 2 ( n)
Segunda Etapa
g 2 ( n)
(3.4.8)
f p ( n)
p ésima Etapa
bp k a*p p k
f m 1 (n)
f m ( n)
g m ( n)
g p ( n)
K m*
g m1 (n)
Km z 1
Fig. 3. 10. Etapa p del filtro en celosía
Se lo puede realizar como filtro FIR tanto en forma directa como en estructura en celosía, cuya Función de Trasferencia es:
Bp z z p A*p z 1
(3.4.9)
Los coeficientes a p k se pueden determinar por medio de:
Am z Am1 z Km z 1Bm1 z
(3.4.10)
86
UPS
Capítulo III m
m 1
m 1
k 0
k 0
k 0
am k z 1 am1 k z 1 Km am* 1 m 1 k z k 1
(3.4.11)
Su error de predicción: p
g p n x n p a*p k x n p k
(3.4.12)
k 1
El valor cuadrático medio: 2 bp E g p n
(3.4.13)
La minimización de estos valores conducen a las mismas ecuaciones normales del predictor hacia adelante por lo que el mínimo error es el mismo. 2 bp E g p n
3.4.3. COEFICIENTES
DE
REFLEXIÓN
ÓPTIMOS
(3.4.14)
PARA
LOS
PREDICTORES EN CELOSÍA HACIA DELANTE Y HACIA ATRÁS Para optimizar los coeficientes de reflexión de un filtro en celosía, es necesario expresarlos en función de los errores de predicción hacia a delante y hacia atrás. El error de predicción de un filtro de predicción hacia adelante en celosía es:
f m n f m1 n Km gm1 n 1
(3.4.15)
2 Minimizando E f m n con respecto a los coeficientes K m tenemos:
Km
E f m1 n g m* 1 n 1 Emf 1 Emb 1
(3.4.16)
2 2 Dónde Emf 1 Emb 1 E g m1 n 1 E f m1 n . Los coeficientes de
reflexión en el predictor en celosía es el negativo de los coeficientes de correlación cruzada (normalizada) entre los errores de los predictores hacia adelante y hacia
87
UPS
Capítulo III
atrás. Mientras que el mínimo valor cuadrático medio de error de predicción es una secuencia monótonamente decreciente:
Emf 1 K m
2
E
f m 1
(3.4.17)
3.4.4. RELACIÓN DE UN PROCESO AR CON LA PREDICCIÓN LINEAL Un predictor de orden p se encuentra relacionado mediante una
ARp
correspondencia biunívoca con los procesos
donde la secuencia de
autocorrelación xx m se relaciona con los parámetros
ak .
Si el proceso
subyacente x(n) es ARp , los coeficientes de predicción del predictor de orden p son idénticos a ak ; y su mínimo MSE es idéntico a la varianza del proceso de ruido blanco.
3.5.
PROPIEDADES DE LOS FILTROS DE ERROR DE PREDICCIÓN
LINEAL
Propiedad de Fase Mínima del Filtro de Error de Predicción hacia adelante: Si un Proceso Aleatorio: M
x n ak e
j nk k
(3.5.1)
k 1
Con sus fases
k
distribuidas estadísticamente en 0, 2 , se encuentra
formado por una mezcla de densidad espectral de potencia continua: M
xx f ak2 f f k k 1
fk
k 2
(3.5.2)
Y un espectro discreto; las raíces del Filtro de Error de Predicción se encuentran todas dentro de la circunferencia unidad.
Propiedad de Fase Máxima del Filtro de Error de Predicción hacia atrás: Si la Función de Transferencia de un Filtro de Error de Predicción hacia atrás:
88
UPS
Capítulo III
Bp z z p A*p z 1
(3.5.3)
Las raíces Ap z de un Filtro de Error de Predicción hacia Adelante de Fase Mínima son los recíprocos de las raíces Bp z de un Filtro de Error de Predicción hacia Atrás de Fase Máxima, y cuyas raíces yacen sobre la circunferencia unidad si el proceso x n es predecible.
Propiedad de Blanqueo: La diferencia entre la salida del predictor xˆ n y entre el valor real x n disminuye si se incrementa el orden p del predictor, aproximándose esta diferencia
f n xˆ n x n al Ruido Blanco.
Ortogonalidad de los Errores de Predicción hacia atrás: Los errores de Predicción hacia Atrás
g k m
de un Filtro FIR de varias
etapas son ortogonales:
0, E g m n gl* n b Em ,
0 l m 1 lm
(3.5.4)
Propiedades Adicionales:
E f m n x n i 0, E gm n x n i 0,
1 i m
(3.5.5)
0 i m 1
(3.5.6)
E f m n x n E gm n x n m Em E fi n f j n Emax i, j E fi n f j n t 0, E gi n g j n t 0,
(3.5.7) (3.5.8)
i j 1 t i j 1 t i j i j
(3.5.9)
i j 0 t i j 0 t i j 1 i j
(3.5.10)
E E fi n i f j n j i 0
i j i j
(3.5.11)
89
UPS
Capítulo III
E gi n i g j n j Emáx i, j K j Ei , E fi n g j n 0,
(3.5.12)
i j i, j 0 K 0 1 i j
E fi n gi n 1 Ki1 Ei
(3.5.14)
E gi n 1 x n E fi n 1 x n 1 Ki1 Ei 0, E fi n g j n 1 K j 1 Ei ,
3.6.
(3.5.13)
(3.5.15)
i j i j
(3.5.16)
FILTROS DE WIENER PARA PREDICCIÓN Y FILTRADO d n
s n
Señal
x n
Predictor y n Lineal Óptimo
e n
wn Ruido
Fig. 3. 11. Modelo para el problema de Estimación Lineal
Siempre la señal de entrada x n disponible desde un pasado infinito, está formada por la señal deseada
s n
y un ruido o interferencia aditivo
w n ;
justamente el objetivo de un filtro lineal con respuesta al impulso h n es rechazar o eliminar esta interferencia no deseada mientras mantiene intactas sus características de señal deseada; la salida del filtro es la secuencia y n que suele tener un error
e n d n y n con respecto a la señal deseada especifica d n .
3.6.1. FILTRO FIR DE WIENER Un
filtro
de
longitud
M,
que
depende
del
registro
finito
x n , x n 1 ,..., x n M 1 , con coeficientes hk ,0 k M 1 , cuya salida es:
90
UPS
Capítulo III M 1
y n h k x n k
(3.6.1)
k 0
El valor cuadrático medio del error entre la salida deseada d n e y n es: M 1
M E d n h k x n k
(3.6.2)
k 0
La minimización de M nos da como resultado un conjunto de ecuaciones lineales de Wiener-Holp o ecuaciones normales: M 1
h k l k l xx
k 0
l 0,1,..., M 1
dx
(3.6.3)
Donde xx k es la autocorrelación de la secuencia de entrada x n y la correlación cruzada dx k E d n x* n k entre la secuencia deseada d n y la secuencia de entrada x n ,0 n M 1 .
A las ecuaciones normales se las puede por medio de la matriz de Toeplitz (hermítica) de M M elementos lk xx l k :
M hM d
d
es
vector
M 1
de
la
(3.6.4)
relación
cruzada
con
elementos
dx l 0,1,..., M 1 , la solución de los coeficientes del filtro óptimo son: MMSEM d2 dt M1 d
(3.6.5)
En el caso de filtrado d n s n , además s n y w n son secuencias aleatorias incorrelacionadas tenemos:
xx l ss l ww l dx l ss l
(3.6.6)
Cuyas ecuaciones normales serían:
91
UPS
Capítulo III M 1
h k l k l k l ss
k 0
ww
l 0,1,..., M 1
ss
(3.6.7)
En el caso de la predicción, donde d n s n D , además s n y w n son secuencias aleatorias incorrelacionadas tenemos:
dx l ss l D
(3.6.8)
Y ecuaciones para el Filtro de predicción de Wiener se transforman en: M 1
h k l k l k l D k 0
ss
ww
ss
l 0,1,..., M 1 (3.6.9)
Para obtener los coeficientes del filtro óptimo se utiliza el algoritmo de Levinson-Durbin, invirtiendo la matriz de correlación de Toeplitz.
3.6.2. PRINCIPIO DE ORTOGONALIDAD EN ESTIMACIÓN LINEAL DE MÍNIMOS CUADRADOS La salida estimada de un filtro es: M
x n ak e
j nk k
(3.6.10)
k 1
Salida que puede ser representada geométricamente a través de un vector en el sub-espacio desde d n hasta dˆ n , es decir d n e n dˆ n , desplegado por los valores x k ,0 k M 1 .
92
UPS
Capítulo III
d n
e n h 0 x 1
x(1)
h 1 x 2 dˆ n
x(2) Fig. 3.11. Interpretación geométrica del problema lineal de MSE
El principio de ortogonalidad que la longitud M E e n es un mínimo si 2
e n es perpendicular o ortogonal a cada dato x k ,0 k M 1 . Seleccionando los coeficientes del filtro y mediante el principio de ortogonalidad se obtiene el MSE residual mínimo:
MMSEM E e n d * n
(3.6.11)
3.6.3. FILTRO IIR DE WIENER Son filtros de longitud y secuencias de datos de longitud infinita, cuya salida es:
y n
h k x n k
(3.6.12)
k
Cuyos coeficientes se seleccionan para minimizar el error cuadrático medio entre la salida deseada d n y y n :
E d n
h k x n k
2
(3.6.13)
k
Por el principio de ortogonalidad obtenernos las ecuaciones de Wiener-Hopf:
93
UPS
Capítulo III
h k l k l
k
xx
l0
dx
(3.6.14)
El MMSE residual:
MMSE min d2 h
A un proceso estacionario
x n
h k k
k
* dx
opt
(3.6.15)
con autocorrelación xx k y densidad
espectral de potencia xx f se puede expresa mediante un proceso de innovaciones
i n permanente, para esto se pasa al proceso estacionario x n
por un filtro
blanqueador de ruido con Función de Transferencia 1/ G z , donde G z es la parte analítica de fase mínima en la región z r1 , donde r1 1 . Un filtro Wiener se lo puede ver como una cascada de un filtro blanqueador 1/ G z con otro Q z , cuya salida y n es similar a la salida de un Filtro Óptimo:
y n
q k i n k
(3.6.16)
k
Se debe notar que e n d n y n y mediante el principio de ortogonalidad obtenemos una nueva ecuación de Wiener-Hopf:
q k l k l
k
ii
di
l0
(3.6.17)
Como i n es blanca, tenemos que ii l k 0 a menos que l k , por lo que:
q l
di l di l di 0 i2
l0
(3.6.18)
Su transformada z es:
94
UPS
Capítulo III
1
Q z
k z
2 i k 0
k
di
(3.6.19)
La transformada z de la secuencia de correlación cruzada bilateral di k :
di z
k z
k
k
di
(3.6.20)
La salida del Filtro Blanqueador de Ruido es:
i z v k x n k
(3.6.21)
k 0
Donde v k , k 0 es la respuesta al impulso del filtro blanqueador de ruido:
di k
v k k m
k
dx
(3.6.22)
Cuya transformada z es:
di z V z 1 dx z
dx z
G z 1
(3.6.23)
Entonces:
QZ
1 dx z i2 G z 1
(3.6.24)
La función de Transferencia de un Filtro IIR de Wiener Óptimo es:
H opt z
z 1 dx 1 G z G z 2 i
(3.6.25)
Para encontrar la solución para el Filtro IIR Óptimo de Wiener primero se debe factorización espectral de xx z y obtenemos la componente de fase mínima
95
UPS
Capítulo III
G z , y luego se encuentra la parte causal de xx z G z 1 . d2 E d n es el 2
valor de la secuencia de autocorrelación dd k evaluada en k 0 , y:
dd k
1
dd k z 1dz
(3.6.26)
dd k C z dz 2 j
(3.6.27)
2 j
C
De donde:
d2 dd 0
1
La integral cerrada se evalúa a lo largo de una curva cerrada alrededor del origen en la región de convergencia dd z . Como hopt k 0 para k 0 , se deprende:
1 h k k 2 j
k
* dx
opt
C
H opt z dx z 1 z 1dz
(3.6.28)
C es la trayectoria cerrada alrededor del origen que se encuentra en la región de convergencia común de H opt k y dx z 1 . Por lo que la expresión deseada
MMSE de es: MMSE
1
2 j
C
dd k H opt k dx z 1 z 1dz
(3.6.29)
3.6.4. FILTRO DE WIENER NO CAUSAL Aunque un Filtro no causal es físicamente irrealizable, se los suele utilizar como filtro de suavizado para el que los valores del futuro infinito se usan para suavizar la estima de dˆ n y n de la señal deseada d n , cuya secuencia de entrada x n tiene tanto pasado como futuro infinito, por lo que su salida sería
y n
h k x n k
(3.6.30)
k
Aplicando el principio de ortogonalidad da como resultado la ecuación de Wiener-Hopf para un Filtro no causal:
96
UPS
Capítulo III
h k l k l xx
k
l
dx
(3.6.31)
Transformando la ecuación anterior directamente se tiene Filtro Óptimo de Wiener no causal:
H nc z
dx z xx z
(3.6.32)
Su MMSEnc :
MMSEnc d2
h k k
k
* dx
(3.6.33)
Y este en el dominio de Z :
MMSEnc
dd z H nc z dx z 1 z 1dz 2 j C 1
(3.6.34)
97
UPS
Capítulo IV
CAPÍTULO IV
FILTROS ADAPTATIVOS
98
UPS
Capítulo IV
CAPÍTULO IV FILTROS ADAPTATIVOS Existen muchas aplicaciones de tratamiento digital de las señales en la que los parámetros estadísticos no se pueden especificar. Dichas aplicaciones que no pueden usar parámetros estadísticos a prioridad incluyen la ecualización del canal, la cancelación del eco y el modelado del sistema. Para estas aplicaciones se usa filtros con coeficientes ajustables denominados filtros adaptativos. Lo que hacen estos filtros principalmente, es incorporar algoritmos que puedan adaptar los coeficientes del filtro con los parámetros estadísticos de la señal. Estos filtros han sido de mucho interés en el estudio de estos últimos tiempos, por lo que se ha obtenido un desarrollo considerable en los algoritmos de cálculo para el filtrado adaptativo.
4.1.
APLICACIONES DE LOS FILTROS ADAPTATIVOS Muchos han sido los sistemas en donde se han aplicado los filtros adaptativos,
tales como los campos en sistemas de control, comunicaciones y otros en los que las características estadísticas de las señales que deben ser filtradas eran desconocidas.
Al nombrar algunas de las aplicaciones más destacables, se puede recoger las siguientes: *Sistemas de antena adaptativa, en la cual el filtro se aplica para dirigir el haz y proporcionar nulos en el patrón del haz. *Receptores Digitales de Comunicaciones, en las que los filtros se aplican para ecualizar las interferencias e identificar el canal. *Técnicas de cancelación de ruido adaptativas, en las que los filtros se usan para estimar y eliminar una componente de ruido de la señal deseada.
A pesar de que se ha considerado los filtros FIR e IIR para los filtros adaptativos, el filtro FIR es el más ampliamente usado y práctico, pues solo tiene ceros ajustables, mientras que los filtros IIR necesitan de ceros y polos ajustables.
99
UPS
Capítulo IV Pero la estabilidad del filtro FIR depende críticamente del algoritmo
empleado para ajustar sus coeficientes. Dos criterios que dan buenas medidas del rendimiento de las aplicaciones de filtrado adaptativo, son el criterio de mínimos cuadrados y el error cuadrático medio (MSE, Mean-Square-Error).
4.1.1. IDENTIFICACIÓN O MODELADO DEL SISTEMA Se dispondrá de un sistema desconocido el cual se deseara identificar. El sistema desconocido se sabe que tendrá: x(n)
=
Secuencia de entrada para el sistema.
y(n)
=
Salida del sistema desconocido.
y (n)
=
Salida del modelo.
M
=
Número de coeficientes ajustables.
h(k)
=
Coeficiente “k” ajustable del filtro
^
Es así que se tiene: ^
M 1
y h( k ) x ( n k )
(4.1.1)
k 0
La secuencia de error viene dada por: ^
e( n ) y ( n ) y ( n ) n 0,1,...
(4.1.2)
Se debe seleccionar los coeficientes h(k) para minimizar el error: M 1 M y ( n) h( k ) x ( n k ) n 0 k 0 N
2
(4.1.3)
Donde N+1 es el número de observaciones. Mediante el criterio de mínimos cuadrados se permitirá determinar los coeficientes del filtro, es así que: M 1
h( k ) r k 0
xx
(l k ) ryx (l )
(4.1.4)
l 0,1,..., M 1
100
UPS
Capítulo IV Como se ve en la ecuación 4.1.4, rxx (l ) es la autocorrelación de la secuencia
x(n) y ryx (l ) es la correlación cruzada del sistema con la secuencia de entrada y resolviendo la ecuación 4.1.4 se obtendrán los coeficientes del filtro para el modelo.
Debido a que los parámetros del filtro se obtienen a partir de la medida de los datos de entrada y salida del sistema, teniendo presente que es un sistema que se desconoce, se puede decir que el modelo de filtro FIR es un filtro adaptativo, como se muestra en la Fig. 4.1 Ruido Sistema variante en el tiempo desconocido
d(n)
+ y(n)
+
X(n)
+ ^
Modelo de filtro FIR
y ( n)
Algoritmo Adaptativo
-
Señal de error
Fig. 4. 1. Aplicación del filtrado adaptativo a la identificación de un sistema
4.1.2. ECUALIZACIÓN DEL CANAL ADAPTATIVA En la gráfica siguiente, se utiliza un ecualizador adaptativo para compensar la distorsión creada por el canal que es el medio de transmisión, todo esto en un sistema digital de comunicaciones representado en este diagrama, y cuya salida es:
s(t ) a(k ) p(t kTs )
(4.1.4)
k 0
Donde: a(k)
= Secuencia digital de símbolos de información aplicada al filtro transmisor
p(t)
= Respuesta al impulso del filtro transmisor.
Ts
= Intervalo de tiempo entre los símbolos de información
K
= Es el número de posibles valores de los símbolos.
101
UPS
Capítulo IV
a(n)
Canal (Filtro Variante en el tiempo)
Transmisor (Filtro)
Secuencia de datos
+
Receptor (filtro)
Muestreador Ruido ^
^
a ( n)
Señal de referencia
d(n)
a ( n)
Dispositivo de decisión
+
+
Ecualizador adaptativo
Algoritmo adaptativo
Señal de error
Fig. 4. 2. Aplicación del Filtrado Adaptativo a la ecualización de un canal
El canal que idealmente se lo modela como un filtro lineal, distorsiona los pulsos y produce interferencia entre símbolos, como lo que sucede en los canales telefónicos, sin embargo estos filtros aplicados en los canales, producen distorsión de fase y amplitud. Y si a esto, se toma muestras cada Ts seg, se dará una interferencia de los distintos símbolos adyacentes.
Si se aplica y si se supone que se encuentra un filtro FIR en el extremo receptor del sistema, la funcionalidad de este filtro será limitar el ancho de banda del ruido, y si por un momento se ignora las posibles variaciones temporales del canal, se puede expresar la salida del receptor como se indica a continuación:
k 0
k 0
x(nTs ) a(k )q(nTs kTs ) w(nTs ) a(n)q(0) a(k )q(nTs kTs ) w(nTs )
(4.1.6)
Donde w(t) representa el ruido aditivo y q(t) representa el impulso distorsionado en la salida del filtro receptor. Se supone que la muestra q(0) está normalizada a la unidad por medio de un sistema de control automático de ganancia contenida en el receptor, por lo que 4.1.6 podrá representarse:
x(n) a(n) a(k )q(n k ) w(n)
(4.1.7)
k 0
102
UPS
Capítulo IV Ahora si se supone que el ecualizador es un filtro FIR adaptativo con M
coeficientes ajustables h(n), su salida se puede expresar como: M 1
^
a(n) h(k ) x(n D k )
(4.1.8)
k 0
^
Donde D es un retardo nominal que se produce al procesar la señal y a(n) representa un estimado del símbolo de información n-ésimo. Aplicando nuevamente el criterio de error de mínimos cuadrados, seleccionando los coeficientes h(k) para minimizar la magnitud, se tiene que: 2 M 1 N ^ M d ( n ) a ( n) d ( n ) h(k ) x(n D k ) n 0 n0 k 0 N
2
(4.1.9)
El resultado de la optimización es un conjunto de ecuaciones lineales, que se encuentra representado como vemos a continuación: M 1
h(k )rxx (l k ) rdx (l D)
k 0
(4.1.10)
l 0,1,..., M 1
Como se ve en (4.1.10), rxx (l ) es la autocorrelación de la secuencia x(n) y rdx (l ) es la correlación cruzada entre la secuencia deseada d(n) y la secuencia
recibida x(n).
4.1.3. CANCELACIÓN DEL ECO EN LA TRANSMISIÓN DE DATOS A TRAVÉS DE CANALES TELEFÓNICOS Para la transmisión de datos a través de los canales telefónicos se utilizan los módems, los mismo que sirven como interfaz para que se pueda realizar la transmisión de datos de la secuencia digital con el canal analógico, pudiendo ser esta del tipo full-duplex, es decir que se puede transmitir del terminal A al B y viceversa. Generalmente la línea telefónica es una línea de cuatro hilos, lo que es equivalente a tener dos canales telefónicos dedicados, un canal para transmitir datos en una dirección y otro para recibirlos de la otra dirección. Y como se mencionó anteriormente, la distorsión del canal puede compensarse mediante un ecualizador adaptativo.
103
UPS
Capítulo IV Se darán algunos problemas, y una solución para la transmisión infrecuente
de los datos consiste en emplear una red telefónica de marcación conmutada. Para esto la comunicación local entre el abonado y la central telefónica (local) es una línea de dos hilos, lo que se le conoce como bucle local. Mediante un acoplamiento de transformador, el híbrido (dispositivo que vemos en la Fig. 4.3) se ajusta para proporcionar aislamiento entre los canales de transmisión y recepción. Sin embargo se puede producir eco debido a que la señal en la parte del receptor se distorsiona por la causa de la desadaptación de impedancias entre el híbrido y el canal telefónico. Pero esto se puede solucionar agregando un supresor de eco o un cancelador de eco para la transmisión de los datos dentro de cada modem. Estos canceladores de eco se implementan como filtros adaptativos con coeficientes ajustables automáticamente. Es necesario el uso de un híbrido en cada modem para el aislamiento entre transmisor y receptor y para el acoplamiento del bucle local de dos hilos. Como se ve en la Fig. 4.3 el híbrido A se encuentra en la central del abonado, mientras que el híbrido B se encuentra en la central a la que el abonado B está conectado. Para la representación matemática de todo lo hablado anteriormente, las dos señales transmitidas pueden representarse como:
s A (t ) a(k ) p(t kTs ) k 0
sB (t ) b(k ) p(t kTs )
(4.1.11)
k 0
Donde p(t) es un impulso.
Despreciando la distorsión del canal con la finalidad de solo enfocarse en los ecos, la señal recibida en el modem A puede expresarse como: sRA (t ) A1sB (t ) A2 sA (t d1 ) A3 s A (t d2 )
(4.1.12)
sB (t ) es la señal deseada que va a ser demodulada en el modem A. s A (t d1 ) es el eco en el terminal A debido al híbrido A (eco en el extremo
próximo). sA (t d2 ) es el eco en el terminal A debido al híbrido B (eco en el extremo
alejado).
104
UPS
Capítulo IV Ai son las amplitudes correspondientes a las tres componentes de la señal. d1 _ y _ d2 son los retardos asociados con las componentes de eco.
A esta ecuación se le debe sumar el ruido aditivo representada por w(t), que es una perturbación que distorsiona la señal. El cancelador de eco adaptativo, intenta estimar las dos componentes de eco. Si su salida dispone de los coeficientes h(n), con n=0,1,…,M-1, entonces: ^
M 1
s A ( n) h( k ) a ( n k )
(4.1.13)
k 0
A este estimado de la señal de eco se le resta de la señal recibida muestreada, y esta señal de error resultante puede minimizarse por mínimos cuadrados para ajustar de forma óptima los coeficientes del cancelador de eco. A continuación se representará en forma de diagramas de bloques lo anteriormente expuestos, en la Fig. 4.3 Datos de entrada
Transmisor A
Transmisor B
Cancelador de eco
Cancelador de eco Híbrido
Receptor A
Híbrido A
Bucle local
Algoritmo adaptativo
Datos de salida
Datos de entrada
+
Híbrido B
Híbrido
Bucle local
Algoritmo adaptativo
-
-
+
+
Módem A
+
Receptor B
Datos de salida
Módem B
Fig. 4. 3. Diagrama de bloques de un sistema de comunicación digital con canceladores de eco en los módems
4.1.4. SUPRESIÓN DE INTERFERENCIAS DE BANDA ESTRECHA EN UNA SEÑAL DE BANDA ANCHA Ahora se enfocara el problema que se da en la práctica en cuanto a la detección de las señales y en las comunicaciones digitales. Suponiendo que se tiene
105
UPS
Capítulo IV
una secuencia v(n), una señal de banda ancha deseada w(n) distorsionada por una interferencia de banda estrecha aditiva x(n), se verá lo siguiente. Estas secuencias resultan del muestreo de una señal analógica v(t) a la frecuencia de Nyquist (o mayor) de la señal de banda ancha w(t). En la Fig. 4.4. se muestra las características espectrales de w(n) y x(n).
V( f ) X( f ) W( f ) X(f )
W( f )
0
fw
Fig. 4. 4. Interferencia de banda estrecha X(f) en un banda ancha W(f).
Como se ve en la figura, la interferencia X ( f ) es mucho mayor que W ( f ) dentro de la banda de frecuencias estrecha que ocupa. El objetivo es implementar un filtro que suprima la interferencia de banda estrecha. Sin embargo si la interferencia es no estacionaria, su ocupación de la banda de frecuencias puede variar con el tiempo, por lo que es así que será necesario un filtro adaptativo.
Por las características de banda estrecha de la interferencia, se permite estimar x(n) a partir de las muestras pasadas de la secuencia y(n) y extraer el estimado de y(n). El esquema general de todo esto se encuentra representado en la Fig. 4.5.
106
UPS
Capítulo IV ^
+ e(n) w(n) + -
v(n) w(n) x(n) v(n D)
z
^
Señal de error
Predictor x(n) Lineal FIR
D
Retardo de la decorrelación
Algoritmo Adaptativo
(a)
v(n D)
h(0)
z 1
z 1
h(1)
z 1
...
z 1
h(2) h(M-1)
+ ^
x ( n)
(b) Fig. 4. 5. Filtro adaptativo para eliminar interferencia de banda estrecha en una señal de banda ancha
La señal y(n) se retarda D muestras y esta se selecciona lo suficientemente grande para que en las componentes de la señal de banda ancha no sean correlacionadas, aunque normalmente D=1 o 2. La señal retardada v(n D) se pasa a través de un filtro FIR, lo que se caracteriza mejor como un predictor lineal del valor x(n). Es así que la salida del predictor lineal es: ^
M 1
x ( n) h( k )v ( n D k )
(4.1.14)
k 0
Este valor de x(n) se sustrae de v(n) para proporcionar un estimado de w(n). Es evidente que D debe mantenerse tan pequeño para obtener un buen estimado de
107
UPS
Capítulo IV
x(n), pero a la vez, lo suficientemente grande para que w(n) y w(n - D) sean incorrelados. El error viene dado por: ^
e(n) v(n) x(n) v(n) k 0 h(k )v(n D k ) M 1
(4.1.15)
Si se aplica a esto el criterio de mínimos cuadrados para la óptima selección de los coeficientes de predicción, se obtiene el conjunto de ecuaciones lineales: M 1
h( k ) r k 0
(l k ) rvv (l D)
vv
(4.1.16)
l 0,1,..., M 1
Donde rvv (l ) es la secuencia de autocorrelación de v(n). El valor esperado de rvv (l D) es la autocorrelación estadística de la señal de banda estrecha x(n). Es así
que los valores de los coeficientes del filtro determinados a partir de 4.1.16, son una función de las características estadísticas de la interferencia de x(n). En sí, la configuración global del filtro mostrado en Fig. 4.5, define un filtro de error de predicción FIR adaptivo con coeficientes: 1,...................k 0 h '(k ) h(k D),..k D, D 1,..., D M 1 0,.................Otro _ caso
(4.1.17)
Y con una respuesta en frecuencia de: M 1
H ( w) h '(k D)e jwk
(4.1.18)
k 0
Este filtro se comporta como un filtro de hendidura para la interferencia.
4.1.5. MEJORADOR DE LÍNEA ADAPTATIVO Un filtro mejorador de línea adaptativo (ALE, Adaptive Line Enhancer) tiene la misma configuración como se vio en la Fig. 4.5 pero sin embargo tiene otro objetivo. Al ser x(n) la señal deseada, w(n) la que representa una componente de ruido de banda ancha y que enmascara a x(n) que es una señal de banda relativamente estrecha, y como se vio anteriormente, el predictor de la Fig. 4.5 proporciona un estimado de la señal de banda estrecha x(n). Este mejorador de línea
108
UPS
Capítulo IV
adaptativo es un filtro auto-ajustable que presenta un pico en su respuesta de frecuencia en la banda de frecuencias de la señal de banda estrecha x(n). Con un ancho de banda estrecho, w(n) de fuera de la banda se suprime por lo que la línea espectral se mejora en amplitud con respecto a la potencia del ruido en w(n), y sus coeficientes se determinan resolviendo 4.1.16
4.1.6. CANCELACIÓN DE RUIDO ADAPTATIVA La señal de entrada principal consta de una señal deseada x(n) que esta distorsionada por una secuencia de ruido aditivo w1(n) y una interferencia aditiva w2(n). Esta interferencia aditiva también es distorsionada por una secuencia de ruido aditivo w3(n). Como se muestra en la Fig. 4.5 (entendiéndose mejor la configuración del filtro), un Filtro FIR Adaptativo se utiliza para estimar la secuencia de interferencia w2(n) en la señal secundaria v(n) y sustraer así el estimado w2(n) de la señal principal. Es así que la secuencia de salida, vendría a ser la señal de error dada por:
^
e( n ) y ( n ) w2 ( n ) e( n ) y ( n ) k 0 h ( k )v ( n k ) M 1
(4.1.19)
Con este error, se podrá ajustar adaptativamente los coeficientes del Filtro FIR. Si se emplea el criterio de mínimos cuadrados para determinar los coeficientes del filtro, el resultado de la optimización es el conjunto de ecuaciones lineales dados por: M 1
h( k ) r k 0
vv
(l k ) ryv (l )
(4.1.20)
l 0,1,..., M 1
Donde rvv(l) es la autocorrelación de muestras de la secuencia v(n) y ryv(l) es la correlación cruzada de muestras de las secuencias y(n) y v(n)
109
UPS
Capítulo IV
x(n) w1 (n)
+ + -
Señal observada y(n)
+
Salida ^
w2 ( n )
w2 ( n ) Señal observada v(n) Sistema lineal Desconocido
v2 (n)
H(z)
Señal de error
Filtro FIR adaptativo
+
w3 (n)
Algoritmo Adaptativo
Fig. 4. 6. Esquema de un sistema de cancelación de ruido adaptativo.
4.1.7. CODIFICACIÓN LINEAL PREDICTIVA DE SEÑALES DE VOZ Para la transmisión de señales de voz, lo que generalmente se usa para codificar la voz son las modulaciones PCM (Pulse Code Modulation) y la DPCM (Differential PCM), aunque también se han ido desarrollando otros métodos de codificación como la modulación delta (DM) y la DPCM adaptativa. Uno de los principales objetivos de los codificadores de voz es representar la señal de voz con el mínimo número posible de bits, obviamente manteniendo la integridad de la señal, es decir, sin deformarla. El filtro adaptativo tiene aplicación en estos sistemas de codificación de las señales de voz basados en modelos. En lo que sigue, se verá un método muy efectivo llamado Codificación Lineal Predictiva (LPC). En la función lineal predictiva, el tiempo del sonido bucal se modela como un filtro lineal de solo polos, cuya función es: H ( z)
G 1 k 1 ak z k p
(4.1.21)
Donde p= Es el número de polos. G= Es la ganancia del filtro. ak= Son los parámetros que determinan los polos. Se tomarán dos funciones que sirven para modelar los sonidos sonoros y sordos, las cuales son mutuamente excluyentes. Durante un período corto de tiempo, los sonidos sonoros tienen una frecuencia fundamental de F0, pero luego estos serán
110
UPS
Capítulo IV
generados al excitar el modelo de filtro de solo polos mediante un tren de impulsos periódicos, con el período igual al del tono deseado. En cambio, los sonidos sordos se generan excitando el modelo del filtro de solo polos con la salida de un generador de ruido aleatorio. Todo esto se encuentra representado en la Fig. 4.7.
Generador Ruido Blanco Conmutador de Sonidos sonoros y sordos
Filtro de solo Polos
Generador Impulsos Periódicos Fig. 4. 7. Diagrama de bloques de la generación de una señal de voz.
Solamente con un segmento corto de tiempo de una señal de voz, el codificador en el transmisor debe determinar la función de excitación apropiada, el período deseado de los sonidos sonoros, el parámetro de ganancia G y los coeficientes ak. A partir de estos datos, los parámetros del modelo se determinan en forma adaptativa. Posteriormente las muestras de voz se sintetizan y se genera una señal de error generada entre la secuencia real y la sintetizada.
Por último, la señal de error y los parámetros del modelo se codifican en una secuencia binaria y se transmite al destino. De igual manera, en el receptor la señal de voz se sintetiza a partir de la señal de error y del modelo. Los parámetros del modelo de filtro de solo polos se determinan fácilmente a partir de las muestras de voz a través de la operación de predicción lineal. Como se ve en la Fig. 4.8, y suponiendo que se tiene N muestras de la señal, la salida del Filtro FIR es:
^
p
x(n) ak x(n k )
(4.1.22)
k 1
111
UPS
Capítulo IV
x(n)
+ Señal de error + -
Muestras de voz
^
z
Predictor FIR Adaptativo
1
x ( n)
Algoritmo Adaptativo Fig. 4. 8. Diagrama de bloques de la estimación de los parámetros de los polos ^
El error dado entre la muestra observada x(n) y el estimado x(n) es:
e(n) x(n) k 1 ak x(n k ) p
(4.1.23)
De igual forma a las anteriores veces, si se aplicara el criterio de mínimos cuadrados, se podría determinar los parámetros del modelo ak. Y el resultado daría in conjunto de ecuaciones lineales, en las que: p
a r k 1
k xx
(l k ) rxx (l )
(4.1.24)
l 1, 2,...., p
Para obtener el parámetro de ganancia del filtro, se puede basar en la ecuación de entrada-salida, donde se sabe que v(n) es la secuencia de entrada, por lo que se tendría: p
x(n) ak x(n k ) Gv(n)
(4.1.25)
k 1
Gv(n) x(n) k 1 ak x(n k ) p
Gv(n) e(n) (4.1.26) N 1
N 1
n0
n 0
G 2 v 2 ( n) e 2 ( n)
112
UPS
Capítulo IV
Ahora, si la excitación de entrada se normaliza para tener energía unidad, se tiene que: N 1
G 2 e 2 ( n) n0
p
G rxx (0) ak rxx (k )
(4.1.27)
2
k 1
En todo este procedimiento se ha descrito el uso de la predicción lineal para determinar adaptativamente los parámetros de los polos y la ganancia del mismo modelo del filtro de solo polos. Aplicando esto en la práctica, debido al carácter no estacionario de las señales de voz, este modelo se aplica a segmentos cortos de tiempo (10 a 20ms) de una señal de voz. Sin embargo esto no impide que se pueda aplicar para una mayor cantidad de una señal de voz, ya que a esta se la puede dividir en segmentos y a veces resulta hasta ventajoso utilizar los parámetros del modelo medidos en los segmentos anteriores para suavizar discontinuidades que podrían existir en los estimados de parámetros de un segmento a otro.
4.1.8. MATRICES ADAPTATIVAS Los filtros adaptativos también pueden usarse sobre múltiples secuencias de datos, como por ejemplo resultantes de matrices de antenas, hidrófonos, sismógrafos, etc. Cada elemento de la matriz de sensores (suponiendo que se los tiene de los nombrados anteriormente) proporciona una secuencia. Si se combinan apropiadamente las señales de los diferentes sensores, es posible cambiar el patrón de directividad de la matriz. Si se toma como ejemplo una matriz de antenas lineales formada por cinco elementos como se muestra en la Figura 4.9 (a), y si se la suma linealmente se tiene que (dando como resultado el patrón de directividad de la antena mostrado en este mismo literal): 5
x(n) xk (n)
(4.1.28)
k 1
Ahora, puede darse el caso en que se reciba una interferencia de una dirección que corresponde a uno de los lóbulos secundarios de la matriz.
113
UPS
Capítulo IV Si a esto se le pondera adecuadamente las secuencias xk(n) antes de
combinarlas, es posible alterar el patrón del lóbulo secundario, tal que la matriz tenga un nulo en la dirección de la interferencia, como se ve en la Fig. 4.9 (b) expuesta a continuación: Lóbulos Secundarios
x1 (n) Lóbulo Principal
x2 (n) Combinar
x3 (n)
Dirección Principal
x4 (n) Int e
x5 (n)
rfe re
nc
ia
(a)
x1 (n)
x2 (n) Combinar
x3 (n)
Dirección Principal
x4 (n) Int e
x5 (n)
rfe re
nc
ia
(b) Fig. 4. 9. Matriz de antenas: (a) Con patrón de antena. (b) Con nulidad en la dirección de interferencia.
Posteriormente se obtiene que: 5
x(n) hk xk (n)
(4.1.29)
k 1
114
UPS
Capítulo IV Donde h(k) son los pesos. Como se menciono anteriormente, se puede
cambiar o dirigir la dirección del lóbulo de la antena principal introduciendo retardos en las salidas antes de combinarlas, es así que a partir de los K sensores se obtiene una señal combinada de la forma: K
x(n) hk xk (n nk )
(4.1.30)
k 1
Donde los nk son un retardo de la muestra nk de la señal x(n). De forma más general, se puede filtrar cada secuencia antes de combinarla, por lo que la secuencia de salida tendrá la forma general de la siguiente manera: K
y ( n ) yk ( n ) k 1
K M 1
y (n) h k (l ) xk (n nk l )
(4.1.31)
k 1 l 0
Donde hk(l) es la respuesta al impulso del filtro para procesar la salida del sensor k, y los nk son los retardos que dirigen el patrón del haz.
4.2.
FILTROS
FIR
ADAPTATIVOS
EN
FORMA
DIRECTA:
ALGORITMO LMS El criterio de mínimos cuadrados lleva a un conjunto de ecuaciones lineales para los coeficientes del filtro, el cual se expresa de la siguiente forma: M 1
h( k ) r k 0
xx
(l k ) rdx (l D)
(4.2.1)
l 0,1, 2,...., M 1
Donde rxx (l ) es la autocorrelación de la secuencia x(n) y rdx (l ) es la correlación cruzada de las secuencias d(n) y x(n). La calidad de los estimados de los coeficientes reales h(k) dependen de la longitud del registro que sirven para estimar rxx (l ) y rdx (l ) . Este puede ser uno de los problemas que hay que tomar en cuenta.
Cuando las características cambian con el tiempo, el método más popular mediante que las que los coeficientes del filtro adaptativo pueden variarse con el tiempo para seguir las características variantes en el tiempo de la señal, consiste en
115
UPS
Capítulo IV
adaptar el filtro recursivamente muestra a muestra, a medida que se recibe una nueva muestra de la señal. Un segundo método resultaría en estimar rxx (l ) y rdx (l ) bloque a bloque, sin intentar mantener la continuidad en los valores de los coeficientes del filtro de unos datos a otro.
4.2.1. CRITERIO DEL ERROR CUADRÁTICO MEDIO MÍNIMO Suponiendo que se dispone de la secuencia de datos (posiblemente complejos) x(n), y con la secuencia de autocorrelación procedentes de un proceso aleatorio estacionario, se tiene que: xx (m) E x(n) x* (n m)
(4.2.2)
Se puede formar un estimado de d(n) pasando x(n) a través de un Filtro FIR de coeficientes h(n), con 0 n M 1 , por lo que la salida del filtro sería: M 1
d ( n) h( k ) x ( n k )
(4.2.3)
k 0
d (n) representa un estimado de d(n). Es así que el error se definiría:
e( n ) d ( n) d ( n) M 1
e( n ) d ( n) h( k ) x ( n k )
(4.2.4)
k 0
El error cuadrático medio como una función de los coeficientes del filtro es: M 1
M 1 M 1
l 0
l 0 k 0
M d2 2 Re h* (l ) dx (l ) h* (l )h(k ) xx (l k )
(4.2.5)
2 Donde d2 E d (n) por definición. Con la minimización de M con
respecto a los coeficientes, se llega al siguiente conjunto de M ecuaciones lineales: M 1
h(k ) k 0
xx
(l k ) dx (l )
(4.2.6)
l 0,1,..., M 1
116
UPS
Capítulo IV Este filtro con los coeficientes obtenidos de 4.2.6 se le conoce como filtro
Wiener, se puede ver que aquí que se utiliza la correlación y autocorrelación cruzada estadísticas. Es así que de esta ecuación, se proporciona los coeficientes del filtro óptimos (Wiener), en lo que respecta al error cuadrático medio. Al expresar 4.2.6, en forma matricial se obtiene que: M hM d
(4.2.7)
Donde hM designa el vector de coeficientes, M es una matriz de Toeplitz MXM (hermitiana), d es un vector de correlación cruzada MX1. El complejo conjugado de hM se designa como hM* , y la transpuesta como hMt . La solución para los coeficientes óptimos del filtro son: hopt M1 d
(4.2.8)
Y el error cuadrático medio resultante de esto es: M 1
M min d2 hopt (k ) dx* (k ) M min
k 0 dH M1 d
(4.2.9)
2 d
donde el exponente H representa la transpuesta conjugada.
4.2.2. EL ALGORITMO LMS Suponiendo que la matriz de autocorrelación M y el vector de correlación cruzada d son conocidos, se entiende que M es una función conocida de los coeficientes h(n), con 0 n M 1 . Los algoritmos para calcular recursivamente los coeficientes del filtro, y por ende para encontrar el mínimo de M , tiene la siguiente forma: 1 hM (n 1) hM (n) (n) S (n) 2 n 0,1,...
(4.2.10)
Donde hM(n) es el vector de coeficientes del filtro en la iteración n, (n) es el tamaño de paso en la iteración n, S(n) es un vector de dirección para la iteración n.
117
UPS
Capítulo IV El vector inicial hM(0), se elige arbitrariamente. Sin embargo el método más
simple para hallar el mínimo M recursivamente, es el basado en una búsqueda de la pendiente descendente máxima. El vector de dirección S(n)= - g(n), donde g(n) es el vector gradiente en la iteración n, en la cual se expresa de la siguiente forma: g ( n)
d M ( n) dhM (n)
g (n) 2 M hM (n) d
(4.2.11)
n 0,1, 2,...
De esta forma se calcula el vector gradiente en cada iteración. Es así que el algoritmo recursivo basado en el método de búsqueda de la pendiente descendente máxima es: 1 hM (n 1) hM (n) (n) S (n) 2
(4.2.12)
Otros algoritmos que proporcionan una convergencia rápida son el algoritmo de gradiente conjugado, en donde los vectores de dirección están dados por: S (n) (n 1)S (n 1) g (n)
(4.2.13)
(n) es una función escalar de los vectores gradientes. Otro algoritmo es el de
Fletcher-Powell, en donde los vectores de dirección están dados por: S (n) H (n) g (n)
(4.2.14)
H(n) es una matriz definida positiva MXM. Obviamente los tres algoritmos difieren de la forma en que se calculan los vectores de dirección. Estos tres algoritmos son apropiados cuando M y d son conocidos, y a pesar de esto, se sabe que no es el caso en las aplicaciones de filtrado adaptativo. Si
no se conoce M y d , se puede sustituir los estimados S (n) de los vectores de dirección por los vectores reales S(n). El vector gradiente expresado anteriormente puede expresarse en función de las condiciones de ortogonalidad, y las condiciones que tendría serían equivalentes a la siguiente ecuación: E e(n) X M* (n) d M hM (n)
(4.2.15)
118
UPS
Capítulo IV Donde XM(n) es el vector de elementos x(n-l), con l=0,1,…,M-1. Por lo que el
vector gradiente es simplemente: g (n) 2E e(n) X M* (n)
(4.2.16)
Un estimado no polarizado del vector gradiente en la iteración n, se obtiene sencillamente a partir de 4.2.16 como:
g (n) 2e(n) X M* (n)
(4.2.17)
Para obtener un algoritmo estocástico de gradiente descendente, se tiene que tomar en cuenta que el tamaño del paso tiene que ser fijo, ya que con este la implementación tanto en hardware como en software se hace más fácil, y también porque con un tamaño fijo de paso es apropiado hacer un seguimiento de los parámetros estadísticos de la señal variante en el tiempo. Es así que el algoritmo quedaría de la siguiente manera: hM (n 1) hM (n) e(n) X M* (n)
(4.2.18)
Donde es el tamaño de paso fijo. Este algoritmo es actualmente conocido como el algoritmo de mínimos cuadrados LMS (least-mean-squares). Y evidentemente se trata de un algoritmo estocástico de gradiente. Este algoritmo LMS es fácil de implementar y se lo ha usado en muchas aplicaciones de filtrado adaptativo.
4.2.3. ALGORITMOS ESTOCÁSTICOS DE GRADIENTE Existen diversos métodos o variantes en el algoritmo LMS y que se han implementado en las aplicaciones de filtrado adaptativo. Una de ellas, y la que se usa comúnmente en la práctica, es la conocida como algoritmo LMS normalizado (NLMS), y está dada por: hM (n 1) hM (n)
X M ( n)
2
e(n) X M* (n)
(4.2.19)
119
UPS
Capítulo IV Si se divide el tamaño de paso por la normal del vector de datos XM(n), el
algoritmo LMS normalizado es equivalente a emplear el tamaño de paso variable de la forma:
( n)
X M ( n)
(4.2.20)
2
Como se ve, el tamaño de paso en cada iteración es inversamente proporcional a la energía en el vector de datos recibido XM(n). Este cambio de escala es ventajoso en las aplicaciones de filtrado adaptativo, donde el rango dinámico de la entrada al filtro es grande.
Sin embargo para esta y para diversas aplicaciones más, puede resultar ventajoso añadir una constante positiva pequeña al denominador de 4.2.20 para evitar la inestabilidad numérica que podrían resultar cuando XM(n) es pequeña. Es así que la nueva versión de este algoritmo LMS según lo antes mencionado, quedaría de la siguiente forma: ( n)
X M ( n)
2
(4.2.21)
Donde es un número pequeño positivo.
4.2.4. PROPIEDADES DEL ALGORITMO LMS Tomando en cuenta las propiedades básicas del algoritmo LMS, sus propiedades de convergencia, su estabilidad y el exceso de ruido (por usar vectores gradientes ruidosos en vez de vectores gradientes reales); el valor esperado es: _
_
h M (n 1) ( I M ) h M (n) d
(4.2.22)
_
Donde h M (n) E hM (n) e I = la matriz identidad. La relación recursiva dada en 4.2.22 se puede representar como un sistema de control de bucle cerrado como se indica en la Fg. 4.10. Según la elección que se tome del parámetro de paso fijo , dependerá mucho la velocidad de convergencia y estabilidad de este sistema. Se de tomar en cuenta que la matriz M es hermitiana.
120
UPS
Capítulo IV Filtro
d
+ + -
g ( n)
H ( z)
_
h M (n 1)
z 1
M hM (n) _
M
h M ( n)
z 1
Fig. 4. 10. Sistema de Control de bucle cerrado que representa a 4.2.22
La convergencia y estabilidad quedan determinadas por la siguiente ecuación homogénea: _0
_0
h M (n 1) ( I ) h M (n)
(4.2.23)
_0
h (k , n) C ( I k ) n u (n) k 0,1, 2,..., M 1
(4.2.24)
_0
Donde h M es el vector transformado (ortogonalizado) y _0
_
h M ( n) U H h M ( n)
d0 U H d
UH
es la matriz modal normalizada de M
es una matriz diagonal con elementos en la diagonal k .
C
es una constante arbitraria
u(n)
es la secuencia al impulso unitario.
(4.2.25)
El rango de valores de asegura la convergencia de la media del vector de coeficientes en el algoritmo LMS y se encuentra representada por: 0
max
2
max
(4.2.26)
es el autovalor máximo de M
121
UPS
Capítulo IV El límite superior sobre max sobre M que es una matriz de autocorrelación
con valores no negativos, lo representa la siguiente ecuación: M 1
max k trace _ M M xx (0)
(4.2.27)
k 0
xx (0) es la potencia de la señal de entrada (Interpretación fácil, a partir de la
señal de entrada). Un límite superior del tamaño de la muestra
2 M xx (0)
La velocidad de convergencia del algoritmo LMS quedará determinada por la disminución del modo correspondiente al autovalor mínimo min . Es así que con 1 max sustituido en 4.2.24, se tiene que: n
h M (k , n) C 1 min u (n) max _0
(4.2.28)
La relación min max determina la velocidad de convergencia. Si el valor de min max es pequeño (mucho menor que la unidad), la velocidad de convergencia es
lenta. Si el valor de min max es próximo a la unidad, la velocidad de convergencia será más rápida. Otra importante características del algoritmo LMS es el ruido que resulta de emplear los estimados de los vectores gradientes, y así que estos dan lugar a fluctuaciones aleatorias en los coeficientes alrededor de sus valores óptimos y llevan a un incremento del error cuadrático medio mínimo (MMSE) en la salida del filtro adaptativo. Por tanto MSE total es M min , donde es el error cuadrático medio en exceso. El MSE total a la salida del filtro adaptativo es: M 1
0 t (n) M min k h0 (k , n) hopt (k ) 2
k 0
(4.2.29)
El error cuadrático medio en exceso se define como el valor esperado del segundo término de 4.2.29: M 1
2 0 k E h0 (k , n) hopt (k ) k 0
(4.2.30)
122
UPS
Capítulo IV
Otra expresión para el error cuadrático en exceso sería: M 1
2 M min k 0
k 2
1 (1 k )2
(4.2.31)
Si se supone que se selecciona de manera que k 1 para todo k, entonces se tiene que:
M M min xx (0) 2
(4.2.32)
La elección de debe basarse en un compromiso entre la convergencia rápida y un error cuadrático medio en exceso pequeño. Ya en la práctica, es deseable tener M min , por lo que:
M min
M xx (0) 1 2
o
(4.2.33)
2 M xx (0)
Sin embargo este es el límite superior que hemos obtenido anteriormente para max . Pero, debe satisfacer el límite superior dado en la anterior ecuación, de caso
contrario, el MSE en exceso causa una degradación en el funcionamiento del filtro adaptativo. El estudio en la convergencia inicial o comportamiento transitorio, indica que el tamaño de paso debe reducirse en proporción directa a la longitud del filtro adaptativo. El límite superior dado en la ecuación 4.2.33 es necesario para garantizar la convergencia del algoritmo LMS de gradiente estocástico. En la práctica normalmente se elige (1 M xx (0)) . Al aplicar esto para una implementación digital del algoritmo LMS, el tamaño de paso puede incluso llegar a ser más crítica. Es importante que el tamaño de paso sea lo suficientemente grande como para llevar los coeficientes del filtro cerca de hopt. Si se desea disminuir el tamaño de forma significativa, es necesario aumentar la precisión de los coeficientes del filtro. Normalmente puede emplearse dieciséis bits de precisión para los coeficientes del filtro. Los doce bits más significativos son utilizados para las operaciones aritméticas en el filtrado de los datos. Los cuatro bits menos significativos son necesarios para proporcionar la precisión necesaria para el proceso de adaptación. El algoritmo LMS es apropiado para seguir los parámetros estadísticos de una señal que varía lentamente en el tiempo. El algoritmo LMS
123
UPS
Capítulo IV
intenta seguir el mínimo móvil M min en el espacio M-dimensional, pero siempre está retrasado debido a su uso de los vectores gradientes estimados., por lo que al denotar esto se puede decir que este algoritmo LMS cae en uno de esos problemas, denominado error de retardo. Y finalmente se puede decir que el error cuadrático medio total ahora se puede expresar como: total M min l
(4.2.34)
donde l designa el MSE debido al retardo.
4.3.
FILTROS FIR ADAPTATIVOS EN FORMA DIRECTA:
ALGORITMO RLS Los Algoritmos de Filtrado Adaptativo de criterio de mínimos cuadrados, al tratar directamente la secuencia x n se obtiene estimados de correlaciones de datos; en cambio los Algoritmos LMS que aunque son bastante simples su convergencia es bastante lenta, especialmente cuando los auto-valores de la matriz de autocorrelación M
se encuentran dispersos, es decir max / min 1, aunque
ajustando el tamaño de paso se podría regular esta velocidad de convergencia.
4.3.1. ALGORITMO RLS Algoritmo recursivo de mínimos cuadrados en la forma directa o RLS (recursive least-squares), se inicia con la configuración de hM 1 0 y PM 1 1/ I M , donde es un número pequeño y positivo, y luego se sigue el
siguiente proceso:
1. Calcular la salida del filtro:
d n X Mt n hM n 1
(4.3.1)
eM n d n d n
(4.3.2)
2. Calcular el error:
3. Calcular el Vector de Ganancia de Kalman:
124
UPS
Capítulo IV
PM n 1 X M* n KM n w X Mt n PM n 1 X M* n
(4.3.3)
4. Actualizar la inversa de la matriz de autocorrelación: PM n
1 PM n 1 K M n X Mt n PM n 1 w
(4.3.4)
5. Actualizar el vector de coeficientes del filtro: PM n
1 PM n 1 K M n X Mt n PM n 1 w
(4.3.5)
El MSE residual es: n
EM min n wn l d l hMt n DM* n 2
(4.3.6)
l 0
Todos estos coeficientes varían en el tiempo de acuerdo con el error eM n multiplicado por el valor de ganancia de Kalman K M n , al ser estos vectores con una dimensión M este método converge rápidamente; los coeficientes del filtro ajustados por el uso del algoritmo LMS se actualizan mediante: hM n hM n 1 X * n eM n
(4.3.7)
es el tamaño del paso que ajusta la velocidad de convergencia de los
coeficientes del filtro.
4.3.2. ALGORITMO DE FACTORIZACIÓN LDU Y DE RAÍZ CUADRADA Para evitar la sensibilidad al ruido de redondeo al actualizar PM n de los algoritmos recursivos de mínimos cuadrados se debe realizar una descomposición de la matriz de correlación RM n o de su inversa PM n , como por ejemplo la descomposición LDU (Lower – triangular / diagonal / upper - triangular, triangular inferior / diagonal / triangular superior) descrita como:
PM n LM n D M n LHM n
(4.3.8)
Donde LM n es una matriz triangular inferior con los elementos lik , D M n es una matriz diagonal con elementos k y LHM n es una matriz triangular superior; se hacen iguales a la unidad los elementos lii 1 de la diagonal de LM n y luego en
125
UPS
Capítulo IV
lugar de calcular PM n de forma recursiva se actualiza directamente los valores de LM n y D M n , de la siguiente manera: LM n D M n LHM n
1 1 LM n 1 D M n 1 VM n 1VMH n 1 LHM n 1 (4.3.9) w w M n
Donde:
VM n 1 DM n 1 LHM n 1 X M* n
(4.3.10)
Mediante una descomposición LDU se puede describir la matriz hermitiana que se encuentra entre corchetes:
M n 1 D M n 1 L MH n 1 D M n 1 L
1
w M n
VM n 1VMH n 1 (4.3.11)
M n 1 y D M n 1 con el siguiente conjunto de Se puede determinar L ecuaciones lineales: j
l k 1
Donde
d k
ik
d k l *jk pij , 1 j i 1 i 2
(4.3.12)
M n 1 , l son los elementos de son los elementos de D ik
M n 1 , p y corresponden a la matriz de la parte derecha de la ecuación 4.3.11. L ij Estos elementos se determinan de la siguiente manera: dl pll j 1
lij d j pij lik d k l *jk , 1 j i 1, 2 i M
(4.3.13)
k 1
i 1
di pii lik d k , 2 i M 2
k 1
Los efectos de redondeo se reducen ya que las ecuaciones de actualización en el tiempo dependen directamente del vector de datos X M n y no de su cuadrado. Este tipo de algoritmos RLS que se obtienen a partir de la descomposición LDU de RM n o de PM n se conocen como algoritmos rápidos de raíz cuadrada, a
continuación se muestra un ejemplo de este tipo de algoritmos:
126
UPS
Capítulo IV Tabla 4. 1. Forma LDU del Algoritmo RLS de raíz cuadrada de Complejidad
M2
For j = 1,…,2,…,M do
f j x*j n end loop j For j = 1,…,2,…,M - 1 do For i = j + 1,…, j + 2,…,M do
f j f j lij n 1 fi end loop j For j = 1,…,2,…,M do
d j n d j n 1 / w v j d j n f j end loop j
M 1 vM f M* dM n d M n / M For j = M – 1, M – 2 …,1 do
k j vj
j j 1 v j f j* j f j / j 1 d j n d j n j 1 / 1 For j = M,M – 1,M – 2 …, j + 1 do
lij n lij n 1 k i j *
k i k i v j lij* n 1
Down to j = 2
end loop i end loop j
K M n k 1, k 2, ..., k M
t
eM n d n d n hM n hM n 1 eM n / 1 K M n
127
UPS
Capítulo IV
4.3.3. ALGORITMOS RLS RÁPIDOS Los algoritmos RLS en la forma directa y los de raíz cuadrada tienen una complejidad de M2, por lo que se han estudiado diferentes métodos para simplificarlo, esto se logra evitando las multiplicaciones de matrices en el cálculo del vector de ganancia de Kalman K M n . Estos algoritmos se verán y detallarán más adelante.
4.3.4. PROPIEDADES DE LOS ALGORITMOS RLS PARA LA FORMA DIRECTA Denotando una importante característica del algoritmo RLS sobre el algoritmo LMS es su rápida velocidad de convergencia. Como se muestra en la Fig. 4.11, se puede ver la velocidad de convergencia de los algoritmos LMS y RLS en la forma directa en el caso especifico para un ecualizador de canal FIR adaptativo de longitud M=11. El tamaño de paso para los algoritmos LMS se ha seleccionado como 0.02 .
Fig. 4. 11. Velocidad de convergencia de los algoritmos RLS y LMS para un ecualizado de canal FIR.
El algoritmo RLS converge en menos de 70 iteraciones mientras que el algoritmo LMS no lo hace sino hasta las 600 iteraciones. Esta característica de los algoritmos RLS es muy importante en aplicaciones en las que los parámetros estadísticos de la señal varían con el tiempo rápidamente. Puede darse el hecho en que parte de la señal transmitida se pierda por un momento en el tiempo y posteriormente salga de ese desvanecimiento. Ante este tipo de situaciones el algoritmo LMS es más lento en adaptarse a las nuevas
128
UPS
Capítulo IV
características del canal, lo que no sucede lo mismo con el algoritmo RLS que se adapta lo suficientemente rápido para seguir dichas variaciones o cambios.
Sin embargo los algoritmos RLS presentan dos importantes desventajas:
1. Es la complejidad en su cálculo. Los algoritmos de raíz cuadrada tienen una complejidad proporcional a M2. Los algoritmos “RLS rápidos” en cambio tienen una complejidad de cálculo proporcional a M, siendo el factor de proporcionalidad de a cuatro a cinco veces el del algoritmo LMS. 2. Es su sensibilidad a los errores de redondeo que se acumulan como resultado de los cálculos recursivos, por lo que esto, en algunos casos, hacen que estos algoritmos sean inestables. El algoritmo “RLS Rápido” funciona bien hasta con 11 bits para duraciones cortas del orden de 500 iteraciones. Para un número mayor de iteraciones, el algoritmo se vuelve inestable debido a la acumulación de errores de redondeo, sin embargo a pesar de esto se han propuesto varios métodos para prevenir que esto suceda.
El algoritmo LMS es bastante robusto en lo que respecta al ruido de redondeo y a pesar de que no se produce un fallo irremediable, la degradación en el funcionamiento del algoritmo por debajo de los 12 bits es evidente.
4.4.
FILTROS ADAPTATIVOS EN CELOSÍA-ESCALERA Este nuevo tipo de algoritmos de filtrado adaptativo en celosía-escalera
basados en el método de mínimos cuadrados, nos brindan robustez y eficiencia en los cálculos de los errores de redondeo; y de estos se derivan los algoritmos RLS rápidos.
129
UPS
Capítulo IV
4.4.1. ALGORITMO RECURSIVOS DE MÍNIMOS CUADRADOS EN CELOSÍA-ESCALERA Las estructuras FIR en celosía-escalera descritas por los algoritmos basados en mínimos cuadrados recursivos, ya que si existiesen variaciones en su número de secciones, no se producen cambios en los coeficientes de reflexión. Si observamos la señal x n l , l 1, 2,..., m y considerando la predicción lineal de x n ; el error de predicción directo para un predictor de orden m : f m l , n x l amt n X m l 1
(4.4.1)
Donde amt n es un vector formado por los coeficientes de predicción directos:
amt n am 1, n am 2, n am m, n
(4.4.2)
X m l 1 el vector de datos:
X mt l 1 x l 1 x l 2 x l m
(4.4.3)
Las ecuaciones que definen a los predictores de mínimos cuadrados directo e inverso orden son:
Rm n Vm n bm n Om H Eb n V n v n 1 m m Donde el valor mínimo E
b m
n , designado por
(4.4.4)
Emb n es:
n
Emb n wnl x l m bmt n X m l x* l m
(4.4.5)
l 0
Su magnitud escalar: n
v n wn l x l m
2
l 0
n
Vm n w x l m X l 0
n l
* m
l
(4.4.6)
Y: n
Rm1 n wnl X m* 1 l X mt 1 l
(4.4.7)
l 0
130
UPS
Capítulo IV
Entonces: Rm n bm n Vm n
g m1 (n)
z 1
(4.4.8)
g m ( n)
K mb n 1
K mf n 1
f m 1 (n)
f m ( n)
(a)
g 0 ( n)
x ( n) f 0 ( n)
g1 (n) Etapa 1
f1 (n)
g 2 ( n) Etapa 2
g M ( n)
Etapa M
Etapa 3
f 2 ( n)
f M ( n)
(b)
Fig. 4. 12. Filtros en celosía para el algoritmo de mínimos cuadrados
Recursiones de actualización de Orden. El Filtro en celosía se especifica mediante las ecuaciones que muestran los errores directos e indirectos f m n, n 1 f m n y gm n, n 1 gm n , respectivamente:
f m 1 n f m n
km 1 n 1 g m n 1 Emb n 2
(4.4.9)
km* 1 n 1 g m 1 n g m n 1 f fm n Em n 1 Sus coeficientes de reflexión son:
K mf n K
b m
km n Emb 1 n 1
(4.4.10)
km* n n f Em 1 n
Las ecuaciones de actualización temporal para E0f n y E0b n son las condiciones iniciales para las actualizaciones de orden:
f0 n g0 n x n n
E0f n E0b n wn l x l wE0f n 1 x n 2
2
(4.4.11)
l 0
131
UPS
Capítulo IV
Recursiones de actualización temporal. Para que un Filtro en celosía sea adaptativo se debe determinar una ecuación temporal de actualización temporal para km n :
km1 n wkm1 n 1
w
w m n 1
f m n g m* n 1
(4.4.12)
Se puede definir a la variable:
m n
w
(4.4.13)
w m n 1
Se puede definir a la variable:
m n
w
(4.4.14)
w m n 1
m n es un valor real comprendido entre 0 m n 1 por lo que tenemos: km1 n wkm1 n 1 m n 1 f m n gm* n 1
(4.4.15)
Actualización del orden para m n . Se puede actualizar directamente a m n para cada valor de m y n, aunque si se utiliza una ecuación de actualización de orden se obtendría una mayor eficiencia:
m1 n m n
m2 n g m n
2
Emb n
(4.4.16)
Las ecuaciones de celosía por mínimos cuadrados de actualización de orden y de actualización temporal; las ecuaciones básicas son las de los errores residuales o de los errores directos e inversos, para la ecuación temporal para km n y la ecuación de orden para el parámetro m n :
Emf 1 Emb 1 Emb 2 0 f m 1 g m 1 km 1 0
(4.4.17)
m 1 1, 1 1 1 n 1 1
132
UPS
Capítulo IV
d ( n)
e1 (n)
e2 (n)
0 n 1
E n 1 b 0
g 0 ( n)
x ( n)
Etapa 1
f 0 ( n)
e3 (n)
E n 1 b 1
Etapa 2
f1 (n)
g 2 ( n)
f 2 ( n)
eM 1 (n)
M 2 n 1
2 n 1 E2b n 1
1 n 1
g1 (n)
EMb 2 n 1
g M 2 ( n)
d (n)
eM (n)
M 1 n 1
EMb 1 n 1
g M 1 (n) Etapa M-1 f M 1 (n)
f M 2 ( n)
Fig. 4. 13. Filtro adaptativo RLS en celosía-escalera
Estimación de procesos conjuntos. Basándose en la celosía se puede tener las estimaciones por mínimos cuadrados de la señal deseada d n :
d n hmt 1 n 1 X m1 n
(4.4.18)
d n es una suma ponderada lineal de los residuales inversos g k n :
n 1 d n kb gk n k 0 Ek n 1 M 1
(4.4.19)
Tabla 4. 2. Forma a priori del Algoritmo RLS en celosía-escalera
Predictor en celosía : con n = 1 y su cálculo de actualizaciones de orden para
m 0,1,..., M 2
km1 n 1 wkm1 n 2 m n 2 f m n 1 gm* n 2
K mf 1 n 1
km1 n 1 Emb n 2
133
UPS
Capítulo IV
K mb1 n 1
km* 1 n 1 Emf n 1
f m1 n f m n K mf 1 n 1 gm n 1 gm1 n gm n 1 K mb1 n 1 f m n 1 f m 1
n 1 E n 1
b m 1
n 1 E n 2
E
E
f m
b m
m1 n 1 m n 1
km1 n 1
2
km1 n 1
2
Emb n 2
Emf n 1
m2 n 1 g m n 1
2
Emb n 1
Filtro en escalera: se inicia con n = 1 y su cálculo de actualizaciones de orden para m = 1,2,…,M – 1:
m n 1 w m n 2 m n 1 gm* n 1 em n 1 m n 1
m n 1 Emb n 1
em1 n em n m n 1 gm n Inicialización:
0 n 1 1, e0 n d n , f0 n g0 n x n E0f n E0b n wE0f n 1 x n
2
m 1 1, km 1 0 E0b 1 E0f 0 0; m 1 0
Algoritmos RLS en celosía modificados.
Tabla 4. 3. Actualización directa del algoritmo RLS a priori en celosía-escalera
Predictor en celosía : se inicia en n = 1 y su calculan las actualizaciones de orden para m = 0,1,…,M – 2
K
f m 1
n 1 K
f m 1
n 2
m n 2 f m1 n 1 g m* n 2 Emb n 2
134
UPS
Capítulo IV
K mb1 n K mb1 n 2
m n 2 f m* n 1 g m1 n 1 Emf n 1
f m1 n f m n + K mf 1 n 1 gm n 1 gm1 n gm n 1+ K mb1 n 1 f m n Emf 1 n 1 wEmf 1 n 2 m1 n 2 f m1 n 1
m1 n 1 m n 1
m2 n 1 g m n 1
2
2
Emb n 1
Emb 1 n 1 wEmb 1 n 2 m1 n 1 g m1 n 1
2
Filtro en escalera: se inicia con n = 1 y su cálculo de actualizaciones de orden para m = 1,2,…,M – 1:
m n 1 m n 2
m n 1 g m* n 1 em1 n 1 Emb n 1
em n em n m n 1 gm n Inicialización:
o n 1 1; eo n d n ; fo n go n x n E0f n E0b n wE0f n 1 x n
2
m 1 K m f 1 K mb 1 0 Emb 1 Emf 0 0
Se puede implementar algoritmos numéricamente más robustos en aritmética de punto flotante, realizando modificaciones en algunas ecuaciones, eso sí con el debido cuidado para que el carácter óptimo del filtro no se viese alterado, esto se logra por medio de relaciones básicas, como las que se describen a continuación:
Errores a priori:
f m n, n 1 f m n x n amt n 1 X m n 1 g m n, n 1 g m n x n m bmt n 1 X m n
(4.4.20)
135
UPS
Capítulo IV
Errores a posteriori:
f m n, n x n amt n X m n 1
(4.4.21)
g m n, n x n m bmt n 1 X m n
Relaciones básicas entre los Errores a priori y a posteriori:
f m n, n n 1 f m n
(4.4.22)
g m n, n n g m n
Ecuaciones de actualización temporal para los errores de mínimos cuadrados directo e inverso, respectivamente:
Emf n wEmf n 1 m n f m n
2
Emb n wEmb n 1 m n g m n
2
(4.4.23)
Ecuación de actualización del orden para el vector de ganancia de Kalman, utilizada en los algoritmos de Filtros FIR rápidos:
K m1 n
Cm1 n cmm n bm1 n 1 1 cmm n g m1 n
(4.4.24)
Ecuación de actualización temporal para el escalar: f m*1 n, n f m 1 n 1 1 cmm n g m 1 n m1 n m1 n 1 1 cmm n g m 1 n
(4.4.25)
Para la actualización de los coeficientes de reflexión del filtro en celosía y su parte que corresponde a la escalera, se puede utilizar dos métodos: método convencional (indirecto) y el método directo. Para el primer método tenemos:
K mf 1 n
km1 n Emb n 1
(4.4.26)
km* 1 n Emf n
(4.4.27)
K mb1 n
m n
m n
Emb n
(4.4.28)
136
UPS
Capítulo IV
K
f m 1
n K K
b m 1
f m 1
n 1
n K
b m 1
m n 1 f m1 n g m* n 1 Emb n 1
n 1
m n f m* n g m1 n Emf n
(4.4.29)
(4.4.30)
Y su escalera de ganancia:
m n m n 1
m n g m* n em1 n Emb n 1
(4.4.31)
Los coeficientes de reflexión de la etapa en celosía se actualizan mediante la realimentación de loe errores residuales directo e inverso, respectivamente; y em1 n se realimenta para la actualización de la ganancia de la escalera m n .
Algoritmos RLS rápidos. Estos algoritmos recuden su complejidad a factores que están en el rango de 7M a 10M, actualizando directamente el vector de ganancia de Kalman: K M n
1 PM n 1 X M* n w
(4.4.32)
El algoritmo de FAEST o Fast a Posteriori Error Sequential Technique, posee una complejidad de 7M, pero presenta problemas de inestabilidad y es bastante sensible al ruido de redondeo, para tratar de compensar estos problemas Slock y Kailath propusieron algunas modificaciones que aportaron la estabilidad que este algoritmo necesitaba adicionándole también una complejidad de cálculo de 8M a 9M, y utiliza un vector de ganancia de Kalman alternativo en lugar de utilizar directamente un vector de ganancia de Kalman como lo hace el algoritmo RLS rápido. El algoritmo RLS rápido a través del filtro FIR utilizando el vector de coeficientes de predicción inversa bm1 n 1 para el cálculo del error de predicción inverso a priori g m1 n ; mientras que para obtener los mismos resultados el algoritmo FAEST se basa en un cálculo escalar, donde el último elemento del vector de ganancia alternativa c MM n es igual a EMb 1 n g M 1 n .
137
UPS
Capítulo IV Tabla 4. 4. Algoritmo FAEST
f M 1 n x n aMt 1 n 1 X M 1 n 1
f M 1 n, n
f M 1 n 1
M 1 n 1
aM 1 n aM 1 n 1 K M 1 n 1 f M 1 n, n EMf 1 n wEMf 1 n 1 f M 1 n 1 f M* 1 n, n
0 C M 1 n 1 f M* 1 n K M n a f cMM n K M 1 n 1 wEM 1 n 1 M 1 n 1 g M 1 n wEMb 1 n 1 c MM n *
K M 1 n C M 1 n bM 1 n 1 c MM n
M n M 1 n 1
f M 1 n
2
wEMf 1 n 1
M 1 n M n gM 1 n c MM n g M 1 n, n
g M 1 n
M 1 n
EMb 1 n wEMb 1 n 1 g M 1 n g M 1 n, n *
bM 1 n bM 1 n 1 K M 1 n g M 1 n, n eM n, n d n hMt n 1 X M n
e M n, n
eM n
M n
hM n hM n 1 K M n eM n, n Inicialización: se deben poner todos los vectores a cero
EMf 1 1 EMb 1 1 0
M 1 1 1
Es decir utilizando cualquiera de los dos algoritmos en aritmética de precisión finita, que algebraicamente son similares, los resultados difieren muy poco.
M 1 n 1 K M 1 n X M 1 n t
(4.4.33)
138
UPS
Capítulo IV f
s
A partir de las magnitudes escalares resultan los valores M 1 n y M 1 n ; mientras que el último elemento de K M n es: g M 1 n c MM n wEMb 1 n 1 f
f
(4.4.34)
Estas dos magnitudes de cada una de tres parejas g M f 1 n , g M s 1 n , f s M f 1 n , M s 1 n y c MM n , c MM n son algebraicamente equivalentes, por lo
que se los pueden combinar linealmente, de la forma k 1 k s
f
donde es
cualquiera de los tres parámetros antes descritos, para ser utilizados en otros algoritmos como por ejemplo en el algoritmo RLS rápidos estandarizado, que emplea constantes ki , i 1, 2,...,5 para formar cinco combinaciones lineales de las tres anteriores magnitudes. Tabla 4. 5. Algoritmo RLS rápido estandarizado y simplificado
f M 1 n x n aMt 1 n 1 X M 1 n 1 f M 1 n, n
f M 1 n
M 1 n 1
aM 1 n aM 1 n 1 K M 1 n 1 f M 1 n, n
cM 1 n
f M* 1 n wEMf 1 n 1
C M 1 n 0 f M* 1 n 1 K M n f c MM n K M 1 n 1 wEM 1 n 1 aM 1 n 1 g M f 1 n x n M 1 bMt 1 n 1 X M 1 n g M s 1 n wEMb 1 n 1 c MM n *
g Mi 1 n ki g M f 1 n 1 ki g M s 1 n , i 1, 2 K M 1 n C M 1 n bM 1 n 1 c MM n
M n M 1 n 1 c M 1 n f M 1 n
M 1 n M n g M f 1 n c MM n
139
UPS
Capítulo IV
EMf 1 n wEMf 1 n 1 f M 1 n f M* 1 n, n
g M 1 n, n i
g Mi 1 n i
M 1 n
, i 1, 2
bM 1 n bM 1 n 1 K M 1 n g M11 n, n
EMb 1 n wEMb 1 n 1 g M 21 n g M 2*1 n, n
eM n d n hMt n 1 X M n eM n, n
eM n
M n
hM n hM n 1 K M n eM 1 n, n
Luego de varias pruebas mediante computadora se determino que los mejores valores de ki son k1 1.5, k2 2.5, k3 1, k4 0 y k5 1. Con ki 0 ó 1 solo se necesita calcular una de las combinaciones lineales. El algoritmo RLS rápido estandarizado posee una considerable estabilidad y una complejidad de cálculo de 8M si no se utiliza M 1 n ; además su funcionamiento depende de una apropiada f
inicialización en donde podemos utilizar g M 1 n en lugar de g M 1 n , ó una f
s
combinación lineal de estos.
4.4.2. OTROS ALGORITMOS EN CELOSÍA Se puede obtener el algoritmo RLS en celosía de raíz cuadrada o de ángulo y potencia, normalizando los errores de la predicción directa e inversa a través de la división de los errores entre multiplicando por
m n 1 y
Emf n
y
Emb n respectivamente, y luego
m n respectivamente; este nuevo algoritmo
resultante es mucho más compacto, aunque más complejo en cuanto a cálculos. Se puede disminuir la complejidad mediante la utilización de procesadores CORDIC, que en N ciclos de reloj calculan una raíz cuadrada y donde N es el número de bits de la longitud de palabra de la computadora.
140
UPS
Capítulo IV El algoritmo de gradiente-celosía tiene una complejidad de cálculo menor
aunque su velocidad de convergencia es mayor; donde cada etapa del filtro en celosía se caracteriza por las relaciones entrada-salida:
f m (n) f m1 (n) km (n) g m1 n 1
(4.4.35)
g m (n) g m1 n 1 km* (n) f m1 n
Donde km (n) es el coeficiente de reflexión de la etapa de la celosía, mientras que f m (n) y g m (n) son los residuales directos e inversos. Este filtro en celosía tiene la misma forma que el algoritmo de Levinson-Durbin, con la diferencia que km (n) puede variar con el tiempo de modo que el filtro en celosía se adapte a las variaciones temporales de los parámetros estadísticos de
la señal; mediante el
método de mínimos cuadrados se pueden optimizar los coeficientes de reflexión
km (n) : 2 t 0 wn l f m1 l g m* 1 l 1 n
k m ( n)
n t 0
w
n l
f l 2 g l 12 m 1 m1
, m 1, 2,..., M 1
(4.4.36)
Estos coeficientes de calculan y actualizan recursivamente en el tiempo mediante un algoritmo de tipo LMS, empleando el criterio de error cuadrático medio.
4.4.3. PROPIEDADES DE LOS ALGORITMOS EN CELOSÍA-ESCALERA Velocidad de Convergencia. Tanto los algoritmos RLS para filtros en celosía-escalera como las estructuras de Filtros FIR RLS en forma directa, al estar formados por estructuras óptimas ya que en ellos se aplican mínimos cuadrados por lo que convergen a una misma velocidad, pero menor a los algoritmos de gradiente en celosía aunque utiliza el doble de iteraciones que el algoritmo óptimo RLS en celosía. La velocidad de convergencia de las estructuras en celosía no dependen de la dispersión del autovalor de la matriz de correlación. Requisitos de Cálculo. Los algoritmos RLS en poseen una complejidad computacional de cálculo proporcional a M , mientras que la de los algoritmos RLS de raíz cuadrada es de M 2 , pero los algoritmos rápidos en forma directa que se derivan de los algoritmos en celosía tienen una complejidad computacional de M menos eficientes que los algoritmos en celosía-escalera. Los algoritmos LMS requieren menos cálculos, pero los más eficientes son los algoritmos RLS rápidos,
141
UPS
Capítulo IV
seguidos los algoritmos de gradiente en celosía, luego los algoritmos RLS en celosía
Número de multiplicaciones y divisiones complejas
y finalmente los algoritmos de raíz cuadrada.
700 Forma directa del algoritmo RLS de raíz cuadrada
600
500
400
Algoritmo RLS en celosía - escalera
300
Algoritmo de gradiente en celosía - escalera
200
Algoritmo LMS rápido
100 Algoritmo LMS
0
M 5
10
15
20
25
M Longitud del Filtro Fig. 4. 14. Complejidad de Cálculos para los Algoritmos de Filtros Adaptativos
Propiedades Numéricas. Los algoritmos RLS son los más robustos y numéricamente estables, por lo que el error de estimación de salida del procedimiento de cálculo está limitado cuando se aplica una señal de error limitada a la entrada; su precisión numérica es relativamente mejor que la de los algoritmos LMS y RLS para Filtros FIR en forma directa. Además este tipo de algoritmos tiene un alto rendimiento ya que sus coeficientes de reflexión y la ganancia de la escalera se actualizan directamente con la realimentación del error del algoritmo RLS en celosía, por lo que es más robusto ante errores de redondeo. El proceso en dos pasos para obtener los coeficientes de reflexión por el algoritmo RLS en celosía convencional, no es tan preciso, ya que los errores generados en etapas anteriores se propagan hacia las siguientes etapas; se puede incrementar su rendimiento al incrementar también el intervalo de observación, aunque se pueda incrementar su error de redondeo. En el algoritmo de gradiente en celosía, los coeficientes de reflexión y las ganancias de escalera de igual manera se actualizan directamente, y su precisión numérica es comparable a la del algoritmo RLS en celosía.
142
UPS
Capítulo IV
Consideraciones de Implementación. La estructura del Filtro en celosía es modular permite canalizar datos, los algoritmos en celosía y gradientes son de manera particular adecuados para su implementación en VLSI; debido a su apropiada estabilidad, rápida convergencia y conveniente estabilidad numérica.
143
UPS
Capítulo V
CAPÍTULO V MODELACIÓN MATEMÁTICA Y SIMULACIÓN DEL NUEVO MODELO HIBRIDO ADAPTATIVO LINEAL ÓPTIMO
144
UPS
Capítulo V
CAPÍTULO V MODELACIÓN MATEMÁTICA Y SIMULACIÓN DEL NUEVO MODELO HIBRIDO ADAPTATIVO LINEAL ÓPTIMO En este capítulo se aplicara lo antes visto y analizado, aplicando los conceptos y adaptándolos al programa que se tiene como objetivo para la construcción del Filtro Digital Híbrido Adaptativo. Se presentara también un exhaustivo y completo análisis matemático acerca del desarrollo de este filtro así como también los resultados y comparaciones de lo analizado con lo simulado..
5.1.
PLANTEAMIENTO DEL NUEVO MODELO DE ESTUDIO
Para poder comprender el funcionamiento del Filtro Digital, se lo ha descompuesto en partes y se lo ha analizado a cada una de estas. Combinación del Filtro con un Sistema Adaptativo
Xk Filtro Adaptivo
Retraso
Z M
Hk
Yk
Ek
Fig. 5. 1. Sistema Adaptativo o Predictor
Xk Yk k ésimo elemento en una serie de t iempo Ek
Usualmente estas series de tiempo pueden asumirse para ser obtenidas por el muestreo continuo de señales. Así X k X kT , T Paso del tiempo entre el intervalo de muestras
Z M , donde M son los pasos en el tiempo, es por esto que la salida de este bloque se denota X k M .
H k símbolo que representa la función de transferencia en un proceso adaptativo
145
UPS
Capítulo V El índice k indica que la función de transferencia H posiblemente cambie por cada muestra. Es ajustada para mantener el valor promedio de la raíz de este error tan pequeño como sea posible.
Combinación Lineal Adaptativa El combinador lineal adaptativo, o filtro adaptativo no recursivo es fundamental para el procesamiento adaptativo de la señal, y este es el único y más importante elemento en el aprendizaje de los sistemas y los procesos adaptativos en general. Un diagrama de la forma general de la combinación lineal adaptativa se muestra en la siguiente figura:
Vector de la Señal de Entrada
X 0k 1
X 1k
Vectores de Taps
a0k a1k
Yk
Señal de Salida
X 2k
a2k
Fig. 5. 2. Configuración de un Filtro con arreglo lineal
El procedimiento para ajustar o adaptar los taps es llamado proceso o ganancia de adaptación. Se lo denomina “lineal”
porque la configuración de
arreglos en la salida de los taps es una combinación lineal de los componentes de entrada. Aunque su salida ya no es una función lineal de la entrada
Señal de Entrada y Vectores de Taps Existen dos tipos de entradas, las simples y las múltiples, representadas de la siguiente manera:
Entradas Múltiples (sus elementos son tomados de la k-ésima muestra en el tiempo):
X k X 0k X1k X Lk
(5.1.1)
146
UPS
Capítulo V
Entrada Simple (muestras secuenciales, regresando en el tiempo a través de las muestras en la secuencia de datos):
X k X k X k 1 X k L
(5.1.2)
Donde: T = Transpuesta k = es usado como un índice de tiempo
En el caso de la entrada simple, el proceso adaptativo puede ser implementado en un Combinador Adaptativo Lineal, y una unidad de retraso en los elementos.
Xk
Z 1
a0k
X k 1
Z 1
X k 2
a1k
Z 1
a2k
aLk
Yk
Fig. 5. 3. Filtro Adaptativo Transversal
La notación para la relación Entrada – Salida es: L
Entrada Simple:
Yk alk X k l
(5.1.3)
l 0 L
Múltiples Entradas:
Yk alk X lk
(5.1.4)
l 0
En la ecuación (5.1.4) X 0 k 1 y a0k es el tap llamado “bias”. El vector de tap correspondiente para (5.1.1) y (5.1.2) es: ak a0 k a1k aLk
T
Yk X kT ak akT X k
(5.1.5)
Respuesta Deseada y Error Como se había dicho el ajuste del vector de taps en un sistema de lazo abierto no depende de las propiedades de la salida, sino de la entrada y sus propiedades. En
147
UPS
Capítulo V
los sistemas de lazo cerrado, el vector de taps depende de la señal de salida así como de otros datos; para los combinadores lineales adaptativos se incluirá una “respuesta deseada” o “señal de entrenamiento”
La función de desarrollo Tenemos que:
Ek dk Yk
(5.1.6)
Ek dk X kT a dk akT X k
(5.1.7)
El Error Cuadrático Medio:
X 02k X X T R E X k X k E 1k 0 k X Lk X 0 k
X 0 k X 1k 2 X Lk X Lk X 1k
X 0 k X 2 k X 0 k X Lk X 1k X 2 k X 1k X Lk 2 X Lk X 2 k X Lk
(5.1.8)
R es la Matriz de Correlación de Entrada; mientras que P es el vector columna y viene definido por: P E dk X k E dk X 0k
dk X 1k dk X Lk
T
(5.1.9)
Este vector e s la configuración de la correlación transversal entre la respuesta deseada y los componentes de entrada; en la forma de entrada múltiple X k fue usada en R y P . Por lo que el Error cuadrático medio en función de R y P está definido por: MSE E Ek 2 E d k 2 aT Ra 2PT a
(5.1.10)
Erros Cuadrático Medio es una función cuadrática de los componentes del vector de taps a, cuando los componentes de entrada y respuesta deseada son variables estocásticas estacionarias.
Gradiente y el Mínimo Erros Cuadrático Medio Mediante la gradiente el vector de taps busca el mínimo de la superficie de rendimiento:
148
UPS
Capítulo V
E a a0
T
2 Ra 2 P a1 aL
(5.1.11)
Donde: aL Son los taps por estage. Para obtener el Mínimo Erros Cuadrático Medio el vector de taps es configurado como el valor óptimo de a* donde la gradiente es 0:
0 2Ra* 2P
(5.1.12)
Asumiendo que R es a veces no singular, a* es llamado vector de Taps de Wiener:
a* R1P
(5.1.13) T
min E dk2 a*T Ra* 2PT a* E d k2 R 1P RR 1P 2PT a*
(5.1.14)
Hay que tomar en cuenta tres reglas principales: 1.
Identificar que para cualquier matriz cuadrada que AA1 I
2.
La transpuesta del producto de una matriz AB BT AT
3.
Simetría de la matriz de correlación de ingreso que es RT R R 1 R 1
T
T
Usando estas reglas tenemos:
min E dk2 PT R 1P E dk2 PT a*
(5.1.15)
Empezando con la configuración conocida, se presenta a continuación un ejemplo de cómo responde el Filtro a una cierta señal de ingreso, de aquí se obtendrá variables de respuesta que serán usadas para la comparación en la creación del nuevo Filtro Digital, además que estos resultados también servirán para continuar con el análisis de otra configuración de aquel Filtro.
Se da como señal de ingreso x(n), a la que también se simula una adhesión de ruido a esta representada por r(n). A continuación el esquema del filtro con la configuración que se seguirá para el análisis.
149
UPS
Capítulo V
r ( n)
x ( n)
z 1
x n 1
x n 2
z 1
2
1
x n
e( n ) Fig. 5. 4. Esquema de la Configuración del Filtro con algoritmo LMS
Forma Directa del Predictor Lineal
2 n x(n) sin rn N
E rn2 0,001 N 16
0,1 rn Señal randómica adherida a la señal de ingreso
Pr omedio de la potencia de la señal randómica N Cantidad de muestras por ciclo Cons tan te de " ganancia ", regula la velocidad y la estabilidad de adaptación
Desarrollando el Algoritmo LMS. Como se tiene solo 2 taps ( ∂1 y ∂2), entonces la matriz que se aplicará para hallar R (Matriz de correlación de entrada) será:
X X R E X n X E n1 n1 X n2 X n1 T n
X n1 X n2 X n21 E X n2 X n2 X n2 X n1
X n1 X n2 X n22
(5.1.15)
150
UPS
Capítulo V
Por métodos matemáticos: El producto esperado entre las funciones seno puede ser encontrado por cualquier producto de las funciones sinusoides por el promedio de uno o más períodos del producto. Es así que:
*E X
2 n 1
1 N
*E X
2 n 2
1 N
2 n 1 sen 0,5 N n 1 r 0 2
N
2 n 2 sen 0,5 N n 1 2
N
2 n 1 2 n 2 1 N 2 *E X n1 X n2 sen sen 0,5cos r 1 N n1 N N N EXn
X n2
1 N 2 n 2 n 2 4 sin 0,5cos sin N n1 N N N
r 2
Reemplazando los valores:
0,51 0, 4619 R 0, 4619 0,51
P E dn X n1 dn X n2
T
NOTA: El valor esperado dn se asume que es igual a la señal de la entrada, dn = Xn
P E X n X n1
X n X n2
T
P 0, 4619 0,353
T
El vector de peso de Wiener o ∂* para encontrar el mínimo valor en donde converge el sistema es:
* R 1 P 0,51 0, 4619 R P 0, 4619 0,51 *
1
1
0, 461
1,5463 T 0,353 0, 7073
151
UPS
Capítulo V Es así que con esos resultado encontramos la Función de Desarrollo o El error
mínimo cuadrático, el cuál se presenta de la siguiente manera:
min E d K2 PT W * min E X n2 PT * T * 4 1 N 2* 1,5463 0,51 0, 461 0,3535 0, 0458 0, 7073
2 min 0,51 0,5cos N
min
0,5cos
(5.1.17)
Expresada como función 4 min 0,35365*cos N
2 0, 77315 N
0,51
A partir de este modelo se comparará los resultados con el Filtro Digital creado ahora y que se verá mas detallado a continuación en los siguientes puntos de análisis.
5.2. MODELACIÓN MATEMÁTICA Para la modelación matemática se ha creado dos estructuras de filtro, la cual la primera es una versión mejorada del la LMS, que tiene como resultado mejoras en el tiempo de conversión hacia los pesos o resultado final de los taps para la estabilización del sistema del filtro, y de igual manera tiene mejoras en el tiempo en cuanto a la curva de aprendizaje, es decir, la curva demuestra que tiende este sistema a aprender más rápido que el LMS, es decir, que en menos iteraciones y menor tiempo, logra la estabilidad con resultados mejores a su salida. Esto se verá en puntos posteriores, en las que se detallará explicación conjuntamente con las graficas que se obtendrán. A este nuevo sistema se lo denomina CLMS.
Y por último, como punto final de nuestro análisis se ha creado una nueva estructura más eficiente y rápida para el procesamiento de datos, con convergencia de sus pesos más rápido al igual que una curva de aprendizaje mucho mejor que la de los anteriores filtros, por ende, sus resultados finales tendrán menor error y todo esto se demostrara posteriormente. A este nuevo sistema se lo denomina FCLMS y es una
152
UPS
Capítulo V
combinación entre el sistema LMS y CLMS, en la cual se ha basado en conceptos matemáticos para que sea posible el desarrollo de esta adaptación, consiguiendo así una mejora notable, que como se menciono anteriormente será discutida como se verá posteriormente en las gráficas.
Desarrollando el Algoritmo CLMS Los datos de entrada son los mismos que se propusieron para el anterior ejemplo, de manera que se puedan comparar sus resultados, y siendo así, se tiene que:
La siguiente configuración en cascada es el equivalente para la anterior configuración, la cual se partirá de esta para los análisis y la obtención de mejoras en los resultados.
x n 1
1
2
x n 1
z 1
x ( n)
z 1
x n
e( n )
x ( n)
x n e( n )
Fig. 5. 5. Predictor en Cascada de 2 etapas – 1 tap
CLMS Para la primera etapa tenemos:
e1 n X1 n 1 X1 n 1
(5.2.1)
El índice 1 indica que se está en el stage 1, por lo cual solo tendríamos un 1 solo tap: 1 1 1
1 11
1 2 11 T
T
153
UPS
Capítulo V Se puede ver que los Resultados para R y P de la primera etapa son los
mismos que el anterior ejemplo.
R E Xn
Xn
T
2 R E X1 n 1 2 R1 E X1 n 1 0,5
T T 2 P1 E d n X n1 E X 1 n X 1 n 1 0,5cos N
R1 r1 0 0,51
r1 0 r 0
P1 r2 1 0, 4619
r1 1 r 1
0, 4619
1* R11P1 0,9057
min1 E d K2 PT * 2 min1 E X 1 n PT * 0, 09166
La entrada para la segunda etapa es X2(n):
X 2 n e1 n X1 n 1 X1 n 1
2 2 2 R2 n E X 2 n 1 E e1 n 1 E X 1 n 1 1 X 1 n 2
Resolviendo esta ecuación: 2 2 R2 X1 n 1 21 X1 n 1 X1 n 2 12 X1 n 2
2 R2 0,5 21 0,5cos N
2 1 0,5
Reemplazando 1* hallamos R2 :
R2 0,09159 r2 0
154
UPS
Capítulo V
P2 E d n X n1 Solo es un término ya que se está trabajando en serial T
como un solo dato
P2 E X 2 n X 2 n 1
T
T P2 E e1 n e1 n 1 E X 1 n 1 X 1 n 1 X 1 n 1 1 X 1 n 2
T
Resolviendo esta ecuación: 2 P2 E X 1 n X 1 n 1 1 X 1 n X 1 n 2 1 X 1 n 1 12 X 1 n 1 X 1 n 2 0,5cos 4 2 2 2 0,5cos 1 0,5 1 0,5cos 1 N N N 2 P2 0,5cos N
cos 4 0,5 2 0,5cos 2 1 1 0,51 N N
Reemplazando 1* :
P2 0,05874 r2 1 *2 R21P2 0,64139
min 2 E d K2 PT * 2 min 2 E e1 n P2T *2 0, 054
Por fórmula: f1* 1* *2 0,9057 0,64139 1,5471 f 2* 1**2 0,9057 0,64139 0,5809
f1 y f2 representan el nuevo valor de los taps 1 y 2 respectivamente, como resultado en el proceso dentro de este nuevo algoritmo CLMS
155
UPS
Capítulo V
Otra interpretación del valor final de los taps puede ser si consideramos el valor de un β, siendo así que: f1* 1* 1,5463
f 2* 2 *2 0,905869 0, 7073 0,5804 2
r2 (1) 0, 05874 r2 (0) 0, 09159
De acuerdo con la ecuación 2.14:
rK 1 J K J K 1 J K 1
J 2min J 2min
2
J1min min 2
r2 1 J1min J1min
(5.2.2)
2
0, 05874 0, 09166 0, 09166
2
0, 05402
Desarrollando el Algoritmo FCLMS Como se había mencionado anteriormente, ahora se presenta el modelado matemático del filtro final, que consta de la combinación entre el algoritmo LMS y ya el mejorado CLMS para obtener un filtro aun más estable y eficiente. Cabe recalcar que se debe tomar mucho cuidado con las adaptaciones matemáticas para no modificar características importantes durante el proceso.
A continuación se puede ver la gráfica que representa este modelo y posteriormente se irá desglosando un exhaustivo análisis matemático del mismo.
La siguiente configuración en cascada es el equivalente para la anterior configuración, la cual se partirá de esta para los análisis y la obtención de mejoras en los resultados.
Este Predictor o filtro esta dispuesto por 4 taps, los cuales los 2 primeros pertenecen a la etapa de forma directa lineal, la misma que consta de 2 sub-etapas. El resultado del MSE (Mean Square Error) que de este predictor tiene salida, será la
156
UPS
Capítulo V
entrada para la siguiente etapa en la que se encuentra el filtro en cascada. En esta etapa el predictor consta de los siguientes 2 taps y de 2 sub-etapas mas. Tal configuración y resultados que de su estructura en total se obtiene se lo ha denominado FCLMS, y se lo indica de la siguiente forma: r ( n)
x ( n)
x n 1
z 1
x n 2
z 1
Etapa 1
2
1
x n
e1 (n)
x2 (n)
Etapa 2
z 1 x2 n 1
e21 (n)
x21 (n)
x (n) 2
z 1
x21 n 1
3 Fig. 5. 6. Combinación
x
e22 (n)
( n) 21
4
del Predictor de forma directa lineal y el Predictor de cascada.
Hasta el final de la Etapa 1 del Predictor los datos y resultados son los mismos, pues se debe recordar que se está trabajando con los enunciados del ejercicio 1, para poder realizar las respectivas comparaciones.
X X R E n1 n1 X n2 X n1 0,51 R 0,5cos 2 N
P E X n X n1
X n1 X n2 X n21 E X n2 X n2 X n2 X n1 0,5cos 0,51
X n1 X n2 X n22
2 N
X n X n2
T
157
UPS
Capítulo V
2 P 0,5cos N
4 0,5cos N
T
* R 1 P 1
2 0,5cos 2 N 0,5cos N 0,51
0,51 * 0,5cos 2 N
0,51 0, 4619 0, 4619 0,51
1
*
0, 461
4 N
4 N
1,5463 T 0,353 0, 7073
T * 4 1 0,5cos N 2*
2 min1 0,51 0,5cos N
min1 0,35365*cos
0,5cos
2 0, 77315 N
0,51
min1 E d K2 PT W * min1 E X n2 PT * T * 4 1 0,5cos N 2*
2 min1 0,51 0,5cos N
1,5463 min1 0,51 0, 461 0,3535 0, 0458 0, 7073 Expresada como función 4 min1 0,35365*cos N
2 0, 77315 N
0,51
La entrada para esta nueva etapa2 es min1 x2 (n)
e21 n X 2 n 3 X 2 n 1
3 31
3 2 31 T
T
158
UPS
Capítulo V
R1 E X n
Xn
T
2 R1 E X 2 n 1
4 (n 1) 2 (n 1) 0, 77315cos 0,51 0,35365*cos N N n 1 497197553 2 E X 2 n 1 0, 6214969412 800000000 R1 0, 6214969412 1 E X 2 n 1 N 2
P1 E d n
N
2
X n 1
T
P1 E X 2 (n) X 2 (n 1)
T
P1
1 N 4 (n) 2 (n) 0,35365*cos 0, 77315cos 0,51 *... N n 1 N N
4 (n 1) 2 (n 1) 0,35365*cos 0, 77315cos 0,51 N N 4 2 2 289117553 655264369 cos cos * 100026368*cos N N N P1 2 800000000* 2 cos 1 N P1 0,5804353677
447184369
Reemplazando valores: * R 1 P 3
1
1
3 0,9339311736 *
159
UPS
Capítulo V
min 2 E d K2 PT W * min 2 E X n2 PT * min 2 0, 06214969412 0,5804353677 0,9339311736 T
min 2 0, 07941025704 SEGUNDA SUB-ETAPA Ahora algunos de los datos obtenidos durante esta primera sub-etapa serán usado como variables de ingreso para la segunda etapa como se podrá ver a continuación:
X 21 n e21 n
(5.2.3)
e22 n X 21 n 4 X 21 n 1
Para hallar R2 (Matriz de Correlación de entrada), se tiene que:
2 2 R2 E X 21 n 1 E e21 (n 1)2 E X 2 n 1 3 X 2 n 2
Resolviendo la ecuación que se presenta en R1 se tiene que: 2 E X 2 n 1 3 X 2 n 2
2 R2 E X 2 n 1 21 X 2 n 1 X 2 n 2 2 R1 2 *( P ) 3 1
2 12 X 2 n 2 32 *R1
R2 0,6214969412 2*(0,9339311736)*(0,5804353677) (0,9339311736)2 *(0,6214969412) R2 0,07941025702 R2 r2 (0)
Para hallar P2, se aplica lo siguiente:
160
UPS
Capítulo V
P2 E d n
X n 1
T
P2 E X 21 (n) X 21 (n 1)
T
P2 E e21 (n) e21 (n 1)
T
P2 E X 2 n 3 X 2 n 1 * X 2 n 1 3 X 2 n 2 2 P2 E X 2 n X 2 n 1 3 X 2 n X 2 n 2 3 X 2 n 1 32 X 2 n 1 X 2 n 2 *E x ( n ) x ( n 2) P1 *R 3 2 2 32 *P1 3 1
8 48841*cos N E x2 (n) x2 (n 2) 781250 E x2 (n) x2 (n 2) 0, 4714404009
4 239104369*cos 208080000 N 800000000
P2 0,5804353677 (0,9339311736)* 0, 4714404009 ... ... (0,9339311736)*(0, 6214969412) (0,9339311736)2 *(0,5804353677) P2 0, 06597876624
Una vez hallado los valores de R2 y P2 podemos reemplazar valore para encontrar el valor de: * 4 R2 1 P2 * 4 0.07941025702-1*0.06597876624 * 4 0.8308594974
min 3 E d K2 PT * min 3 E e21 n P2T 4* min 3 0, 07941025702 0, 06597876624*0.8308594974 min 3 0, 024591 2
* * Con los valores de 3 y 4 de la etapa 2 ya se puede hallar los valores
totales para los taps 3 y 4.
161
UPS
Capítulo V
f3* 3 4 0.9339311736 + 0.8308594974 1.764790671 *
*
* * f 4* 3 * 4 - 0.9339311736*0.8308594974=-0.7759655855
Por último se debe encontrar el valor mínimo esperado de la última etapa y final como se muestra a continuación:
rK 1 J K J K 1 J K 1
J 2min J 2min
2
r2 1 J1min J1min
J1min min 2 2
0.06597876624 0.07941025702
2
0.07941025702
J 2min 0.02459117245
5.3. DISEÑO DEL ALGORITMO DE SIMULACIÓN DEL NUEVO MODELO El algoritmo creado básicamente se encuentra dividido en 3 partes principales que son la creación del algoritmo LMS, la del CLMS y la del FCLMS.
En forma general, primeramente lo que se hace es ingresar datos a los filtros que serán los mismos para obtener un resultado en el que se puedan comparar sus resultados.
Posteriormente y luego de tener ya los valores de ingreso se procede a hallar los valores de la Matriz de Correlación de Entrada “R” y del Vector Columna que está definido como “P”.
Con esto, se puede encontrar el valor numérico de las variables que representan los taps.
Tanto para los filtros con algoritmo LMS, CLMS y FCLMS se crea un bucle “for” de manera que en este se pueda crear un vector del error que se produce entre la diferencia entre la señal de entrada y la señal predicha por el algoritmo del filtro. Con
162
UPS
Capítulo V
este se puede crear una variable que contiene el valor esperado del tap definido como temp. INICIO
Ingreso de datos del Filtro
Calcular los valores de la Matriz de correlación de entrada R
Calcular el vector columna P
Con R y P, encontramos los valores de los taps
Se crea el vector de erros entre la señal deseada y la señal que el filtro predijo
RESULTADOS
Se crea una variable con el valor del tap esperado
Se crean variables y matrices que permiten la graficación de los resultados
Se halla el MSE mínimo
Se definen variables para el valor esperado del error
FIN
Fig. 5. 7. Diagrama de Flujo del Algoritmo utilizado en la simulación
163
UPS
Capítulo V Con todos estos datos ya se pueden crear las matrices que nos servirán para
poder graficar la curva de convergencia hacia los valores deseados del tap (variable A), al igual que se crea una variable para poder representar la gráfica de la curva de aprendizaje del mismo filtro (variable LC).
De igual manera se crean mediante fórmulas planteadas en este capítulo y anteriores variables que representan el Error Cuadrático Medio Mínimo (MSE mínimo) los mismos que serán usados para comparaciones de resultados.
Por último, mediante variables que toman como información los datos de lo anteriormente hallado, se definen cantidades para los valores esperados del error (variable Astar).
Y esto es en resumidas y forma global como está estructurado el algoritmo de simulación para cada uno de los filtros. Cabe recalcar que para cada uno de ellos existen variables con diferentes nombres para poderlas diferenciar, pero que siguen el mismo esquema a lo anteriormente señalado.
5.4. SIMULACIÓN EXPERIMENTAL Todos los datos obtenidos serán expuestos como el programa creado en MATLAB los ha calculado, todos estos se encuentran en la columna izquierda, mientras que en la columna derecha se presentan los datos hallados matemáticamente como anteriores puntos de este capítulo se ha demostrado.
Los Resultado obtenidos para la codificación de los siguientes algoritmos son los siguientes:
Variables Algoritmo LMS R=
0,51 0, 4619 R 0, 4619 0,51
0.5233
0.4749
0.4749
0.5233
164
UPS
Capítulo V
P=
P 0, 4619 0,353
T
0.4749 0.3630
a óptimo =
1,5463 * R 1 P 0, 7073
1.5765 -0.7372
mseLMS =
1,5463
min 0,51 0, 461 0,3535 0, 0458 0, 7073
0.0422
Variables Algoritmo CLMS mse1CLMS =
min1 0,09166
0.0923
R2 =
R2 0,09159 r2 0
0.0923
P2 =
P2 0,05874 r2 1
0.0618
a2 =
*2 R21P2 0,64139
0.6690
mse2CLMS =
min 2 0,054 0.0510
165
UPS
Capítulo V
f1 =
f1* 1* *2 0,9057 0,64139 1,5471 1.5765
f2 =
f 2* 1**2 0,9057 0,64139 0,5809
-0.6071
Variables Algoritmo FCLMS mse1CLMSM =
min 2 0, 06214969412 0,5804353677 0,9339311736 T
min 2 0, 07941025704 0.0778
R2M =
R2 0, 07941025702 R2 r2 (0)
0.0778
P2M = P2 0,06597876624
0.0646
a 2M =
* 4 0.8308594974
0.8302
mse2CLMSM =
min3 0,024591 0.0242
f1 = * * f3* 3 4 1.764790671
1.7164
166
UPS
Capítulo V
f2 = * * f 4* 3 * 4 -0.7759655855
-0.7358
Al resultado final que se llego, es la visualización de cada una de las curvas, tanto como la de aprendizaje como la de conversión de los pesos o Taps a los valores óptimos para el correcto funcionamiento de cada uno de los diferentes filtros. A continuación, se señala lo mencionado:
Curvas de Aprendizaje Algoritmo LMS Curva de Aprendizaje LMS 0.7
0.6
0.5
MSE
0.4
0.3
0.2
0.1
0
0
50
100
150
200 Numero de Iteraciones k
250
300
350
400
Fig. 5. 8. Curva obtenida del Aprendizaje LMS
Visualización con aumento
Fig. 5. 9. Número de Iteraciones de la Curva del Aprendizaje LMS
167
UPS
Capítulo V
Algoritmo CLMS Curva de Aprendizaje CLMS 0.55 0.5 0.45 0.4
MSE
0.35 0.3 0.25 0.2 0.15 0.1 0.05
0
50
100
150 200 250 Numero de Iteraciones k
300
350
400
Fig. 5. 10. Curva obtenida del Aprendizaje CLMS
Visualización con aumento
Fig. 5. 11. Número de Iteraciones de la Curva del Aprendizaje CLMS
168
UPS
Capítulo V
Algoritmo FCLMS Curva de Aprendizaje FLMS 0.4
0.35
0.3
MSE
0.25
0.2
0.15
0.1
0.05
0
0
50
100
150
200 Numero de Iteraciones k
250
300
350
400
Fig. 5. 12. Curva obtenida del Aprendizaje FCLMS
Visualización con aumento
Fig. 5. 13. Número de Iteraciones de la Curva del Aprendizaje FCLMS
169
UPS
Capítulo V Curvas de Convergencia de los Taps
Algoritmo LMS Convergencia de los Pesos LMS 2
1.5
Valor del Peso
1
0.5
0
-0.5
-1
0
50
100
150 200 250 Numero de Iteraciones k
300
350
400
Fig. 5. 14. Curva de Convergencia de los Taps de Algoritmo LMS
Algoritmo CLMS Convergencia de los Pesos CLMS 2
1.5
Valor del Peso
1
0.5
0
-0.5
-1
0
50
100
150 200 250 Numero de Iteraciones k
300
350
400
Fig. 5. 15. Curva de Convergencia de los Taps de Algoritmo CLMS
170
UPS
Capítulo V
Algoritmo FCLMS Convergencia de los Pesos FCLMS 2
1.5
Valor del Peso
1
0.5
0
-0.5
-1
0
50
100
150 200 250 Numero de Iteraciones k
300
350
400
Fig. 5. 16. Curva de Convergencia de los Taps de Algoritmo FCLMS
5.5. ANÁLISIS Y COMPARACIÓN DE RESULTADOS Una vez analizado matemáticamente y simulado los problemas planteados, y basándonos
en resultados y gráficas se podrá comparar y efectivizar el buen
funcionamiento del filtro creado, es así que en las siguientes gráficas comparativas se explicará de las mejoras del algoritmo FCLMS ante los otros algoritmos tanto planteados como creados.
171
UPS
Capítulo V Curvas de Aprendizaje Curva de Aprendizaje LMS / CLMS / FCLMS 0.7
0.6
0.5
MSE
0.4
0.3
0.2
0.1
0
0
50
100
150 200 250 Numero de Iteraciones k
300
350
400
Fig. 5. 17. Curvas de Aprendizaje obtenidas de los distintos Aprendizajes
En cuanto a las curvas de aprendizaje presentadas en la gráfica claramente se puede notar que la curva LMS (rojo) necesita de mucho mas iteraciones que los otros dos algoritmos para que el filtro pueda adaptarse a la señal y posteriormente responda adecuadamente a la construcción de la misma en su salida. Como se enfatizó en el punto anterior y para esta demostración en específico, el algoritmo LMS necesita de alrededor de 290 iteraciones para que dicho filtro pueda predecirse correctamente a la señal de ingreso.
En el caso de la curva CLMS (azúl) las iteraciones no son tan altas como las que usa el algoritmo LMS, que son alrededor de 40 para este ejercicio dado. Se puede ver que se ha creado ya un mejor filtro con su algoritmo respectivo, más eficiente, rápido y adaptable a las diferentes señales de ingreso que puedan darse, sin embargo, el último filtro y algoritmo creado, presenta mejores características como se pueden ver en la curva FCLMS (cyan), demostrando que el filtro puede adaptarse en tan solo 9 iteraciones para poder predecir correctamente la función de entrada.
172
UPS
Capítulo V En resumidas se puede decir, que con estos resultados totalmente numéricos,
se ha desarrollado un algoritmo (FCLMS) eficiente que puede disminuir tiempos en análisis con respuestas más veloces y efectivas para las diferentes aplicaciones que puedan darse. Una tabla explicativa representará lo que se ha explicado a continuación.
Tabla 5. 1.Número de iteraciones entre los 3 métodos de Aprendizaje
ALGORITMO
ITERACIONES
LMS
290
CLMS
40
FCLMS
9
Curvas de Convergencia de los Taps Convergencia de los Pesos (TAPS) LMS / CLMS / FCLMS 2
1.5
Valor del Peso
1
0.5
0
-0.5
-1
0
50
100
150 200 250 Numero de Iteraciones k
300
350
400
Fig. 5. 18. Convergencia de los Taps de los tres tipos de Aprendizaje
De igual forma, de la gráfica se puede ver claramente el desarrollo de los algoritmos durante el paso de las iteraciones, y de esto se puede decir que el algoritmo LMS (negro) necesita de un mayor número de iteraciones, alrededor de 350 para que sus taps converjan al valor deseado el cuál se encuentra representado por las líneas rojas. Es menester mencionar que se pueden distinguir 2 curvas en
173
UPS
Capítulo V
todos los algoritmos, y esto es porque tanto la superior (valores positivos a converger) y la inferior (valores negativos a converger) representan los taps 1 y 2 respectivamente del filtro. En el caso del Filtro FCLMS dispone de 4 taps, pero que a pesar de eso los que representan la función de convergencia son los taps 3 y 4 de dicho filtro.
Tanto la curva CLMS (azul) como FCLMS (cyan) son parecidas pero sigue siendo la curva que representa al algoritmo FCLMS un poco mejor, pues vemos que llega primero a su valor optimo del filtro, significando que esta converge al valor deseado de manera más rápida. Otra aclaración sería, que esta curva FCLMS mantiene un ritmo constante sobre el valor óptimo y no tiende a tener saltos que se alejen del valor óptimo para los taps como en ciertas iteraciones presenta el CLMS. Esto en realidad es casi irrelevante debido a que el filtro siempre tenderá a su valor ideal después de dichos saltos en algunas iteraciones, pero con esto se puede demostrar una vez más que la curva FCLMS mantiene estable al filtro al transcurrir su paso en el tiempo de la señal, lo que es fundamental para obtener datos fiables y sin picos o interrupciones a la salida.
174
UPS
Conclusiones y Recomendaciones
Conclusiones y Recomendaciones Un sistema adaptativo consigue las características esenciales que requiere el sistema para obtener el mayor rendimiento u obtener las mejoras a través de las iteraciones que se presenten en el proceso. Puede extrapolar un modelo de cierto comportamiento general que se presentan como nuevas señales, con un número finito de pruebas, y encontrar un resultado deseable a su salida muy acertado a aquella señal de entrada.
Un sistema de filtros FIR puesto que su sistema de ecuaciones describe fácilmente la relación entrada-salida de algoritmos eficientes que fácilmente pueden resolverse para la obtención de resultados deseados; pudiendo representar aproximaciones exactas de los filtros infinitos IIR en pocas iteraciones y de manera precisa.
Cada uno de los Filtros en Cascada y en forma Directa poseen características distintas, por lo que combinándolos en un Filtro Digital Híbrido FIR Adaptativo Lineal Óptimo, que toma el nombre de FCLMS, “Fast Convergense” debido a su rápida convergencia basándose en el algoritmo LMS, ya existente incluso como herramienta de varios programas de programación y procesamiento de señales.
El nuevo modelo con respecto a los otros dos métodos de aprendizaje (LMS y CLMS) con los cuales se lo comparó proporciona una mayor velocidad de convergencia, con menos iteraciones para converger a los valores “próximos” a lo que propone Wiener ó resultados deseados como se muestra en las simulaciones, el nuevo algoritmo creado para este sentido es más eficiente y veloz en llegar a los valores deseados.
Facilitan el cálculo y con ello la complejidad computacional, ya que estos solo requieren de un filtro de orden L, en la cual se multiplican los datos de entrada u(n), u(n-1)… por una cantidad definida de pesos como w1, w2… etc y posteriormente a esto se aplica una sencilla operación matemática como es la suma de estos productos para obtener el resultado deseado.
VI
UPS
Conclusiones y Recomendaciones
Una más de las ventajas que presentan el nuevo modelo que al contrario de un filtro normal no se necesita de aproximaciones estadísticas para los datos de correlación de la señal de deseada con la señal de entrada, y menos aun para la autocorrelación de las señal de entrada. El filtro adaptativo es aplicable para estos casos aun sabiendo que la señal de entrada es no estacionaria.
A todo lo dicho anteriormente y como se puede verificar en el proceso, los filtros adaptativos brindan ventajas con respecto a los otros filtros ya que no requieren de conocimiento de funciones de entrada o deseadas para la obtención de una señal de salida.
Además el Filtro tiene mayor estabilidad en el paso en el tiempo de la señal, además de llegar a la señal deseada en menos tiempo, es decir, adaptarse en menor tiempo a la señal de entrada, lo que es fundamental para obtener datos fiables y sin picos o interrupciones a la salida.
Este Filtro proporciona una nueva alternativa en el procesamiento de filtrado digital de señal, obteniendo mejores resultados en las diferentes áreas y aplicaciones en donde se requiera su presencia.
VII
UPS
Bibliografía
Bibliografía Libros:
PROAKIS, John G.; MANOLAKIS, Dimitris G.; Tratamiento Digital de Señales; Cuarta Edición; México – 1999; Prentice Hall Inc., PEARSON EDUCATION S.A. SOLIMAN, Samis S.; SRINATH, Mandyan D.; Señales y Sistemas continuos y discretos; Segunda Edición; Madrid, España – 1999; Prentice Hall Inc., PEARSON EDUCATION S.A. WIDROW, Bernard; STEARNS, Samuel; Adaptative Signal Processing; 1985; Prentice Hall Inc., PEARSON EDUCATION S.A. S. HAYKIN; Adaptative Filter Theory; 1995; Prentice Hall Inc., PEARSON EDUCATION S.A. OPPENHEIM, Alan V.; Signals and Systems; Cuarta Edición; Prentice Hall S.A., 1996. HOLLY, Moore; Matlab para Ingenieros; 2007; Prentice Hall Inc., PEARSON EDUCATION S.A.
SMITH, Steven W.; The Scientist and Engineer's Guide to Digital Signal Processing; Segunda Edición; Prentice Hall S.A., 1997.
Internet:
http://www.pacop.net/transformada-de-fourier-fft.html
http://www.elprisma.com/
http://www.edicionsupc.es/ftppublic/pdfmostra/TL03902M.pdf
http://www.tecnun.es/asignaturas/tratamiento%20digital/tema6.pdf
http://www.elo.utfsm.cl/~elo340/apuntes/tvd/cap6.pdf
http://www.nlm.nih.gov/medlineplus/spanish/ency/article/003868.htm
IX
UPS
Glosario
GLOSARIO A ADC: Conversor Analógico – Digital.
Aliasing: Efecto que causa que señales continuas distintas se tornen indistinguibles cuando se les muestrea digitalmente; la señal original no puede ser reconstruida de forma unívoca a partir de la señal digital. Una imagen limitada en banda y muestreada por debajo de su frecuencia de Nyquist en las direcciones "x" e "y", resulta en una superposición de las replicaciones periódicas del espectro G(fx ,fy). Este fenómeno de superposición periódica sucesiva es lo que se conoce como aliasing, afecta a la conversión analógica-digital de señales de audio y vídeo: el muestreo incorrecto de señales analógicas puede provocar que señales de alta frecuencia presenten dicho aliasing con respecto a señales de baja frecuencia. El aliasing es también una preocupación en el área de la computación gráfica e infografía, donde puede dar origen a patrones de moiré (en las imágenes con muchos detalles finos) y también a bordes dentados. El aliasing puede traer problemas sobre todo en el campo de visión por computadores, ya que al procesar imágenes, si no es correcta la imagen obtenida con la realidad, podemos tener problemas con el hardware.
Autocorrelación: Herramienta matemática utilizada frecuentemente en el procesado de señales. Se define como la correlación cruzada de la señal consigo misma. La función de autocorrelación resulta de gran utilidad para encontrar patrones repetitivos dentro de una señal, como por ejemplo, la periodicidad de una señal enmascarada bajo el ruido o para identificar la frecuencia fundamental de una señal que no contiene dicha componente, pero aparecen numerosas frecuencias armónicas de ésta.
X
UPS
Glosario
B
Bit oculto: Cuando se usan mantisas normalizadas en el sistema binario, la primera cifra (bit) significativa ha de ser necesariamente 1. Este primer bit no se suele expresar en el campo de la mantisa y está implícito de ahí que se llame el bit oculto. De esta forma se ahorra un bit en la representación que puede ser usado para indicar un bit significativo adicional. Dependiendo del contexto, el bit oculto puede ser o no ser tenido en cuenta cuando se describe la longitud de la mantisa en un formato de coma flotante. Por ejemplo, el formato de doble precisión de IEEE 754 es descrito tanto como que tiene 53 bits de precisión (contando el bit oculto) como que tiene 52 bits (sin contar el bit oculto).
Biunívoca: Cada elemento del primer conjunto se corresponde con solo un elemento del segundo conjunto, y cada elemento del segundo conjunto se corresponde con solo un elemento del primer conjunto.
C
Convolución: operador matemático que transforma dos funciones f y g en una tercera función que en cierto sentido representa la magnitud en la que se superponen f y una versión trasladada e invertida de g. Una convolución es un tipo muy general de promedio móvil, como se puede observar si una de las funciones la tomamos como la función característica de un intervalo.
CORDIC: COordinate Rotation DIgital Computer, o el método de dígito por dígito, o el algoritmo de Volder, es un simple y eficiente algoritmo para calcular funciones hiperbólicas y trigonométricas. Usado cuando no hay disponible un hardware para multiplicaciones (por ejemplo, en microcontroladores y FPGAs simples) pues las únicas operaciones que requiere son suma, resta, desplazamiento de bits (bitshift) y búsqueda en tablas (table lookup). El algoritmo CORDIC moderno fue descrito por primera vez en 1959 por Jack E. Volder, desarrollado en el departamento del aeroelectrónica de Convair para substituir un resolver analógico en el computador de navegación del bombardero B-58, aunque es similar a las técnicas publicadas por Henry Briggs desde 1624. John Stephen Walther, en Hewlett-Packard, generalizó
XI
UPS
Glosario
más el algoritmo, permitiendo calcular funciones hiperbólicas, exponenciales, logaritmos, multiplicación, división, y la raíz cuadrada. Originalmente, CORDIC fue implementado usando el sistema de numeración binario. En los años 1970, la implementación en el sistema de numeración decimal del CORDIC llegó a ser usado extensamente en las calculadoras de bolsillo, la mayoría de las cuales operaba en binary-coded decimal (BCD) en vez de binario. CORDIC está particularmente bien adaptado para las calculadoras de mano, un uso para las cuales el costo es mucho más importante que la velocidad, es decir, el número de puertas lógicas del chip tiene que ser reducido al mínimo. También las subrutinas CORDIC para las funciones trigonométricas e hiperbólicas pueden compartir la mayor parte de su código.
Correlación: Indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa; la correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad
D
Data sheets: Documentos en los que se detallan las características técnicas, físicas, de funcionamiento y comportamiento de dispositivos o equipos.
E
Error de cuantificación: Es el error debido a la división en escalones de la señal de entrada, de modo que para una serie de valores de entrada, la salida digital será siempre la misma. Este valor se corresponde con el escalonado de la función de transferencia real, frente a la ideal.
Error de linealidad (linealidad integral): Este error es la manifestación de la desviación entre la curva de salida teórica y la real, de modo que para iguales incrementos en la entrada, la salida indica distintos incrementos.
XII
UPS
Glosario
I
Iteración: Acción de repetir una serie de pasos un cierto número de veces o a las técnicas que se usan en métodos iterativos para la resolución de problemas numéricos
J
Jitter: Variación temporal no deseada de una señal periódica de telecomunicaciones. Jitter se puede observar en características tales como la frecuencia de pulsos sucesivos, la amplitud de la señal, o fase de las señales periódicas. Puede ser cuantificada en las mismas condiciones que todas las variables en el tiempo las señales, RMS, o de pico a pico de desplazamiento. También como el tiempo otras señales diferentes, el jitter puede ser expresado en términos de densidad espectral (el contenido de frecuencia); período Jitter es el intervalo entre dos momentos de máximo efecto (o efecto mínimo) de una señal característica que varía regularmente con el tiempo. Variación de la frecuencia, la cifra más comúnmente citados, es su inversa; la frecuencia de fluctuación muy baja no es de interés en el diseño de sistemas, y la baja frecuencia de corte para el jitter normalmente se especifica a 1 Hz.
M
Mantisa: Parte de una representación en punto flotante que contiene los dígitos significativos del número a representar, el orden de magnitud de los cuales está determinado por el exponente.
Matriz Hermitiana: Ó hermítica es una matriz cuadrada de elementos complejos que tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i-ésima fila y j-ésima columna es igual al conjugado del elemento en la j-ésima fila e i-ésima columna, para todos los índices i y j:
o, escrita con la traspuesta conjugada A*:
XIII
UPS
Glosario Por ejemplo,
N
Noise Shaping: Técnica generalmente utilizada en el audio digital, la imagen y el procesamiento de video, en combinación con tramado, como parte del proceso de cuantificación y reducción de la profundidad de bits de una señal digital. Su objetivo es aumentar la aparente señal/ruido de la señal resultante mediante la alteración de la forma espectral del error que se introduce por los titubeos y cuantificación de tal manera que la potencia de ruido se encuentre en un nivel más bajo en las bandas de frecuencia a la que el ruido que se percibe como más indeseables y en consecuencia a un nivel más alto en las bandas donde se percibe que es menos deseable. El algoritmo usado mayoritariamente en el procesamiento de imágenes se conoce como "Floyd Steinberg”; ruido de la configuración de muchos algoritmos usados en el procesamiento de audio, se basan en un" umbral absoluto del modelo de oído".
O
Offset: El error de offset es la diferencia entre el punto nominal de offset (cero) y el punto real de offset. Para un convertidor A/D este punto es el punto central de todos aquellos valores de la entrada que nos proporcionan un cero en la salida digital del convertidor, afecta a todos los códigos de salida por igual, y puede ser compensado por un proceso de ajuste.
XIV
UPS
Glosario
R
Ruido Aditivo: Ruido aditivo (denominado n(t)) es aquel que se adiciona a la señal de voz (s(t)) en el dominio lineal obteniéndose una señal ruidosa (y(t)), es decir,
y(t ) s(t ) n(t )
Ruido Granular: Es el resultado de la utilización de un escalón de altura muy grande en tramos donde la señal tiene poca variación, puede reducirse disminuyendo la altura de los escalones. La señal obtenida no será la señal transmitida, sino que en su lugar se transmite una sucesión de dígitos binarios los cuales sólo indican la polaridad de los escalones.
S
Sesgo: Desviación o error producido en mecanismos de medida del tiempo.
Sistema Invariante: Un sistema es invariante con el tiempo si su comportamiento y sus características son fijas. Un sistema es invariante con el tiempo si un desplazamiento temporal en la entrada x(t-t0) ocasiona un desplazamiento temporal en la salida y(t-t0). si x(t) → y(t), entonces x(t - t0) → y(t - t0)⇒ sistema invariante
Sistema Lineal: Un sistema es lineal si satisface el principio de superposición, que engloba las propiedades de escalado (homogeneidad) y aditividad. Si y1(t), y2(t), ... yn(t) son las salidas del sistema para las entradas x1(t), x2(t), ... xn(t)y a1, a2, ... an son constantes complejas, el sistema es lineal si: a1x1(t) + a2x2(t) + ... + anxn(t) → a1y1(t) + a2y2(t) + ... + anyn(t) En un sistema lineal, si la entrada es nula, la salida también ha de serlo. Un sistema incrementalmente lineal es aquel que, sin verificar la última condición, responde linealmente a los cambios en la entrada. y(t) = 2x(t) + 2 no es lineal puesto que y(t) ≠ 0 para x(t) = 0, pero sí es incrementalmente lineal.
XV
UPS
Glosario
Sistema LTI: (Linear Time-Invariant) o sistema lineal e invariante en el tiempo, es aquel que, como su propio nombre indica, cumple las propiedades de linealidad e invarianza en el tiempo.
Sobremuestreo: Llamado también oversampling permite evitar las caídas abruptas se utiliza la técnica conocida como sobremuestreo, para la reconstrucción, tras la conversión D/A, una señal de pendiente suave. Un sobremuestreo consiste en aplicar un filtro digital que actúa sobre el tiempo (dominio de frecuencia), cambiando de lugar las muestras, de forma que al superponerlas, se creen muestreos simultáneos virtuales. Estos muestreos simultáneos no son reales, son simulaciones generadas por el propio filtro. Estos muestreos simultáneos se obtienen utilizando el llamado coeficiente de sobremuestreo (n).
U
Unívoca: De lo que tiene igual naturaleza, valor o significación que otra cosa.
V
VLSI: Very Large Scale Integration, integración en escala muy grande, la integración en escala muy grande de sistemas de circuitos basados en transistores en circuitos integrados comenzó en los años 1980, como parte de las tecnologías de semiconductores y comunicación que se estaban desarrollando. Los primeros chip semiconductores contenían sólo un transistor cada uno, a medida que la tecnología de fabricación fue avanzando, se agregaron más y más transistores, y en consecuencia más y más funciones fueron integradas en un mismo chip. El microprocesador es un dispositivo VLSI. La primera generación de computadoras dependía de válvulas de vacío, luego vinieron los semiconductores discretos, seguidos de circuitos integrados que contenían un pequeño número de dispositivos, como diodos, transistores, resistencias y capacitores (aunque no inductores), haciendo posible la fabricación de compuertas lógicas en un solo chip. La cuarta generación (LSI) consistía de sistemas con al menos mil compuertas lógicas. El sucesor natural del LSI fue VLSI (varias decenas de miles de compuertas en un solo chip). Hoy en día, los microprocesadores tienen varios millones de compuertas en el mismo chip. Hacia principios de 2006 se
XVI
UPS
Glosario
están comercializando microprocesadores con tecnología de hasta 65 nm, y se espera en un futuro cercano el advenimiento de los 45 nm.
XVII
UPS
Anexos
Anexos
XVIII
UPS
Anexos ANEXO 1: CÓDIGO FUENTE DEL PROGRAMA DE SIMULACIÓN ELABORADO EN MATLAB 7.6.0
clc; clear all; %**********Valores Iniciales para el Algoritmo LMS Y CLMS****************** N=16; %Valor de Las muestras mu=0.1; %Constante de Ganancia phi=0.01; %Promedio de la Potencia de Señal Randomica. M=400; %Numero de las Iteraciones k=1:M; r=0.1*randn(1,M); %Señal Randomica xk=r+sin(2*pi*k/N); %X(k) Senal de entrada al Filtro %************Matriz R y P************************************************** Xk=toeplitz([0 0 0],[0 xk(1:M-1) xk(1:M-2)]); MV=cov(Xk'); R=[MV(1,1) MV(1,2); MV(1,2) MV(1,1)] %Matriz Correlacion de Ingreso R P=[MV(1,2) MV(1,3)]' %Vector Columna P aoptimo=(R)^-1*P %Solución optima del vector de Peso de Wiener LMS aoptimoCLMS=[aoptimo(1,1);(MV(1,2)/MV(1,1))^2*aoptimo(2,1)] Solución optima del vector de Peso de Wiener CLMS
%
%************Algoritmo LMS************************************************* X=[0 xk(1:M-1);0 0 xk(1:M-2)]; %Señal de entrada al Filtro dk=xk; %Señal Esperada o deseada. (En Nuestro caso señal de Entrada sin distorcion) ve=MV(1,1); %E(xn^2) mseLMS=ve-P'*aoptimo %MSE minimo(Error Cuadratico Medio Minimo) A=[0;0]; %De 2 filas para simular el efecto de entrada de la senal en 2 vueltas al filtro. CA=[ve]; %Curva de Aprendizaje LMS for n=1:M-1 e(n)=dk(n)-X(:,n)'*A(:,n); %Vector error Ek=(dk - W*Xk) temp=A(:,n)+2*mu*e(n)*X(:,n); %Wk+1=Wk +2*u*Ek*Xk Valor Esperado del Vector de Peso. (2x1) A=[A temp]; %a1* y a2* LMS Estimamos el valor de MSE min para ver la curva. (2xM) Va incrementando hasta M columnas templc=ve+temp'*R*temp-2*P'*temp; %Se van creando datos para LC CA=[CA templc]; %Representa la curva de aprendizaje LMS end
%*************Algoritmo CLMS*********************************************** ve1=MV(1,1); %E[xn^2]
XVII
UPS
Anexos
CA1=[ve1]; %Variable Temporal LCf2=[ve1]; %Variable que nos representara la curva de aprendizaje CLMS R1=MV(1,1); P1=MV(1,2); a1=P1/R1; %Etapa del Filtro en cascada, tap1. mse1CLMS=ve1-P1'*a1 %MSE minino para la etapa1.
R2=(R1)-2*a1*P1+a1^2*R1 Correlacion de Entrada 2. P2=P1-a1*MV(1,3)-a1*R1+a1^2*P1 Columna2 ve2=R2; CA2=[ve2]; a2=R2\P2; cascada, tap2 mse2CLMS=R2-P2'*a2 final
%Creacion de la Matriz de %Creacion del Vector
%Etapa del Filtro en
%MSE minimo para la etapa2 y
%*************First stage************************************************** X1=[0 xk(1:M-1)]; %Vector Senal de entrada para la 1era sub etapa del filtro en cascada. dk=xk; %Senal deseada A1=[0]; %Vector para la creacion de valores tap1, inicializado en 0. for n=1:M-1; %Inicio del Bucle para la creacion del Vector tap1 y curva de aprendizaje LC1 e1(n)=dk(n)-X1(:,n)'*A1(:,n); %Vector error Ek=(dk - W*Xk) para la etapa 1 del Algoritmo CLMS temp1=A1(:,n)+2*mu*e1(n)*X1(:,n); %Variable temporal para la creacion final del vector de valores del Tap1 A1=[A1 temp1]; %Vector Tap1 Lc1=ve1+temp1'*R1*temp1-2*P1'*temp1;%Variable Temporal para la creacion del vector de la curva de aprendizaje LC1 CA1=[CA1 Lc1]; LCf2=[LCf2 Lc1-((P2^2)/Lc1)]; %Vector de la Curva de aprendizaje end
%*************Second stage************************************************* Y=[0 e1(1:M-1)]; %Entrada para la etapa2 - Salida de la etapa1 - Algoritmo CLMS Yk=toeplitz([0 0],[0 e1(1:M-1)]); MV2=cov(Yk'); R22=MV2(1,1); %Matriz de Correlacion de entrada R2 P22=MV2(1,2); %Vector Columna P2 dk3=e1(1:M-1); A2=[0]; valores tap2, inicializado en 0 for n=1:M-1
%Vector para la creacion de
XVIII
UPS
Anexos
e2(n)=dk3(n)-Y(:,n)'*A2(:,n); %Vector error Ek=(dk - W*Xk) para la etapa 2 del Algoritmo CLMS temp2=A2(:,n)+2*mu*e2(n)*Y(:,n); %Variable temporal para la creacion final del vector de valores del Tap2 A2=[A2 temp2]; %Vector valores de convergencia Tap2 Lc2=ve2+temp2'*R22*temp2-2*P22'*temp2; CA2=[CA2 Lc2]; end
%*************Astar for CLMS algorithm*********************************** A1optimoCLMS=[A1+A2]; %Vector Total TAP1 - Grafica de Convergencia de sus valores a valor ideal A2optimoCLMS=[-A1.*A2]; %Vector Total TAP1 - Grafica de Convergencia de sus valores a valor ideal f1=[a1+a2] TAP1 f2=[-a1*a2] TAP2 del CLMS
%Valor final del VECTOR del %Valor final del VECTOR del
%/////////////////////////////////////////////////////////////////// /////// %******************************************************************* ******* %************************ALGORITMO FCLMS*********************************** %/////////////////////////////////////////////////////////////////// /////// xkM=0.35365*cos(4*pi*k/N)-0.77315*cos(2*pi*k/N)+0.51; XkM=toeplitz([0 0 0],[0 xkM(1:M-1) xkM(1:M-2)]); MVM=cov(XkM'); RM=[MVM(1,1) MVM(1,2); MVM(1,2) MVM(1,1)] %Matriz Correlacion de Ingreso R PM=[ MVM(1,2) MVM(1,3)]' %Vector Columna P ve1M=MVM(1,1); CA1M=[ve1M]; LCf2M=[ve1M]; representara la curva de aprendizaje CLMS R1M=MVM(1,1); P1M=MVM(1,2); a1M=P1M/R1M; cascada, tap1. mse1CLMSM=ve1M-P1M'*a1M etapa1.
%E[xn^2] %Variable Temporal %Variable que nos
R2M=(R1M)-2*a1M*P1M+a1M^2*R1M de Correlacion de Entrada 2. P2M=P1M-a1M*MVM(1,3)-a1M*R1M+a1M^2*P1M Columna2
%Creacion de la Matriz
%Etapa del Filtro en %MSE minino para la
%Creacion del Vector
ve2M=R2M;
XIX
UPS CA2M=[ve2M]; a2M=R2M\P2M; cascada, tap2 mse2CLMSM=R2M-P2M'*a2M etapa2 y final
Anexos
%Etapa del Filtro en
%MSE minimo para la
%*************First stage************************************************** X1M=[0 xkM(1:M-1)]; %Vector Senal de entrada para la 1era sub etapa del filtro en cascada. dkM=xkM; %Senal deseada A1M=[0]; %Vector para la creacion de valores tap1, inicializado en 0. for n=1:M-1; %Inicio del Bucle para la creacion del Vector tap1 y curva de aprendizaje LC1 e1M(n)=dkM(n)-X1M(:,n)'*A1M(:,n); %Vector error Ek=(dk W*Xk) para la etapa 1 del Algoritmo CLMS temp1M=A1M(:,n)+2*mu*e1M(n)*X1M(:,n); %Variable temporal para la creacion final del vector de valores del Tap1 A1M=[A1M temp1M]; %Vector Tap1 Lc1M=ve1M+temp1M'*R1M*temp1M-2*P1M'*temp1M; %Variable Temporal para la creacion del vector de la curva de aprendizaje LC1 CA1M=[CA1M Lc1M]; LCf2M=[LCf2M Lc1M-((P2M^2)/Lc1M)]; %Vector de la Curva de aprendizaje end
%*************Second stage************************************************* YM=[0 e1M(1:M-1)]; %Entrada para la etapa2 Salida de la etapa1 - Algoritmo CLMS YkM=toeplitz([0 0],[0 e1M(1:M-1)]); MV2M=cov(YkM'); R22M=MV2M(1,1); %Matriz de Correlacion de entrada R2 P22M=MV2M(1,2); %Vector Columna P2 dk3M=e1M(1:M-1); A2M=[0]; %Vector para la creacion de valores tap2, inicializado en 0 for n=1:M-1 e2M(n)=dk3M(n)-YM(:,n)'*A2M(:,n); %Vector error Ek=(dk - W*Xk) para la etapa 2 del Algoritmo CLMS temp2M=A2M(:,n)+2*mu*e2M(n)*YM(:,n); %Variable temporal para la creacion final del vector de valores del Tap2 A2M=[A2M temp2M]; %Vector valores de convergencia Tap2 Lc2M=ve2M+temp2M'*R22M*temp2M-2*P22M'*temp2M; CA2M=[CA2M Lc2M]; end
%*************Astar for CLMS algorithm*********************************** f1=[a1M+a2M] %Valor final del VECTOR del TAP1
XX
UPS f2=[-a1M*a2M] TAP2 del CLMS
Anexos %Valor final del VECTOR del
A1optimoCLMSM=[A1M+A2M]; %Vector Total TAP1 Grafica de Convergencia de sus valores a valor ideal A2optimoCLMSM=[-A1M.*A2M]; %Vector Total TAP2 Grafica de Convergencia de sus valores a valor ideal %******************************************************************* ******* %******************************************************************* ******* %/////////////////////////////////////////////////////////////////// ///////
%*************Graficando Curva de Taps y Curvas de Aprendizaje************* %*************************Figura 1***************************************** title('Convergencia de los Pesos (TAPS) LMS / CLMS / FCLMS') xlabel('Numero de Iteraciones k') ylabel('Valor del Peso') figure(1);clf plot(k,A,'k'); LMS hold on
%Curva del Vector del Tap1 y Tap2 a*
plot(k,A1optimoCLMS,'b') hold on plot(k,A2optimoCLMS,'b') hold on
%Curva del Vector del Tap1 a1* CLMS
plot(k,A1optimoCLMSM,'c') FCLMS hold on plot(k,A2optimoCLMSM,'c') FCLMS hold on
%Vector Tap1 del nuevo Algoritmo a1*
plot(k,aoptimo(1,1),'r'); a* LMS hold on plot(k,aoptimo(2,1),'r') a* LMS hold on plot(k,aoptimoCLMS(2,1),'g') a* CLMS hold on
%Recta que identifica valor max de
%Curva del Vector del Tap2 a2* CLMS
%Vector Tap2 del nuevo Algoritmo a1*
%Recta que identifica valor min de %Recta que identifica valor min de
grid on; %/////////////////////////////////////////////////////////////////// ///////
%********* Curva de Aprendizaje LMS / CLMS /FCLMS *************************
XXI
UPS
Anexos
figure(2);clf title('Curva de Aprendizaje LMS / CLMS / FCLMS') xlabel('Numero de Iteraciones k') ylabel('MSE') plot(k,CA,'r') hold on
%Curva de Aprendizaje LMS
plot(k,LCf2,'b') hold on
%Curva de Aprendizaje CLMS
plot(k,LCf2M,'c') hold on
%Curva de Aprendizaje FCLMS
plot(k, mseLMS ,'g') Curva de Aprendizaje LMS hold on
%Recta q denota el min valor para
grid on;
XXII
UPS
Anexos ANEXO 2: APLICACIONES DEL FILTRO DIGITAL HIBRIDO FIR ADAPTATIVO LINEAL ÓPTIMO El filtro adaptativo que se ha creado tiene una diversidad de aplicaciones y a
continuación se presentara como es que se puede aplicar este filtro digital.
1.- Detección del Electrocardiograma Fetal en el Electrocardiograma de la Madre. ECG (Electrocardiograma) que no es más que un TEST que registra la actividad eléctrica del corazón.
Razones: Las razones por las cuáles se aplica este examen son para identificar: -Daños en el corazón. -el efecto que están produciendo algunos dispositivos dentro del corazón como un marcapasos. -Para comprobar la rapidez con la que esta latiendo el corazón e identificar su normal o anormal funcionamiento según los resultados. -Para identificar la posición de las cámaras del corazón. -Si un paciente presenta dolor torácico, se puede tomar un ECG que puede identificar cualquier anomalía como una cardiopatía.
Un examen ECG puede ser aplicado rutinariamente para personas mayores de 40 años para el buen control y diagnostico de anomalías o cualquier otro padecimiento.
No existen riesgos puesto que no se emite electricidad a través del cuerpo evitando así el riesgo de un shock.
Aplicación en la práctica. Para el caso específico, como se nombro en el título de esta aplicación, lo que se quiere obtener es el Electrocardiograma fetal (fECG), pero con el problema de que se tiene como interferencia el Electrocardiograma materno (mECG).
XXIII
UPS
Anexos El problema se da en que en que estas dos señales tiene un contenido
espectral parecido por lo que no sería factible separarlas por un filtro selectivo en frecuencias ya que distorsionarían la señal del fECG. Ante esto se propone el uso de un Filtro Digital Adaptativo para cancelar el ruido. La señal está compuesta por la señal deseada o señal fetal f(n) y por la señal materna M(n) (Despreciando el ruido generado por los equipos y externos en el ambiente). Como señal de entrada se usara la señal M’(n) obtenida del sensor que se coloca en el tórax de la madre, la cual no se encontrará correlacionada con la componente fetal encontrada también en la parte abdominal de la madre. El objetivo está en que el filtro adaptativo tomará la señal materna y la modelará de tal forma que a la salida del filtro la señal de error obtenida solo tendrá la componente fetal.
Matemáticamente la señal de error cuadrático que se generará será: e2 (n) f (n) M (n) M *(n)
2
Existe una nula correlación entre f(n) y M’(n) por lo que el sistema modelara la señal M(n), y en este caso la señal de error es f(n) que la señal que se quiere obtener. Se debe denotar que el punto clave se encuentra en la correlación entre las fuentes de ruido, así como la estimación de que no existe relación entre la señal de ruido de la que se quiere obtener.
f ( n) M ( n)
-
+
Señal Deseada
M * ( n) M '(n)
z
D
Retardo de la decorrelación
Predictor Lineal FIR
Señal de error
e( n ) f ( n ) M * ( n ) Algoritmo Adaptativo
Fig 1. Esquema básico de un Cancelador de Ruido.
XXIV
UPS
Anexos
Objetivo del Filtro Adaptativo. Como se puede ver en la Fig. 1, la señal materna como fetal se sintetizan y son la entrada al filtro. Por otra parte la señal materna es usada como señal de referencia haciéndola pasar por el predictor y obteniendo así muestras de la misma. El objetivo es la substracción de esta señal materna de la de entrada, o de la sintetizada que es obtenida como ingreso al filtro. Posteriormente este resultado de substracción pasará por el filtro adaptativo el mismo que se irá acoplando a los cambios de la señal y se acercará aún más a la obtención de la señal deseada o señal de error que nos representa la construcción fiable de la señal fetal que se quiere llegar como objetivo, pero ya sin interferencias, ni señales que puedan distorsionarla.
Gráficas. Gráficamente se verá el resultado que se obtiene de las diferentes señales que representan los diferentes ECGs, tanto de la madre, fetal, la síntesis entre ambas y el resultado obtenido al final del filtro
mECG
Fig 2. Electrocardiograma Materno
XXV
UPS
Anexos
fECG
Fig 3. Electrocardiograma Fetal.
Señal de entrada, suma entre el mECG y el fECG
Fig 4. Señal de entrada al filtro-Suma entre mECG y fECG.
XXVI
UPS
Anexos Comparación entre señal sumada (entrada) y el resultado obtenido.
Fig 5. Rojo.- Señal de respuesta, error cuadrático. Azul.- Señal de entrada al filtro.
XXVII