Filtrado Adaptable de Un ECG Usando Un DSP PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 167

Agradecimientos

Agradecemos a la Universidad Autónoma del Estado de Hidalgo por habernos


permitido desarrollar profesionalmente.

A nuestros asesores Doctor Luis Enrique Ramos Velasco y al Doctor Virgilio


López Morales les expresamos nuestra gratitud por habernos guiado experta y
pacientemente durante todo el proceso.

Este trabajo de tesis fue elaborado gracias al proyecto PROMEP con número
103.5/05//2038.
((Deseo expresar mi gratitud a mi gente, a mi
mamá y a mi hermana, por haberme dado
acceso a un mundo nuevo para mi y muy
especialmente a la fuerza espiritual que hay
dentro de mi, a Dios.))

Dulce Marı́a Licona Rios

((A mis padres y hermanos sin cuyo apoyo


cualquier proyecto serı́a imposible GRACIAS.))

Gildardo Iván Lozano González


Resumen

En este trabajo de tesis se presentan resultados obtenidos en simulación y


emulación del procesamiento digital adaptable de señales biomédicas (el caso
particular del electrocardiograma) haciendo uso del DSP TMS320c6711 de
Texas Instruments. Los algoritmos utilizados hacen que la bioseñal presente
la calidad adecuada que facilite el diagnóstico, tanto mediante técnicas de
inspección visual como mediante técnicas actuales de inspección automática.

Los resultados reflejan las ventajas que presentan los filtros adaptables
sobre los filtros digitales clásicos, para el procesamiento de dichas señales.

Por otro, lado se demuestra la confiabilidad y precisión en el procesamien-


to de señales analógicas mediante técnicas digitales, en la solución de pro-
blemas de ingenierı́a electrónica, fácilmente implementables en Procesadores
Digitales de Señales.

i
Índice general

Resumen I

1. Introducción 1

2. Herramientas Matemáticas 15
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2. Señales y Sistemas . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1. Definición de Señal . . . . . . . . . . . . . . . . . . . . 17
2.2.2. Tipos de Señales . . . . . . . . . . . . . . . . . . . . . 17
2.2.3. Definición de Sistema . . . . . . . . . . . . . . . . . . . 23
2.3. Muestreo de Señales Analógicas . . . . . . . . . . . . . . . . . 27
2.4. Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.1. Convolución en Tiempo Continuo . . . . . . . . . . . . 29
2.4.2. Convolución en Tiempo Discreto . . . . . . . . . . . . 31
2.5. Serie de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5.1. Serie de Fourier en Tiempo Continuo . . . . . . . . . . 33
2.5.2. Serie de Fourier en Tiempo Discreto . . . . . . . . . . 38
2.6. La Transformada de Fourier . . . . . . . . . . . . . . . . . . . 39
2.6.1. Transformada de Fourier en Tiempo Continuo . . . . . 40
2.6.2. Transformada de Fourier en Tiempo Discreto . . . . . 42
2.7. Transformada Discreta de Fourier . . . . . . . . . . . . . . . . 45

iii
iv ÍNDICE GENERAL

2.8. Transformada Rápida de Fourier . . . . . . . . . . . . . . . . . 46


2.8.1. Cálculo Directo de la DFT . . . . . . . . . . . . . . . . 47
2.8.2. Metodologı́a de “Divide y Vencerás”para el Cálculo de
la DFT . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.9. La Transformada de Laplace . . . . . . . . . . . . . . . . . . . 51
2.10. La Transformada z . . . . . . . . . . . . . . . . . . . . . . . . 52
2.11. Resumen y Referencias . . . . . . . . . . . . . . . . . . . . . . 54

3. Filtros Digitales 55
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2. Filtros Analógicos vs Digitales . . . . . . . . . . . . . . . . . . 56
3.3. Filtrado Digital en el Dominio de la Frecuencia . . . . . . . . 58
3.4. Caracterı́sticas de Filtros Causales Selectivos en Frecuencia . . 61
3.4.1. Ventajas de los Filtros Digitales . . . . . . . . . . . . . 63
3.5. Clasificación de los Filtros Digitales . . . . . . . . . . . . . . . 63
3.5.1. Filtros FIR (Respuesta Impulsional Finita) . . . . . . . 63
3.5.2. Filtros IIR (Respuesta Impulsional Infinita) . . . . . . 66
3.6. Análisis Comparativo entre Filtros FIR e IIR . . . . . . . . . . 68
3.7. Resumen y Referencias . . . . . . . . . . . . . . . . . . . . . . 69

4. Filtrado Adaptable 71
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.2. Filtrado Lineal Óptimo . . . . . . . . . . . . . . . . . . . . . . 73
4.3. Predicción Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.4. Filtros Adaptables . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.1. Esquema Prototipo del Filtrado Adaptable . . . . . . . 81
4.4.2. Algoritmos de Filtrado Adaptable . . . . . . . . . . . . 83
4.5. Resumen y Referencias . . . . . . . . . . . . . . . . . . . . . . 87
ÍNDICE GENERAL v

5. Resultados 89
5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2. Espectro Frecuencial del ECG . . . . . . . . . . . . . . . . . . 91
5.3. Resultados de Simulación . . . . . . . . . . . . . . . . . . . . . 93
5.3.1. Filtro FIR . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.2. Filtro IIR . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.3.3. Filtro Adaptable . . . . . . . . . . . . . . . . . . . . . 100
5.3.4. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.4. Emulación en el DSP 320c6711 de Texas Instruments . . . . . 105
5.4.1. Validación del Algoritmo Seleccionado . . . . . . . . . 106
5.5. Resumen y Referencias . . . . . . . . . . . . . . . . . . . . . . 107

6. Conclusiones y Proyección Futura 109


6.1. Proyección Futura . . . . . . . . . . . . . . . . . . . . . . . . . 110

A. Artı́culo 111

B. DSP TMS320c6711 de Texas Instruments 117


B.1. Generalidades de un DSP . . . . . . . . . . . . . . . . . . . . 118
B.2. Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
B.2.1. Caracterı́sticas y Opciones . . . . . . . . . . . . . . . . 119
B.2.2. Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . 122
B.2.3. Archivos de Registros de Control . . . . . . . . . . . . 126
B.2.4. Caminos de Memoria, Cargas y Almacenamiento . . . 127
B.2.5. Modos de Direccionamiento . . . . . . . . . . . . . . . 127
B.2.6. Periféricos . . . . . . . . . . . . . . . . . . . . . . . . . 128

C. Producto Interno y Principio de Mı́nimos Cuadrados 133


C.1. Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . 133
C.2. El Principio de Mı́nimos Cuadrados . . . . . . . . . . . . . . . 134
vi ÍNDICE GENERAL

Referencias 141
Índice de figuras

1.1. Vista anterior y corte frontal del corazón. . . . . . . . . . . . . . 9


1.2. Monitoreo de un ECG. . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Ondas componentes de la señal electrocardiográfica. . . . . . . . . 11

2.1. Representación gráfica del impulso unitario. . . . . . . . . . . . . 19


2.2. Señales impulsos. . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3. Combinación lineal de impulsos para el Ejemplo 2.2.1. . . . . . . . 20
2.4. Representación gráfica del escalón unitario. . . . . . . . . . . . . 20
2.5. Representación gráfica de la rampa unidad. . . . . . . . . . . . . 21
2.6. Representación gráfica de la exponencial (real). A y a son reales,
a > 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7. Señales par e impar, coseno y seno respectivamente, con periodo
fundamental T . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.8. Esquema básico de un sistema. . . . . . . . . . . . . . . . . . . . 24
2.9. Muestreo periódico de una señal analógica. . . . . . . . . . . . . . 28
2.10. Sistema LTI con respuesta al impulso, h(t). . . . . . . . . . . . . 29
2.11. Representación gráfica de la señal y(t) del Ejemplo 2.4.1. . . . . . 30
2.12. Señales del Ejemplo 2.4.2 a convolucionar. . . . . . . . . . . . . . 32
2.13. Señal de salida y[n] del Ejemplo 2.4.2. . . . . . . . . . . . . . . . 32
2.14. Onda cuadrada del Ejemplo 2.5.1. . . . . . . . . . . . . . . . . . 36

vii
viii ÍNDICE DE FIGURAS

2.15. Reconstrucción de la señal x(t) empleando 1, 3 y 11 armónicos a


partir de series de Fourier para el Ejemplo 2.5.1. . . . . . . . . . 37
2.16. Espectro de la señal periódica del Ejemplo 2.5.2. . . . . . . . . . . 39
2.17. Par de transformadas para el Ejemplo 2.6.1. . . . . . . . . . . . . 44

3.1. Efecto de los filtros sobre las senoides. . . . . . . . . . . . . . . . 57


3.2. Respuestas en magnitud de los filtros discretos selectivos en fre-
cuencia ideales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3. Caracterı́sticas de magnitud de filtros fı́sicamente realizables. . . . 62
3.4. Ejemplos de h[n] para (a) Tipo I, (b) Tipo II, (c) Tipo III, (d)
Tipo IV de filtros FIR. . . . . . . . . . . . . . . . . . . . . . . . 66

4.1. Arquitectura general de un sistema adaptable. . . . . . . . . . . . 72


4.2. Esquema prototipo del filtro Wiener. . . . . . . . . . . . . . . . . 74
4.3. Filtrado lineal óptimo. . . . . . . . . . . . . . . . . . . . . . . . 76
4.4. Predicción lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.5. Estructura en celosı́a. . . . . . . . . . . . . . . . . . . . . . . . 80
4.6. Esquema prototipo del filtrado adaptable. . . . . . . . . . . . . . . 82

5.1. Diagrama básico del filtrado adaptable de un ECG. . . . . . . . . 90


5.2. Señal de ECG. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3. Espectro de la señal de ECG. . . . . . . . . . . . . . . . . . . . . 92
5.4. Estructura directa para la realización de un filtro FIR. . . . . . . . 93
5.5. (a) Señal de ECG alterada por ruido Gaussiano y (b) su espectro. . 95
5.6. Diagrama del filtro FIR en Simulink. . . . . . . . . . . . . . . . . 95
5.7. Diagrama de Bode del filtro FIR en Simulink. . . . . . . . . . . . 96
5.8. Señal de salida del filtro FIR. . . . . . . . . . . . . . . . . . . . 96
5.9. Estructura directa de un filtro IIR. . . . . . . . . . . . . . . . . . 97
5.10. Digrama del filtro IIR realizado en Simulink. . . . . . . . . . . . . 99
5.11. Diagrama de bode del filtro IIR en Simulink. . . . . . . . . . . . . 99
ÍNDICE DE FIGURAS ix

5.12. Señal de ECG filtrada del filtro IIR. . . . . . . . . . . . . . . . . 100


5.13. Diagrama del filtro FIR adaptable. . . . . . . . . . . . . . . . . . 100
5.14. Diagrama del filtro FIR adaptable LMS. . . . . . . . . . . . . . . 101
5.15. Resultados de simulación para LMS, con µ = 0.1. . . . . . . . . . 102
5.16. Resultados LMS, con µ = 0.01. . . . . . . . . . . . . . . . . . . . 102
5.17. Diagrama del filtro FIR Adaptable RLS. . . . . . . . . . . . . . . 103
5.18. Resultados de simulación para RLS. . . . . . . . . . . . . . . . . 103
5.19. (a) Señal ECG original y respuesta de los filtros (b) FIR y (c) IIR. 104
5.20. (a) Señal ECG origial y respuesta del filtro FIR adaptable (b) LMS,
(c) RLS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.21. Diagrama de emulación usando el DSP y MATLAB. . . . . . . . 106
5.22. Resultados de emulación de un filtro FIR adaptable LMS, (a) Señal
oroginal ECG, (b) Señal con ruido y (c) Señal filtrada. . . . . . . 107

B.1. Diagrama básico de un DSP. . . . . . . . . . . . . . . . . . . . . 118


B.2. DSP TMS320c6711. . . . . . . . . . . . . . . . . . . . . . . . . 119
B.3. Diagrama de bloques del DSP. . . . . . . . . . . . . . . . . . . . 122
B.4. Caminos de datos del DSP c6711 . . . . . . . . . . . . . . . . . 124
B.5. Unidades funcionales del DSP c6711. . . . . . . . . . . . . . . . 125
B.6. Diagrama de bloques con los periféricos del DSP c6711 . . . . . . 129
Índice de tablas

1. NOTACIÓN EMPLEADA EN LA TESIS. . . . . . . . . . . . . . . . . xv

1.1. EJEMPLOS DE SE~NALES Y SU FRECUENCIA ASOCIADA. . . . . . . . 5


1.2. DURACIÓN DEL INTERVALO QT. . . . . . . . . . . . . . . . . . . . 13

xi
Indice de Algoritmos

5.1. ALGORITMO: ESPECTRO DE UNA SEÑAL ECG . . . . . 91


5.2. ALGORITMO: FILTRO FIR. . . . . . . . . . . . . . . . . . . 94
5.3. ALGORITMO: FILTRO IIR REALIZACIÓN DIRECTA. . . . 97

xiii
Notación y Simbologı́a

En la Tabla 1 se resume la notación empleada en el desarrollo de este


trabajo de tesis.

Tabla 1: NOTACIÓN EMPLEADA EN LA TESIS.

SÍMBOLO DESCRIPCIÓN
AR Autoregresivo
DFT Transformada discreta de Fourier
DSP Procesador digital de señales
ECG Electrocardiograma
EEG Electroencefalograma
EMG Electromiograma
FFT Transformada rápida de Fourier
FIR Respuesta impulsional finita
IIR Respuesta impulsional infinita
LMS Least Mean Square
LTI Lineal Invariante en el Tiempo
MA Media en movimiento
MAC Operación de multiplicación y acumulación
RLS Recursive Least Square

xv
Capı́tulo 1

Introducción

l análisis de señales se hace con el propósito de extraer información de


E estas; la mayor parte de las señales (señales sı́smicas, biomédicas y elec-
tromagnéticas) que aparecen en los ámbitos de la ciencia y la ingenierı́a son
de naturaleza analógica, es decir, las señales son funciones de una variable
continua, como el tiempo o el espacio y normalmente toman valores en un
rango continuo.

Los procesadores digitales, las herramientas matemáticas y el desarrollo


de diferentes tipos de algoritmos para el procesamiento digital de señales pro-
porcionan un método alternativo para el procesamiento de una señal analógi-
ca y ası́ hacen posible la realización de analizadores de señales [15].

El procesamiento digital de señales es una área de la ciencia y de la


ingenierı́a que se ha desarrollado rápidamente durante los últimos 30 años.
Este amplio crecimiento que ha tenido la industria digital se debe en gran
medida al desarrollo de algoritmos de procesamiento digital de señales en los
que se requiere de aplicaciones tales como filtrado, compresión, análisis en
frecuencia entre otras [21].

1
2

Los sistemas programables tienen un gran número de aplicaciones en el


campo del procesamiento digital de señales, entre las que se encuentran la
ecualización de canales, cancelación de ecos, etc., y en ellas destaca la can-
celación activa de ruido que se aplica cuando no es posible usar los procedi-
mientos clásicos de eliminación de ruido (filtros selectivos en frecuencia), tal
es el caso de los EEG, ECG y EMG. La solución óptima a dicho problema
es el empleo de los filtros adaptables, dispositivos que utilizan algoritmos
recursivos.

Justificación
Esta tesis nace de la necesidad de construir innovadoras herramientas
para atacar problemas tradicionales con nuevas expectativas y perspectivas,
y, realizar estudios de alta sensibilidad con origen en el filtrado adaptable y
la actual tecnologı́a digital.

Con el presente trabajo se pretende aportar una herramienta matemática


que sirva para el procesamiento digital de señales médicas, en el contexto
del filtrado digital, ya que la implementación de un filtro ideal es imposible,
pero se pueden obtener excelentes filtros digitales con relativamente pocos
recursos que, en términos prácticos y dependiendo de la aplicación particular,
pueden tener un buen desempeño.

El continuo desarrollo del procesamiento digital de señales es el resultado


de los avances tecnológicos tanto en procesadores digitales como en circuitos
integrados. Actualmente estos resultan ser baratos, rápidos y confiables para
construir sistemas digitales altamente sofisticados, capaces de realizar fun-
ciones y tareas del procesamiento digital de señal que normalmente eran
1. Introducción 3

demasiado difı́ciles, costosos y de baja precisión cuando se emplea circuiterı́a


o sistemas de procesamiento de señales analógicas.

El procesamiento digital no solo tiene las ventajas arriba mencionadas,


si no que presenta otra de especial interés; es posible realizar operaciones
programables que, por medio de software, pueden ser modificadas fácilmente
cuando ası́ se requiera, sin alterar el sistema mismo, ası́ las funciones de
procesamiento pueden ser ejecutadas por un hardware único. Por lo tanto, el
hardware digital y software asociado proporciona un mayor grado de flexibi-
lidad en el diseño y desarrollo de sistemas.

El principal problema en un sistema de procesamiento de señales biomédi-


cas es la dificultad para adquirir la señal pura, es decir, sin ruido; ya que para
el estudio de una señal proveniente del cuerpo humano es necesario tener la
señal de forma pura o lo más limpia posible, tal y como es generada, sin in-
terferencia alguna que modifique sus parámetros y de esta manera el médico
especialista pueda apoyarse en esta señal para dar un diagnóstico. Es posible
minimizar los efectos del ruido que alteran la señal mediante un tratamiento
digital y una herramienta opcional adecuada para ello es el procesamiento
adaptable.

En un filtro adaptable los parámetros que lo caracterizan como filtro cam-


bian con el tiempo, en contraposición con los filtros tradicionales (IIR, FIR)
que no varı́an en el tiempo. Las señales generadas por el cuerpo humano
pueden variar o sufrir alteraciones por diversos factores, la idea del filtro
adaptable es “adaptar” sus parámetros en función de los cambios que sufra
la señal del ECG.
4

Objetivo General
El objetivo de este trabajo de tesis es diseñar filtros adaptables para el
procesamiento digital de un ECG haciendo uso de un DSP para su emulación.

Objetivos Especı́ficos
Puesta en operación un DSP.

Programación de algoritmos de filtros adaptables.

Emulación del procesamiento de un electrocardiograma.

Antecedentes
A partir de los años 60, innumerables propuestas respecto al procesamien-
to de bioseñales empezaron a surgir, se desarrollaron un sin número de al-
goritmos y métodos aplicando diversos conceptos matemáticos y estadı́sti-
cos, ası́ como algoritmos computacionales enfocados a redes neuronales o re-
conocimiento de patrones, intentando abordar el problema desde diferentes
campos. Es ası́, pues que hoy en dı́a los programas encargados de interpretar
dichas señales utilizan una enorme variedad de técnicas para el análisis de
estas [13].

La generación de señales eléctricas de un organismo biológico como es la


actividad eléctrica interna generada por comportamientos o funcionamientos
especı́ficos de órganos internos, contiene información (parámetros) muy im-
portante en el estudio y entendimiento del mismo. De esta manera el cuerpo
humano genera múltiples señales eléctricas (bioeléctricidad) capaces de ser
1. Introducción 5

monitoreadas, y a partir de las cuales, se extrae información.

Por ejemplo se tiene señales eléctricas asociadas a la actividad oculara b ,


respiratoria c , cardı́aca d , cerebral e , muscular f ,sanguı́nea g , etc., cada una de
ellas con un rango de frecuencias diferentes como se muestra en la Tabla 1.1.

Tabla 1.1: EJEMPLOS DE SE~NALES Y SU FRECUENCIA ASOCIADA.

TIPO DE SEÑAL RANGO DE FRECUENCIA (Hz)


Electroretinograma a 0 - 20
Electronistagmogramab 0 - 20
Neumograma c 0 - 40
Electrocardiograma d 0 - 100
Electroencefalograma e 0 - 100
Electromiograma f 10 - 200
Esfigmomanograma g 0 - 200
Voz 1000 - 4000

Actualmente algunos analizadores de estas señales asisten al médico pro-


porcionando un diagnóstico, mientras otros únicamente proveen un limitado
número de parámetros mediante los cuales el médico puede hacer su pro-
pio diagnóstico basado en las caracterı́sticas extraı́das. Existen analizadores
disponibles con la capacidad de ofrecer más de cien diagnósticos alternativos,
sin embargo la fidelidad de éstos es aún incierta.

A continuación se presentan brevemente algunas de las técnicas más uti-


lizadas en los analizadores actuales que están relacionados con el tema bajo
estudio en esta tesis.
6

Sistemas de Procesamiento Electrocardiográfico en Tiempo Real

El procesamiento de señales electrocardiográficas en tiempo real es una


tarea sumamente delicada y compleja. Analizadores que realizan trabajos de
este tipo tratan de asegurar la fiabilidad de sus resultados mediante el uso de
procedimientos redundantes en procesamiento de señales, además de tener
que cuidar aspectos relacionados con el consumo de energı́a y el tiempo de
vida de las baterı́as en los dispositivos.

Los métodos utilizados para la detección de los picos que componen un


ECG son variables. Existe un gran número de algoritmos de reconocimiento
utilizados en los analizadores electrocardiográficos, y en muchos de los ca-
sos los principios de operación de estos varı́an considerablemente. Algunos
se basan en diferentes tipos de manipulación de amplitudes mientras otros
examinan la señales en dominio de frecuencias empleando técnicas como la
aplicación de diversos filtros y procesamiento de wavelets.

Las propiedades adaptables de los algoritmos con respecto al cambio de


señal pueden también diferir, y algunos algoritmos utilizan métodos estadı́sti-
cos para su identificación. Un ejemplo de algoritmo que utiliza métodos es-
tadı́sticos fue propuesto hace ya dos décadas por Touch en 1986 para calcular
la lı́nea base electrocardiográfica.

Interpretación de Señales Electrocardiográficas Utilizando


Reconocimiento de Patrones

Algunos investigadores aseguran que la interpretación de señales electro-


cardiográficas es una tı́pica aplicación de reconocimiento de patrones, exis-
tiendo hoy en dı́a sofisticados analizadores electrocardiográficos que en casos
1. Introducción 7

especı́ficos pueden lograr incluso un mayor grado de exactitud en su diagnósti-


co al que seria obtenido por un cardiólogo. No obstante, perduran aún ciertos
cambios electrocardiográficos demasiado complejos de identificar mediante el
uso de las computadoras [28].

Los analizadores más simples monitorean diferencias entre señales. En sis-


temas de procesamiento basados en reconocimiento de patrones en los cuales
el análisis no es realizado en tiempo real, se obtiene una muestra represen-
tativa a partir de los ciclos medidos, y esta es utilizada en el análisis. Los
métodos más tı́picos para la elaboración de muestras representativas son la
construcción de ciclos promedios y construcción de ciclos de medianas. Los
parámetros basados en estos métodos pueden ser usados como valores de re-
ferencia para cada ciclo de manera separada, pudiendo determinar entonces
la variación de los parámetros.

Por último cabe destacar que los parámetros obtenidos a partir de la señal
medida dependen de cada aplicación.

Sistemas Existentes

Actualmente en Estados Unidos, Europa, Asia y algunos paı́ses de África,


muchas de las compañı́as lideres en el área de aparatos electrónicos están in-
gresando en el campo de la medicina. Algunas se interesan únicamente en la
fabricación de nuevos dispositivos para el cuidado de la salud, sin embargo
otras se involucran más afondó, adentrándose en el terreno de la investigación,
el desarrollo de nuevos y más eficientes algoritmos e incluso la generación de
ofertas educativas. Por mencionar algunas de estas empresas, se encuentra
entre ellas: Philis, General Electric, Toshiba y Sony.
8

El desarrollo de estas empresas se enfoca principalmente en sistemas de


imágenes y monitoreo radiológico, cardiológico, neurológico y/o prenatal para
pacientes en estado preoperatorio, cuidado crı́tico o embarazadas.

Un ejemplo muy común es el monitoreo de pacientes ambulantes con pro-


blemas cardı́acos. Esto es, el uso de dispositivos inalámbricos que graban la
señal tomada del paciente y se comunican al centro de telemetrı́a del hospi-
tal. El primero de ellos, llamado PatientNet, de la empresa General Electric;
el segundo Cardioline del grupo Ángeles en México [28].

Generalidades del ECG


Un ECG es la representación gráfica de la tensión contra tiempo de la ac-
tividad cardiovascular de un paciente, que ofrece información acerca del esta-
do del músculo cardı́aco [20]. El origen se encuentra en las células del músculo
cardı́aco, las cuales pueden ser excitadas eléctricamente, produciéndose un
flujo de iones a través de su membrana, lo cual induce un potencial eléctrico
variable en el interior y en el exterior.

El corazón se contrae únicamente si el músculo cardı́aco cambia la con-


ductividad de su pared celular, permitiendo un flujo de iones de Calcio como
elemento más caracterı́stico dentro de un complejo proceso. En general, la
contracción es disparada por el nodo sinusal, situado en la posición cefálica
de la aurı́cula derecha y compuesto por un grupo de células que tienen co-
mo caracterı́stica peculiar que se despolarizan automáticamente cada 800ms.
Esta despolarización se transmite a las células auriculares adyacentes, des-
cribiendo un flujo de cationes Na+ y Ca++, que irrumpen desde el medio
extracelular hacia el interior cuando la membrana se hace permeable. En la
1. Introducción 9

Figura 1.1 se muestran las principales partes y la estructura genérica del


sistema nervioso del corazón.

Figura 1.1: Vista anterior y corte frontal del corazón.

La fase de recuperación se conoce como repolarización, y durante este


periodo las concentraciones de iones vuelven al nivel normal. En reposo las
células tienen un potencial transmembrana de 90mV. Este potencial es cı́cli-
co, con un periodo de entre 400 y 1200ms.

Existe una conexión especial, el nodo auriculoventricular o AV, que avan-


za de aurı́cula a ventrı́culo, evitando frecuencias cardiacas superiores a 200
lpm (latidos por minuto) [7]. La despolarización del músculo produce un nivel
positivo que precede a la onda de avance. Pasado este tiempo, la excitación
continua a través del Haz de His hasta alcanzar las fibras de Purkinje donde se
transmite a todos los puntos de los ventrı́culos izquierdo y derecho causando
su contracción (esto significa que en la superficie del músculo los electrodos
recogen un nivel positivo), lo que provoca que la sangre venosa salga en di-
rección a los pulmones y la sangre arterial hacia el resto del cuerpo.
10

Para adquirir la señal los sensores de tensión (electrodos) son colocados


en el pecho del paciente y la señal recogida es llevada al electrocardiógrafo,
donde es mostrada a través de un monitor, como se muestra en la Figura 1.2.

ECG

Electrodo

Electrocardiógrafo

Figura 1.2: Monitoreo de un ECG.

Uno de los grandes problemas que se presenta en la obtención de la señal


de baja frecuencia, es su alta susceptibilidad a la interferencia por ruido,
como la producida por la red misma, que posee una frecuencia muy cercana
a la actividad cardı́aca y además de ser superior en amplitud. Otros tipos
de ruidos pueden ser generados por el movimiento relativo del contacto entre
electrodo-piel, o el ruido generado por las señales eléctricas de los músculos
(señales electromiográficas) y los ruidos propios del entorno.

Por lo tanto es preciso eliminar la interferencia que se introduce al ob-


tener un ECG. Parece sencillo a simple vista resolver este problema, quizás
mediante el empleo de un filtro NOTCH, que eliminase las frecuencias no
deseadas, sin embargo, debido a la cercanı́a que puede existir entre las fre-
cuencias de las señales involucradas se requiere de un filtro muy selectivo
para no eliminar la señal útil. Como resultado el orden del filtro deberı́a ser
muy alto, lo cual involucra una gran complejidad, aumentando con ello su
costo. Una mejor alternativa la ofrecen los filtros adaptables, que bien puede
1. Introducción 11

ser la configuración de un filtro digital FIR adaptable, ya que reduce en gran


medida dicha interferencia si no es que la elimina por completo.

Ondas Componentes del ECG


Durante la despolarización y repolarización miocárdica, aparecen las on-
das del ECG. Las distancias entre deflexiones u ondas se denominan seg-
mentos o intervalos. Un periodo del ECG perteneciente a un individuo sano,
consiste en una onda P, el complejo QRS, la onda T y la onda U, tal como
se muestra en la Figura 1.3.

Figura 1.3: Ondas componentes de la señal electrocardiográfica.

Las porciones del electrocardiograma entre las deflexiones se denominan


segmentos, y las distancias entre ondas se denominan intervalos. El ECG
puede ser dividido en los siguientes intervalos y segmentos [12]:

Onda P. Representa la despolarización de la aurı́cula. Su duración nor-


mal es de 0.1s. La forma depende de la localización de los electrodos
(derivación). Un aumento del voltaje o de la duración de esta onda
indica una anomalı́a auricular. La ausencia de esta onda ocurre en una
12

parada del nodo sinusal, y en el bloqueo SA sinoauricular (situación en


la que sı́ se despolariza el nodo sinusal, pero no se transmite el impulso
a las células de la aurı́cula contiguas).

Complejo QRS. Representa la despolarización de los ventrı́culos. Se


forma por las ondas Q, R y S, aunque se pueden presentar otras de-
nominadas R0 y S0 . Su duración es de aproximadamente 100ms.

Onda T. Representa la repolarización de los ventrı́culos. La onda T


normal es asimétrica en sus ramas y está redondeada en su vértice. La
pendiente de la rama inicial es más suave que la de la rama terminal.
Las anomalı́as de esta onda pueden indicar enfermedades cardiacas pri-
marias, aunque hay casos de personas sanas con las mismas anomalı́as.
También puede traducir transtornos del equilibrio hidroelectrolı́tico.

Onda U. Tiene un origen fisiológico poco claro. Es anormal en transtor-


nos del Potasio.

Segmento PR. Corresponde a la lı́nea isoeléctrica entre el comienzo de


la onda P y la deflexión inicial del complejo QRS. La duración normal
de este segmento está entre 0.12 y 0.21s, dependiendo de la frecuencia
cardı́aca.

Segmento ST. Es el intervalo entre el final del complejo QRS y el ini-


cio de la onda T. Representa el tiempo durante el que los ventrı́culos
permanecen en estado activado y puede iniciarse la repolarización ven-
tricular. Normalmente el segmento ST es isoeléctrico, aunque puede
estar también ligeramente desviado. Una desviación elevada a menudo
representa un infarto de miocardio, una pericarditis aguda o una mio-
carditis.
1. Introducción 13

Intervalo PP. Corresponde al intervalo de tiempo entre el comienzo de


la onda P y el comienzo de la siguiente onda P.

Intervalo RR. Corresponde al intervalo de tiempo entre la onda R de


un complejo QRS y la onda R del siguiente complejo QRS.

Intervalo QRS. Corresponde al intervalo de tiempo entre el comienzo


de la onda Q y el final de la onda S, dentro del mismo complejo QRS.
Es un indicador del tiempo de conducción intraventricular.

Intervalo QT. Corresponde al intervalo de tiempo entre el comienzo del


complejo QRS y el final de la onda T, representando la duración de la
sı́stole eléctrica. La relación entre el ritmo cardiaco y la duración de
este intervalo viene dado en la Tabla 1.2.

Tabla 1.2: DURACIÓN DEL INTERVALO QT.

Ritmo Cardiaco Duración del QT(s)


60 0.33-0.43
70 0.31-0.41
80 0.29-0.38
90 0.28-0.36
100 0.27-0.35
120 0.25-0.32

Organización de la Tesis
Este trabajo de tesis se organiza en 6 capı́tulos, con el siguiente contenido:
14

El Capı́tulo 2 está dedicado a la caracterización y análisis de señales


y sistemas LTI (tanto en tiempo continuo como en tiempo discreto)
mediante el empleo de técnicas de transformación, iniciando con la
convolución, a esta siguen las series y la transformada de Fourier, con
las que es posible el análisis en frecuencia de las señales y sistemas.
De la misma manera se describen otras técnicas como la transformada
discreta de Fourier (DFT) y la transformada rápida de Fourier (FFT).
Finalizando con los métodos de Laplace y transformada Z.

Los filtros se introducen en el Capı́tulo 3. En él se presentan las carac-


terı́sticas de los filtros causales, no causales, analógicos y discretos. Se
caracteriza también el diseño de los filtros FIR e IIR sencillos, ası́ como
algunas propiedades importantes para su aplicación práctica.

En el Capı́tulo 4 se introduce al filtrado lineal óptimo que permite el


diseño de los filtros adaptables. Continua con la teorı́a de la predicción
lineal que permite el estudio de señales con caracterı́sticas aleatorias,
finalmente se describen los filtros adaptables, desde su esquema básico
hasta sus algoritmos.

En el Capı́tulo 5 se diseñan, simulan, emulan y analizan los filtros di-


gitales para el procesado del ECG, se empieza con el filtro FIR de
estructura directa, continua con el IIR y finaliza con el filtro FIR adap-
table, que forma el corazón de este trabajo de tesis.

Finalmente las conclusiones y trabajo futuro son presentados en el


Capı́tulo 6.
Capı́tulo 2

Herramientas Matemáticas

n el capı́tulo anterior se describen brevemente algunas investigaciones


E realizadas sobre el tratamiento digital de señales biomédicas. Lo anterior
permite ver la revolución tecnológica, tan sólo en el campo de las ciencias
médicas, que ha sido posible gracias a la aplicación de técnicas de proce-
samiento digital de señales.

Es importante saber que dichas técnicas de análisis y diseño de sistemas


LTI se realizaron por un principio para señales continuas en el tiempo, sin
embargo, debido al gran desarrollo de la era digital, en la que actualmente
estamos inmersos, fue necesario ampliar la aplicación de las técnicas del
tratamiento digital sobre sistemas que emplean señales en tiempo continuo.
En este capı́tulo se dan las herramientas básicas para el procesamiento digital
de señales.

15
16 2.1. Introducción

2.1. Introducción

Resulta indispensable dar a conocer las definiciones y herramientas mate-


máticas empleadas en este trabajo de tesis, esto con el fin de comprender con
mayor claridad y facilidad el procesamiento adaptable de señales médicas.

Las técnicas de transformación aplicadas sobre señales y/o sistemas per-


miten estudiar sus caracterı́sticas y comportamiento, que en muchas oca-
siones resulta difı́cil o imposible tal y como se presentan (en el dominio del
tiempo), es en el dominio de la frecuencia, en donde si es posible realizar un
análisis más claro.

A lo largo de este capı́tulo se resumen conceptos y técnicas de transfor-


mación en el procesamiento de señales, tanto en caso continuo, como en caso
discreto. Ello debido a la interrelación de los sistemas y señales de ambos
casos.

Es pertinente aclarar que no se realiza un estudio profundo, puesto que


no es este el objetivo, sin embargo, para quien requiera de mayor información
puede consultarlo en la bibliografı́a [19, 21].

El capı́tulo comienza con las series y trasformadas de Fourier en tiempo


continuo y su contraparte en tiempo discreto. Continua con la transformada
discreta de Fourier y la transformada rápida de Fourier. Finalmente se pre-
senta la trasformada de Laplace y su complementaria en tiempo discreto, la
transformada z. De esta manera se puede proseguir con el siguiente capı́tulo
sobre filtros digitales. Estas herramientas matemáticas son utilizadas en los
Capı́tulos 3, 4 y 5.
2. Herramientas Matemáticas 17

2.2. Señales y Sistemas

Los conceptos de señales y sistemas aparecen con frecuencia en una varie-


dad muy amplia de campos, las ideas y técnicas asociadas a estos conceptos
son de suma importancia en las diversas áreas de la ciencia y tecnologı́a como
las comunicaciones, acustica, sismologı́a, procesamiento de voz e ingenierı́a
biomédica, solo por mencionar algunas.

El estudio de un sistema simplemente no es posible sin el empleo de


señales y el estudio de las señales no tiene objeto si estas no tienen apli-
cación en algún sistema. A continuación se describe brevemente a las señales
y sistemas, ası́ como su interrelación que guardan. Además se mencionan
algunas clasificaciones de los mismos.

2.2.1. Definición de Señal

Una señal es una cantidad fı́sica que varı́a con el tiempo, el espacio o
cualquier otra variable u otras variables independientes y contiene informa-
ción acerca de la naturaleza o comportamiento de algún fenómeno. Ejemplos
de señales son voltaje y corriente como funciones del tiempo en un circuito
eléctrico, otro ejemplo es la señal de ECG, que proporciona información sobre
el estado del corazón.

2.2.2. Tipos de Señales

En el universo existe una amplia variedad de señales y su clasificación,


depende en gran medida de una aplicación concreta, es de igual manera
amplia. Para fines de este trabajo es suficiente la clasificación siguiente:
18 2.2. Señales y Sistemas

Señal Continua en el Tiempo

Es aquella señal que está definida para todos los valores del tiempo y
puede tomar cualquier valor en el intervalo continuo. Matemáticamente estas
señales se describen como funciones continuas de una variable continua, en
el desarrollo subsecuente de este trabajo la variable independiente aparece
encerrada entre paréntesis, por ejemplo; x(t) = est .

Señal Discreta en el Tiempo

Es aquella que se define (o existe) sólo para ciertos valores de tiempo y se


representa matemáticamente como una secuencia de números reales o com-
plejos. La variable independiente se representa con la letra n y se encierra
entre corchetes como en el siguiente ejemplo; [n] = an , si n ≥ 0.

Adicionalmente, es necesario saber que hay señales, que sirven como ge-
neradores básicos y que a partir es posible construir muchas otras señales,
comunmente a estas señales se les denomina señales elementales. Tal es el
caso de la función impulso unitario dado por

(
1, t = 0
x(t) =
0, t 6= 0
cuya gráfica correspondiente se presenta en la Figura 2.1.

Ejemplo 2.2.1 Dadas las señales

x1 = [ 2 0 0 0 ]
x2 = [ 0 4 0 0 ]
x3 = [ 0 0 3 0 ]
x4 = [ 0 0 0 1 ]
2. Herramientas Matemáticas 19

Figura 2.1: Representación gráfica del impulso unitario.

cuya representación gráfica de cada una se encuentra respectivamente en la Figura


2.2a,b,c,d. Obtener la combinación lineal de estas cuatro señales que resulta de la
suma algebraica.

(a)

(b)

(c)

(d)

Figura 2.2: Señales impulsos.

Basta con sumar uno a uno los valores verticalmente, la señal resultante queda
definida como

x=[ 2 4 3 1 ]

cuya representación gráfica corresponde a la Figura 2.3.


20 2.2. Señales y Sistemas

Figura 2.3: Combinación lineal de impulsos para el Ejemplo 2.2.1.

Igualmente la función escalón unitario expresado como


(
0, t < 0
x(t) =
1, t > 0
La Figura 2.4 corresponde a la representación gráfica de la función es-
calón.

Figura 2.4: Representación gráfica del escalón unitario.

Una señal elemental más de este tipo es la función rampa unidad, para este
caso se muestra en tiempo discreto. La Figura 2.5 ejemplifica gráficamente
2. Herramientas Matemáticas 21

a la siguiente expresión que le corresponde

(
n, n ≥ 0
xr [n] =
0, n < 0

Figura 2.5: Representación gráfica de la rampa unidad.

Finalmente se presenta la señal exponencial compleja dada por la expre-


sión
x(t) = Aeat

válida para toda a. Un ejemplo de esta señal se presenta en la Figura 2.6.

Como se puede observar, la representación de las señales anteriores puede


hacerse tanto para tiempo continuo como para tiempo discreto.

A lo largo de este trabajo se refiere con frecuencia a las señales periódicas,


tanto en tiempo continuo como en tiempo discreto. Se dice que una señal es
periódica cuando sus valores de amplitud se “repiten” a intervalos de tiempo
iguales, al intervalo mı́nimo donde se efectúan las reproducciones de dichos
valores se le denomina periodo fundamental ; es decir cuando una señal y(t)
tiene la propiedad de que existe un valor positivo T para el cual
22 2.2. Señales y Sistemas

Figura 2.6: Representación gráfica de la exponencial (real). A y a son reales,


a > 0.

y(t) = y(t + T ) ∀t

En esta caso se dice que y(t) es periódica con periodo T . Esto se puede
ver gráficamente en la Figura 2.7.

Figura 2.7: Señales par e impar, coseno y seno respectivamente, con periodo fun-
damental T .

La Figura 2.7 también muestra otro aspecto importante de dichas señales,


su paridad ; una señal y(t) es par si se cumple que
2. Herramientas Matemáticas 23

y(−t) = y(t)

e impar si

y(−t) = −y(t)

Como se puede observar de la Figura 2.7 una función par es simétrica


con respecto al eje vertical en el origen y una función impar es antisimétrica
respecto al eje vertical en el origen. Además si la función y(t) satisface

y(t) = −y(t + T /2) ∀t


se dice que y(t) tiene simetrı́a de 1/2 onda.

Para el caso mostrado en la Figura 2.7la función coseno es par y la


función seno es impar y ambas tienen simetrı́a de 1/2 onda.

2.2.3. Definición de Sistema


Un sistema es un conjunto de elementos, que interactuan para realizar
una determinada tarea u operación sobre una señal. Un ejemplo de sistema
es un filtro, que se usa para reducir el ruido y/o interferencia que alteran a
una señal dada.

Una representación básica de sistema se muestra en la Figura 2.8, en


la que se muestra como actúa el operador H del sistema sobre una señal
(señal de entrada) para generar otra señal (señal de salida). La representación
simbólica de este se expresa como

H
u(t) −
→ y(t)
24 2.2. Señales y Sistemas

En el análisis de algún sistema es indispensable el modelado del mismo.


Para estos fines un modelo matemático es la representación matemática que
describe al sistema. Por consiguiente el modelo debe ser una abstracción del
sistema real, lo que se interpreta como una mı́nima cantidad de patrones y
relaciones posibles. Todo ello con la finalidad de interpretar adecuadamente
la naturaleza y comportamiento mismos del sistema.

Un modelo matemático de un sistema consiste en un conjunto de ecua-


ciones cuya solución predice cambios en el comportamiento del sistema. El
uso de modelos matemáticos es una consecuencia de esfuerzos analı́ticos para
abstraer y describir el mundo real. Las descripciones cualitativas del sistema
(modelos simbólicos verbales) dan poca ayuda para predecir o especificar con
precisión el estado de un sistema.

u(t) H y(t)

Figura 2.8: Esquema básico de un sistema.

La clasificación de la gran variedad de sistemas se puede englobar en las


siguientes:

Sistema Lineal y Sistema no Lineal

Se dice que un sistema es lineal si y sólo si cumple con los principios de


superposición y homogeneidad. Matemáticamente, el principio de superposi-
ción establece que si para una entrada x1 (t) produce una salida y1 (t) y otra
entrada x2 (t) produce y2 (t), la suma de las entradas producirá la suma de
las salidas, ası́
2. Herramientas Matemáticas 25

H
x1 (t) + x2 (t) −
→ y1 (t) + y2 (t)

Este es el primer principio. La homogeneidad, por otra parte, consiste en


que si la entrada se ve afectada por un coeficiente constante α, la salida se
verá afectada de la misma manera, tal como sigue

H
αx1 (t) −
→ αy1 (t)

Un sistema es no lineal cuando simplemente no cumple con alguno o


ninguno de los principios anteriores.

Sistema Invariante en el Tiempo y Sistema Variante en el Tiempo

Un sistema es invariante en el tiempo, si un desplazamiento en el tiempo


de la señal de entrada causa el mismo desplazamiento en la señal de salida,
esto es si

H
x(t) −
→ y(t)

entonces

H
x(t ± p) −
→ y(t ± p)

Una caracterı́stica es que están descritos por ecuaciones diferenciales o


algebraicas con coeficientes constantes.

La contraparte del sistema anterior es un sistema invariante en el tiempo


el cual está descrito por ecuaciones diferenciales (o de diferencias para el caso
discreto) o algebraicas con coeficientes que dependen del tiempo.
26 2.2. Señales y Sistemas

Sistema Continuo en el Tiempo y Sistema Discreto en el Tiempo

Un sistema continuo en el tiempo es aquel en el que tanto su salida co-


mo su entrada, son señales continuas en el tiempo, esto es, se conocen en
cualquier instante en el tiempo.

Mientras que un sistema discreto en tiempo es aquel que opera sobre


una señal de entrada en tiempo discreto y genera una salida igual en tiempo
discreto, lo que implica que ambas estén definidas sólo para algunos instantes
de tiempo.

Sistema Causal y Sistema no Causal

Se dice que un sistema es causal si su salida en cualquier instante de


tiempo depende solo de los valores de entrada presentes y pasados, pero no
futuros. Las condiciones de reposo inicial (mejor conocidas como condiciones
iniciales, representadas en el contexto como c.i.) de estos sistemas es cero, es
decir, los valores de entrada son cero para valores negativos de la variable in-
dependiente. Son sistemas que se caracterizan por ser fı́sicamente realizables.

Un sistema no causal es aquel que no satisface la condición anterior, esto


es, que puede depender de valores pasados, presentes y además futuros. Este
tipo de sistemas no son fı́sicamente realizables, ya que, es evidente que en
un sistema en tiempo real no se dispone de las entradas futuras. Se pueden
diseñar sistemas no causales en el momento que se tenga disponible o alma-
cenada toda la señal de entrada a ser procesada, tal es el caso por ejemplo
de señales sı́smicas.

Durante el desarrollo subsecuente de este trabajo se estudian los Sis-


temas Lineales e Invariantes en el Tiempo, mejor conocidos como
2. Herramientas Matemáticas 27

sistemas LTI. Lo que significa que, cumplen con el principio de superposición


y homogeneidad, y su representación matemática está dada por ecuaciones
diferenciales (o de diferencias para el caso discreto) o algebraicas con coefi-
cientes constantes. Las herramientas matemáticas y/o técnicas de transfor-
mación para el estudio de los sistemas LTI se dan a conocer en las siguientes
secciones.

2.3. Muestreo de Señales Analógicas


El muestreo es la conversión de una señal en tiempo continuo a una señal
en tiempo discreto obtenida tomando muestras de la señal en tiempo continuo
en instantes de tiempo discreto. Existen muchas maneras de muestrear una
señal, pero el tipo de muestreo más usado es el muestreo periódico o uniforme,
que se describe mediante la relación

x[n] = xa (nT ), ∞ < n < ∞


donde x[n] es la señal en tiempo discreto obtenida tomando muestras de la
señal analógica xa (t) cada T segundos. El intervalo de tiempo T entre dos
muestras sucesivas se denomina periodo de muestreo o intervalo de muestreo,
y su recı́proco 1/T = Fs se llama velocidad de muestreo (muestras por se-
gundo) o frecuencia de muestreo (Hertz), la Figura 2.9 muestra este proceso.

El muestreo periódico establece una relación entre las variables t y n de


tiempo continuo y tiempo discreto, respectivamente. De hecho, estas variables
se relacionan linealmente a través del periodo de muestreo T o, equivalente-
mente, a través de la velocidad de muestreo Fs = 1/T , como

n
t = nT =
Fs
28 2.4. Convolución

Figura 2.9: Muestreo periódico de una señal analógica.

Cuando se desea recuperar la señal original xa (t) la señal muesteada x[n],


se deben cumplir ciertas condiciones sobre el periodo de muestreo T . Estas
condiciones estan dadas por el Teorema de Shannon [21] que establece que
se debe selecionar una velocidad de muestreo lo suficientemente alta, se debe
escoger Fs /2 mayor que Fmax para poder reconstruir la señal sin ambigüedad.

Fs > 2Fmáx

donde Fmax es la frecuencia más alta de la señal analógica. Con la velocidad


de mustreo seleccionada de esta manera se tiene que cualquier componente
de frecuencia de la señal analógica corresponde en tiempo discreto a una si-
nusoide con alguna frecuencia.

2.4. Convolución
Como se vió en la Sección 2.2, toda señal puede expresarse como una
combinación lineal de impulsos desplazados. Dicha representación de la señal
es útil al estuiar la convolución, esta se define como el producto de dos señales
en donde una de las señales es el reflejo y desplazamiento de la otra.
2. Herramientas Matemáticas 29

2.4.1. Convolución en Tiempo Continuo


La convolución en tiempo continuo puede caracterizar un sistema LTI
por medio de una combinación lineal de impulsos desplazados y ponderados,
empleando para ello la integral. Si se tiene un sistema como el mostrado en
la Figura 2.10, entonces la salida y(t) puede interpretarse por medio de la
integral de convolución de la siguiente manera
Z ∞
y(t) = x(τ )h(t − τ )dτ (2.1)
−∞

donde h(t) es la respuesta al impulso δ(t). La parte derecha de la ecuación


(2.1) es la convolución de la señales x(t) y h(t). Cabe señalar que dicha ex-
presión es válida tanto para señales periódicas como para señales aperiódicas.

La evaluación de la integral de convolución para un valor especı́fico de t


consiste en lo siguiente; primero se obtiene la señal h(t − τ ) a partir de h(τ )
reflejándola alrededor del origen y desplazándola t a la derecha si t > 0 o
la izquierda |t| si t < 0. Después se multiplica x(τ ) y h(t − τ ), finalmente
se obtiene y(t) al integrar el producto resultante desde el lı́mite inferior al
superior. A continuación se presenta un ejemplo sobre la convolución de dos
señales.

x(t ) y (t )

δ (t )
H h(t )

Figura 2.10: Sistema LTI con respuesta al impulso, h(t).

Ejemplo 2.4.1 Obtener la convolución de la señal de entrada x(t) = u(t) con


h(t) = e−t de un sistema LTI causal (c.i. = 0).
30 2.4. Convolución

En este ejemplo es posible observar que x(t) es igual al escalón unitario y por
tanto tiene el valor de uno en cualquier instante de tiempo t. Entonces la integral de
convolución queda como sigue
Z t
y(t) = x(τ )h(t − τ )dτ
0
La variable independiente aquı́ ahora es τ , pero el valor de x(τ ) sigue siendo 1,
por tanto la expresión se reduce a
Z t
y(t) = h(t − τ )dτ
0

Sabiendo que h(t) = e−t entonces h(t − τ ) = e−(t−τ ) que sustituyendo en la


integral es
Z t
y(t) = e−(t−τ ) dτ
0
Resolviendo

y(t) = 1 − e−t

Cuya representación gráfica se muestra en la Figura 2.11

Figura 2.11: Representación gráfica de la señal y(t) del Ejemplo 2.4.1.


2. Herramientas Matemáticas 31

2.4.2. Convolución en Tiempo Discreto


Al igual que para el caso continuo, la convolución en tiempo discreto puede
representar a un sistema LTI, pero ahora por medio de una sumatoria, ası́


X
y[n] = x[k]h[n − k] (2.2)
−∞

A la ecuación (2.2) se le denomina convolución discreta y entonces en


esta situación ambas señales están discretizadas, la representación simbólica
de la convolución en tiempo discreto se puede dar como un simple producto.
Para el caso de la convolución de x[k] con h[k], queda como y[n] = x[n]∗h[n].

El procedimiento aquı́ empleado es similar que al del caso continuo; la


señal de salida es la suma de los valores de entrada x[k] ponderados por su
valor correspondiente h[n − k].

Ejemplo 2.4.2 Determinar la respuesta a la señal x[n], dada la respuesta al impul-


so h[n] cuyas gráficas correspondientes se presentan en la Figura2.12.

Las señales de este ejemplo pueden ser expresadas como vectores de la siguiente
manera

h[n − k] = [ 1 {2} 1 −1 ]

x[n] = [ {1} 2 3 1 ]

donde el numero encerrado entre llaves indica la posición del origen.

Para simplificar cálculos y con ello tiempo es útil emplear Matlab, basta con declarar
en la linea de comandos los vectores que representan a las señales y convolucionarlos
32 2.4. Convolución

mediante la función conv (que devuelve los valores de y[n]), de esta forma conv(x, h).
La señal y[n] es

y[n] = [ 1 {4} 8 8 3 −2 −1 ]

a cuya expresión corresponde la gráfica de la Figura 2.13

Figura 2.12: Señales del Ejemplo 2.4.2 a convolucionar.

Figura 2.13: Señal de salida y[n] del Ejemplo 2.4.2.


2. Herramientas Matemáticas 33

2.5. Serie de Fourier


La representación matemática básica de señales periódicas es la serie de
Fourier, que es una suma ponderada de sinusoides relacionadas armónica-
mente. Dicha expansión fue desarrollada por el matemático francés Jean
Baptiste Joseph Fourier (1768-1830), en su trabajo sobre la conducción y
distribución de calor.

La serie de Fourier, como representación alternativa de las señales periódi-


cas, se realiza mediante el empleo de señales elementales, que para este caso
son las exponenciales complejas. La representación de las señales y de los sis-
temas se hace a través de sumatorias ponderadas de un conjunto de señales
básicas (en este caso la exponencial). Esta sección se trata de igual manera a
la anterior, primero en tiempo continuo y posteriormente en tiempo discreto.

2.5.1. Serie de Fourier en Tiempo Continuo


La exponencial compleja usada aquı́ es est , donde s es un número complejo
de la forma general. La importancia del empleo de esta señal radica en el
hecho de que, la respuesta de un sistema LTI a ella es esta misma modificada
solo en amplitud como sigue

est → H(s)est

La señal para la cual la entrada es igual a la misma entrada multiplicada


por una constante (que puede ser compleja) se denomina la función carac-
terı́stica del sistema y el factor en este caso H(s) es el valor caracterı́stico.
Por otra parte, si la relación de entrada-salida se da a través de un cociente,
34 2.5. Serie de Fourier

por ejemplo, H(s) = Y (s)/X(s) a H(s) se le denomina función de transfe-


rencia, donde Y (s) es la salida del sistema y X(s) la entrada.

Ahora analizando la periodicidad de la señal elemental se tiene que

x(t) = ejω0 t

lo cual cumple x(t) = x(t + T0 , es decir es periódica. Donde ω0 es su frecuen-


cia fundamental y con periodo fundamental T0 = 2π/ω0 .

Ahora bien es posible tener un conjunto de exponenciales relacionadas


armónicamente de la siguiente forma:

φk = ejkω0 t

donde: k = 0, ±1, ±2, ..., y cada exponencial con su propia frecuencia funda-
mental (que son múltiplos de ω0 ) y su periodo T0 . Entonces es posible tener
una señal periódica como una combinación lineal de exponenciales complejas
(relacionadas armónicamente) de la siguiente manera:


X
x(t) = ak ejkω0 t (2.3)
k=−∞

A la ecuación ( 2.3) se le conoce como Serie de Fourier, de la forma ex-


ponencial o también como ecuación de sı́ntesis. Analizando esta ecuación se
puede notar que para k = 0 el término es constante, para k = 1 se tiene el
periodo fundamental T0 y se denomina en su conjunto como componentes de
la primera armónica, para k = ±N el periodo es una fracción de T0 (o bien,
la frecuencia es un múltiplo de la frecuencia fundamental) y se le conoce
como componentes de la N ésima armónica. Al componente ak se le conoce
como coeficientes de la serie de Fourier, más adelante se describe la forma
2. Herramientas Matemáticas 35

de obtenerlos.

Existen formas alternas para la representación de la serie de Fourier, las


cuales se dan como sigue


X
x(t) = a0 + 2 Ak cos(kω0 t + θk ) (2.4)
k=1

La ecuación (2.4) es la forma polar de la serie de Fourier para señales


periódicas de tiempo continuo. Pero si ak se representa en forma rectangular,
es decir; ak = Bk + Ck , en que Bk y Ck son reales, la ecuación puede tomar
la siguiente forma:


X
x(t) = a0 + 2 [Bk cos(kω0 t) + Ck sen(kω0 t)] (2.5)
k=1

Se puede notar que esta ecuación contiene dos funciones trigonométricas


y es de allı́ su nombre de forma trigonométrica de la serie de Fourier (para
señales en tiempo continuo).

Por último con el fin de simplificar el análisis a través de las series de


Fourier, es importante señalar el aspecto siguiente: Para señales periódicas
pares la expansión de la serie se reduce a una constante más una sumatoria
de cosenos, mientras que para señales impares sólo a una sumatoria de senos.
Si además de ello presentan simetrı́a de 1/2 onda la serie sólo tendrá compo-
nentes impares.

Ejemplo 2.5.1 Una señal de onda cuadrada x(t) como la mostrada en la Figura
2.14, muy comúnmente empleada, puede ser expresada por medio de una serie de
36 2.5. Serie de Fourier

Fourier ya que es una señal periódica.

De la gráfica se puede observar que dicha señal es impar y posee simetrı́a de 1/2
onda, por lo descrito anteriormente la serie de Fourier que la representa es una suma-
toria de senos y estas armónicas son impares.

Figura 2.14: Onda cuadrada del Ejemplo 2.5.1.

Ahora la representación de x(t) por medio de su serie de Fourier se muestra en la


Figura 2.15, para el primer caso (ver Figura 2.15a) se emplea el primer armónico,
en el segundo caso (Figura 2.15b) la suma de los 3 primero armónicos impares y fi-
nalmente en la última gráfica de la Figura 2.15c se ilustra la suma de los 11 primeros
armónicos impares.

Coeficientes de la Serie de Fourier

Una vez que se tiene la expresión matemática de la serie de Fourier para


señales periódicas continuas en el tiempo, es pertinente saber cómo calcular
el valor con que cada armónica pondera a la señal.

Solo se presenta la ecuación matemática que describe a los coeficientes de


2. Herramientas Matemáticas 37

(a)

(b)

(c)

Figura 2.15: Reconstrucción de la señal x(t) empleando 1, 3 y 11 armónicos a


partir de series de Fourier para el Ejemplo 2.5.1.

la serie de Fourier, sin realizar deducción alguna, como a continuación:


Z
1
ak = x(t)e−jk$0 t dt (2.6)
T0 T0
La ecuación 2.6 es conocida como ecuación de análisis y se utiliza para
calcular los coeficientes espectrales ak de la señal x(t).

Relación de Parseval

Para señales periódicas, la ecuación de Parseval relaciona la energı́a con-


tenida dentro de un periodo de la función del tiempo con la energı́a con-
tenida en los coeficientes de la serie de Fourier. La que sigue es su expresión
matemática:
Z ∞
1 2
X
|x(t)| dt = |ak |2 (2.7)
T0 T0 k=−∞
2
La cantidad |ak | se interpreta como aquella parte de la energı́a por pe-
riodo que es aportada por la k ésima armónica. La ecuación (2.7) indica la
conservación de energı́a de la señal en el dominio de la frecuencia.
38 2.5. Serie de Fourier

2.5.2. Serie de Fourier en Tiempo Discreto


Para este caso el conjunto de exponenciales complejas discretizadas (rela-
cionadas armónicamente) está dado por

φk [n] = ejk(2π/N )n

A diferencia del caso continuo, en el que todo el conjunto está formado


por señales distintas, en este conjunto solo hay N señales diferentes; debido
a que las exponenciales complejas en tiempo discreto que difieren en frecuen-
cia por un múltiplo de 2π son idénticas, esto es, ej(Ω+2πr)n = ejΩ ej2πrn = ejΩn .

Entonces la sumatoria que forma la serie de Fourier en tiempo discreto


es en k y se expresa como

N
X −1
x[n] = ak ejk(2π/N )n (2.8)
k=0

los coeficientes ak se calculan con la forma siguiente

N −1
1 X
ak = x[n]e−jk(2π/N )n (2.9)
N n=0
La ecuación (2.8) es la ecuación de sı́ntesis, mientras que la ecuación (2.9)
es la de análisis.

πn

Ejemplo 2.5.2 Determinar el espectro de la señal x[n] = cos 3
Es posible observar que ω0 = π/3 y por tanto N = 6, sustituyendo en la ecuación
(2.9) se tiene

5
1
x[n]e−j2πkn/6 k = 0, 1, ..., 5
P
ak = 6
n=0

y x[n] se puede expresar como


2. Herramientas Matemáticas 39

 
2πn 1 1
x[n] = cos = ej2πn/6 + e−j2πn/6
6 2 2
Comparando esta expresión con la ecuación de sı́ntesis es posible observar que
a1 = 1/2, además la segunda exponencial corresponde a a−1 = 1/2, pero como la
señal es periódica dichos valores se repiten en un periodo de N = 6 lo que significa
que a5 = 1/2, concluyendo se tiene

a0 = a2 = a3 = a4 = 0

1 1
a1 = 2 a5 = 2

La representación gráfica se presenta en la Figura 2.16

Figura 2.16: Espectro de la señal periódica del Ejemplo 2.5.2.

2.6. La Transformada de Fourier


En la sección anterior se interpretó a una señal periódica como una com-
binación lineal de exponenciales complejas relacionadas armónicamente. Esto
puede extenderse para el caso de señales no periódicas o aperiódicas, gracias
a la trasformada de Fourier.
40 2.6. La Transformada de Fourier

2.6.1. Transformada de Fourier en Tiempo Continuo


La transformada de Fourier es un método alternativo para el estudio
de señales y sistemas continuos LTI ya que proporciona una representación
en el dominio de la frecuencia. El análisis es posible también para señales
periódicas como se verá más adelante.

Transformada de Fourier de Señales No Periódicas

Especı́ficamente, se piensa en una señal aperiódica como el lı́mite de una


señal periódica cuando el periodo se hace arbitrariamente grande (tiende a
infinito), se examina entonces el comportamiento en el lı́mite de la repre-
sentación de la serie de Fourier para dicha señal.

La representación de la tranformada de Fourier está dada por la siguiente


expresión:

Z∞
X(ω) = x(t)e−jωt dt (2.10)
−∞

Esta es la ecuación de análisis y también se le conoce como integral de


Fourier de x(t). Desde luego la ecuación ( 2.10) debe tener su ecuación de
sı́ntesis correspondiente y es la siguiente:

Z∞
1
x(t) = X(ω)ejωt dω (2.11)

−∞

La ecuación (2.11) se conoce como la transformada inversa de Fourier.


Esta tiene la misma función que la ecuación (2.3) para las señales periódi-
cas, ya que ambas corresponden a la descomposición de una señal en una
combinación de exponenciales complejas. Para las señales aperiódicas las ex-
ponenciales ocurren en una sucesión continua de frecuencias y de acuerdo
2. Herramientas Matemáticas 41

con la ecuación (2.11) la amplitud es X(ω)(dω/2π). La trasformada X(ω) de


una señal no periódica x(t) se refiere como el espectro de x(t) puesto que pro-
porciona la información de cómo x(t) está compuesta por señales senoidales
en diferentes frecuencias.

Relación de Parseval

Al igual que para la serie de Fourier, la ecuación de energı́a puede ser


calculada para señales no periódicas. La expresión de Parseval se obtiene de
la aplicación de la transformada de Fourier, y queda como sigue:
Z ∞ Z ∞
2 1
|x(t)| dt = |X(ω)|2 (2.12)
−∞ 2π −∞

La cantidad en el lado izquierdo de la ecuación (2.12) es la energı́a to-


tal en la señal x(t). La ecuación establece que que esta energı́a total puede
determinarse ya sea mediante el cálculo de la energı́a por unidad de tiempo
(|x(t)|2 ) e integrando principalmente el tiempo, o calculando la energı́a por
unidad de frecuencia(|X(ω)|2 /2π) e integrando principalmente las frecuen-
cias. Al igual que para el caso de la serie de Fourier la ecuación (2.12) indica
la conservación de la energı́a de la señal en el dominio de la frecuencia.

Transformada de Fourier de Señales Periódicas

A diferencia de el caso anterior, para señales periódicas que no son ni


absolutamente integrables ni integrables al cuadrado sobre un intervalo in-
finito, puede considerarse que tiene transformada de Fourier si se permiten
funciones impulso en la transformada.

La trasformada de Fourier resultante para una señal periódica consiste de


un tren de impulsos en frecuencia, siendo las áreas de los impulsos propor-
cionales a la serie de Fourier.
42 2.6. La Transformada de Fourier

De manera más general, si X(ω) es una combinación lineal de impulsos


igualmente espaciados en frecuencia, esto es


X
X(ω) = 2πak δ(ω − kω0 ) (2.13)
k=−∞

Al aplicar la ecuación (2.11) da como resultado


X
x(t) = ak ejkω0 t
k=−∞

como puede notarse corresponde exactamente a la serie de Fourier de una


señal periódica. Entonces la transformada de Fourier de una señal periódi-
ca (dada por la ecuación (2.13)) con coeficientes ak de la serie de Fourier,
puede interpretase como un tren de impulsos que ocurren a las frecuencias
armónicamente relacionadas y para las cuales el área del impulso en la k
ésima frecuencia armónico kω0 es 2π veces el k ésimo coeficiente de ak de la
serie de Fourier.

2.6.2. Transformada de Fourier en Tiempo Discreto

De manera similar al caso continuo aquı́ se mencionan las dos situaciones


tanto para señales periódicas como aperiódicas. La diferencia al tiempo con-
tinuo consiste en que las componentes armónicas discretas tiene un rango en
frecuencia igual a (−π, π) o (0, 2π), y cualquiera fuera de este intervalo es
equivalente a una en su interior.
2. Herramientas Matemáticas 43

Transformada de Fourier de Señales Aperiódicas

El par de transformadas de Fourier de señales en tiempo discreto que


describe a un sistema LTI se da como sigue
Z
1
x[n] = X(ω)ejωn dω (2.14)


donde


X
X(ω) = x[n]e−jωn (2.15)
n=−∞

Como en el caso continuo la ecuación (2.14) y la ecuación (2.15) son las


ecuaciones de sı́ntesis y análisis, respectivamente.

Ejemplo 2.6.1 Sea X(ω) una señal de energı́a finita dada por
(
1, |ω| 6 ωc
X(ω) =
0, ωc < |ω| 6 π
La transformada inversa de Fourier de X(ω) resulta en la secuencia

Rπ jωn dω
x[n] = −π X(ω)e
R ωc jωn
= −ωc e dω = senω
πn
cn
n 6= 0
y para n = 0
Z ωc
1 ωc
x[0] = dω =
2π −ωc π
entonces la señal en el tiempo x(n) queda representada por
(
ωc
π , n=0
x[n] ωc sen(ω c n)
π πn , n 6= 0
La representación gráfica de estas transformadas de Fourier se muestra en la Figura
2.17
44 2.6. La Transformada de Fourier

Figura 2.17: Par de transformadas para el Ejemplo 2.6.1.

De la Figura 2.17 se observa que el espectro X(ω) de una señal en tiempo


discreto x[n] es continuo. Esta situación es adversa cuando se quiere imple-
mentar la transformada de Fourier en tiempo discreto en una computadora
digital, para resolver esta situación lo que se hace es discretizar en la frecuen-
cia el espectro, dando como resultado la transformada discreta de Fourier que
es el tema de studio de la sección 2.7.

Transformada de Fourier de Señales Periódicas

Una forma alternativa y conveniente para la transformada de Fourier de


una señal periódica está dada por

∞  
X 2πk
X(ω) = 2π ak δ ω − (2.16)
k=−∞
N
Es obvio que en este caso las armónicas son un tren de impulsos, y no
exponenciales, que ocurren en múltiplos de la frecuencia fundamental 2π/N .
Los coeficientes de Fourier para la ecuación (2.16) se calculan por
 

N ak = X k (2.17)
N
2. Herramientas Matemáticas 45

donde N ak son tan sólo muestras de la transformada de Fourier de un perio-


do de la señal en cuestión.

2.7. Transformada Discreta de Fourier


Esta técnica de transformación es una de las más aplicadas en los sistemas
de procesamiento digital actuales, ya que puede adecuarse fácilmente a una
computadora digital o implementarse en algún hardware digital. La DFT,
como también se le conoce, es empleada para señales de duración finita, su
expresión matemática es

−1
NP
X(k) = x[n]e−jk(2π/N )n , k = 0, 1, ..., N − 1 (2.18)
n=0

y la DFT inversa o IDFT se expresa como

−1
NP
1
x[n] = N
X(k)ejk(2π/N )n , n = 0, 1, ...., N − 1 (2.19)
k=0

Las ecuaciones (2.18) y (2.19) se pueden expresar igualmente como

−1
NP
X(k) = x[n]WNkn k = 0, 1, ...., N − 1 (2.20)
n=0

−1
NP
x[n] = 1
N
X[k]WN−kn n = 0, 1, ...., N − 1 (2.21)
k=0

donde, por definición

WN = e−j2π/N

que es la n-ésima raı́z de la unidad.


46 2.8. Transformada Rápida de Fourier

2.8. Transformada Rápida de Fourier

Como se mencionó anteriormente la transformada discreta de Fourier


(DFT) es una herramienta computacional muy útil en numerosas aplica-
ciones de procesamiento digital de señales. La utilidad de la DFT e IDFT se
debe, en gran parte, a la existencia de algoritmos computacionales eficientes
para su cálculo, conocidos como algoritmos para la transformada rápida de
Fourier o FFT.

En esta sección se presenta una metodologı́a ampliamente utilizada para


el cálculo de la DFT. Esta metodologı́a se basa en la idea de “divide y
vencerás”, ası́ una DFT de tamaño N , donde N es un número compuesto,
se reduce al cálculo de DFTs más pequeñas a partir de las cuales se obtiene
la DFT total. Gracias a esta metodologı́a han surgido un gran número de
algoritmos alternativos para el cálculo de la DFT.

El problema dentro del cálculo de la DFT radica en determinar la secuen-


cia {X(k)} de N números complejos dada la secuencia de datos {x[n]} de
longitud N según las ecuaciones (2.20) y (2.21).

De dichas ecuaciones es posible ver que para cada valor k, en el cálculo


de X(k) se deben realizar N multiplicaciones complejas (4N multiplicaciones
reales) y N − 1 sumas complejas (4N − 2 sumas reales). Entonces para deter-
minar los N valores de la DFT se requieren N 2 multiplicaciones complejas y
N 2 − N sumas complejas.

El cálculo directo de la DFT es ineficiente debido, a que no hace uso de


las propiedades de simetrı́a y periodicidad del factor de fase WN , que son:
2. Herramientas Matemáticas 47

k+N/2
Propiedad de Simetrı́a : WN = −WNk (2.22)
Propiedad de Periodicidad : WNk+N = WNk (2.23)

En cambio los algoritmos computacionales, conocidos como algoritmos


para la transformada rápida de Fourier, usan estas dos propiedades del fac-
tor de fase.

2.8.1. Cálculo Directo de la DFT


Para una secuencia compleja x[n] de N puntos, la DFT se puede repre-
sentar como

N −1  
X 2πkn 2πkn
XR (k) = xR [n] cos + xI [n]sen (2.24)
n=0
N N
y

N −1  
X 2πkn 2πkn
XI (k) = − xR [n]sen − xI [n] cos (2.25)
n=0
N N

el cálculo directo de (2.24) y (2.25) exige:

1. 2N 2 cálculos de funciones trigonométricas.

2. 4N 2 multiplicaciones reales.

3. 4N (N − 1) sumas reales.

4. Numerosas operaciones de direccionamiento e indexado.


48 2.8. Transformada Rápida de Fourier

2.8.2. Metodologı́a de “Divide y Vencerás”para el Cálcu-


lo de la DFT
El método se basa en la descomposición de una DFT de N puntos en
DFTs más pequeñas. Es decir, considerando una DFT de N puntos, la idea
es representar N como un producto de dos enteros, esto es,

N = LM (2.26)
Por medio de esta notación la secuencia x[n], 0 ≤ n ≤ N − 1, ahora se
puede representar mediante una matriz unidimensional indexada por n, o
en una matriz bidimensional indexada por l y m, donde, 0 ≤ l ≤ L − 1 y
0 ≤ m ≤ M − 1, por lo que x[n] se puede almacenar en una matriz rectan-
gular de diferentes maneras, donde cada una depende de la correspondencia
entre el ı́ndice n y los ı́ndices l y m.

Entonces para la correspondencia

n = l + mL (2.27)
la disposición es que la primera columna contiene los primeros L elementos
de x[n] y la segunda contiene los siguientes L elementos de x[n], y ası́ suce-
sivamente.

Una disposición similar puede usarse para almacenar los valores calcula-
dos de la DFT. Si se tiene la correspondencia desde el ı́ndice k a la pareja de
ı́ndices (p, q), donde 0 ≤ p ≤ L − 1 y 0 ≤ q ≤ M − 1, de tal manera que para

k = Mp + q (2.28)
la DFT se almacena por filas, donde la primera fila contiene los primeros
M elementos de la DFT x[k], la segunda fila los siguientes M elementos, y
2. Herramientas Matemáticas 49

ası́ sucesivamente.

Ahora teniendo en cuenta que x[n] puede representarse mediante la ma-


triz rectangular x(l, m), y que X(k) se lleva a la matriz rectangular corres-
pondiente X(p, q); ası́ la DFT se puede expresar como el sumatorio doble
de los elementos de la matriz rectangular multiplicados por los factores de
fase correspondientes. Considerando la correspondencia que da lugar al al-
macenamiento por columnas, dada por (2.28), y de x[n], dada por (2.27).
Entonces

M
X −1 X
L−1
(M p+q)(mL+l)
X(p, q) = x(l, m)WN (2.29)
m=0 l=0

Pero

(M p+q)(mL+l)
WN = WNM Lmp WNmLq WNM pl WNlq (2.30)

Sin embargo, WNN mp = 1, WNmqL = WN/L


mq mq
= WM , y WNM pl = WN/M
pl
= WLpl
.
Con estas simplificaciones, (2.29) puede representarse como

L−1
( "M −1 #)
X lq
X mq
F (p, q) = WN f (l, m)WM WLlp (2.31)
l=0 m=0

La ecuación (2.31) implica el cálculo de DFTs de longitudes M y L.


Subdividiendo el cálculo en tres pasos, se tiene lo siguiente:

1. Primero, se calculan las DFTs de M puntos

M
X −1
mq
X(l, q) = x(l, m)WM , 0≤q ≤M −1 (2.32)
m=0

para cada una de las filas l = 0, 1, . . . , L − 1


50 2.8. Transformada Rápida de Fourier

2. Segundo, calcular la nueva matriz rectangular G(l, q) definida como

G(l, q) = WNlq F (l, q) 0 ≤ l ≤ L − 1, 0≤q ≤M −1 (2.33)

3. Finalmente, se calculan las DFTs de L puntos

L−1
X
X(p, q) = G(l, q)WLlp (2.34)
l=0

para cada columna q = 0, 1, . . . , M − 1, de la matriz G(l, q).

Este procedimiento aparenta ser más complejo que el cálculo directo de


la DFT, sin embargo la complejidad computacional es:

Multiplicaciones complejas: N (M + L + 1)
Sumas complejas: N (M + L − 2)

Lo que significa que el número de multiplicaciones se reduce de N 2 a


N (M + L + 1) y el número de sumas se reduce de N (N − 1) a N (M + L + 2).

Resumiendo, el algoritmo implica los siguientes pasos:

1. Almacenamiento de la señal por columnas.

2. Cálculo de la DFT de M puntos de cada fila.

3. Multiplicación de la matriz resultante por los factores de fase WNlq .

4. Cálculo de la DFT de L puntos de cada columna.

5. Lectura por filas de la matriz resultante.


2. Herramientas Matemáticas 51

2.9. La Transformada de Laplace


Para comenzar, recordar que la respuesta de un sistema LTI a la expo-
nencial compleja de forma est está dada por

y(t) = H(s)est

donde:

Z ∞
H(s) = h(t)e−st dt (2.35)
−∞

Para s puramente imaginaria, la integral de la ecuación (2.35) corresponde


a la transformada de Fourier de h(t); y para valores generales de la variable
compleja s, se conoce como la transformada de Laplace de la respuesta al
impulso h(t). La transformada de Laplace para una función continua x(t) se
expresa matemáticamente como

Z ∞

X(s) = x(t)e−st dt (2.36)
−∞

La forma general de la variable s es s = σ + jω, donde σ y ω son la parte


real e imaginaria respectivamente.

De manera más amplia la transformada de Laplace de x(t) se puede in-


terpretar como la transformada de Fourier de x(t) después de multiplicarla
por una señal exponencial real.

La transformada de Laplace existe si la integral que la define es finita.


Para ello se necesita que los valores de σ sean unos concretos, lo que define
una región de convergencia de la transformada de Laplace.
52 2.10. La Transformada z

Finalmente la transformada inversa de Laplace se expresa como


Z σ+j∞
1
x(t) = X(s)est ds (2.37)
2πj σ−j∞

La ecuación (2.37) establece que x(t) se puede representar como una in-
tegral ponderada de exponenciales complejas.

Ejemplo 2.9.1 Obtener la transformada de Laplace de la señal

x(t) = e−t u(t)

Sustituyendo en la ecuación (2.36)

Z ∞  −t
e u(t) e−st dt

X(s) =
−∞

1
X(s) =
s+1

2.10. La Transformada z
Esta técnica de transformación es la contraparte de la transformada de
Laplace, esto es, tiene el mismo papel en el análisis de señales y sistemas
discretos LTI que la transformada de Laplace en el análisis de señales y sis-
temas continuos LTI.

La transformada z de una señal discreta x[n] se define como la serie de


potencias


X
X(z) ≡ x[n]z −n (2.38)
n=−∞
2. Herramientas Matemáticas 53

donde z es una variable compleja de la forma rejΩ . La relación (2.38) trans-


forma una señal en le dominio del tiempo x[n] en la señal compleja X(z) y se
le conoce como transformada z bilateral para distinguirla de la transformada
z unilateral. Esta última es de gran utilidad en el análisis de sistemas causales
especı́ficos representados por ecuaciones en diferencias con coeficientes cons-
tantes y con condiciones iniciales (esto es, aquellos que en su inicio no se
encuentran en reposo), se expresa de manera similar a la transformada z bi-
lateral, solo que para este caso la sumatoria se lleva a cabo solo sobre valores
no negativos de n sin importar si x[n] es o no cero para n < 0 quedando
como


X
X(z) = x[n]z −n (2.39)
n=0

Puesto que la transformación es una serie infinita de potencias, esta existe


solo para aquellos valores de z para los que la serie converge. La región de
convergencia (ROC) de X(z) es el conjunto de todos los valores de z para
los que X(z) es finita, entonces para cada transformada z se debe indicar su
ROC.

Ejemplo 2.10.1 Determinar la transformada z de la señal de duración finita

h i
x[n] = 1, 2, {5} 7 0 1

Empleando la ecuación (2.38) se tiene

X[z] = z 2 + 2z + 5 + 7z −1 + z −3

Su ROC es el plano z excepto en z = 0 y z = ∞.


54 2.11. Resumen y Referencias

Es común tener una señal en el dominio de z, para transformar de este


al dominio del tiempo se realiza mediante la transformada z inversa cuya
expresión matemática esta dada por
Z
1
x[n] = X(z)z n−1 dz (2.40)
2πj
En este caso, la evaluación de la integral de la ecuación (2.40) requiere
de una integración a lo largo de una curva cerrada en el plano complejo y
entonces resulta un tanto difı́cil y/o tardado el cálculo de la transformada
inversa. Sin embargo, existen procedimientos alternativos para obtener la
secuencia, uno de los procedimientos más utilizados para transformadas z
racionales es mediante la expansión por fracciones parciales de la expresión.

2.11. Resumen y Referencias


En este capı́tulo se resumieron los conceptos y las técnicas de transforma-
ción aplicadas en el estudio de señales y sistemas tanto para tiempo continuo
como para tiempo discreto, de todo ello lo más importante ha sido en la
caracterización de los sistemas LTI, los que son ampliamente utilizados en
la práctica para el diseño e implementación de sistemas de procesamiento
digital.

Debido a lo extenso que resulta un estudio más detallado de cada sección


se omitieron los procedimientos de las técnicas de transformación y algunos
otros aspectos, sin embargo para el que requiera de dicha información puede
consultarlo en la bibliografı́a a quı́ empleada [19, 21]. Como ya se mencionó lo
visto en este capı́tulo es aplicable a sistemas de procesado digital como por
ejemplo los filtros digitales, que son el tema de estudio del siguiente capı́tulo.
Capı́tulo 3

Filtros Digitales

na vez disponible el instrumental teórico-matemático desarrollado en el


U capı́tulo anterior, el presente capı́tulo se dedica al estudio formal de los
filtros. En el área de procesamiento de señales, el filtrado es un proceso me-
diante el cual se modifica el contenido espectral de la señal.

Se inicia este capı́tulo con los conceptos básicos de filtrado, haciendo


especial hincapié en la caracterización de los filtros LTI, hasta llegar a la
clasificación de los filtros digitales, y se finaliza con un análisis comparativo
de los filtros FIR e IIR.

3.1. Introducción
El término filtro se utiliza comúnmente para describir un dispositivo que
discrimina, según algún atributo de los objetos que se aplican a su entrada,
aquello que pasa a través de él. Por ejemplo, un filtro de aire permite que el
aire pase a través, evitando que las partı́culas de polvo presentes en el aire
lo atraviesen. Un filtro de aceite realiza una función similar, con la excep-
ción de que es aceite la sustancia que se permite que pase a través del filtro,

55
56 3.2. Filtros Analógicos vs Digitales

mientras que las partı́culas de suciedad se recogen a la entrada, evitando que


lo atraviesen [17].

En general, cualquier algoritmo o sistema de tratamiento pueden inter-


pretarse como un filtro. Se entiende por filtro LTI aquel sistema lineal e
invariante que permite el paso de componentes de la señal existentes en un
determinado intervalo frecuencial, y que elimina las demás, modificando el es-
pectro de la señal de entrada. Idealmente, en el margen de frecuencias que se
conservan, denominado Banda de paso, el módulo de la respuesta frecuencial
del filtro toma un valor constante; en el intervalo frecuencial complementario,
denominado Banda atenuada, el módulo de la respuesta frecuencial es nulo;
cuando el margen frecuencial está fragmentado en varios intervalos, cada uno
de éstos recibe el nombre de banda de paso o atenuada según sea el compor-
tamiento deseado.

Los filtros digitales se usan para dos propósitos generales: la separación


de señales que se han combinado y la restauración de señales que se han
distorsionado de alguna manera. El filtrado se emplea en procesado digital
de señales de diferentes maneras, por ejemplo, un dispositivo para medir la
actividad eléctrica del corazón de un bebé mientras todavı́a esta en el útero.
La señal cruda probablemente esté corrupta por la respiración y latido del
corazón de la madre. Un filtro podrı́a usarse para separar estas señales y
puedan analizarse individualmente [8].

3.2. Filtros Analógicos vs Digitales


Los filtros analógicos son baratos, rápidos y tienen un rango dinámico
grande en amplitud y frecuencia. Los filtros digitales en comparación son
completamente superiores en el nivel de rendimiento que pueden lograr,
3. Filtros Digitales 57

además los filtros digitales pueden lograr miles de veces mejor atenuación
que los filtros analógicos. Esto hace una diferencia dramática en como se
aproximan los problemas de filtrado.

Un filtro digital programable permite flexibilidad a la hora de reconfigurar


las operaciones de procesado digital sin más que cambiar el programa, por
el contrario la reconfiguración de un filtro analógico implica habitualmente
el rediseño del hardware, seguido de la comprobación y verificación para ver
que opera correctamente. Además las tolerancias en los componentes de los
circuitos analógicos hacen extremadamente difı́cil el control de la precisión
de este proceso. En cambio, un filtro digital permite un mejor control de los
requisitos de precisión.

La función de transferencia de un sistema analógico puede representarse


con una función compleja H(s), y la de un sistema digital se representa
mediante una función compleja H(z). Estas funciones de transferencia des-
criben el efecto del sistema sobre una señal de entrada y también el efecto
de filtración del sistema, como se muestra en la Figura 3.1.

Asen (ω0t + θ ) Filtro


ABsen (ω0t + θ + φ )
analógico

Asen (ω0 kT + θ ) Filtro


ABsen (ω0 kT + θ + φ )
digital

Figura 3.1: Efecto de los filtros sobre las senoides.


58 3.3. Filtrado Digital en el Dominio de la Frecuencia

3.3. Filtrado Digital en el Dominio de la Fre-


cuencia
Aunque la función de transferencia de un filtro define el efecto del filtro
en términos de frecuencias, en muchos casos puede describirse desde el punto
de vista ideal del comportamiento del módulo de respuesta frecuencial según
la posición relativa de las bandas de paso y las bandas atenuadas, por ejem-
plo, el filtro recibe el nombre de pasa bajas, pasa altas, pasa bandas y rechaza
bandas. El primero permite el paso solo a las bajas frecuencias y elimina las
altas; el filtro pasa altas presenta el comportamiento complementario; el fil-
tro pasa bandas cancela las bajas y altas frecuencias (bandas de atenuación
superior e inferior), y conserva una banda determinada de frecuencias; el últi-
mo, presenta bandas de paso en baja y alta frecuencia, y una banda atenuada
en un margen de frecuencias intermedio.

Las caracterı́sticas ideales de la respuesta en magnitud de estos tipos de


filtros se representan en la Figura 3.2. Tal como se muestra estos filtros
ideales tienen ganancia constante (normalmente tomada como ganancia uni-
taria) en la banda de paso y ganancia cero en la banda atenuada.

Dado que estos filtros son ideales no son causales, es decir, no son fı́sica-
mente realizables, ya que no se puede dar una transición abrupta entre las
zonas de paso y atenuación. Mas adelante se revisan las caracterı́sticas de
filtros digitales causales.

Los filtros digitales LTI, causales y estables pueden describirse por una
ecuación en diferencias finitas de coeficientes reales y constantes, es decir un
filtro digital es la implementación en hardware o software de una ecuación
diferencia.
3. Filtros Digitales 59

H (ω )
Pasa bajas
B
1

π −ωc 0 ωc π ω

H (ω )
Pasa altas
1

π −ωc ωc π
ω
0

H (ω )

1 Pasa bandas

π ω1 ω0 ω2 0 ω1 ω0 ω2 π ω

H (ω )

1 Rechaza bandas

π −ω0 0 ω0 π ω

Figura 3.2: Respuestas en magnitud de los filtros discretos selectivos en frecuencia


ideales.
60 3.3. Filtrado Digital en el Dominio de la Frecuencia

La señal de salida y[n] del filtro, correspondiente a una señal de entrada


x[n], se expresa por la ecuación

N
X M
X
y[n] = − ak y[n − k] + bk x[n − k] (3.1)
k=1 k=0

Por medio de la transformada z, esta clase de sistemas discretos lineales


e invariantes en el tiempo se pueden caracterizar también por la función de
transferencia racional que es el cociente de dos polinomios en z −1 .

PM
k=0 bk z −k
H(z) = P N
(3.2)
1+ k=1 ak z −k
Para que un sistema sea realizable debe ser causal y estable. En ningún
caso el filtro puede tener una respuesta frecuencial ideal, como las ilustradas
en la Figura 3.2, ya que a todas ellas corresponde una respuesta impulsional
no causal e inestable, es decir el filtro causal se aproxima al ideal. Esta
aproximación permite una tolerancia alrededor del valor teórico unidad del
módulo de la respuesta frecuencial en la banda de paso y sobre el valor nulo
en la banda atenuada. El proceso de diseño de un filtro digital requiere tres
pasos:

1. Establecer las especificaciones del filtro para unas determinadas presta-


ciones. Estas especificaciones son las mismas que las requeridas por
un filtro analógico: frecuencias de rechazabanda y pasabanda, atenua-
ciones, ganancia, etc.

2. Determinar la función de transferencia que cumpla las especificaciones.

3. Realizar la función de transferencia en hardware o software.


3. Filtros Digitales 61

3.4. Caracterı́sticas de Filtros Causales Se-


lectivos en Frecuencia

Los filtros ideales son no causales y, por lo tanto, fı́sicamente irrealizables


para aplicaciones de procesado de señal en tiempo real. La causalidad implica
que la caracterı́stica de respuesta en frecuencia del filtro no puede ser cero
excepto en un conjunto finito de puntos en el rango de frecuencias, además
de no poder tener un corte infinitamente abrupto desde la banda de paso
a la banda de rechazo, es decir H(ω) no puede caer desde uno hasta cero
abruptamente.

Aunque las caracterı́sticas de respuesta en frecuencia que poseen los filtros


ideales deben ser deseables, no son absolutamente necesarias en la mayorı́a de
las aplicaciones prácticas. Si se relajan estas condiciones es posible realizar
filtros causales que aproximan los filtros ideales con tanta precisión como
deseemos.

Tampoco es necesario que la magnitud del módulo |H(ω)| sea constante


en toda la banda de paso del filtro. Se puede tolerar un pequeño rizado en
la banda de paso como se ilustra en el Figura 3.3 . Simuladamente no es
necesario que sea cero en la banda de rechazo. También se puede tolerar un
valor distinto de cero o un pequeño rizado en la banda de rechazo.

La transición de la respuesta en frecuencia desde la banda de paso a la


de rechazo define la banda de transición o región de transición del filtro.
La frecuencia ωp define el limite superior de la banda de paso, mientras que
la frecuencia ωs define el principio de la banda de rechazo. Ası́ el ancho de
62 3.4. Caracterı́sticas de Filtros Causales Selectivos en Frecuencia

banda de transición es

BWsp = ωs − ωp (3.3)

Si existe un rizado en la banda de paso del filtro, su valor se denota por


δ1 , y la magnitud varı́a entre los limites 1 ± δ1 . El rizado de la banda de
rechazo del filtro se denota por δ2 .

La banda de paso contiene frecuencias con magnitudes mayores que la de


la frecuencia de corte; la banda de transición contiene frecuencias con mag-
nitudes entre las magnitudes de las frecuencias de corte de rechazo; la banda
de rechazo contiene frecuencias con magnitudes menores que la magnitud de
rechazo de la frecuencia de rechazo.

Figura 3.3: Caracterı́sticas de magnitud de filtros fı́sicamente realizables.


3. Filtros Digitales 63

3.4.1. Ventajas de los Filtros Digitales


Alta inmunidad al ruido

Alta precisión (limitada por los errores de redondeo en la aritmética


empleada)

Fácil modificación de las caracterı́sticas del filtro

Muy bajo coste (y bajando)

Por estas razones, los filtros digitales están reemplazando rápidamente a


los filtros analógicos.

3.5. Clasificación de los Filtros Digitales


Los filtros digitales se subdividen según su respuesta impulsional finita
FIR o infinita IIR.

3.5.1. Filtros FIR (Respuesta Impulsional Finita)


Los filtros de respuesta impulsional finita o FIR se usan en aplicaciones
donde existe la necesidad de un filtro de fase lineal. Este requisito ocurre
en muchas aplicaciones, especialmente en telecomunicaciones, donde existe
la necesidad de separar señales, tales como datos que han sido multiplexados
por división de frecuencia.

Se caracterizan por tener una respuesta impulsional con longitud L finita.


Es decir, el filtro es causal y su orden es M = L − 1, por tanto las muestras
de la respuesta impulsional valen cero para valores del ı́ndice n negativos o
64 3.5. Clasificación de los Filtros Digitales

superiores a M (h[n] = 0 para n > M = L − 1).

La señal de salida y[n] se obtiene mediante la ecuación de convolución de


la respuesta impulsional del sistema h[n] o la ecuación en diferencias finitas,
donde basta con limitar el número de coeficientes bk a L = M + 1:

M
X M
X
y[n] = h[k]x[n − k] = bk x[n − k] (3.4)
k=0 k=0

La secuencia bk son los coeficientes del filtro y no hay recursión, es decir,


la salida depende sólo de la entrada y no de valores pasados de la salida
siendo la respuesta por tanto una suma ponderada de valores pasados y pre-
sentes de la entrada, de ahı́ que se denomine Media en Movimiento (Moving
Average).

El filtro FIR también se puede caracterizar por su función de transferencia

M
X
H(z) = h(k)z −k (3.5)
k=0

Esta función de transferencia tiene un denominador constante y sólo tiene


ceros, por lo tanto la respuesta es de duración finita ya que si la entrada se
mantiene en cero durante M periodos consecutivos, la salida será también
cero.

Cuando la respuesta frecuencial de un filtro en la banda de paso no es la


ideal, la señal sufre una transformación denominada distorsión lineal. En par-
ticular, si esta distorsión es debida a que el módulo de la respuesta frecuencial
no es constante en la banda de paso, esta transformación es denominada dis-
torsión de amplitud, mientras que si es debida a que la respuesta de fase no es
lineal se habla de una distorsión de fase. Aunque es posible acercarse tanto
3. Filtros Digitales 65

como se desee, es inviable obtener una respuesta frecuencial sin distorsión de


amplitud. Únicamente los filtros pasa todo tienen una respuesta frecuencial
constante en módulo, pero precisamente por ello no son útiles como filtros
ya que dejan pasar todas las componentes frecuenciales, aunque afortunada-
mente, en lo que se refiere a la fase, sı́ es posible obtener filtros sin distorsión,
es decir, con fase lineal.

Un filtro FIR tiene fase lineal si su respuesta impulsional satisface la


condición.

h[n] = ±h[M − 1 − n]; n = 0, 1, ..., M − 1 (3.6)

Los filtros FIR de fase lineal se clasifican en los siguientes 4 tipos [14]
de acuerdo con las paridades de simetrı́a y de la longitud de su respuesta
impulsional, ver Figura 3.4 .

Tipo I: Simetrı́a par y longitud impar

H(z) = 1 + 1.5z −1 + z −2 (3.7)

Tipo II: Simetrı́a par y longitud par

H(z) = (1 + z −1 ) + (1 + 1.5z −1 z −2 ) = 1 + 2.5z −1 + 2.5z −2 + z −3 (3.8)

Tipo III: Simetrı́a impar y longitud impar

H(z) = (1 − z −2 ) + (1 + 1.5z −1 z −2 ) = 1 + 2.5z −1 − 1.5z −3 − z −4 (3.9)

Tipo IV: Simetrı́a impar y longitud par

H(z) = (1 − z −1 ) + (1 + 1.5z −1 z −2 ) = 1 + 0.5z −1 − 0.5z −2 − z −3 (3.10)


66 3.5. Clasificación de los Filtros Digitales

(a) (b)

(c) (d)

Figura 3.4: Ejemplos de h[n] para (a) Tipo I, (b) Tipo II, (c) Tipo III, (d) Tipo
IV de filtros FIR.

3.5.2. Filtros IIR (Respuesta Impulsional Infinita)

En aquellas aplicaciones donde no es imprescindible disponer de una res-


puesta frecuencial con fase lineal, suelen utilizarse filtros cuya respuesta im-
pulsional tiene longitud infinita. Su principal ventaja radica en que, para
cumplir unas especificaciones determinadas, precisan de un orden sensible-
mente inferior al requerido por un filtro FIR.

El filtro IIR óptimo, es decir aquel que satisface una plantilla de especifi-
caciones con el menor orden posible, se obtiene a partir de la aproximación
de Caurer o elı́ptica, que ofrece una atenuación con rizado de amplitud cons-
tante en las bandas de paso y atenuada.

Existen dos variaciones de este tipo de filtros: AR y ARMA


3. Filtros Digitales 67

1. Filtros AR (Autoregresivo)

La ecuación diferencia que describe un filtro AR es

y[n] + a1 y[n − 1] + a2 y[n − 2] + ... + aN y[n − N ] = x[n] (3.11)

Lo que da lugar a una función de transferencia que contiene solo polos


que es:

1
H(z) = (3.12)
1 + a1 z −1 + a2 z −2 + ... + aN z −N
Este filtro es recursivo ya que la salida depende no solo de la entrada
actual sino además de valores pasados de la salida (Filtros con retroali-
mentación), es decir, el término autoregresivo tiene un sentido estadı́sti-
co en que la salida y[n] tiene una regresión hacia sus valores pasados y
su respuesta al impulso es normalmente de duración infinita, de ahı́ su
nombre.

2. Filtros ARMA (Autoregresivo y Media en Movimiento)

Es el filtro más general y es una combinación de los filtros MA y AR.


La ecuación de diferencias que describe un filtro ARMA de orden N es:

y[n] + a1 y[n − 1] + a2 y[n − 2] + ... + aN y[n − N ] =


(3.13)
b0 x[n] + b1 x[n − 1] + ... + bM x[n − M ]

Y la función de transferencia

b0 + b1 z −1 + ... + bM z −M
H(z) = (3.14)
1 + a1 z −1 + ... + aN z −N
68 3.6. Análisis Comparativo entre Filtros FIR e IIR

Un filtro de este tipo se denota por ARMA(N,M), es decir es Autore-


gresivo de orden N y Media en Movimiento de orden M. Su respuesta
a impulso es también de duración infinita y por tanto es un filtro del
tipo IIR.

3.6. Análisis Comparativo entre Filtros FIR


e IIR
La cuestión sobre qué diseño es mejor, un filtro FIR o un filtro IIR, no
tiene fácil respuesta. Esta depende, en todo caso, de la aplicación para la que
se diseña el filtro.

Los filtros FIR representan dos ventajas fundamentales respecto a los fil-
tros IIR. La primera es que un filtro FIR es de fase lineal, por lo que no
representa distorsión de retardo de grupo. La segunda es que un filtro FIR
es inherentemente estable, su función de transferencia es sólo ceros, lo cual
asegura estabilidad, aunque se produzcan errores de presición numérica en la
representación de sus coeficientes. La principal desventaja de un filtro FIR
ante un IIR proviene del elevado orden que puede requerirse para cumplir
las especificaciones, ya que crece linealmente con la selectividad. Los órdenes
para los filtros FIR, utilizados en múltiples aplicaciones difı́cilmente requiere
al orden de un diseño IIR que sobrepase la decena. En consecuencia la rea-
lización de un sistema FIR se hace más costosa, ya que implica una mayor
carga computacional y una mayor necesidad de memoria disponible.

Lógicamente este inconveniente de los sistemas FIR se convierte en la


principal ventaja de los filtros IIR. Además, el orden requerido por un filtro
IIR por transformada bilineal se calcula previamente al diseño del filtro, lo
3. Filtros Digitales 69

que evita la reiteración de cálculos. Por contra, el orden de un filtro FIR debe
reajustarse mediante diseños sucesivos, en un proceso de prueba y error que
puede llegar a ser laborioso. Entre las desventajas principales de un filtro IIR
se destaca la posible inestabilidad producida por errores de cuantificación de
los coeficientes del denominador de la función de transferencia, que pueden
situar un polo fuera del cı́rculo de radio unidad. La otra desventaja im-
portante es la imposibilidad de conseguir una respuesta frecuencial con fase
lineal.

En aplicaciones donde se precise fase lineal se intenta utilizar un filtro


FIR, siempre que el orden requerido no sea excesivo, mientras que en apli-
caciones donde se precisan selectividades y discriminaciones muy elevadas
suelen utilizarse filtros IIR, ya que los filtro FIR exigen órdenes excesivos.

Finalmente como cuestiones fundamentales debe considerarse en la uti-


lización de un filtro digital para filtrar señales analógicas en tiempo real, el
tiempo de ejecución requerido y la cantidad de memoria disponible para la
arquitectura y tecnologı́a que se utilice. En ambos factores radica la principal
causa de limitación del margen de frecuencias en que los filtros discretos son
de utilidad.

3.7. Resumen y Referencias


En este capı́tulo se ha intentado motivar el filtrado digital de señales como
alternativa al filtrado analógico de éstas. Se vió que los filtros LTI, causales
y estables poseen que la caracterı́stica de respuesta en frecuencia del filtro
no puede ser cero excepto en un conjunto finito de puntos además de las
caracterı́sticas en magnitud.
70 3.7. Resumen y Referencias

De forma general, los sistemas lineales e invariantes en el tiempo se sub-


dividen en sistemas FIR (Respuesta Impulsional de duración Finita) y sis-
temas IIR (Respuesta Impulsional de duración Infinita), dependiendo de si
h(n) tiene duración finita o infinita respectivamente.

Existe una enorme cantidad sobre literatura técnica sobre los temas de
filtrado e identificación de sistemas. Como referencia se citan los libros de
[6, 8, 17, 21].

Los filtros digitales anteriormente descritos pretenden semejarse a un fil-


tro óptimo. Los filtros adaptables que utilizan estructuras IIR y FIR buscan
converger al filtro óptimo de Wiener, tema bajo estudio del siguiente capitulo.
Capı́tulo 4

Filtrado Adaptable

n base a las generalidades sobre los filtros digitales (IIR y FIR), presen-
E tadas en el capı́tulo anterior, es posible continuar con el estudio de los
filtros de interés en este trabajo de tesis, los filtros adaptables.

En situaciones donde se pretende procesar señales de propiedades es-


tadı́sticas desconocidas o cambiantes (situación presente en muchas aplica-
ciones), en que no se presentan las condiciones de un filtrado óptimo, se
plantea como solución el empleo de filtros adaptables.

A lo largo de este capı́tulo se presentan las caracterı́sticas del filtrado


adaptable, también se familiariza con los algoritmos para la realización de
este tipo de filtros ası́ como con sus diagramas de bloques necesarios para su
programación.

71
72 4.1. Introducción

4.1. Introducción
En un amplio margen de los escenarios, que pretende un tratamiento di-
gital de señales, el diseño de los filtros óptimos lleva a una degradación de
sus prestaciones cuando las condiciones del escenario cambian con el tiempo.
Los sofisticados sistemas presentes en la actualidad y su extremada depen-
dencia con el espectro o correlación de las señales involucradas (en que muy a
menudo cambian sus propiedades), obliga a la prevención de la degradación
en la calidad de los mismos. Aquel sistema que es capaz de adaptarse al en-
torno de las señales se le denomina adaptable. Para fines de este trabajo
este sistema se refiere como filtro adaptable.

La estructura genérica de un sistema adaptable presenta una etapa de


proceso a la que se superpone un estructura de aprendizaje, dicha estructura
es capaz de monitorear las condiciones del entorno e introducir las posibles
modificaciones pertinentes al sistema de proceso [3].

Sistema de proceso
Salida
Habitulamente LTI
de repuesta imulsional
h[n]

Sistema de aprendizaje

Examina la entrada y la
salida y actualiza el sistema
de proceso en consecuencia

Figura 4.1: Arquitectura general de un sistema adaptable.


4. Filtrado Adaptable 73

De la Figura 4.1 puede entenderse que un sistema de tal estructura es


de cierta forma “autodiseñado”, puesto que es capaz de modificar su propia
función de transferencia.

4.2. Filtrado Lineal Óptimo


Hay básicamente dos teorı́as para el diseño de los filtros adaptables linea-
les (donde la salida del filtro es una función lineal -posiblemente variante en
el tiempo- de la entrada del filtro) [16]:

1. La aproximación clásica, está destinada en el diseño de filtros “se-


lectores” de frecuencia tales como los filtros pasabandas, pasabajas,
pasaaltas/etc. Para una aplicación de reducción de ruido, por ejemplo,
se basa en el conocimiento de la totalidad el contenido espectral de
ambas; la señal útil y las componentes de ruido. Es aplicable principal-
mente cuando la señal y el ruido ocupan claramente diferentes bandas
de frecuencia. Tal diseño clásico de filtros no son tratados aquı́.

2. Diseño de Filtro Óptimo, por otra parte, esta basado en teorı́a de opti-
mización, donde el filtro es diseñado para ser “mejor”(de alguna forma).
Si la señal y el ruido son vistos como procesos estocásticos, basados en
sus parámetros estadı́sticos (asumido como disponibles), un filtro ópti-
mo es diseñado tal que, por ejemplo, minimize los efectos del ruido a la
salida del filtro acordando con algún criterio estadı́stico. Está basada
en la minimización del valor cuadrático medio de la diferencia entre la
salida actual del filtro y alguna salida deseada, como se ilustra en la
Figura 4.2. Puede parecer extraño que la teorı́a requiera de una señal
deseada, si tal cosa fuese válida ¿para qué complicar el diseño con un
74 4.2. Filtrado Lineal Óptimo

filtro?. Suficiente es decir, que usualmente es posible obtener una señal


que, mientras que esta no es realmente la requerida, es suficiente para
el propósito de controlar el proceso de adaptación. El diseño de estos
son dados más adelante, en el contexto de Filtrado Adaptable, donde
no se asume conocimiento de los parámetros estocásticos, pero el cual
esta basado en una idea muy similar. La teorı́a del diseño de filtro ópti-
mo data a los trabajos de Wiener en 1942 y Kolmogorov en 1939. La
solución resultada es referida a menudo como filtro Wiener. La teorı́a
de filtros adaptables se construye en gran parte en este trabajo.

Figura 4.2: Esquema prototipo del filtro Wiener.

El diseño de filtros Wiener puede ser denominado diseño “a priori”,


porque este está basado en una información estadı́stica a priori. Es impor-
tante ver, sin embargo que el filtro Wiener es solamente óptimo cuando la
estadı́stica relaciona verdaderamente la información a priori sobre el cual el
diseño del filtro estuvo basado. Aún mas, cuando tal información a priori no
está disponible, cual es usualmente el caso, no es posible diseñar en primer
lugar un filtro Wiener. Además las caracterı́sticas de la señal y/o ruido son
a menudo no estacionario. En este caso es ocasionalmente muy difı́cil aplicar
4. Filtrado Adaptable 75

esto en práctica. Entonces un método alternativo es usar un filtro adap-


table, el cual se puede autodiseñar y mantiene la señal deseada cancelando
la indeseada.

A continuación se plantea un modelo estadı́stico que cubre en la práctica


la mayorı́a de los escenarios de aplicación del filtrado lineal óptimo. Tomando
como referencia lo ilustrado en la Figura 4.3 es posible observar que cada
señal incluida es una realización de procesos aleatorios estacionarios (estos
procesos son aquellos en que las propiedades estadı́sticas son invariantes a
una traslación en el eje temporal). La señal de entrada u[n] es filtrada por un
filtro cuya respuesta al impulso h[n] es optimizada de modo que la salida y[n]
es lo más parecida posible a la secuencia deseada d[n]. La precisión del filtro
se mide a partir del error e[n]. Para evitar análisis excesivos se estudia los
filtros óptimos FIR, por ser más adecuado para nuestro campo de estudio. El
error e[n], para un filtro de orden M , se escribe par cada instante de tiempo
como

M
X
e[n] = d[n] − h[k]u[n − k] (4.1)
k=0

o en notación vectorial

e[n] = d[n] − ut [n]h (4.2)

donde t indica transpuesta. Una vez agrupados los M + 1 coeficientes de la


respuesta del filtro h[n] en el vector h = [h0 , h1 , ..., hM ]t , y los M + 1 valores
más recientes de la entrada en el vector u[n] = [u[n], u[n−1], ..., u[n−M ]]t . El
objetivo es minimizar una función de coste (que mide la potencia del proceso
aleatorio e[n]), establecida como la varianza del error


J[h] = E[e2 [n]]
76 4.2. Filtrado Lineal Óptimo

Ahora, con la finalidad de encontrar los coeficientes h[n] para los que el
error tiene la menor potencia se iguala el gradiente J[h] a cero

∇J[h] = 2E[e[n]∇e[n]] = −2E[e[n]u[n]] = 0

La relación anterior indica que para aquel filtro que minimiza la potencia
del error, este debe estar correlacionado con los datos de entrada. A lo que
se le conoce como Principio de Ortogonalidad, el cual require de una
interpretación geométrica [18].

d[n]
h[n]
u[n] y[n] e[n]

Figura 4.3: Filtrado lineal óptimo.

Si se considera el espacio vectorial de las variables aleatorias, espacio en el


que se define el producto escalar < x, y >= E[xy], se tiene que e[n] = d[n] −
y[n] es ortogonal a las M + 1 variables aleatorias u[n], u[n − 1], ..., u[n − M ]
con las que se estima d[n]. En tal sentido, la estimación y[n] de la muestra en
el instante n de la secuencia deseada es una combinación lineal de las vari-
ables aleatorias u[n], u[n − 1], ..., u[n − M ], es decir, la proyección ortogonal
de d[n] sobre el subespacio generado las mencionadas variables.

La minimización de la función J(h) da como resultado el filtro óptimo


que se pretende, que es la solución al siguiente sistema de ecuaciones lineales,
4. Filtrado Adaptable 77

formulado de forma matricial y denominado Ecuaciones de Wiener-Hopf :

Ru h = rdu (4.3)

donde Ru = E[u[n]ut [n]] es la matriz de autocorrelación de u[n] de tamaño


(M + 1)(M + 1), y rdu = E[d[n]u[n]] es el vector de correlación cruzada de
tamaño M + 1 de la secuencia deseada d[n] y al señal de entrada u[n]:

 
Ru [0] Ru [1] ··· Ru [M ]
 
 Ru [1] Ru [0] · · · Ru [M − 1] 
Ru = 
 ···
 (4.4)
 ··· ··· ··· 

Ru [M ] Ru [M − 1] · · · Ru [0]

rdu = [rdu [0], rdu [1], ..., rdu [M ]]t (4.5)

La solución requiere del conocimiento de los parámetros estadı́sticos de


segundo orden del problema, puesto que se parte de una función dependiente
de la potencia del error. La solución es garantizada en la práctica para la
totalidad de los casos, puesto que la matriz de autocorrelación Ru está clara-
mente definida a no ser que las muestras de la entrada u[n] presenten algún
tipo de dependencia determinista entre ellas. La matriz Ru es Toeplitz (con
elementos constantes a lo largo de las diaghonales), propiedad que representa
una ventaja al encontrar algoritmos eficientes en la resolución de ecuaciones
lineales de este tipo. El resultado obtenido se denomina Filtro de Wiener,
este es aquel que en promedio, ofrece una salida lo más parecida posible a la
secuencia deseada bajo un criterio de error cuadrático medio.

Se puede trabajar con la función de coste J[h] de modo que quede explı́cita
su dependencia del vector h que contiene los coeficientes del filtro estimador
78 4.3. Predicción Lineal

[10]

J[h] = E[e2 [n]] = σd2 − 2ht rdu + ht Ru h (4.6)

donde σd2 es la secuencia de la potencia deseada d[n]. Manipulando la


forma cuadrática anterior se puede expresar de manera más explı́cita

J[h] = σd2 − rtdu R−1 −1 t −1


u rdu + (h − Ru rdu ) Ru (h − Ru rdu )
(4.7)
= Jmı́n + (h − hopt )t Ru (h − hopt )

Es claro que para h = hopt = R−1


u rdu la función de coste alcanza su valor
mı́nimo Jmin = σd2 − rtdu R−1 2
u rdu , siempre menor o igual que σd .

4.3. Predicción Lineal


La predicción lineal de procesos aleatorios estacionarios se describe como
la estimación del valor que va a tomar la realización de un proceso aleatorio
u[n] en un instante dado una vez observados los valores anteriores [18]. La
predicción lineal es un caso particular de filtrado óptimo, tal y como se ob-
serva en la Figura 4.4.

u[n]
h[n]
u[n-1] ^
u[n] e[n]

-1

Figura 4.4: Predicción lineal.


4. Filtrado Adaptable 79

La secuencia deseada es ahora la propia u[n], mientras que la secuencia


de entrada se corresponde con u[n − 1], de tal modo que la predicción de la
muestra de u[n] en el instante n, escrita como û[n], se puede poner como

M
X
û = hk u[n − k] (4.8)
k=1

y el error de predicción está dado por

M
X
e[n] = u[n] − hk u[n − k] (4.9)
k=1

Los sucesivos valores del error de predicción se obtienen como el resultado


de filtrar la secuencia u[n] por el denominado filtro de error de predicción
cuya función de transferencia es

M
X M
X
−k
aM (z) = 1 − hk z = 1+ ak z −k (4.10)
k=1 k=1

El subı́ndice M indica el orden de la predicción; número de muestras


que intervienen en las misma. Este filtro se conoce también como filtro blan-
queador, ya que el error de predicción tiene el espectro más plano en relación
al espectro de la entrada. Se puede hacer estimación de un proceso aleatorio
en la medida en la que éste no sea blanco, ya que de lo contrario no habrı́a
correlación entre muestras, que es precisamente la que aprovecha el predictor
lineal.

La estructura en celosı́a implementa el filtro de error de predicción para


todos los ordenes por debajo de M , para lo que basta solamente tomar la
salida en la sección correspondiente, dicha estructura se muestra en la Figu-
ra 4.5.
80 4.4. Filtros Adaptables

Figura 4.5: Estructura en celosı́a.

4.4. Filtros Adaptables


Los filtros adaptables son dispositivos empleados en una variedad de apli-
caiones, a menudo con fines muy diferentes. Por ejemplo, un filtro puede ser
usado, para reducir el efecto de adición de ruido o interfernecia contenida en
una señal dada, tal que la componente de la señal útil puede ser distinguida
con mayor efectividad en la salida del filtro.

Un filtro adaptable tiene una adaptación algorı́tmica, que significa moni-


torear el ambiente y variar la función de transferencia del filtro como tal. El
algoritmo comienza fijando las condiciones iniciales (eso puede corresponder a
un desconocimiento del ambiente) y, basado en las actuales señales recibidas,
actúa para encontrar el diseño óptimo del filtro. En un estado estacionario,
se espera que el filtro converja con el filtro Wiener. En un estado no esta-
cionario, se espera que el filtro “rastree”las variaciones de tiempo y varié sus
coeficientes de filtro como tal.

En la realidad, tal cosa no existe como solución óptima e inmediata para


el problema del filtrado adaptable. Los filtros adaptables tienen que hacerse
sin una información estadı́stica apriori, en lugar de ello comúnmente obtienen
4. Filtrado Adaptable 81

toda su información solamente de una realización de los procesos, por ejem-


plo, una secuencia de muestreos en el tiempo. Pero, hay entonces muchas
opciones en cuanto a la información que es extraı́da, cómo es deducida, y
cómo es usada esta en el algoritmo. En el caso estacionario, por ejemplo,
la ergodicidad puede ser utilizada o empleada para calcular los parámetros
estadı́sticos de la señal durante el promedio del tiempo. El tiempo promedio
obviamente no es una gran herramienta útil en un estado no estacionario.
Dada solamente una realización del proceso, el algoritmo de adaptación ten-
drá que operar con estimaciones instantáneas de los datos estadı́sticos de la
señal. Nuevamente tales estimaciones pueden ser obtenidas en variar formas,
lo que significa que se tiene un amplio conjunto de herramientas más que una
única solución. Como resultado se produce una gran variedad de algoritmos,
los cuales ofrecen un rasgo conveniente propio.

La elección de una solución sobre alguna otra es determinada no solo por


las propiedades de convergencia y “rastreado” (seguimiento), sino también
por la estabilidad numérica, precisión y robustez, también como la comple-
jidad computacional y, algunas veces la tratabilidad con la implementación
en hardware.

4.4.1. Esquema Prototipo del Filtrado Adaptable


El esquema prototipo del filtrado adaptable esta descrito en la Figura
4.6 que es claramente similar al esquema del filtrado de Wiener de la Figura
4.2. La operación básica ahora involucra dos procesos:

1. Un proceso de filtrado, el cual produce una señal de salida en respuesta


a una señal de entrada dada.

2. Un proceso de adaptación que apunta a ajustar los parámetros del filtro


82 4.4. Filtros Adaptables

Figura 4.6: Esquema prototipo del filtrado adaptable.

(Función de transferencia del filtro) al ambiente (posiblemente variante


en el tiempo). La adaptación es guiada por una señal de error que
indica que tan bien la salida del filtro se relaciona con alguna respuesta
deseada. Los ejemplos son dados en la siguiente sección. A menudo el
valor cuadrático medio de la señal de error es usado como criterio de
optimización.

Dependiendo de la aplicación cada parámetro del filtro, la salida del filtro


o la señal de error, pueden ser de interés.

Un filtro adaptable puede ser implementado como un componente analógi-


co o digital. Aquı́ solo se consideran filtros digitales. Cuando se procesa
señales analógicas, el filtro adaptable es entonces precedido por un conver-
tidor analógico a digital. De manera similar, una conversión digital analógica
puede ser adicionada cuando una señal analógica sea necesitada. En las figu-
ras el bloque A/D y D/A son omitidos.

Como será explicado en el capı́tulo subsecuente, una elección pragmática


es usar un filtro FIR, donde la salida del filtro está formada como una com-
4. Filtrado Adaptable 83

binación lineal de entrada retrasada.

Está elección conduce a matemáticas y algoritmos medianamente sim-


ples. En particular el problema de optimización puede ser hecho para tener
una función costeable con un solo punto crucial (unimodal). Además el filtro
resultante es incondicionalemte estable.

4.4.2. Algoritmos de Filtrado Adaptable


El objetivo será encontrar el filtro óptimo, ho , que satisface las ecuaciones
de Wiener-Hopf descritas anteriormente en la Sección 4.2.

La solución a dichas ecuaciones puede representar una carga computa-


cional excesiva cuando el número de coeficientes es elevado. Una forma al-
ternativa a la resolución directa es emplear un procedimiento iterativo de
optimización. Uno de los más antiguos es el método de máximo descenso
(Steepest-Descent Algorithm).

Algoritmo de máximo descenso

Para hallar el Jmin , se realizan los siguientes pasos:

1. Se parte de un filtro inicial h[0] que habitualmente es el vector nulo. Se


hace n = 0.

2. Se calcula el vector gradiente definido como la derivada del error cuadrá-


tico medio, J(h[n]), con respecto al vector de coeficientes, h[n].

3. Se calcula el nuevo filtro, h[n + 1], cambiando el filtro previo en la


dirección contraria a la del vector gradiente.
84 4.4. Filtros Adaptables

4. Se vuelve al paso 2 con n = n + 1 y se repite el proceso.

Las correcciones sucesivas del filtro en la dirección opuesta a la del vector


gradiente nos llevarán a la obtención del filtro óptimo.

Sea ∇J(h[n]) el vector gradiente en la iteración n, la actualización del


filtro se realiza por la ecuación siguiente:

µ
h[n + 1] = h[n] − ∇J(h[n]) (4.11)
2
donde µ es una constante real y positiva.

Puesto que ∇J(h[n]) = −2E[e[n]u[n]] = −2rdu − Ru h[n] , la ecuación


(4.11) pasa a ser:

h[n + 1] = h[n] + µ(rdu − Ru h[n]) (4.12)

El parámetro µ controla la velocidad del descenso por la superficie del


error.

Algoritmo LMS

El algoritmo LMS (Least-Mean-Square) pertenece a la familia de los al-


goritmos de gradiente estocástico. El término de gradiente estocástico se em-
plea para distinguir el algoritmo LMS del de máximo descenso que emplea
un gradiente determinista para el cálculo iterativo del filtro de Wiener. La
propiedad más resaltable del algoritmo LMS es su sencillez; no se necesita
ninguna estimación de las funciones de correlación, ni requiere inversión de
matrices.
4. Filtrado Adaptable 85

Su expresión matemática esta definida por [10]

h[n − 1] = h[n] + µe[n]u[n] (4.13)

Para cada iteración se realizan los siguientes pasos:

1. Calcular la muestra de salida del filtro FIR,


M
X
y[n] = ht [n]u[n] = hk [n]u[n − k]
k=0

2. Calcular la muestra de error, e[n] = d[n] − y[n]

3. Actualizar los coeficientes del filtro con la ecuación (4.13).

La relación que guarda el algoritmo LMS con el algoritmo de máximo


descenso es que se sustituye el promedio estadı́stico E[e[n]u[n]] por su valor
instantáneo e[n]u[n].

Por lo tanto ahora cada coeficiente del filtro mostrará un comportamiento


ruidoso con lo que la trayectorı́a de los coeficientes pasa de ser determinis-
ta a ser aleatoria. No hay garantı́a de que se alcance el filtro óptimo, sino
que después de un número arbitrario de etapas el filtro se moverá ruidosa-
mente en torno al punto de mı́nimo error de la superficie de error. Esto es
J(h[n]) → J(∞), donde J(∞) es una constante.

La condición de convergencia para este algoritmo es la siguiente [10]:

2
0<µ< (4.14)
λmáx
donde λmax es el mayor de los autovalores de la matriz de autocorrelación de
Ru .
86 4.4. Filtros Adaptables

Para un valor dado de µ, la velocidad de convergencia depende de la


dispersión de los autovalores de Ru . Conforme los autovalores son más pare-
cidos entre sı́, el error desciende en lı́nea recta hacia el Jmin desde el punto
inicial. Ası́ para el diseño de este filtro se tiene que entre más grande sea µ,
más rápida será la convergencia, pero menor será la estabilidad alrededor del
valor mı́nimo, y a menor µ dentro del rango, más lenta es la convergencia,
pero más estable será alrededor del valor óptimo.

Un problema ocurre cuando en la matriz de autocorrelación existen au-


tovalores iguales a cero, ello puede ocacionar que el proceso de adaptación
no converja con la solución deseada. Dicho problema se soluciona empleando
una constante denominada factor leakage, este factor debe ser de un valor
comprendido entre 0 y 1, que cuando no sucede el problema mencionado se
elige de 1, entonces el algoritmo LMS se expresa como:

h[n + 1] = [1 − µr]h[n] + µe[n]u[n] (4.15)

Algoritmo RLS

El algoritmo LMS tiene muchas ventajas (debido a su simplicidad com-


putacional), pero su porcentaje de convergencia es lento. El algoritmo LMS
solo tiene un parámetro ajustable que modifica su porcentaje de convergen-
cia, el tamaño del paso µ, el cual tiene un rango limite de ajuste en orden
para asegurar la estabilidad.

Para tener una convergencia más rápida , debe ser usado un algoritmo
más complejo con parámetros adicionales. Una opción viable es el uso de un
algoritmo que realiza una estimación muestra a muestra llamado algoritmo
4. Filtrado Adaptable 87

RLS (Recursive Least Squares). Este algoritmo queda definido por [1]:

h[n + 1] = h[n] + Ke[n] (4.16)

donde K es el vector de ganancia de Kalman y e[n] representa la señal de


error. El procedimiento a seguir para la evaluar la ecuación sigue las siguientes
operaciones:

1. Calcular las muestras de salida del filtro.

2. Encontrar la señal de error, e[n].

3. Calcular el vector de ganancia de Kalman, K.

4. Actualizar la matriz inversa de correlación.

5. Actualizar los coeficientes del filtro con la ecuación (4.16).

El vector de ganancia de Kalman está basado en los resultados de auto-


correlación de los datos de entrada, y un factor llamado forgetting factor con
un rango de entre 0 y 1 y provee unos pesos de tiempo de los datos de entrada
tal que los pesos más recientes de la entrada son pesos más significativos que
los datos pasados. Su expresión matemática es la siguiente [10]:

R−1
u
K= U[n] (4.17)
1 + u[n]R−1
u U[n]

donde U[n] = [u[n], u[n − 1], ..., u[n − M ]]

4.5. Resumen y Referencias


Los filtros FIR adaptables pueden implementarse mediante una estruc-
tura en celosı́a, ofreciendo una gran robustez frente a errores de redondeo y
88 4.5. Resumen y Referencias

una mayor eficiencia computacional. Hay sin embargo otras opciones como
la estructura directa, más sencilla de implementar, lo que conduce a algorit-
mos medianamente simples y cuyos resultados llegan a ser óptimos cuando
el sistema de estudio no es tan complejo.

Para fines más explı́citos, en cuanto a filtrado óptimo puede consultarse


[3, 18] y en [16], en el tercero existe extensa información de filtrado adapta-
ble, igualmente para este último tema se emplearon los libros [1, 10].

En el capı́tulo siguiente se presenta el diseño y simulación para el proce-


samiento de un ECG, mediante el empleo de un filtro FIR adaptable emple-
ando una estructura directa.
Capı́tulo 5

Resultados

na vez descritos todos los elementos que forman parte del proceso de
U filtrado de señales, ahora se procede a estudiar el caso particular de una
señal de un ECG: descripción de la señal, transformación, filtrado digital, y
algoritmos de filtros adaptable. Se presentan una serie de experimentos con
el fin de realizar un estudio comparativo entre las diferentes estructuras de
filtros descritos en los capı́tulos anteriores. Una vez completado este estudio,
se aplica el método más viable a una señal del ECG para validar los resultados
mediante una emulación en un DSP.

5.1. Introducción
Tal como se ha comentado en el primer capı́tulo, uno de los objetivos del
presente trabajo es procesar una señal de ECG con un filtro adaptable, de tal
manera, que permita reducir la cantidad de ruido que se introduce cuando
la señal es adquirida, sin perder información relevante.

Para llevar a cabo este objetivo, en primer lugar se ha realizado un análi-


sis técnico en los capı́tulos anteriores, de manera que con el fin de evaluar

89
90 5.1. Introducción

las diferentes técnicas, será necesario realizar un estudio experimental sobre


los métodos descritos en los dos últimos capı́tulos, ello con la finalidad de
establecer cuál de ellos permite lograr el objetivo ya mencionado.

Antes de abordar la prueba experimental es necesario describir el sistema


de filtrado que se pretende. El diagrama de la Figura 5.1 muestra los bloques
del sistema adaptable para el filtrado de la señal de ECG . De dicha figura se
puede observar lo siguiente: la señal de entrada es el ruido, la señal deseada
es la señal de ECG interferida por ruido, la señal de salida de error es la señal
de ECG filtrada, esta última resulta de sustraer a la señal deseada d[n] la
señal de salida y[n], matemáticamente de la siguiente manera:

e[n] = d[n] − y[n]

d[n]

u[n] Filtro y[n] e[n]


Adaptable

Figura 5.1: Diagrama básico del filtrado adaptable de un ECG.

El objetivo del proceso a realizar por el sistema planteado es conseguir


la señal e[n] lo más pura posible, ya que es en base a esta el diagnóstico que
deba realizar el especialista.
5. Resultados 91

5.2. Espectro Frecuencial del ECG


En el diseño de filtros selectivos en frecuencia, las caracterı́sticas deseadas
del filtro se especifican en el dominio de la frecuencia en función de la res-
puesta del filtro en magnitud y en fase.

El análisis frecuencial de una señal conlleva a la separación de la señal


en sus componentes (sinusoidales) frecuenciales, por ello el espectro provee
una “identidad” o forma de la señal en el sentido de que ninguna otra señal
tiene el mismo espectro. Si descomponemos una forma de onda en sus com-
ponentes sinusoidales, la suma de estas componentes resulta en la forma de
onda original, por otra parte, si alguna de estas componentes desaparece, el
resultado es una señal diferente.

A continuación en la Figura 5.2 se muestra la señal de ECG, obtenida


de la base de datos del MIT DB: The Massachusetts Institute of Technology-
Beth Israel Hospital Arrhythmia Database (48 registros, de 30 minutos cada
uno) [27]. Más adelante en la Figura 5.3 se muestra el espectro en frecuencia
de la señal de ECG obtenida mediante el siguiente código en MATLAB:

ALGORITMO 5.1: ESPECTRO DE UNA SEÑAL ECG

x=fft(ECG); % ECG es el vector de la


se~
nal electrocardiogáfica.
L= length(x);

Nyquist=1/2;

freq=(1:L/2)/(L/2)*Nyquist; % Frecuencia normalizada


o de Nyquist.
magx=abs(x(1:floor(L/2))); % Cálculo de la magnitud
de la fft del vector.
92 5.2. Espectro Frecuencial del ECG

Figura 5.2: Señal de ECG.

En la Figura 5.3 se muestra el espectro en frecuencia de la señal de


ECG. Puede notarse que la mayor parte de la información presente en la
señal está por debajo del 0.15 Hz en la frecuencia normalizada o de Nyquist
[21], esto es, la señal esta presente en bajas frecuencias.

(Hz)

Figura 5.3: Espectro de la señal de ECG.

Es en base a las caracterı́sticas que se observan claramente en el dominio


de la frecuencia de la señal, el diseño de los filtros digitales que se simulan
en este trabajo. En la siguiente sección se muestra el diseño y resultados
obtenidos por los mismos ya en la señal de ECG interferida por ruido.
5. Resultados 93

5.3. Resultados de Simulación


La simulación es la representación de un proceso o fenómeno median-
te otro más simple, que permite analizar sus caracterı́sticas. Mediante la
simulación en este trabajo de tesis es posible generar la señal de salida de
diferentes procesos de filtrado para comprobar su comportamiento bajo di-
versas condiciones de ruido, esto permite un conocimiento más profundo para
la emulación.

5.3.1. Filtro FIR


Los filtros FIR se usan en aplicaciones donde existe la necesidad de un
filtro de fase lineal. Este requisito ocurre en muchas aplicaciones, tal es el caso
del procesamiento de señales médicas, donde existe la necesidad de separar
las señales, sin distorcionarlas.

Figura 5.4: Estructura directa para la realización de un filtro FIR.

Un aspecto fundamental a considerar en el diseño y simulación de un filtro


digital es el coste computacional que este exige. Este aspecto es determinante
para aplicaciones en entornos analógicos. Aunque existen muchas estructuras
para el diseño de los filtros digitales aquı́ solo se muestra la estructura directa,
94 5.3. Resultados de Simulación

que es la más sencilla de implementar y conduce a algoritmos eficientes en el


procesado de señales.
En la Figura 5.4 se muestra la estructura directa de un filtro FIR. Mas
adelante, bajo la denominación de algoritmo 5.2, se proporciona el Algo-
ritmo que realiza la secuencia de operaciones simbolizada por el diagrama
de bloques; se consideran operaciones básicas la suma, el producto y la o-
peración MAC y se dispone de un elemento acumulador A sobre cuyo registro
se efectúan todas las operaciones MAC. Se utiliza notación vectorial para
simbolizar el almacenamiento en memoria de las diferentes variables. Ası́ la
respuesta impulsional del filtro se conserva en el vector de dimensión L.

ALGORITMO 5.2: FILTRO FIR.

M: = L - 1 ;Orden del filtro para i=0


h(i): = h[i] ;Inicialización vector
respuesta impulsional
x(i): = 0 ;Inicialización del
filtro con condiciones
fin iniciales nulas

repetir(para cada muestra de entrada)


x(0): = x[n] ;Lectura de la muestra
de la se~
nal de entrada
A: = x(M)*h(M) ;Inicialización acumulador
para i=0 hasta M-1 repetir
A: = A+x(M-1-i)*h(M-1-i);Calculo M operaciones MAC
x(M-i): = x(M-1-i) ;Actualización del vector
asociado a la entrada
fin
y[n]: = A ;Muestra de salida
fin

Este algoritmo requiere 2L posiciones de memoria y un acumulador. Para


cada nueva muestra de la entrada realiza un producto y L − 1 operaciones
MAC; por tanto el número total de operaciones es L. El almacenamiento en
memoria de los coeficientes del filtro se realiza con una precisión finita, es
decir, se produce inevitablemente cierto error de cuantificación.
5. Resultados 95

La señal de ECG de la Figura 5.2 no se obtiene de forma natural, para


obtener dicha señal se requiere de la aplicación de técnicas de procesamiento
digital, debido a la alta susceptibilidad que presentan este tipo de señales ante
ruidos e interferencias, como se muestra en la Figura 5.5a y cuyo espectro
se encuentra representado en la Figura 5.5b.

(a)

(b)

Figura 5.5: (a) Señal de ECG alterada por ruido Gaussiano y (b) su espectro.

Una alternativa para procesar la señal que permita atenuar el ruido adi-
cionado a dicha señal es la aplicación de un filtro digital FIR. Para este
propósito se emplea MATLAB y Simulink.

Salida
ECG
filtrada

Figura 5.6: Diagrama del filtro FIR en Simulink.

En la Figura 5.6 se muestra el diagrama en Simulink de la aplicación de


dicho filtro, asi como su bloque de caracterı́sticas frecuenciales en la Figura
96 5.3. Resultados de Simulación

5.7 y finalmente, en la Figura 5.8 se muestra la señal obtenida como salida


de dicho filtro.

Figura 5.7: Diagrama de Bode del filtro FIR en Simulink.

Figura 5.8: Señal de salida del filtro FIR.

Haciendo la comparación entre las Figuras 5.5a y 5.8 se puede notar la


atenuación realizada a la señal interferente sin embargo, no son perceptibles
las ondas componentes de la señal de ECG. Aunque este apartado se limita a
la realización de un filtro FIR, nuestras conclusiones se mantienen en general
como una simple atenuación del ruido.
5. Resultados 97

5.3.2. Filtro IIR


En aquellas aplicaciones donde no es imprescindible disponer de una res-
puesta frecuencial con fase lineal, suelen utilizarse filtros cuya respuesta im-
pulsional tiene longitud infinita. Su principal ventaja radica en que, para
cumplir unas especificaciones determinadas precisan de un orden sensible-
mente inferior al requerido por un filtro FIR, además requiere de menos
memoria y tiene menor complejidad computacional.
La Figura 5.9 muestra la estructura directa correspondiente a un filtro
digital IIR, que se realiza apartir de la aplicación directa de la función de
transferencia de H(z). Aquı́ se proporciona un algoritmo para realización de
un filtro IIR de segundo orden.

Figura 5.9: Estructura directa de un filtro IIR.


98 5.3. Resultados de Simulación

ALGORITMO 5.3: FILTRO IIR REALIZACIÓN DIRECTA.

M: =2 ;Orden del filtro para i=1


hasta M repetir
a(i): =a(i) ;Inicialización denominador
fin
para i=0 hasta M repetir
b(i): =b_{i} ;Inicialización numerador
x(i): =0 ;Inicialización del vector
asociado a la entrada
y(i): =0 ;Inicialización del vector
asociado a la salida
fin repetir {para cada muestra de entrada}
x(0): =x[n] ;Lectura de la muestra de
la se~nal de entrada
A: = b(M)*x(M) ;Inicialización acumulador
para i=0 hasta M-1 repetir
A: =A+b(M-1-i)*x(M-1-i);Cálculo de MAC
A: =A-a(M-i)*y(M-i) ;Cálculo de MAC
fin
y(0): =A
para i=0 hasta M-1 repetir
x(M-i): =x(M-1-i) ;Actualización el vector
asociado a la entrada
y(M-i): =y(M-1-i) ;Actualización del vector
asociado a la salida
fin
y[n]: =A ;Muestra de salida
fin

Este algoritmo corresponde a la función de transferencia

b0 + b1 z −1 + b2 z −2
H(z) =
1 + a1 z −1 + a2 z −2
La realización directa de la célula de orden 2 responde a la expresión

M
X =2 M
X =2
y[n] = bi x[n − i]− ai y[n − i]
i=0 i=1

Este algoritmo utiliza 4M +2 = 11 posiciones de memoria y 1 acumulador.


realiza un producto y 2M = 4 operaciones MAC; en total 2M + 1 = 5
operaciones por muestra de entrada.
5. Resultados 99

A continuación, en la Figura 5.10, se presenta el diagrama realizado


en Simulink del filtro IIR, y en la Figura 5.11 su bloque de caracterı́sticas
frecuenciales.

Salida
ECG
filtrada

Figura 5.10: Digrama del filtro IIR realizado en Simulink.

Figura 5.11: Diagrama de bode del filtro IIR en Simulink.

La Figura 5.12 muestra la señal de salida del filtro IIR, aunque no es


muy notorio, el filtro FIR atenúa en mayor medida el ruido que el filtro
IIR coincidiendo con lo establecido anteriormente, ya que los filtros FIR son
mucho menos susceptibles que los IIR de ser inestables.
100 5.3. Resultados de Simulación

Figura 5.12: Señal de ECG filtrada del filtro IIR.

5.3.3. Filtro Adaptable


Siempre que se procesan señales de propiedades estadı́sticas desconocidas,
o cambiantes, en que ya no se está en las condiciones de filtrado óptimo (esta-
cionareidad), se plantea como solución la utilización de filtros adaptables.
Estos sistemas permiten ir actualizando los coeficientes del filtro mediante
un algoritmo recursivo. En un ambiente estacionario, el algoritmo arranca
a partir de una condición inicial, y va adaptando sus coeficientes mediante
iteraciones sucesivas, convergiendo al filtro óptimo en algún sentido.

Figura 5.13: Diagrama del filtro FIR adaptable.


5. Resultados 101

En ambientes no estacionarios, el filtro ofrece una capacidad de seguimien-


to, pudiendo seguir las variaciones en la estadı́stica de la señal de entrada
(aún cuando las variaciones no sean suficientemente lentas). Casi la totali-
dad de las aplicaciones con filtros adaptables utilizan implementaciones con
filtros de respuesta impulsiva finita (FIRs), debido la sencillez que presentan
y lo eficientes que resultan.
Para implementar el FIR adaptable se utiliza la forma directa debido a
la simplicidad que presenta ante otras configuraciones, ası́ la forma del FIR
adaptable es la mostrada en la Figura 5.13.

Algoritmo LMS

El algoritmo LMS es un método de cálculo ampliamente utilizado, es-


pecialmente en aplicaciones de procesado de señales en las que la velocidad
de cálculo es alta. Se aborda, ahora sı́, el planteamineto general de filtrado
adaptable FIR. El procesamiento de la señal ECG puede plantearse con un
sistema como el de la Figura 5.14, igualmente realizado en Simulink.

ECG

Figura 5.14: Diagrama del filtro FIR adaptable LMS.

Los parámetros de diseño del filtro FIR son los mismos a los mostrados
anteriormente en la Subsección 5.3.1, para el algoritmo LMS se elige primero
un valor de µ = 0.1, este valor hace que la velocidad de convergencia sea rela-
102 5.3. Resultados de Simulación

tivamente grande, pero no ası́ su estabilidad. En la Figura 5.15 se ilustran


las señales obtenidas a partir de dicho proceso, la señal 5.15a representa
la señal del ECG, la señal 5.15b es la señal del ECG alterada por ruido
Gaussiano, y la señal 5.15c muestra la repuesta de dicho filtro, para r = 1.

(a)

(b)

(c)

Figura 5.15: Resultados de simulación para LMS, con µ = 0.1.

Con el mismo r, si se elige un µ = 0.01 la velocidad de convergencia


decrece y la señal filtrada tiende a semejarse aún más a la señal óptima, tal
como sucede en la Figura 5.16b.

(a)

21608 22608 23608 24608 25608 26608 27608 28608

(b)

21608 22608 23608 24608 25608 26608 27608 28608

Tiempo

Figura 5.16: Resultados LMS, con µ = 0.01.


5. Resultados 103

Algoritmo RLS

El algoritmo RLS no se utiliza generalmente en aplicaciones de proce-


sado de señales, porque exige velocidades de cálculo demasiado altas a los
procesadores. Sin embargo para ver los efectos en simulación se ejecuta el
diagrama a bloques de la Figura 5.17.

ECG

Figura 5.17: Diagrama del filtro FIR Adaptable RLS.

(a)

(b)

(c)

Figura 5.18: Resultados de simulación para RLS.

El valor de forgetting factor elegido para este caso es igual a 1. Simulink


genera automáticamente el vector de ganancia de Kalman. Lo anterior no
resulta muy conveniente en situaciones donde el sistema requiera modificar
104 5.3. Resultados de Simulación

vector de Kalman. En la Figura 5.18 se ilustran las señales obtenidas a


partir de dicho proceso, la señal 5.18a representa la señal del ECG, la señal
5.18b del ECG alterada por ruido Gaussiano, la señal 5.18c es la repuesta
de dicho filtro.

5.3.4. Discusión
En este apartado se realiza la comparación de los algoritmos empleados
en el procesamiento del electrocardiograma en base al respuesta obtenida por
cada uno de ellos. Además de realizar la comparación en cuanto a velocidad
de convergencia y estabilidad, se hace también la comparación en cuanto a
recursos empleados para su implementación.
De manera natural se sustenta que los filtros digitales fijos (en este caso
filtro FIR e IIR) no resuelven el problema que se presenta al procesar señales
de parámetros aleatorios. Ello queda más que evidente al observar la Figura
5.19. Si bien es cierto que estos filtros eliminan, o almenos atenúan, gran
parte del ruido que altera al ECG, también es cierto que la señal a la salida
del filtro no puede ser interpretada como un ECG.

(a)

(b)

(c)

Figura 5.19: (a) Señal ECG original y respuesta de los filtros (b) FIR y (c) IIR.

Ahora bien, es de suma importancia elegir la opción que mejor se adapte


5. Resultados 105

a las necesidades. Quedan como opciones el filtro FIR adaptable LMS y el


FIR adaptable RLS. De estos dos es el segundo el que tiene una velocidad de
convergencia mayor, pero la estabilidad es muy parecida, obviamente para
cuando en el algoritmo LMS µ tiene un valor pequeño. La Figura 5.20 muestra
la respuesta del filtro adaptable para cada algoritmo.

(a)

(b)

(c)

Figura 5.20: (a) Señal ECG origial y respuesta del filtro FIR adaptable (b) LMS,
(c) RLS.

Tal parece que fuera el algoritmo RLS la mejor elección, sin embargo como
ya se ha visto este algoritmo exige velocidades de operaciones muy altas, ello
implica el empleo de sistemas más robustos y en consecuencia más costosos.
El algoritmo LMS es más sencillo lo que se refleja en un bajo consumo de
recursos en cuanto a software y hardware se refiere. Es en base a lo anterior
que se ha elegido como opción viable el empleo del filtro FIR adaptable LMS.

5.4. Emulación en el DSP 320c6711 de Texas


Instruments
Gracias a que en la paqueterı́a utilizada en este trabajo de tesis, existe
un interconexión hacia diferentes DSP´s, fue posible lograr la emulación, la
106 5.4. Emulación en el DSP 320c6711 de Texas Instruments

Figura 5.21 ilustra la forma de conexión entre dicho software y la tarjeta


del DSP, ası́ como el esquema básico del proceso de filtrado adaptable.

Figura 5.21: Diagrama de emulación usando el DSP y MATLAB.

5.4.1. Validación del Algoritmo Seleccionado


Los resultados obtenidos en esta fase están representados en la Figura
5.22, y de forma natural muestra la adpatación que logra el filtro. Cabe
hacer mención que este proceso debido a que inicia con condiciones inciales
iguales a cero, tiende a que entre mayor sea el número de iteraciones, la señal
se asemeja mas a la deseada. En este caso, la señal 5.22a muestra el ECG
puro, mientras que la señal 5.22b representa la sumatoria del ECG con el
ruido, finalmente la señal 5.22c, ilustra la salida del filtro adaptable LMS.
La emulación hecha demuestra que el sistema planteado es fı́sicamente
realizable y que el algoritmo promete un poco más al ejecutarlo en tiempo
real, ya que en tal caso el computador solo será utilizado para desplegar los
resultados. Esto permite entonces un aumento considerable de la velocidad
5. Resultados 107

(a)

(b)

(c)

Figura 5.22: Resultados de emulación de un filtro FIR adaptable LMS, (a) Señal
oroginal ECG, (b) Señal con ruido y (c) Señal filtrada.

de procesamiento y en consecuencia una convergencia más rápida.

5.5. Resumen y Referencias


Este capı́tulo forma parte del corazón del trabajo de tesis, con los resul-
tados presentados aquı́ se puede concluir que el objetivo general se cumple
satisfactoriamente.

Hoy el diseño de filtros digitales se facilita enormemente por la disponibili-


dad de numerosas herramientas, dentro de las herramientas de computo para
el procesamiento digital de señales se encuentran los programas de simulación
donde los datos pueden analizarse, aplicando filtros digitales, y graficarse en
una computadora. Para el propósito de este trabajo de tesis se utilizó el
software de MATLAB 7.0 en conexión con un DSP.
108 5.5. Resumen y Referencias

La existencia de una literatura rica en el diseño de filtros digitales hace


imposible citar todas las referencias importantes. Citaremos unas pocas. Al-
gunos de los primeros trabajos en el diseño de filtros digitales fueron realiza-
dos por [8, 9, 11, 14, 23].

Las técnicas de diseño directo para filtros digitales has sido considerada
en varios artı́culos, incluyendo [2, 4, 5, 23].
Capı́tulo 6

Conclusiones y Proyección
Futura

La implementacion del sistema descrito en esta Tesis planteado para el


procesamiento digital de señales electrocardiográficas puede ser facilmente
adaptado a otros tipos de señales biomedicas. Sin embargo, el sistema necesita
para su futuro desarrollo que exista una interaccion entre usuarios para definir
con exactitud los requisitos que debe cumplir y modificar entonces, cuando
el caso lo requirera, el algoritmo empleado.
A tenor de los resultados obtenidos en el Capı́tulo 5, las conclusiones que
se pueden establecer son:

En general. Los filtros digitales ofrecen mejores resultados que los analógi-
cos. El principal inconveniente de los métodos basados en programación
dinámica, es su elevado coste computacional que hace que el método
cuando se ha de aplicar a la totalidad de las muestras de una señal sea
recomendable en la práctica mediante el uso de un DSP, de arquitectura
y memoria suficientemente disponible para dicha aplicación.

Un sistema Lineal Invariante en el Tiempo definido a través de una

109
110 6.1. Proyección Futura

ecuación en diferencias puede ser implementado algorı́tmicamente de


una gran diversidad de formas. Si se dispone de toda la precisión
numérica necesaria, todas las implementaciones construidas a partir
de retardos, multiplicadores y sumadores son equivalentes o muy pare-
cidas. Pero cuando la precisión a la hora de representar los valores
numéricos esta limitada, como en cuanto a los errores cometidos, el
comportamiento ante la precisión finita es más óptima cuando se apli-
ca una estructura adaptable.

El algoritmo LMS permite adaptar los coeficientes en cancelación de


ruido, de una forma muy sencilla y que resulta bastante robusta en es-
cenarios adversos. La convergencia del algoritmo LMS resulta bastante
precisa para el escenario del sistema planteado.

La emulación del algoritmo LMS muestra la viabilidad del sistema


planteado en este trabajo de tesis para su implementación a través
de un DSP.

Por tanto, se concluye que la aplicación de filtros adaptables para el proce-


samiento digital de bioseñales ofrece una alternativa, ya que dichas señales
contienen parámetros estadı́sticos desconocidos.

6.1. Proyección Futura


El algoritmo presentado en simulación y emulación en esta tesis, demues-
tra la viabilidad de la arquitectura planteada. Sin embargo, el sistema nece-
sita para su futuro desarrollo, su implementación en tiempo real y definir con
exactitud las espacificaciones que debe cumplir.
Una vez implementado y realizado las pruebas pertinentes en tiempo real
a pacientes, este algoritmo es fácilmente de adaptar a otro tipo de señales
bioeléctricas.
Apéndice A

Artı́culo

Se ha realizado el presente artı́culo para ser sometido a un congreso na-


cional, éste aún por definir.

111
FILTRADO ADAPTABLE DE UN ECG USANDO UN DSP1

Licona Rios D.2 Lozano González G.2 Ramos Velasco Luis E.3

3
Centro de Investigación en Tecnologías de Información y Sistemas,
UAEH, Carretera Pachuca-Tulancingo, Km. 4.6, México
email: lramos@uaeh.reduaeh.mx

Resumen: En este artículo se presentan los resultados obtenidos en simulación y emulación


del filtrado digital adaptable de una señal de electrocardiograma, haciendo uso del DSP
TMS320c6711 de Texas Instruments. Los algoritmos utilizados hacen que la bioseñal
presente la calidad adecuada que facilite el diagnóstico, tanto mediante técnicas de inspección
visual como mediante técnicas actuales de inspección automática.

Palabras clave: Procesamiento adaptable, procesador digital de señales (DSP),


electrocardiograma (ECG).

1. INTRODUCCIÓN

1
Siempre que se debe procesar señales con propiedades d[n]
estadísticas desconocidas, o variantes (situación muy u[n] Filtro y[n] e[n]
común en las aplicaciones), se plantea como solución Adaptable

la utilización de filtros adaptables (Haykin, 1996).

Los procesadores digitales, las herramientas matemáti- Figura 1. Esquema del filtrado adaptable de un ECG.
cas y el desarrollo de diferentes tipos de algoritmos El esquema de la Figura 1 muestra un sistema adap-
adaptables para el procesamiento digital de señales table para el procesado de un ECG. Donde la señal
proporcionan un método alternativo para el proce- de entrada es el ruido, la señal deseada es la señal de
samiento de una señal analógica y así hacen posible la ECG interferida por ruido, la señal de error es la señal
realización de analizadores de señales (Haykin, 1996), de ECG filtrada y[n], menos la señal de salida d[n], es
(Marc, 1998). decir; e[n] = d[n] − y[n].
Los DSP´s tienen un gran número de aplicaciones en
el campo del procesado digital de señales, y en ellas
destaca la cancelación activa de ruido que se aplica
cuando no es posible usar los procedimientos clásicos 1.1 Generalidades del ECG
de eliminación de ruido (filtros selectivos en frecuen-
cia), tal es el caso de los electroencefalogramas, elec- Un ECG es la representación gráfica de la tensión
trocardiogramas y electromiogramas (Haykin, 1996). contra tiempo de la actividad cardiovascular de un
paciente, que ofrece información acerca del estado del
músculo cardíaco.

1 Este trabajo fue apoyado por PROMEP con número de proyecto


103.5/05//2038
El origen se encuentra en las células del múscu-
2 Estudiantes de la carrera en Electrónica y Telecommunicaciones, lo cardíaco, las cuales pueden ser excitadas eléctri-
de la UAEH, México. camente, produciéndose un flujo de iones a través
de su membrana, lo cual induce un potencial eléc- h[n] o la ecuación en diferencias finitas, donde basta
trico variable en el interior y en el exterior, medi- con limitar el número de coeficientes bk a L = M + 1:
ante una polarización y despolarización miocárdiaca
(Kilpatrick, 1994).
M
X M
X
y[n] = h[k]x[n − k] = bk x[n − k] (1)
Durante la despolarización y repolarización miocárdi- k=0 k=0
ca, aparecen las ondas del ECG. Las distancias en-
tre deflexiones u ondas se denominan segmentos o La secuencia bk son los coeficientes del filtro y no hay
intervalos. Un periodo del ECG perteneciente a un recursión, es decir, la salida depende sólo de la entrada
individuo sano, consiste en una onda P, el complejo y no de valores pasados de la salida siendo la respuesta
QRS, la onda T y la onda U, tal como se muestra en la por tanto una suma ponderada de valores pasados y
Figura 2. presentes de la entrada, de ahí que se denomine Media
en Movimiento (Moving Average).

El filtro FIR también se puede caracterizar por su


función de transferencia

M
X
H(z) = h(k)z −k (2)
k=0

Un filtro FIR siempre es estable, pues no añade polos


al sistema. Por otro lado, no puede realizar funciones
Figura 2. Ondas componentes de la señal electrocardiográfica. de transferencia racionales con un número finito de
parámetros. En la Sección 2.3 se presentará un filtro
FIR adaptable.
Las porciones del electrocardiograma entre las de-
flexiones se denominan segmentos, y las distancias
entre ondas se denominan intervalos.
2.2 Filtros IIR

2. TIPOS DE FILTROS Los filtros IIR, de respuesta impulsional infinita,


deben su nombre al hecho de que su salida puede
Un filtro digital realiza una transformación de la señal depender tando de la entrada como de la propia salida
de entrada, alterando su contenido espectral, la magni- del filtro, de forma que el efecto de un impulso en la
tud y la fase para acomodarla a unas especificaciones entrada puede no extinguirse en tiempo finito.
deseadas. En esta sección se describen los dos fil-
tros clásicos más utilizados en la cancelación activa La ecuación diferencial que describe al filtro es
de perturbaciones, que son: el filtro FIR (Finite Im-
pulse Response) y el filtro IIR (Infinite Impulse Res-
ponse), y posteriormente se revisan los algoritmos de
y[n] + a1 y[n − 1] + ... + aN y[n − N ] = x[n] (3)
adaptación (Proakis, 1998).
Lo que da lugar a una función de transferencia que
contiene solo polos que es:
2.1 Filtros FIR
1
Los filtros de respuesta impulsional finita o FIR se H(z) = (4)
1 + a1 z −1 + a2 z −2 + ... + aN z −N
usan en aplicaciones donde existe la necesidad de un
filtro de fase lineal. Se caracterizan por tener una res-
Los filtros IIR son sistemas genéricos de procesado
puesta impulsional con longitud L finita. Es decir, el
de señales. Su principal ventaja es que pueden rea-
filtro es causal y su orden es M = L − 1, por tanto
lizar cualquier transformación lineal y discreta con un
las muestras de la respuesta impulsional valen cero
número finito de parámetros, resultando más eficientes
para valores del índice n negativos o superiores a M
que los filtros FIR. Por otro lado, tienen inconve-
(h[n] = 0 para n > M = L − 1).
nientes importantes, como la falta de garantía en su es-
tabilidad o los problemas derivados de la cuatización y
La señal de salida y[n] se obtiene mediante la ecuación redondeo de sus coeficientes, mucho mayores que en
de convolución de la respuesta impulsional del sistema el caso de los filtros FIR.
2.3 Algoritmos Adaptables Como resultado se obtiene una expresión definida asi:

El elemento principal de procesado, en este artículo,


h[n + 1] = h[n] + Ke[n] (6)
es un filtro digital adaptable. Es decir, un filtro digital
clásico, con la particularidad de que sus parámetros
donde K es el vector de ganancia de Kalman y e[n]
pueden variar a lo largo del tiempo. El encargado
representa la señal de error.
de modificar estos parámetros es un algoritmo de
optimización que, con la finalidad de minimizar algún
criterio, calcula constantemente los parámetros más El vector de ganancia de Kalman está basado en los
adecuados. A continuación se resumen los algoritmos resultados de autocorrelación de los datos de entrada,
de adaptación más comunes (Marc, 1998). y un factor llamado forgetting factor con un rango de
entre 0 y 1 y provee unos pesos de tiempo de los datos
de entrada tal que los pesos más recientes de la entrada
2.3.1. Algoritmo LMS. El algoritmo LMS (Least- son pesos más significativos que los datos pasados. Su
Mean-Square) pertenece a la familia de los algoritmos expresión matemática es la siguiente:
de gradiente estocástico, es un método de cálculo am-
pliamente utilizado especialmente en aplicaciones de
procesado de señales en las que la velocidad de cálculo R−1
u
K= U[n] (7)
es alta. 1 + u[n]R−1
u U[n]

La propiedad más resaltable del algoritmo LMS es su


donde U[n] = [u[n], u[n − 1], ..., u[n − M ]]
sencillez; ya que no necesita ninguna estimación de
las funciones de correlación, ni requiere inversión de
matrices.
Su expresión matemática esta definida por 3. SIMULACIÓN

Las simulaciones fueron ralizadas en (Matlab, 2004).


h[n + 1] = [1 − µr]h[n] + µe[n]u[n] (5) La Figura 3 muestra los reultados obtenidos del filtro
FIR adaptable LMS y el FIR adaptable RLS. De
Donde µ es una constante que determina la veloci- estos dos es el segundo el que tiene una velocidad
dad de convergencia, y necesita ser ajustada empíri- de convergencia mayor, pero la estabilidad es muy
camente en cada caso. parecida, obviamente para cuando en el algoritmo
LMS µ tiene un valor pequeño.
No hay garantía de que se alcance el filtro óptimo, sino
que después de un número arbitrario de etapas el filtro (a)
se moverá ruidosamente en torno al punto de mínimo
error de la superficie de error.
(b)

Para cada iteración se realizan los siguientes pasos (c)


para un filtro FIR adaptable:
1. Calcular la muestra de salida del filtro FIR, (d)

M
X (e)
y[n] = ht [n]u[n] = hk [n]u[n − k]
k=0

Donde t indica la transpuesta de h[n] Figura 3. Cuadro comparativo (a) Señal de ECG óptima, (b)
2. Calcular la muestra de error, e[n] = d[n] − y[n] Señal de ruido aleatorio, (c) Señal ECG + rudio (d) Resul-
3. Actualizar los coeficientes del filtro con la ecua- tado del filtro FIR LMS (e) Resultado del filtro FIR RLS.
ción 5.
Tal parece que fuera el algoritmo RLS la mejor elec-
ción, sin embargo este algoritmo exige velocidades de
2.3.2. Algoritmo RLS. El algoritmo RLS (Recur- operaciones muy altas, ello implica el empleo de sis-
sive Least Squares) es la versión exacta del anterior temas más robustos y en consecuencia más costosos.
algoritmo. Se utiliza el mismo criterio de optimización El algoritmo LMS es más sencillo lo que se refleja en
pero se calcula la solución exacta en cada iteración, un bajo consumo de recursos en cuanto a software y
siendo un algoritmo más complejo con parámetros hardware se refiere. Es en base a lo anterior que se ha
adicionales. elegido como opción viable el empleo del filtro FIR
adaptable LMS para su emulación.
3.1 Emulación 5. REFERENCIAS
Haykin, Simon (1996) Adaptive Filter Theory; Pren-
Gracias a que en la paquetería utilizada en este artícu- tice Hall.
lo, existe un interconexión hacia diferentes DSP´s, fue Marc Moonen (1989). Introduction to Adaptive Signal
posible lograr la emulación, la Figura 4 ilustra la Processing. Departament of Electrical Enginee-
forma de conexión entre dicho software y la tarjeta ring ESAT/SISTA
del DSP, así como el esquema básico del proceso de D. Kilpatrick y P.R. Johnston Origin of the Electro-
filtrado adaptable. cardiogram, IEEE, Engineering in Medicine and
Biology.
Proakis, John G. y Manolakis, Diminitis G. (1998)
Tratamiento Digital de Señales; Prentice Hall.
Matlab 7, Simulink 6, Signal Processing Blockset.

Figura 4. Diagrama de emulación usando el DSP y MATLAB.

Los resultados obtenidos en esta fase están represen-


tados en la Figura 5, y de forma natural muestra la
adpatación que logra el filtro. Cabe hacer mención
que este proceso debido a que inicia con condiciones
inciales iguales a cero, tiende a que entre mayor sea
el número de iteraciones, la señal se asemeja mas a
la deseada. En este caso, la señal 5a muestra el ECG
puro, mientras que la señal 5b representa la sumatoria
del ECG con el ruido, finalmente la señal 5c, ilustra la
salida del filtro adaptable LMS.

(a)

(b)

(c)

Figura 5. Resultados de emulación de un filtro FIR adaptable


LMS, (a)Señal oroginal ECG, (b)Señal con ruido y (c)Señal
filtrada.

4. CONCLUSIONES

En este artículo se han presentado los resultados de


la simulación y emulación de un mismo algoritmo de
cancelación activa de ruido en una señal de electro-
cardiograma. Estos muestran un buen desempeño del
esquema de filtrado utilizado para este fin.

Actualmente se esta trabajando en la implementación


de este trabajo en tiempo real utilizando el DSP
TMS320c6711 de la familia de Texas Instruments.
Apéndice B

DSP TMS320c6711 de Texas


Instruments

l uso del DSP en este trabajo de tesis se sustenta sobre las ventajas que
E presenta frente a otros sistemas en el procesado digital de señales, dado
que puede adaptarse fácilmente a cualquier cambio de las variables involu-
cradas en un sistema dado, presenta muy baja distorsión en las señales de
entrada y procesamiento de las mismas en tiempo real, tiene un alto ı́ndice de
precisión, control sobre el comportamiento del hardware, tarjeta DSK donde
se encuentran ya incluidos los convertidores sin necesidad de agregar hard-
ware adicional para las conversiones analógicas de entrada, un robusto código
de instrucciones que satisfacen cualquier aplicación de procesamiento digital
de señales y que además son programables y reprogramables (no requiere el
cambio del sistema de hardware), y permite un consumo de energı́a pequeño
ya que emplea tecnologı́a de estado sólido.
Este apéndice presenta una descripción general del kit de arranque del
DSP TMS320c6711 [24], ası́ como del microprocesador integrado en la tarjeta
TMS320C50. El DSK ’C6x es una tarjeta de bajo costo, simple e indepen-
diente que permite experimentar y usar el DSP ’c6x0 para procesamiento de

117
118 B.1. Generalidades de un DSP

señales en tiempo real. El DSK tiene un ’c6x en la tarjeta que permite la


verificación completa de alta velocidad del código del ’c6x.

B.1. Generalidades de un DSP


Un DSP comprende los fundamentos matemáticos y algorı́tmicos que des-
criben como procesar, en un ambiente de computo digital, información aso-
ciada a señales provenientes del mundo real.

Digital: Sistema electrónico (digital) que opera con datos discretos


representados en binario y de precisión finita.

Señal: Un parámetro variable por medio del cual la información es


transmitida en un sistema electrónico. Las señales son representadas
de forma digital mediante secuencias de muestras.

Procesamiento: la realización de operaciones en los datos mediante


una secuencia de instrucciones programadas de acuerdo a un algoritmo
que modifica dichos datos o extrae información de los mismos.

Figura B.1: Diagrama básico de un DSP.

Entonces un DSP es un sistema electrónico que realiza un procesado di-


gital de señales fı́sicas, obtenidas, a menudo, con el empleo de transductores
y convertidores analógico-digitales. representativo se muestra en la Figura
B.1.
B. DSP TMS320c6711 de Texas Instruments 119

B.2. Arquitectura
El DSP TMS320c6711 de Texas Instruments es un microprocesador es-
pecı́ficamente para el procesado digital de señal. Sus caracterı́sticas más
básicas como el formato aritmético, la velocidad, la organización de su memo-
ria y la arquitectura interna ası́ como su costo y la disponibilidad de una
amplia gama de herramientas de desarrollo, hacen que este dispositivo sea
ideoneo para la emulación los algoritmos que se obtivieron en los capı́tulos
3y4. La Figura B.2 muestra la fotografı́a de un kit de desarrollo.

Figura B.2: DSP TMS320c6711.

B.2.1. Caracterı́sticas y Opciones


El DSP TMS320c6711 ejecuta un máximo de 8 instrucciones de 32 bits,
por ciclo. El CPU contiene 32 registros de propósito general, de 32 bits y
8 unidades funcionales. Este dispositivo tiene un conjunto completo de he-
rramientas de desarrollo y optimización, que incluyen un compilador C efi-
120 B.2. Arquitectura

ciente, un optimizador de ensamble para simplificar la planificación y pro-


gramación del lenguaje ensamblador, y un depurador con interfase gráfica
basada en Windows, para visualizar las caracterı́sticas de ejecución en el
código fuente. Además, contiene una tarjeta de emulación de hardware com-
patible con la interfase del emulador TI XDS510. Estas herramientas cumplen
con los estándares 1149.1999, revisión de acceso a puerto y arquitectura de
verificación de limites, de la IEEE.
Las caracterı́sticas de este dispositivo incluyen:

1. Un CPU avanzado VLIW (Very Long Instrucction Word) con 8 unidades


funcionales, que incluyen 2 multiplicadores de punto flotante y 6 ALU´s
(Unidades Lógico Aritméticas), cuatro de punto flotante y dos de punto
fijo.

Ejecuta un máximo de 8 instrucciones por ciclo, 10 veces más


que los DSP tı́picos.

Permite rápido tiempo de desarrollo en diseños con código RISC


altamente efectivos.

2. Empaquetado de instrucción.

Obtiene el tamaño del código equivalente a las 8 instrucciones


ejecutadas serialmente o en paralelo.

Reduce el tamaño del código, el consumo de energı́a y el fetch del


programa.

3. Ejecución condicional de todas las instrucciones.

Reduce los saltos costosos.

Incrementa el paralelismo para mantener un alto desempeño.


B. DSP TMS320c6711 de Texas Instruments 121

4. Ejecuta el código programado, en unidades funcionales independientes.

5. Proporciona soporte eficiente de memoria para una variedad de aplica-


ciones de 8, 16 y 32 bits de datos.

6. Proporciona soporte de normalización y saturación, en operaciones a-


ritméticas claves con 8 bits.

7. Soporta operaciones comunes, halladas en aplicaciones de control y


manipulación de datos, como: manipulación de campos, extracción de
instrucción, activación, desactivación y conteo de bits.

8. Soporte de hardware para operaciones de punto flotante de doble y


simple presición con formato IEEE.

9. Multiplicación entera de 32 x 32 bits, con resultado de 32 o 64 bits.

10. Un máximo de 900 MFLOPS (operaciones de punto flotante por segun-


do) a 150 MHZ.

Además estos dispositivos tienen la siguiente variedad de opciones en


memoria y periféricos:

Amplia memoria RAM para ejecución rápida de algoritmos.

Soporta interfases para memoria externa de 32 bits (SDRAM, SB-


SRAM, SRAM y otras memorias ası́ncronas) para aumentar el rango
de memoria externa y maximizar el desempeño del sistema.

Acceso a la memoria y periféricos de los dispositivos através del puerto


host.

Controlador de multicanal EDMA.

Puerto serie multicanal.

Temporizador de 32 bits
122 B.2. Arquitectura

B.2.2. Arquitectura

El DSP TMS320c6711 opera a 150MHz, ejecuta un máximo de 8 opera-


ciones por ciclo en un tiempo de 6.7 ns, es de punto flotante y básicamente
consiste en tres partes: El CPU, los periféricos y la memoria. Ocho unidades
funcionales operan en paralelo (6 ALU´s y dos multiplicadores), con dos
conjuntos similares de cuatro unidades funcionales básicas. Las unidades se
comunican usando un camino cruzado entre dos clasificaciones de registro,
cada una de las cuales contiene 16 registros de 32 bits. La Figura B.3 muestra
los bloques de dicho dispositivo.

Programa RAM/ Caché RAM


32 bits de 32 bits de acceso
direccionamiento 8 16 32 bits de datos JTAG/
512 Kb RAM 512 Kb RAM Emulador
De control
EMIF
A
Programa /Bus de datos
D
Búfer multicanal
De puerto serial
T1/E1

Búsqueda de Programa Búfer multicanal


Control
De puerto serial
Envió de Instrucción De registros
DMA T1/E1
Decodificación de instrucción
Control
lógico Temporizador
Archivo de registro A Archivo de registro B
Verificador

Emulador Temporizador
L1 S1 M1 D1 L2 S2 M2 D
Interrupciones
EXB
O Generador de
Puerto reloj PLC
Potencia de arranque Host

Figura B.3: Diagrama de bloques del DSP.


B. DSP TMS320c6711 de Texas Instruments 123

Unidad de Procesamiento Central CPU

El CPU de este DSP tiene una arquitectura de carga/almacenamiento,


lo que significa que la única manera de accesar datos en memoria es con
instrucciones de carga y almacenamiento.
El CPU contiene:

Unidad fetch de programa

Unidad de despacho de instrucción

Unidad de decodificación de instrucción

32 registros de 32 bits

Dos caminos de datos path, cada uno con cuatro unidades funcionales

Registros de control

Lógica de control

Lógica de interrupción, emulación y prueba

Esta tiene dos caminos de datos A y B, cada camino tiene cuatro unidades
funcionales y un archivo de registro que contiene 16 registros de 32 bits.
Las unidades funcionales ejecutan operaciones de lógica, corrimiento, mul-
tiplicación y direccionamiento de datos. Todas las instrucciones aceptan ope-
raciones de carga y almacenamiento sobre los registro. Las dos unidades de
direccionamiento de datos son exclusivamente responsables de toda la trans-
ferencia de datos entre los archivos de registros y la memoria.

Caminos de Datos del CPU

Los caminos de datos del CPU consisten de: dos archivos de registros de
propósito general A y B, ocho unidades funcionales .L1, .L2, .S1, .S2 .M1,
124 B.2. Arquitectura

scr1

scr2

.L1 †
dst
Long dst
Long scr
LD1 32 MSB
ST1
Long scr
Archivo de
Datos A
Long dst
dst
Registro
src1
B
src2
(B0-B15)
dst
src1
.M1 †
src2
LD1 32 LSB
dst
src1
.D1
DA1 src2

DA2 Src2
.D2 Scr1
dst
LD2 32 LSB
Src2
.M2 † Src1
dst
LD1 32 MSB
ST1 Archivo de
src2
.S2 † scr1
registro
Datos B dst
Long dst
A
Long src
LD2 32 MSB (A0-A15)
ST2
Long src
Long dst
Dst

Scr2
.L2 †

src1

Control de
Archivo de
registro

Figura B.4: Caminos de datos del DSP c6711

.M2, .D1 y .D2, dos caminos de lectura de memoria LD1 y LD2, dos caminos
de almacenamiento en memoria ST1 y ST2, dos caminos cruzados entre los
archivos de registros 1X y 2X, y dos caminos de direccionamiento de datos
DA1 y DA2, como se muestran en la Figura B.4.

Archivos de Registros de Propósito General

Hay dos archivos de registros de propósito general (A y B) en los caminos


de los datos. Cada uno de estos archivos contiene 16 registros de 32 bits
B. DSP TMS320c6711 de Texas Instruments 125

(A0-A15) para el archivo A y (B0-B15) para el archivo B. Los registros


de propósito general pueden ser usados para manejar datos o punteros de
direccionamiento de estos.
Los archivos soportan datos de 32 y 40 bits de punto fijo. Los datos de
32 bits, pueden estar contenidos en cualquier registro de propósito general.
Los datos de 40 bits están contenidos en dos registros; los 32 bits menos
significativos del dato (LSB) son colocados en un registro par y los restantes
8 bits más significativos del dato (MSB) son colocados en los ocho bits menos
significativos del registro próximo superior (que siempre es un registro impar),
también usa este par de registros para colocar valores de punto flotante de
doble precisión de 64 bits.

Unidades Funcionales

Las ocho unidades funcionales en los caminos de datos de este dispositivo


pueden ser divididas en dos grupos de cuatro; cada unidad funcional, en un
camino de datos, es casi idéntica a la unidad correspondiente, en el otro
camino, como se muestran en la Figura B.5.

.S1 .S2

.L1 .L2
Registro Registro
A B
.M1 .M2

.D1 .D2

Memoria

Figura B.5: Unidades funcionales del DSP c6711.


126 B.2. Arquitectura

La mayorı́a de los caminos en el CPU, soportan operaciones de 32 bits, y


algunas soportan operaciones largas (40 bits). Cada unidad funcional tiene
su propio puerto de escritura de bits, en un archivo de registros de propósito
general. Debido a que cada unidad tiene su propio puerto de escritura de 32
bits, las ocho unidades pueden ser usadas en paralelo en cada ciclo.

B.2.3. Archivos de Registros de Control

Una unidad puede leer de y escribir hacia los registros de control con-
tenidos en el archivo de registros de control.
El DSP c6711 posee tres registros de configuración adicionales, para so-
portar operaciones de punto flotante. Los registros especifican los modos de
redondeo de punto flotante. También contiene campos de bit para advertir si
src1 y src2 son NaN (No es un número) o números desnormalizados.

Caminos entre Archivos de Registros

Cada unidad funcional lee directamente de y escribe hacia el archivo de


registros, dentro de su propio camino de datos. Los archivos de registro son
conectados a las unidades funcionales del archivo de registros opuesto, a
través de los caminos cruzados 1X y 2X. Estos caminos cruzados permite
a las unidades funcionales, de un camino de datos, accesar a operandos de
32 bits del lado opuesto. El camino 1X permite a las unidades funcionales
del camino de datos A, leer su operando fuente del archivo de registros B, y
viceversa.
B. DSP TMS320c6711 de Texas Instruments 127

B.2.4. Caminos de Memoria, Cargas y Almacenamien-


to

Hay dos caminos de 32 bits, para leer los datos de memoria en los registros
de almacenamiento, además de tener un segundo camino de carga de 32 bits
para ambos archivos de registros A y B. Este segundo camino permite leer
simultáneamente dos registros de 32 bits en los lados A y B.

Caminos de Direccionamiento de Datos

Estos permiten generar direcciones de datos de un archivo de registros.


Con eso se sostienen cargas y almacenamientos en memoria, desde el otro
archivo de registros. Sin embargo, las cargas y almacenamientos ejecutados
en paralelo, debe cargar a y de el mismo archivo de registro. Aunque también
se puede utilizar un camino cruzado al registro opuesto.

B.2.5. Modos de Direccionamiento

Los modos de direccionamiento son lineales por defecto aunque también


existe el modo de direccionamiento circular. El modo de direccionamiento se
especifica con el registro modo de direccionamiento.
Con todos los registros se puede ejecutar el direccionamiento lineal, y sólo
en ocho de ellos se puede ejecutar el direccionamiento circular.

Interrupciones

El CPU tienen 14 interrupciones, esta son reset, la interrupción no mas-


carable (NMI) e interrupciones de la 4 a la 15. Estas interrupciones corres-
ponden a las señales RESET, NMI e INT4-INT15 respectivamente, sobre
los limites del CPU. Estas señales están ligadas directamente a los pines de
128 B.2. Arquitectura

dispositivo, conectando periféricos al chip, o pueden ser desactivadas perma-


nentemente.
Las caracterı́sticas del servicio de interrupción incluyen:

El pin IACK del CPU es usado para confirmar la recepción de una


petición de interrupción.

Los pines INUM0 INUM3 indican el vector de interrupción que está sien-
do utilizado

Los vectores de interrupción son reubicables

Los vectores de interrupción consiste en un paquete fetch. Con los pa-


quetes se proporciona un rápido servicio

B.2.6. Periféricos
Los periféricos que son accesibles al usuario se configuran con un conjunto
de registros de control mapeados en memoria. El controlador del bus de
periféricos realiza el arbitraje para el acceso a los periféricos. La lógica de
configuración de Boot está conectada por señales externas y la lógica de baja
energı́a es accesible directamente por el CPU.
La Figura B.6 muestra los periféricos disponibles en el DSP TMS320c6711.

1. Controlador EDMA. Mejora la transferencia de datos entre rangos


de direccionamiento en el mapa de memoria, además contiene 17 canales
programables, ası́ como un espacio de RAM para soportar múltiples
configuraciones de futuras transferencias.

2. HPI. Es un puerto paralelo por medio del cual, un procesador host


puede accesar directamente al espacio en memoria del CPU. El dispo-
sitivo host tiene facilidad de acceso debido a que es el maestro de la
B. DSP TMS320c6711 de Texas Instruments 129

Memoria L1P Cache


De interface 4K bits
Externa
EMIF

Búfer multicanal CPU


De puerto Búsqueda de instrucción Registros
Serial 1 Memoria
de control

Control de interrupción
Envió de Instrucción
EDMA L2 Emulación
4 bancos Decodificación de instrucción de circuitos
McBSP 1 16
canales De
64k Bytes
Archivo de registro A Archivo de registro B
Búfer multicanal
De puerto
Serial 0
L1 S1 M1 D1 D2 S2 M2 L2
McBSP 0

Interface de
Puerto paralelo
HPI LD1 cache
2 caminos de
Inicio asociados
Potencia lógica de bajada Temporizador 0 Temporizador 1 4 K bytes

Figura B.6: Diagrama de bloques con los periféricos del DSP c6711

interfase. El host y el CPU pueden intercambiar información a través


de la memoria interna o externa. En suma, el host tiene acceso directo
a los periféricos de memoria.

3. EMIF. Este soporta una interfaz de baja adherencia para varios dis-
positivos externos, e incluye:

SRAM de ráfaga sı́ncrona.

DRAM sı́ncrona.

Dispositivos ası́ncronos incluyendo SRAM, ROM y FIFOs.

Dispositivo externo de memoria compartida.


130 B.2. Arquitectura

4. Configuración del Boot. El TMS320c6711 proporciona una varie-


dad de configuraciones del boot, que determinan las acciones de ini-
cialización que ejecuta el DSP, después del reset del dispositivo. Estas
incluyen: cargas de código de un espacio externo de ROM sobre el EMIF
y cargas del código a través del HPI/bus de un host externo.

5. 2 McBSP. El puerto serial multicanal con buffer (McBPS) está basa-


do en las interfases estándar del puerto serie, es decir, el puerto puede
almacenar muestras seriales en un buffer de memoria automáticamente,
con la ayuda del controlador DMA/EDMA. Este también tiene capaci-
dad de multicanal, compatible con los estándares de conexión de redes
T1E1, SCSA y MVIP, que proporcionan:

Comunicación full-Duplex.
Registros de datos de doble buffer para flujo continuo de datos.
Tramado independiente y temporización para dispositivos y trans-
misión.
Interfase directa a codecs estándar, chips de interfase analógica
(AICs) y otros dispositivos A/D y D/A conectados serialmente.

6. Tiene las siguientes capacidades:

a) Interfase directa a:

Tramas T1/E1
Dispositivos conforme a ST - BUS T M
Dispositivos conforme a IOM-2
Dispositivos conforme a AC97
Dispositivos conforme a IIS
Dispositivos SPI T M
B. DSP TMS320c6711 de Texas Instruments 131

b) Transmisión y recepción multicanal de 128 canales


c) Un selector del ancho del tamaño del dato, que incluye 8, 12, 16,
20, 24, y 32 bits
d ) Ley - µ y Ley -A de compasión
e) Transferencia inicial de 8 bits con LSB (bit menos significativo)
ó MSB (bit más significativo)
f ) Polaridad programable para ambas tramas de sincronización y
relojes de datos
g) Reloj interno altamente programable y generación de trama

7. TIMER. El DSP c6711 tiene dos timer de porpósito general que son
usados para:

a) Eventos del timer


b) Eventos de contador
c) Generador de pulsos
d ) Interrupción de pulsos
e) Enviar eventos de sincronización a el controlador DMA/EDMA

8. Selector de Interrupción. El conjunto de periféricos del DSP pro-


ducen de 14 a 16 fuentes de interrupción. El selector de interrupción,
también permite cambiar la polaridad de entrada para la interrupción
externa.

9. Lógica de Bajo Consumo de Energı́a. Esta permite reducir el


reloj para disminuir el consumo de energı́a. La mayorı́a de la potencia
de operación de la lógica CMOS, se disipa durante la conmutación del
circuito de un estado lógico a otro.
Apéndice C

Producto Interno y Principio


de Mı́nimos Cuadrados

n este apéndice se proporciona una breve revisión de las propiedades del


E producto interno, y el principio de mı́nimos cuadrados.

C.1. Producto Interno


Se define el producto interno (o producto punto) < x, y > entre dos
funciones complejas x(t) y y(t) en el intervalo (a, b) (que puede ir desde −∞
hasta ∞) como

Zb
< x, y >= x(t)y ∗ (t)dt
a

El producto interno cumple con las siguientes propiedades:

1. < y, x >=< x, y >∗

2. < x1 + x2, y >=< x1, y > + < x2, y >

133
134 C.2. El Principio de Mı́nimos Cuadrados

3. < x + y1, y2 >=< x, y1 > + < x, y2 >

4. < cx, y >= c < x, y >

5. < x, cy >= c∗ < x, y >

Rb
6. < x, x >= |x(t)|2 dt = Ex
a

7. |< x, y >|2 ≤< x, x >< y, y >

Se dice que dos funciones x(t) y y(t) son ortogonales en un intervalo (a, b)
si su producto interno en ese mismo intervalo es cero; es decir si

Zb
< x, y >= x(t)y ∗ (t)dt = 0
a

Un conjunto de funciones {φk (t)}, k = 0, 1, ... se dice que es ortogonal si


(
Ek k = i
< φk , φi >=
0 k 6= i
y se dice que es ortonormal si es ortogonal y además Ek = 1, k = 0, 1, ...

C.2. El Principio de Mı́nimos Cuadrados


Se desea aproximar una función compleja arbitraria x(t) en el intervalo
(a, b) mediante una combinación lineal x̂(t) de un conjunto de M funciones
dadas {φk (t)} k = 0, 1, ..., M − 1

M
X −1
x̂(t) = ck φk
k=0

y el error de aproximación se define como


C. Producto Interno y Principio de Mı́nimos Cuadrados 135

M
X −1
e(t) = x(t) − x̂(t) = x(t) − ck φk (t)
k=0

Ası́, el objetivo es encontrar las M constantes ck (posiblemente complejas)


de manera que minimicen el error cuadrático medio resultante ξ dado por

Zb Zb M
X −1
2

ξ= |e(t)|2 d(t) = x(t) − ck φk (t) dt


a a k=0

Si todas las señales son reales, ξ es mı́nimo cuando

Zb " M −1
#
∂ξ X
= −2 x(t) − ck φk (t) φi (t)dt = 0; i = 0, 1, ..., M − 1
∂ci k=0
a

o equivalente

M
X −1 Zb Zb
ck φk (t)φi (t)dt = x(t)φi (t)dt; i = 0, 1, ..., M − 1
k=0 a a

Las relaciones anteriores pueden reescribirse más compactamente con


la definición del producto interno entre funciones, ası́ ç

ξ =< e, e >=< e, x − x̂ >


< e, φi >= 0; i = 0, 1, ..., M − 1
M
P −1
< φk , φi >=< x, yi >; i = 0, 1, ..., M − 1
k=0

o en forma matricial
136 C.2. El Principio de Mı́nimos Cuadrados

   
< φ0 , φ0 > < φ1 , φ0 > ... < φM −1 , φ0 > c0
   

 < φ0 , φ1 > < φ1 , φ1 > ... < φM −1 , φ0 >  
  c1 

   

 . . .  
• . 
=

 . . ... .  
  . 

   

 . . .  
  . 

< φ0 , φM −1 > < φ1 , φM −1 > ... < φM −1 , φM −1 > cM −1

 
< x, φ0 >
 

 < x, φ1 > 

 

 . 


 . 

 

 . 

< x, φM −1 >

Observe que la matriz de correlaciones < φk , φi > es una matriz de


Hermit.

Las relaciones anteriores pueden extenderse a señales complejas, con


lo que establece en general el siguiente principio de ortogonalidad : El
error cuadrático medio ξ es mı́nimo cuando el error resultante e(t) =
x = (t) − x
b(t) es ortogonal a cada una de las funciones φi (t)

< e, φi >=< x − x̂, φi >= 0

Corolario del principio de ortogonalidad : Cuando el error cuadrático


medio ξ es mı́nimo, el estimado de la función deseada x
b(t) es ortogonal
al error resultante e(t)

< e, x̂ >=< x − x̂, x̂ >= 0


C. Producto Interno y Principio de Mı́nimos Cuadrados 137

Es por esto que la aproximación x


b(t) puede considerarse como la proyec-
ción x(t) en un espacio M −dimensional Sk de funciones φk (t).
Además, de aquı́ también se desprende que el error cuadrático medio
mı́nimo estará dado por

ξ =< x, x > − < x̂ − x̂ >= Ex − Ex̂


Glosario

Aurı́cula Cavidad del corazón que recibe el flujo sanguı́neo. Lo transmite


al ventrı́culo, que se encarga de bombearlo al sistema circulatorio.

Aurı́culoventricular Relativo a la conexión entre aurı́cula y ventrı́culo.

Cardı́aco Relativo al corazón.

Cardiovascular Relativo al corazón y a los vasos sanguı́neos.

Cefálica Cada uno de los vasos o conductos por donde retorna la sangre al
corazón.

Electrodo Extremo de un conductor en contacto con un medio, al que lleva


o del que recibe una corriente eléctrica.

Hidroelectrolı́tico Relativo al agua y a los electrolitos.

Isoeléctrico De igules propiedades eléctricas.

Membrana Tejido flexible, elástico, delgado que en los seres orgánicos cubre
vı́sceras, y absorbe o segrega humores.

Miocárdio Parte musculosa del corazón de los vertebrados, situada entre el


pericardio y el endocardio.

Miocarditis Inflamación del miocardio.

139
140 C.2. El Principio de Mı́nimos Cuadrados

Pericardio Membrana que recubre externamente el corazón.

Permeable Que puede ser penetrado por el agua u otro fluido

Sinusal De un nódulo especı́fico del tejido del corazón.

Sı́stole Movimiento de contracción del corazón y de las arterias para empu-


jar la sangre que contienen.

Ventrı́culo Cada una de las dos cavidades inferiores del corazón, de donde
salen las arterias aorta y pulmonar.
Bibliografı́a

[1] Analog Devices,


ADSP-21000 FAMILY APPLICATION HANDBOOK,
Volumen 1,
1994.

[2] Bander, J.W., Bardakjian, B.J.,


LEAST PTH OPTIMIZATION OF RECURSIVE DIGITAL FILTERS,
IEEE,
1973.

[3] B.D.O. Anderson, J.B. Moore,


OPTIMAL FILTERING,
Prentice Hall,
1979.

[4] Brophy, F., Salazar, A.C.,


CONSIDERATIONS OF THE PADE APPROXIMATION TECH-
NIQUE IN THE SYNTHESIS OF RECURSIVE DIGITAL FILTERS,
IEEE,
1973.

141
142 BIBLIOGRAFÍA

[5] Burrus, C.S., Parks, T.W.,


DFT/FFT AND CONVOLUTION ALGORITHMS, Wiley,
1970.

[6] DeRusso P.M.,


STATE VARIABLES FOR ENGINEERS,
Wiley, 1965.

[7] D. Kilpatrick y P.R. Johnston,


ORIGIN OF THE ELECTRCARDOGRAM,
IEEE Engineering in Medicine and Biology,
Agosto/Septiembre 1994.

[8] Gibbs, A.J.,


THE DESIGN OF DIGITAL FILTERS,
Aust. Telecommun,
1970.

[9] Golden,R.M., Kaiser, J. F.,


DESIGN OF WIDEBAND SAMPLED DATA FILTERS,
Bell Syst,
1964.

[10] Haykin, Simon,


ADAPTIVE FILTER THEOTY,
Prentice-Hall,
1996.
BIBLIOGRAFÍA 143

[11] Helms, H.D.,


FAST FOURIER TRANSFORMS METHOD OF COMPUTING DIF-
FERENCE EQUATIONS AND SIMULATING FILTERS,
IEEE,
1967.

[12] H. Harold,
DIAGNÓSTICO ELECTROCARDIOGRÁFICO Y VECTOCARDIO-
GRÁFICO,
Salvat,
1990.

[13] Johnson, Johnny R.,


INTRODUCTION TO DIGITAL SIGNAL PROCESSING,
Prentice Hall,
1989.

[14] Kaiser J.F.,


DIGITAL FILTERS,
Wiley,
1966.

[15] Madisetti, Vijay K.,


VLSI DIGITAL SIGNAL PROCESSOR, An Introduction to Rapid Pro-
totuping and Desing Synthesis,
Butterworth-Heinemann,
1995.
144 BIBLIOGRAFÍA

[16] Marc Moonen,


INTRODUCTION TO ADAPTIVE SIGNAL PROCESSING,
Department of Electrical Engineering · ESAT/SISTA K.U. Leuven,
Leuven, Belgium,
1998.

[17] Mariño, Vallverdú, Rodriguez Moreno,


TRATAMIENTO DIGITAL DE LA SEÑAL,
1999.

[18] Oppenheim, Alan V., Schafer, Ronald W. con Buck, John R.,
DISCRETE-TIME SIGNAL PROCESSING,
Prentice Hall,
2a ed.,
1999.

[19] Oppenheim, Alan V., Willsky, Alan S.,


SEÑALES Y SISTEMAS,
Prentice Hall,
1983.

[20] P. Laguna,
NUEVAS TÉCNICAS DE PROCESADO DE SEÑALES ELECTRO-
CARDIOGRÁFICAS:
Aplicación a Registros de Larga Duración,
Tesis Doctoral. Instituto de Cibernética de Cataluña.
Octubre 1990.
BIBLIOGRAFÍA 145

[21] Proakis, John G., Manolakis, Dimitris G.,


TRATAMIENTO DIGITAL DE SEÑALES,
Principios Algorı́tmos y Aplicaciones,
Prentice Hall,
3a ed., 1998.

[22] Pšnička, Bohumil, et.al.,


PRÁCTICAS DE LABORATORIO CON MICROPROCESADORES
TMS320C6711,
Facultad de Ingenierı́a Eléctrica de la U.N.A.M.

[23] Shanks,J.L.,
RECURSION FILTERS FOR DIGITAL PROCESSING,
Geophysics,
1967.

[24] TMS320C6711 DSP STATER KIT. USER´S GUIDE.


Digital Signal Processor,
Texas Instruments,
2004.

[25] MATLAB 7.0, Simulink 6, Signal Processing Blockset

[26] www.mathworks.com

[27] www.physionet.org

[28] www.udlap.mx

También podría gustarte

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy