SciELO - Scientific Electronic Library Online

 
vol.129 número8Situación del VIH/SIDA en Latinoamérica al final del siglo XX: Análisis de las diferencias entre paísesComentarios sobre Etica Biomédica índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Revista médica de Chile

versión impresa ISSN 0034-9887

Rev. méd. Chile v.129 n.8 Santiago ago. 2001

http://dx.doi.org/10.4067/S0034-98872001000800016 

Computadores en investigación
biomédica: I. Análisis de señales
bioeléctricas

Computers in biomedical research:
I. Analysis of bioelectrical signals

Ennio A Vivaldi V, Pedro Maldonado A1

Correspondencia a: Dr. Ennio A Vivaldi V. Independencia 1027, Casilla 70005, Santiago Chile. Tel: 56-2-6786422. Fax: 56-2-7776916. E-mail: evivaldi@med.uchile.cl

A personal computer equipped with an analog-to-digital conversion card is able to input, store and display signals of biomedical interest. These signals can additionally be submitted to ad-hoc software for analysis and diagnosis. Data acquisition is based on the sampling of a signal at a given rate and amplitude resolution. The automation of signal processing conveys syntactic aspects (data transduction, conditioning and reduction); and semantic aspects (feature extraction to describe and characterize the signal and diagnostic classification). The analytical approach that is at the basis of computer programming allows for the successful resolution of apparently complex tasks. Two basic principles involved are the definition of simple fundamental functions that are then iterated and the modular subdivision of tasks. These two principles are illustrated, respectively, by presenting the algorithm that detects relevant elements for the analysis of a polysomnogram, and the task flow in systems that automate electrocardiographic reports (Rev Méd Chile 2001; 129: 955-62).
(Key Words: Computer-aides design; Computer systems; Research)

Recibido el 14 de marzo, 2001. Aceptado en versión corregida el 29 de mayo, 2001.
Programa de Fisiología y Biofísica, Instituto de Ciencias Biomédicas. Facultad de Medicina,
Universidad de Chile. Santiago de Chile.
Fuente de apoyo financiero: Proyectos Fondecyt #1990631 y 1981184.
1 PhD Fisiología, 1993

El computador personal ha ganado una presencia ubicua en el entorno médico. Una de sus características más llamativas es la versatilidad de sus aplicaciones: desde los programas convencionales como procesadores de palabra, planillas electrónicas, paquetes gráficos y estadísticos, hasta las aplicaciones más específicas como el acceso a bases de datos bibliográficos, farmacológicos o de fichas clínicas electrónicas y el uso de material de enseñanza que incluye versiones electrónicas de textos y simulaciones de procesos biológicos o de mecanismos regulatorios1-5. Este mundo de aplicaciones se ha expandido aún más en la medida en que han aumentado formas posibles de ingresar información al computador personal.

El objetivo principal de los dos artículos que aquí presentamos es llamar la atención acerca de la gran expansión de las aplicaciones biomédicas que ocurre cuando se consideran nuevas vías de entrada (ingreso de datos) y de salida (control de variables) desde y hacia el mundo real que rodea al computador.

ENTRADA Y SALIDA DE INFORMACIÓN

Lo esencial de un computador es el procesador y la memoria. El procesador ejecuta las instrucciones contenidas en los programas. Los programas, binariamente codificados, se almacenan en la memoria. También en la memoria se almacenan los datos. Los datos pueden ser números, textos, imágenes o sonidos, siempre binariamente codificados. Los sistemas de entrada y de salida de un computador permiten ingresar datos e instrucciones, cargar programas, imprimir resultados. Una entrada convencional para un computador es el teclado, desde donde se ingresan comandos y datos de una extensión moderada. En los diversos medios de almacenamiento masivo, típicamente de lectura y escritura, como disquetes, discos duros, discos compactos o discos ópticos, se conservan, transportan y distribuyen programas y datos en su codificación binaria. Los medios de salida convencionales de un computador son la pantalla de video y las impresoras.

El mundo de aplicaciones de los computadores se amplía notablemente con nuevas formas de entrada y salida de datos. Tres ejemplos que ya se han hecho habituales son el escáner, semejante a una fotocopiadora, que permite codificar imágenes para ingresarlas al computador; el módem, que permite intercambiar datos modulándolos y demodulándolos para enviarlos por una línea telefónica; y la tarjeta de red local, que permite compartir información y recursos entre varios computadores próximos entre sí. Nos interesa presentar aquí los fundamentos de los conversores análogo-digital y digital-analógico, interfaces que permiten al computador ingresar y trabajar con señales biomédicas.

Es útil remarcar la distinción entre dos niveles en el manejo de señales por el computador. Por una parte está la adquisición, despliegue y almacenamiento de la señal. Lo que tradicionalmente era tinta sobre papel poligráfico pasa a ser una imagen en una pantalla. Por otra parte está el análisis e interpretación de las señales: aquí el computador debe detectar elementos relevantes y quizás sugerir además diagnósticos con los que las características detectadas son compatibles. Esta distinción resulta particularmente atingente en la evaluación de sistemas. Por ejemplo, los sistemas comerciales de electroencefalografía y polisomnogramas suelen ser excelentes en la adquisición y despliegue de señales, pero insuficientes en el análisis y diagnóstico de la información6.

ADQUISICIÓN Y DESPLIEGUE DE SEÑALES

Las señales biomédicas representan variables fisiológicamente relevantes de las que nos interesa su curso temporal. La variable puede ser un voltaje muy pequeño, como el electroencefalograma, o algunos órdenes de magnitud mayor, como el electrocardiograma, o puede ser una variable que originalmente no es eléctrica, como la presión o la temperatura. En todos los casos, estas señales son tales porque van cambiando en el tiempo. Es natural entonces que tradicionalmente se registraran con instrumentos como los polígrafos, en los que un papel pasa a velocidad constante bajo una pluma conectada a un voltímetro, y que, con el advenimiento de computadores y monitores, éstos se fueran reemplazando por el barrido de imágenes digitales.

Los equipos como electrocardiógrafos, HPLC y polígrafos en general, que normalmente escriben en papel, cuentan con salidas auxiliares desde donde es posible obtener paralelamente la misma señal que se está registrando. Lo que nos interesa tratar aquí es cómo una señal así obtenida puede ser leída y procesada por un computador personal. El conversor análogo digital es la interfaz que permite traducir un voltaje existente en el mundo real a un número que representará a ese voltaje dentro del computador. El computador ingresa las señales tomando muestras sucesivas de ellas, típicamente a una tasa fija que puede ser de cientos o miles de muestras por segundo2,7-9. La secuencia de puntos del computador es por lo tanto la versión digital de las líneas del polígrafo. De hecho, cuando la resolución de la pantalla permite una secuencia de puntos lo suficientemente densa, ésta pasa a ser, para todos los efectos prácticos, una línea. Dos dimensiones que caracterizan este proceso de conversión análogo digital son la resolución temporal y la resolución de amplitud. La primera se refiere a la tasa de muestreo y se relaciona con el ancho de banda de la señal de interés. Por ejemplo, en el caso del electroencefalograma (EEG) interesa un rango de frecuencia o ancho de banda de 0,2 a 60 Hz, mientras que en el caso del electrocardiograma (ECG) el ancho de banda es mayor, de 0,15 a por lo menos 150 (y preferiblemente más), pues debe resolverse nítidamente la forma del complejo QRS que tiene componentes muy rápidos. La resolución de amplitud se refiere a la capacidad del conversor de discriminar como distintos dos voltajes. En los sistemas de análisis de EEG se considera que una resolución de 8 bits (1/256 partes) es suficiente para cubrir el rango de amplitud de entrada que alcanza unos 600 µV, en el caso del ECG, se suelen requerir conversores de 12 bits (1/4.096 partes) para cubrir un rango de unos 10 mV.

Una vez leídas las señales, para el computador resulta trivial una serie de manipulaciones que el usuario agradece mucho pues facilitan la inspección de señales: amplificar o reducir la amplitud; expandir o contraer la base de tiempo para ver con más detalle una señal o para ver un segmento más prolongado en una sola pantalla; utilizar códigos de colores para señales de diversos orígenes; seleccionar cuáles mostrar cuando hay múltiples canales o combinaciones.

Un nivel mínimamente más sofisticado lo constituye el procesamiento de la señal equivalente al acondicionamiento típico del polígrafo analógico, y que permite introducir filtros para minimizar selectivamente cierto rango del espectro de frecuencias, sea inferior, medio o superior. El algoritmo puede ser tan simple como ir efectuando un promedio móvil de la señal con lo que se atenúan sus transientes.

ANÁLISIS AUTOMATIZADO DE SEÑALES

El humano y el computador tienen, respectivamente, sus fortalezas en lo holístico y en lo analítico. Nuestro sistema perceptivo visual permite reconocer fácilmente ciertos patrones o configuraciones en las señales como un fenómeno holístico, pero no está preparado para las dimensiones que conllevan operaciones analíticas. El computador puede efectuar con facilidad procesamientos de las señales que permiten obtener, si se quiere, nuevas señales para la interpretación del médico. Un ejemplo son los potenciales evocados, basados en el promedio de señales en el tiempo tomando como referencia el instante en que se presenta un estímulo, con el fin de aumentar la relación señal/ruido y poder distinguir la respuesta al estímulo dentro de la actividad de fondo del EEG. Otros ejemplos son el mapeo electroencefalográfico y el análisis de Fourier, casos en los que el computador permite generar información potencialmente de gran utilidad, información que está, por así decirlo, escondida para el humano10,11. Como ejemplo de la situación inversa, es decir, de tareas en que prima lo holístico, el humano rápidamente aprende a reconocer artefactos en los registros lo que puede resultar particularmente difícil de enseñar a un computador.

El mayor desafío para el computador, y potencialmente su mayor utilidad, lo constituye el ser capaz de efectuar un análisis automatizado de la señal, equivalente al análisis que hace un médico especialista. Aquí al computador ya no se le pide sólo que adquiera y muestre la señal, ni que la transforme mediante algoritmos matemáticos estándares, sino que debe detectar características y develar significados tal como lo hace el humano. El problema, independientemente de su factibilidad, suscita resistencias y polémicas. ¿Va a suscribir el médico el diagnóstico de un foco temporal o de una depresión del segmento ST sólo porque un computador lo dice? La verdad es probablemente que no. Es evidente que si el computador dice detectar una alteración significativa el especialista querrá verla y evaluarla por sí mismo. Pero plantear el problema como un antagonismo hombre-máquina sería un error. Son muchas las razones que hacen muy deseable contar con medios de análisis automatizado. Primero, hay una serie de paradigmas de estudio que por su gran volumen de datos, por el prolongado tiempo durante el cual éstos deben adquirirse o por la alta frecuencia de muestreo, no serían factibles sin el computador. Segundo, el rol de un análisis automatizado en el tamizaje de exámenes puede ser crítico, pues llama la atención sobre los pocos casos alterados dentro de una gran proporción de exámenes normales con lo que contribuye a garantizar su detección. Tercero, la posibilidad de efectuar una monitorización en línea de pacientes, en ambiente hospitalario o ambulatorio, para alertar de inmediato acerca de una alteración en un registro. Cuarto, la facilidad con que se almacena la información de un paciente y se comparan sus exámenes sucesivos. Hay quizás un quinto factor, menos pragmático, y que tiene que ver con el proceso de generar el programa de diagnóstico. El enseñarle a un computador a imitar al humano obliga a éste a reflexionar, como habitualmente no se ve obligado a hacerlo, acerca de cómo él hace su tarea. El programar autoimpone un rigor intelectual que ayuda a quien lo hace a sistematizar y entender más cabalmente los razonamientos que subyacen a sus decisiones.

ETAPAS EN EL PROCESAMIENTO Y ANÁLISIS DE SEÑALES

Se distinguen 4 etapas en el procesamiento de señales bioeléctricas. Las 2 primeras tienen que ver con las propiedades sintácticas de la señal y son la adquisición y la transformación o pre-procesamiento. Las 2 siguientes tienen que ver con las propiedades semánticas de la señal y son la selección de parámetros y la clasificación de la señal.

La adquisición de señales comprende la transducción de señales cuando originalmente no son eléctricas, su acondicionamiento, y, la parte clave, su transformación de análoga a su equivalente digital, es decir, en un número que pueda ser leído por el computador. El tema tiene suficientes complejidades como para merecer un tratamiento aparte, y a él está dedicado el artículo adjunto. El pre-procesamiento conlleva preparar la señal para poder extraer de ella los parámetros relevantes, aceptando además que gran parte de la información que trae originalmente es redundante, por ejemplo, en determinados análisis la compleja señal de un Holter electrocardiográfico debe ser reducida a determinar simplemente el instante de ocurrencia de cada onda R.

La selección o extracción de parámetros consiste en definir, del conjunto de la señal, aquellos datos cuantificables que se estiman relevantes. En un cierto sentido, son conceptualmente análogos a los síntomas y signos que permiten un diagnóstico. La amplitud y duración de una onda, o el hecho de que varias ondas con determinadas características se presenten en un tren, son ejemplos de datos que permiten detectar elementos importantes.

La cuarta etapa es la clasificación de la señal. En ella, el computador aplica algoritmos que le permiten diagnosticar situaciones y otorgarles un significado. Es en esta etapa en que el computador puede, por ejemplo, diagnosticar un petit-mal, en función de los elementos que detectó en la etapa anterior. Nótese sin embargo, que el computador puede cumplir con las tres etapas anteriores y llegar al punto en que muestra al médico los parámetros detectados y sus valores cuantitativos, dejando a éste la parte interpretativa. Por supuesto, ambas cosas pueden coexistir, el computador muestra al médico lo que encontró y modestamente sugiere su interpretación de tales hallazgos.

La primera de las etapas descritas, la adquisición de datos, necesariamente se hace cuando está ocurriendo la señal. Las etapas siguientes pueden hacerse simultáneamente, es decir, "en línea", o pueden efectuarse "en diferido". El monitoreo de pacientes requiere, por supuesto, de análisis en tiempo real. El análisis en diferido requiere del almacenamiento masivo de la señal. También puede efectuarse un análisis preliminar durante la adquisición que reduzca drásticamente la cantidad de información a almacenar y posteriormente analizar estos datos. Por ejemplo, un algoritmo trabajando en línea puede detectar la incidencia de elementos relevantes y cuantificar su incidencia por unidad de tiempo en tablas cuyas líneas sean los intervalos de tiempo o épocas y cuyas columnas sean los elementos relevantes. Se genera así una base de datos de varios órdenes de magnitud menor que la secuencia de muestras que constituían las señales originales. Posteriormente, estas tablas son leídas y procesadas por programas que operan en diferido12-14.

La automatización del diagnóstico puede valerse de metodologías provenientes del campo de la inteligencia artificial, como los sistemas expertos que, entre otros aportes, permiten al programa computacional afinar criterios diagnósticos aprendiendo de su propia experiencia15. El contar con sistemas computacionales también ha llevado a mostrar las insuficiencias de métodos convencionales, como por ejemplo, la etapificación de los registros de sueño16,17 y a proponer nuevas formas de sintetizar y condensar información extensa18.

DOS SISTEMAS DE APLICACIÓN
EL ELECTROCARDIOGRAMA Y EL POLISOMNOGRAMA

La programación de computadores es el mejor ejemplo de aplicación del método analítico cartesiano: una realidad muy compleja se torna accesible si se la descompone progresivamente en sus constituyentes más simples. Ilustraremos dos principios que están a la base de la construcción de programas computacionales como sistemas complejos: la aplicación reiterada de una misma tarea fundamental y la modularización de procesos. Ejemplo del primer principio es el análisis del EEG y del polisomnograma donde la tarea básica es determinar la amplitud y duración de cada onda. Ejemplo del segundo principio es la secuencia de procesamiento del electrocardiograma, donde el conjunto del análisis se subdivide en tareas que constituyen módulos, y, a su vez, cada uno de los módulos tiene también una estructura modular consistente en un conjunto de subtareas.

El informe polisomnográfico se basa en el reconocimiento por parte del especialista de una serie de patrones que involucran EEG, EMG, EOG, EKG y respiración, entre otros. Estos patrones en su conjunto son clasificados por un especialista como correspondientes a un estado (vigilia, REM y NOREM) y etapa (Etapas I-IV del NOREM). Para imitar la tarea del especialista, el computador debe ser capaz de reconocer la presencia de los elementos relevantes tales como ondas delta, husos sigma, actividad alfa o movimientos oculares rápidos. Muchos de ellos corresponden simplemente a ondas, aisladas o en tren, definibles por un rango de frecuencia y amplitud. Si un sistema es capaz de realizar la tarea fundamental de determinar la amplitud y duración de cada onda individual, esa simple capacidad básica le permite detectar una pluralidad de elementos relevantes muy distintos.

La Figura 1 ilustra la técnica del "cruce de cero" que permite determinar el comienzo, término, valor máximo y valor mínimo de una onda, y, por lo tanto, calcular su duración y amplitud. Se puede definir como un elemento relevante un tren de ondas que corresponde a una determinada banda de frecuencia y amplitud, y así detectar la presencia de, por ejemplo, actividad alfa o husos de sueño. La presencia de estos elementos relevantes en una época o unidad básica de tiempo (el equivalente a la página del trazado poligráfico) permite asignar esa época a un estado y etapa conforme a un algoritmo establecido. Por ejemplo, muchos husos de sueño y poca o ninguna actividad delta configuran la etapa 2 del sueño NOREM. Una vez definidos los elementos relevantes y los criterios de diagnóstico de estados y etapas en función de la presencia de esos elementos relevantes, el computador puede automáticamente analizar y diagnosticar los registros


Figura 1. La técnica de "cruce de cero". Se detectan el comienzo y fin de una onda como dos cruces de cero ascendentes consecutivos. Se determina entonces el período en función del número de muestras contadas entre ambos puntos y de la tasa de muestreo. Se contabilizan también los valores máximo y mínimo alcanzados en el transcurso de la onda, determinándose así la amplitud de ésta.

Los sistemas de análisis del electrocardiograma se basan en la subdivisión del proceso global en una serie de tareas y subtareas1,2,19. La primera tarea es la entrada de datos o muestreo de la señal, y su almacenamiento en memoria. La segunda tarea consiste en el reconocimiento de patrones dentro de la señal, la cual se subdivide en tres módulos. El primer módulo es la detección de señales, es decir, el determinar dentro del flujo de muestras que constituyen la señal, la localización de cada complejo QRS y de cada onda, previendo que pueden tener distintas formas. El segundo módulo tipifica los complejos QRS y la secuencia formada por el segmento ST y la onda T según la forma de la onda, incluyendo la diferenciación entre complejos dominantes y extrasístoles prematuros o multifocales. La tercera tarea se refiere a la clasificación de los patrones y al diagnóstico. También consta de diversos módulos. En primer lugar, la selección y promediación de los latidos dominantes para definir la forma de curva típica. En segundo lugar, la estimación de todos los parámetros de amplitud, duración y pendiente máxima para cada onda y segmento en cada derivación. Un tercer módulo lo constituye la clasificación de la forma de curva en la que ésta se compara con la de los prototipos de una serie de categorías diagnósticas, tales como los diversos tipos de infarto, bloqueo de rama o hipertrofia ventricular. Una cuarta tarea clasifica las arritmias en función tanto de las formas de la curva como la localización temporal sucesiva de ondas P y complejos QRS. Una quinta tarea consiste en hacer comparaciones seriales entre el examen presente y los exámenes anteriores del mismo paciente. Por último, se generan los informes incluyendo textos y gráficos. La evaluación de la certeza diagnóstica de los programas computacionales comparándola con los cardiólogos indica que los mejores programas no son significativamente inferiores a los especialistas20.

Figura 2. Un mismo algoritmo fundamental determina la duración y amplitud de cada onda y es aplicado continuamente a las señales que provienen de tres orígenes diversos: electroencefalograma, electroculograma y electromiograma. Se detectan y contabilizan en paralelo las incidencias de trenes de actividad delta, sigma, theta y alfa; de movimientos oculares rápidos y de espigas musculares. En función de la cantidad de cada uno de estos elementos relevantes un algoritmo determina el estado y etapa del ciclo sueño-vigilia.

 

Figura 3. Ejemplo de un posible flujo de tareas en la generación de un informe automatizado del electrocardiograma. La operación global es subdividida en módulos autónomos, los cuales a su vez también pueden subdividirse para cumplir subtareas independientes.

En conclusión, un computador personal provisto de interfaces adecuadas, puede ser programado para cumplir tareas de recolección y análisis de datos. El desarrollo autónomo de sistemas basados en computadores personales permite el acceso a paradigmas experimentales o asistenciales altamente sofisticados a muy bajo costo21

REFERENCIAS

1. Shortliffe EH, Perrault LE. Medical Informatics: Computers applications in Health Care. Addison-Wesley. Reading, Massachussts, 1990.        [ Links ]

2. Van Bemmel JH, Munsen MA. Handbook of Medical Informatics. Springer. Houten/Diegem, 1997.        [ Links ]

3. Vivaldi EA. La computación en la investigación biomédica y en la medicina. En: Monckeberg F, ed. Ciencia y Tecnología. Editorial Universitaria, Santiago 1989; 205-25.        [ Links ]

4. Vivaldi EA. Informática en la Facultad de Medicina de la Universidad de Chile. II. La red de la Facultad y el acceso a bases de datos. Rev Méd Chile 1990; 118: 1387-92.        [ Links ]

5. Vivaldi EA, Alvéstegui A, Contreras W. Evaluation of the Impact of Personal Computers, Networks and Access to Data Bases at the University of Chile School of Medicine. Proceedings IEEE/EMBS 1992; 14: 1191-2.        [ Links ]

6. White DP, Gibb TJ. Evaluation of a computerized polysomnographic system. Sleep 1998; 21: 188-96.        [ Links ]

7. Wiederhold G, Clayton PD. Processing biological data in real time. MD Computing 1985; 2: 16-25.        [ Links ]

8. Maldonado P, Vivaldi EA. Computadores en investigación biomédica: II. Control experimental, adquisición y almacenaje de datos. Rev Méd Chile 2001 en revisión.        [ Links ]

9. Vivaldi EA. Automatización de la adquisición de datos y del control del experimento: aplicación al estudio del ciclo sueño-vigilia y de paradigmas conductuales. Arch Biol Med Exp 1986; 19: 347-57.        [ Links ]

10. Lin Z, Chen JD. Advances in time frequency analysis of biomedical signals. Crit Rev Biomed Eng 1996; 24: 1-72.        [ Links ]

11. Cerutti S, Carrault G, Cluitmans PJ, Kinie A, Lipping T, Nikolaidis N, Pitas I, Signorini MG. Non linear algorithms for processing biological signals. Comput Methods Programs Biomed 1996; 51: 51-73.        [ Links ]

12. Vivaldi EA, Pastel RH, Bakalian MJ, Fernstrom JD. A microcomputer based sleep system: data acquisition and system calibration programs. Brain Res Bull 1988; 20: 133-8.        [ Links ]

13. Roncagliolo M, Vivaldi EA. Time course of rat sleep variables assessed by a microcomputer generated data base. Brain Res Bull 1991; 27: 573-80.        [ Links ]

14. Vivaldi EA, Wyneken U, Roncagliolo M, Ocampo A, Zapata AM. Measures of location and dispersion of sleep state distributions within the circular frame of a 12:12 light:dark schedule in the rat. Sleep 1994; 17: 208-19.        [ Links ]

15. Holzmann CA, Pérez CA, Held CM, San Martín M, Pizarro F, Pérez JP, Garrido M, Peirano P. Expert system classification of sleep/waking states in infants. Med Biol Eng Comp 1999; 37: 466-76.        [ Links ]

16. Kubicki S, Herrmann WM. The future of computer-assisted investigation of the polysomnogram: sleep microstructure. J Clin Neurophysiol 1996; 13: 285-94.        [ Links ]

17. Hasan J. Past and future of computer-assisted sleep analysis and drowsiness assessment. J Clin Neurophysiol 1996; 13: 285-94.        [ Links ]

18. Bartolo A, Clymer BD, Golish JA, Burgess RC. The polysomnogram assay: a method to represent the overnight polysomnogram in a condensed format. Comput Biomed Res 2000; 33: 110-25.        [ Links ]

19. Ginzton LE, Laks MM. Computer aided ECG interpretation. MD. Computing 1984; 1: 36-44.        [ Links ]

20. Willems JL, Abreu-Lima C, Arnaud P, Van Bemmel JH, Brohet C, Degani R et al. The diagnostic performance of computer programs for the interpretation of electrocardiograms. N Engl J Med 1991; 325: 1767-73.        [ Links ]

21. Vivaldi EA. El desarrollo de la computación y nuestra medicina. Rev Méd Chile 1987; 115: 1076-8.        [ Links ]