Signal processing algorithms for digital hearing aids

  1. Álvarez Pérez, Lorena
Dirixida por:
  1. Enrique Alexandre Cortizo Director

Universidade de defensa: Universidad de Alcalá

Fecha de defensa: 09 de marzo de 2012

Tribunal:
  1. Manuel Rosa Zurera Presidente/a
  2. Lucas Cuadra Rodriguez Secretario/a
  3. Antonio Pena Giménez Vogal
  4. Máximo Cobos Serrano Vogal
  5. Aníbal João de Sousa Ferreira Vogal

Tipo: Tese

Resumo

La pérdida de audición es un problema que generalmente sufren las personas de mediana edad y las más mayores, como consecuencia del envejecimiento natural y deterioro del sistema auditivo humano. Esta pérdida de audición afecta de manera significativa a la comunicación e imposibilita a la mayoría de las personas con discapacidad auditiva a llevar una vida normal. Aunque la inmensa mayoría de los casos de pérdida de audición (90 %) podrían tratarse mediante la utilización de audífonos, sin embargo, pocas personas que podrían beneficiarse de su uso (concretamente un 20 %) compra uno, e incluso, muchos de los que han comprado su audífono terminan por no utilizarlo, a pesar del fuerte desembolso económico que puede suponer la adquisición y mantenimiento de un audífono. Las razones para este aparentemente extraño comportamiento surge de la existencia de un problema fundamental, científico y tecnológico que, hasta día de hoy, no ha sido resuelto de manera eficiente y cómoda: la adaptación automática del audífono dependiendo del entorno sonoro en el que se encuentra el usuario. Se ha demostrado que la mayoría de las personas que hacen uso de audífonos prefieren tener una variedad de programas de amplificación adaptados a diferentes entornos sonoros, incluso aunque su funcionamiento no sea del todo perfecto. Hay dos posibles formas de satisfacer tal necesidad. Por un lado, existe el modo “manual”, en el que el usuario tiene que identificar el entorno sonoro en el que se encuentra, y elegir él mismo el programa de amplificación más apropiado para ese entorno, a través de un conmutador situado en el propio audífono o de alguna clase de control remoto. Este modo es bastante incómodo y en la mayoría de los casos excede las habilidades de muchos de los usuarios de audífonos, especialmente las de los más mayores. El segundo modo, probablemente más cómodo para el usuario, consiste en que el propio audífono clasifique el entorno en el que se encuentra el usuario y él mismo seleccione el programa de amplificación más apropiado para ese entorno. Este último modo permite a los usuarios de los audífonos mejorar la inteligibilidad de voz percibida, llevar una vida normal e incrementar su nivel de comodidad. Aunque parece evidente la necesidad de incluir un sistema de clasificación de sonidos en un audífono, su implementación es, por el contrario, algo difícil de conseguir. A pesar de los importantes avances en microelectrónica que ha habido en los últimos años, el desarrollo de un sistema de clasificación automática de sonidos en un audífono digital constituye todo un desafío debido a las limitaciones del procesador digital de señal (también conocido como DSP, de sus siglas en inglés, Digital Signal Processor ) en el que se basa cualquier audífono digital. Nótese que los audífonos digitales tienes importantes restricciones en términos de capacidad computacional, memoria y batería, que limitan la implementación de algoritmos complejos en ellos. Esta tesis se centra en el diseño e implementación de un prototipo de audífono digital capaz de clasificar automáticamente el entorno sonoro en el que se encuentra la persona que lleva el audífono y seleccionar el programa de amplificación mejor adaptado a ese entorno, con el objetivo de mejorar la inteligibilidad de voz percebida por el usuario. Esta tesis se puede dividir en tres partes. La primera de ellas está relacionada con el diseño de un sistema de clasificación automática de sonidos que permita clasificar correctamente la señal sonora de entrada entre voz, música y ruido (los entornos sonoros considerados en esta tesis). Nótese que esta parte no sólo implica la selección del conjunto de características más apropiado, sino también la selección del algoritmo de clasificación más adecuado y la optimización de sus parámetros para su futura implementación en el DSP. La segunda parte incluye el diseño de una función de ganancia que tiene como objetivo mejorar la percepción de la voz, no sólo en términos de inteligibilidad, sino también en términos de calidad. Finalmente, la última parte, quizás la más importante desde el punto de vista práctico, describe en detalle el modo en que, tanto el sistema de clasificación automática de sonidos y la función de mejora de la voz, son implementados en el DSP usado en esta tesis para llevar a cabo los experimentos. A continuación se describen las principales contribuciones de esta tesis: • El diseño de un conjunto de características de baja complejidad. La principal ventaja de este conjunto de características consiste en que el número de instrucciones requeridas por el DSP para su cálculo es muy bajo. • Un método de selección de características para la clasificación de sonidos en audífonos digitales haciendo uso de algoritmos genéticos que restriguen el espacio de búsqueda. • Un método que combina algoritmos de crecimiento y poda para perceptones multicapa (también conocidos como MLPs, de sus siglas en inglés, Multilayer Perceptrons), que permite determinar el número idóneo de neuronas ocultas en MLPs para cada problema de clasificación. • Un algoritmo que permite seleccionar automáticamente, entre varias aproximaciones lineales por tramos de la función de activación original (función logarítmica sigmoidal, en nuestro caso), la aproximación más apropiada para cada una de las neuronas de la capa oculta y de salida que forman un perceptrón multicapa. • El diseño de una función de ganancia para audífonos que mejore tanto la calidad, así como la inteligibilidad de la voz percebida por los usuarios. Esta función de ganancia se genera usando un modelo de mezcla de gausianas en el que sus parámetros se estiman por medio de algoritmos genéticos. • Un método que trata de “simplificar” la implementación del algoritmo de compresión-expansión (el núcleo principal de un audífono) en el DSP. La implementación práctica de este método consiste en almacenar en la memoria de datos del DSP, una matriz que contenga valores “tabulados” de la ganancia a aplicar en función del nivel de señal de entrada y de la banda de frecuencia. La conclusión final, global de esta tesis es que se ha desarrollado un prototipo de audífono digital que automáticamente clasifica el entorno sonoro en el que se encuentra su usuario y selecciona el programa de amplificación más apropiado para ese entorno, con el objetivo de aumentar tanto la calidad como la inteligibilidad de voz percibida por el usuario. La duración de la batería de este audífono es 140 horas (o equivalentemente, aproximadamente 6 días), valor muy similar a la duración de la batería de los audífonos disponibles en el mercado actualmente, y lo que es más importante aún, queda aproximadamente el 30 % de los recursos del DSP libre para la implementación de otros algoritmos, como, por ejemplo, aquellos que llevan a cabo separación de fuentes sonoras o la reducción de la realimentacióon acústica.