Home


Cochlear Implants Optimisation using Evolutionary Algorithms



L'objectif du projet HEVEA (Handicap : Etude et Valorisation de l'Ecologie Auditive) est de contribuer au réglage des implants cochléaires (prothèses auditives) afin d'optimiser la communication des personnes présentant des déficiences auditives. Plus généralement l 'écologie auditive vise à étudier des méthodes auto-adaptatives pour le réglage des prothèses auditives.

Le projet HEVEA est une collaboration entre l'équipe COMPLEX de l'Inria Rocquencourt (Evelyne Lutton, Jacques Lévy Véhel, Pierrick Legrand), l'université du Littoral (Pierre Collet), l'université de Bourgogne (Claire Bourgeois-République), la société INNOTECH (Vincent Péan) et l'hôpital Avicenne (Bruno Frachet, Esther Harbour-Cohen).

Les implants cochléaires permettent à des sourds profonds de réentendre pour peu que leur nerf auditif n'est pas lésé et que leur cochlée est encore fonctionnelle: le son capté par un microphone est traité par un processeur et transmis à des électrodes placées dans la cochlée pour stimuler directement le nerf auditif (voir figure). Il y a des centaines de paramètres à régler dans un implant cochléaire, et surtout le patient doit réapprendre à entendre à partir des information qui arrivent sur son nerf auditif. L'adaptation des implant est un processus extrêmement complexe, délicat, et fortement dépendant du patient. Actuellement le réglage d'un implant est fait "à la main" par des médecins-régleurs, et, d'un point de vue optimisation, c'est un long processus d'essais-erreurs. On parvient le plus souvent à un réglage satisfaisant pour la majorité des patients, mais un nombre non négligeable d'entre eux reste en echec.

Le projet HEVEA étudie l'usage d'algorithmes génétiques interactifs pour le réglage d'implants cochléaires, avec le but d'une part faciliter le réglage initial des implants cochléaires, et d'autre part de rendre ces dispositifs adaptatif en fonction de l'environnement sonore du patient.

Le système de réglage d'implant par évolution interactive a été testé cliniquement sur des patients volontaires. Les résultats sont positifs.




[A]Le son ambiant est capté par le micro puis numérisé et traité.

[B] Le signal est envoyé à l'implant par l'antenne à travers la peau.

[C] L'implant reçoit les informations du processeur externe et les répartit sur les 20 électrodes placées dans la cochlée. Chaque électrode correspond à une bande de fréquence du signal sonore.

[D] Les terminaisons du nerf auditif transmettent les impulsions électriques au cerveau qui l'interprete comme des sons.



Le projet HEVEA se décompose en quatre sous-projets:

1 -- Echantillonnage des scènes sonores

Le réglage des prothèses auditives est réalisé à partir de scènes sonores différentes de celles rencontrées par le patient. Or, on constate une différence entre les situations de "vraie vie" du patient et les situations de test (laboratoire d'étude clinique de l'audition). C'est justement dans l'environnement réel du patient ("vrai vie" : travail, restaurant, chez lui) qu'il est important d'optimiser les paramètres de réglage de son implant cochléaire. Une solution consiste alors à s'intéresser à l'environnement sonore du patient en lui demandant d'enregistrer les scènes sonores de sa vie. L'avantage est de s'intéresser aux situations sonores personnelles du sujet et plus particulièrement à celles ou il rencontre des difficultés de compréhension et de confort. L'objectif de ce sous-projet est de concevoir un dispositif permettant d'échantillonner l'environnement sonore du patient. La particularité de l'échantillonneur est qu'il est "a posteriori" c'est à dire qu'il est capable d'enregistrer un signal sonore après-coup. En effet, lorsque le patient rencontre un problème de compréhension, on souhaite conserver cet échantillon précis. Malheureusement, le patient ne peut s'apercevoir qu'il a eu un problème de compréhension qu'après que celui-ci soit survenu, et les tentatives de recréer l'événement sont souvent vouées à l'échec. Pour répondre à ce cahier des charges nous enregistrons exactement le signal transmis au processeur de la prothèse. Pour cela nous avons équipé les patients d'un terminal léger de type PDA. Ce dernier est directement relié au processeur de l'implant (avec son microphone) et permet une sauvegarde des scènes sonores. L'avantage de ce terminal léger est qu'il est facilement transportable, il dispose d'une puissance de calcul et de stockage suffisamment importants pour notre application. Son ergonomie convient pour notre application et son utilisation est simple. Une interface graphique permet au patient de procéder aux enregistrements et de saisir des informations sur ces enregistrements (évaluation du confort, de la compréhension...). Il peut également prendre une photographie de l'environnement et enregistrer oralement des commentaires. Dans la suite, nous envisageons d'utiliser une communication sans fil pour transférer toutes ces données. Toutes ces informations alimentent une base de données, pour contribuer à l'optimisation des réglages de prothèses et à l'évaluation de l'audition des patients. Ce sous-projet s'intègre donc dans un objectif plus général d'"écologie auditive". À savoir l'adaptativité à l'environnement sonore pour les système d'aide auditive.





Le logiciel d'échantillonnage a été développé sur un PDA directement branché sur le boitier (à droite, l'interface de saisie).

2 -- Caractérisation des scènes sonores

Ce sous-projet concerne la classification des scènes sonores. Grâce au système précédent d'échantillonnage des scènes sonores, on dispose d'un ensemble d'échantillons prélevés dans l'environnement d'un patient (travail, domicile, transports en commun, ...). Le but est d'analyser ces différents échantillons sonores et de proposer une classification. Le problème de la classification de scènes sonores a été relativement peu abordé jusqu'à aujourd'hui. Les travaux récents traitant de signaux audio complexes se sont plutôt intéressés à la séparation de sources, qui consiste à identifier les différentes composantes d'un mélange de signaux. Ce problème a de nombreuses applications, par exemple en traitement d'antennes ou pour la transcription automatique de signaux musicaux sous forme de partition ("Audio2Midi"). Les techniques développées dans ce cadre font essentiellement appel au traitement statistique des signaux et à l'analyse temps-fréquence. L'approche statistique permet de traiter des signaux bruités. L'analyse temps-fréquence, qui généralise la transformée de Fourier, est bien adaptée pour extraire de l'information de signaux non-stationnaires. Les environnements sonores que nous avons à traiter dans le cadre de ce projet sont clairement à la fois bruités et non-stationnaires. Il nous a donc paru judicieux de fonder la classification de ces environnements sur ce type de techniques, qui ont fait leur preuve en séparation de sources. Elles permettent en effet d'obtenir une description robuste et pertinente, nécessaire à une bonne discrimination. L'analyse d'un grand nombre d'environnements sonores a permis de sélectionner, à partir de leur analyse temps-fréquence, les paramètres discriminants servant de base à une classification non-supervisée.

La détermination d'environnements sonores où le patient éprouve des difficultés de compréhension pourrait aussi permettre de caractériser la surdité. Dans un futur plus lointain, on pourrait alors proposer à un patient désirant être appareillé une série d'échantillons sonores (le dispositif développé dans le sous-projet 1 jouant alors le rôle de générateur de tests). A chaque caractérisation pourrait correspondre une proposition de réglage de la prothèse.

3 -- Paramétrage en fonction des scènes sonores

Pour chacune des classes d'environnements sonores, l'objectif est alors de proposer un réglage automatique de la prothèse. Nous abordons le paramétrage de la prothèse comme un problème d'optimisation stochastique. De nombreux algorithmes de ce type existent, parmi lesquels les algorithmes évolutionnaires, qui permettent d'explorer largement un vaste espace de recherche et d'être relativement robustes aux optima locaux.`

A l'heure actuelle un algorithme évolutionnaire interactif avec interface graphique a été délivré, et des tests sur des patients volontaires ont pu être réalisés depuis décembre 2004. De plus une autre version a été programmée pour fonctionner sur un PDA (pocket PC) afin de permettre au patient un réglage de sa prothèse in situ, pour pouvoir prendre un compte l'environmment réel. A notre connaissance, il semble que nous ayons implémenté le premier algorithme génétique fonctionnant sur PDA.

4 -- Sélection automatique de paramétrage

L'objectif de ce sous-projet est de proposer un réglage automatique et adaptatif de la prothèse. A partir des résultats du sous projet "Caractérisation des scènes sonores", une méthode d'identification sera mise au point pour être implantée dans le processeur de la prothèse auditive. La faible complexité (proportionnelle au nombre d'échantillons) des paramètres issus de l'analyse temps-fréquence permettra de répondre à la contrainte "temps-réel" imposée par l'application embarquée. Le signal sonore perçu par les micros sera transmis au processeur en temps réel, celui-ci pourra alors déterminer dans quelle famille d'environnement sonore le patient se trouve. Suivant la famille déterminée, le processeur activera le jeu de paramètres adéquat, obtenu par réglage évolutionnaire interactif selon la méthode précédente.


Interface graphique HEVEA, permettant de faire le lien entre le patient et l'algorithme évolutionnaire

home