Voir la traduction automatique
Ceci est une traduction automatique. Pour voir le texte original en anglais cliquez ici
#Actualités du secteur
{{{sourceTextContent.title}}}
L'IA améliore la compréhension de la parole des utilisateurs d'appareils auditifs
{{{sourceTextContent.subTitle}}}
Dans les environnements bruyants, il est difficile pour les utilisateurs d'appareils auditifs ou d'implants auditifs de comprendre leur interlocuteur car les processeurs audio actuels ont encore du mal à se concentrer sur des sources sonores spécifiques. Dans une étude de faisabilité, des chercheurs du Laboratoire de recherche sur l'audition de l'Université de Berne et de l'Inselspital suggèrent maintenant que l'intelligence artificielle pourrait résoudre ce problème.
{{{sourceTextContent.description}}}
À l'heure actuelle, les aides auditives ou les implants auditifs ne sont pas très efficaces pour filtrer de manière sélective les paroles spécifiques provenant de nombreuses sources sonores pour le porteur - une capacité naturelle du cerveau humain et du sens de l'audition connue en audiologie sous le nom d'"effet cocktail". Par conséquent, il est difficile pour les utilisateurs d'appareils auditifs de suivre une conversation dans un environnement bruyant.
Des chercheurs du Laboratoire de recherche sur l'audition du Centre ARTORG, de l'Université de Berne et de l'Inselspital ont maintenant conçu une approche inhabituelle pour améliorer les appareils auditifs à cet égard : des microphones auxiliaires virtuels dont les signaux sont calculés par une intelligence artificielle.
Plus il y a de microphones disponibles et plus ils sont répartis, mieux une aide auditive peut se concentrer sur le son provenant d'une direction particulière. La plupart des appareils auditifs sont équipés de deux microphones rapprochés, par manque de place. Dans la première partie de l'étude, le Hearing Research Laboratory (HRL) a déterminé que l'emplacement optimal du microphone (pour une meilleure focalisation) se situe au milieu du front - bien que cet emplacement soit très peu pratique. "Nous avons voulu contourner ce problème en ajoutant un microphone virtuel au processeur audio à l'aide de l'intelligence artificielle", a déclaré Tim Fischer, chercheur postdoctoral au HRL, pour expliquer cette approche non conventionnelle.
Pour la mise en place de l'étude, les ingénieurs du centre ARTORG ont utilisé le "Bern Cocktail Party Dataset", une collection de divers scénarios de bruit avec de multiples sources sonores provenant d'enregistrements multi-microphones d'utilisateurs d'appareils auditifs ou d'implants cochléaires. À partir de 65 heures d'enregistrements audio (plus de 78 000 fichiers audio), ils ont entraîné un réseau neuronal pour affiner un algorithme de directionnalité (beamformer) couramment utilisé. Pour améliorer la compréhension de la parole, l'approche d'apprentissage profond a calculé des signaux de microphones virtuels supplémentaires à partir du mélange de données audio. 20 sujets ont testé l'audition améliorée par l'IA lors d'un test auditif subjectif accompagné de mesures objectives. Les signaux de microphones échantillonnés virtuellement ont amélioré de manière significative la qualité de la parole, en particulier dans le cadre de cocktails. Les utilisateurs de prothèses auditives et d'implants cochléaires pourraient donc bénéficier de l'approche présentée, en particulier dans les environnements bruyants.
"Je pense que l'intelligence artificielle représente une contribution importante à la prochaine génération de prothèses auditives, car elle a un grand potentiel pour améliorer la compréhension de la parole, en particulier dans des situations d'écoute difficiles", déclare Marco Caversaccio, médecin en chef et chef du département ORL.
Bien que, dans le cadre de cette étude, les microphones ajoutés virtuellement aient amélioré de manière significative la qualité de la compréhension de la parole avec les prothèses auditives, des études supplémentaires doivent encore surmonter certains obstacles techniques avant que la méthodologie puisse être utilisée dans les prothèses auditives ou les processeurs audio des implants cochléaires. Il s'agit, par exemple, d'assurer un fonctionnement stable de la compréhension directionnelle, même dans des environnements réverbérants.