Ceci est une traduction automatique. Pour voir le texte original en anglais
cliquez ici
#Tendances produits
{{{sourceTextContent.title}}}
L'interface cerveau-machine peut créer un discours synthétique basé sur l'activité cérébrale
{{{sourceTextContent.subTitle}}}
Les chercheurs de l'Université de San Francisco ont mis au point une interface cerveau-machine qui pourrait permettre aux patients atteints de troubles de la parole de "parler" à travers l'appareil. Les chercheurs ont décrit le système comme un tremplin vers les prothèses neurales de la parole. Le système surveille l'activité cérébrale d'un utilisateur et la convertit ensuite en un son naturel à l'aide d'un conduit vocal virtuel. Cette simulation par ordinateur comprend des représentations anatomiques précises du larynx, de la langue, des lèvres et de la mâchoire.
{{{sourceTextContent.description}}}
Les patients peuvent perdre la capacité de parler en raison de divers facteurs, dont les maladies neurodégénératives, les accidents vasculaires cérébraux et les lésions cérébrales. Les technologies d'assistance actuelles peuvent permettre à certains patients d'épeler des mots à l'aide de petits mouvements faciaux et d'autres techniques. Bien que ces technologies soient sans aucun doute très utiles, cela peut prendre beaucoup de temps de communiquer de cette façon.
Afin d'offrir à ces patients un meilleur moyen de communiquer, les chercheurs ont mis au point une interface cerveau-machine qui peut traduire l'activité dans les centres de la parole du cerveau en un discours naturel. Il s'agit d'une entreprise complexe, car la façon dont les centres de la parole coordonnent les mouvements de l'appareil vocal est compliquée.
"La relation entre les mouvements de l'appareil vocal et les sons de la parole qui sont produits est compliquée ", explique Gopala Anumanchipalli, chercheur participant à l'étude. "Si ces centres de la parole dans le cerveau codent des mouvements plutôt que des sons, nous devrions faire de même pour décoder ces signaux."
Les chercheurs ont créé un conduit vocal virtuel et ont ensuite utilisé l'apprentissage machine pour le faire produire les sons corrects. Les volontaires ont dit des phrases spécifiques à haute voix pendant que leur activité cérébrale était surveillée. L'apprentissage machine a été utilisé pour faire correspondre ces signaux neuronaux aux mouvements du conduit vocal virtuel qui produisait un son naturel qui correspondait étroitement à la phrase originale.
"Nous avons encore du chemin à faire pour imiter parfaitement le langage parlé ", a déclaré Josh Chartier, un autre chercheur participant à l'étude. Nous sommes très doués pour synthétiser des sons plus lents comme " sh " et " z ", ainsi que pour maintenir les rythmes et les intonations de la parole et le sexe et l'identité de l'orateur, mais certains des sons plus brusques comme " b " et " p " deviennent un peu flous. Néanmoins, les niveaux de précision que nous avons produits ici seraient une amélioration étonnante de la communication en temps réel par rapport à ce qui est actuellement disponible."
Les chercheurs espèrent que la technologie pourrait fournir un moyen pratique et puissant de communiquer pour ceux qui ne peuvent pas parler.
"Les gens qui ne peuvent pas bouger leurs bras et leurs jambes ont appris à contrôler les membres robotiques avec leur cerveau ", dit Chartier. "Nous espérons qu'un jour les personnes avec des troubles de la parole pourront apprendre à parler à nouveau grâce à ce système vocal artificiel contrôlé par le cerveau."