Forschung könnte helfen, wieder die Rede von Gedanken für Patienten mit schweren Lähmungen.

Eine neue Sprach-synthesizer wandelt Vokaltrakt Bewegungen in verständlicher Sprache. In einer neuen Studie, veröffentlicht in PLOS Computational Biology, diese „artikulatorischen ansässigen“ speech synthesizer wurde entwickelt mit Hilfe von deep learning algorithmen zum konvertieren von artikulatorischen Bewegungen in eine verständliche Sprache-audio-signal. Diese Forschung könnte helfen, in die Zukunft zu bauen, eine Gehirn-computer-Schnittstelle, die konnte wieder Rede für Menschen mit schweren Lähmungen.

Sprechen aktiviert eine region der Hirnrinde, die steuert die Bewegung der verschiedenen Organe (genannt articulators) des Vokal-Traktes, einschließlich der Zunge, Lippen, Kiefer, Gaumensegel und Kehlkopf. Eine Reihe von Sprach-und sehbehinderte Menschen haben immer noch Ihre Rinde erhalten bleiben, aber die neuronalen Signale unterbrochen sind auf dem Weg in Richtung Muskeln verschieben des articulators.

Für diese Patienten ist es somit möglich, zu vergegenwärtigen und die Wiederherstellung Rede mit Ihr erhaltenen kortikalen Aktivität zur Steuerung einer künstlichen Sprache-synthesizer in Echtzeit. Der synthesizer sollte jedoch angepasst werden, um die kortikale region. Die zugrunde liegende Hypothese dieser Studie ist, dass die kortikale region, die Steuerung der Bewegungen der Rede articulators wird eher geneigt sein, zu kontrollieren, ein synthesizer, für den der Befehl Signale beschreiben explizit, wie Bewegungen.

Dieser synthesizer könnte dann angepasst werden, um in Echtzeit laufen mit unterschiedlichen Themen, so dass Sie produzieren könnte verständlichen Sprache künstlich von Ihren artikulatorischen Bewegungen beim sprechen zu leise. Diese Studie ebnet den Weg hin zu einer Gehirn-computer Schnittstelle, in der die entwickelten synthesizer gesteuert werden, die direkt aus der neuronalen Aktivität der Rede motorischen Kortex. Dies könnte die Wiederherstellung der Kommunikation für teilnahmslos Menschen mit schweren Lähmungen.

Verständlichen Sprache produziert, die von einem synthesizer aus dem Vokaltrakt Bewegungen

Diese Studie wurde durchgeführt von Florent Bocquelet und Blaise Yvert am BrainTech Labor der INSERM-Institut in Grenoble, und von Thomas Hueber, Laurent Girin und Christophe Savariaux aus dem Gipsa-Labor des CNRS. Beide Labore sind auch Teil der Universität Grenoble Alpes.

Diese Arbeit wurde unterstützt von der Fondation pour la Recherche MeÂdicale (www.frm.org) unter grant No DBS20140930785. Die Geldgeber hatten keine Rolle in Studiendesign, Datenerhebung und-Analyse, Entscheidung zur Veröffentlichung oder Vorbereitung des Manuskripts.

Artikel: Real-Time-Steuerung der Artikulatorischen-Basierte Sprach-Synthesizer für Gehirn-Computer-Schnittstellen Bocquelet F, Hueber T, Girin L, Savariaux C, Yvert B, PLOS Computational Biology, doi:10.1371/journal.pcbi.1005119, veröffentlicht 23. November 2016.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.