BCI-Forschung: Computer dekodiert kontinuierliche Bewegungen aus Hirnsignalen
28.09.2021 - An der TU Graz ist es erstmals gelungen, aus menschlichen Hirnsignalen die Absicht einer kontinuierlichen Bewegung auszulesen. Der Erfolg ermöglicht eine natürlichere und nichtinvasive Steuerung von Neuroprothesen in Echtzeit.
Sie sollen querschnittgelähmten Menschen ein Stück Bewegungsfreiheit und damit mehr Lebensqualität zurückbringen: Sogenannte Brain-Computer-Interfaces (BCIs), das heißt Gehirn-Computer-Schnittstellen, die die Hirnaktivität der Person messen und die elektrischen Ströme in Steuerungssignale für Neuroprothesen umwandeln. „Steuern nur durch Denken“, wie es Gernot Müller-Putz vereinfacht formuliert. Der Leiter des Instituts für Neurotechnologie der TU Graz zählt zu den „alten Hasen“ der BCI-Forschung und beschäftigt sich intensiv mit nicht-invasiven BCI-Systemen. Er und sein Team haben in den letzten zehn Jahren erste positive Ergebnisse mit der EEG-basierten Steuerung von Neuroprothesen oder robotischen Armen bei Personen mit Rückenmarksverletzungen erzielt. Allerdings war die Steuerung bislang unnatürlich und umständlich, weil die Denkmuster wiederholt imaginiert werden mussten. Im Rahmen seines jüngst abgeschlossenen ERC-Consolidator Grant-Projekts „Feel your Reach“ haben Müller-Putz und sein Team nun den Durchbruch bei der Entwicklung natürlicherer und kontinuierlicher BCI-Steuerungssysteme geschafft.
Auf das Sehen kommt es an
Den TU Graz-Forschenden ist es erstmals gelungen, einen Roboterarm rein durch Gedanken in Echtzeit zu steuern, gewohnt nicht-invasiv mittels EEG-Kappe. Möglich wurde das durch das Dekodieren kontinuierlicher Bewegungsintention aus den Hirnsignalen – das war bislang unmöglich. Die Forschenden untersuchten zunächst eine Vielzahl an Bewegungsparametern wie Position, Geschwindigkeit aber auch Distanz, und extrahierten deren Korrelate aus der neuronalen Aktivität. „Wesentlich hierbei ist der Beitrag der Augen“, sagt Müller-Putz. „Es ist wichtig, dass Benutzerinnen und Benutzer die Augen verwenden dürfen, um die Bewegungsbahn des robotischen Armens zu verfolgen.“ Allerdings erzeugen Augenbewegungen und Lidschläge eigene elektrische Signale, sogenannte okulare Artefakte im EEG. „Diese Artefakte verzerren das EEG-Signal. Sie müssen daher in Echtzeit rausgerechnet werden. Es ist aber essentiell, dass die Auge-Hand-Koordination stattfinden kann und so einen Beitrag zur Dekodierung der zielgerichteten Bewegungswünsche liefert“, erklärt Müller-Putz. Mit anderen Worten: Die Sehinformationen tragen dazu bei, die Bewegungsintention zu erfassen. Die Störsignale des Auges selbst aber müssen aus der elektrischen Aktivität herausgerechnet werden.
BCI erkennt nicht erwünschte Bewegungen
Wesentlich ist auch, dass eines der von den Forscherinnen und Forschern entwickelten BCIs erkennen kann, ob man mit einer Bewegung starten möchte – es erkennt den Start einer zielgerichteten Bewegung. Darüber hinaus erkennt und korrigiert ein weiteres BCI des Forschungsteams Fehler, also nicht erwünschte Bewegungen des Roboterarms; ein weiterer Puzzlestein für eine natürlichere Prothesensteuerung. „Die Fehlerantwort des Gehirns lässt sich aus dem EEG ablesen. Das BCI erkennt, dass die ausgeführte Bewegung nicht mit der Intention der Person übereinstimmt. Es stoppt die Bewegung des Roboterarms oder setzt diese zurück an den Anfang“, so Müller-Putz. Im Projekt wurde die Fehlererkennung mehrfach in Tests mit querschnittgelähmten Personen erfolgreich getestet.
Personen können Bewegungen des Roboterarms spüren
Ebenfalls erfolgreich waren die TU Graz-Forschenden beim sogenannten kinästhetischen Feedback. „Die Testpersonen sehen die Bewegungen der Prothese nicht nur, sie spüren sie auch“, freut sich Müller-Putz. Technisch wurde dies mithilfe von Vibrationsgebern möglich. Diese kleben an der Haut am Schulterblatt und fahren die Bewegungen des Roboterarms in fein fließenden Vibrationen nach. Theoretisch sei es damit auch komplett Querschnittsgelähmten möglich, Bewegungen nachzuempfinden. „Allerdings müssen wir uns hier eine Anwendung im Bereich des Nackens oder Halses überlegen“, spricht Müller-Putz zukünftige Ziele an. Allen voran möchten die Forschenden das Dekodieren einer Bewegung aus visuellen, intentionalen und bewegungsempfindenden Informationen verbessern, dabei Fehler erkennen und alle vier BCI-Systeme in einem „Vierfach-BCI-System“ vereinen.
Biografie Gernot Müller-Putz
Gernot Müller-Putz, Leiter des Instituts für Neurotechnologie der TU Graz, beschäftigt sich seit 23 Jahren mit der BCI-Forschung. Er ist Träger eines ERC Consolidator Grants und langjähriger Organisator der Grazer Brain-Computer Interface Konferenz. 2017 verlieh ihm die Deutschsprachige Medizinische Gesellschaft für Paraplegiplogie den Ludwig Guttmann-Preis. Im Mai 2018 wurde er in den Vorstand der International Brain-Computer Interface Society gewählt, dessen Gründungsmitglied er auch ist. Im Mai 2019 erhielt er den Steirischen Wissenschaftspreis des Landes Steiermark "Digitalisierung in der Wissenschaft". Er ist auch Gründungsmitglied und wissenschaftlicher Co-Direktor der NeuroIS Society.
Kontakt
Technische Universität Graz
Petergasse 12
8010 Graz
Österreich
+43 316 873 0