Dies ist ein Ausschnitt aus der GDI-Studie «Robotik und Behinderungen». Die vollständige Studie können Sie hier kostenlos herunterladen.

Es gibt diverse Möglichkeiten, wie der Mensch einer Maschine, z. B. einer robotischen Prothese, seine Wünsche mitteilen kann. Die Wünsche, vom Gehirn ausgehend, werden über Nervenenden, Muskelkontraktionen, durch gesprochene Instruktionen etc. der Maschine übermittelt. Da es schlussendlich immer darum geht, Informationen vom Gehirn zum Gerät zu befördern (oder umgekehrt bei der technisch unterstützten Wahrnehmung), bietet es sich an, das Gehirn direkt mit dem Gerät zu verbinden und nicht den Umweg über im Körper liegende Nerven zu nehmen. Zudem Letzteres bei Menschen mit durchtrennten Nervenbahnen nicht möglich ist.

Doch wie kann man das Gehirn direkt mit einer Maschine verbinden, um z. B. ein Exoskelett, die externe elektrische Stimulation der eigenen Muskeln oder eine körperfremde Maschine zu steuern? Zu diesem Zweck existieren mehrere unterschiedlich invasive Methoden. Eine einfache Methode besteht darin, per Elektroenzephalografie (EEG) die Spannungsschwankungen des Gehirns zu messen. Dies funktioniert, indem Elektroden auf die Kopfhaut gelegt werden. Bekannt sind Bilder etwa aus dem Schlaflabor, wo sich Versuchspersonen Mützen aufsetzen, die mit Dutzenden von verkabelten Elektroden versehen sind. Es gibt mittlerweile schon die Consumer-Variante davon, die eher einem Kopfhörerbügel gleicht, jedoch viel ungenauer misst.

Mit dem EEG-Verfahren können unterschiedliche Gehirnwellen gemessen werden, die Aufschluss über Gehirnaktivitäten geben. Gedanken werden nicht gelesen. Dennoch liefern die unterschiedlichen Frequenzen von Gehirnaktivität gewisse Informationen: Eine niedrige Frequenz (<13 Hz) zeigt an, dass sich jemand entspannt, eine hohe Frequenz (>30 Hz) deutet auf hohe Konzentration hin. Ein Mensch kann also einer Maschine durch gezieltes Konzentrieren oder Entspannen simple Instruktionen vermitteln. Allerdings sind die Möglichkeiten beschränkt. «Mit dem EEG können wir auf verlässliche Art und Weise nur drei bis vier Befehle unterscheiden», sagt Prof. Dr. José del R. Millán vom Center for Neuroprosthetics an der EPFL Genf.

Auch erkennt die Maschine eine bestimmte Absicht nur verzögert – bis 10 Sekunden benötigt sie zum Reagieren. Durch Training dürfte es möglich sein, die zeitliche Verzögerung zu verringern und die Vielfalt der erkennbaren mentalen Zustände zu erhöhen. So weiss man, dass buddhistische Mönche aufgrund ihres langjährigen Meditationstrainings mehr als 30-fach stärkere Hochfrequenz-Wellen erzeugen können als Menschen, die nicht meditieren. Für Menschen mit kognitiven Beeinträchtigungen ist ein solches System jedoch kaum hilfreich, insbesondere dann, wenn sie Mühe haben, sich länger zu konzentrieren oder das System überhaupt zu verstehen. Viel mehr als wenige Instruktionen mit ein paar Sekunden Verzögerung kann die EEG-Methode momentan nicht verarbeiten. Laut Prof. Dr. Millàn lässt sich damit aber bereits etwas tun. Auch gesunde Menschen steuern nicht jeden Muskel bewusst. Wenn wir zum Beispiel ein Glas vom Tisch nehmen wollen, müssen wir uns zu den genauen Fingerpositionen oder zur Spannung des Oberarmmuskels keine Gedanken machen. Das passiert automatisch, nicht nur unbewusst, sondern zum Teil auch gänzlich ausserhalb des Gehirns, durch Reflexe über das Rückenmark. Wenn einfache Intentionen den Feinschliff durch Systeme wie das Rückenmark erhalten, könnte dieser Feinschliff auch durch ein elektronisches System erfolgen, das die Bewegungen etwa eines Exoskeletts aufgrund weniger Instruktionen automatisch ausführt. Selbst die wenigen Instruktionen sind nicht unbedingt nötig. Man kann sich auch vorstellen, dass ein intelligentes System gewisse Bewegungen von alleine ausführt (z. B. zum Feierabend geht das Exoskelett automatisch nach Hause). Wenn der Nutzer das nicht will, kann er den Handlungsablauf unterbrechen und neue Instruktionen eingeben. Zum Unterbrechen reichen wenige Anweisungen, die auch ein paar Sekunden verspätet erkannt werden. Allerdings ist dafür ein sehr intelligentes System nötig, das möglichst viel in der Umwelt erkennt und das auf die Körper- sowie andere Daten des Nutzers (z. B. den Kalender) zugreifen kann.

Ein Gehirn-Interface kann auch direkt mit dem Gehirn verbunden werden. Dafür wird ein Chip unter die Schädeldecke platziert, der mit seinen feinen Elektroden auch leicht ins Gehirn eindringt. Der Chip liegt entweder auf dem motorischen Cortex auf, wo einzelne Muskelbewegungen mental repräsentiert werden. Die daraus resultierenden Bewegungen sind allerdings ziemlich ruckartig und ungeschickt. Alternativ kann der Chip im hinteren Parietallappen angebracht werden, wo nicht konkrete Bewegungen, sondern motorische Absichten repräsentiert werden. Diese Absichten werden vom Computer in konkrete Bewegungen der künstlichen Glieder umgerechnet, was viel flüssigere und natürliche Bewegungen zur Folge hat. Die bewegten Glieder müssen aber nicht zwingend künstlich sein. Befehle des Gehirn-Interfaces können auch direkt die Muskeln gelähmter Glieder stimulieren. Forscher aus Lausanne haben kürzlich gezeigt, dass Rhesusaffen trotz durchtrenntem Rückenmark wieder gehen können, wenn ihnen ein Interface im Beinbereich des motorischen Cortex eingesetzt wird, welches seinerseits per Funk mit einem Rückenmarkstimulator verbunden ist. Dieser aktiviert die entsprechenden Nerven im Rückenmark, welche zu diesen Muskeln führen. Auf diese Weise wird die verletzte Stelle überbrückt. Gehirn-Interfaces haben den Markt bereits im Unterhaltungsmarkt erreicht, wo zum Beispiel Drohnen mit Gedanken gesteuert werden. Bisher ist es eher eine Spielerei – bestimmt jedoch wertvoll für einen Menschen, der seinen Körper nicht mehr bewegen kann. Damit Menschen mit Behinderungen Gehirn-Interfaces im Alltag nutzen
können, müssen einerseits Maschinen unsere Welt viel besser verstehen als bislang.
Andererseits müssen auch wir das Gehirn besser verstehen. Fakt ist: Es besteht kein einfacher Zusammenhang zwischen neuronaler Aktivität und Bewegungen.

Und auch wenn wir das Gehirn besser verstehen würden, so kratzen wir wortwörtlich nur an der Oberfläche, da ein Chip nicht tief ins Gehirn gesetzt werden kann, ohne Gehirngewebe zu schädigen. Es lässt sich also nur mit denjenigen Gehirnaktivitäten arbeiten, die sich an der Oberfläche des Gehirns manifestieren. Dies zu umgehen gelingt wohl erst, wenn Nanoroboter die Blut-Hirn-Schranke überwinden und gezielt an einen beliebigen Ort im Gehirn positioniert werden können.

Das Potenzial einer solchen Technologie ist für Menschen sowohl mit als auch ohne Behinderungen kaum zu überschätzen. Geräte müssten nicht mehr mit umständlichen Hilfsmitteln wie Blas-Röhrchen, Joysticks oder Eye-Tracking bedient werden. Kombiniert mit Virtual Reality liessen sich Avatare in der analogen und in der virtuellen Welt einfach steuern. Besonders, wenn es dann auch möglich ist, die Wahrnehmung dieser Avatare über mehrere Sinneskanäle direkt zu empfinden; wenn also mit Gehirn-Interfaces nicht nur Instruktionen ausgesendet, sondern auch Informationen empfangen werden können.

Die GDI-Studie «Robotik und Behinderungen» zeigt, wie Robotik das Leben von Menschen mit Behinderungen in Zukunft leichter machen wird. Die vollständige Studie können Sie hier kostenlos herunterladen.