ArchivDeutsches Ärzteblatt17/2009Brain-Computer-Interface: Kommunikation bedeutet Lebensqualität

THEMEN DER ZEIT

Brain-Computer-Interface: Kommunikation bedeutet Lebensqualität

Krüger-Brand, Heike E.

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...
LNSLNS
Kommunikation mittels Eye-Gaze- System: Die Patientin fixiert bestimmte Schaltflächen auf dem Bildschirm. Das System erfasst mit einer Kamera die Position der Pupille und errechnet daraus den Blickwinkel des Auges. Dieses Verfahren lässt sich zur Steuerung von Geräten oder zur Kommunikation nutzen. Foto: Farah Lenser
Kommunikation mittels Eye-Gaze- System: Die Patientin fixiert bestimmte Schaltflächen auf dem Bildschirm. Das System erfasst mit einer Kamera die Position der Pupille und errechnet daraus den Blickwinkel des Auges. Dieses Verfahren lässt sich zur Steuerung von Geräten oder zur Kommunikation nutzen. Foto: Farah Lenser
Schnittstellen zwischen Gehirn und Computer eröffnen schwerstgelähmten Menschen neue Kommunikationskanäle und können künftig auch zur Steuerung von Prothesen oder Geräten dienen.

Das Innovationspotenzial der vielfältigen Interaktionen zwischen Mensch und Computer könne für schwerstgelähmte Patienten gar nicht hoch genug eingeschätzt werden, betonte Dr. Karl-Heinz Pantke bei der Tagung „Mensch und Maschine“ in Berlin*. Der Vorsitzende des Vereins LIS e.V. (Locked-in-Syndrom; www.locked-in-syndrom. org) weiß als ehemals selbst Betroffener, wovon er spricht und was es bedeutet, wenn Kommunikation nahezu unmöglich ist. Das Locked-in Syndrom kann als Folge eines Hirnstamminfarkts auftreten. Amyothrophe Lateralsklerose (ALS) wie auch Unfälle können eine ähnliche Symtomatik zeigen. Sie führt dazu, dass die Patienten vollständig gelähmt sind und lediglich ihre Augenlider bewegen können. In rund fünf Prozent der Fälle ist auch das nicht möglich. Der im Jahr 2000 gegründete Verein setzt sich für eine Verbesserung der Lebensumstände von LIS-Patienten ein, engagiert sich in der Aufklärung und unterstützt auch die wissenschaftliche Erforschung der Krankheit.

Pantke berichtete über eine Umfrage unter Mitgliedern des Vereins zur Kommunikationssituation nach einem Locked-in-Syndrom sowie zur Hilfsmittelversorgung. Alle der 36 Befragten waren von den Folgen eines Locked-in-Syndroms nach einem Schlagfall betroffen. 80 Prozent der Befragten gaben an, dass sie im Krankenhaus beraten wurden. So wurden vier Fünftel der Patienten auf einfache Kommunikationsmöglichkeiten wie Buchstabentafeln oder Ja/Nein-Codes während ihres stationären Aufenthalts hingewiesen. Zwei Drittel erlernten das Sprechen wieder, ein Drittel ist dauerhaft auf Kommunikationshilfsmittel angewiesen. Ein Viertel der Patienten kommuniziert nur gelegentlich verbal oder ist motorisch derart eingeschränkt, dass weder Stift noch Computertastatur bedient werden können. Bei allen Befragten war über eine motorische Restfunktion, etwa des Kopfes oder eines Fingers, der Aufbau eines Kommunikationskanals möglich. „Während die Welt in der Klinik noch weitgehend in Ordnung ist, findet im häuslichen Bereich praktisch keine Beratung durch unabhängige Stellen mehr statt“, kritisierte Pantke. Kostengünstige Alternativen zu kommerziellen Hilfsmittelanbietern würden daher kaum genutzt.

Studien zur Lebensqualität
Bei den meisten LIS-Patienten stellt sich im Laufe der Zeit eine stetige Verbesserung ein, wohingegen ALS-Erkrankungen progredient verlaufen. Dennoch ist eine befriedigende Lebensqualität ohne depressive Symptomatik auch in fortgeschrittenen Stadien einer neurodegenerativen Krankheit bei künstlicher Ernährung und Beatmung möglich. Dies haben Untersuchungen zur Erforschung der Lebensqualität schwerstgelähmter Patienten, vor allem von ALS-Patienten, ergeben, die das Institut für Medizinische Psychologie und Verhaltensneurobiologie der Universität Tübingen durchgeführt hat (www.mp.uni-tuebingen.de). Danach würden im Verlauf der Erkrankung spezifische Bereiche für die Lebensqualität zunehmend wichtiger, berichteten Dr. Tamara Matuz und Caroline Ruf. So geben stark eingeschränkte ALS-Patienten im Vergleich mit leicht bis mittel schwer eingeschränkten Patienten signifikant häufiger Kommunikation und medizinische Betreuung als wichtige Kriterien für die Lebensqualität an. Die Erhaltung und Wiederherstellung der Kommunikation seien daher äußerst wichtige Aspekte für die Lebensqualität, betonte Matuz.

Forschungsplattform FRIEND: Das System wird gesteuert, indem der Benutzer Befehle durch die Konzentration auf blinkende Felder auf einem Monitor absetzt. Foto: IAT, Universität Bremen
Forschungsplattform FRIEND: Das System wird gesteuert, indem der Benutzer Befehle durch die Konzentration auf blinkende Felder auf einem Monitor absetzt. Foto: IAT, Universität Bremen
Bei der Mehrzahl der ALS-Patienten bleibt die Beweglichkeit der Augen erhalten, sodass die Augensteuerung über ein Eye-Gaze-System zur Kommunikation eingesetzt werden kann. Hierbei misst ein spezielles Kamerasystem die Position der Pupille des Patienten, und durch einfaches Fixieren von visuellen Schaltflächen auf dem Bildschirm kann dieser Buchstaben oder Sätze auswählen oder Geräte, wie PC oder Notfallklingel, und Programme, wie E-Mail, Internet, Sprachausgabe, steuern. Eine spezielle Software errechnet dabei kontinuierlich den Blickwinkel des Auges und ermöglicht hierdurch die selbstständige Steuerung sämtlicher Funktionen.

Aufwendiges Verfahren
Weltweit wird darüber hinaus an Gehirn-Computer-Schnittstellen, sogenannnten Brain-Computer-Interfaces (BCI), gearbeitet, mittels derer vollständig gelähmte Patienten künftig ein Stück Autonomie zurückgewinnen sollen. Das Projekt „Berlin Brain Computer Interface (www.bbci.de) beispielsweise verfolgt dabei einen nicht invasiven Ansatz, wie Prof. Dr. Gabriel Curio, Neurologische Klinik der Charité – Universitätsmedizin Berlin, Campus Benjamin Franklin, erläuterte. Neben der Charité sind die Technische Universität Berlin sowie das Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik an dem interdisziplinären Forschungsprojekt beteiligt.

Für das BCI wird die elektrische Hirnaktivität in Form des Elektroenzephalogramms (EEG) genutzt. Dazu werden in einem aufwendigen Verfahren auf der Kopfhaut Elektroden entweder mithilfe einer elastischen Elektrodenhaube oder direkt aufgeklebt, die die hirnelektrischen Signale – minimale Spannungsdifferenzen von Millionstel Volt – messen. Diese werden verstärkt und an den Computer übermittelt, der die Gehirnsignale in technische Steuerungssignale umwandelt. Der Berliner Ansatz geht davon aus, dass nicht der Benutzer, sondern der Computer lernen soll. „Rechenalgorithmen sollen so trainiert werden, dass Gehirnsignale, die ohne Anstrengung generiert werden, gelesen und maschinell interpretiert werden, um dadurch die Bedienung von Schnittstellen zu ermöglichen“, erläuterte Curio.

Das Funktionsprinzip basiert dabei darauf, dass die Hirnaktivität bereits die rein gedankliche Vorstellung eines Verhaltens widerspiegelt, wie die Vorstellung, eine Hand oder einen Fuß zu bewegen. Zunächst werden daher Gehirnströme während einer willkürlichen Bewegung mittels eines EEGs aufgezeichnet und eine „Landkarte der Gehirnaktivität“ erstellt. „Bis zu einer Sekunde vor einer Handlung baut sich ein entsprechendes Bereitschaftspotenzial in einer Größenordnung von etwa zehn Millionstel Volt auf, das sich aus dem Rauschen der EEG-Grundaktivität herausfiltern lässt“, sagte Curio. Aus den Daten extrahieren Computerprogramme gedankenspezifische Aktivierungsmuster. Diese Daten werden so aufbereitet, dass sie technische Geräte und Hilfsmittel steuern können. Die mit dem Bewegungsimpuls korrelierenden Veränderungen des Hirnstrombilds können etwa zur Auswahl zwischen zwei Alternativen genutzt werden: Eine Option wird durch die Vorstellung, die linke Hand zu bewegen, ausgewählt, wohingegen für die andere Option eine Bewegung der rechten Hand vorgestellt werden muss. Studien an Patienten mit lange zurückliegenden Amputationen haben ergeben, dass derartige EEG-Signale selbst dann noch auftreten, wenn nur eine „Phantomhand“ bewegt werden soll. So lassen sich mit BCI-Feedback-Systemen nicht nur Computercursor steuern, sondern auch myoelektrische Prothesen.

Auch in Tübingen wird an Anwendungen von BCI-Techniken gearbeitet. Dort macht man sich charakteristische Ausprägungen des EEG-Signals zunutze, die nach einem physikalischen Stimulus auftreten (ereigniskorrelierte Potenziale). Dies können sensorische Ereignisse wie akustische oder visuelle Reize oder kognitive Prozesse sein. Verwendet wird die P300-Amplitude, die mit einer Latenz von rund 300 Millisekunden nach seltenen Ereignissen auftritt, das heißt nur dann, wenn die Versuchsperson einen für sie wichtigen Reiz wahrnimmt, der sich aus der Masse von Standardreizen abhebt.

Bei einer P300-Buchstabierhilfe („Speller“) wird zum Beispiel eine Buchstabenmatrix am Bildschirm dargestellt, bei der die Zeilen und Spalten in schneller Abfolge zufällig aufleuchten. Der Benutzer muss sich auf den gewünschten Buchstaben konzentrieren und zählt das Aufblitzen mit. Jedes Aufleuchten der Zeile oder Spalte des Buchstabens ruft im Gehirn des Probanden eine überraschungsähnliche Reaktion hervor, die sich als P300-Komponente manifestiert. Am Auftreten dieser Komponente lassen sich die Zeile und Spalte und damit der Buchstabe mittels Algorithmen herausfiltern. Ein BCI-Speller ermöglicht so das Schreiben von Text ohne motorische Aktivität. Eine Anwendung dieses Verfahrens ist ein „P300-Internetbrowser“, bei dem zwei Monitore kombiniert werden: Auf dem einen Monitor befindet sich der Browser zum Surfen, auf dem zweiten die Auswahlmatrix. Jedem Link wird ein Buchstabe zugeordnet, so etwa die Bildersuche bei Google ein „c“, und dieser wird über den „Speller“ ausgewählt.

Rehabilitationsroboter steuern
Noch einen Schritt weiter gehen die Bestrebungen, Rehabilitationsroboter zu konstruieren, die ausschließlich mit Hirnsignalen gesteuert werden können. So erforscht man am Institut für Automatisierungstechnik der Universität Bremen (www.iat.uni-bremen. de) unter anderem in den Projekten „BrainRobot“ und „AMAROB“ die Grundlagen der Robotersteuerung durch Signale, die aus Hirnstromaktivitäten mittels EEG über visuell evozierte Potenziale abgeleitet werden. Die Forschungsplattform „FRIEND“ besteht aus einem Rollstuhl mit Roboterarm, den der Nutzer, etwa ein Tetraplegiker, selbstständig steuern kann, um etwa einen Gegenstand zu greifen oder ein Glas einzuschenken und an den Mund zu führen.
Heike E. Krüger-Brand
Anzeige

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

Fachgebiet

Zum Artikel

Anzeige

Alle Leserbriefe zum Thema