Neurotechnologie: Zunehmend jenseits von medizinischen Spezialanwendungen

Berlin – Neurotechnologien, wie Gehirn-Computer-Schnittstellen oder intelligente Prothesen, reichen mittlerweile weit über ihren ursprünglichen medizinischen Kontext hinaus. Ihr Eindringen in unseren Alltag geht mit ethischen, rechtlichen sowie gesellschaftlichen Herausforderungen einher.
Der interdisziplinär besetzte Deutsche Ethikrat plant deshalb, diese demnächst im Rahmen einer Stellungnahme umfassend zu erörtern – „bevor sich neue technologische Realitäten stillschweigend durchsetzen“.
Neurotechnologien wie Smartglasses, EEG-Headsets oder KI-Kopfhörer seien erst der Anfang der Entwicklung. „Und sie sind auch längst kein fernes Zukunftsthema mehr“, betonte gestern Aldo Faisal, Informatiker und Sprecher der Arbeitsgruppe für die Stellungnahme Neurotechnologie im Deutschen Ethikrat. Vielmehr hätten Neurotechnologien längst Einzug in den Alltag gehalten. Sie seien Vorboten einer Entwicklung, bei der Technik immer näher an unser Denken und unsere Gefühle reiche.
Durch den Einsatz von Künstlicher Intelligenz (KI) und die Verknüpfung verschiedenster Datenquellen werde Neurotechnologie zunehmend zu einer alltagstauglichen Verbrauchertechnologie, so der Professor für Digital Health der Universität Bayreuth und des Imperial College London. Entscheidend sei jetzt, die Auswirkungen auf Individuum und Gesellschaft nüchtern zu analysieren – jenseits von Technikbegeisterung ebenso wie von pauschalen Befürchtungen.
Öffentlichen Anhörung
Dies taten gestern Expertinnen und Experten bei einer Öffentlichen Anhörung des Deutschen Ethikrats zu diesem Thema. Sie erörterten insbesondere, in welchen Anwendungsszenarien die größten Risiken zu erwarten sind und wo politischer oder regulatorischer Handlungsbedarf besteht.
Bei einer ersten Anhörung im vergangenen Herbst habe man zunächst Fakten gesammelt und sich einen Überblick über die Entwicklungen verschafft, erläuterte der Vorsitzende des Deutschen Ethikrates, Helmut Frister. Nun sollten die ethischen, rechtlichen und gesellschaftlichen Konsequenzen aus der zunehmenden Verbreitung entsprechender Anwendungen im Mittelpunkt stehen.
Die Neurowissenschaftlerin Laura Bernáez Timón vom Centre for Future Generations in Brüssel wies darauf hin, dass Unternehmen im Bereich der Verbraucher-Neurotechnologie inzwischen zahlreicher seien als medizinische Anbieter. Fortschritte bei Sensorik und KI hätten dazu geführt, dass entsprechende Funktionen zunehmend in Alltagsgeräte wie Ohrhörer, Kopfhörer oder Brillen integriert würden. Zwar seien diese Systeme bislang weniger präzise als klinische Anwendungen, ermöglichten jedoch eine kontinuierliche Erfassung von Hirndaten.
Zwei zentrale Risiken
Daraus ergäben sich laut Bernáez Timón zwei zentrale Risiken: Zum einen unterlägen Verbraucherprodukte deutlich geringeren Sicherheits- und Wirksamkeitsanforderungen als medizinische Technologien. Zum anderen könnten bereits einfache Messgrößen wie Aufmerksamkeit oder Müdigkeit Rückschlüsse auf mentale Zustände erlauben. In Kombination mit bestehenden digitalen Plattformen eröffne dies Möglichkeiten für gezielte, zeitlich abgestimmte und hochgradig personalisierte Einflussnahme – etwa durch Werbung oder Desinformation.
Auch Bertolt Meyer, Professor für Arbeits-, Organisations- und Wirtschaftspsychologie an der Technischen Universität Chemnitz, betonte die wachsende Bedeutung von KI als Schnittstelle zwischen Gehirn und digitaler Welt. Neue Anwendungen könnten neuronale Daten zunehmend präzise „übersetzen“ und so etwa den Einsatz von Gehirn-Computer-Schnittstellen vorantreiben.
Diese Technologien gehörten zu den sogenannten Human Augmentation Technologies, die menschliche Fähigkeiten erweitern sollen. Ihre gesellschaftliche Akzeptanz hänge jedoch stark vom jeweiligen Einsatzzweck ab – etwa davon, ob sie der Therapie oder der Leistungssteigerung dienen. „Zugleich bergen sie neben ihrem potenziellen Nutzen das Risiko der Stigmatisierung ihrer Nutzerinnen und Nutzer“, erklärte er.
Meyer verwies bei der Veranstaltung auch auf seinen persönlichen Bezug zum Thema: Da er ohne den linken Unterarm zur Welt kam, trägt er eine bionische Prothese. Durch sie erfahre er ganz persönlich und direkt den technischen Fortschritt.
Die Neurowissenschaftlerin Ilina Singh von der Universität Oxford stellte gestern klar, dass auch große Sprachmodelle als eine Form von Neurotechnologie verstanden werden könnten, da sie gezielt auf kognitive Prozesse wie Aufmerksamkeit oder Selbstkontrolle einwirkten.
Gleichzeitig könnten sie genutzt werden, um Hinweise auf psychische Erkrankungen zu erkennen. Anhand von Anwendungen zur Selbstdiagnose bei jungen Menschen zeigte Singh, dass ein stufenweiser Versorgungsansatz sinnvoll sein könne. Dieser müsse die sich entwickelnde Selbstständigkeit junger Nutzerinnen und Nutzer berücksichtigen und gleichzeitig potenzielle Risiken begrenzen.
Die Ethikerin Saskia Nagel von der RWTH Aachen verwies darauf, dass Neurotechnologien nicht nur therapeutisch, sondern auch zur gezielten Leistungssteigerung eingesetzt werden könnten. Damit gingen Risiken wie Manipulation oder gesellschaftliche Normalisierungsprozesse einher, die insbesondere Kinder und Jugendliche betreffen könnten, warnt auch sie. Zugleich böten die Technologien aber auch neue Chancen, die sensibel in bestehende soziale und ethische Kontexte eingebettet werden müssten.
Aus medizinischer und regulatorischer Sicht hob Philipp Kellmeyer von der Universität Mannheim die Bedeutung des Schutzes mentaler Privatsphäre und Integrität hervor. Insbesondere Neurostimulationsverfahren könnten tief in kognitive und emotionale Prozesse eingreifen, sagte der Neurologe und Informatiker.
„Neurotechnologien eröffnen neue therapeutische Möglichkeiten, werfen jedoch neben aktuellen Debatten um den Schutz der mentalen Privatsphäre auch grundlegende Fragen nach mentaler Integrität auf“, sagte der Leiter des Human-Technology Interaction Lab in der Abteilung für Neurochirurgie am Universitätsklinikum Freiburg.
Dies gelte insbesondere für invasive und nicht-invasive Neurostimulationsverfahren, deren Wirkungen auf kognitive, affektive und andere mentale Prozesse im medizinischen wie auch im nicht medizinischen Kontext zunehmend relevant wurden.
„Zudem ist Vulnerabilität in der Medizin wie im Verbraucherbereich ein zentraler normativer Faktor, der die Autonomie und Einwilligungsfähigkeit von Patientinnen und Patienten als auch Nutzerinnen und Nutzer beeinflusst“, so Kellmeyer.
So entstünden durch verbraucherorientierte neurotechnologische Anwendungen beispielsweise neue Formen von Nutzungsdruck, Selbstmodifikation und datenökologischer Abhängigkeit.“ Er plädierte deshalb für einen Regulierungsansatz, der die mentale Integrität als Schutzgut ernst nimmt und partizipative Verfahren systematisch in Entwicklungs- und Governanceprozesse integriert.
Marcello Ienca von der Technischen Universität München betonte, dass mit der Ausweitung neurotechnologischer Anwendungen auf Bereiche wie Wellness, Bildung und Arbeitswelt Fragen der mentalen Selbstbestimmung, kognitiven Freiheit und des Schutzes mentaler Daten zunehmend an Bedeutung gewinnen.
Bestehende Datenschutz- und Grundrechtsinstrumente böten zwar wichtige Ansätze, seien jedoch nicht vollständig auf diese neuen Kontexte zugeschnitten. Notwendig sei daher eine verantwortungsvolle Governance – also Steuerung – insbesondere im nicht medizinischen Bereich.
Für den Rechtswissenschaftler Christoph Bublitz von der Universität Hamburg, der sich mit der rechtlichen Konzeptualisierung der Psyche und der Regulierung ihrer (technischen) Veränderung beschäftigt, steht derzeit die Vorbereitung auf mögliche, aber weitgehend unklare technische Entwicklungen im Vordergrund. Beispielsweise sollten psychische Effekte digitaler Technologien in Risikoanalysen stärker berücksichtigt werden, meinte er. Hierzu sollte nach seiner Ansicht interdisziplinär ein Mental-Impact-Assessment entwickelt werden.
Diskutieren Sie mit
Werden Sie Teil der Community des Deutschen Ärzteblattes und tauschen Sie sich mit unseren Autoren und anderen Lesern aus. Unser Kommentarbereich ist ausschließlich Ärztinnen und Ärzten vorbehalten.
Anmelden und Kommentar schreiben
Bitte beachten Sie unsere Richtlinien. Der Kommentarbereich wird von uns moderiert.
Diskutieren Sie mit: