THEMEN DER ZEIT

Roboterethik: Maschinen mit Moral?

Dtsch Arztebl 2016; 113(4): A-122 / B-106 / C-106

Krüger-Brand, Heike E.

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Der zunehmende Einsatz von komplexen autonomen Systemen, auch Roboter genannt, bringt vielfältige Herausforderungen für die Gesellschaft mit sich.

Humanoider Roboter: Wie gehen wir mit „lernfähigen“ Systemen um, die zunehmend in der Lage sind, Entscheidungen autonom zu treffen? Foto: Daimler und Benz Stiftung/Oestergaard
Humanoider Roboter: Wie gehen wir mit „lernfähigen“ Systemen um, die zunehmend in der Lage sind, Entscheidungen autonom zu treffen? Foto: Daimler und Benz Stiftung/Oestergaard

Roboter sind alltäglich geworden und dringen in sämtliche Lebensbereiche des Menschen vor. Als Prothesen und Implantate gehen sie sogar bis unter die Haut. Jeder vierte Deutsche kann sich inzwischen vorstellen, von einem Roboter gepflegt zu werden. Implantate für mehr Konzentration oder Gedächtnisleistung befürwortet jeder Zweite – so die Ergebnisse einer vom Bun­des­for­schungs­minis­terium beauftragten repräsentativen Umfrage im Juli 2015.

„Roboter der nächsten Generation werden Partner sein, die mit menschlichen Lebewesen koexistieren. Sie werden den Menschen physisch und psychologisch helfen. Sie werden zur Verwirklichung einer sicheren und friedlichen Gesellschaft beitragen“, zitierte Prof. Dr. med. Christiane Woopen, Universität Köln, bei einer Fachtagung zur Roboterethik* aus der „World Robot Declaration“ der International Robot Fair 2004. Die wissenschaftliche Leiterin der Tagung ging aber auch auf die Ambivalenz der technischen Entwicklung ein: „Diese selbstständigen Systeme machen uns in gewisser Weise Angst, insbesondere wenn sie mit einem Antlitz daherkommen, das uns an Menschen, an uns selbst erinnert. Gleichzeitig faszinieren sie uns, weil das Unvorstellbare machbar scheint. Die Faszination der Grenzüberschreitung und von Science-Fiction affiziert uns.“

Neue Abhängigkeiten

Roboter sollen das Leben vereinfachen und effizienter machen – im Haushalt, bei der Arbeit, in der Pflege, in der Freizeit, im Verkehr. Sie sollen Sicherheit bringen, gefährliche Aufgaben übernehmen und soziale Gerechtigkeit fördern. „Sie könnten aber auch ethische Probleme aufwerfen“, meinte Woopen, etwa indem sie zu neuen Abhängigkeiten statt Freiheiten führten und die Menschen zu überwachten Objekten technischer Systeme oder machtvoller Monopole machten. Eine Folge könnte der Verlust der Privatheit und Selbstbestimmung sein.

Für den Forscher und Entwickler sensorbasierter Robotersysteme, Prof. Dr. Alin Albu-Schäffer, Direktor des Instituts für Robotik und Mechatronik am Deutschen Zentrum für Luft- und Raumfahrt, steht der Mensch im Zentrum der Roboterentwicklung“ – „nicht nur, weil der Roboter dem Menschen dienen soll, sondern weil die Robotik auch der Versuch ist, Funktionalitäten des Menschen auf biomechanischer Ebene, aber auch auf geistiger Ebene zu verstehen und sie durch Nachbilden noch genauer nachzuvollziehen“, erläuterte er.

Von den klassischen Industrierobotern hin zu Soft-Robotics, die auch die Feinfühligkeit und Nachgiebigkeit von Menschen haben und sich elastisch an die Umgebung anpassen – die Entwicklung schreite zügig voran, so der Forscher (Kasten). „Nach wie vor ist man zwar weit von menschlichen Fähigkeiten entfernt, aber in 20 Jahren haben rasante Entwicklungen stattgefunden, etwa in der Nachbildung einer Armbewegung.“

Eine zentrale Rolle spielt die Fernsteuerung von Robotern. Dabei ist der Roboter eine Art Avatar des Menschen, beispielsweise in Katastrophenszenarien oder bei Aktionen eines Kosmonauten im All. Inzwischen sei es möglich, 3-D-Bilder aus der Perspektive des Roboters sowie mittels Sensoren gemessene Kräfte, Drücke, Drehmomente über klassische Internettechnologien mit einer Zeitverzögerung von bis zu einer Hundertstelsekunde zu übertragen, berichtete Albu-Schäffer.

Die Fernsteuerung wird auch in der Telemedizin genutzt. Ein Beispiel ist das Chirurgieroboterassistenzsystem „Da Vinci“, mit dem derzeit bereits 80 Prozent der Prostata-Operationen in den USA durchgeführt werden. Der Vorteil: „Der Arzt kontrolliert nach wie vor in vollständiger Entscheidungsfreiheit den Eingriff, aber der Roboter kann Bewegungen skalieren – im Millimeterbereich mit 3-D-Daten – und verbessert so die Qualität der OP“, erläuterte der Experte. Mit einem Stereokamerasystem werden dabei die Bilder aus der OP aufgenommen und dem Operateur an der Eingabestation angezeigt. Über eine Fernsteuerung mit Kraftrückkopplung (Forced Feedback) spürt er unmittelbar, wieviel Kraft er anwendet und in welchem Bereich es Widerstände gibt. Mit 3-D-Daten lassen sich Roboter sehr präzise steuern und beispielsweise so programmieren, dass ein Bereich, in dem Blutgefäße verlaufen, vermieden wird.

Fernsteuerung spielt auch in der Prothetik eine Rolle: Muskelströme, die bei der Kontraktion der Muskeln entstehen, werden gemessen. Diese Daten werden über künstliche neuronale Netze dekodiert und dann auf unterschiedliche Bewegungen der Prothesen angewendet. Damit lassen sich sowohl Bewegung als auch Kraft relativ feinfühlig steuern.

Andere Schnittstellen zur Fernsteuerung für vollständig querschnittsgelähmte Patienten sind Gehirnimplantate etwa zur Steuerung des Arms: Kommandos aus dem motorischen Kortex werden dekodiert und an den Roboter übertragen. Auch dabei werden Muskelströme von Restkontraktionen, die in den Muskeln vorhanden sind, aber nicht mehr zu Bewegungen führen können, gemessen, dekodiert und in Bewegung und Steuerung von Robotern umgesetzt, so dass solche Patienten über die Fernsteuerung etwas Selbstständigkeit im Alltag zurückerlangen können.

Darüber hinaus werde daran gearbeitet, Autonomiefunktionen mit der Fernsteuerung zu kombinieren, erläuterte Albu-Schäffer. Dabei werde etwa der Roboterarm gesteuert, gleichzeitig könne der Roboter aber (autonom) bestimmte Aktionen vorschlagen, wie den Griff zum Glas, das Öffnen eines Türgriffs.

Mit der Frage, wie Roboter lernen, befasste sich Prof. Dr. Jochen Steil, Uni Bielefeld. „Zum menschlichen Lernen gehört, dass wir aus der Erfahrung von den Ereignissen, den Daten auf neue Situationen generalisieren und uns darauf adaptiv einstellen. Das ist mehr, als Ereignisse speichern und reproduzieren“, erklärte der Neuroinformatiker. Das menschliche Lernen finde parallel auf vielen Ebenen statt und umfasse beispielsweise Wahrnehmung, Motorik, Sprache und Weltwissen, eingebettet in komplexe soziale Kontexte.

Lernende Roboter

Steil zufolge muss zwischen maschinellem Lernen in der virtuellen Datenwelt und lernenden Robotern in der physikalischen Welt unterschieden werden. Menschsein sei für den Roboter kompliziert, denn er beherrsche einfachste Konventionen sozialer Art nicht. Roboterlernen beziehe sich immer noch überwiegend nur auf Teilfähigkeiten. So könne ein Roboter, der Besucher im Museum herumführe, nicht einfach entscheiden beziehungsweise lernen, das Museum stattdessen etwa zu reinigen.

Im Hinblick auf Anwendungen in abgrenzbaren Teilbereichen gebe es jedoch mächtige Werkzeuge. Arbeitsprozesse und Anwendungsgebiete verändern sich dadurch erheblich. Beispiel Medizinroboter: Aus den vielen Operationen, die inzwischen mit dem „Da Vinci“-Roboter durchgeführt werden, lassen sich die Daten aufnehmen und mit Big-Data-Methoden analysieren und vergleichen (Skaleneffekte). „Wir erhalten so einen quantifizierbaren Maßstab für die Qualität einer Operation“, erläuterte Steil. Der Roboter helfe hier, Messverfahren in einem Bereich für eine hochgradig manuelle Spezialistentätigkeit einzuführen, die es vorher nicht gab. Was folgt daraus? „Muss ich demnächst bezahlen, weil meine OP nach diesem Maßstab etwas schlechter verlief? Was für Abweichungen wollen wir tolerieren? Kann man in einem solchen Szenario überhaupt noch neue Techniken ausprobieren ?“

Die ethischen Fragen, die sich aus der Vermessung von Interaktionen zwischen Mensch und Roboter in der Arbeitswelt ergeben, sind laut Steil mannigfaltig: „Die Daten aus der Zusammenarbeit, etwa zu Kraft, Interaktion, Schnelligkeit, die dabei entstehen, sind so sensibel wie andere Gesundheitsdaten auch. So lassen sich viele Informationen über den Mitarbeiter sammeln. Dürfen wir diese Daten auswerten? Müssen wir das vielleicht sogar, weil der Arbeitgeber sich um die Gesundheit der Arbeitnehmer kümmern muss? Hinzu kommen Gerechtigkeitsfragen: Erhält jeder die gleiche Assistenz? Werden alle gleich bezahlt, wem ist die Leistung zuzurechnen?“ Assistenz und Überwachung seien zwei Seiten derselben Medaille. „Das ist janusköpfig, und aus diesem Dilemma kommen wir auch nicht heraus“, meinte der Forscher. Steil verwies in diesem Kontext auch auf das 2015 veröffentlichte „Digital-Manifest“ namhafter Forscher, die vor der Automatisierung der Gesellschaft durch Algorithmen und künstliche Intelligenz warnen (www.spektrum.de/pdf/digital-manifest/1376682).

Sein Fazit: „Es gibt maschinelle Lernverfahren, Roboterlernverfahren, die auf dem Fähigkeitslevel sehr erfolgreich sind, aber die Komplexität von Metakognition ist für uns bisher absehbar nicht realisierbar. Roboter werden eher überschätzt aufgrund der Vermenschlichung, aber die Kombination von Robotern und Lernen in der Anwendung wird eher unterschätzt.“

Auf die relativ neue Disziplin der Maschinenethik ging Prof. Dr. Oliver Bendel, Fachhochschule Nordwestschweiz (FHNW), ein. Maschinenethik hat die Moral von (teil)autonomen Maschinen zum Gegenstand. Sie ist Bendel zufolge nicht nur eine Reflexions-, sondern auch eine Gestaltungsdisziplin. „Die moralischen Maschinen sollen moralisch adäquat handeln und dadurch im Vergleich zu normalen Systemen sicherer und besser werden.“

Bendel hat unter anderem untersucht, wie Berater-Chatbots (textbasierte Dialogsysteme) von Unternehmen auf problematische Äußerungen von Nutzern (Selbstmordabsicht, Amoklauf) reagieren – in der Regel völlig inadäquat. Vor diesem Hintergrund hat eine Studiengruppe an der FHNW einen „GoodBot“, der im moralischen Sinne gut entscheiden und kommunizieren soll, entwickelt. Ein erster Prototyp liege vor, berichtete der Informationswissenschaftler. Er erkennt bestimmte psychische Probleme anhand von Begriffen und Sätzen des Benutzers, fragt dann zurück („Brauchst du Hilfe?“) und kann auf mehreren Stufen eskalieren.

„Wenn Roboter der Zukunft alles, was wir können und tun, besser können sowie sicherer und effektiver tun, was wird dann aus uns?“ Christiane Woopen. Foto: Daimler und Benz Stiftung/Hillig
„Wenn Roboter der Zukunft alles, was wir können und tun, besser können sowie sicherer und effektiver tun, was wird dann aus uns?“ Christiane Woopen. Foto: Daimler und Benz Stiftung/Hillig

Bendel plädiert für einfache moralische Maschinen, wie etwa den „GoodBot“. Von komplexen moralischen Maschinen rät er hingegen ab. „Autonome Autos, die über Leben und Tod entscheiden, halte ich für keine gute Lösung. Es wird Entscheidungen geben, die nur wir Menschen treffen sollten.“

Technische Assistenzsysteme erscheinen vielen als Mittel, das Defizit an Pflegekräften insbesondere in der häuslichen Pflege zu kompensieren. Je autonomer Pflegeassistenzsysteme werden, desto eher müssen sie ihr Verhalten auch selbst regulieren können und über ein gewisses Maß an eigenständiger moralischer Entscheidungsfähigkeit verfügen, meinte Prof. Dr. Catrin Misselhorn, Universität Stuttgart. Situationen, die dies erfordern, sind etwa: Wie häufig soll ein Pflegesystem an Essen und Trinken und die Medikamenteneinnahme erinnern? Wann sollte es die Angehörigen verständigen oder den medizinischen Dienst alarmieren, wenn jemand sich eine Zeitlang nicht rührt? Wie ist mit den Monitoring-Daten zu verfahren?

In solchen Situationen muss das System laut Misselhorn zwischen bestimmten moralischen Entscheidungen wie etwa der Selbstbestimmtheit des Nutzers und gesundheitlichen Risiken oder der Sorge der Angehörigen abwägen. Die wichtigste Perspektive stelle die Sicht der Betroffenen dar. Wenn man diese nicht bevormunden wolle, müssten sie nicht nur die Entwicklung, sondern auch die Werte des Assistenzroboters beeinflussen können.

Misselhorn stellte Modelle des moralischen Lernens in künstlichen Systemen vor und entwarf daraus eine Roadmap für ein autonomes Assistenzsystem in der Altenpflege (eKasten). Ein solches System wäre ein künstlicher moralischer Agent, weil es Menschen entsprechend ihres moralischen Wertprofils behandeln kann. „Volle moralische Handlungsfähigkeit liegt aber nicht vor. Dies würde erfordern, dass Maschinen über Bewusstsein, Willensfreiheit und die Fähigkeit zu moralischer Reflexion und Begründung verfügen. Das tun sie nicht“, schränkte die Forscherin ein. Was man erreichen könne, sei eine „funktionale Moralität“ im Sinne der Fähigkeit künstlicher Systeme, sich an moralischen Standards auszurichten und in einem gewissen Spielraum autonom zu agieren.

Autonome Assistenzsysteme
eKasten
Autonome Assistenzsysteme

„Politik kann sich aus den Innovationsprozessen nicht heraushalten, selbst wenn sie das will“, resümierte Bundestagspräsident Prof. Dr. Norbert Lammert als Gastredner. Ihm zufolge sind es insbesondere „drei Bereiche, in denen sich Politik zur Robotik verhalten muss“: Militärroboter, Roboter oder autonome Systeme in der Medizin sowie Hauswirtschaftsroboter (einschließlich autonomer Fahrzeuge). Politik dürfe hier sowohl fördern als auch regulieren, denn der Regulierungsbedarf könne nicht allein aus der Technik kommen. Seine Empfehlung: Politik sollte den Entwicklungen auf der Spur bleiben, aber auch so souverän sein, Entwicklungen zu korrigieren, bei denen sich herausstellt, dass die damit verbundenen Hoffnungen übertrieben und die Risiken eher unterschätzt worden sind.

Heike E. Krüger-Brand

@eKasten sowie Studien zur Echtzeitsteuerung komplexer Systeme:
www.aerzteblatt.de/16122

*„Roboterethik: Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von ceres – cologne center for ethics, rights, economics, and social sciences of health und der Daimler und Benz Stiftung am 24.
November 2015 in Berlin

Definitionen, Daten und Fakten

Was sind Roboter?

Eine der vielen Definitionen lautet: Ein Roboter ist ein Gerät, das über mindestens drei Ebenen freier Beweglichkeit verfügt. Netzwerke aus Sensorensystemen werden zuweilen als robotische Systeme bezeichnet. Zudem gibt es zunehmend Roboter als selbstständige, (teil)autonome Systeme, die unabhängig von menschlicher Steuerung agieren und reagieren können.

Fortschritte in der Roboterentwicklung und Mechatronik beruhen vor allem auf drehmomentgeregelten Leichtbauantrieben und der Softwareentwicklung, über die menschenähnliche Fähigkeiten nachgebildet werden. Hinzu kommt die Annäherung an die Biomechanik etwa durch Implementierung muskelähnlicher Strukturen, die intrinsisch nachgiebig sind und dem antagonistischen Wirkungsprinzip menschlicher Muskeln folgen.

Einsatz in der Medizin

Nach Schätzungen der International Federation of Robotics sind weltweit im Jahr 2012 mehr als 450 000 Prozeduren allein mit Medizinrobotern erfolgt. Im Jahr 2000 waren es erst 1 000.

Boomender Markt: Im Jahr 2013 sind 1 300 Medizinroboter zu einem durchschnittlichen Stückpreis von 1,5 Millionen US-Dollar verkauft worden.

Maschinenethik

„Die Maschinenethik hat die Moral von Maschinen zum Gegenstand, vor allem von (teil)autonomen Systemen wie Agenten, Robotern, Drohnen, Computern im automatisierten Handel und selbstständig fahrenden Autos. Sie kann innerhalb von Informations- und Technikethik eingeordnet oder als Pendant zur Menschenethik angesehen werden.“ (http://d.aerzteblatt.de/HM41)

Anzeige
Autonome Assistenzsysteme
eKasten
Autonome Assistenzsysteme

    Leserkommentare

    E-Mail
    Passwort

    Registrieren

    Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

    Fachgebiet

    Zum Artikel

    Alle Leserbriefe zum Thema

    Login

    Loggen Sie sich auf Mein DÄ ein

    E-Mail

    Passwort

    Anzeige