NewsThemenE-HealthBevölkerung hält Maschinenintelligenz in der Medizin für sinnvoll
E-Health

E-Health

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Vermischtes

Bevölkerung hält Maschinenintelligenz in der Medizin für sinnvoll

Dienstag, 6. Februar 2018

Chatbot kommt aus der Computertastatur. /hainichfoto, stock.adobe.com
Chatbots halten viele Menschen für eine sinnvolle Ergänzung im Service, etwa bei der Buchung von Flügen, Hotels oder Arztterminen. Im Kundenservice wollen die meisten aber nicht mit Robotern sprechen, so das Ergebnis einer Bitkom-Umfrage. /hainichfoto, stock.adobe.com

Berlin – Künstliche Intelligenz (KI) ist den meisten Bürgern Deutschlands ein Begriff. 80 Prozent haben schon mal davon gehört und 82 Prozent fänden den Einsatz von KI im Gesundheitsbereich sinnvoll. Zu diesem Ergebnis kommt eine repräsentative Umfrage des Digitalverbands Bitkom unter 1.008 Personen, die Bitkom-Präsident Achim Berg heute in Berlin bei der Konferenz „Künstliche Intelligenz – Dein Freund und Helfer?“ anlässlich des Safer Internet Day 2018 vorgestellt hat.

Nach Meinung der Befragten (ab 14 Jahre) könnte KI in vielen Lebensbereichen unterstützend zum Einsatz kommen. An erster Stelle nennen die Umfrageteilnehmer Prognosen von Umweltphänomenen (93 Prozent), auf Platz zwei mit 92 Prozent folgt die Bekämpfung von Finanzkriminalität, 86 Prozent finden den KI-Einsatz zur Vermei­dung von Staus durch optimierte Ampeln sinnvoll und schon auf Platz vier folgt mit 81 Prozent die Früherkennung von Krankheiten.

Auch bei der Kommunikation wären viele bereit, mit einem Chatbot zu sprechen statt mit einem Menschen. 75 Prozent können sich Chatbots als eine sinnvolle Ergänzung bei der Buchung von Flügen, Hotels und Zügen vorstellen, 69 Prozent wären einver­standen, ihren Termin beim Arzt oder beim Amt über eine Maschine zu organisieren. Beim Kundenservice von Unternehmen wollen hingegen nur 28 Prozent auf echte Menschen verzichten.

Anzeige

Bürger zweifeln an Neutralität der KI

Die Frage nach der Neutralität fällt eher zu Ungunsten der KI aus. Nur jeder Zweite ist der Meinung, dass der Chatbot eine neutrale Antwort gibt und 52 Prozent glauben nicht daran, dass KI neutrale Entscheidungen trifft. Berg findet die Bedenken verständ­lich, da die Entscheidung der Maschine für den Verbraucher nicht transparent ist. Eine Art TÜV, der eine Offenlegung der Algorithmen beinhaltet, hält er aber nicht für zielführend: „Zum einen gibt es ein Problem mit dem Urheberrecht. Wenn man weiß, wie ein Algorithmus gebaut ist, öffnet dies der Manipulation Tür und Tor. Zum anderen sind Algorithmen extrem schwer zu verstehen.“ Die Logik der Entscheidung sollte aber dennoch überprüft werden können.

Bestimmte Institutionen müssen in die Lage versetzt werden, eine Algorithmenprüfung durchzuführen. Gerd Billen, Staatssekretär im Bundesministerium der Justiz und für Verbraucherschutz

Dem widerspricht Gerd Billen, Staatssekretär im Bundesministerium der Justiz und für Verbraucherschutz. „Bestimmte Institutionen müssen in die Lage versetzt werden, eine Algorithmenprüfung durchzuführen.“ Das sei auch deshalb so wichtig, weil Algorithmen nicht neutral seien. „Es können sich Fehler einschleichen über jene, die die Algorithmen programmieren oder aufgrund einer schlechten Datenqualität.“

Das Prüfverfahren vergleicht er mit der Offenlegung der Zusammensetzung eines Waschmittels gegenüber dem Bundesumweltamt, aber nicht gegenüber dem Kunden. Am Beispiel VW könne man sehen, was passiert, wenn diese Kontrolle entfällt. Denn das Kraftfahrtbundesamt war nicht in der Lage, die Software zu prüfen. „Hier haben wir einen Aufholbedarf, damit Verbraucher nicht hinters Licht geführt werden können.“

Bis wann eine entsprechende Prüfung von KI-Systemen möglich sein wird, kann Billen noch nicht absehen. Klar sei nur, dass eine unabhängige Marktüberwachung über den Staat erfolgen soll, um das Vertrauen der Verbraucher für KI zu gewinnen – ob und wie müsse noch diskutiert werden. „Die Aufgabe der Kontrolle könnten Institutionen wie die Stiftung Warentest übernehmen oder andere staatliche Institutionen“, sagt Billen.

Unter Mitwirkung von Unternehmen, die KI bereits einsetzten, hat Bitkom heute „Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen“ veröffentlicht. Zum Thema Gesundheit steht hier: „Besonders verantwortungsvolle Entscheidungsprozesse – zum Beispiel in der autonomen Steuerung von Fahrzeugen oder in der medizinischen Diagnostik – sollen so gestaltet werden, dass die letzte Entscheidungskompetenz bei verantwortlichen Akteuren verbleibt, bis die Steuerungsqualität der KI ein von allen Beteiligten akzeptiertes Niveau erreicht.“ Demnach soll die Entscheidungshoheit beim Arzt bleiben. © gie/aerzteblatt.de

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.